CN112699957A - 一种基于darts的图像分类优化方法 - Google Patents
一种基于darts的图像分类优化方法 Download PDFInfo
- Publication number
- CN112699957A CN112699957A CN202110026434.9A CN202110026434A CN112699957A CN 112699957 A CN112699957 A CN 112699957A CN 202110026434 A CN202110026434 A CN 202110026434A CN 112699957 A CN112699957 A CN 112699957A
- Authority
- CN
- China
- Prior art keywords
- training
- network
- neural network
- convolutional neural
- darts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000005457 optimization Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 47
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 32
- 238000012360 testing method Methods 0.000 claims abstract description 18
- 238000012795 verification Methods 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000009191 jumping Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 238000010200 validation analysis Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 6
- 230000002787 reinforcement Effects 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于DARTS的图像分类优化方法,用于提高DARTS构建的模型对图像分类的稳定性和准确率。本发明分析跳跃连接操作在排他操作方面有不公平优势,进而导致DARTS性能崩溃,本发明提出了一种关联跳跃连接操作构造新的验证损失函数,以阻碍这种不公平的优势,避免跳跃连接过度,并且解析架构参数确定一个针对特定图像数据集的合适的子网络。接着进行整体模型训练测试,堆叠一定个数的搜索好的单元架构来构建卷积神经网络,从头开始训练,基于此模型对图像进行稳定而准确的分类测试。本方法在针对特定图像进行分类时可以有效地阻碍跳跃连接的不公平优势,并能产生更好的性能。
Description
技术领域
本发明属于深度学习及机器视觉领域,涉及一种基于DARTS的图像分类优化技术。这在现实场景中具有非常广泛的应用,例如人脸识别、指纹识别等。
背景技术
图像分类是使用计算机视觉和机器学习算法从图像中抽取意义的任务。看似简单,但是这是计算机视觉领域的核心问题之一,为其他视觉领域中的问题(比如物体检测和分割)做技术基础。图像分类任务因为图像分类任务的多样性而变得困难,图像类别总数不一致,比如数据集cifar10类和ImageNet的1000类;图像特点多样性,比如背景单一且为灰度图的mnist数据集和复杂背景且为彩色图的cifar100数据集。因而不同的图像分类任务要选择一个合适的CNN网络变得非常困难。
近年来,针对图像分类任务,深度学习的繁荣,尤其是神经网络的发展,颠覆了传统方式对图像分类的时代,将卷积神经网络的浪潮推到了历史最高点。针对不同的图像数据集,各种神经网络模型层出不穷,而网络结构作为一种特殊的超参数,在深度学习整个环节中扮演着举足轻重的角色。然而,往往模型性能越高,对超参数的要求也越来越严格,稍有不同就无法复现论文的结果。在图像分类任务上大放异彩的Residual Networks(ResNet)、在机器翻译任务上称霸的Transformer等网络结构无一不来自专家的精心设计。这些精细的网络结构的背后是深刻的理论研究和大量广泛的实验,这无疑给人们带来了新的挑战。
但是大热的深度神经网络,虽然将以前很另人头疼的特征提取自动化了,但卷积神经网络结构的设计很大程度上还是需要手工设计,且依赖经验。一个自然的诉求就是针对特定的图像分类任务,最优神经网络架构选择的工作能否交给机器来做。近几年,主流的效果最好的神经网络架构搜索的两种方法是进化算法(EvolutionaryAlgorithm)和强化学习(Reinforcement learning),但是这两种架构搜索相当于一个离散领域的黑盒优化问题,从而导致需要评价大量的结构,非常耗时。受到此启发,可以将搜索空间松弛到连续的领域,通过梯度下降进行性能优化,能够在丰富的搜索空间搜索到一种具有复杂图形拓扑结构的高性能框架,从而得到稳定而精确的图像分类结果。
发明内容
为了提高DARTS构建的模型对图像分类的稳定性和准确率,本发明提出一种基于DARTS的图像分类优化方法。
本发明在搜索单元训练时关联跳跃连接操作构造了一个新的验证损失函数,以阻碍跳跃连接的不公平优势,避免跳跃连接过度,并且解析架构参数,确定了最终的子网络更合适特定的图像数据集,实现图形分类的稳定性和准确率都有所提高。
具体技术方案如下:
该技术方案主要分为两个阶段:搜索单元训练阶段和整体模型训练测试阶段。
搜索单元训练阶段包括以下步骤:
步骤1:确定搜索空间:搜索单元训练阶段目标是搜索一个单元,这个单元可以堆叠组成卷积神经网络。一个单元是n个节点构成的有向无环图。每一个节点x(i)是卷积神经网络中一个特征图的表示,并且每一条边(i,j)是节点x(i)到节点x(j)的操作o(i,j)。每个单元有两个输入和一个输出,卷积神经网络中,单元的两个输入对应前两层的输出。网络共搜索两种单元,一种是normal cell,另一种是reduction cell。reduction cell会把输出的特征图高度和宽度缩小一倍,用在网络的1/3和2/3处。通过把单元不断堆叠得到表现好的卷积神经网络。
每一个中间节点都是根据所有的前节点计算的,如公式(1)所示:
步骤2:用O表示候选离散的操作集合(卷积、池化、零),其中应用于节点x(i)的某个函数o(·)表示某一种操作。为了让搜索空间连续,对所有的结构计算其softmax,公式如下:
其中成对节点之间混合权重的操作被向量α(i,j)∈|O|进行参数化,此时的结构化搜索任务被简化成学习一系列连续的变量的过程α={α(i,j)}。在搜索过程的最后,将每一个混合操作替换为最可能的操作(直接将softmax后最大α值对应的操作保留而抛弃其他的操作)从而得到一个离散的结构α。
松弛完成之后,我们的目标是学习结构α和权重w,类似于强化学习或者进化算法,将验证集上的性能看做最终的目标或者拟合程度,DARTS的目标就是优化验证集上的损失。Ltrain和Lval分别表示训练和验证的损失。这两个损失不仅决定了结构α而且也决定了网络中的权重w。结构的搜索目标是找到最优α*使Lval(w*,α*)最小,然而架构搜索中的skip-connect操作如果在一个单元中所占比例比较大,整个卷积神经网络就会变浅,使其图像分类能力变弱。为了避免跳跃连接过度,在搜索架构时把验证损失Lval(w*,α*)与skip-coonect操作联系到一起如公式4所示,其中λ是一个常数,os代表跳跃连接操作,表示架构矩阵,设置架构矩阵跳跃操作为矩阵向量1,其他操作为矩阵向量0,累加跳跃连接操作个数,从而可知跳跃连接操作个数和整体验证损失函数成正比,那么为使整体验证损失最小,则网络搜索出来的单元包含的skip-connect操作也不会很多,这样设计验证损失函数阻碍跳跃连接的不公平优势,那么最后搜索出来的单元组成的卷积神经网络对图像分类任务的稳定性和准确率会有所提高。确定下来结构α之后,通过最小化训练损失得到权重w*=arg maxwLtrain(w,α*),其双层优化公式如下:
w*(α)=arg maxw Ltrain(w,α) (4)
整体模型训练测试包括以下步骤:
步骤1:用搜索单元训练阶段搜到的单元堆叠起来,并用normal cell和reductioncell构建整个卷积神经网络;
步骤2:将图像数据集分为训练集和测试集,将构造好的卷积神经网络在训练集上进行权值的训练,具体操作是输入图像,经过卷积神经网络之后求出网络的输出值与目标值之间的误差,当训练轮数少于设定的轮数,就将误差传回网络中,并更新权重,循环此操作,直至达到一定的训练轮数就停止训练,保存网络的结构和权重。
步骤3:加载网络结构和权重,输入图像数据集在其上面进行图像测试,测试结果可以在很多公开数据集上取得不错的结果。
有益效果
本文的基于DARTS的图像分类优化方法在搜索单元训练的时候优势明显,而且这个方法针对特定图像数据集,在搜索网络时构造的验证损失函数与跳跃连接操作成正比,最终为使得验证损失最小,那么跳跃连接操作也不会很多,因而阻碍了跳跃连接的不公平优势,那么卷积神经网络结构不会变浅,使得图像分类性能会达到更好的效果。
附图说明
图1本发明方法整体实验流程图。
图2本方法使用的卷积神经网络结构图。
图3(a)表示DARTS搜索架构阶段最终单元cell的结构图。左侧图为normal cell结构,右侧图为reduction cell结构。(b)表示DARTS-0.1搜索架构阶段最终单元cell的结构图。左侧图为normal cell结构,右侧图为reduction cell结构。(c)表示DARTS-0.2搜索架构阶段最终单元cell的结构图。左侧图为normal cell结构,右侧图为reduction cell结构。
图4十类cifar10数据集每类随机抽取10张图像展示图。
具体实施方式
本发明在搜索单元训练时构造了一个新的损失函数,使其搜索到的单元块包含的skip-connect操作减少,然后得到最终的子网络更合适特定的图像数据集,实现图形分类的稳定性和准确率都有所提高。
具体技术方案如下:
具体技术方案如下:
该技术方案主要分为两个阶段:搜索单元训练阶段和整体模型训练测试阶段。
搜索单元训练阶段包括以下步骤:
步骤1:确定搜索空间:搜索单元训练阶段目标是搜索一个单元,这个单元可以堆叠组成卷积神经网络。一个单元是n个节点构成的有向无环图。每一个节点x(i)是卷积神经网络中一个特征图的表示,并且每一条边(i,j)是节点x(i)到节点x(j)的操作o(i,j)。每个单元有两个输入和一个输出,卷积神经网络中,单元的两个输入对应前两层的输出。网络共搜索两种单元,一种是normal cell,另一种是reduction cell。reduction cell会把输出的特征图高度和宽度缩小一倍,用在网络的1/3和2/3处。通过把单元不断堆叠得到表现好的卷积神经网络。
每一个中间节点都是根据所有的前节点计算的,如公式(1)所示:
步骤2:用O表示候选离散的操作集合(卷积、池化、零),其中应用于节点x(i)的某个函数o(·)表示某一种操作。为了让搜索空间连续,对所有的结构计算其softmax,公式如下:
其中成对节点之间混合权重的操作被向量α(i,j)∈|O|进行参数化,此时的结构化搜索任务被简化成学习一系列连续的变量的过程α={α(i,j)}。在搜索过程的最后,将每一个混合操作替换为最可能的操作(直接将softmax后最大α值对应的操作保留而抛弃其他的操作)从而得到一个离散的结构α。
松弛完成之后,我们的目标是学习结构α和权重w,类似于强化学习或者进化算法,将验证集上的性能看做最终的目标或者拟合程度,DARTS的目标就是优化验证集上的损失。Ltrain和Lval分别表示训练和验证的损失。这两个损失不仅决定了结构α而且也决定了网络中的权重w。结构的搜索目标是找到最优α*使Lval(w*,α*)最小,然而架构搜索中的skip-connect操作如果在一个单元中所占比例比较大,整个卷积神经网络就会变浅,使其图像分类能力变弱。为了避免跳跃连接过度,在搜索架构时把验证损失Lval(w*,α*)与skip-coonect操作联系到一起如公式4所示,其中λ是一个常数,os代表跳跃连接操作,表示架构矩阵,设置架构矩阵跳跃操作为矩阵向量1,其他操作为矩阵向量0,累加跳跃连接操作个数,从而可知跳跃连接操作个数和整体验证损失函数成正比,那么为使整体验证损失最小,则网络搜索出来的单元包含的skip-connect操作也不会很多,这样设计验证损失函数阻碍跳跃连接的不公平优势,那么最后搜索出来的单元组成的卷积神经网络对图像分类任务的稳定性和准确率会有所提高。确定下来结构α之后,通过最小化训练损失得到权重w*=arg maxwLtrain(w,α*),其双层优化公式如下:
w*(α)=arg maxw Ltrain(w,α) (4)
整体模型训练测试包括以下步骤:
步骤1:用搜索单元训练阶段搜到的单元堆叠起来,并用normal cell和reductioncell构建整个卷积神经网络;
步骤2:将图像数据集分为训练集和测试集,将构造好的卷积神经网络在训练集上进行权值的训练,具体操作是输入图像,经过卷积神经网络之后求出网络的输出值与目标值之间的误差,当训练轮数少于设定的轮数,就将误差传回网络中,并更新权重,循环此操作,直至达到一定的训练轮数就停止训练,保存网络的结构和权重。
步骤3:加载网络结构和权重,输入图像数据集在其上面进行图像测试,测试结果可以在很多公开数据集上取得不错的结果。
具体实施步骤叙述完毕,实验结果如下表所示。下面给出本发明的一个测试结果。实验环境为:GTX1070GPU,CUDA 8.0版本,使用cifar10数据集进行测试并与现有的DARTS方法进行比较。用以下评估方法评估本发明的结果,准确率越高越好,损失越小越好。其中分为搜索过程和训练过程的实验结果,搜索过程与原有的DARTS方法进行了对比,其中DARTS-0.1代表公式四中的λ取值为0.1,DARTS-0.2代表公式四中的λ取值为0.2,结果如下表:
结果对比:
本文的基于DARTS的图像分类优化方法在搜索单元训练的时候优势明显,而且这个方法针对特定图像数据集,在构建网络时构造的验证损失函数与skip-connect操作成正比,最终使得验证损失函数最小,那么skip-connect操作也不会很多,阻碍跳跃连接的不公平优势,卷积神经网络结构不会变浅,使得图像分类性能会达到更好的效果。
Claims (1)
1.一种基于DARTS的图像分类优化方法,其特征在于:分为两个阶段:搜索单元训练阶段和整体模型训练测试阶段;
搜索单元训练阶段包括以下步骤:
步骤1:确定搜索空间:搜索单元训练阶段目标是搜索一个单元,这个单元可以堆叠组成卷积神经网络;一个单元是n个节点构成的有向无环图;每一个节点x(i)是卷积神经网络中一个特征图的表示,并且每一条边(i,j)是节点x(i)到节点x(j)的操作o(i,j);每个单元有两个输入和一个输出,卷积神经网络中,单元的两个输入对应前两层的输出;网络共搜索两种单元,一种是normal cell,另一种是reduction cell;reduction cell会把输出的特征图高度和宽度缩小一倍,用在网络的1/3和2/3处;通过把单元不断堆叠得到表现好的卷积神经网络;
每一个中间节点都是根据所有的前节点计算的,如公式(1)所示:
步骤2:用O表示候选离散的操作集合,其中应用于节点x(i)的某个函数o(·)表示某一种操作;为让搜索空间连续,对所有的结构计算其softmax,公式如下:
其中成对节点之间混合权重的操作被向量α(i,j)∈|O|进行参数化,此时的结构化搜索任务被简化成学习一系列连续的变量的过程α={α(i,j)};在搜索过程的最后,将每一个混合操作替换为最可能的操作从而得到一个离散的结构α;
松弛完成之后,目标是学习结构α和权重w,类似于强化学习或者进化算法,将验证集上的性能看做最终的目标或者拟合程度,DARTS的目标就是优化验证集上的损失;Ltrain和Lval分别表示训练和验证的损失;在搜索架构时把验证损失Lval(w*,α*)与skip-coonect操作联系到一起如公式4所示,其中λ是一个常数,os代表跳跃连接操作,表示架构矩阵,设置架构矩阵跳跃操作为矩阵向量1,其他操作为矩阵向量0,累加跳跃连接操作个数,从而可知跳跃连接操作个数和整体验证损失函数成正比;确定下来结构α之后,通过最小化训练损失得到权重w*=argmaxwLtrain(w,α*),其双层优化公式如下:
w*(α)=argmaxwLtrain(w,α) (4)
整体模型训练测试包括以下步骤:
步骤1:用搜索单元训练阶段搜到的单元堆叠起来,并用normal cell和reductioncell构建整个卷积神经网络;
步骤2:将图像数据集分为训练集和测试集,将构造好的卷积神经网络在训练集上进行权值的训练,具体操作是输入图像,经过卷积神经网络之后求出网络的输出值与目标值之间的误差,当训练轮数少于设定的轮数,就将误差传回网络中,并更新权重,循环此操作,直至达到一定的训练轮数就停止训练,保存网络的结构和权重;
步骤3:加载网络结构和权重,输入图像数据集在其上面进行图像测试,测试结果可以在很多公开数据集上取得不错的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110026434.9A CN112699957B (zh) | 2021-01-08 | 2021-01-08 | 一种基于darts的图像分类优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110026434.9A CN112699957B (zh) | 2021-01-08 | 2021-01-08 | 一种基于darts的图像分类优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112699957A true CN112699957A (zh) | 2021-04-23 |
CN112699957B CN112699957B (zh) | 2024-03-29 |
Family
ID=75513633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110026434.9A Active CN112699957B (zh) | 2021-01-08 | 2021-01-08 | 一种基于darts的图像分类优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112699957B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255892A (zh) * | 2021-06-01 | 2021-08-13 | 上海交通大学烟台信息技术研究院 | 一种解耦合的网络结构搜索方法、设备及可读存储介质 |
CN113762469A (zh) * | 2021-08-13 | 2021-12-07 | 北京航空航天大学 | 神经网络结构搜索方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018010434A1 (zh) * | 2016-07-13 | 2018-01-18 | 华为技术有限公司 | 一种图像分类方法及装置 |
CN110852168A (zh) * | 2019-10-11 | 2020-02-28 | 西北大学 | 基于神经架构搜索的行人重识别模型构建方法及装置 |
CN111860495A (zh) * | 2020-06-19 | 2020-10-30 | 上海交通大学 | 一种层级化网络结构搜索方法、设备及可读存储介质 |
CN112036512A (zh) * | 2020-11-03 | 2020-12-04 | 浙江大学 | 基于网络裁剪的图像分类神经网络架构搜索方法和装置 |
-
2021
- 2021-01-08 CN CN202110026434.9A patent/CN112699957B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018010434A1 (zh) * | 2016-07-13 | 2018-01-18 | 华为技术有限公司 | 一种图像分类方法及装置 |
CN110852168A (zh) * | 2019-10-11 | 2020-02-28 | 西北大学 | 基于神经架构搜索的行人重识别模型构建方法及装置 |
CN111860495A (zh) * | 2020-06-19 | 2020-10-30 | 上海交通大学 | 一种层级化网络结构搜索方法、设备及可读存储介质 |
CN112036512A (zh) * | 2020-11-03 | 2020-12-04 | 浙江大学 | 基于网络裁剪的图像分类神经网络架构搜索方法和装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255892A (zh) * | 2021-06-01 | 2021-08-13 | 上海交通大学烟台信息技术研究院 | 一种解耦合的网络结构搜索方法、设备及可读存储介质 |
CN113255892B (zh) * | 2021-06-01 | 2023-09-05 | 上海交通大学烟台信息技术研究院 | 一种解耦合的网络结构搜索方法、设备及可读存储介质 |
CN113762469A (zh) * | 2021-08-13 | 2021-12-07 | 北京航空航天大学 | 神经网络结构搜索方法及系统 |
CN113762469B (zh) * | 2021-08-13 | 2024-05-03 | 北京航空航天大学 | 神经网络结构搜索方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112699957B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111148118B (zh) | 基于时间序列的流量预测和载波关断方法和系统 | |
CN110851645B (zh) | 一种基于深度度量学习下相似性保持的图像检索方法 | |
CN110852168A (zh) | 基于神经架构搜索的行人重识别模型构建方法及装置 | |
US20210334658A1 (en) | Method for performing clustering on power system operation modes based on sparse autoencoder | |
CN112287166B (zh) | 一种基于改进深度信念网络的电影推荐方法及系统 | |
CN112699957A (zh) | 一种基于darts的图像分类优化方法 | |
CN110457516A (zh) | 一种跨模态图文检索方法 | |
CN114373101A (zh) | 基于进化策略的神经网络架构搜索的图像分类方法 | |
CN111723914A (zh) | 一种基于卷积核预测的神经网络架构搜索方法 | |
CN113780002A (zh) | 基于图表示学习和深度强化学习的知识推理方法及装置 | |
CN115688908A (zh) | 一种基于剪枝技术的高效神经网络搜索与训练方法 | |
CN110866134A (zh) | 一种面向图像检索的分布一致性保持度量学习方法 | |
CN110989342A (zh) | 一种联合循环机组重型燃气轮机实时t-s模糊建模方法 | |
CN107578101B (zh) | 一种数据流负载预测方法 | |
CN114006370A (zh) | 一种电力系统暂态稳定分析评估方法及系统 | |
CN114548591A (zh) | 一种基于混合深度学习模型和Stacking的时序数据预测方法及系统 | |
CN116452904A (zh) | 图像美学质量确定方法 | |
CN113780146B (zh) | 基于轻量化神经架构搜索的高光谱图像分类方法及系统 | |
CN115457269A (zh) | 一种基于改进DenseNAS的语义分割方法 | |
CN111428224B (zh) | 基于人脸识别的电脑账户登录的方法 | |
Ding et al. | Simplified space based neural architecture search | |
CN113706285A (zh) | 一种信用卡欺诈检测方法 | |
Chetoui et al. | Course recommendation model based on Knowledge Graph Embedding | |
Liner et al. | Improving neural network learning through dual variable learning rates | |
Ma | Parameter tuning using gaussian processes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |