CN111488980A - 优化采样的神经网络的设备上持续学习方法及装置 - Google Patents

优化采样的神经网络的设备上持续学习方法及装置 Download PDF

Info

Publication number
CN111488980A
CN111488980A CN202010038838.5A CN202010038838A CN111488980A CN 111488980 A CN111488980 A CN 111488980A CN 202010038838 A CN202010038838 A CN 202010038838A CN 111488980 A CN111488980 A CN 111488980A
Authority
CN
China
Prior art keywords
learning
data
volume
preset
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010038838.5A
Other languages
English (en)
Other versions
CN111488980B (zh
Inventor
金桂贤
金镕重
金寅洙
金鹤京
南云铉
夫硕焄
成明哲
吕东勋
柳宇宙
张泰雄
郑景中
诸泓模
赵浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of CN111488980A publication Critical patent/CN111488980A/zh
Application granted granted Critical
Publication of CN111488980B publication Critical patent/CN111488980B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及以智能手机、无人机、船舶或军事目的提供的一种用于分析输入数据的神经网络(Neural Network)的设备上持续学习(On‑Device Continual Learning)的方法,所述方法包括:步骤(a),学习装置对新数据进行统一采样(Uniform‑Sampling),使得具有第一体积,提升网络将k维随机向量转换为k维修正向量,原始数据生成器网络重复输出第一合成先前数据(Previous Data)的过程,使得第一合成先前数据具有预设的第二体积,并参考生成用于第一当前学习(Current‑Learning)的第一批次(Batch);以及步骤(b),使神经网络生成与第一批次对应的输出信息(Output Information),本发明可以进行防止侵犯隐私、如存储装置的资源优化以及训练图像采样过程的优化,并可通过对抗生成网络(Generative Adversarial Network,GAN)的学习过程进行。

Description

优化采样的神经网络的设备上持续学习方法及装置
技术领域
本发明涉及一种用于无人驾驶汽车、虚拟驾驶等的学习方法和学习装置以及测试方法和测试装置,更具体地,涉及一种设备上持续学习(On-Device Continual Learning)用于分析输入数据的神经网络(Neural Network)的所述学习方法和所述学习装置以及利用其的所述测试方法和所述测试装置。
背景技术
通常,深度学习(Deep learning)被定义为通过多种非线性变换技术的组合来试图实现高水平的抽象的机器学习算法的集合,是在一个大框架中使计算机学习人的思考方式的机器学习的一个领域。
将某些数据表示为计算机可读形式,作为一例,将图像的像素信息表示为列向量,并正在开展将其应用于机器学习中的各种研究。通过这些努力的结果,如深度神经网络(Deep Neural Network,DNN)、卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)等各种深度学习技术应用于计算机视觉、语音识别、自然语言处理以及语音/信号处理等领域中,并且开发了显示高性能的深度学习网络。
这种深度学习网络正在向更深层次(Deep)和更多特征(Feature)的大规模模型发展,以提高识别性能。
尤其,由于需要大规模训练数据与高计算能力,在服务器上在线完成深度学习网络的学习。
然而,在因隐私问题而无法出于学习目的来将个人数据传输到服务器的个人移动装置(personal mobile device)环境,或在装置脱离通信网络的情况较多的军队、无人机或船舶环境下,无法在服务器中学习。
因此,在无法在服务器上进行学习的本地装置中需要在进行深度学习网络的设备上学习(On-Device Learning)。
然而,进行设备上学习的本地装置没有或缺少存储训练数据的空间,因此难以进行设备上学习。
并且,当使用新训练数据学习深度学习网络时,若新的训练数据与过去的训练数据不同,则深度学习网络会逐渐忘记过去所学的内容,结果将发生灾难性遗忘(catastrophic forgetting)问题。
另外,还存在当在本地装置(Local Device)中进行设备上学习时需要较大的计算能力且学习本身需要大量时间的缺点。
发明内容
本发明的目的在于解决所有上述问题。
本发明的再一目的在于,在进行设备上学习的本地装置中无需存储训练数据也可继续利用于学习上。
本发明的另一目的在于,在学习新的训练数据的学习中,无需存储训练数据也可使用过去的训练数据。
本发明的还一目的在于,在设备上进行学习的本地装置上,可进行对于神经网络的设备上学习,而不发生灾难性遗忘现象。
本发明的又一目的在于,通过利用相同的训练数据来提高学习效果。
本发明的又一目的在于,可减少设备上学习所需的计算能力和时间。
为了实现如上所述的本发明的目的,并且实现后述的本发明的特征效果,本发明的特征结构如下。
根据本发明的一方面,一种用于分析输入数据的神经网络的设备上持续学习的方法的特征在于,包括:步骤(a),当为学习而获取的新数据达到预设的参考体积(PresetBase Volume)时,学习装置对所述预设的参考体积的所述新数据统一采样(Unifor m-Sampling),使得所述新数据具有预设的第一体积,将至少一个k维随机向量(k-DimensionRandom Vector)输入到提升网络(Boosting Network)中,使得所述提升网络将所述k维随机向量转换为损失高于所述k维随机向量的至少一个k维修正向量(k-Dimension ModifiedVector),将所述k维修正向量输入到完成学习的原始数据生成器网络(Origi nal DataGenerator Network)中,使得所述原始数据生成器网络重复输出与所述k维修正向量对应且与已用于学习所述原始数据生成器网络的先前数据对应的第一合成先前数据(Synthetic Previous Data)的过程,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习(Current-Learning)的第一批次(Batch);以及步骤(b),使所述学习装置使所述神经网络将所述第一批次输入到所述神经网络,使得生成对应于所述第一批次的输出信息(Output Information),使第一损失层(Loss Layer)通过参考所述输出信息与对应于所述输出信息的真实值(GT)来计算出至少一个第一损失,通过对所述第一损失进行反向传播,进行所述神经网络与所述提升网络的所述第一当前学习。
一实施例中,还包括:步骤(c),所述学习装置对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络(Cloned Data Generator Network),使所述复制数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第二合成先前数据的过程,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第三合成先前数据的过程,使得所述第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及步骤(d),所述学习装置使鉴别器(Discriminator)将所述第二批次输入到所述鉴别器,使得生成与所述第二批次对应的评分向量(Score Vector),使第二损失层参考所述评分向量与对应于所述评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
一实施例中,所述学习装置重复所述步骤(c)与所述步骤(d),直到通过对所述第二损失进行反向传播来使所述鉴别器的损失和所述复制数据生成器网络的损失收敛。
一实施例中,在所述步骤(d)中,所述学习装置通过对所述第二损失进行反向传播来进行所述鉴别器的至少一个权重以及所述复制数据生成器网络的至少一个权重的梯度上升(Gradient Ascent)。
一实施例中,在所述步骤(d)中,所述学习装置通过对所述第二损失进行反向传播来在进行所述鉴别器的所述第二当前学习时,将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据(Real Data),进行所述鉴别器的所述第二当前学习。
一实施例中,在所述步骤(d)中,所述学习装置通过进行所述原始数据生成器网络的所述第二当前学习,来使在所述评分向量中与所述第三合成先前数据对应的所述第三合成先前数据评分向量最大化。
一实施例中,在所述第二当前学习是初始学习的情况下,在所述步骤(a)中,所述学习装置仅使用所述预设的第一体积的所述新数据来生成所述第一批次,在所述步骤(c)中,所述学习装置使所述原始数据生成器网络重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,通过参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
一实施例中,所述学习装置重复所述步骤(a)与所述步骤(b),直到通过对所述第一损失进行反向传播,使所述第一损失收敛。
一实施例中,在利用所述第一当前学习重复所述步骤(a)与所述步骤(b)的情况下,所述学习装置(i)在第一次迭代(Iteration)中,在所述步骤(a)中,使与所述预设的参考体积的所述新数据分别对应的每个采样概率(Sampling Probability)初始化,并参考初始化后的所述采样概率,对所述预设的参考体积的所述新数据进行所述统一采样,生成所述预设的第一体积的所述新数据,在所述步骤(b)中,当完成所述神经网络的所述第一当前学习时,通过参考与所述预设的第一体积的所述新数据对应的所述第一损失来更新与所述预设的第一体积的每个所述新数据对应的每个所述采样概率,以便更新与所述预设的参考体积的所述新数据分别对应的每个所述采样概率,(ii)在下一次迭代中,在所述步骤(a)中,参考在与所述预设的参考体积的所述新数据分别对应的先前迭代中更新的每个所述采样概率,并通过所述预设的参考体积的所述新数据的所述统一采样,生成所述预设的第一体积的所述新数据,在所述步骤(b)中,当完成所述神经网络的所述第一当前学习时,参考与所述预设的第一体积的所述新数据对应的所述第一损失,更新在与所述预设的参考体积的所述新数据分别对应的所述先前迭代中更新的所述采样概率。
一实施例中,在利用所述第一当前学习重复所述步骤(a)与所述步骤(b)的情况下,在第一次迭代中,在所述步骤(a)中,所述学习装置使所述提升网络初始化后,使初始化后的所述提升网络将所述k维随机向量转换为所述k维修正向量,在下一次迭代中,在所述步骤(a)中,所述学习装置在先前迭代中的所述步骤(b)中使已完成所述第一当前学习的所述提升网络将所述k维随机向量转换为所述k维修正向量。
一实施例中,在所述步骤(b)中,所述学习装置进行所述神经网络的至少一个权重的梯度下降(Gradient Descent),使得通过对所述第一损失进行反向传播来使所述神经网络的损失最小化,并进行所述提升网络的至少一个权重的梯度上升,使得在所述第一损失中使与所述第一合成先前数据对应的损失最大化。
一实施例中,当进行所述提升网络的所述权重的所述梯度上升时,所述学习装置截断(Clipping)所述提升网络的所述权重。
一实施例中,所述提升网络包括低次元的至少一个全连接层(Fully ConnectedLayer,FC Layer)。
根据本发明的再一方面,一种用于分析输入数据的神经网络的测试方法的特征在于,包括:步骤(a),在学习装置完成如下过程(I)及过程(II)的状态下,测试装置获取测试数据,即,过程(I),当为学习而获取的新数据达到预设的参考体积时,对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有预设的第一体积,将至少一个学习用k维随机向量输入到提升网络中,使得所述提升网络将所述学习用k维随机向量转换为损失高于所述学习用k维随机向量的至少一个学习用k维修正向量,将所述学习用k维修正向量输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络重复输出与所述学习用k维修正向量对应且与已用于学习所述原始数据生成器网络的学习用先前数据对应的学习用第一合成先前数据的过程,使得所述学习用第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述学习用新数据和所述预设的第二体积的所述学习用第一合成先前数据来生成用于第一当前学习的学习用第一批次,以及过程(II),使所述神经网络将所述学习用第一批次输入到所述神经网络来生成与所述学习用第一批次对应的学习用输出信息,使第一损失层通过参考所述学习用输出信息与对应于所述学习用输出信息的真实值来计算出至少一个第一损失,通过对所述第一损失进行反向传播来进行所述神经网络与所述提升网络的所述第一当前学习;以及步骤(b),所述测试装置使所述神经网络通过将所述测试数据输入到所述神经网络来生成与所述测试数据对应的测试用输出信息。
一实施例中,在所述步骤(a)中,所述学习装置还进行如下过程(III)及过程(IV),即,过程(III),对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第二合成先前数据的过程,使所述学习用第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第三合成先前数据的过程,使所述学习用第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述学习用新数据、所述预设的第二体积的所述学习用第二合成先前数据以及所述预设的第三体积的所述学习用第三合成先前数据来生成用于第二当前学习的学习用第二批次,以及过程(IV),使鉴别器将所述学习用第二批次输入到所述鉴别器,使得生成与所述学习用第二批次对应的学习用评分向量,使第二损失层通过参考所述学习用评分向量与对应于所述学习用评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
根据本发明的另一方面,一种用于分析输入数据的神经网络的设备上持续学习的学习装置的特征在于,包括:至少一个存储器,用于存储指令;以及至少一个处理器,被配置为执行指令,所述指令用于进行如下过程(I)及(II),即,过程(I),当为学习而获取的新数据达到预设的参考体积时,对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有预设的第一体积,将至少一个k维随机向量输入到提升网络中,使得所述提升网络将所述k维随机向量转换为损失高于所述k维随机向量的至少一个k维修正向量,将所述k维修正向量输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络重复输出与所述k维修正向量对应且与已用于学习所述原始数据生成器网络的先前数据(Previous Data)对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次;以及过程(II),使所述神经网络将所述第一批次输入到所述神经网络,使得生成对应于所述第一批次的输出信息,使第一损失层通过参考所述输出信息与对应于所述输出信息的真实值(Ground Truth,GT)来计算出至少一个第一损失,通过对所述第一损失进行反向传播,进行所述神经网络与所述提升网络的所述第一当前学习。
一实施例中,所述处理器还进行如下过程(III)及过程(IV),即,过程(III),对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第二合成先前数据的过程,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第三合成先前数据的过程,使得所述第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及过程(IV),使鉴别器将所述第二批次输入到所述鉴别器,使得生成与所述第二批次对应的评分向量,并且使第二损失层参考所述评分向量与对应于所述评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播,进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
一实施例中,所述处理器重复所述过程(III)与所述过程(IV),直到通过对所述第二损失进行反向传播来使所述鉴别器的损失和所述复制数据生成器网络的损失收敛。
一实施例中,在所述过程(IV)中,所述处理器通过对所述第二损失进行反向传播来进行所述鉴别器的至少一个权重以及所述复制数据生成器网络的至少一个权重的梯度上升。
一实施例中,在所述过程(IV)中,所述处理器通过对所述第二损失进行反向传播来在进行所述鉴别器的所述第二当前学习时,将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据,进行所述鉴别器的所述第二当前学习。
一实施例中,在所述过程(IV)中,所述处理器进行所述原始数据生成器网络的所述第二当前学习,来使在所述评分向量中与所述第三合成先前数据对应的所述第三合成先前数据评分向量最大化。
一实施例中,在所述第二当前学习是初始学习的情况下,在所述过程(I)中,所述处理器仅使用所述预设的第一体积的所述新数据来生成所述第一批次,在所述过程(III)中,所述处理器使所述原始数据生成器网络重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,通过参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
一实施例中,所述处理器重复所述过程(I)与所述过程(II),直到通过对所述第一损失进行反向传播,使所述第一损失收敛。
一实施例中,在通过所述第一当前学习重复所述步骤(I)与所述步骤(II)的情况下,所述处理器(i)在第一次迭代(Iteration)中,在所述过程(I)中,使将与所述预设的参考体积的所述新数据分别对应的每个采样概率(Sampling Probability)初始化,并参考初始化后的所述采样概率,对所述预设的参考体积的所述新数据进行所述统一采样,生成所述预设的第一体积的所述新数据,在所述过程(II)中,当完成所述神经网络的所述第一当前学习时,通过参考与所述预设的第一体积的所述新数据对应的所述第一损失来更新与所述预设的第一体积的每个所述新数据对应的每个所述采样概率,以便更新与所述预设的参考体积的所述新数据分别对应的每个所述采样概率,(ii)在下一次迭代中,在所述过程(I)中,参考在与所述预设的参考体积的所述新数据分别对应的先前迭代中更新的每个所述采样概率,并通过所述预设的参考体积的所述新数据的所述统一采样,生成所述预设的第一体积的所述新数据,在所述过程(II)中,当完成所述神经网络的所述第一当前学习时,参考与所述预设的第一体积的所述新数据对应的所述第一损失,更新在与所述预设的参考体积的所述新数据分别对应的所述先前迭代中更新的所述采样概率。
一实施例中,在通过所述第一当前学习重复所述过程(I)与所述过程(II)的情况下,在第一次迭代中,在所述过程(I)中,所述处理器使所述提升网络初始化后,使初始化后的所述提升网络将所述k维随机向量转换为所述k维修正向量,在下一次迭代中,在所述过程(I)中,所述处理器在先前迭代中的所述过程(II)中使已完成所述第一当前学习的所述提升网络将所述k维随机向量转换为所述k维修正向量。
一实施例中,在所述过程(II)中,所述处理器进行所述神经网络的至少一个权重的梯度下降,使得通过对所述第一损失进行反向传播来使所述神经网络的损失最小化,并进行所述提升网络的至少一个权重的梯度上升,使得在所述第一损失中使与所述第一合成先前数据对应的损失最大化。
一实施例中,当进行所述提升网络的所述权重的所述梯度上升时,所述处理器截断所述提升网络的所述权重。
一实施例中,所述提升网络包括低次元的至少一个全连接层(Fully ConnectedLayer,FC Layer)。
根据本发明的还一方面,一种分析输入数据的神经网络的测试装置的特征在于,包括:至少一个存储器,用于存储指令;以及至少一个处理器,被配置为执行指令,所述指令用于进行在学习装置完成如下过程(1)及过程(2)的状态下,使所述神经网络输出与将测试数据输入到神经网络而获得的所述测试数据对应的测试用输出信息,即,过程(1),当为学习而获取的新数据达到预设的参考体积时,对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有预设的第一体积,并且将至少一个学习用k维随机向量输入到提升网络中,使得所述提升网络,将所述学习用k维随机向量转换为损失高于所述学习用k维随机向量的至少一个学习用k维修正向量,将所述学习用k维修正向量,输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络,重复输出与所述学习用k维修正向量对应且与已用于学习所述原始数据生成器网络的学习用先前数据对应的学习用第一合成先前数据的过程,使得所述学习用第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述学习用新数据和所述预设的第二体积的所述学习用第一合成先前数据来生成用于第一当前学习的学习用第一批次,以及过程(2),使所述神经网络将所述学习用第一批次输入到所述神经网络来生成与所述学习用第一批次对应的学习用输出信息,使第一损失层通过参考所述学习用输出信息与对应于所述学习用输出信息的真实值来计算出至少一个第一损失,通过对所述第一损失进行反向传播来进行所述神经网络与所述提升网络的所述第一当前学习的过程。
一实施例中,所述学习装置还进行如下的过程(3)及过程(4),即,过程(3),对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第二合成先前数据的过程,使所述学习用第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第三合成先前数据的过程,使所述学习用第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述学习用新数据、所述预设的第二体积的所述学习用第二合成先前数据以及所述预设的第三体积的所述学习用第三合成先前数据来生成用于第二当前学习的学习用第二批次,以及过程(4),使鉴别器将所述学习用第二批次输入到所述鉴别器,使得生成与所述学习用第二批次对应的学习用评分向量,使第二损失层通过参考所述学习用评分向量与对应于所述学习用评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
另外,还提供了一种用于存储计算机程序的计算机可读介质,所述计算机程序用于执行本发明的方法。
本发明具有如下效果,即,使设备上学习在本地装置中不存储先前训练数据的情况下也可以有效生成用于先前学习的先前训练数据。
并且,本发明具有如下另一效果,即,利用在数据生成器网络(Data GeneratorNetwork)生成的先前训练数据与新学习数据,可使神经网络的设备上学习防止在神经网络的学习期间的灾难性遗忘。
并且,本发明还具有如下效果,即,不仅通过利用因高损失而导致学习效率差的训练数据来提高学习效率,而且可以减少设备上学习所需要的计算能力和时间。
附图说明
用于描述本发明实施例的附图仅是本发明实施例的一部分,并且本发明所属领域的普通技术人员,无需进行创造性劳动也可基于这些附图获得其他附图。
图1为示意性示出根据本发明一实施例的用于设备上持续学习利用深度学习分析输入数据的神经网络的学习装置;
图2为示意性示出根据本发明一实施例的用于设备上持续学习利用深度学习分析输入数据的神经网络的方法;
图3为示意性示出在根据本发明一实施例的用于设备上持续学习利用深度学习分析输入数据的神经网络的方法中生成先前训练数据的数据生成器网络(Data GeneratorNetwork)的一示例;
图4为示意性示出在根据本发明一实施例的用于设备上持续学习利用深度学习的分析输入数据的神经网络的方法中生成先前训练数据的数据生成器网络的另一示例;
图5为示意性示出在根据本发明一实施例的用于设备上持续学习利用深度学习分析输入数据的神经网络的方法中学习数据生成器网络的过程;
图6为示意性示出根据本发明一实施例的当完成设备上持续学习时测试神经网络的测试装置;
图7为示意性示出根据本发明一实施例的测试已完成设备上持续学习的神经网络的测试方法。
附图标记的说明
100:学习装置 110:存储器
120:处理器 125:提升网络
130:数据生成器网络 140:神经网络
150:第一损失层 160:鉴别器
170:第二损失层 200:测试装置
210:存储器 220:处理器
具体实施方式
为使本发明的目的、技术方案以及优点清楚,对于后述的本发明的详细说明参考本发明可以实施的特定实施例作为示例来示出的附图。为了使本领域技术人员能够足以实施本发明而详细说明这些实施例。
另外,在本发明的详细说明以及发明要求保护范围中,术语“包括”及其变形并不旨在排除其他技术特征、添加物、组件或步骤。就本领域普通技术人员而言,本发明的其他目的、优点以及特征的一部分从本说明书中、另一部分从本发明的实施中公开。以下示例和附图将作为示例提供,但是它们并不旨于限制本发明。
尤其,本发明涵盖了本说明书所示的实施例的所有可能的组合。应理解,本发明的各种实施例尽管不同,但不一定是相互排斥的。例如,在不脱离与一实施例有关的本发明的精神和范围的情况下,可在其他实施例中实现本文中所记载的特定形状、结构或特性。并且,应理解,在不脱离本发明的精神和范围的情况下,可以修改每个公开的实施例内的单独的组件的位置或配置。因此,以下详细描述不应被理解为限制性的,并且本发明的范围在适当地解释的情况下,仅由所附发明要求保护范围以及发明要求保护范围所赋予的等同物的全部范围来限定。附图中相似的附图标记是指经过多方面具有相同或相似的功能。
本发明所涉及的各种图像可包括铺设或未铺设的道路有关的图像,在这种情况下,可以假设可能会出现在道路环境中的物体(例如,汽车、人、动物、植物、物体、建筑物、诸如飞机或无人机的飞行器、其他障碍物),但不限于此,本发明中涉及的各种图像可以是与道路无关的图像(例如,土路、小巷、空地、海、湖泊、河流、山脉、森林、沙漠、天空、室内),在这种情况下,可以推断土路、小巷、空地、海、湖泊、河流、山脉、森林、沙漠、天空、室内环境中可能出现的物体(例如,汽车,人,动物,植物,物体,建筑物,诸如飞机或无人机的飞行器、其他障碍物等),但不限于此。
以下,为便于本发明所属的技术领域的普通技术人员实施本发明,将参考附图详细描述本发明的优选实施例。
图1示出根据本发明一实施例的用于设备上持续学习分析利用深度学习来输入数据的神经网络的学习装置。参考图1,学习装置100可以包括:存储器110,存储用于进行神经网络的设备上持续学习的指令(Instruction);以及处理器120,进行与存储在存储器110的指令对应的过程来进行神经网络的设备上持续学习。
具体地,学习装置100通常可以通过使用计算装置(例如,可包括计算机处理器、存储器、存储装置、输入装置以及输出装置、其他现有计算装置的元件的装置;诸如路由器或交换机的电子通信装置;诸如网络附加存储(NAS)以及存储区域网络(SAN)的电子信息存储系统)和计算机软件(即,使计算装置以特定方式运行的指令)的组合来实现所需的系统性能。
并且,计算装置的处理器可包括微处理单元(Micro Processing Unit,MPU)或中央处理单元(Central Processing Unit,CPU)、高速缓冲存储器存储器(Cache Memory)、数据总线(Data Bus)等硬件结构。并且,所述计算装置还可以包括操作系统以及进行特定目的应用程序的软件结构。
然而,计算装置并不排除包括用于实施本发明的处理器、介质或其他计算组件的任何组合的集成装置(Integrated Device)。
参考图2,这样构成的本发明一实施例,利用学习装置100,通过深度学习进行用于分析输入数据的神经网络的设备上持续学习的方法如下。
首先,当为学习而获取的新数据(New Data)10具有预设的参考体积M时,学习装置100,对预设的参考体积M的新数据10进行统一采样(Uniform Sampling),使得具有新数据10的预设的第一体积m。
此时,可以从包括神经网络140的至少一个本地装置本身获取或从至少一个外部装置获取所述新数据10。
并且,当学习装置100通过统一采样来以预设的第一体积m的程度选择一部分预设的参考体积M的新数据10时,可以利用与预设的参考体积M的每个新数据10对应的每个采样概率pi来选择m个新数据。
下面详细描述统一采样。在第一次迭代(Iteration)中,当在学习中使用10个图像中的两个图像的批次时,对每个10个图像可以设置每个1/10的权重(采样概率)。在进行第一次迭代期间,由于具有相同的权重,因此可以生成任意选择的两个图像的批次。两个图像的权重可以通过利用第一次迭代生成的两个图像的损失来更新。例如,每个权重可以是单一图像的单一损失对于全部图像的损失之和的比率。若难以检测图像,则权重变大,若易于检测图像,则权重变小。此后,可以利用具有更大权重的两个所选择的图像的批次,进行第二个迭代,所述两个图像的权重可以通过利用由第二个迭代生成的两个图像的损失来更新。重复该过程的结果,进一步使用具有更大损失的图像(例如,在检测器的情况下为难以检测的图像)来改善学习。此时,与预设的参考体积M的每个新数据10对应的每个采样概率pi可以表示如下,由于在先前迭代中计算得到的较大损失,因此可以将更大权重赋予给学习效率较低的新数据。
Figure BDA0002367007350000151
即,当神经网络的至少一个权重的单一更新称为迭代时,在第一次迭代中,学习装置100可以使与预设的参考体积M的每个新数据对应的每个采样概率pi初始化,并参考初始化后的采样概率,对预设的参考体积M的新数据进行统一采样,选择将预设的第一体积m的新数据。此时,采样概率pi的初始值可以为1/M。并且,学习装置100参考与预设的第一体积m的新数据对应的损失,更新与预设的第一体积m的新数据对应的每个采样概率,从而更新与预设的参考体积M的每个新数据对应的每个采样概率。
此后,在下一次迭代中,学习装置100与预设的参考体积M的每个新数据对应,在先前迭代中,参考更新的采样概率pi来对预设的参考体积M的新数据进行统一采样,生成预设的第一体积m的新数据。此时,在每次迭代中选择的预设的第一体积m的新数据可以是部分不同的新数据。并且,学习装置100可以参考与预设的第一体积m的新数据对应的损失,对应于预设的参考体积M的每个新数据,更新在先前迭代中更新的每个采样概率。
同时,学习装置100将至少一个k维随机向量z输入到提升网络B(125),使提升网络B(125),将k维随机向量转换为至少一个k维修正向量,所述至少一个k维修正向量的损失高于所述k维随机向量。此时,k维修正向量z′可以表示为z′=z+B(z)。此后,学习装置100将k维修正向量向已学习的原始数据生成器网络G(130)输入,使原始数据生成器网络G(130),重复输出与k维随机向量对应的第一合成先前数据的过程,使得第一合成先前数据具有预设的第二体积n。
此时,提升网络125可以包括至少一个低次元的全连接层(Fully ConnectedLayer,FC Layer)。作为一例,提升网络125可以包括3个全连接层。若仔细观察,则第一全连接层可以对k维随机向量适用至少一次全连接运算,生成至少一个L维向量,第二全连接层可以将L维向量转换为至少一个L维修正向量,第三全连接层可以将L维修正向量转换为k维修正向量。此时,L可以为k/2。由此,提升网络125不仅可以快速响应损失的变化,而且可以减少计算能力的开销(Computing Power Overhead)。
并且,学习装置100初始化在第一次迭代中,提升网络125后,使初始化后的提升网络125可以将k维随机向量转换为k维修正向量,在下一次迭代中,可以使在先前迭代中学习过的提升网络125将k维随机向量转换为k维修正向量。此时,k维随机向量,在每次迭代中可以具有不同的值。
并且,已学习了原始数据生成器网络G(130)以输出用于自身学习的先前数据,并且第一合成先前数据可对应于先前数据。并且,k维随机向量可从为各自要素而采样的0至1之间的输入生成。下面将描述关于原始数据生成器网络G(130)的学习过程。
同时,可以对应于神经网络140配置原始数据生成器G(130),并且可以根据与神经网络140被输入到的新数据(x,y)10对应的(x,y)的次元、值的类型及范围等,来创建使用适当的网络构架(Network Architecture)。
作为一例,参考图3,当神经网络140是接收向量的分类器时,原始数据生成器网络130可包括,对与k维随机向量对应的k维信息,适用全连接运算,生成至少一个D维向量Gx(z)与至少一个C维独热编码(One-Hot)向量Gx(z)的至少一个全连接层。
作为另一例,参考图4,当神经网络140是接收至少一个RGB图像作为输入的对象检测器时,原始数据生成器网络130可被配置为包括将与k维随机向量对应的1×1×K信息转换为至少一个H×W×3张量(Tensor)Gx(z)的至少一个转置卷积层(TransposedConvolutional Layer)(131-1,131-2,…)与通过分析所述H×W×3张量来生成至少一个R×(4+C)向量的更快的(Faster)区域卷积神经网络(Region-Convolutional NeuralNetworks,R-CNNF)132。此时,多个转置卷积层(131-1,131-2,…)的输出端(Output End)可以同时提供将至少一个H×W×3向量转换为H×W×3张量的激活函数(S形函数;Sigmoid)。并且,在R×(4+C)向量中,R可以包括R维向量Gy(z),(4+C)可以包括x1、y1、x2、y2以及C维独热编码向量。
然后,再次参考图2,学习装置100可以通过参考预设的第一体积m的新数据和预设的第二体积n的第一合成先前向量,生成用于第一当前学习的第一批次20。此时,第一批次20可以具有m+n体积。
之后,学习装置100可以通过将第一批次20输入到神经网络140中,使神经网络140生成与第一批次20对应的输出信息,使第一损失层150参考输出信息与对应于输出信息的真实值来计算出至少一个第一损失。此时,对新数据的损失可以表示为对第一批次20中的新数据的损失L(yi,F(xi)),并且对先前数据的损失可以表示为对第一批次20中的合成先前数据的损失L(Gy(zi),F(Gx(zi)))。
并且,学习装置100可以通过对第一损失进行反向传播来进行神经网络140与提升网络125的第一当前学习。
此时,学习装置100为了通过对第一损失进行反向传播来使神经网络140的损失最小化而进行神经网络140的至少一个权重wF的梯度下降,由此,神经网络140的权重wF可以由以下公式更新。
Figure BDA0002367007350000181
并且,学习装置100可以通过对第一损失进行反向传播来进行提升网络125的权重的梯度上升,使与第一损失中的第一合成先前数据对应的损失最大化,即,L(Gy(z'),F(Gx(z')))≥L(Gy(z),F(Gx(z))),由此,提升网络125的至少一个权重wB可以由以下公式更新。
Figure BDA0002367007350000182
此时,学习装置100可以在每次更新时截断所有权重,使得提升网络125的所有权重的绝对值不超过阈值C,即,(|wB|≤c)。即,如果权重wB超过阈值C,则提升网络125的权重被更新为阈值C,当权重wB小于负(-)的阈值C时,负(-)的提升网络125的权重可以被更新为阈值C。
并且,学习装置100可以通过对第一损失进行反向传播,重复更新神经网络140的权重的迭代过程,直到神经网络140的损失与提升网络125的损失收敛。
同时,当神经网络140的损失与提升网络125的损失通过迭代收敛时,学习装置100可以使提升网络125初始化,或者可以在下一次学习的第一次迭代中使提升网络125初始化。
此时,提升网络125的初始值,即,初始权重可以被设置为充分小的值。作为一例,可以设置平均值是0、标准偏差是1e-4等,可以设置初始值的绝对值不超过阈值C。
接着,参考图5,将会描述预学习的原始数据生成器网络130的学习方法。在所述图2的描述中,将省略容易理解的部分。
首先,学习装置100可以对新数据h(10)进行采样,使得具有预设的第一体积m,复制原始数据生成器网络G(130),生成复制数据生成器网络G’(130C)。
并且,学习装置100使复制数据生成器网络G’(130C)重复输出与k维随机向量z对应的第二合成先前数据G’(z)的过程,使第二合成先前数据G’(z)具有预设的第二体积n。此时,学习装置100将预设的第二体积n的第二合成先前数据G’(z)视为真实数据(RealData),并将第二合成先前数据G’(z)设置为先前数据G’(z)。
并且,学习装置100使原始数据生成器网络G(130),重复输出与k维随机向量z对应的第三合成先前数据G(z),使第三合成先前数据G(z)具有预设的第三体积(m+n)。此时,预设的第三体积(m+n)可以是预设的第一体积m与预设的第二体积n之和。
此后,学习装置100参考第一体积m的新数据h、第二体积n的第二合成先前数据G’(z)以及第三体积(m+n)的第三合成先前数据G(z),生成用于第二当前学习的第二批次21。
此后,学习装置100将第二批次21输入到鉴别器D(160),使鉴别器D(160)生成与第二批次21对应的评分向量。
此时,评分向量可以包括预设的第二体积n的第二合成先前数据G’(z)的评分向量、预设的第一体积m的新数据h的评分向量以及预设的第三体积(m+n)的第三合成先前数据G(z)的评分向量。预设的第二体积n的第二合成先前数据G’(z)的评分向量可以表示为D(G′(z1)),...,D(G′(zn)),预设的第一体积m的新数据h的评分向量可以表示为D(h1),...,D(hm),预设的第三体积(m+n)的第三合成先前数据G(z)的评分向量可以表示为D(G(z1)),...,D(G(zn+m))。
并且,学习装置100使第二损失层170参考评分向量与对应于所述评分向量的真实值,计算出至少一个第二损失,从而对第二损失进行反向传播,进行鉴别器D(160)和原始数据生成器网络G(130)的第二当前学习。
此时,学习装置100对第二损失进行反向传播,进行鉴别器D(160)的至少一个权重wD的梯度上升,由此鉴别器D(160)的至少一个权重wD可以通过以下公式更新。
Figure BDA0002367007350000201
并且,学习装置100可以对第二损失进行反向传播,进行原始数据生成器网络G(130)的至少一个权重wG的梯度上升,由此,原始数据生成器网络G(130)的至少一个权重wG可以通过以下公式更新。
Figure BDA0002367007350000202
同时,学习装置100可以将来自复制数据生成器网络G’(130C)的第二合成先前数据G’(z)视为真实数据,进行鉴别器D(160)的第二当前学习,在评分向量中,进行原始数据生成器网络G(130)的第二当前学习,使得与第三合成先前数据G(z)对应的第三合成先前数据评分向量最大化。
因此,用于鉴别器(160)的学习的真实数据可以包括新数据h与作为第二合成先前数据的先前数据G’(z),由此,可以学习原始数据生成器网络G(130)以输出作为真实数据的新数据h与作为第二合成先前数据的先前数据G'(z)。
并且,学习装置100进行所述过程,即,迭代,直到通过对第二损失进行反向传播,鉴别器D(160)的损失和原始数据生成器网络G(130)的损失收敛。即,学习装置100可以通过使用第二合成先前数据、新数据以及第三合成先前数据,重复第二批次的生成、利用第二批次的鉴别器160与原始数据生成器网络130的第二当前学习,从而利用第二批次重复鉴别器160与原始数据生成器网络130的第二当前学习,使得鉴别器160的损失与原始数据生成器网络130的损失收敛。
此时,用于鉴别器160的学习的先前数据与新数据的比率可以是n:m=N:M,在新数据的所有体积M利用第二批次来学习的情况下,从所学习的原始数据生成器网络G(130)输出的先前数据与新数据的比率可以是N:M。
此后,如果完成第二当前学习,作为一例,且鉴别器160的损失与原始数据生成器网络130的损失收敛,则学习装置100可以删除新数据,并可以更新原始数据生成器网络,以便将新数据和第二合成先前数据,作为先前数据输出,以用于下一次学习。
即,因为是已学习了原始数据生成器网络130,使得输出与用于第二当前学习的真实数据对应的新数据和先前数据,新数据的状态,所以可以删除新数据,并且如果要进行下一次学习,原始数据生成器网络130可以通过输出用于当前学习的先前数据与新数据来获取用于下一次学习的先前数据。
同时,如果包括所述第一当前学习与第二当前学习的当前学习是第一学习,则可以在没有先前数据的情况下,进行第一当前学习与第二当前学习。
即,学习装置100可以仅通过预设的第一体积m的新数据生成第一批次,并且可以通过利用第一批次来进行第一当前学习,使得神经网络140的损失收敛。
并且,学习装置100可以使提升网络125,生成与k维随机向量对应的k维修正向量,使原始数据生成器网络130重复输出与k维修正向量对应的第三合成先前数据的过程,使得第三合成先前数据具有预设的第一体积m,参考预设的第一体积的新数据和预设的第一体积的所述第三合成先前数据,生成第二批次,并利用第二批次来进行第二当前学习,使得鉴别器160的损失和原始数据生成器网络130的损失收敛。
此后,学习装置100删除用于当前学习的新数据,并可以将新数据初始化为先前数据。
图6示意性示出根据本发明一实施例的测试设备上持续学习的神经网络的测试装置。参考图6,测试装置200可以包括:存储器210,存储指令,所述指令用于测试完成设备上持续学习的神经网络;以及处理器220,用于进行与存储器210中的指令相对应的过程以测试已完成设备上持续学习的神经网络。
具体地,测试装置100通常可以通过使用计算装置(例如,可包括计算机处理器、存储器、存储、输入装置以及输出装置、其他现有计算装置的元件的装置;诸如路由器或交换机的电子通信装置;诸如网络附加存储(NAS)以及存储区域网络(SAN)的电子信息存储系统)和计算机软件(即,使计算装置以特定方式运行的指令)的组合,以具有所需的系统性能。并且,计算装置的处理器可包括微处理单元或中央处理单元、高速缓冲存储器存储器、数据总线、等硬件结构。并且,计算装置还可以包括操作系统和用于进行特定目的的应用层序的软件结构。
然而,计算装置并不排除包括用于实施本发明的处理器、介质或其他计算元件的任何组合的集成装置。
参考图7,描述通过使用根据如上所述配置的本发明一实施例的测试装置200,测试完成设备上持续学习的神经网络的方法。
在根据如上所述的学习方法,在学习神经网络140的状态下,测试装置200可以支持获取测试数据201或使其他装置获取测试数据201。此时,测试数据201可以包括图像信息、传感器(Sensor)信息、语音信息等,但不限于此,并且可以包括可以分析特征的任何输入数据。
并且,测试装置200可以将测试数据201输入到神经网络140中,并且使神经网络140生成与测试数据201对应的测试用输出信息。
作为参考,在下面的描述中,为与学习过程有关的术语添加了短语“学习用”,并且为与测试过程有关的术语添加了短语“测试用”,以避免混淆。
另一方面,学习用新数据达到预设的参考体积,学习装置100对学习用预设的参考体积的学习用新数据进行统一采样,使得学习用新数据具有预设的第一体积,并且将至少一个学习用k维随机向量输入到提升网络中,使提升网络将学习用k维随机向量转换为损失高于所述学习用k维随机向量的至少一个学习用k维修正向量,将学习用k维修正向量输入到完成学习的原始数据生成器网络中,使得原始数据生成器网络重复输出与学习用与k维修正向量对应且与用于学习原始数据生成器网络的学习用先前数据对应的学习用第一合成先前数据,使学习用第一合成先前数据具有预设的第二体积,参考预设的第一体积的学习用新数据和预设的第二体积的学习用第一合成先前数据来生成用于第一当前学习的学习用第一批次,使神经网络将学习用第一批次输入到神经网络来生成与学习用第一批次对应的学习用输出信息,使第一损失层通过参考学习用输出信息和与其对应的真实值来计算出至少一个第一损失,对第一损失进行反向传播,在学习装置完成如上所述的过程的状态下,测试装置200可以支持获取测试数据或者使其他装置获取,测试装置200可以使神经网络将测试数据输入到神经网络来生成与测试数据对应的输出信息。
并且,学习装置100对预设的参考体积的学习用新数据进行统一采样,使得学习用新数据具有预设的第一体积,并复制原始数据生成器网络,使得生成复制数据生成器网络,使复制数据生成器网络与学习用k维随机向量对应且与已用于学习原始数据生成器网络的学习用先前数据对应的学习用重复输出第二合成先前数据的过程,使学习用第二合成先前数据具有预设的第二体积,使得原始数据生成器网络重复输出与学习用k维随机向量对应且与已用于学习原始数据生成器网络的学习用先前数据对应的学习用第三合成先前数据的过程,使学习用第三合成先前数据具有预设的第三体积,预设的第三体积等于预设的第一体积与预设的第二体积之和,参考预设的第一体积的学习用新数据、预设的第二体积的学习用第二合成先前数据以及预设的第三体积的学习用第三合成先前数据来生成用于第二当前学习的学习用第二批次,使鉴别器将学习用第二批次输入到鉴别器,使得生成与学习用第二批次对应的学习用评分向量,并且使第二损失层通过参考学习用评分向量与对应于学习用评分向量的真实值来计算出至少一个第二损失,通过对第二损失进行反向传播来进行鉴别器和原始数据生成器网络的第二当前学习。
本发明可以执行用于防止侵犯隐私、如存储装置的资源优化以及用于优化训练图像采样过程,并可通过对抗生成网络(Generative Adversarial Network,GAN)的学习过程进行。
并且,以上描述的根据本发明的实施例可以通过各种计算机组件执行的程序指令的形式来实现并存储在计算机可读存储介质。所述计算机可读存储介质可以单独或组合包括程序指令、数据文件、数据结构等。存储在所述计算机可读存储介质的程序指令,可以是为本发明专门设计并组成的,或者可以是计算机软件领域的技术人员公知而可使用的。计算机可读存储介质的示例包括如硬盘、软盘和磁带的磁性介质、如CD-ROM、DVD的光学记录介质、如软盘的磁光介质以及专门配置用于存储并执行如ROM、RAM、闪存等程序指令的硬件装置。程序指令的示例不仅包括如由编译器产生的机器代码,还包括可以由计算机使用解释器等执行的高级语言代码。所述硬件装置可配置为一个或多个软件模块来操作,以执行根据本发明的过程,反之亦然。
以上,虽然本发明根据具体的结构要素等特定事项和有限的实施例及附图进行了说明,这只是为了帮助更全面地理解本发明而提供的,本发明并不限于上述实施例,在本发明所属的技术领域中,普通技术人员可以从这些记载中进行各种修改和变化。
因此,本发明的思想不能限于上述说明的实施例,不仅是后述的发明要求保护范围,所有与该权利范围等同或等价变形的都属于本发明的思想范畴。

Claims (30)

1.一种用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,包括:
步骤(a),当为学习而获取的新数据达到预设的参考体积时,学习装置对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有预设的第一体积,将至少一个k维随机向量输入到提升网络中,使得所述提升网络将k维随机向量转换为损失高于所述k维随机向量的至少一个k维修正向量,将所述k维修正向量输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络重复输出与所述k维修正向量对应且与已用于学习所述原始数据生成器网络的先前数据对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次;以及
步骤(b),所述学习装置使所述神经网络将所述第一批次输入到所述神经网络,使得生成对应于所述第一批次的输出信息,使第一损失层通过参考所述输出信息与对应于所述输出信息的真实值来计算出至少一个第一损失,通过对所述第一损失进行反向传播,进行所述神经网络与所述提升网络的所述第一当前学习。
2.根据权利要求1所述的学习方法,其特征在于,还包括:
步骤(c),所述学习装置对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第二合成先前数据的过程,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第三合成先前数据的过程,使得所述第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及
步骤(d),所述学习装置使鉴别器将所述第二批次输入到所述鉴别器,使得生成与所述第二批次对应的评分向量,使第二损失层参考所述评分向量与对应于所述评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
3.根据权利要求2所述的学习方法,其特征在于,所述学习装置重复所述步骤(c)与所述步骤(d),直到通过对所述第二损失进行反向传播来使所述鉴别器的损失和所述复制数据生成器网络的损失收敛。
4.根据权利要求2所述的学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置通过对所述第二损失进行反向传播来进行所述鉴别器的至少一个权重以及所述复制数据生成器网络的至少一个权重的梯度上升。
5.根据权利要求2所述的学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置通过对所述第二损失进行反向传播来在进行所述鉴别器的所述第二当前学习时,将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据,进行所述鉴别器的所述第二当前学习。
6.根据权利要求2所述的学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置通过进行所述原始数据生成器网络的所述第二当前学习,来使在所述评分向量中与所述第三合成先前数据对应的所述第三合成先前数据评分向量最大化。
7.根据权利要求2所述的学习方法,其特征在于,
在所述第二当前学习是初始学习的情况下,
在所述步骤(a)中,
所述学习装置仅使用所述预设的第一体积的所述新数据来生成所述第一批次,
在所述步骤(c)中,
所述学习装置使所述原始数据生成器网络重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,通过参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
8.根据权利要求1所述的学习方法,其特征在于,所述学习装置重复所述步骤(a)与所述步骤(b),直到通过对所述第一损失进行反向传播,使所述第一损失收敛。
9.根据权利要求8所述的学习方法,其特征在于,
在利用所述第一当前学习重复所述步骤(a)与所述步骤(b)的情况下,
所述学习装置(i)在第一次迭代中,在所述步骤(a)中,使与所述预设的参考体积的所述新数据分别对应的每个采样概率初始化,并参考初始化后的所述采样概率,对所述预设的参考体积的所述新数据进行所述统一采样,生成所述预设的第一体积的所述新数据,在所述步骤(b)中,当完成所述神经网络的所述第一当前学习时,通过参考与所述预设的第一体积的所述新数据对应的所述第一损失来更新与所述预设的第一体积的每个所述新数据对应的每个所述采样概率,以便更新与所述预设的参考体积的所述新数据分别对应的每个所述采样概率,
(ii)在下一次迭代中,在所述步骤(a)中,参考在与所述预设的参考体积的所述新数据分别对应的先前迭代中更新的每个所述采样概率,并通过所述预设的参考体积的所述新数据的所述统一采样,生成所述预设的第一体积的所述新数据,在所述步骤(b)中,当完成所述神经网络的所述第一当前学习时,参考与所述预设的第一体积的所述新数据对应的所述第一损失,更新在与所述预设的参考体积的所述新数据分别对应的所述先前迭代中更新的所述采样概率。
10.根据权利要求8所述的学习方法,其特征在于,
在利用所述第一当前学习重复所述步骤(a)与所述步骤(b)的情况下,
在第一次迭代中,在所述步骤(a)中,所述学习装置使所述提升网络初始化后,使初始化后的所述提升网络将所述k维随机向量转换为所述k维修正向量,
在下一次迭代中,在所述步骤(a)中,所述学习装置在先前迭代中的所述步骤(b)中使已完成所述第一当前学习的所述提升网络将所述k维随机向量转换为所述k维修正向量。
11.根据权利要求1所述的学习方法,其特征在于,
在所述步骤(b)中,
所述学习装置进行所述神经网络的至少一个权重的梯度下降,使得通过对所述第一损失进行反向传播来使所述神经网络的损失最小化,并进行所述提升网络的至少一个权重的梯度上升,使得在所述第一损失中使与所述第一合成先前数据对应的损失最大化。
12.根据权利要求11所述的学习方法,其特征在于,当进行所述提升网络的所述权重的所述梯度上升时,所述学习装置截断所述提升网络的所述权重。
13.根据权利要求1所述的学习方法,其特征在于,所述提升网络包括低次元的至少一个全连接层。
14.一种用于分析输入数据的神经网络的测试方法,其特征在于,包括:
步骤(a),在学习装置完成如下过程(I)及过程(II)的状态下,测试装置获取测试数据,即,过程(I),当为学习而获取的新数据达到预设的参考体积时,对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有预设的第一体积,将至少一个学习用k维随机向量输入到提升网络中,使得所述提升网络将所述学习用k维随机向量转换为损失高于所述学习用k维随机向量的损失的至少一个学习用k维修正向量,将所述学习用k维修正向量输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络重复输出与所述学习用k维修正向量对应且与已用于学习所述原始数据生成器网络的学习用先前数据对应的学习用第一合成先前数据的过程,使得所述学习用第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述学习用新数据和所述预设的第二体积的所述学习用第一合成先前数据来生成用于第一当前学习的学习用第一批次,以及过程(II),使所述神经网络将所述学习用第一批次输入到所述神经网络来生成与所述学习用第一批次对应的学习用输出信息,使第一损失层通过参考所述学习用输出信息与对应于所述学习用输出信息的真实值来计算出至少一个第一损失,通过对所述第一损失进行反向传播来进行所述神经网络与所述提升网络的所述第一当前学习;以及
步骤(b),所述测试装置使所述神经网络通过将所述测试数据输入到所述神经网络来生成与所述测试数据对应的测试用输出信息。
15.根据权利要求14所述的测试方法,其特征在于,
在所述步骤(a)中,
所述学习装置还进行如下过程(III)及过程(IV),即,过程(III),对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第二合成先前数据的过程,使所述学习用第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第三合成先前数据的过程,使所述学习用第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,并参考所述预设的第一体积的所述学习用新数据、所述预设的第二体积的所述学习用第二合成先前数据以及所述预设的第三体积的所述学习用第三合成先前数据来生成用于第二当前学习的学习用第二批次,以及过程(IV),使鉴别器将所述学习用第二批次输入到所述鉴别器,使得生成与所述学习用第二批次对应的学习用评分向量,使第二损失层通过参考所述学习用评分向量与对应于所述学习用评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
16.一种用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,包括:
至少一个存储器,用于存储指令;以及
至少一个处理器,被配置为执行指令,所述指令用于进行如下过程(I)及过程(II),即,过程(I),当为学习而获取的新数据达到预设的参考体积时,对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有预设的第一体积,将至少一个k维随机向量输入到提升网络中,使得所述提升网络将所述k维随机向量转换为损失高于所述k维随机向量的至少一个k维修正向量,将所述k维修正向量输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络重复输出与所述k维修正向量对应且与已用于学习所述原始数据生成器网络的先前数据对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次;以及过程(II),使所述神经网络将所述第一批次输入到所述神经网络,使得生成对应于所述第一批次的输出信息,使第一损失层通过参考所述输出信息与对应于所述输出信息的真实值来计算出至少一个第一损失,通过对所述第一损失进行反向传播,进行所述神经网络与所述提升网络的所述第一当前学习。
17.根据权利要求16所述的学习装置,其特征在于
所述处理器还进行如下过程(III)及过程(IV),即,过程(III),对所述预设的参考体积的所述新数据进行统一采样,使得所述新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第二合成先前数据的过程,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应且与已用于学习所述原始数据生成器网络的所述先前数据对应的第三合成先前数据的过程,使得所述第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及过程(IV),使鉴别器将所述第二批次输入到所述鉴别器,使得生成与所述第二批次对应的评分向量,使第二损失层参考所述评分向量与对应于所述评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
18.根据权利要求17所述的学习装置,其特征在于,所述处理器重复所述过程(III)与所述过程(IV),直到通过对所述第二损失进行反向传播来使所述鉴别器的损失和所述复制数据生成器网络的损失收敛。
19.根据权利要求17所述的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器通过对所述第二损失进行反向传播来进行所述鉴别器的至少一个权重以及所述复制数据生成器网络的至少一个权重的梯度上升。
20.根据权利要求17所述的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器通过对所述第二损失进行反向传播来在进行所述鉴别器的所述第二当前学习时,将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据,进行所述鉴别器的所述第二当前学习。
21.根据权利要求17所述的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器进行所述原始数据生成器网络的所述第二当前学习,来使在所述评分向量中与所述第三合成先前数据对应的所述第三合成先前数据评分向量最大化。
22.根据权利要求17所述的学习装置,其特征在于,
在所述第二当前学习是初始学习的情况下,
在所述过程(I)中,
所述处理器仅使用所述预设的第一体积的所述新数据来生成所述第一批次,
在所述过程(III)中,
所述处理器使所述原始数据生成器网络重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,通过参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
23.根据权利要求16所述的学习装置,其特征在于,所述处理器重复所述过程(I)与所述过程(II),直到通过对所述第一损失进行反向传播,使所述第一损失收敛。
24.根据权利要求23所述的学习装置,其特征在于,
在通过所述第一当前学习,重复所述过程(I)与所述过程(II)的情况下,
所述处理器(i)在第一次迭代中,在所述过程(I)中,使将与所述预设的参考体积的所述新数据分别对应的每个采样概率初始化,并参考初始化后的所述采样概率,对所述预设的参考体积的所述新数据进行所述统一采样,生成所述预设的第一体积的所述新数据,在所述过程(II)中,当完成所述神经网络的所述第一当前学习时,通过参考与所述预设的第一体积的所述新数据对应的所述第一损失来更新与所述预设的第一体积的每个所述新数据对应的每个所述采样概率,以便更新与所述预设的参考体积的所述新数据分别对应的每个所述采样概率,
(ii)在下一次迭代中,在所述过程(I)中,参考在与所述预设的参考体积的所述新数据分别对应的先前迭代中更新的每个所述采样概率,并通过所述预设的参考体积的所述新数据的所述统一采样,生成所述预设的第一体积的所述新数据,在所述过程(II)中,当完成所述神经网络的所述第一当前学习时,参考与所述预设的第一体积的所述新数据对应的所述第一损失,更新在与所述预设的参考体积的所述新数据分别对应的所述先前迭代中更新的所述采样概率。
25.根据权利要求23所述的学习装置,其特征在于,
在通过所述第一当前学习重复所述过程(I)与所述过程(II)的情况下,
在第一次迭代中,在所述过程(I)中,所述处理器使所述提升网络初始化后,使初始化后的所述提升网络将所述k维随机向量转换为所述k维修正向量,
在下一次迭代中,在所述过程(I)中,所述处理器在先前迭代中的所述过程(II)中使已完成所述第一当前学习的所述提升网络将所述k维随机向量转换为所述k维修正向量。
26.根据权利要求16所述的学习装置,其特征在于,
在所述过程(II)中,
所述处理器进行所述神经网络的至少一个权重的梯度下降,使得通过对所述第一损失进行反向传播来使所述神经网络的损失最小化,并进行所述提升网络的至少一个权重的梯度上升,使得在所述第一损失中使与所述第一合成先前数据对应的损失最大化。
27.根据权利要求26所述的学习装置,其特征在于,当进行所述提升网络的所述权重的所述梯度上升时,所述处理器截断所述提升网络的所述权重。
28.根据权利要求16所述的学习装置,其特征在于,所述提升网络包括低次元的至少一个全连接层。
29.一种用于分析输入数据的神经网络的测试装置,其特征在于,包括:
至少一个存储器,存储指令;以及
至少一个处理器,被配置为执行指令,所述指令用于进行在学习装置完成如下过程(1)及过程(2)的状态下,使所述神经网络输出与将测试数据输入到神经网络而获得的所述测试数据对应的测试用输出信息,即,过程(1),当为学习而获取的新数据达到预设的参考体积时,对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有预设的第一体积,将至少一个学习用k维随机向量输入到提升网络中,使得所述提升网络将所述学习用k维随机向量转换为损失高于所述学习用k维随机向量的至少一个学习用k维修正向量,将所述学习用k维修正向量输入到完成学习的原始数据生成器网络中,使得所述原始数据生成器网络重复输出与所述学习用k维修正向量对应且与已用于学习所述原始数据生成器网络的学习用先前数据对应的学习用第一合成先前数据的过程,使得所述学习用第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述学习用新数据和所述预设的第二体积的所述学习用第一合成先前数据来生成用于第一当前学习的学习用第一批次,以及过程(2),使所述神经网络将所述学习用第一批次输入到所述神经网络来生成与所述学习用第一批次对应的学习用输出信息,使第一损失层通过参考所述学习用输出信息与对应于所述学习用输出信息的真实值来计算出至少一个第一损失,通过对所述第一损失进行反向传播来进行所述神经网络与所述提升网络的所述第一当前学习。
30.根据权利要求29所述的测试装置,其特征在于,所述学习装置还进行如下的过程(3)及过程(4),即,过程(3),对所述预设的参考体积的所述学习用新数据进行统一采样,使得所述学习用新数据具有所述预设的第一体积,并复制所述原始数据生成器网络,使得生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第二合成先前数据的过程,使所述学习用第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述学习用k维随机向量对应且与已用于学习所述原始数据生成器网络的所述学习用先前数据对应的学习用第三合成先前数据的过程,使所述学习用第三合成先前数据具有预设的第三体积,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,并参考所述预设的第一体积的所述学习用新数据、所述预设的第二体积的所述学习用第二合成先前数据以及所述预设的第三体积的所述学习用第三合成先前数据来生成用于第二当前学习的学习用第二批次,以及过程(4),使鉴别器将所述学习用第二批次输入到所述鉴别器,使得生成与所述学习用第二批次对应的学习用评分向量,使第二损失层通过参考所述学习用评分向量与对应于所述学习用评分向量的真实值来计算出至少一个第二损失,通过对所述第二损失进行反向传播来进行所述鉴别器和所述原始数据生成器网络的所述第二当前学习。
CN202010038838.5A 2019-01-29 2020-01-14 优化采样的神经网络的设备上持续学习方法及装置 Active CN111488980B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/260,263 2019-01-29
US16/260,263 US10635941B1 (en) 2019-01-29 2019-01-29 Method and device for on-device continual learning of neural network which analyzes input data by optimized sampling of training images, and method and device for testing the neural network for smartphones, drones, vessels, or military purpose

Publications (2)

Publication Number Publication Date
CN111488980A true CN111488980A (zh) 2020-08-04
CN111488980B CN111488980B (zh) 2023-10-03

Family

ID=69177098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010038838.5A Active CN111488980B (zh) 2019-01-29 2020-01-14 优化采样的神经网络的设备上持续学习方法及装置

Country Status (5)

Country Link
US (1) US10635941B1 (zh)
EP (1) EP3690755A1 (zh)
JP (1) JP6970461B2 (zh)
KR (1) KR102349969B1 (zh)
CN (1) CN111488980B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112184690B (zh) * 2020-10-12 2021-11-02 推想医疗科技股份有限公司 冠脉血管走向的预测方法、预测模型的训练方法及装置
CN114301637B (zh) * 2021-12-11 2022-09-02 河南大学 一种用于医疗物联网的入侵检测方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170004399A1 (en) * 2015-07-01 2017-01-05 Ricoh Company, Ltd. Learning method and apparatus, and recording medium
US20170228639A1 (en) * 2016-02-05 2017-08-10 International Business Machines Corporation Efficient determination of optimized learning settings of neural networks
US20170357896A1 (en) * 2016-06-09 2017-12-14 Sentient Technologies (Barbados) Limited Content embedding using deep metric learning algorithms
US20180032840A1 (en) * 2016-07-27 2018-02-01 Beijing Kuangshi Technology Co., Ltd. Method and apparatus for neural network training and construction and method and apparatus for object detection
CN108805259A (zh) * 2018-05-23 2018-11-13 北京达佳互联信息技术有限公司 神经网络模型训练方法、装置、存储介质及终端设备
CN109063903A (zh) * 2018-07-19 2018-12-21 山东建筑大学 一种基于深度强化学习的建筑能耗预测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130266A1 (en) * 2017-10-27 2019-05-02 Royal Bank Of Canada System and method for improved neural network training

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170004399A1 (en) * 2015-07-01 2017-01-05 Ricoh Company, Ltd. Learning method and apparatus, and recording medium
US20170228639A1 (en) * 2016-02-05 2017-08-10 International Business Machines Corporation Efficient determination of optimized learning settings of neural networks
US20170357896A1 (en) * 2016-06-09 2017-12-14 Sentient Technologies (Barbados) Limited Content embedding using deep metric learning algorithms
US20180032840A1 (en) * 2016-07-27 2018-02-01 Beijing Kuangshi Technology Co., Ltd. Method and apparatus for neural network training and construction and method and apparatus for object detection
CN108805259A (zh) * 2018-05-23 2018-11-13 北京达佳互联信息技术有限公司 神经网络模型训练方法、装置、存储介质及终端设备
CN109063903A (zh) * 2018-07-19 2018-12-21 山东建筑大学 一种基于深度强化学习的建筑能耗预测方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHENSHEN WU等: "Memory Replay GANs: learning to generate images from new categories without forgetting", 《第32届神经信息处理系统会议(NEURIPS 2018)》 *
CHENSHEN WU等: "Memory Replay GANs: learning to generate images from new categories without forgetting", 《第32届神经信息处理系统会议(NEURIPS 2018)》, 29 October 2018 (2018-10-29), pages 1 - 7 *
SWAMI SANKARANARAYANA 等: "Learning from Synthetic Data: Addressing Domain Shift for Semantic Segmentation", 《IEEE/CVF计算机视觉和模式识别会议》 *
SWAMI SANKARANARAYANA 等: "Learning from Synthetic Data: Addressing Domain Shift for Semantic Segmentation", 《IEEE/CVF计算机视觉和模式识别会议》, 18 June 2018 (2018-06-18), pages 3752 - 3761, XP033476346, DOI: 10.1109/CVPR.2018.00395 *

Also Published As

Publication number Publication date
JP6970461B2 (ja) 2021-11-24
JP2020123337A (ja) 2020-08-13
CN111488980B (zh) 2023-10-03
KR20200094076A (ko) 2020-08-06
KR102349969B1 (ko) 2022-01-12
EP3690755A1 (en) 2020-08-05
US10635941B1 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
Han et al. Unsupervised generative modeling using matrix product states
CN111488979B (zh) 设备上持续学习用于分析输入数据的神经网络的方法及装置
CN109711426B (zh) 一种基于gan和迁移学习的病理图片分类装置及方法
CN111178520A (zh) 一种低计算能力处理设备的数据处理方法及装置
CN111488980B (zh) 优化采样的神经网络的设备上持续学习方法及装置
Horton et al. Layer-wise data-free cnn compression
Choudhary et al. Inference-aware convolutional neural network pruning
Wang et al. Lightweight deep neural networks for ship target detection in SAR imagery
Tuncer et al. A novel spiral pattern and 2D M4 pooling based environmental sound classification method
Kulkarni et al. AI model compression for edge devices using optimization techniques
CN114511785A (zh) 基于瓶颈注意力模块的遥感图像云检测方法及系统
Li et al. Fitcnn: A cloud-assisted lightweight convolutional neural network framework for mobile devices
CN116976405A (zh) 基于免疫优化算法的变分阴影量子神经网络
Seeli et al. A study on fractal image compression using soft computing techniques
Li et al. Pruner to predictor: An efficient pruning method for neural networks compression
CN114998648A (zh) 一种基于梯度架构搜索的表现预测压缩方法
Duggal et al. High Performance SqueezeNext for CIFAR-10
CN113673629A (zh) 基于多图卷积网络的开集域适应遥感图像小样本分类方法
Hu et al. Data Customization-based Multiobjective Optimization Pruning Framework for Remote Sensing Scene Classification
Hailat et al. Teacher/student deep semi-supervised learning for training with noisy labels
JP2020030702A (ja) 学習装置、学習方法及び学習プログラム
Kumar et al. UFS-LSTM: unsupervised feature selection with long short-term memory network for remote sensing scene classification
Dai et al. Detection System for Construction Image Classification Based on Deep Learning Models
US20240152726A1 (en) Single search for architectures on embedded devices
US20240169500A1 (en) Image and object inpainting with diffusion models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant