CN111488979B - 设备上持续学习用于分析输入数据的神经网络的方法及装置 - Google Patents

设备上持续学习用于分析输入数据的神经网络的方法及装置 Download PDF

Info

Publication number
CN111488979B
CN111488979B CN202010037850.4A CN202010037850A CN111488979B CN 111488979 B CN111488979 B CN 111488979B CN 202010037850 A CN202010037850 A CN 202010037850A CN 111488979 B CN111488979 B CN 111488979B
Authority
CN
China
Prior art keywords
data
learning
volume
preset
previous data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010037850.4A
Other languages
English (en)
Other versions
CN111488979A (zh
Inventor
金桂贤
金镕重
金寅洙
金鹤京
南云铉
夫硕焄
成明哲
吕东勋
柳宇宙
张泰雄
郑景中
诸泓模
赵浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of CN111488979A publication Critical patent/CN111488979A/zh
Application granted granted Critical
Publication of CN111488979B publication Critical patent/CN111488979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning

Abstract

提供一种用于智能手机、无人机、船舶或军事目的的用于分析输入数据的神经网络的设备上持续学习(continual learning)的方法,所述方法包括:步骤(a),学习装置对新数据进行采样,使得具有预设的第一体积,使先前所学的原始数据生成器网络重复输出与k维随机向量对应的合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述合成先前数据具有第二体积,并生成用于当前学习批次(batch);以及步骤(b),使所述神经网络生成与所述批次对应的输出信息。所述方法可通过生成对抗网络(Generative Adversarial Network,GAN)、在线学习等来进行,具有节省如存储装置(storage)等资源、防止灾难性遗忘(catastrophic forgetting)现象、保护个人信息等效果。

Description

设备上持续学习用于分析输入数据的神经网络的方法及装置
技术领域
本发明涉及一种用于无人驾驶汽车、虚拟驾驶等的学习方法和学习装置以及测试方法和测试装置,更具体地,涉及一种设备上(on-device)持续学习(continual learning)用于分析输入数据的神经网络的所述学习方法和所述学习装置以及利用其的所述测试方法和所述测试装置。
背景技术
通常,深度学习(Deep learning)被定义为通过多种非线性变换技术的组合来试图实现高水平的抽象的机器学习算法的集合,是在一个大框架中使计算机学习人的思考方式的机器学习的一个领域。
将某些数据表示为计算机可读形式,作为一例,将图像的像素信息表示为列向量的形式等,并正在开展将其应用于机器学习中的各种研究。通过这些努力的结果,如深度神经网络(deep neural network)、卷积神经网络(convolutional neural network)、循环神经网络(Recurrent neural network)等各种深度学习技术应用于计算机视觉、语音识别、自然语言处理以及语音/信号处理等领域中,并且开发了显示高性能的深度学习网络。
这种深度学习网络正在向更深层(Deep)和更多特征(Feature)的大规模模型发展,以提高识别性能。
尤其,由于需要大规模训练数据与高计算能力,在服务器上在线完成深度学习网络的学习。
但是,在因隐私问题而无法出于学习目的来将个人数据传输到服务器的个人移动装置(personal mobile device)环境,或在装置脱离通信网络的情况较多的无人机或船舶环境下,无法在服务器中学习。
因此,在无法在服务器上进行学习的本地装置中需要在进行深度学习网络的设备上学习(on-device learning)。
但是,进行设备上学习的本地装置没有或缺少存储训练数据的空间,因此难以进行设备上学习。
另外,当使用新训练数据学习深度学习网络时,若新的训练数据与过去的训练数据不同,则深度学习网络会逐渐忘记过去所学的内容,结果将发生灾难性遗忘(catastrophic forgetting)问题。
发明内容
本发明的目的在于解决所有上述问题。
本发明的再一目的在于,无需将训练数据存储在进行设备上(on-device)学习的本地装置上也可继续使用训练数据。
本发明的另一目的在于,在未存储过去的训练数据的情况下也可在利用新的训练数据的学习中利用过去的训练数据。
本发明的又一目的在于,在进行设备上学习的本地装置上进行神经网络的设备上学习而不发生灾难性遗忘现象。
为了实现如上所述的本发明的目的,并且实现后述的本发明的特征效果,本发明的特征结构如下。
根据本发明的一方面,提供设备上(on-device)持续学习(continual learning)用于分析输入数据的神经网络(neural network)的方法,所述方法包括:步骤(a),当为学习而获取的新数据具有预设的参考体积时,学习装置对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量(k-dimensional random vector)输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次(batch);以及步骤(b),所述学习装置将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值(Ground Truth,GT)来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播(backpropagation)来进行所述神经网络的所述第一当前学习。
在一实施例中,还包括:步骤(c),所述学习装置对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及步骤(d),所述学习装置将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量和与所述评分向量对应的真实值(GT)来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。
在一实施例中,所述学习装置重复所述步骤(c)和所述步骤(d),直到通过利用所述第二损失的反向传播来使所述鉴别器得损失以及所述第二数据生成器网络的损失分别收敛。
在一实施例中,在所述步骤(d)中,所述学习装置通过利用所述第二损失的反向传播来进行所述鉴别器以及所述第二数据生成器网络的梯度上升(gradientascent)。
在一实施例中,在所述步骤(d)中,当通过利用所述第二损失的反向传播来进行所述鉴别器的所述第二当前学习时,所述学习装置将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据来进行所述鉴别器的所述第二当前学习。
在一实施例中,在所述步骤(d)中,在所述评分向量中,所述学习装置进行所述原始数据生成器网络的所述第二当前学习,以使与所述第三合成先前数据对应的第三合成先前数据评分向量最大化。
在一实施例中,在所述步骤(d)中,当完成所述第二当前学习时,所述学习装置删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。
在一实施例中,在所述第二当前学习是初始学习的情况下,在所述步骤(a)中,所述学习装置通过仅使用所述预设的第一体积的所述新数据来生成所述第一批次,在所述步骤(c)中,所述学习装置使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
在一实施例中,所述学习装置重复所述步骤(a)和所述步骤(b),直到通过利用所述第一损失的反向传播来使所述第一损失收敛。
在一实施例中,在所述步骤(b)中,所述学习装置通过利用所述第一损失的反向传播来进行所述神经网络的梯度下降(gradient descent)。
在一实施例中,当所述神经网络是以至少一个向量作为输入来获取的分类器时,所述原始数据生成器网络包括一个以上的全连接(FC)层,所述全连接层将至少一个全连接(Fully Connected,FC)运算应用于与所述k维随机向量对应的k维信息来输出至少一个D维向量和至少一个C维独热编码(one-hot)向量。
在一实施例中,当所述神经网络是以至少一个RGB图像作为输入来获取的对象检测器时,所述原始数据生成器网络包括一个以上的转置(transposed)卷积层和更快的基于区域的卷积神经网络(faster Region-based Convolutional Network,R-CNN),所述转置卷积层将与所述k维随机向量对应的1×1×K信息转换为至少一个H×W×3张量,所述更快速的基于区域的卷积神经网络通过分析所述H×W×3张量来输出至少一个R×(4+C)向量,其中,所述R包括至少一个R维向量,(4+C)包括x1、y1、x2、y2以及至少一个C维独热编码向量。
根据本发明的再一方面,提供一种用于测试已完成设备上(on-device)持续学习的神经网络的测试方法,所述方法包括:步骤(a),学习装置在进行过程(1)及过程(2)的状态下,测试装置获取测试数据,即,过程(1),对具有预设的参考体积的新数据进行采样,使得具有预设的第一体积,将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(2),通过将所述第一批次输入到所述神经网络中来使所述神经网络生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息和与所述学习用输出信息对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习;以及步骤(b),所述测试装置将所述测试数据输入到所述神经网络中,使所述神经网络生成与所述测试数据对应的测试用输出信息。
在一实施例中,所述学习装置还进行如下的过程(3)及过程(4),即,过程(3),对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络来生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(4),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层通过参考所述评分向量和与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及进行所述原始数据生成器网络的所述第二当前学习。
根据本发明的另一方面,提供一种用于分析输入数据的神经网络的设备上持续学习的学习装置,所述学习装置包括:至少一个存储器,用于存储指令;以及至少一个处理器,被配置为执行用于进行如下过程(I)及过程(II)的指令,即,过程(I),当为学习而获取的新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批,以及过程(II),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习。
在一实施例中,所述处理器还进行如下的过程(III)及过程(IV),即,过程(III),对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及过程(IV),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量及与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。
在一实施例中,所述处理器重复所述过程(III)和所述过程(IV),直到通过利用所述第二损失的反向传播来使所述鉴别器得损失以及所述第二数据生成器网络的损失分别收敛。
在一实施例中,在所述过程(IV)中,所述处理器通过利用所述第二损失的反向传播来进行所述鉴别器以及所述第二数据生成器网络的梯度上升(gradientascent)。
在一实施例中,在所述过程(IV)中,当通过利用所述第二损失的反向传播来进行所述鉴别器的所述第二当前学习时,所述处理器将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据来进行所述鉴别器的所述第二当前学习。
在一实施例中,在所述过程(IV)中,在所述评分向量中,所述处理器进行所述原始数据生成器网络的所述第二当前学习,以使与所述第三合成先前数据对应的第三合成先前数据评分向量最大化。
在一实施例中,在所述过程(IV)中,当完成所述第二当前学习时,所述处理器则删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。
在一实施例中,在所述第二当前学习是初始学习的情况下,在所述过程(I)中,所述处理器通过仅使用所述预设的第一体积的所述新数据来生成所述第一批次,在所述过程(III)中,所述处理器使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
在一实施例中,所述处理器重复所述过程(I)和所述过程(II),直到通过利用所述第一损失的反向传播来使所述第一损失收敛。
在一实施例中,在所述过程(II)中,所述处理器通过利用所述第一损失的反向传播来进行所述神经网络的梯度下降。
在一实施例中,当所述神经网络是以至少一个向量作为输入来获取的分类器时,所述原始数据生成器网络包括一个以上的全连接层,所述一个以上的全连接层将至少一个全连接运算应用于与所述k维随机向量对应的k维信息来输出至少一个D维向量和至少一个C维独热编码向量。
在一实施例中,当所述神经网络是以至少一个RGB图像作为输入来获取的对象检测器时,所述原始数据生成器网络包括一个以上的转置卷积层与更快速的基于区域的卷积神经网络,所述转置卷积层将与所述k维随机向量对应的1×1×K信息转换为至少一个H×W×3张量,所述更快速的基于区域的卷积神经网络通过分析所述H×W×3张量来输出至少一个R×(4+C)向量,其中,所述R包括至少一个R维向量,(4+C)包括x1、y1、x2、y2以及至少一个C维独热编码向量。
根据本发明的另一方面,提供一种用于测试已完成设备上持续学习的神经网络的测试装置,所述测试装置包括:至少一个存储器,用于存储指令;以及至少一个处理器,被配置为执行指令,所述指令用于进行在学习装置进行如下过程(1)及过程(2)的状态下,将所述测试数据输入到所述神经网络中,使所述神经网络生成与所述测试数据对应的测试用输出信息的过程,即,过程(1),当新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(2),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息及与所述学习用输出信息对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来在进行所述神经网络的所述第一当前学习。
在一实施例中,所述学习装置还进行如下的过程(3)及过程(4),即,过程(3),对所述新数据进行采样,使得具有所述预设的第一体积,并且通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(4),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量及与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。
另外,还提供一种用于存储计算机程序的计算机可读介质,所述计算机程序用于执行本发明的方法。
本发明具有如下效果,即,有效生成用于先前所学的过去的训练数据,从而在本地装置上进行设备上学习而无需存储过去的训练数据。
另外,本发明具有如下效果,即,通过由数据生成器网络生成,并使用过去的训练数据与新训练数据的神经网络的设备上学习,来防止学习期间神经网络的灾难性遗忘(catastrophic forgetting)现象。
另外,本发明具有如下效果,即,通过利用生成对抗网络(GenerativeAdversarial Network,GAN)、在线学习等,具有保护个人信息、节省诸如存储装置等资源。
附图说明
用于描述本发明实施例的附图仅是本发明实施例的一部分,并且本发明所属领域的普通技术人员无需进行创造性劳动也可基于这些附图获得其他附图。
图1示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习的学习装置;
图2示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法;
图3示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法中生成过去的训练数据的数据生成器网络的一示例;
图4示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法中生成过去的训练数据的数据生成器网络的另一示例;
图5示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习方法中学习数据生成器网络的过程;
图6示出根据本发明一实施例的用于测试完成设备上持续学习的神经网络的测试装置;
图7示出根据本发明一实施例的用于测试完成设备上持续学习的神经网络的测试方法。
具体实施方式
为使本发明得目的、技术方案以及优点清楚,对于后述的本发明的详细说明参考本发明可以实施的特定实施例作为示例来示出的附图。为了使本领域技术人员能够足以实施本发明而详细说明这些实施例。
另外,在本发明的详细说明以及发明要求保护范围中,术语“包括”及其变形并不旨在排除其他技术特征、添加物、组件或步骤。就本领域普通技术人员而言,本发明的其他目的、优点以及特征的一部分从本说明书中、另一部分从本发明的实施中公开。以下示例和附图将作为示例提供,但是它们并不旨于限制本发明。
尤其,本发明涵盖了本说明书所示的实施例的所有可能的组合。应理解,本发明的各种实施例尽管不同,但不一定是相互排斥的。例如,在不脱离与一实施例有关的本发明的精神和范围的情况下,可在其他实施例中实现本文中所记载的特定形状、结构或特性。另外,应理解,在不脱离本发明的精神和范围的情况下,可以修改每个公开的实施例内的单独的组件的位置或配置。因此,以下详细描述不应被理解为限制性的,并且本发明的范围在适当地解释的情况下,仅由所附发明要求保护范围以及发明要求保护范围所赋予的等同的全部范围来限定。附图中相似的附图标记是指经过多方面具有相同或相似的功能。
本发明所涉及的各种图像可包括铺设或未铺设的道路有关的图像,在这种情况下,可以假设可能会出现在道路环境中的物体(例如,汽车、人、动物、植物、物体、建筑物、诸如飞机或无人机的飞行器、其他障碍物),但不限于此,本发明中涉及的各种图像可以是与道路无关的图像(例如,土路、小巷、空地、海、湖泊、河流、山脉、森林、沙漠、天空、室内),在这种情况下,可以推断土路、小巷、空地、海、湖泊、河流、山脉、森林、沙漠、天空、室内环境中可能出现的物体(例如,汽车,人,动物,植物,物体,建筑物,诸如飞机或无人机的飞行器、其他障碍物等),但不限于此。
以下,为了使本发明所属领域的普通技术人员能够容易地实施本发明,将通过参考附图详细说明本发明的示例实施例。
图1示出根据本发明一实施例的利用深度学习来分析输入数据的神经网络的设备上持续学习的学习装置。参考图1,学习装置100可以包括:存储器110,用于存储指令,所述指令用于进行所述神经网络的设备上持续学习;处理器120,用于对应于存储于所述存储器110的所述指令来进行所述神经网络的设备上持续学习。
具体地,所述学习装置100通常可以通过使用至少一个计算装置(例如,可包括计算机处理器、存储器、存储装置、输入装置以及输出装置、其他现有计算装置的组件的装置;诸如路由器或交换机的电子通信装置;诸如网络附加存储(NAS)以及存储区域网络(SAN)的电子信息存储系统)和至少一个计算机软件(即,使计算装置以特定方式运行的指令)的组合来实现所需的系统性能。
所述计算装置的所述处理器可包括微处理单元(Micro Processing Unit,MPU)或中央处理单元(Central Processing Unit,CPU)、高速缓冲存储器存储器(Cache Memory)、数据总线(Data Bus)等硬件结构。另外,所述计算装置还可以包括操作系统以及进行特定目的应用程序的软件结构。
然而,所述计算装置并不排除作为集成有包括用于实施本发明的介质、处理器及存储器的形式的的集成处理器的情况。
参考图2,下面描述根据本发明一实施例的通过所述学习装置100的深度学习,设备上持续学习用于分析输入数据的所述神经网络的方法。
首先,当为学习而获取的新数据10具有预设的参考体积M时,所述学习装置100对所述新数据10进行采样,使得具有预设的第一体积m。
此时,可以从包括神经网络140的至少一个本地装置本身或至少一个外部装置获取所述新数据10。
另一方面,当对所述新数据10进行采样时,所述学习装置100可以通过均匀采样以所述预设的第一体积m的量来选择所述新数据10中的一部分,或者混洗所述新数据10之后,按照混洗的顺序,以所述预设的第一体积m的量选择所述新数据10的一部分,但本发明不限于此,并且可以使用能够以所述预设的第一体积的量选择所述新数据10的所述一部分的任何采样方法。
然后,所述学习装置100,可以将至少一个k维随机向量输入到先前所学的原始数据生成器网络G(130),并且可以使所述原始数据生成器网络G(130)重复输出与所述k维随机向量对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积n。
此时,所述原始数据生成器网络G(130)为被预先学习以输出用于对其的学习的原始数据生成器网络G(130)的先前数据,并且所述第一合成先前数据对应于所述先前数据。并且,可以从针对其每个元素采样的从0至1的范围内的输入生成k维随机向量。以下将描述对原始数据生成器网络G(130)的学习。
另一方面,所述原始数据生成器网络G(130)可以被配置为对应于所述神经网络140,并且所述神经网络140可以根据与输入的所述新数据(x、y)10对应的(x、y)的维度,值类型以及范围等来创建并使用合适的网络架构。
作为一例,参考图3,在所述神经网络140是以至少一个向量作为输入来获取的分类器的情况下,所述原始数据生成器网络130可以包括一个以上的全连接层,所述一个以上的全连接层将至少一个全连接运算应用于与所述k维随机向量对应的k维信息,从而输出至少一个D维向量和至少一个C维独热编码向量/>
作为另一例,参考图4,在所述神经网络140是以至少RGB图像作为输入来获取的对象检测器的情况下,所述原始数据生成器网络130可以包括一个以上的转置卷积层和更快速的基于区域的卷积神经网络,所述转置卷基层将与所述k维随机向量对应的1×1×K信息转换为至少一个H×W×3张量,所述更快速的基于区域的卷积神经网络输出用于分析所述H×W×3张量至少一个R×(4+C)向量。此时,所述多个转置卷积层(131-1,131-2,…)的输出端可以提供将至少一个H×W×3向量转换为所述H×W×3张量的激活函数(S形)。并且,在所述R×(4+C)向量中,R可以包括至少一个R维向量/>,并且(4+C)可以包括x1、y1、x2、y2以及所述C维独热编码向量。
然后,再次参考图2,所述学习装置100可以通过参考所述预设的第一体积m的所述新数据和所述预设的第二体积n的所述第一合成先前数据来生成用于第一当前学习第一批次20。此时,所述第一批次20可以具有m+n体积。
之后,所述学习装置100可以通过将所述第一批次20输入到所述神经网络140中来使所述神经网络140生成与所述第一批次20对应的输出信息,使第一损失层150参考所述输出信息及与所述输出信息对应的真实值,并计算出一个以上的第一损失。此时,所述新数据的损失作为所述第一批次20内所述新数据的损失,可以表示为,而所述先前数据的损失作为所述第一批次20内合成先前数据的损失,可以表示为/>
并且,所述学习装置100可以通过利用所述第一损失的反向传播来进行所述神经网络140的所述第一当前学习。
此时,所述学习装置100可以通过利用所述第一损失的反向传播来进行所述神经网络140的梯度下降,由此所述神经网络140的至少一个权重可以被更新为如下公式。
并且,所述学习装置100可以重复以上操作,直到通过利用所述第一损失的反向传播,所述第一损失收敛。即,所述学习装置100可以重复通过使用所述新数据与所述合成先前数据的所述第一批次的生成,并且重复通过使用所述第一批次的所述神经网络140的所述第一当前学习来使所述第一损失收敛。
然后,参考图5,描述学习先前所学的所述原始数据生成器网络130的过程。在下面的描述中,将省略根据图2的描述容易理解的部分。
首先,所述学习装置100对所述新数据(h)10采样,使得具有所述预设的第一体积m,并且通过复制所述原始数据生成器网络G(130),生成复制数据生成器网络G’(130C)。
并且,所述学习装置100使所述复制数据生成器网络G’(130C),重复输出与所述k维随机向量z对应的第二合成先前数据G'(z)的过程,使得所述第二合成先前数据G'(z)具有所述预设的第二体积n。此时,所述学习装置100将所述预设的第二体积n的所述第二合成先前数据G'(z)视为真实数据,设置为所述先前数据G'(z)。
另外,所述学习装置100使所述原始数据生成器网络G(130)重复输出与所述k维随机向量z对应的第三合成先前数据G(z)的过程,使得所述第三合成先前数据G(z)具有预设的第3体积m+n。此时,所述预设的第三体积m+n可以是所述预设的第一体积m和所述预设的第二体积n之和。
然后,所述学习装置100通过参考所述预设的第一体积m的所述新数据(h)、所述预设的第二体积n的所述第二合成先前数据G'(z)以及所述预设的第三体积m+n的所述第三合成先前数据G(z),生成要用于第二当前学习的第二批次21。
然后,所述学习装置100可以将所述第二批次21输入到鉴别器(D)160,使得所述鉴别器(D)160输出与所述第二批次21对应的评分向量。
此时,所述评分向量可以包括所述预设的第二体积n的所述第二合成先前数据G'(z)的评分向量、所述预设的第一体积m的所述新数据(h)的评分向量以及所述预设的第三体积m+n的所述第三合成先前数据G(z)的评分向量。
所述预设的第二体积n的所述第二合成先前数据G'(z)的评分向量可以表示为,所述预设的第一体积m的所述新数据(h)的评分向量可以表示为/>,所述预设的第三体积(m+n)的所述第三合成先前数据G(z)的评分向量可以表示为/>
然后,所述学习装置100,可以通过使第二损失层170参考所述评分向量和与所述评分向量对应的真实值,计算出一个以上的第二损失,通过利用所述第二损失的反向传播,进行所述鉴别器D(160)和所述原始数据生成器网络G(130)的所述第二当前学习。
此时,所述学习装置100可以通过利用所述第二损失的反向传播,进行所述鉴别器D(160)的梯度上升,由此,所述鉴别器D(160)的至少一个权重可以被更新为如下公式。
另外,所述学习装置100可以通过利用所述第二损失的反向传播,进行所述原始数据生成器网络G(130)的所述梯度上升,由此,所述数据生成器网络G(130)的至少一个权重可以被更新为如下公式。
同时,所述学习装置100通过将来自所述复制数据生成器网络G’(130C)的所述第二合成先前数据G'(z)视为真实数据,进行所述鉴别器D(160)的所述第二当前学习,在所述评分向量中,进行所述原始数据生成器网络G(130)的所述第二当前学习,以使与所述第三合成先前数据G(z)对应的第三合成先前数据评分向量最大化。
因此,用于学习所述鉴别器160的所述真实数据可以包括所述新数据(h)和作为所述第二合成先前数据G'(z)的所述先前数据G'(z),由此,所述原始数据生成器网络G(130)可以学习以输出作为所述真实数据的所述新数据(h)和作为所述第二合成先前数据的所述先前数据G'(z)。
并且,所述学习装置100可以通过利用所述第二损失的反向传播重复所述操作,直到所述鉴别器D(160)的损失以及所述原始数据生成器网络G(130)的损失分别收敛。即,所述学习装置100利用所述第二合成先前数据、所述新数据以及所述第三合成先前数据重复所述第二批次的生成,利用所述第二批次,重复所述鉴别器160与所述原始数据生成器网络130的所述第二当前学习,直到所述鉴别器160的损失与所述原始数据生成器网络130的损失收敛。
此时,用于学习所述鉴别器160的所述新数据与所述先前数据的比率可以是n:m=N:M,在利用所述第二批次学习所述新数据的所有体积M的情况下,所述新数据与所述先前数据的比率可以是N:M。其中,所述先前数据与所述新数据可以是从学过的所述原始数据生成器网络G(130)输出的。
此后,当完成所述第二当前学习时,作为一例,当所述鉴别器160的损失与所述原始数据生成器网络130的损失收敛时,所述学习装置100可以删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。
即,因为已学习所述原始数据生成器网络130以输出与用于所述第二当前学习的所述真实数据对应的所述新数据和所述先前数据,可以删除所述新数据,在进行所述下一个学习的情况下,所述原始数据生成器网络130可以输出用于当前的学习的所述先前数据和所述新数据,从而可以获取用于所述下一个学习的先前数据。
同时,在包括所述第一当前学习与所述第二当前学习的所述当前学习是初始学习的情况下,可以没有所述先前数据而进行所述第一当前学习与所述第二当前学习。
即,所述学习装置100可以仅通过使用所述预设的第一体积m的所述新数据来生成所述第一批次,并且可以通过使用所述第一批次来进行所述第一当前学习,使得所述神经网络140的所述损失收敛。
并且,所述学习装置100使所述原始数据生成器网络130重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积m,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据,生成所述第二批次,并且进行使用所述第二批次的所述第二当前学习,使得所述鉴别器160的所述损失以及所述原始数据生成器网络130的所述损失收敛。
此后,所述学习装置100可以删除用于所述当前学习的所述新数据,并将所述新数据初始化为所述先前数据。
作为参考,在以下描述中,为了避免混淆,为与学习过程有关的术语添加了词语“学习用”或“训练”,为与测试过程有关的术语添加了短语“测试用”或“测试”。
图6示出根据本发明一实施例的测试完成设备上持续学习的所述神经网络的测试装置。参考图6,所述测试装置200可以包括:存储器210,存储用于测试完成设备上持续学习的所述神经网络的指令;以及处理器220,用于对应于存储于所述存储器210中的所述指令来执行测试完成设备上持续学习的所述神经网络的过程。
具体地,所述测试装置200通常可以通过至少一个计算装置(例如,可包括计算机处理器、存储器、存储装置、输入装置以及输出装置、其他现有计算装置的组件的装置;诸如路由器或交换机的电子通信装置;诸如网络附加存储(NAS)以及存储区域网络(SAN)的电子信息存储系统)和至少一个计算机软件(即,使计算装置以特定方式运行的指令)的组合来实现所需的系统性能。
另外,所述计算装置的所述处理器可包括微处理单元或中央处理单元,高速缓冲存储器存储器,数据总线等硬件结构。另外,所述计算装置还可以包括操作系统以及进行特定目的应用程序的软件结构。
然而,所述计算装置并不排除作为集成有包括用于实施本发明的介质、处理器及存储器的集成处理器的情况。
参考图7,描述通过使用根据如上所述配置的本发明一实施例的所述测试装置200,测试完成设备上持续学习的所述神经网络的方法。
在所述神经网络140已根据如上所述的过程进行学习的状态下,所述测试装置200可以支持获取测试数据201或使其他装置获取测试数据201。此时,所述测试数据201可以包括图像信息、传感器信息、语音信息等,但不限于此,并且可以包括可以分析特征的任何输入数据。
并且,所述测试装置200可以将所述测试数据201输入到所述神经网络140中,并且使所述神经网络140生成与所述测试数据201对应的测试用输出信息。
此时,所述学习装置可以为完成如下过程(a)及过程(b)的状态,即,过程(a),当为学习而获取的新数据具有所述预设的参考体积时,对所述新数据进行采样,使得具有所述预设的第一体积,将至少一个k维随机向量输入到先前所学的所述原始数据生成器网络,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据,生成所述用于第一当前学习的第一批次;以及过程(b),将所述第一批次输入到所述神经网络140,使所述神经网络140生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息和与其对应的真实值来计算出所述第一损失,从而通过利用其的反向传播,完成进行所述神经网络的所述第一当前学习。
并且,所述学习装置可以为完成如下过程的状态,即,对所述新数据进行采样,使得具有所述预设的第一体积m,并且通过复制所述原始数据生成器网络,所述生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的所述第二合成先前数据的过程,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的所述第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第三体积,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据,生成用于所述第二当前学习的所述第二批次,将所述第二批次输入到所述鉴别器,使所述鉴别器输出与所述第二批次对应的所述评分向量,使所述使第二损失层参考所述评分向量和与所述评分向量对应的真实值来计算出所述第二损失,并且通过利用所述第二损失的反向传播,完成所述鉴别器以及进行所述原始数据生成器网络的所述第二当前学习。
通过这种方法,可利用于智能手机、无人机或船舶用途。
并且,以上描述的根据本发明的实施例可以通过各种计算机组件执行的程序指令的形式来实现并存储在计算机可读存储介质。所述计算机可读存储介质可以单独或组合包括程序指令、数据文件、数据结构等。存储在所述计算机可读存储介质的程序指令可以是为本发明专门设计并组成的,或者可以是计算机软件领域的技术人员公知而可使用的。计算机可读存储介质的示例包括如硬盘、软盘和磁带的磁性介质、如CD-ROM、DVD的光学记录介质、如软盘的磁光介质以及专门配置用于存储并执行如ROM、RAM、闪存等程序指令的硬件装置。程序指令的示例不仅包括如由编译器产生的机器代码,还包括可以由计算机使用解释器等执行的高级语言代码。所述硬件装置可配置为一个或多个软件模块来操作,以执行根据本发明的过程,反之亦然。
以上,虽然本发明根据具体的结构要素等特定事项和有限的实施例及附图进行了说明,这只是为了帮助更全面地理解本发明而提供的,本发明并不限于上述实施例,在本发明所属的技术领域中,普通技术人员可以从这些记载中进行各种修改和变化。
因此,本发明的思想不能限于上述说明的实施例,不仅是后述的发明要求保护范围,所有与该发明要求保护范围等同或等价变形的都属于本发明的思想范畴。

Claims (24)

1.一种用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,包括:
步骤(a),当为学习而获取的新数据具有预设的参考体积时,学习装置对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次;
步骤(b),所述学习装置将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习;
步骤(c),所述学习装置对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,并参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次;以及
步骤(d),所述学习装置将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量和与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。
2.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,所述学习装置重复所述步骤(c)和所述步骤(d),直到通过利用所述第二损失的反向传播来使所述鉴别器的损失以及所述原始数据生成器网络的损失分别收敛。
3.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的梯度上升。
4.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置,当通过利用所述第二损失的反向传播来进行所述鉴别器的所述第二当前学习时,所述学习装置将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据来进行所述鉴别器的所述第二当前学习。
5.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置,在所述评分向量中,所述学习装置进行所述原始数据生成器网络的所述第二当前学习,以使与所述第三合成先前数据对应的第三合成先前数据评分向量最大化。
6.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,
在所述步骤(d)中,
所述学习装置,当完成所述第二当前学习时,所述学习装置删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。
7.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,
在所述第二当前学习是初始学习的情况下,
在所述步骤(a)中,
所述学习装置通过仅使用所述预设的第一体积的所述新数据来生成所述第一批次,
在所述步骤(c)中,
所述学习装置使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
8.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,所述学习装置重复所述步骤(a)和所述步骤(b),直到通过利用所述第一损失的反向传播来使所述第一损失收敛。
9.根据权利要求1所述的用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,
在所述步骤(b)中,
所述学习装置通过利用所述第一损失的反向传播来进行所述神经网络的梯度下降。
10.一种用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,包括:
步骤(a),当为学习而获取的新数据具有预设的参考体积时,学习装置对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次;以及
步骤(b),所述学习装置将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习,
当所述神经网络是以至少一个向量作为输入来获取的分类器时,所述原始数据生成器网络包括一个以上的全连接层,所述全连接层通过将至少一个全连接运算应用于与所述k维随机向量对应的k维信息来输出至少一个D维向量和至少一个C维独热编码向量。
11.一种用于分析输入数据的神经网络的设备上持续学习方法,其特征在于,包括:
步骤(a),当为学习而获取的新数据具有预设的参考体积时,学习装置对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次;以及
步骤(b),所述学习装置将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习,
当所述神经网络是以至少一个RGB图像作为输入来获取的对象检测器时,所述原始数据生成器网络包括一个以上的转置卷积层和更快的基于区域的卷积神经网络,所述转置卷积层将与所述k维随机向量对应的1×1×K信息转换为至少一个H×W×3张量,所述更快的基于区域的卷积神经网络通过分析所述H×W×3张量来输出至少一个R×(4+C)向量,其中,所述R包括至少一个R维向量,(4+C)包括x1、y1、x2、y2以及至少一个C维独热编码向量。
12.一种用于测试已完成设备上持续学习的神经网络的测试方法,其特征在于,包括:
步骤(a),在通过学习装置进行如下过程(1)及过程(2)的状态下,测试装置获取测试数据,即,过程(1),对具有预设的参考体积的新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,参考所述预设的第一体积的所述新数据和所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(2),通过将所述第一批次输入到所述神经网络中来使所述神经网络生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息和与所述学习用输出信息对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习;以及
步骤(b),所述测试装置将所述测试数据输入到所述神经网络中,使所述神经网络生成与所述测试数据对应的测试用输出信息,
在所述步骤(a)中,
在通过所述学习装置还进行如下过程(3)及过程(4)的状态下,所述测试装置获取所述测试数据,即,过程(3),对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络来生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(4),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层通过参考所述评分向量和与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及进行所述原始数据生成器网络的所述第二当前学习。
13.一种用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,包括:
至少一个存储器,用于存储指令;以及
至少一个处理器,被配置为执行用于进行如下过程(I)、过程(II)、过程(III)以及过程(IV)的指令,即,过程(I),当为学习而获取的新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,过程(II),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习,过程(III),对所述新数据进行采样,使得具有所述预设的第一体积,通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(IV),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量及与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。
14.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,所述处理器重复所述过程(III)和所述过程(IV),直到通过利用所述第二损失的反向传播来使所述鉴别器的损失以及所述原始数据生成器网络的损失分别收敛。
15.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的梯度上升。
16.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器,当通过利用所述第二损失的反向传播来进行所述鉴别器的所述第二当前学习时,所述处理器将来自所述复制数据生成器网络的所述第二合成先前数据视为真实数据来进行所述鉴别器的所述第二当前学习。
17.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器,在所述评分向量中,所述处理器进行所述原始数据生成器网络的所述第二当前学习,以使与所述第三合成先前数据对应的第三合成先前数据评分向量最大化。
18.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
在所述过程(IV)中,
所述处理器,当完成所述第二当前学习时,所述处理器删除所述新数据,并更新所述原始数据生成器网络,使得所述新数据和所述第二合成先前数据输出为所述先前数据,以供下次学习使用。
19.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
在所述第二当前学习是初始学习的情况下,
在所述过程(I)中,
所述处理器通过仅使用所述预设的第一体积的所述新数据来生成所述第一批次,
在所述过程(III)中,
所述处理器使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,使得所述第三合成先前数据具有所述预设的第一体积,并参考所述预设的第一体积的所述新数据和所述预设的第一体积的所述第三合成先前数据来生成所述第二批次。
20.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
所述处理器重复所述过程(I)和所述过程(II),直到通过利用所述第一损失的反向传播来使所述第一损失收敛。
21.根据权利要求13所述的用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,
在所述过程(II)中,
所述处理器通过利用所述第一损失的反向传播来进行所述神经网络的梯度下降。
22.一种用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,包括:
至少一个存储器,用于存储指令;以及
至少一个处理器,被配置为执行用于进行如下过程(I)及过程(II)的指令,即,过程(I),当为学习而获取的新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(II),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习,
当所述神经网络是以至少一个向量作为输入来获取的分类器时,所述原始数据生成器网络包括一个以上的全连接层,所述全连接层通过将至少一个全连接运算应用于与所述k维随机向量对应的k维信息来输出至少一个D维向量和至少一个C维独热编码向量。
23.一种用于分析输入数据的神经网络的设备上持续学习的学习装置,其特征在于,包括:
至少一个存储器,用于存储指令;以及
至少一个处理器,被配置为执行用于进行如下过程(I)及过程(II)的指令,即,过程(I),当为学习而获取的新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(II),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的输出信息,使第一损失层参考所述输出信息及与其对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来进行所述神经网络的所述第一当前学习,
当所述神经网络是以至少一个RGB图像作为输入来获取的对象检测器时,所述原始数据生成器网络包括一个以上的转置卷积层与更快的基于区域的卷积神经网络,所述转置卷积层将与所述k维随机向量对应的1×1×K信息转换为至少一个H×W×3张量,所述更快的基于区域的卷积神经网络通过分析所述H×W×3张量来输出至少一个R×(4+C)向量,其中,所述R包括至少一个R维向量,(4+C)包括x1、y1、x2、y2以及至少一个C维独热编码向量。
24.一种用于测试已完成设备上持续学习的神经网络的测试装置,其特征在于,包括:
至少一个存储器,用于存储指令;以及
至少一个处理器,被配置为执行指令,所述指令用于进行在通过学习装置进行如下过程(1)及过程(2)的状态下,将测试数据输入到所述神经网络中,使所述神经网络生成与所述测试数据对应的测试用输出信息的过程,即,过程(1),当新数据具有预设的参考体积时,对所述新数据进行采样,使得具有预设的第一体积,并将至少一个k维随机向量输入到先前所学的原始数据生成器网络中,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第一合成先前数据的过程,其中,所述第一合成先前数据与用于先前学习所述原始数据生成器网络的先前数据对应,使得所述第一合成先前数据具有预设的第二体积,并参考所述预设的第一体积的所述新数据及所述预设的第二体积的所述第一合成先前数据来生成用于第一当前学习的第一批次,以及过程(2),将所述第一批次输入到所述神经网络中,使所述神经网络生成与所述第一批次对应的学习用输出信息,使第一损失层参考所述学习用输出信息及与所述学习用输出信息对应的真实值来计算出一个以上的第一损失,通过利用一个以上的第一损失的反向传播来在进行所述神经网络的所述第一当前学习,
在所述处理器中,
在通过所述学习装置还进行如下的过程(3)及过程(4)的状态下,将所述测试数据输入到所述神经网络中,即,过程(3),对所述新数据进行采样,使得具有所述预设的第一体积,并且通过复制所述原始数据生成器网络,生成复制数据生成器网络,使所述复制数据生成器网络重复输出与所述k维随机向量对应的第二合成先前数据的过程,其中,所述第二合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第二合成先前数据具有所述预设的第二体积,使所述原始数据生成器网络重复输出与所述k维随机向量对应的第三合成先前数据的过程,其中,所述第三合成先前数据与用于先前学习所述原始数据生成器网络的所述先前数据对应,使得所述第三合成先前数据具有预设的第三体积,其中,所述预设的第三体积等于所述预设的第一体积与所述预设的第二体积之和,参考所述预设的第一体积的所述新数据、所述预设的第二体积的所述第二合成先前数据以及所述预设的第三体积的所述第三合成先前数据来生成用于第二当前学习的第二批次,以及过程(4),将所述第二批次输入到鉴别器中,使得所述鉴别器输出与所述第二批次对应的评分向量,使第二损失层参考所述评分向量及与所述评分向量对应的真实值来计算出一个以上的第二损失,通过利用所述第二损失的反向传播来进行所述鉴别器以及所述原始数据生成器网络的所述第二当前学习。
CN202010037850.4A 2019-01-28 2020-01-14 设备上持续学习用于分析输入数据的神经网络的方法及装置 Active CN111488979B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/259,389 US11315021B2 (en) 2019-01-28 2019-01-28 Method and device for on-device continual learning of a neural network which analyzes input data, and method and device for testing the neural network to be used for smartphones, drones, vessels, or military purpose
US16/259,389 2019-01-28

Publications (2)

Publication Number Publication Date
CN111488979A CN111488979A (zh) 2020-08-04
CN111488979B true CN111488979B (zh) 2023-11-07

Family

ID=69172613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010037850.4A Active CN111488979B (zh) 2019-01-28 2020-01-14 设备上持续学习用于分析输入数据的神经网络的方法及装置

Country Status (5)

Country Link
US (2) US11315021B2 (zh)
EP (1) EP3686811A1 (zh)
JP (1) JP7081837B2 (zh)
KR (1) KR102349933B1 (zh)
CN (1) CN111488979B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544532B2 (en) * 2019-09-26 2023-01-03 Sap Se Generative adversarial network with dynamic capacity expansion for continual learning
CN110991619A (zh) * 2019-12-09 2020-04-10 Oppo广东移动通信有限公司 神经网络处理器、芯片和电子设备
US11087215B1 (en) * 2020-07-25 2021-08-10 Sas Institute Inc. Machine learning classification system
CN112257785A (zh) * 2020-10-23 2021-01-22 中科院合肥技术创新工程院 基于记忆巩固机制与gan模型的序列化任务完成方法及系统
CN113450413B (zh) * 2021-07-19 2022-09-27 哈尔滨工业大学 基于gf4单帧图像的舰船目标检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026122A (ja) * 2016-08-03 2018-02-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN107958287A (zh) * 2017-11-23 2018-04-24 清华大学 面向跨界大数据分析的对抗迁移学习方法及系统
CN108073941A (zh) * 2016-11-17 2018-05-25 江南大学 一种基于深度学习的图像语义生成方法
CN108830285A (zh) * 2018-03-14 2018-11-16 江南大学 一种基于Faster-RCNN的加强学习的目标检测方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8391603B2 (en) * 2009-06-18 2013-03-05 Omisa Inc. System and method for image segmentation
US10140572B2 (en) * 2015-06-25 2018-11-27 Microsoft Technology Licensing, Llc Memory bandwidth management for deep learning applications
US10210631B1 (en) * 2017-08-18 2019-02-19 Synapse Technology Corporation Generating synthetic image data
US11120337B2 (en) * 2017-10-20 2021-09-14 Huawei Technologies Co., Ltd. Self-training method and system for semi-supervised learning with generative adversarial networks
CA3022125A1 (en) * 2017-10-27 2019-04-27 Royal Bank Of Canada System and method for improved neural network training
US10388002B2 (en) * 2017-12-27 2019-08-20 Facebook, Inc. Automatic image correction using machine learning
US10970765B2 (en) * 2018-02-15 2021-04-06 Adobe Inc. Generating user-customized items using a visually-aware image generation network
US11423282B2 (en) * 2018-10-30 2022-08-23 Huawei Technologies Co., Ltd. Autoencoder-based generative adversarial networks for text generation
US11663483B2 (en) * 2018-10-30 2023-05-30 Huawei Technologies Co., Ltd. Latent space and text-based generative adversarial networks (LATEXT-GANs) for text generation
JP7318197B2 (ja) * 2018-11-15 2023-08-01 富士通株式会社 逐次学習プログラム、逐次学習装置および逐次学習方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018026122A (ja) * 2016-08-03 2018-02-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN108073941A (zh) * 2016-11-17 2018-05-25 江南大学 一种基于深度学习的图像语义生成方法
CN107958287A (zh) * 2017-11-23 2018-04-24 清华大学 面向跨界大数据分析的对抗迁移学习方法及系统
CN108830285A (zh) * 2018-03-14 2018-11-16 江南大学 一种基于Faster-RCNN的加强学习的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hanul Shin et al..Continual Learning with Deep Generative Replay.《Artificial Intelligence》.2017,第1-10页. *

Also Published As

Publication number Publication date
CN111488979A (zh) 2020-08-04
KR102349933B1 (ko) 2022-01-12
JP2020119567A (ja) 2020-08-06
US10783438B2 (en) 2020-09-22
US20200242476A1 (en) 2020-07-30
US11315021B2 (en) 2022-04-26
US20200242475A1 (en) 2020-07-30
EP3686811A1 (en) 2020-07-29
KR20200093427A (ko) 2020-08-05
JP7081837B2 (ja) 2022-06-07

Similar Documents

Publication Publication Date Title
CN111488979B (zh) 设备上持续学习用于分析输入数据的神经网络的方法及装置
US10740593B1 (en) Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation
JP6865364B2 (ja) エッジロスを利用して歩行者イベント、自動車イベント、フォーリングイベント、フォールンイベントを含むイベントを検出するにおいて利用されるセグメンテーション性能向上のための学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置
JP7252120B2 (ja) 核心性能指数を満たすことができるハードウェア最適化が行われるように、cnnで複数のブロック内の入力イメージから特徴を抽出する学習方法及び学習装置、それを利用したテスト方法及びテスト装置
US10872297B2 (en) Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same
CN111382868A (zh) 神经网络结构搜索方法和神经网络结构搜索装置
CN111178520A (zh) 一种低计算能力处理设备的数据处理方法及装置
CN111488980B (zh) 优化采样的神经网络的设备上持续学习方法及装置
KR102567128B1 (ko) 개선된 적대적 어텐션 네트워크 시스템 및 이를 이용한 이미지 생성 방법
CN117115686A (zh) 一种基于改进YOLOv7的城市低空小型无人机检测方法及系统
Liu et al. GGRNet: Global graph reasoning network for salient object detection in optical remote sensing images
CN113850373A (zh) 一种基于类别的滤波器剪枝方法
Li et al. Power transmission line foreign object detection based on improved YOLOv3 and deployed to the chip
CN112801294B (zh) 基于图信号处理的用于加速神经网络推理的方法
WO2024071377A1 (ja) 情報処理装置、情報処理方法及びプログラム
Mazumdar et al. Learning network parameters in the ReLU model
CN115617054A (zh) 路径规划方法和系统、电子设备及可读存储介质
KR20220134428A (ko) 서로 다른 스펙을 가지는 영상 장치들로부터 획득된 이미지들을 이용하여 퍼셉션 네트워크를 학습 및 테스트하는 방법 및 이를 이용한 학습 및 테스트 장치
CN115271059A (zh) 一种基于知识蒸馏网络的光学遥感目标检测轻量化方法
CN115618099A (zh) 神经网络架构搜索的方法、装置及电子设备
CN117350331A (zh) 一种模型训练方法及相关设备
CN115797163A (zh) 一种基于遥感影像的目标数据跨域反演增广方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant