CN110914836A - 在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法 - Google Patents

在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法 Download PDF

Info

Publication number
CN110914836A
CN110914836A CN201880043894.9A CN201880043894A CN110914836A CN 110914836 A CN110914836 A CN 110914836A CN 201880043894 A CN201880043894 A CN 201880043894A CN 110914836 A CN110914836 A CN 110914836A
Authority
CN
China
Prior art keywords
dnn
real
learning
time operating
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880043894.9A
Other languages
English (en)
Inventor
M·卢西维
S·奥利弗
A·戈谢什尼科夫
J·沃尔布斯
H·A·维尔萨斯
M·维尔萨斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neurala Inc
Original Assignee
Neurala Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neurala Inc filed Critical Neurala Inc
Publication of CN110914836A publication Critical patent/CN110914836A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23211Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with adaptive number of clusters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0409Adaptive resonance theory [ART] networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Remote Sensing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

终身深度神经网络(L‑DNN)技术通过实现快速、后期部署学习来革新深度学习,无需广泛训练、大量计算资源或大量数据存储。它使用具有快速学习子系统(模块B)的富含表示的基于DNN的子系统(模块A)来快速学习新特征,而不会忘记先前学习到的特征。与常规DNN相比,L‑DNN使用更少的数据来建立稳固的网络,显著更短的训练时间,以及在装置上而不是在服务器上的学习。它无需重新训练或存储数据就能够添加新知识。结果,具有L‑DNN的边缘装置可以在部署之后连续不断地学习,消除数据收集和注释、存储器和数据存储以及计算能力方面的巨大成本。这种快速的本地装置上的学习可以用于安全、供应链监测、灾难和应急响应、基础设施和财产的基于无人机的检查及其他应用。

Description

在跨联网计算边缘连续运行应用程序的人工智能和深度学习 中实现连续的存储器有界学习的系统和方法
相关申请的交叉引用
本申请要求根据《美国法典》第35卷第119(e)条,于2017年12月31日提交的美国申请号62/612,529和2017年5月9日提交的美国申请号62/503,639的优先权权益。这些申请中的每一个以全文引用的方式并入本文中。
背景技术
包括含有插入到输入层与输出层之间的许多神经元层的深度神经网络(DNN)的传统神经网络需要对特定数据集训练数千个或数百万个迭代循环。这些循环常常在高性能计算服务器中执行。事实上,取决于输入数据集的大小,一些传统的DNN可能需要几天或甚至几周的训练。
用于训练DNN的一种技术涉及反向传播算法。反向传播算法通过应用链法则以便反向传播误差梯度,来从标记的数据集计算与误差梯度成比例的DNN中的所有权重的变化。反向传播对每个数据的权重进行小的变化,并且在多个阶段中在集合中的所有数据上运行。
每个迭代循环采用的学习速率越大,损失函数的梯度将越可能稳定到局部最小值,而非全局最小值,这可能导致性能较差。为了提高损失函数将稳定到全局最小值的可能性,DNN降低学习速率,这会使每个训练阶段的权重有小变化。这增加了训练循环的次数和总学习时间。
图形处理单元(GPU)技术的进步对于用来实现过去需要数周或数月的训练工作的高度并行操作带来计算能力的巨大改进。这些工作现在可以在数小时或数天内用GPU完成,但是对于实时知识更新而言,这仍然不够快。此外,利用高性能计算服务器来更新DNN提高了服务器价格和能耗方面的成本。这使得在运行时更新基于DNN的系统的知识极其困难,这种更新是许多实时操作情况期望的。
此外,由于针对任何单个训练样本计算的损失函数的梯度(由于通常为分布式表示)可能影响网络中的所有权重,当标准DNN学习新对象时很容易忘记先前的知识。在多个阶段中重复展示相同的输入可缓解此问题,缺点是将新知识快速添加到系统是极其困难的。这是为何在计算有限的边缘装置(例如,手机、平板电脑或小型处理器)上学习不切实际或完全不可能的一种原因。即使遗忘问题得到解决,由于训练的高计算负载、小训练步长以及所有输入的重复呈现,因此在边缘装置上进行学习仍将不切实际。
这些限制不仅适用于整个部署寿命中的单个计算边缘,其中,边缘可能需要更新其知识,还适用于分布式多边缘系统(例如,网络中连接的智能电话、联网智能相机、无人机或自动驾驶车辆的车队等),其中快速共享新获取的知识是智能机构在其部署生命周期内的期望特性。
运行反向传播算法的处理器计算在输出处每个神经元的误差贡献,并且通过网络层向后分配误差。通过计算损失函数的梯度来调整所有神经元的权重。因此,新的训练示例在不重新训练旧的示例的情况下无法添加至预先训练的网络,以免网络失去正确地对旧示例分类的能力。丧失正确分类旧示例的能力被称为“突然遗忘”。当结合实时操作机器考虑时,遗忘问题尤其相关,实时操作机器通常需要在运行的同时快速学习并在运行中并入新信息。
为了学习知识,使用传统DNN的实时操作机器可能必须累积大量的数据以重新训练DNN。累积的数据从实时操作机器(即,装置本身,例如,自动驾驶汽车、无人机、机器人等)的“边缘”传输到中心服务器(例如,基于云的服务器),以便获得来自操作者的标签,然后重新训练在边缘上执行的DNN。累积的数据越多,在时间和网络带宽方面,传输过程费用越高。另外,在中心服务器上的交错训练必须将新数据与在系统的整个生命周期存储的原始数据进行组合。这产生了严重的传输带宽和数据存储限制。
总之,将常规基于反向传播的DNN训练应用于实时操作系统有以下缺点:
a.在运行中用新知识更新系统是不可能的;
b.不与服务器定期通信,且没有大量的知识更新等待时间,在边缘的整个部署周期中进行学习是不可能的;
c.学习新信息需要服务器空间、能耗和磁盘空间消耗,以便无限地存储所有输入数据以用于进一步训练;
d.无法在小型计算边缘装置上进行学习;以及
e.不经过缓慢且昂贵的服务器端重新训练和重新部署,无法跨多个边缘归并知识。
发明内容
终身深度神经网络(L-DNN)使得能够在轻量级计算装置(边缘)中的人工神经网络(ANN)和深度神经网络(DNN)中进行连续、在线、终身学习,而不需要耗时的计算密集型学习。L-DNN使得能够从连续数据流进行实时学习,避开了存储输入数据以用于反向传播学习的多次迭代的需要。
L-DNN技术将富集表示、基于DNN的子系统(模块A)与快速学习子系统(模块B)结合以实现对表示感兴趣的实体或事件的特征的快速但仍稳定的学习。这些特征集可通过慢速学习方法(例如,反向传播)进行预训练。在本公开中详细描述的基于DNN的情况中(对于模块A通过采用非DNN方法,其他特征描述是可能的),DNN的高级特征提取层用作模块B中的快速学习系统的输入,以在运行时对熟悉的实体和事件进行分类,并且增加对陌生实体和事件的知识。模块B能够学习重要信息,并捕获环境的描述性和高度预测特征,而没有慢速学习的缺点。
L-DNN技术可以应用于视觉、结构光、激光雷达、声纳、雷达或音频数据以及其他模式。对于视觉或类似数据,L-DNN技术可以应用于视觉处理,例如,实现全图像分类(例如,场景检测),基于边界盒的对象识别,像素方式分割,以及其他视觉识别任务。L-DNN技术还可以执行非视觉识别任务,例如非视觉信号的分类及其他任务,诸如,当机器人、自动驾驶汽车、无人机或其他装置正通过环境时,通过渐进地增加知识来更新即时定位与地图创建(SLAM)生成的地图。
随着L-DNN学习更多实体或事件(用视觉术语,“对象”或“类别”),L-DNN中的内存合并使内存需求在模块B中得到控制。另外,L-DNN方法使得多边缘计算装置能够跨边缘归并他们的知识(或对输入数据分类的能力)。可以在点对点的基础上,通过在两个模块B之间直接交换神经网络表示,或经由将来自多个边缘的多个模块B的表示归并的中间服务器,来进行归并。最后,L-DDN不依赖于反向传播,由此显著地减少了使用新的输入数据更新L-DNN知识的训练时间、功率要求和计算资源。
应了解,前述概念和下文更详细地论述的附加概念的所有组合(只要此类概念不相互矛盾)被认为是本文公开的本发明主题的一部分。具体地,在本公开的结束时出现的要求保护的主题的所有组合都被认为是本文公开的本发明主题的一部分。还应当理解,本文中明确使用的术语(也可以出现在通过引用并入的任何公开中)应当被赋予与本文公开的特定概念最一致的含义。
通过查看以下附图和详细描述,其他系统、过程和特征对于所属领域的技术人员将变得显而易见。旨在将所有此类附加系统、过程和特征包括在本说明书中,在本发明的范围内,且受所附权利要求书的保护。
附图说明
技术人员将理解,附图主要是出于说明的目的,而不意图限制本文所描述的本发明主题的范围。附图未必按比例绘制;在一些情况下,本文公开的本发明主题的各个方面可在附图中被放大或扩大显示,以便于理解不同的特征。在附图中,类似的附图标记一般是指相同特征(例如,功能上类似和/或结构上类似的元件)。
图1图示了终身深度神经网络(L-DNN)的概述,因为它涉及多个计算边缘,所述多个计算边缘单独地作用于数据流,或者被点对点或通过中间计算机服务器连接。
图2图示了示例性L-DNN架构。
图3图示了神经网络中未知的概念的实施方式。
图4图示了作为一种示例性实施方式的基于VGG-16的L-DNN分类器。
图5图示了非均匀多尺度对象检测。
图6图示了用于对象分割的基于掩码R-CNN的L-DNN。
图7A图示了使用自适应共振理论(ART)神经网络的合并和融合。
图7B图示了如何能够通过关于场景的全局信息和学习到的对象之间的过去关联解开本地模糊信息,例如,骆驼(第一场景,沙漠)或狗(第二场景,郊区)的像素化图像。
图8图示了将L-DNN应用于基于无人机的工业检查使用案例。
图9将图8的基于无人机的工业检查使用案例扩展到协同运行的多个L-DNN承载无人机的情况。
图10图示了将L-DNN应用于仓库库存使用案例。
图11图示了使用L-DNN共同获取和共享知识的多个智能装置。
图12图示了在基于数据中心的应用中L-DNN替换常规DNN的案例。
具体实施方式
在实时操作机器中的持续学习
终身学习深度神经网络或终身深度神经网络(L-DNN)使得实时操作机器能够在边缘处在运行时学习,而无需在中心服务器或云端学习。这消除了网络延时,提高了实时性能,并在需要时保证隐私。在某些情况下,可以在现场使用L-DNN对特定任务更新实时操作机器。例如,使用L-DNN,检查无人机可以学习如何识别在蜂窝塔或太阳能板阵列顶处的问题,可以基于用户偏好个性化智能玩具,而不需要担心隐私问题,因为数据不会在本地装置之外共享,智能电话可以(与所有装置点对点或全局地)共享在边缘处学习的知识,而无需传输信息给中心服务器以用于长时间学习,或自动驾驶汽车可以在运行时学习和共享知识。
L-DNN还能够在不忘记旧知识的情况下学习新知识,从而减轻或消除突然遗忘。换言之,本技术使得实时操作机器能够在a)不需要发送或存储输入图像,b)耗时训练,或c)大型计算资源的情况下基于用户输入来连续地且最佳地调整边缘处的行为。在用L-DNN部署后的学习允许实时操作机器适应其环境中的变化和用户互动,处理原始数据集中的缺陷,并为用户提供定制体验。
所公开的技术还可以归并来自多个边缘装置的知识。这种归并包括“群集集合”和知识的标记并在边缘装置中共享这些收集到的知识,消除数小时的冗长的集中式标记。换言之,来自一个或多个边缘装置的大脑可以归并到另一个(点对点)大脑或者归并到被推送回边缘处的一些或全部装置的共享大脑中。L-DNN确保了知识的归并/融合/共享/组合产生的存储器占用的增长不比对象数量的线性增长更快,是实时发生的,并使少量的信息在装置之间交换。这些特征使L-DNN应用于现实世界应用。
L-DNN实施异构神经网络架构,其特征在于两个模块:
1)慢速学习模块A,其包括神经网络(例如,深度神经网络),所述神经网络在工厂预先训练和固定,或被配置成经由反向传播或基于数据输入序列的其他学习算法进行学习;以及
2)模块B,其提供增量分类器,所述增量分类器能够用很少的训练样本瞬时改变突触权重和表示。此增量分类器的示例性实例化包括,例如,自适应共振理论(ART)网络或具有对比发散训练神经网络的限制性玻尔兹曼机(RBM),以及非神经方法,例如支持向量机(SVC)或其他快速学习监督分类过程。
L-DNN的典型应用示例由以下各项举例说明但不限于以下各项:物联网(IoT)装置,其基于用户的习惯学习使用模式;自动驾驶车辆,其可以适应来自用户的驾驶“风格”,在运行中快速学习新技能,或停泊在新车道上;无人机,其能够在运行中学习基础设施损坏的新分类,并且能够在运行时经过短暂的学习之后发现该损坏;家庭机器人,诸如玩具或伴侣机器人,其能够(几乎)瞬时地学习并且无需连接云端以获得其所有者的身份;机器人,其能够学习识别以前从未见过的对象并对其作出反应,避免新障碍,或者找到世界地图上的新对象;工业机器人,其能够学习新零件以及如何在运行中操纵它;以及安全摄像头,其能够学习新个体或对象,并在由连接到网络的其他摄像头提供的图像中快速找到它。上面的应用仅是通过本文所述的创新得以解开和实现的一类问题的示例,其中学习可直接在嵌入特定应用的计算装置中进行,而无需在服务器上进行昂贵且冗长的迭代学习。
本文公开的技术可应用于若干输入模式,包括但不限于来自有源传感器(例如,红外(IR)成像、激光雷达数据、声纳数据等)的视频流、数据、声学数据、其他时间序列数据(例如,传感器数据、实时数据流,包括工厂生成的数据、IoT装置数据、财务数据等),以及这些数据流的任何多模式线性/非线性组合。
L-DNN概述
如上所公开,L-DNN实施异构神经网络架构以组合快速学习模式和慢速学习模式。在快速学习模式下,实现L-DNN的实时操作机器快速学习新知识和新经验,以便它能够几乎立即响应新知识。在此模式下,快速学习子系统中的学习速率很高,以有利于新知识和对应的新经验,而慢速学习子系统中的学习速率设置为低值或零,以保留旧知识和对应的旧经验。
图1提供了L-DNN架构的总览,其中,运行L-DNN的多个装置协同操作,所述多个装置包括主边缘/中心服务器和若干计算边缘(例如,无人机、机器人、智能手机或其它IoT装置)。每个装置接收感知输入100并将其馈送到包括慢速学习模块A102和快速学习模块B104的对应L-DNN106。每个模块A102基于预学习(固定权重)DNN,并充当特征提取器。它接收输入100,提取相关特征形成对象的压缩表示,并将这些表示馈送到对应的模块B104。模块B104能够快速学习这些对象表示。通过与用户互动,它接收陌生对象的正确标签,快速学习每个特征向量与对应标签之间的关联,并且因此可以立即识别这些新对象。由于多个L-DNN106学习不同的输入,它们可以点对点(虚线)连接或连接到中心服务器(点线)以融合(熔合、归并或组合)新获取的知识并与其他L-DNN 106共享,如下文所公开。
与传统的对象检测DNN“仅看一次”(YOLO)相比,下面呈现的示例性对象检测L-DNN实施方式产生了以下引导结果。具有一个对象的相同的小(600个图像)自定义数据集用于训练和验证两个网络。这些图像中的200个图像被用作验证集。从剩余的400个图像创建四种不同大小的训练集(100个图像,200个图像,300个图像和400个图像)。对于L-DNN训练,训练集中的每个图像仅呈现一次。对于传统的DNN YOLO,通过随机打乱训练集创建若干批次,并且通过这些批次进行多次迭代训练。训练后,在两个网络上运行验证,并产生以下平均准确率(mAP)结果:
训练集大小 100 200 300 400
YOLO mAP 0.51 0.63 0.64 0.65
L-DNN mAP 0.55 0.77 0.77 0.79
此外,使用400个图像训练集的L-DNN的训练时间是1.1秒;YOLO的训练时间为21.5小时。这是非常大的性能改进。L-DNN的存储器占用为320MB,而YOLO占用为500MB。这些结果清楚地显示,L-DNN能够实现比传统的DNN YOLO更高的精度,并且使用较小的数据集、更快的训练时间和更小的存储器需求来实现。
示例性L-DNN架构
图2图示了由实时操作机器(诸如机器人、无人机、智能手机或IoT装置)使用的示例性L-DNN架构。L-DNN 106使用两个子系统,即慢速学习模块A102和快速学习模块B104。在一种实施方式中,模块A包括预先训练的DNN,模块B基于快速学习自适应共振理论(ART)范式,其中DNN向ART馈送后面特征层中的一个的输出(通常,DNN之前的最后一层或倒数第二层自己分类完全连接的层)。其他配置是可能的,其中多个DNN层可(例如,以多尺度、投票或分层形式)将输入提供到一个或多个模块B。
输入源100(诸如数码相机、检测器阵列或麦克风)从环境获取信息/数据(例如,视频数据、结构化光数据、音频数据、其组合,等等)。如果输入源100包括相机系统,它可以获取围绕实时操作机器的环境的视频流。来自输入源100的输入数据由模块A102实时处理,该模块A将经压缩特征信号提供为模块B104的输入。在此示例中,视频流可以由模块A和模块B实时地处理为一系列图像帧。模块A和模块B可以在具有适当的易失性和非易失性存储器和适当的输入/输出接口的合适的计算机处理器(例如,图形处理器单元、现场可编程门阵列,或专用集成电路)中实现。
在一种实施方式中,将输入数据馈送到模块A中的预先训练的深度神经网络(DNN)200。DNN 200包括用于提取特征的卷积层204的叠堆202,所述卷积层用于提取可用于表示如在示例性实施部分中详述的输入信息/数据的特征。DNN 200可在部署之前在工厂预先训练,以实现所需的数据表示水平。它可以完全由确定其架构的配置文件并由代表训练期间获取的知识的对应权重集定义。
L-DNN系统106利用DNN中的权重是优异的特征提取器这一事实。为了将模块B104(其包括一个或多个快速学习神经网络分类器)连接到模块A102中的DNN 200,一些仅由原始DNN进行分类的DNN上层(例如,图2中的层206、208)被忽略,或甚至完全从系统剥离。获取高级特征提取层204的期望的原始卷积输出以充当模块B104的输入。例如,原始DNN 200通常包括许多完全连接的平均汇集层206加上成本层208,该成本层用于使得梯度下降技术能够在训练期间优化其权重。这些层在DNN训练期间被使用或被用于从DNN 200获得直接预测,但是对于生成模块B104的输入是不必要的(图2中的阴影指示层206、208是不必要的)。相反,用于模块B104中的神经网络分类器的输入是从DNN 204的卷积层的子集获取的。不同层或多个层可用于提供模块B104的输入。
DNN 200上的每个卷积层都包括滤波器,所述滤波器使用本地感受域(receptivefield)从前一层的一个小区域收集信息。这些滤波器维持通过DNN中的卷积层的空间信息。来自特征提取器(示意性表示为张量210)中的一个或多个后级卷积层204的输出被馈送到模块B104中的神经网络分类器(例如,ART分类器)的输入神经层212。在模块A102中的每个后级卷积层204与模块B104中的相应快速学习神经网络分类器之间可能存在一对一或一对多对应性,这取决于L-DNN 106是针对如在示例性实施部分中详述的整个图像分类还是对象检测设计的。
从DNN 200传输到模块B系统104的张量210可以被看作是来自原始输入数据(例如,来自传感器100的原始图像)的表示的n层堆叠。在此示例中,堆叠中的每个元件表示为具有与来自相机的输入图像相同的空间形貌的栅格。跨越n个堆叠的每个栅格元件是模块B神经网络的实际输入。
初始模块B神经网络分类器可以用任意初始知识或用模块A102的训练后分类进行预先训练,以便在部署后有助于在运行中(on-the-fly)进行学习。在输入源100将与环境相关的数据提供给L-DNN 106时,神经网络分类器连续地处理来自DNN 200的数据(例如,张量210)。模块B神经网络分类器使用快速学习,优选单次学习。ART分类器使用神经元类元件之间的自底向上(输入)和自顶向下(反馈)关联投影以实施基于匹配的模式学习,并使用水平投影以实施类别之间的竞争。
在快速学习模式下,当新颖的特征集呈现为来自模块A102的输入时,基于ART的模块B104将特征作为输入向量放置在F1层212中,并且计算此输入向量与现有权重向量214之间的距离运算以确定F2层216中的所有类别节点的激活。所述距离被计算为模糊AND(在ART的默认版本中)、点积或向量末端之间的欧几里得距离。然后,从最高激活到最低激活对类别节点排序,以实现它们之间的竞争并以此顺序考虑获胜候选者。如果获胜候选者的标签与由用户提供的标签匹配,则对应的权重向量通过学习过程被更新以推广并覆盖新输入,所述学习过程在最简单的实施方式中采用新输入与获胜节点的现有权重向量之间的加权平均值。如果没有获奖者有正确标签,则将新类别节点引入分类层F2 216中,其中,权重向量是输入的副本。在任一种情况下,模块B104现在熟悉此输入,并且可以在下一次呈现时将其识别出来。
取决于L-DNN 106正在求解的任务,模块B104的结果本身或与来自模块A102的特定DNN层的输出组合充当L-DNN 106的输出。对于整个场景对象识别,模块B输出可能是足够的,因为它对整个图像进行分类。对于对象检测,模块B104提供分类标签,这些分类标签叠加在由模块A活动确定的边界盒上,使得每个对象由模块A102正确地定位并且由模块B 104正确地标记。对于对象分割,来自模块A102的边界盒可以被像素方式(pixel-wise)的掩码替换,模块B104为这些掩码提供标签。下面提供了关于模块A102和模块B104的更多细节。
实时操作和神经网络中的未知概念
由于L-DNN大体上且模块B具体被设计成对连续感知输入实时操作,模块B中的神经网络应当被实施,以便在没有熟悉对象呈现给它的情况下不会混淆。常规神经网络针对通常在输入中包含标记对象的数据集;因此,没有熟悉对象存在的话,不需要处理输入。因此,为了在L-DNN的模块B中使用这种网络,应向该网络添加额外的特殊类别“我什么都不知道”,以缓解模块B试图错误地将陌生对象分类为熟悉(假阳性)。
在处理可能只包含之前未见过且未标记的对象的现场感官流时,“我什么都不知道”这个概念是有用的。它允许模块B和L-DNN将陌生对象识别为“我什么都不知道”或“之前未见过”,而不是潜在地将陌生对象不正确地识别为熟悉对象。通过实施“我什么都不知道”概念来扩展常规设计可以像将偏置节点添加到网络那样简单。“我什么都不知道”概念也可以在自动地衡量其影响的版本中实施,这取决于已知对象类别的数量和其对应的激活。
“我什么都不知道”概念的一种可能的实施方式作为有利于预测的隐式动态阈值工作,其中,内部知识分布清楚地集中在共同类别,而不是在几个类别上均匀地分布。换言之,当模块B中的神经网络分类器指示对象的已知对象类别中存在清晰的获胜者时,则它将对象识别为属于获胜类别。但是,当多个不同的对象具有类似的激活(即,没有明确的获胜者)时,所述系统将所述对象报告为未知。由于学习过程明确使用标签,“我什么都不知道”实施方式只可能影响识别模式,而不可能干扰学习模式。
图3中呈现了使用ART网络的“我什么都不知道”概念的示例性实施方式。在输入的呈现期间,类别层F2 216在其节点上用激活图案进行响应。包含熟悉对象的输入很可能具有显著的获胜者300,类似图3中的上面的情况。不包含熟悉对象的输入可能在F2层中具有更平坦的活动分布,如图3中下面的情况所示。计算所有激活的平均值且将其作为阈值使用不足以区分这两种情况,因为即使在第二种情况中,也可能存在活动高于阈值的节点302(图3中的点线)。用不小于1的参数乘以平均值增大阈值(图3中的虚线),使得仅明显获胜者300保持在其上方,如图3中上面的情况。
该参数的确切值取决于多个因素,并且可以基于网络已经学习的类别的数目和网络中的类别节点的总数来自动计算。一种示例性计算是
Figure BDA0002344130790000101
其中θ是阈值,C是已知类别的数目,N是类别节点的数目,比例因子s基于模块A中所用的DNN的类型设置,并在L-DNN制备期间进行微调。设置过高可能增加神经网络的假阴性率,而设置太低可能增加假阳性率。
利用“我什么都不知道”概念训练独立模块B产生了以下结果。在哥伦比亚对象图像库100(COIL-100)数据集中的100个对象中的50个对象被用作训练集。来自COIL-100数据集的所有100个对象被用作测试集,使得50个新颖对象将被独立模块B识别为“我什么都不知道”。在训练期间,独立模块B中的ART分类器被逐一馈送对象,而无需任何打乱以模拟实时操作。训练后,ART分类器显示95.5%的正确识别率(组合对象和“无”)。为了比较,将COIL-100数据集中的所有100个对象的无打乱数据集馈送到常规ART仅产生了55%的正确识别率。这可能是由于下文所论述的ART的顺序依赖性造成的。
如果输入未被模块B中的ART分类器识别,由用户决定引入更正并标记所需的输入。如果未经识别的输入不重要,用户可忽略,而ART分类器将继续将其识别为“我什么都不知道”。如果该对象对用户很重要,她可以标记该对象,并且快速学习模块B网络将对象的特征和对应的标签添加到其知识。模块B可以接合跟踪系统以继续观察此新对象,并添加其更多视图以丰富与此对象相关联的特征集。
模块A的示例性实施方式
操作中,模块A提取特征并且创建对象的压缩表示。卷积深度神经网络非常适合于如下概述的这种任务。
卷积神经网络(CNN)是使用卷积单元的DNN,其中所述单元的滤波器(权重向量)的感受域跨越所述输入的高度和宽度尺寸逐步移位。当应用于视觉输入时,CNN中的初始层的输入是图像,其具有高度(h)、宽度(w)和一至三个信道(c)尺寸(例如,红色、绿色和蓝色像素部件),而CNN中的后续层的输入具有高度(h)、宽度(w)和来自先前层的滤波器的数目(c)的尺寸。由于每个滤波器较小,与完全连接的层相比,参数的数目大大降低,其中,有一个唯一的权重从(h,w,c)中的每一个投影至下一层上的每个单元。对于卷积层,每个单元的权重数目等于(f,f,c),其中,f是空间滤波器大小(通常为3),其比h或w小得多。每个滤波器在输入中不同空间位置处的应用在以下意义上提供了平移不变性的有吸引力的性质:如果对象可以在其处于一个空间位置时被分类,它可在所有空间位置处被分类,因为包括所述对象的特征与其空间位置无关。
卷积层通常之后是子采样(下采样)层。这些层通过将输入的小空间窗口(例如,2×2)减少到单个值来降低其输入的高度(h)和宽度(w)。简化操作已使用平均值(平均汇集)或采用最大值(最大汇集)。子采样层的响应对图像中的小位移是不变的,并且此效应在典型CNN的多个层上累积。在推理中,当将若干卷积和子采样层应用于图像时,输出相对于输入的各种变形(例如,平移、旋转、缩放、甚至翘曲)展现出令人印象深刻的稳定性,例如,对未断开的(连笔书写)手写数字进行训练的网络对来自训练集的数字“3”和通过将小圆圈放在一起书写的数字“3”有类似的响应。
这些不变性提供了一个特征空间,其中输入的编码对视觉变化具有增强的稳定性,这意味着输入改变(例如,对象略微平移并在图像帧中旋转)时,输出值的变化比输入值小得多。这可以实现学习-可能难以学习另一种方法,例如,对由少数像素平移的对象编码两个帧几乎没有或根本没有相似性。
另外,通过最近使用GPU加速梯度下降技术来从大量数据集学习滤波器,CNN能够达到针对训练好的对象类别的令人印象深刻的泛化性能。泛化意味着网络能够为测试图像产生与在经过训练的类别中的训练后图像不相同的相似输出。需要大量数据来学习定义类别的关键规则。如果网络接受了许多类别的训练,其滤波器在所有类别中均被共享的下层为所有自然输入提供一组良好的规则。因此,当将DNN用作其他任务的初始化时,或者当将下层用作预处理器以用于新的较高级表示时,经过一项任务训练的DNN可以提供优异的结果。自然图像共享共同的统计特性集。在低层处学习到的特征在很大程度上是与类别无关的,而越来越高的层变得更加与类别有关,如在可视化训练好的神经网络的内部的最近工作中所展示的。
L-DNN利用模块A中的CNN的这些能力,以便模块B获得对象特征的高质量的压缩和泛化表示以供分类。为了提高或最大化此优势,可以对尽可能多的不同对象预先训练用于L-DNN的DNN,使得高级特征层的对象特异性不干扰L-DNN的快速学习能力。
模块B的示例性实施方式
操作中,模块B快速地学习新对象并且没有突然遗忘。
自适应共振理论(ART)
模块B的一种示例性实施方式是ART神经网络。ART通过利用类别节点之间的竞争来确定针对每个对象呈现的获胜节点,避免了突然遗忘。当且仅当这个获胜节点与对象的正确标签相关联时,学习算法才会更新其权重。因为每个节点只与一个对象相关联,并且学习算法仅针对获胜节点更新权重,ART中的任何学习情节影响一个且仅影响一个对象。因此,当新对象被添加到系统时,不会干扰先前知识;相反,ART只是创建新类别节点并更新对应的权重。
遗憾的是,如文献中所描述的ART具有若干缺点,这些缺点使得其不能成功用作L-DNN模块B。这些缺点中的一个缺点,具体是缺少“我什么也不知道”概念不是ART特有的且在上文进行过讨论。下文公开了ART特有的问题和针对这些问题的解决方案的列表。
经典模糊型ART由于补充编码而不会很好地处理稀疏输入,这是其设计的主要部分。当稀疏输入被补充编码时,补集部分在大多数分量中具有高激活,因为稀疏输入中大量存在的零的补集是1。由于所有这些1都在输入的补集部分中,在距离计算过程中,将不同的输入彼此分离将非常困难,所以系统变得很混乱。另一方面,像DNN一样强大的特征提取器倾向于仅提供关于高水平特征提取的稀疏信号。保持ART范式,但远离经典模糊设计和补充编码对于在L-DNN的模块B中使用ART是很有用的。其中一种解决方案是删除补充编码,并将模糊ART使用的模糊AND距离度量替换为基于点积的度量。这种基于点积的度量具有的优点是结果保持归一化并且不需要对模糊ART进行其他改变。
神经网络的ART系列对输入的呈现顺序非常敏感。换言之,ART缺乏一致性的性质;不同的输入顺序导致ART网络中对应对象的表示不同。遗憾的是,类似L-DNN的实时操作系统无法打乱他们的训练数据以提供一致性,因为它们在从传感器接收数据时消费训练数据。通常在实时操作期间,传感器在后续对象的所有样本之前提供第一对象的大部分或所有样本,因此,系统一次学习一个对象表示。这可能导致只有几个节点代表第一个对象的情况,由于与其他对象无竞争,系统可能不会出错,因此适当地细化对象表示。另一方面,后续对象可能被过度表示,因为所述系统将其表示挤压到已经大部分被第一对象的表示占据的超空间中。上文描述的“我什么都不知道”机制在早期阶段引入竞争,并确保第一对象的精细表示。下文描述的合并减少或消除对后续对象的过度表示。
合并还减少了对象表示的存储器占用,这对于具有有限存储器的边缘装置尤其有益。为系统不能分类的对象的每个视图创建新的类别节点另外导致在新对象作为输入添加时ART系统的存储器占用的不断增加。在实时操作和如上文所描述的对象的顺序呈现期间,所述系统对于每个连续对象创建超线性增加的节点数。在某些情况下,所述系统经历随对象数目增长的节点数目的指数增长。因此,使用常规ART的模块B的存储器占用可以随对象数目以比线性增长更快的速率增长。在最坏的情况下,这种增长可能是指数形式的。合并将存储器增长限制到不随对象数目以比线性增长更快,并且允许为L-DNN学习的每个对象创建固定大小的接近最佳的表示。
完整L-DNN实施方式的示例
L-DNN分类器
图4表示使用经修改的VGG-16DNN作为模块A的核心的整个图像分类的示例性L-DNN实施方式。Sofmax和最后两个完全连接的层从原始VGG-16DNN移除,并且将基于ART的模块B连接到VGG-16DNN的第一完全连接层。可使用Alexnet代替VGG-16创建类似但简单得多的L-DNN。这是在任何现代智能手机上运行的一个非常简单且计算容易的系统,不需要GPU或任何其它专用处理器,并且可以从由智能手机摄像头提供的几个输入帧学习任何对象集。
基于L-DNN网格的检测器
检测图像中感兴趣对象的一种方式是将图像划分成网格并在每个网络单元上运行分类。在L-DNN的这种实施方式中,CNN的以下特征尤其有用。
除了跨上述层的纵向分层组织之外,每一层对保持拓扑组织的数据进行处理。这意味着不管网络或内核中跨距或焊盘尺寸深度如何,对应于图像上的特定感兴趣区域的特征可在所述层的类似区域中以各种分辨率在每一层上发现。例如,当对象位于图像左上角时,对应的特征将沿层的层次结构位于每层的左上角。因此,将模块B附接到所述层中的每个位置允许模块B在图像的特定位置上运行分类,并确定在此位置是否存在任何熟悉的对象。
此外,每个被用作输入的DNN层(或尺度)必须只创建一个模块B,因为相同的特征向量表示同一对象,而不管在图像中的位置如何。因此,学习右上角的一个对象可以使模块B在图像中的任何地方识别它。使用不同尺寸(尺度)的多个DNN层作为分离模块B的输入允许在多个尺度上进行检测。这可以用于精细地调整图像中对象的位置,而无需如下面的过程中以更精细的尺度处理整个图像。
在此过程中,模块A将最粗尺度(例如,在公众可用的ExtractionNet中为7X7)的图像提供至模块B以进行分类。如果模块B判定对象位于左边缘第二个和顶边缘第四个的单元中,只有更精细的DNN输入的对应部分(例如,在相同的ExtractionNet中,为14×14)应被分析以进一步细化对象的位置。
多尺度检测的另一应用可以使用DNN设计,其中,层尺寸不是彼此的倍数。例如,如果DNN具有30×30层,那么其可以降低到2×2(压缩因子为15)层,3×3(压缩因子为10)层,和5×5(压缩因子为6)层。如图5所示,将模块B附接到这些压缩DNN中的每一个得出对象的粗略位置(指示为502、504、506)。但是,如果对这些模块B的输出进行组合(指示为508),则空间分辨率变成不均匀的8×8网格,其中心的分辨率较高且朝向边缘分辨率较低。
注意,为了实现此分辨率,系统仅运行模块B计算(2×2)+(3×3)+(5×5)=38次,同时为了计算均匀的8×8网格,其执行64次模块B计算。除了用较少运算计算以外,对于中心36个位置,图5中的多尺度网格中的分辨率等于均匀的8×8网格中的分辨率或比其更精细。因此,利用多尺度检测,所述系统能够仅使用相当的均匀网格的计算资源的60%更精确地查明对象(510)的位置。这种性能差异对于较大层增大,因为总和的平方(表示均匀网格的计算量)比平方的总和(表示非均匀网格的计算量)增长得更快。
非均匀(多尺度)检测对于移动机器人来说可能是特别有益的,因为视图中心的对象最有可能处于机器人的路径中,并且受益于比不存在碰撞威胁的外围中的对象的更准确的检测。
用于图像分割的L-DNN
对于图像,对象检测通常被定义为将边界盒放置在对象周围并且用相关联的类别(例如,“狗”)标记的任务。除了前面部分的基于网格的方法,对象检测技术通常通过以下方式实施:使用边界盒选择图像的一个或多个区域,然后将该盒内的特征分类为特定类别,同时回归边界盒位置偏移。实施此对象检测方法的算法包括基于区域的CNN(R-CNN)、快速R-CNN和更快速R-CNN,尽管任何不使定位直接取决于分类信息的方法都可以被替代为检测模块。
图像分割是为图像中的像素的全部或一个子集确定类别标签的任务。分割可以被分成:语义分割,其中来自同一类别的两个单独对象的各个像素未被消除歧义;和实例分割,其中来自同一类别的两个单独对象的各个像素被唯一地识别或实例化。图像分割通常通过获取对象检测方法(例如,R-CNN、快速R-CNN或更快速R-CNN)的边界盒输出并分割在该盒中的最突出的对象来实施。与边界盒相关联的类别标签然后与分割的对象相关联。如果没有类别标签可归属于边界框,分割结果被丢弃。所得的分割对象可以有或可以没有实例信息。实施这种分割方法的一种算法是掩码R-CNN。
图6呈现了基于网络的R-CNN系列的图像检测或分割的L-DNN设计。考虑使用静态分类模块(例如,掩码R-CNN)的图像分割过程。在此情景中,静态分类模块600可以用L-DNN模块B104替换。即,网络的分割路径保持不变;区域建议正常进行,并且随后进行分割。就像静态分类模块的情况一样,当L-DNN模块B104不返回通过阈值的肯定类别预测(例如,如在网络未被训练或将分割的区域识别为如上文所述的“我什么也不知道”时就会发生)时,分割结果被丢弃。类似地,当L-DNN模块B104返回可接受的类别预测时,保留分割结果,正如与静态分类模块一样。不同于静态分类模块600,L-DNN模块B104经由用户反馈提供持续适应性以将状态从前一种变成后一种。
用户反馈可直接通过边界盒和类别标签提供,如用户选择并在社交媒体配置文件上标记对象的情况,或通过间接反馈提供,如用户选择视频中的一个对象,然后可以在整个视频中跟踪该对象以向新对象类别上的L-DNN提供连续反馈的情况。此反馈用于训练L-DNN如何随时间推移对新类别网络进行分类。此过程不影响网络的分割部件。
模块B104在此范式中的放置也具有一些灵活性。模块B104的输入应直接链接到模块A卷积层202的输出,使得类别标签可以与分割输出组合,以产生分割的标记输出602。这种约束可以通过使模块A和B两者获取区域建议阶段的输出来满足。模块A不应取决于模块B的任何动态部分。即,因为模块B正在调适其网络的权重,但模块A是静态的,如果模块B要更改其权重,然后将其输出传递至模块A,由于大多数静态神经网络无法处理其网络的输入表示的突然变化,模块A将可能会看到性能下降。
大脑合并和大脑融合
实施L-DNN的多个实时操作机器可在运行中通过L-DNN个别地学习新信息。在某些情况下,在实时操作机器之间共享知识可能是有利的,如下一部分中描述的若干使用案例中概述的。由于实时操作机器学习了边缘上的新知识,以便共享新知识,每个实时操作机器从边缘向中心服务器或其它实时操作机器发送新信息(在网络中根据在模块B中的突触权重矩阵表示)的压缩和泛化表示。通过执行以下步骤,每个实时操作机器获取的知识可以被提取、附加并且在中心服务器中或直接在边缘装置上合并,并通过集中式或点对点通信与其他实时操作机器共享。
·在现场部署中学习新信息—如上文讨论的,实时操作机器可在运行中通过L-DNN学习新信息。当用户看到实时操作机器正遇到新对象和/或新知识时,她可以为新对象提供标签,并触发快速学习模式,以便实时操作机器可以在运行中学习新对象和/或新知识。这样,实时操作机器可以修改其行为并快速适应新对象和/或新知识。
·合并新知识—在一个或多个对象在运行时被学习之后,系统在快速学习模块B中运行合并过程。此过程压缩新对象的表示,将其与之前已知对象的表示集成,提高网络泛化能力,并减少模块B的存储器占用。下面详细说明了基于ART网络的示例性实施方式。
·将合并的单个大脑传达给其他装置—在操作期间或完成任务之后的任何时间,实时操作机器可将其快速学习模块(模块B)的合并权重矩阵通过有线或无线通信信道传输到中心服务器(例如,基于云的服务器)。在某些情况下,每个实时操作机器的快速学习模块的权重矩阵可以下载到外部存储装置,并且可以物理地耦合到中心服务器。当中心服务器不可用或不需要时,所述通信可以在实时操作机器(边缘装置)中以点对点方式进行。
·大脑融合(或熔合、归并、组合)—在中心服务器或边缘装置之一处收集若干实时操作机器的权重矩阵之后,中心服务器或边缘装置可运行融合实用程序,其组合、压缩并将从每个实时操作机器新获取的知识合并成单个权重矩阵。融合实用程序减少所得矩阵的存储器占用并且去除冗余,同时保持整个系统的准确性。下面详细说明基于ART网络的示例性实施方式。
·融合后更新单个大脑—然后在大脑融合期间产生的所得权重矩阵通过有线或无线通信信道下载到一个或多个实时操作机器,或通过将其下载到物理外部存储装置/存储器装置,并将存储装置/存储器装置物理传输到实时操作机器。
这样,可以合并来自多个实时操作机器的知识,并且这些机器中的每一个机器学习的新知识可以与其它实时操作机器共享。
使用ART的大脑合并和融合过程的示例性实施方式
图7A示出了使用ART的示例性大脑合并和融合过程。它如下扩展了默认的ART过程。层F2 216中的每个ART的类别节点表示某个对象,并且每个对象具有表示其的一个或多个类别节点。图7A的左侧示出了层F1212激活的层F2 216中的类别节点的权重模式702。每种权重模式表示从提供给层F1 212的多个真实特征输入210学习的泛化输入模式。注意,仅当类别节点和相应对象赢得竞争并正确地识别正被讨论的对象时,才会发生ART中的学习。
图7A的中间示出了在将不同对象的多个输入210呈现给ART网络之后层F2 216中不同类别节点的权重模式702。每个权重模式702表示对应节点学习以用对应的对象标签识别输入的泛化版本。图7A的中间的权重模式702变成图7A的右侧显示的合并输入704。
在合并或融合时,原始输入210通常不可用于系统。另一方面,权重模式702的集合是对ART网络在训练期间暴露于的所有输入210的泛化。这样,权重模式702表示与原始输入210一样好或更好的输入210的重要特征,并且可以用作训练过程期间的真实输入的替代。
合并使用权重模式来替代真实输入。在合并期间,会发生以下步骤:
·现有权重矩阵中的权重向量702(例如,图2中的权重向量214的矩阵)被添加到合并输入集(图7A的右侧)ai=wi,其中a是输入向量,w是权重向量,i是从1到网络中现有类别节点的数目。如果ART网络使用补充编码,则将权重向量的补集的一半脱补并且与向量的初始的一半求平均(aI=(wI+(1-wic))/2)。合并输入集中的每个向量接收从其相应的类别节点提取的对应标签。
·所有现有F2节点和对应的权重都从ART网络移除,因此,ART网络处于其空白初始状态。
·随机打乱合并输入集,并且,ART网络以与其学习原始输入相同的方式学习此集合。随机打乱降低了常规ART网络中的顺序依赖性的影响,并且允许ART网络构建更紧凑(产生更少的类别节点)以及更佳(更好的泛化)的表示。
使用合并输入集的权重具有另一个优点,即单个向量替换许多原始输入向量,使得合并过程比原始学习过程具有降低的复杂性和更快的计算时间。
合并过程可在基于L-DNN的系统操作期间的任何时间发生。它减少了模块B的基于ART的实现的存储器占用,并且降低了基于ART的系统的顺序依赖性。降低顺序依赖性对于基于L-DNN的任何实时操作机器是有益的,因为在此类操作期间,无法改变在系统操作时进入系统的感知输入的顺序。合并可由用户动作触发,或者当存储器占用变得太大(例如,达到或超过阈值大小)时自动地触发,或基于操作持续时间定期地触发。
针对有意呈现给ART网络的COIL数据集进行了示例性合并,如同其实时运行并且相继看到对象一样。初始训练比合并训练花费的时间长4.5倍。合并将存储器占用减小了25%,并且将对象识别性能从50%正确率提高到75%正确率。对于一开始打乱训练数据集以减少顺序伪影的情况,合并仍显示出性能改善。存储器占用没有显著减少,因为系统在初始训练之后已经被良好压缩,但对象识别的百分比正确率平均从87%升至98%。这些实验结果代表出乎意料的大的性能改进。
融合是合并的延伸,其中合并训练集与超过一个ART网络的权重矩阵组合。它继承了合并的所有优势并利用ART网络的泛化特性。结果,当多个融合的ART网络具有相同对象的知识时,跨多个ART网络的此对象的所有类似表示通过ART学习过程自然地组合在一起,同时保留所有不同的表示。这导致对象表示的智能压缩并且进一步减少融合系统的存储器占用。
例如,用一个ART实例学习来自COIL数据集的50个对象,并且用另一个ART实例学习33个对象(对于两个集合而言17个对象是相同的)对于第一个实例产生92.9%的正确率,并且对于第二个实例产生90.5%的正确率。将它们融合在一起形成对于由两个ART实例学习的所有66个独特对象的97%的正确率的网络。另外,融合版本具有两个网络的强力组合将具有的存储器占用的83%。此外,融合版本的存储器占用比第一网络与第二网络(不包括重叠的17个对象)的仅新对象的组合小3%。因此,融合实际上进行智能压缩并细化对象表示以提高准确性。如果未随机打乱输入,在正确度方面,融合的结果甚至更突出:85.3%和77.6%正确率的网络被融合成96.6%正确率的网络,所述96.6%正确率的网络具有两个网络的组合的存储器占用的84.6%。这些融合实验结果代表出乎意料的大的性能改进。
使用情境信息提高性能
基于L-DNN的系统可以通过将情境信息与当前对象信息组合来进一步提高性能准确度。情境L-DNN可以获悉某些对象可能在输入流中共同发生。例如,骆驼、棕榈树、沙丘和越野车辆是沙漠场景中的典型对象(参见图7B),而是房屋、跑车、橡树和狗是郊外场景的典型对象。根据情境,在像素级作为无人机输入获取的本地模糊信息可以被映射到两个对象类别(例如,骆驼或狗)。在这两种情况下,对象的注意焦点有模糊的表示,在低分辨率图像中通常是这种情况。在沙漠场景中,驼色的像素化图像可以通过关于场景的全局信息和学习的对象之间的过去关联来解决,尽管“骆驼”只是由L-DNN推断的第四个最可能的类别,单独基于本地像素信息最可能是“马”。情境对象(沙丘、越野车辆、棕榈树)已经在过去与“骆驼”相关联,使得情境分类器可以推翻“马”类别,支持“骆驼”类别。类似地,在包含“房屋”、“跑车”和“橡树”的城市场景中,相同的像素集可以被映射到“狗”。
作为补充,当对象被识别为模糊或异常时,如以上示例中的骆驼,L-DNN系统可提示人类分析员/用户更深入地查看该对象。这种异常检测和报警子系统可以在识别不属于该场景的感兴趣对象与通过使用情境来消除正常对象的身份的疑义之间取得平衡。
通过赋予标签最大概率作为情境分类器的输入,回避了无限回归问题,即,在情境模块可以产生对象类别之前需要对象分类。这样,在对象的每个固定处,情境分类器可迭代地改进其对对象标签的猜测。
L-DNN可利用大量未标记数据
大量非结构化内容即使没有任何标签也为L-DNN的模块A提供有价值的训练数据。被称为贪心的逐层预训练的技术允许DNN通过从底向上依次训练每一层来执行无监督式学习。逐层训练的机制包括对比发散去噪自动编码器和卷积自动编码器。自动编码器获取输入,通过权重和传递函数对其进行编码,并根据输入重建误差评估输出。在一层已经被训练之后,其输出成为下一层的输入。预先训练的网络享受任何深度网络的好处,即,它通常捕获有用的分层特征关系,例如,在第一层上的学习边缘,在第二层上的拐角和其他边缘分组,以及稍后层中的较高阶数据特定特征。此外,卷积变量享受卷积网的内置平移不变性。
该过程被称为预训练,因为它往往领先于后面的监督学习(“微调”)。在许多情况下,预先训练的网络的性能优于未预先训练的网络的性能。在有大量标记数据的情况下,因为标签对分析员带来了一些负担,所以预先训练的网络不会战胜未预先训练的网络。相比其他预先训练的网络,预先训练的“具有环境特异性”的网将改善L-DNN系统的识别性能,同时使标记负担降低。换言之,对未标记的数据进行训练的DNN加上由分析员的报告产生的有限标签导致超出训练另一个重度标记的数据集获得的性能的改进性能,以及相对少量的分析员报告。
最后,ART作为模块B的实施方式具有另一个益处,因为它也可以执行无监督学习。ART可被视为“半监督的”,这意味着它不需要标签来进行学习,但是,当标签可用时,其能够利用标签。ART通过在其无监督学习模式下操作来协助组织未标记的数据,同时对于每个节点,存储最佳匹配的观察的帧和图像区的检索信息。每个ART节点都可以允许分析员访问并检查许多类似的观察。
L-DNN的示例性使用案例
以下使用案例是L-DNN如何能够解决各种领域中的技术问题的非限制性示例。
使用L-DNN以自动执行检查:单个或多个图像来源
考虑一个希望使工业基础设施(例如,电力线、蜂窝塔或风力涡轮机)的检查过程自动化的无人机服务提供商。现有的解决方案要求检查员观看数小时的无人机视频以找到包括需要检查的关键部件的帧。检查员必须手动识别每个帧中的这些关键部件。
相反,可以将基于L-DNN的助手引入到识别工具中。可以将包括感兴趣对象或异常的标签的数据提供给基于L-DNN的助手,作为在常规慢速DNN工厂训练期间的预先训练的集合。如下所述,在快速学习模式期间,可以由用户对此集合进行添加。
图8示出了基于L-DNN的助手的操作,所述基于L-DNN的助手可以包括在“智能”无人机或者计算机上,以用于查看由“无智能(dumb)”无人机获取的视频。无人机800检查结构,例如通讯塔820、太阳能板阵列830、风力涡轮机场840,或电力线路分布850(这些仅是示例性结构,可以设想其他物体)。无人机操作员810可能正使用手动控制无人机,或者正监督自动运行的无人机。人类分析员805,如控制室中的分析员,在无人机在飞行时或飞行后,可以将来自无人机800的标签提供到处理感知输入100(例如,视频,激光雷达等)的L-DNN系统106中的模块B104。
一开始,无人机800接收L-DNN 106的副本作为其个人的本地分类器。当无人机800检查这些电力线850、蜂窝塔820和风力涡轮机840获取视频帧100时,L-DNN 106的模块A102基于预先训练的数据从视频帧100提取图像特征。模块B104接着基于这些特征为每个对象提供可能的标签。此信息传递至用户805。如果用户805发现标签不满意,她可以采用快速学习模式,以用正确的标签更新模块B网络。这样,用户提供的信息可以纠正当前标签。因此,快速学习子系统可利用一次学习来确定早在更新后的第一帧中已经学习的对象(例如,电力线、蜂窝塔和风力涡轮机)的位置和特征。在分析之前获取的视频的情况下,这意味着在用户引入的校正后立即发生。因此,系统106随时间推移变得更有知识,并借助用户的帮助随时间推移而提供更好的识别。
图9图示了可以应用本文中描述的L-DNN技术作为图8的泛化案例的方式,其中多个无人机(例如,无智能无人机(dumb drone)800、900和智能无人机910)同步或异步地收集数据。由与每个无人机相关联的L-DNN学到的信息可以归并(组合或融合)并推送回其他无人机,在无人机之间点对点共享,或与包含模块B104的中心服务器共享。中心服务器归并单个L-DNN学习到的信息,并将归并的信息推送回所有的无人机(包括无人机910),其未暴露于关于从由无人机800、900获取的数据导出的电信塔820、太阳能板阵列830、风力涡轮机场840或电力线分布850的信息,但由于归并过程,现在能够理解这些项目并对其进行分类。
使用L-DNN自动化仓库操作:从多个来源合并和融合知识
可以对协同操作的多个机器或摄像头(固定、无人机绑定的等)扩展上述系统。考虑一家在多个不同地理位置具有大型仓库的公司。在大型仓库手动盘点存货可能花费许多工时,并且通常需要在此期间关闭仓库。现有的自动化解决方案难以识别可能隐藏的堆叠对象。另外,在现有自动化解决方案中,在一个地理位置处学习的信息不会转移到其他位置。在某些情况下,由于在不同地理位置处收集了大量数据,这些自动化解决方案可能花几周时间来学习新数据并作用于新数据。
相比较,本文所述的L-DNN技术可以应用于如图10所示的仓库、工业设施或分配中心环境,其中传感器(例如,安装在机器人或无人机上的固定摄像头1010a–1010c或移动摄像头)可以经由连接到传感器的各种L-DNN模块在运行中学习库存中的新物品。另外,805和1005中的操作员可以非集中方式向各种L-DNN模块传授新信息。这种新知识可以在融合之后被集中地集成或点对点传送并推送回每个单个装置(例如,摄像头1010)。
例如,考虑图10中的固定摄像头1010a–1010c(统称为摄像头1010)。这些摄像头1010中的每一个获取传送带上的对象的对应视频图像100,并将该图像100提供至对应的L-DNN 106a–106c(统称为L-DNN 106)。L-DNN 106识别图像100中已知的对象,例如,用于检查、分类或其他分配中心功能。
每个L-DNN 106标记未知对象以供人类操作员805、1005评估,或者将未知对象标记为“我什么都不知道”。例如,当呈现未知对象1040时,L-DNN 106a标记未知对象1040以供人类操作员805分类。类似地,L-DNN106c标记未知对象1060以供人类操作者805分类。当向L-DNN 106b呈现未知对象1050时,它将未知对象1050简单地标记为“我什么都不知道”。耦合到L-DNN 106的独立模块B104d将由L-DNN 106a、106c从人类操作员805、1005获取的知识归并,并将其推送到L-DNN 106b中的模块B104b,以便模块B104b可识别对象1040、1060的未来实例。
针对每个装置的L-DNN 106可以被预先训练,以识别仓库里的现有标志,诸如杆标记、类似出口标志的特征、其组合,等等。这使得系统能够对配备有传感器的无人驾驶车辆或出现在由传感器(例如,摄像头1010)获取的图像中的位置进行三角测量。每个车辆中的L-DNN以与上文所述的使用案例完全相同的方式操作。这样,来自多个无人驾驶车辆的知识可以被合并、融合并重新分配回每个无人驾驶车辆。来自所有位置的知识的合并和融合可由中心服务器执行,如上文的合并和融合部分中所述;另外,也可以应用点对点融合。因此,可盘点多个仓库的库存,并在对仓库运营影响最小的情况下合并知识。
在移动装置机队中使用L-DNN
考虑消费者移动装置组成的分布式网络,所述消费者移动装置诸如消费者智能电话和平板电脑,或专业装置(诸如,移动摄像头,穿戴在身体上的摄像头,和由第一响应者和公共安全人员使用的LTE手持装置以用于公共安全)。消费者装置可用于了解消费者的周围环境,例如在拍摄照片时。在这些情况下,本文描述的L-DNN技术可以应用于图11所示的智能电话或平板装置1110、1120、1130。个人(例如,用户1105、1106)可以分别向装置1110、1130中的L-DNN模块106教授知识,并且点对点或在包含模块B104的服务器1190上归并这些信息。服务器1190将归并的知识推送回一些或所有连接的装置,可能包括不参与初始训练1020的装置。
例如,L-DNN模块可学习将图像处理技术应用于用户拍摄的图片,其中用户向每个L-DNN教授与图片的各方面相关联的定制动作(例如,对这些类别的对象或区域施加滤波器或图像失真)。可以共享、归并或者在装置间点对点或共同组合这些组合的学习动作。另外,L-DNN技术可应用于智能电话使用的泛化使用案例,其中输入变量可以是感知或非感知的(智能电话的任何使用模式)。这些使用模式可以是输入变量和输出变量的任意组合,所述这些使用模式可在智能电话级别被学习,并推送到中心L-DNN模块104,归并且推送回各个装置。
在另一个示例中,警察可能正在使用运行L-DNN的专业装置寻找失踪儿童、嫌疑犯或可疑对象。在这种情况下,警官和/或第一响应者不能浪费时间。向警官和/或第一响应者提供的现有解决方案需要来自摄像头的视频馈送以便手动分析和协调。此类解决方案花费时间过长,因为它们需要使用中心服务器来分析和识别对象。即,这类解决方案具有主要的延时问题,因为视频数据需要在云端/中心服务器中进行分析。这对于在接收到数据时通常需要立即行动的第一响应者/警官造成严重障碍。另外,连续地向中心服务器发送视频数据可能对通信信道造成压力。
而通过在移动电话、穿戴在身体上的摄像头和LTE手持装置中使用L-DNN,可以在边缘自身上学习和分析数据。消费者可以在现场学习以定制其装置,并且警官/第一响应者可以寻找并提供人/对象的位置,并搜索和识别在警官可能不会主动查看的地方的感兴趣的人/对象。L-DNN可以利用快速学习模式来在现场在装置上从警官学习,而不是在远程服务器上从操作员学习,从而减少或消除与中心化学习相关的延时问题。
图1可以图示移动电话中的L-DNN的操作,其用于在消费者将电话指向场景并标记整个场景或场景的部分(对象、场景的部分,诸如天空、水等)时标记图像中的部件。另外,警员可以访问视频帧并识别可疑人/对象。当移动电话获取视频帧100时,模块A102可基于预先训练的数据从这些帧提取图像特征。模块B104接着可使用这些特征为每个对象提供可能的标签。例如,如果某人A居住在小区B,并且过去曾在小区B被看到,则某人A可以被标记为小区B的“居民”。因此,快速学习子系统可利用一次学习来早在第一帧的学习之后立即确定已经学习的对象(例如,房屋、树木)的相对位置和特征。更重要的是,中心服务器110上的调度程序可以将要寻找的新对象引入到服务器侧L-DNN,并根据需要将其融合并分发给本地的第一响应者。
此使用案例与先前使用案例非常相似,但是,其更好地利用了L-DNN的快速学习新对象而不忘记旧知识的能力。虽然在检查和库存收集期间,通常时间压力较小,并且可在慢速学习模式下完成存储器合并,但在第一响应者的情况下,尽可能快速地合并和融合来自多个装置的知识以便区域中的所有装置都可以开始搜索嫌疑犯或失踪儿童可能是很重要的。因此,L-DNN快速学习由一名第一响应者引导的新对象的能力,几乎瞬间将它合并在服务器上并分配给区域中的所有第一响应者成为此使用案例的巨大优势。
在数据中心用L-DNN替换常规DNN
本文所述的L-DNN技术可以如图12所示作为工具应用,以在大数据中心中降低单个计算节点或服务器1200中的DNN过程的计算时间。L-DNN技术将DNN中的学习加快了几个数量级。此特征可用于显著降低对服务器上的计算资源的需求,或消减对服务器上的计算资源的消耗,其中可以在几秒内通过通常需要数小时/数天/数周的训练时间的大量数据集100学习信息。使用L-DNN还导致功耗的降低,以及总体更好地利用数据中心中服务器资源1200。
结论
如上所述,L-DNN可以为神经网络系统提供运行中(一次性)学习。相反,传统DNN通常需要数千个或数百万个迭代循环来学习新对象。每个迭代循环采用的步长越大,损失函数的梯度可能导致实际性能增益的可能性越小。因此,这些传统DNN对其每个训练样本的权重进行小的改变。这使得在运行中添加新知识极其困难。相反,具有快速学习神经网络的L-DNN可以通过非常少的训练示例学习稳定的对象表示。在某些情况下,仅一个训练示例就可满足L-DNN。
因为L-DNN除了常规DNN之外还使用快速训练神经网络,它对于困扰传统DNN的“突然遗忘”有抵抗力。在突然遗忘中,在将新输入提供给DNN时,DNN中的所有权重都随着每次样本呈现而调整,导致DNN在学习新输入时“忘记”如何分类旧输入。通过简单地重新学习包括新输入的完整的输入集合就可避免突然遗忘,但重新学习可能花费太长时间而不实用。一些现有方法基于权重的重要性选择性地冻结权重,训练DNN的子网络,或者使用模块化方法来避免突然遗忘。然而,这些方法速度慢并且需要多个迭代循环来训练DNN。相反,L-DNN提供了在不重新训练的情况下实现快速和稳定的学习能力的方式。L-DNN还有利于用单个示例和/或在单个迭代循环中稳定学习对象表示。
虽然本文已经描述和说明了各种本发明的实施例,所属领域的技术人员将容易想到用于执行功能和/或获得结果和/或本文所述的优点中的一个或多个的多种其它方式和/或结构,并且这些变化和/或修改中的每一个都被认为在本文所述的本发明实施例的范围内。更一般地说,所属领域的技术人员将容易了解本文中所描述的所有参数、尺寸、材料和配置意味着是示范性的且实际参数、尺寸、材料和/或配置将取决于本发明的教导所用于的一个或多个特定应用。本领域技术人员将认识到或能够使用不超过常规实验确定本文所述的特定发明实施例的许多等同物。因此,应了解,前述实施例仅以举例的方式呈现,且在所附权利要求书及其等效物的范围内,本发明的实施例可以特别描述和要求保护的方式之外的其他方式实践。本公开的发明性实施例涉及本文中描述的每个单个特征、系统、制品、材料、套件和/或方法。另外,如果此类特征、系统、制品、材料、套件和/或方法不相互不一致,则这些特征、系统、制品、材料、套件和/或方法的两个或多个的任何组合包括在本公开的发明范围内。
上述实施例可以以多种方式中的任何一种来实现。例如,实施例可以使用硬件、软件或其组合实施。在软件中实施时,软件代码可以在任何合适的处理器或处理器集合上执行,无论是设置在单个计算机中提供还是分布在多个计算机中。
此外,应了解,计算机可以多种形式中的任何一种体现,例如机架式计算机、台式计算机、笔记本电脑或平板电脑。另外,计算机可以嵌入一般不被视为计算机但具有适当的处理能力的装置中,包括个人数字助理(PDA)、智能电话或任何其他合适的便携式或固定电子装置。
同样,计算机可以具有一个或多个输入和输出装置。可使用这些装置,以及其他,以呈现用户接口。可以用于提供用户接口的输出装置的示例包括用于输出的视觉呈现的打印机或显示屏,以及用于输出的可听呈现的扬声器或其它声音产生装置。可用于用户接口的输入装置的示例包括键盘和指向装置,比如鼠标、触摸板和数字化平板电脑。作为另一个示例,计算机可以通过语音识别或以其他可听格式接收输入信息。
此类计算机可以任何合适形式由一个或多个网络互连,包括局域网或广域网,例如企业网络,和智能网络(IN)或互联网。此类网络可以基于任何合适的技术,并且可以根据任何合适的协议操作,并且可以包括无线网络、有线网络或光纤网络。
本文中概述的各种方法或过程可编码为可在一个或多个处理器上执行的软件,所述一个或多个处理器采用多种操作系统或平台中的任一种。另外,可以使用多种合适的编程语言和/或编程或脚本工具中的任何一种来编写此类软件,并且此类软件还可以被编译为在框架或虚拟机上执行的可执行机器语言代码或中间代码。
同样,各种发明概念可体现为一种或多种方法,已经提供了所述一种或多种方法的示例。作为方法的一部分执行的动作可以以任何合适的方式排序。因此,可以构造以不同于图示次序的次序执行动作的实施例,其可包括同时执行一些动作,即使在说明性实施例中显示为顺序动作。
所有出版物、专利申请、专利以及本文提到的其他参考文献以全文引用的方式并入本文中。
如本文所定义和使用的所有定义应理解为在词典定义、以引用的方式并入的文件中的定义和/或定义术语的普通含义之上。
如本说明书和权利要求书中所使用的不定冠词“一(a)”和“一(an)”,除非明确指出为相反,应理解为意指“至少一个”。
如本说明书和权利要求书中所使用的短语“和/或”应理解为意味着如此连接的元素中的“任何一个或两者”,即,所述元素在某些情况下共同存在,在其它情况下分开存在。用“和/或”列出的多个元素应以相同的方式解释,即,如此连接的元素中的“一个或多个”。除了由“和/或”子句特别标识的元素之外,其他元素可任选地存在,无论是否与特别标识的元素相关或不相关。因此,作为一个非限制性示例,对“A和/或B”的提及,当结合开放式语言(例如“包括”)使用时,在一个实施例中可仅指A(可选地包括除B以外的元素);在另一个实施例中仅指B(可选地包括除A以外的元素);在又一个实施例中指A和B(任选地包括其他元素)等等。
如本说明书和权利要求书中所使用,“或”应理解为具有与上文定义的“和/或”相同的含义。例如,在列表中分离项目时,“或”或“和/或”应解释为包括性的,即,包括至少一个,还包括许多元素或元素列表中的不止一个,且任选地包括额外未列出的项目。只有术语明确指示为相反,例如“仅一个”或“恰好一个”,或当在权利要求书中使用时,“由……组成(consisting of)”将指包括许多元素或元素列表中的恰好一个元素。一般,如本文中所使用的术语“或”在排他性术语(诸如“任一个”、“一个”、“仅一个”或“恰好一个”)在其前面时仅应解释为指示排他性替代方案(即“一个或另一个,但不是两者”)。“基本上由……组成(Consisting essentially of)”当在权利要求书中使用时,应具有如专利法领域所用的普通含义。
如本说明书和权利要求书中所使用,短语“至少一个”在叙述一个或多个元素的列表时,应理解为指选自元素列表中的任何一个或多个元素中的至少一个元素,但不一定包括在元素列表中特别列出的每个元素的至少一个,且不排除元素列表中元素的任何组合。此定义还使得除短语“至少一个”指代的元素列表中特别标识的元素之外,元素可以任选地存在,无论是否与特别标识的元素相关或不相关。因此,作为一个非限制性示例,“A和B中的至少一者”(或等效地,“A或B中的至少一者”或等效地“A和/或B中的至少一者”)在一个实施例中可以指至少一个A,任选包括超过一个A,且B不存在(且任选地包括除B之外的元素);在另一个实施例指至少一个B,任选包括超过一个B,且A不存在(并且任选地包括除A以外的元素);在又一个实施例指至少一个A,任选包括超过一个A和至少一个B,任选包括超过一个B(并且任选地包括其它元素)等等。
在权利要求书中,以及上述说明书中,所有过渡短语诸如“包括”、“包含”、“携带”、“具有”、“含有”、“涉及”、“保持”、“由……组成(composed of)”等等应理解为是开放式的,即,意味着包括但不限于。只有过渡短语“由……组成(consisting of)”和“基本上由……组成(consisting essentially of)”应分别为封闭或半封闭的过渡短语,如美国专利审查程序专利局手册第2111.03节所述。

Claims (21)

1.一种分析环境中的对象的方法,所述方法包括:
由传感器收集表示所述环境中的对象的数据流;
用在可操作地耦合到所述传感器的处理器上运行的神经网络从所述数据流提取卷积输出,所述卷积输出表示所述对象的特征;以及
用可操作地耦合到所述神经网络的分类器基于所述卷积输出对所述对象进行分类。
2.根据权利要求1所述的方法,其中所述传感器是图像传感器,并且所述数据流包括图像。
3.根据权利要求2所述的方法,其中提取特征集包括:
生成第一图像的多个分段子区域;以及
由所述神经网络对所述多个分段子区域中的每一个分段子区域进行编码。
4.根据权利要求1所述的方法,其中提取特征集包括:
使得用户能够选择所述数据流中的感兴趣部分;
使得用户能够将所述感兴趣部分分割成多个区段;以及
由所述神经网络对所述多个区段中的每一个区段进行编码。
5.根据权利要求1所述的方法,其中所述传感器是以下中的至少一个:激光雷达、雷达或声传感器,并且所述数据流包括以下中的对应一个:激光雷达数据、雷达数据或声学数据。
6.一种设备,包括:
用于收集环境的数据流的传感器,所述数据流表示所述环境中的对象;以及
至少一个处理器,所述至少一个处理器可操作地耦合到图像传感器,所述至少一个处理器执行(i)神经网络以从所述数据流提取卷积输出,所述卷积输出表示所述对象的特征,以及(ii)分类器以基于所述卷积输出对所述对象进行分类。
7.根据权利要求6所述的设备,其中所述传感器包括以下中的至少一个:图像传感器、激光雷达、雷达或声传感器。
8.根据权利要求6所述的设备,其中所述神经网络包括深度神经网络(DNN)。
9.根据权利要求6所述的设备,其中所述神经网络包括自适应共振理论(ART)网络。
10.一种在实时操作机器中实施终身学习深度神经网络(L-DNN)的方法,所述方法包括:
由所述L-DNN基于(i)由传感器对所述实时操作机器的环境的观察,和(ii)先前确定的所述L-DNN的权重预测所述实时操作机器的第一动作;
由所述L-DNN基于所述观察确定预期与所述实时操作机器的感知之间的不匹配;以及
响应于所述不匹配,由所述L-DNN触发快速学习模式,所述快速学习模式基于所述观察生成修改后预期,而不改变先前确定的所述L-DNN的权重。
11.根据权利要求10所述的方法,还包括:
确定所述实时操作机器离线;以及
响应于确定所述实时操作机器离线,触发慢速学习模式,所述慢速学习模式基于所述观察修改先前确定的所述L-DNN的权重。
12.一种在多个实时操作机器中提取、合并和共享知识的方法,所述多个实时操作机器中的每个实时操作机器实施具有权重矩阵的相应副本的神经网络,所述方法包括:
用所述多个实时操作机器中的第一实时操作机器的快速学习子系统来学习至少一个新对象;
经由通信信道,将所述至少一个新对象的表示从所述第一实时操作机器传输到服务器;
在中心服务器处至少部分地基于来自所述第一实时操作机器的所述至少一个新对象的表示形成更新的权重矩阵;以及
将所述更新的权重矩阵的副本从所述服务器传输到所述多个实时操作机器中的至少一个第二实时操作机器。
13.根据权利要求12所述的方法,其中学习所述新对象包括:
用可操作地耦合到所述第一实时操作机器的快速学习子系统的图像传感器获取所述至少一个新对象的图像;以及
用所述第一实时操作机器的快速学习子系统处理所述至少一个新对象的图像。
14.根据权利要求12所述的方法,其中所述神经网络包括自适应共振理论(ART)神经网络,并且还包括:
用所述ART神经网络生成所述至少一个新对象的表示。
15.根据权利要求14所述的方法,其中所述至少一个新对象的表示包括权重向量,并且还包括:
将所述权重向量与所述第一实时操作机器使用的权重矩阵的副本合并以减少所述至少一个新对象的表示的存储器占用。
16.根据权利要求12所述的方法,还包括:
将所述新对象的表示与至少一个先前已知对象的表示合并。
17.根据权利要求12所述的方法,其中传输所述至少一个新对象的表示包括:
经由所述多个实时操作机器中的第二实时操作机器将所述至少一个新对象的表示传输到所述服务器。
18.根据权利要求12所述的方法,其中形成所述更新的权重矩阵包括:
将所述至少一个新对象的表示与来自所述多个实时操作机器中的至少一个另一实时操作机器的至少一个另一新对象的表示融合。
19.一种用被训练成识别多个类别中的对象的神经网络对对象进行分类的方法,其中,所述方法包括:
将对象呈现给所述神经网络;
由所述神经网络确定多个置信水平,所述多个置信水平中的每个置信水平表示所述对象落入所述多个类别中的相应类别的可能性;
执行所述多个置信水平与阈值的比较;以及
基于所述比较,确定所述对象没有落入所述多个类别中的任何一个类别中。
20.根据权利要求19所述的方法,其中执行所述比较包括:
确定所述多个置信水平中没有置信水平超过所述阈值。
21.根据权利要求19所述的方法,还包括:
将所述阈值设置为大于所述多个置信水平的平均值。
CN201880043894.9A 2017-05-09 2018-05-09 在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法 Pending CN110914836A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762503639P 2017-05-09 2017-05-09
US62/503,639 2017-05-09
US201762612529P 2017-12-31 2017-12-31
US62/612,529 2017-12-31
PCT/US2018/031833 WO2018208939A1 (en) 2017-05-09 2018-05-09 Systems and methods to enable continual, memory-bounded learning in artificial intelligence and deep learning continuously operating applications across networked compute edges

Publications (1)

Publication Number Publication Date
CN110914836A true CN110914836A (zh) 2020-03-24

Family

ID=64096214

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880043894.9A Pending CN110914836A (zh) 2017-05-09 2018-05-09 在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法

Country Status (7)

Country Link
US (2) US20180330238A1 (zh)
EP (1) EP3622438A4 (zh)
JP (2) JP7317717B2 (zh)
KR (1) KR20200028330A (zh)
CN (1) CN110914836A (zh)
CA (1) CA3061767A1 (zh)
WO (1) WO2018208939A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523597A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN112667793A (zh) * 2020-12-31 2021-04-16 徐波 一种基于dnn的人机交互方法、装置、系统、电子设备和存储介质
CN112862083A (zh) * 2021-04-06 2021-05-28 南京大学 一种边缘环境下的深度神经网络推断方法及装置
CN113095141A (zh) * 2021-03-15 2021-07-09 南通大学 一种基于人工智能的无人机视觉学习系统
CN113282933A (zh) * 2020-07-17 2021-08-20 中兴通讯股份有限公司 联邦学习方法、装置和系统、电子设备、存储介质
CN113595993A (zh) * 2021-07-12 2021-11-02 广东工业大学 边缘计算下模型结构优化的车载感知设备联合学习方法
CN113671458A (zh) * 2020-05-13 2021-11-19 华为技术有限公司 一种目标物体识别方法及装置
CN115643115A (zh) * 2022-12-23 2023-01-24 武汉大学 基于大数据的工控网络安全态势预测方法及系统
CN117095283A (zh) * 2023-06-07 2023-11-21 陕西工业职业技术学院 一种堆叠目标识别方法和装置
CN117152668A (zh) * 2023-10-30 2023-12-01 成都方顷科技有限公司 一种基于物联网的智慧后勤实现方法、装置及设备

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11468286B2 (en) * 2017-05-30 2022-10-11 Leica Microsystems Cms Gmbh Prediction guided sequential data learning method
US11138901B1 (en) 2017-06-28 2021-10-05 Amazon Technologies, Inc. Item recognition and analysis
US10540390B1 (en) * 2017-08-07 2020-01-21 Amazon Technologies, Inc. Image-based item identification
CN107463907B (zh) * 2017-08-08 2021-06-25 东软集团股份有限公司 车辆碰撞检测方法、装置、电子设备及车辆
CN110809784B (zh) 2017-09-27 2021-04-20 谷歌有限责任公司 高分辨率图像分割的端到端网络模型
EP3477591B1 (en) * 2017-10-24 2020-05-27 AGFA Healthcare Avoiding catastrophic interference while training an artificial neural network on an additional task
JP6695947B2 (ja) * 2018-09-21 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、画像処理方法及びプログラム
CN117234077A (zh) 2018-11-15 2023-12-15 灵动科技(北京)有限公司 自动导引车和训练自动导引车的方法
US11122099B2 (en) * 2018-11-30 2021-09-14 Motorola Solutions, Inc. Device, system and method for providing audio summarization data from video
US11133059B2 (en) 2018-12-06 2021-09-28 Western Digital Technologies, Inc. Non-volatile memory die with deep learning neural network
JP7497298B2 (ja) * 2018-12-07 2024-06-10 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
CN111310519B (zh) * 2018-12-11 2024-01-05 成都智叟智能科技有限公司 基于机器视觉与数据采样的货品深度学习训练方法
TWI696961B (zh) * 2018-12-12 2020-06-21 財團法人工業技術研究院 深度神經網路硬體加速器與其操作方法
US10891514B2 (en) * 2018-12-17 2021-01-12 Microsoft Technology Licensing, Llc Image classification pipeline
US11138504B2 (en) * 2018-12-28 2021-10-05 Datalogic Ip Tech S.R.L. Deployment of deep neural networks (DNN) in embedded devices by means of peer-to-peer routing between computational points
US10467500B1 (en) * 2018-12-31 2019-11-05 Didi Research America, Llc Method and system for semantic segmentation involving multi-task convolutional neural network
US10509987B1 (en) 2019-01-22 2019-12-17 StradVision, Inc. Learning method and learning device for object detector based on reconfigurable network for optimizing customers' requirements such as key performance index using target object estimating network and target object merging network, and testing method and testing device using the same
CN109816097B (zh) * 2019-01-23 2022-12-09 东北大学 一种基于YOLO的Compress-YOLO模型压缩方法
EP3696406A1 (en) * 2019-02-13 2020-08-19 Siemens Gamesa Renewable Energy A/S A method for computer-implemented analysis of a wind farm comprising a number of wind turbines
US11507677B2 (en) 2019-02-15 2022-11-22 Microsoft Technology Licensing, Llc Image classification modeling while maintaining data privacy compliance
CN113508419B (zh) 2019-02-28 2024-09-13 斯塔特斯公司 从广播视频生成运动员跟踪数据的系统及方法
US10832407B2 (en) * 2019-03-06 2020-11-10 International Business Machines Corporation Training a neural network adapter
US10916306B2 (en) 2019-03-07 2021-02-09 Western Digital Technologies, Inc. Burst mode operation conditioning for a memory device
US10776695B1 (en) 2019-03-08 2020-09-15 Ai Concepts, Llc Intelligent recognition and alert methods and systems
US11699078B2 (en) 2019-03-08 2023-07-11 Ai Concepts, Llc Intelligent recognition and alert methods and systems
US10530561B1 (en) * 2019-03-20 2020-01-07 Xilinx, Inc. Adaptive method to reduce training time of receivers
WO2020216535A1 (en) * 2019-04-24 2020-10-29 Sony Corporation Sensing apparatus and control system for automotive
CN110633610B (zh) * 2019-05-17 2022-03-25 西南交通大学 一种基于yolo的学员状态检测方法
CN114026570A (zh) * 2019-05-21 2022-02-08 弗劳恩霍夫应用研究促进协会 多个人工学习单元与投影层级耦接
US11314517B2 (en) 2019-06-14 2022-04-26 Here Global B.V. Method and apparatus for updating pipeline operations for data processing
US11501109B2 (en) 2019-06-20 2022-11-15 Western Digital Technologies, Inc. Non-volatile memory die with on-chip data augmentation components for use with machine learning
US11520521B2 (en) 2019-06-20 2022-12-06 Western Digital Technologies, Inc. Storage controller having data augmentation components for use with non-volatile memory die
CN110417786B (zh) * 2019-07-31 2022-01-11 广东工业大学 一种基于深度特征的p2p流量细粒度识别方法
US11036488B2 (en) * 2019-08-12 2021-06-15 International Business Machines Corporation System and method for optimal hierarchical upgrade time prediction
JP7158355B2 (ja) * 2019-08-30 2022-10-21 株式会社豊田中央研究所 ノイズ除去装置および距離測定装置
US11012526B1 (en) 2019-09-19 2021-05-18 Allstate Insurance Company Inspection and assessment based on mobile edge-computing
EP3809316A1 (de) * 2019-09-24 2021-04-21 Elektrobit Automotive GmbH Vorhersage eines strassenverlaufs auf basis von radardaten
CN110581898B (zh) * 2019-10-09 2022-04-08 成都康胜思科技有限公司 基于5g和边缘计算的物联网数据终端系统
US11769180B2 (en) * 2019-10-15 2023-09-26 Orchard Technologies, Inc. Machine learning systems and methods for determining home value
GB2588614B (en) * 2019-10-29 2023-01-11 Samsung Electronics Co Ltd Method and system for customising a machine learning model
WO2021085785A1 (en) 2019-10-29 2021-05-06 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
US11687805B2 (en) 2019-10-31 2023-06-27 Shoreline Iot, Inc. Systems and methods for self-learning artificial intelligence of things (AIOT) devices and services
US11584377B2 (en) * 2019-11-21 2023-02-21 Gm Cruise Holdings Llc Lidar based detection of road surface features
CN111325708B (zh) * 2019-11-22 2023-06-30 济南信通达电气科技有限公司 一种输电线路检测方法和服务器
JP7365999B2 (ja) * 2019-12-24 2023-10-20 財團法人工業技術研究院 ニューラルネットワーク演算装置および方法
US20210256845A1 (en) * 2020-02-17 2021-08-19 International Business Machines Corporation Drone formation for traffic coordination and control
US11675879B2 (en) * 2020-02-20 2023-06-13 K2Ai, LLC Apparatus and method for operating a detection and response system
WO2021188446A1 (en) 2020-03-16 2021-09-23 Memorial Sloan Kettering Cancer Center Deep interactive learning for image segmentation models
CN111582016A (zh) * 2020-03-18 2020-08-25 宁波送变电建设有限公司永耀科技分公司 基于云边协同深度学习的智能免维护电网监控方法及系统
EP4128028A1 (en) * 2020-03-31 2023-02-08 Teledyne FLIR Detection, Inc. User-in-the-loop object detection and classification systems and methods
CN111488948B (zh) * 2020-04-29 2021-07-20 中国科学院重庆绿色智能技术研究院 一种抖动环境下稀疏样本的标记方法
CN111553481A (zh) * 2020-04-30 2020-08-18 深圳市迪米欧科技有限公司 一种基于rnn的量子计算方法和装置
JP7464118B2 (ja) * 2020-05-26 2024-04-09 日本電信電話株式会社 分散深層学習システム
JP7323849B2 (ja) * 2020-06-05 2023-08-09 日本電信電話株式会社 分割認識方法、分割認識装置及びプログラム
US11507835B2 (en) 2020-06-08 2022-11-22 Western Digital Technologies, Inc. Neural network data updates using in-place bit-addressable writes within storage class memory
US11741698B2 (en) 2020-06-10 2023-08-29 Toyota Research Institute, Inc. Confidence-estimated domain adaptation for training machine learning models
US20220012588A1 (en) * 2020-07-09 2022-01-13 Samsung Electronics Co., Ltd. Method and device with reservoir management and neural network online learning
TWI820347B (zh) * 2020-09-04 2023-11-01 仁寶電腦工業股份有限公司 行為識別方法、行為識別系統及手寫辨識系統
WO2022060266A1 (en) * 2020-09-18 2022-03-24 Telefonaktiebolaget Lm Ericsson (Publ) Network node and method for handling inspection of structure
CN112116576B (zh) * 2020-09-20 2023-04-18 中国人民解放军空军工程大学 基于偏振结构光成像和改进的缺陷检测方法
US20230375292A1 (en) * 2020-10-01 2023-11-23 The Regents Of The University Of California Systems and Methods for Smart Boiling Control
CN112257864B (zh) * 2020-10-22 2022-08-16 福州大学 一种用于解决灾难性遗忘问题的终生学习方法
KR102576747B1 (ko) * 2020-11-06 2023-09-11 한국전자통신연구원 심층신경망을 기반으로 하는 객체 검출기의 지역 최적화를 위한 시스템 및 이를 위한 로컬 데이터베이스 생성 방법
KR102612422B1 (ko) * 2020-11-12 2023-12-12 한국전자통신연구원 네트워크를 이용한 고정형 폐쇄회로 영상 엣지 단말의 적응형 객체 인식 장치 및 방법
CN112418404A (zh) * 2020-12-01 2021-02-26 策拉人工智能科技(云南)有限公司 一种人工智能会计神经网络深度学习训练方法
US11461591B2 (en) 2020-12-16 2022-10-04 Microsoft Technology Licensing, Llc Allocating computing resources during continuous retraining
US11792501B2 (en) 2020-12-17 2023-10-17 Motorola Solutions, Inc. Device, method and system for installing video analytics parameters at a video analytics engine
US11847847B2 (en) * 2021-03-26 2023-12-19 Analog Devices International Unlimited Company Learning system for convolutional neural networks to improve accuracy of object detection in new environments
CN113297914B (zh) * 2021-04-26 2023-04-18 云南电网有限责任公司信息中心 一种配网现场作业验电动作识别方法
CN113139612A (zh) * 2021-05-07 2021-07-20 上海商汤临港智能科技有限公司 图像分类方法、分类网络的训练方法和相关产品
CN113591668B (zh) * 2021-07-26 2023-11-21 南京大学 一种使用深度学习和空间分析的广域未知大坝自动探测方法
US11698858B2 (en) 2021-08-19 2023-07-11 Micron Technology, Inc. Prediction based garbage collection
US11989421B2 (en) 2021-08-19 2024-05-21 Micron Technology, Inc. Adjustable data protection scheme using artificial intelligence
CN114061589B (zh) * 2021-11-16 2023-05-26 中山大学 端边协同的多无人机自主导航方法
CN114564882A (zh) * 2022-01-29 2022-05-31 内蒙古工业大学 基于离散事件的边缘深度学习模拟器的构建与应用
NL2033808B1 (en) * 2022-09-26 2024-04-03 Navinfo Europe B V Artificial cognitive architecture incorporating cognitive computation, inductive bias and multi-memory systems
EP4343636A1 (en) * 2022-09-26 2024-03-27 NavInfo Europe B.V. Artificial cognitive architecture incorporating cognitive computation, inductive bias and multi-memory systems
CN116189115A (zh) * 2023-04-24 2023-05-30 青岛创新奇智科技集团股份有限公司 车型识别方法、电子设备和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110052068A1 (en) * 2009-08-31 2011-03-03 Wesley Kenneth Cobb Identifying anomalous object types during classification
US20140050391A1 (en) * 2012-08-17 2014-02-20 Nec Laboratories America, Inc. Image segmentation for large-scale fine-grained recognition
CN106250931A (zh) * 2016-08-03 2016-12-21 武汉大学 一种基于随机卷积神经网络的高分辨率图像场景分类方法
CN106250812A (zh) * 2016-07-15 2016-12-21 汤平 一种基于快速r‑cnn深度神经网络的车型识别方法
US20170032222A1 (en) * 2015-07-30 2017-02-02 Xerox Corporation Cross-trained convolutional neural networks using multimodal images
US20170061249A1 (en) * 2015-08-26 2017-03-02 Digitalglobe, Inc. Broad area geospatial object detection using autogenerated deep learning models

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9232211B2 (en) * 2009-07-31 2016-01-05 The University Of Connecticut System and methods for three-dimensional imaging of objects in a scattering medium
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
US9665802B2 (en) * 2014-11-13 2017-05-30 Nec Corporation Object-centric fine-grained image classification
US9418319B2 (en) * 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
US20170039469A1 (en) 2015-08-04 2017-02-09 Qualcomm Incorporated Detection of unknown classes and initialization of classifiers for unknown classes

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110052068A1 (en) * 2009-08-31 2011-03-03 Wesley Kenneth Cobb Identifying anomalous object types during classification
US20140050391A1 (en) * 2012-08-17 2014-02-20 Nec Laboratories America, Inc. Image segmentation for large-scale fine-grained recognition
US20170032222A1 (en) * 2015-07-30 2017-02-02 Xerox Corporation Cross-trained convolutional neural networks using multimodal images
US20170061249A1 (en) * 2015-08-26 2017-03-02 Digitalglobe, Inc. Broad area geospatial object detection using autogenerated deep learning models
CN106250812A (zh) * 2016-07-15 2016-12-21 汤平 一种基于快速r‑cnn深度神经网络的车型识别方法
CN106250931A (zh) * 2016-08-03 2016-12-21 武汉大学 一种基于随机卷积神经网络的高分辨率图像场景分类方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111523597A (zh) * 2020-04-23 2020-08-11 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN111523597B (zh) * 2020-04-23 2023-08-25 北京百度网讯科技有限公司 目标识别模型训练方法、装置、设备以及存储介质
CN113671458A (zh) * 2020-05-13 2021-11-19 华为技术有限公司 一种目标物体识别方法及装置
CN113282933A (zh) * 2020-07-17 2021-08-20 中兴通讯股份有限公司 联邦学习方法、装置和系统、电子设备、存储介质
CN113282933B (zh) * 2020-07-17 2022-03-01 中兴通讯股份有限公司 联邦学习方法、装置和系统、电子设备、存储介质
CN112667793A (zh) * 2020-12-31 2021-04-16 徐波 一种基于dnn的人机交互方法、装置、系统、电子设备和存储介质
CN112667793B (zh) * 2020-12-31 2023-08-22 徐波 一种基于dnn的人机交互方法、装置、系统、电子设备和存储介质
CN113095141A (zh) * 2021-03-15 2021-07-09 南通大学 一种基于人工智能的无人机视觉学习系统
CN112862083A (zh) * 2021-04-06 2021-05-28 南京大学 一种边缘环境下的深度神经网络推断方法及装置
CN112862083B (zh) * 2021-04-06 2024-04-09 南京大学 一种边缘环境下的深度神经网络推断方法及装置
CN113595993A (zh) * 2021-07-12 2021-11-02 广东工业大学 边缘计算下模型结构优化的车载感知设备联合学习方法
CN113595993B (zh) * 2021-07-12 2022-06-14 广东工业大学 边缘计算下模型结构优化的车载感知设备联合学习方法
CN115643115B (zh) * 2022-12-23 2023-03-10 武汉大学 基于大数据的工控网络安全态势预测方法及系统
CN115643115A (zh) * 2022-12-23 2023-01-24 武汉大学 基于大数据的工控网络安全态势预测方法及系统
CN117095283A (zh) * 2023-06-07 2023-11-21 陕西工业职业技术学院 一种堆叠目标识别方法和装置
CN117152668A (zh) * 2023-10-30 2023-12-01 成都方顷科技有限公司 一种基于物联网的智慧后勤实现方法、装置及设备
CN117152668B (zh) * 2023-10-30 2024-02-06 成都方顷科技有限公司 一种基于物联网的智慧后勤实现方法、装置及设备

Also Published As

Publication number Publication date
EP3622438A1 (en) 2020-03-18
EP3622438A4 (en) 2021-03-10
US20180330238A1 (en) 2018-11-15
WO2018208939A1 (en) 2018-11-15
JP2023156308A (ja) 2023-10-24
US20240289625A1 (en) 2024-08-29
JP7317717B2 (ja) 2023-07-31
JP2020520007A (ja) 2020-07-02
KR20200028330A (ko) 2020-03-16
CA3061767A1 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP7317717B2 (ja) ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法
CN110689086B (zh) 基于生成式对抗网络的半监督高分遥感图像场景分类方法
Ball et al. Comprehensive survey of deep learning in remote sensing: theories, tools, and challenges for the community
Kishore et al. Indian classical dance action identification and classification with convolutional neural networks
Wang et al. Unsupervised learning of visual representations using videos
Maddalena et al. A self-organizing approach to background subtraction for visual surveillance applications
CA2953394C (en) System and method for visual event description and event analysis
Nguyen et al. Change detection by training a triplet network for motion feature extraction
AlDahoul et al. Real‐Time Human Detection for Aerial Captured Video Sequences via Deep Models
Charalampous et al. On-line deep learning method for action recognition
WO2018102918A1 (en) System and method for cnn layer sharing
US20120213426A1 (en) Method for Implementing a High-Level Image Representation for Image Analysis
EP3120300A2 (en) Methods and apparatus for autonomous robotic control
Pavel et al. Object class segmentation of RGB-D video using recurrent convolutional neural networks
Putra et al. A deep neural network model for multi-view human activity recognition
Singh et al. Progress of human action recognition research in the last ten years: a comprehensive survey
Werner et al. DeepMoVIPS: Visual indoor positioning using transfer learning
Chen-McCaig et al. Convolutional neural networks for texture recognition using transfer learning
Defriani et al. Recognition of regional traditional house in Indonesia using Convolutional Neural Network (CNN) method
Qin et al. Application of video scene semantic recognition technology in smart video
Memon et al. On multi-class aerial image classification using learning machines
Gori et al. Semantic video labeling by developmental visual agents
Nikpour et al. Deep reinforcement learning in human activity recognition: A survey
Zhang et al. Weighted score-level feature fusion based on Dempster–Shafer evidence theory for action recognition
Sinha et al. Human activity recognition from uav videos using an optimized hybrid deep learning model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination