CN117234077A - 自动导引车和训练自动导引车的方法 - Google Patents
自动导引车和训练自动导引车的方法 Download PDFInfo
- Publication number
- CN117234077A CN117234077A CN202311196673.4A CN202311196673A CN117234077A CN 117234077 A CN117234077 A CN 117234077A CN 202311196673 A CN202311196673 A CN 202311196673A CN 117234077 A CN117234077 A CN 117234077A
- Authority
- CN
- China
- Prior art keywords
- guided vehicle
- automated guided
- neural network
- image data
- supervisor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012549 training Methods 0.000 title claims abstract description 33
- 238000013528 artificial neural network Methods 0.000 claims abstract description 56
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 abstract description 44
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 7
- 230000001537 neural effect Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000000087 stabilizing effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052754 neon Inorganic materials 0.000 description 1
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon atom Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Game Theory and Decision Science (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
Abstract
一种自动导引车和训练自动导引车的方法,该自动引导车包含:移动底座,包含动力总成,用来在设施内以一种自主导航模式驱动该自动导引车;一个摄像头,用来采集该设施内物体的影像数据并且包含内容滤镜;以及主要控制模块,用来接收影像数据且另用来:执行识别神经网络程序,用来辨识影像数据中的目标;在使用者控制下执行一种用来训练识别神经网络程序的监督程序,监督程序会接收影像数据并辨识影像数据中附着于目标的光学标签,生成监督结果,光学标签是由摄像头的内容滤镜来识别,且具有光学标签的目标会分类成第一类别;及使用监督结果来调整识别神经网络程序中至少一个节点的至少一个权重。上述自动导引车能提高辨识人物或其他目标的能力。
Description
本申请是申请日为2018年11月15日、申请号为201880038567.4、名称为“现场环境的实时监督式机器学习系统与方法”的发明专利申请的分案申请。
技术领域
本申请涉及自动导引车,特别是能够实时执行监督式学习的自动导引车。
背景技术
自动导引车(automated/automatic guided vehicle,AGV)是一种能够以例如标签、电线、或是以地面上的金属条、摄像头所视影像、磁铁、激光或上述方式的任意组合来自主导航的移动式机器人。自动导引车通常使用在工业应用上,例如在工厂或仓库里运送材料。近年来,自动导引车的数量与应用的种类已经大幅度增加。
在仓库中运行的自动导引车通常依赖计算器视觉(computer vision,CV)来辨识一个目标(例如一个酬载或人物)以及环境(例如仓库)。现行实践中,一个自动导引车的操作系统或类似的控制程序在送到客户的设施前,由所述自动导引车的制造者所训练。也就是说,所述自动导引车的制造者用一种默认数据集(或是一种预先设定、预先标示的数据集)来训练所述自动导引车的神经网络去辨识目标,例如训练所述自动导引车的控制程序来辨识人物、物体、环境等等。
然而,实际应用中,所述自动导引车的神经网络经过训练后的表现常常不如预期,特别是当实际(或实时)的环境与用来执行训练的所述默认数据集有明显不同的情况下更是如此。事实上,用来执行训练的所述默认数据集与实际环境常有明显不同的因素,例如仓库的照明状况、工作人员的制服(或其他服装)、货架的外观等等。如此的差异可能导致低辨识率以及不良的使用者经验。但对于所述自动导引车的制造者来说记录实际设施的状态并为每一位客户建立新的数据集以适应各个环境是非常困难的。
因此,本领域需要改善自动导引车的系统,特别是需要一种能够在所述自动导引车送到客户的设施后,能够在真实世界的环境来执行训练的自动导引车系统。
发明内容
为了解决上述公知技术的缺点,本发明的主要目的在于提供一种自动导引车(automatic guided vehicle,AGV),所述自动导引车包含(一)一个移动底座,包含一个动力总成,用来在一个设施内以一种自主导航模式驱动所述自动导引车;(二)一个第一摄像头,用来采集所述设施内物体的第一影像数据;(三)一个第二摄像头,用来采集所述设施内物体的第二影像数据,其中所述第二摄像头包含一个内容滤镜;以及(四)一个主要控制模块,用来接收从所述第一摄像头与第二摄像头分别传送的第一影像数据与第二影像数据。所述主要控制模块另用来执行一个识别神经网络程序。所述神经网络程序用来辨识所述第一影像数据中的目标。所述主要控制模块也用来在使用者控制下执行一种监督程序。所述监督程序会接收所述第二影像数据并辨识第二影像数据中附着在目标上的标签。所述监督程序会生成一个监督结果,其中具有第一标签的第一目标会分类成第一类别,并所述监督程序会使用所述监督结果来调整所述识别神经网络程序中,至少一个节点的至少一个权重。
在一个实施例中,所述标签是由所述内容滤镜来识别。
在另一个实施例中,所述内容滤镜是一种用来辨识与一个标签有关联的独特颜色的彩色滤光片。
在另一个实施例中,所述内容滤镜用来辨识一种与一个标签有关联的独特图案。
在另一个实施例中,所述监督程序依照使用者输入的指令把具有所述第一标签的所述第一目标分类成所述第一类别,并以此生成一个监督结果。
在另一个实施例中,所述第一类别包含「人物识别」。
在另一个实施例中,所述第一类别包含「所跟随的目标」。
在另一个实施例中,所述监督程序以所述监督结果与相关的真实世界信息更新一种与所述识别神经网络程序有关联的默认数据集。
在一个实施例中,所述真实世界信息与所述第一影像数据与第二影像数据中的人物穿着有关联。
在另一个实施例中,所述真实世界信息与所述第一影像数据与第二影像数据中的所述设施的基础物理结构有关联。
本发明的另一主要目的在于提供一种训练自动导引车的方法,所述自动导引车包含一个具有一个动力总成并用来在一个设施内以一种自主导航模式驱动所述自动导引车的移动底座。所述方法包含:(一)用一个第一摄像头采集所述设施内物体的第一影像数据;(二)用一个第二摄像头采集所述设施内物体的第二影像数据,其中所述第二摄像头包含一个内容滤镜;(三)用一个主要控制模块来接收从所述第一摄像头与第二摄像头分别传送的第一影像数据与第二影像数据;(四)用所述主要控制模块并以储存在一个默认数据集中,预先标示的影像数据来执行一个识别神经网络程序,所述识别神经网络程序可以用所述预先标示的影像数据来操作并辨识所述第一影像数据中的目标;(五)在使用者控制下,用所述主要控制模块执行一种监督程序,所述监督程序用来接收所述第二影像数据并辨识第二影像数据中附着在目标的标签,所述监督程序并用来生成一个监督结果,其中具有第一标签的第一目标会分类成第一类别;以及(六)使用所述监督结果来调整所述识别神经网络程序中,至少一个节点的至少一个权重。
在说明本发明的具体实施方式前,本专利档中使用的某些单词和短语宜在此先行定义:所谓「包括」和「包含」及类似句词是指「包括但不限于」;所谓「或」是包含性的,表示「和/或」;所谓「与…关联」和「与之关联」及类似句词可能表示「包括、包含在其中、与之互连、包含、包含在其中、与之相连、与之耦合、可与之互通、与…有合作、交织、并置、邻近、受其约束或具有、具有某物的性质」等;所谓「控制器」是指任何可以控制至少一个动作的任何设备、系统或其一部分,这样的设备可以用硬件,固件或软件或它们中至少两个的某种组合来实现。值得注意的是,与任何特定控制器相关的功能可以是本地或远程的,可以是集中的或分布的。本专利档中提供了某些单词和短语的定义,而本领域中具有公知技术人员应当理解在很多或是大多数的情况下,这类定义也适用于先前以及后续情况下这样定义的单词和短语。
附图说明
为协助了解本发明以及其功效,请参考下列描述以及对应附图,其中相同的附图标记表示相同的部分。
图1为本发明实施例中,一台自动导引车的示意图。
图2为本发明实施例中,一个默认数据集中的影像与一个实时、真实世界环境的示意图。
图3为本发明实施例中,一个自动导引车系统的操作员或使用者控制屏幕的示意图。
图4为本发明实施例中,一个自动导引车系统的特定子系统的细部示意图。
图5为一种依据本发明的原理进行实时监督式学习的范例。
图6为本发明实施例中,一种实时监督式学习的流程图。
图7为一种依据本发明的原理以「人物识别」作为实时监督式学习的范例。
图8为一种依据本发明的原理以「人物跟随识别」作为实时监督式学习的范例。
图9为一种依据本发明的原理使用一个摄像头执行实时监督式学习的范例。
具体实施方式
以下有关图1到图9的叙述以及本专利档中用来描述本发明的原理的各个实施例仅供说明,并不用于限制本发明。本领域的技术人员应当理解本发明的原理可以借由任何合适的自动导引车系统来实现。
本公开描述一种自动导引车系统,其能够让所述自动导引车的神经网络程序在所述自动导引车进入一个与神经网络程序的默认数据集不一致的新的环境时,可以自我改善。这是借由一种更新所述默认数据集的实时监督程序所达成。所述自动导引车的使用者(或操作员)启动一个自动导引车的网络训练模式来执行监督式学习。这种监督过程依赖使用者选择的光学标签,并且所述光学标签可以借由所述自动导引车上训练过的计算器视觉摄像头所辨识,以更新特定功能(例如人物识别功能、人物跟随功能、自主导航功能、障碍物回避功能等等)。
所述自动导引车使用一个第一摄像头来提供视觉输入数据给一个所述自动导引车的识别神经网络以及一个具有光学滤镜的第二摄像头,以在监督式学习的过程中使用。所述第二摄像头能辨识所采集的影像中的光学标签(例如明亮的霓虹灯粉色或绿色贴纸)。这使得所述监督程序能够监督一种功能(例如人物识别功能)的结果,让所述识别神经网络的神经节点的权重可以根据监督结果而调整。如此一来,所述默认数据集就可以改善成为一个更新过的并且更匹配所述自动导引车所在的实时环境的数据集。
图1为本发明实施例中,自动导引车(AGV)100的示意图。自动导引车100包含自驾式的移动底座105与直立式控制台,其中包含控制台下部115与控制台上部116。控制台下部115包含扫码单元120与侧向摄像头145A与145B。控制台上部116包含触控屏125、主要摄像头140与无线通信单元130。在一个优选实施例中,主要摄像头140可能包含一组摄像头,包括摄像头140A与摄像头140B。摄像头140B可能包含一个用来训练所述识别神经网络的彩色滤光片,该识别神经网络协助控制自动导引车100的操纵。摄像头140A与140B面向前方,且侧向摄像头145A与145B分别面向自动导引车100的左方与右方。主要摄像头140A、140B与侧向摄像头145A、145B共同提供270度的视角。可选地,一个面向后方的摄像头(未绘制)可以加在控制台上部116或移动底座105的后方来提供360度的视角。
移动底座105包含多个护栏110,多个超音波传感器包含超音波传感器150A-150F,多个激光传感器包含激光雷达(LiDar)传感器160,主要控制单元170,机电模块175,驱动轮180与稳定轮185。护栏110位在移动底座105的上表面的周围。自动导引车100在一个仓库或其他设施中移动时,护栏110让因为移动而被推挤的库存物品不会从所述移动底座105的上表面滑下。
触控屏125用来显示信息并让所述使用者(或操作员)操控所述自动导引车100。触控屏125只是使用者接口的其中一种。或者,自动导引车100可以包含任何合适的使用者输入设备,提供指令、所述设施的地图、路线信息、库存物品信息、或库存物品平台等等。这有利于所述使用者越控所述自动导引车100的自动操控且以手动控制自动导引车100。这在网络训练模式中特别有用;在网络训练模式下,监督式学习可用来更新并改善所述自动导引车100的默认数据集,如下详述。
主要控制单元170控制所述自动导引车100的整体操作。主要控制单元170从超音波传感器150A-150F与激光雷达传感器160以及从面向前方的主要摄像头140A、140B与侧向摄像头145A、145B接收有关周围物体的距离信息。为了响应所接收到的距离信息,主要控制单元170会导引自动导引车100在其所处的工厂或仓库内行走。
移动底座105包含多个受主要控制单元170控制的驱动轮180与多个稳定轮185,用来移动、转向自动导引车100。在一范例实施例中,机动模块175包含一个或多个受主要控制模块170控制来旋转驱动轮185的电动机。机动模块175可能也包含一种抬升系统,用来调整所述移动底座105的高度,以将库存物品上货或卸货。
移动底座105可能包含两个驱动轮180与四个稳定轮185。稳定轮185可能是位于移动底座105的四个角落的脚轮。驱动轮180可能位于移动底座105下方,在前稳定轮185与后稳定轮185之间。各个驱动轮180借由主要控制模块175所控制的电动机来操作并以任何特定方向与可变速度旋转。举例来说,驱动轮180可能旋转并将自动导引车100向前、后、以及在地面上的X-Y平面上横向移动。驱动轮180可能被控制以不同速度与不同方向旋转来使自动导引车100转向或旋转。
依据本发明的原理,主要控制模块175可能包含一识别神经网络,所述识别神经网络可以分析由例如是摄像头140A、140B采集的视觉数据,并以所述视觉数据来执行特定功能,例如一种人物识别功能、一种人物跟随功能、一种自主导航功能、一种障碍物回避功能与现有自动导引车系统的其他例行性功能。
众所周知,一个神经网络包含多层计算节点,即所谓神经元,而不同层之间互相连接。一个神经网络会将数据转换,直到所述数据可以被神经网络归类为一种输出结果。各节点将一个初始值乘上一个权重,将所述输出结果与进入所述同一个节点的其他值相加,将结果数值以一个所述节点所选择的偏置(bias)进行调整,再用一种激励函数(activationfunction)将所述输出结果标准化。
一个神经网络采用一种反复式学习流程,其中纪录(行)是个别呈现给所述网络,且与输入值相关的所述权重会逐次调整。所述纪录呈现以后,所述流程通常会重复(或反复执行)。在此时的学习阶段中,所述神经网络借由调整所述权重来训练自己预测正确的输入样品的类别标签。一个神经网络的优点在于其对于噪声较多的数据具有高容忍度,并且对于尚未训练的图案(pattern)有能力来分类。最受欢迎的神经网络算法是倒传递算法。一旦一个神经网络已为了某特定应用构建完成,所述神经网络即完成训练。要开始所述流程,初始权重可以先随机选择,然后再开始训练或学习过程。
所述网络使用所述权重与位于神经节点的隐藏层的功能来逐一处理所述默认数据集(或训练集)里的所述纪录,再将输出结果与期望的输出结果比较。错误即借由所述神经网络反向传递,再以此调整所述权重并使用在下一个纪录。这样的流程会反复执行,修正所述节点的所述权重。在训练的过程中,同一组数据会因为连接权重持续不断的调整而经过多次处理。
图2为本发明实施例中,一个默认数据集中的影像与一个实时、真实世界环境的示意图。影像211表示默认数据集210中一个仓库的内部。影像212表示默认数据集210中的工作人员。影像221是一个被采集的影像,其中显示真实世界环境220中的实际仓库。影像222是一个被采集的影像,其中显示真实世界环境220中的实际工作人员。
影像221中的真实世界仓库与影像222中的真实世界工作人员与用来训练自动导引车100的所述识别神经网络的影像211中的默认仓库与影像212中的默认工作人员有明显不同。所以,自动导引车100的影像识别神经网络因为货架与储存架的结构种类不同而导致其无法辨识真实世界的货架与储存架,也因为服装或制服的不同而导致其无法辨识真实世界的工作人员。
图3为本发明实施例中,一个自动导引车系统的触控屏125上的操作员或使用者控制台的示意图。所述控制面板包含多个菜单选项,包括导航模式311、人物跟随模式312、手动控制模式313与网络训练模式314。借由选择网络训练模式314,所述自动导引车100的使用者可以开启一个监督程序,用来训练所述识别神经网络来辨识新的影像并且更新所述默认数据集来更贴近所述真实世界环境。
图4为本发明实施例中,一个自动导引车系统100的特定子系统的详述示意图。所述特定子系统包含,但不限于,主要控制模块170的一些元件与机动模块175的一些元件。数据总线499提供一种在触控屏125、摄像头145、处理器405、内存410、距离传感器420、接触传感器425、存储430、抬升系统440与动力总成435之间的通信途径。抬升系统440与动力总成435可以是机动模块175里的元件。处理器405、内存410与存储430可以是主要控制模块170里的元件。
内存410可能包含动态随机存取存储器(dynamic random access memory,DRAM)与静态随机存取存储器(static random access memory,SRAM)的组合。内存410包含数据集411、监督程序412与识别神经网络程序415。数据集411、监督程序412与识别神经网络程序415通常可能存放在存储430中,而存储430可能例如是闪存随机存储器(flash RAM)或光盘。处理器405在开机时把数据集411、监督程序412与识别神经网络程序415载入内存410。依照本发明的原理,处理器405执行神经网络程序413与监督程序412以在所述真实世界环境训练所述识别神经网络。
图5为本发明实施例中,一种依据本发明的原理进行实时监督式学习的范例。一个客户设施的真实世界环境的影像505包含各种物体(例如人物、货架、储存架、库存物品),而所述物体可能无法被神经网络程序413所辨识,例如穿戴特殊安全背心与安全帽的人物。举例来说,由所述默认数据集411所训练的神经网络程序413可能因为所述默认数据集411缺少穿戴背心与安全帽的工作人员的这些影像而无法辨别所述工作人员。
依据本发明的原理,此问题可以借由在所述影像505中的人物与安全帽上加上特殊光学标签,并使用监督程序412来训练所述神经网络程序413来辨识具有所述光学标签的人物来解决。举例来说,光学标签511,其可能包含一种特殊涂层或特殊颜色,可以贴到/附着在影像505中左侧的人的上衣。相似地,光学标签512、513可以贴到/附着在影像505中右侧的人的背心后方。
摄像头140A采集输入到神经网络程序413的影像。摄像头140B,其使用一种能够感测标签511-513的光学滤镜,采集输入到监督程序412的影像。所述具有光学滤镜的另一个摄像头是用来辨识目标(如人物、货架、库存物品等等)的特殊涂层以监督所述神经网络程序413的输出结果并更新所述神经网络程序413的节点的权重。所述自动导引车100的使用者或操作员可以用所述监督程序412来指定被标签511-513标示的目标为特定的类别,例如已辨识的人物、需跟随的人物、障碍物等等。
于是监督程序412便生成一个监督结果,其中被标签511-513标示的目标已被辨识成与特定类别有关联的物体。方块520,其可以是一个由监督程序412执行的处理步骤,将所述监督结果与由所述默认数据集411生成的神经网络程序413的「正常」输出结果比较。如图中从流程方块520的所述输出到神经网络程序413的所述节点的虚线所示,监督程序412依据所述比较与所述监督结果来调整神经网络程序413中各神经节点的所述权重。如此一来,神经网络程序413即可完成训练,而所述训练是由监督程序412用可以改善并更新默认数据集411的真实世界的影像来完成。
图6为本发明实施例中,一种实时监督式学习的流程图600。在步骤605中,所述自动导引车100的使用者把一个或多个视觉标签贴附在一个或多个特定目标上。在步骤610中,所述使用者从自动导引车100的触控屏125上启动网络训练模式。在步骤615中,所述使用者选择训练用的配置设定。举例来说,所述使用者可以选择训练目标的类别:(一)人物;(二)货架;(三)库存物品。所述使用者也可以选择需要辨识的视觉特征的类别,如一种特殊涂层、图案或其他光学标签。
在步骤620中,所述监督程序412执行所选择的训练方式且监督程序412生成监督结果。在步骤625中,所述神经网络的节点则依照所述监督结果以修正所述神经节点权重的方式来调整。接下来,在步骤630中,此流程可以在其他目标类别反复执行。如此一来,所述数据集411可以由对应所述真实世界环境中的人物、货架、库存物品等等的影像作为新辨识的目标来反复更新。
图7为本发明实施例中,一种依据本发明的原理以「人物识别」作为实时监督式学习的范例。如图7所示,假定神经网络程序413已被训练成只能识别穿着常服的人,如西装、休闲裤、正式衬衫、夹克、女装衬衫、裙子等等。进一步假定所述神经网络程序413尚没有训练为辨识有穿戴安全帽的人。
然而,影像705中,所述客户设施的真实世界环境有穿着常服的人(如中间的两人)与穿戴特殊安全背心与安全帽的人(如左侧方与右侧的人)。因此,使用所述默认数据集411来训练的所述神经网络程序413可能可以辨识影像705中的中间的两人,但无法辨识左右两侧穿戴安全帽与背心的工作人员,因为所述默认数据集411中缺少这些影像。
如同图5所示,这问题可以借由在影像705中的人物的服装与安全帽上增加特殊光学标签711-714来修正,并使用监督程序412来训练所述神经网络程序413来辨识具有所述光学标签711-714的人物。监督程序412会生成一个监督结果,其中用光学标签711-714标示的目标已被视为辨识成功的特定类别物体。方块720,其可以是一个由监督程序412执行的处理步骤,将所述监督结果与由所述默认数据集411生成的神经网络程序413的「正常」输出结果比较。如图中从流程方块720的所述输出到神经网络程序413的所述节点的虚线所示,监督程序412依据所述比较与所述监督结果来调整神经网络程序413中各神经节点的所述权重。如此一来,神经网络程序413由监督程序412通过真实世界影像改善并更新默认数据集411从而完成训练。
图8为本发明实施例中,一种依据本发明的原理以「人物跟随识别」作为实时监督式学习的范例。图8的影像805表示一个仓库内的所述真实世界环境。在此情况下,所希望的结果是自动导引车100能够跟随右侧穿戴一件夹克与一顶安全帽的人,而不是左侧穿戴一件背心与一顶安全帽的人。
如上所述,自动导引车100可以借由在影像805中右侧的人的服装与安全帽上加上特殊光学标签811-813,并使用监督程序412来训练所述神经网络程序413辨识具有所述光学标签811-813的人物来完成这项任务。监督程序412会生成一个监督结果,其中用光学标签811-813标示的目标已被视为辨识成功的物体,并且属于」所跟随的目标」的类别。方块820,其可以是一个由监督程序412执行的处理步骤,将所述监督结果与由所述默认数据集411生成的神经网络程序413的「正常」输出结果比较。如图中从流程方块820的所述输出到神经网络程序413的所述节点的虚线所示,监督程序412依据所述比较与所述监督结果来调整神经网络程序413中各神经节点的所述权重。如此一来,神经网络程序413即可完成训练,而所述训练是由监督程序412用可以改善并更新默认数据集411的真实世界的影像来完成。完成训练后,神经网络程序413就可以学习何种特征会是辨识所跟随的目标时必要的关键。若没有于此公开的训练方式,则神经网络程序413会容易误判而跟随错误的人。
图9为一种依据本发明的另一个实施例而仅使用一个摄像头执行实时监督式学习的范例。在图9中,彩色滤光片或类似的内容滤镜并没有用在一个第二摄像头上。相反地,所采集的影像是借由同一个摄像头140提供给神经网络程序413与监督程序412。然而,在此例中,二维条形码(QR code)标签911、912是附着在影像905中的目标上。监督程序412设定成用来识别二维条形码标签911、912,因此能够识别所述目标。另一方面,未经过训练的神经网络413设定成忽略二维条形码标签911、912并且用影像905的其余部分来完成辨识流程。
监督程序412会生成一个监督结果,其中用二维条形码标签911、912标示的目标已被视为辨识成功的物体,并且属于一个特定类别,例如「人物」或「所跟随的目标」的类别。方块920,其可以是一个由监督程序412执行的处理步骤,将所述监督结果与由所述默认数据集411生成的神经网络程序413的「正常」输出结果比较。如图中从流程方块920的所述输出到神经网络程序413的所述节点的虚线所示,监督程序412依据所述比较与所述监督结果来调整神经网络程序413中各神经节点的所述权重。
本发明所公开的方式与设备有利于让所述自动导引车100的摄像头提高辨识人物的能力以及更好分辨需要跟随何种人物(或其他目标)。所公开的方式与设备也能够让所述摄像头更好地识别和区分障碍物或人物。若人物阻挡了行进路线,自动导引车100更可能分辨出人物并以安全为由而减速或停止。所公开的方式与设备也能够让所述摄像头能够更好地辨识货架与货架上的标签,以让自动导引车100定位。
在上述的说明书中,所公开的系统与在一个现场环境做机器学习的方式是以一种仓库传送车辆作为范例来实现。然而,这种呈现方式仅供参考,并不用于限制本发明与权利要求。更广义而言,所述自动导引车可以是任一种使用视觉传感器的自主移动车辆或自驾的手推车、箱子、行李箱等等。举例来说,其他自动导引车100的实施例可包含机动自驾行李箱、机动自驾购物
车、机器割草机、无人飞行载具(unmanned aerial vehicles,UAVs)、无人水下航行器、无人车、自主堆高机、运输机器人等等。
虽然本发明已借由一个实施例的范例来描述,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种自动导引车,其特征在于,包含:
一个移动底座,包含一个动力总成,用来在一个设施内以一种自主导航模式驱动所述自动导引车;
一个摄像头,用来采集所述设施内物体的影像数据,其中所述摄像头包含一个内容滤镜;以及
一个主要控制模块,用来接收从所述摄像头传送的影像数据,其中所述主要控制模块另用来:
执行一个识别神经网络程序,用来辨识所述影像数据中的目标;
在使用者控制下执行一种用来训练所述识别神经网络程序的监督程序,所述监督程序会接收所述影像数据并辨识所述影像数据中附着于所述目标的所述光学标签,生成一个监督结果,其中所述光学标签是由所述摄像头的内容滤镜来识别,并且具有所述光学标签的所述目标会分类成第一类别;以及
使用所述监督结果来调整所述识别神经网络程序中至少一个节点的至少一个权重。
2.如权利要求1所述的自动导引车,其特征在于,所述内容滤镜是一种用来辨识与一个光学标签有关联的独特颜色的彩色滤光片。
3.如权利要求1所述的自动导引车,其特征在于,所述内容滤镜用来辨识一种与一个光学标签有关联的独特图案。
4.如权利要求1所述的自动导引车,其特征在于,所述监督程序依照使用者输入的指令把具有所述光学标签的所述目标分类成所述第一类别,并以此生成一个监督结果。
5.如权利要求4所述的自动导引车,其特征在于,所述第一类别包含人物识别。
6.一种训练自动导引车的方法,所述自动导引车包含一个具有一个动力总成并用来在一个设施内以一种自主导航模式驱动所述自动导引车的移动底座,所述方法的特征在于,包含:
用一个摄像头采集所述设施内物体的影像数据,其中所述摄像头包含一个内容滤镜;
用一个主要控制模块来接收从所述摄像头传送的影像数据;
用所述主要控制模块来执行一个识别神经网络程序,以辨识所述影像数据中的目标;
在使用者控制下,用所述主要控制模块执行一种用来训练所述识别神经网络程序的监督程序,所述监督程序用来接收所述影像数据并辨识所述影像数据中附着于所述目标的所述光学标签,并用来生成一个监督结果,其中所述光学标签是由所述摄像头的内容滤镜来识别,
并且具有所述光学标签的所述目标会分类成第一类别;以及
使用所述监督结果来调整所述识别神经网络程序中至少一个节点的至少一个权重。
7.如权利要求6所述的方法,其特征在于,所述内容滤镜是一种用来辨识与一个光学标签有关联的独特颜色的彩色滤光片。
8.如权利要求6所述的方法,其特征在于,所述内容滤镜用来辨识一种与一个光学标签有关联的独特图案。
9.如权利要求6所述的方法,其特征在于,所述监督程序依照使用者输入的指令把具有所述光学标签的所述目标分类成所述第一类别,并以此生成一个监督结果。
10.如权利要求9所述的方法,其特征在于,所述第一类别包含人物识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311196673.4A CN117234077A (zh) | 2018-11-15 | 2018-11-15 | 自动导引车和训练自动导引车的方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/115556 WO2020097837A1 (en) | 2018-11-15 | 2018-11-15 | System and method for real-time supervised machine learning in on-site environment |
CN201880038567.4A CN110945449B (zh) | 2018-11-15 | 2018-11-15 | 现场环境的实时监督式机器学习系统与方法 |
CN202311196673.4A CN117234077A (zh) | 2018-11-15 | 2018-11-15 | 自动导引车和训练自动导引车的方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880038567.4A Division CN110945449B (zh) | 2018-11-15 | 2018-11-15 | 现场环境的实时监督式机器学习系统与方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117234077A true CN117234077A (zh) | 2023-12-15 |
Family
ID=69905482
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311196673.4A Pending CN117234077A (zh) | 2018-11-15 | 2018-11-15 | 自动导引车和训练自动导引车的方法 |
CN201880038567.4A Active CN110945449B (zh) | 2018-11-15 | 2018-11-15 | 现场环境的实时监督式机器学习系统与方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880038567.4A Active CN110945449B (zh) | 2018-11-15 | 2018-11-15 | 现场环境的实时监督式机器学习系统与方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11092968B2 (zh) |
CN (2) | CN117234077A (zh) |
WO (1) | WO2020097837A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019191759A1 (en) * | 2018-03-30 | 2019-10-03 | Jabil Inc. | Apparatus, system, and method of providing a stabilizing drive system for a robotic vehicle |
CN117234077A (zh) * | 2018-11-15 | 2023-12-15 | 灵动科技(北京)有限公司 | 自动导引车和训练自动导引车的方法 |
US20200241542A1 (en) * | 2019-01-25 | 2020-07-30 | Bayerische Motoren Werke Aktiengesellschaft | Vehicle Equipped with Accelerated Actor-Critic Reinforcement Learning and Method for Accelerating Actor-Critic Reinforcement Learning |
CN111507276B (zh) * | 2020-04-20 | 2023-04-14 | 福建帝视信息科技有限公司 | 一种基于隐藏层增强特征的工地安全帽检测方法 |
CN116664582B (zh) * | 2023-08-02 | 2023-10-27 | 四川公路桥梁建设集团有限公司 | 一种基于神经视觉网络的路面检测方法及装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271514B (zh) * | 2007-03-21 | 2012-10-10 | 株式会社理光 | 一种快速目标检测和目标输出的图像检测方法及装置 |
TW200842733A (en) * | 2007-04-17 | 2008-11-01 | Univ Nat Chiao Tung | Object image detection method |
CN101800849A (zh) * | 2009-02-10 | 2010-08-11 | 林文垣 | 具射频识别标签读取功能的网络摄影机及监控系统 |
CN103164673B (zh) * | 2011-12-15 | 2015-12-16 | 英顺源(上海)科技有限公司 | 以无线射频辨识与影像辨识进行寻人的系统及其方法 |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
CN103473558A (zh) | 2013-09-04 | 2013-12-25 | 深圳先进技术研究院 | 基于神经网络的图像识别方法和系统 |
US9336483B1 (en) | 2015-04-03 | 2016-05-10 | Pearson Education, Inc. | Dynamically updated neural network structures for content distribution networks |
CN104754311A (zh) * | 2015-04-28 | 2015-07-01 | 刘凌霞 | 计算机视觉对物体进行识别的装置及其系统 |
US9443192B1 (en) * | 2015-08-30 | 2016-09-13 | Jasmin Cosic | Universal artificial intelligence engine for autonomous computing devices and software applications |
US9892344B1 (en) * | 2015-11-30 | 2018-02-13 | A9.Com, Inc. | Activation layers for deep learning networks |
US9665799B1 (en) * | 2016-01-29 | 2017-05-30 | Fotonation Limited | Convolutional neural network |
CN105678278A (zh) * | 2016-02-01 | 2016-06-15 | 国家电网公司 | 一种基于单隐层神经网络的场景识别方法 |
US9940544B2 (en) * | 2016-06-08 | 2018-04-10 | Adobe Systems Incorporated | Event image curation |
CN108009625B (zh) * | 2016-11-01 | 2020-11-06 | 赛灵思公司 | 人工神经网络定点化后的微调方法和装置 |
CN106647758A (zh) * | 2016-12-27 | 2017-05-10 | 深圳市盛世智能装备有限公司 | 一种目标物体检测方法、装置及自动引导车的跟随方法 |
CN108230291B (zh) | 2017-03-30 | 2020-09-29 | 北京市商汤科技开发有限公司 | 物体识别系统训练方法、物体识别方法、装置和电子设备 |
CN110914836A (zh) * | 2017-05-09 | 2020-03-24 | 纽拉拉股份有限公司 | 在跨联网计算边缘连续运行应用程序的人工智能和深度学习中实现连续的存储器有界学习的系统和方法 |
US10558864B2 (en) * | 2017-05-18 | 2020-02-11 | TuSimple | System and method for image localization based on semantic segmentation |
CN107330405A (zh) | 2017-06-30 | 2017-11-07 | 上海海事大学 | 基于卷积神经网络的遥感图像飞机目标识别方法 |
GB2570433A (en) * | 2017-09-25 | 2019-07-31 | Nissan Motor Mfg Uk Ltd | Machine vision system |
JP6571741B2 (ja) * | 2017-11-29 | 2019-09-04 | ファナック株式会社 | 作業者管理装置 |
US11941719B2 (en) * | 2018-01-23 | 2024-03-26 | Nvidia Corporation | Learning robotic tasks using one or more neural networks |
US10346659B1 (en) * | 2018-03-21 | 2019-07-09 | Amazon Technologies, Inc. | System for reading tags |
CN108399398A (zh) * | 2018-03-22 | 2018-08-14 | 武汉云衡智能科技有限公司 | 一种基于深度学习的无人驾驶汽车障碍物识别检测方法 |
CN108445882B (zh) * | 2018-03-26 | 2021-06-04 | 北京智山机器人科技有限责任公司 | 具有跟踪功能的自动导引车 |
US11966838B2 (en) * | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
CN117234077A (zh) * | 2018-11-15 | 2023-12-15 | 灵动科技(北京)有限公司 | 自动导引车和训练自动导引车的方法 |
-
2018
- 2018-11-15 CN CN202311196673.4A patent/CN117234077A/zh active Pending
- 2018-11-15 CN CN201880038567.4A patent/CN110945449B/zh active Active
- 2018-11-15 US US16/305,007 patent/US11092968B2/en active Active
- 2018-11-15 WO PCT/CN2018/115556 patent/WO2020097837A1/en active Application Filing
-
2021
- 2021-07-19 US US17/379,122 patent/US11682193B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11092968B2 (en) | 2021-08-17 |
WO2020097837A1 (en) | 2020-05-22 |
CN110945449A (zh) | 2020-03-31 |
US11682193B2 (en) | 2023-06-20 |
US20210389775A1 (en) | 2021-12-16 |
CN110945449B (zh) | 2023-10-17 |
US20210072763A1 (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110945449B (zh) | 现场环境的实时监督式机器学习系统与方法 | |
AU2019404207B2 (en) | Collaborative autonomous ground vehicle | |
EP3803734B1 (en) | Tracking vehicles in a warehouse environment | |
US11086328B2 (en) | Autonomous cart for manufacturing and warehouse applications | |
JP7341652B2 (ja) | 情報処理装置、情報処理方法、プログラム、およびシステム | |
Gandhi et al. | Learning to fly by crashing | |
EP3436880B1 (en) | Navigation using planned robot travel paths | |
Guérin et al. | Towards an autonomous warehouse inventory scheme | |
US11839983B2 (en) | Systems and methods for robotic grasp verification | |
Walter et al. | Closed-loop pallet manipulation in unstructured environments | |
Kalinov et al. | Warevr: Virtual reality interface for supervision of autonomous robotic system aimed at warehouse stocktaking | |
Dönmez et al. | Design of mobile robot control infrastructure based on decision trees and adaptive potential area methods | |
AU2020331567A1 (en) | Object moving system | |
US20230211987A1 (en) | Pathfinding using centerline heuristics for an autonomous mobile robot | |
CN112037259A (zh) | 动态目标的跟踪系统及方法 | |
Pooloo et al. | Design of an AMR Using Image Processing and Deep Learning for Monitoring Safety Aspects in Warehouse | |
KR102619118B1 (ko) | 작업자 선도형 스마트 이송 로봇 | |
Natarajan et al. | Vision-Guided Robot for Product Inspection | |
KR102701968B1 (ko) | 움직임 인식 기반의 자율 주행 로봇 제어 시스템 및 이를 이용한 자율 주행 로봇 제어 방법 | |
Göller et al. | Robust navigation system based on RFID transponder barriers for the interactive behavior‐operated shopping trolley (InBOT) | |
Lenz et al. | Autonomous Wall-building and Firefighting: Team NimbRo's UGV Solution for MBZIRC 2020. | |
US20240182283A1 (en) | Systems and methods for material flow automation | |
Lenz et al. | Team NimbRo's UGV Solution for Autonomous Wall Building and Fire Fighting at MBZIRC 2020 | |
Jones et al. | Tyro: A Mobile Inventory Pod for e-Commerce Services | |
US20240288864A1 (en) | Method and System for Drone Localization and Planning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |