CN115080053A - 一种面向监督学习应用的集群机器人控制方法 - Google Patents
一种面向监督学习应用的集群机器人控制方法 Download PDFInfo
- Publication number
- CN115080053A CN115080053A CN202210652820.3A CN202210652820A CN115080053A CN 115080053 A CN115080053 A CN 115080053A CN 202210652820 A CN202210652820 A CN 202210652820A CN 115080053 A CN115080053 A CN 115080053A
- Authority
- CN
- China
- Prior art keywords
- robot
- environment
- model
- upper computer
- desktop
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 41
- 238000004088 simulation Methods 0.000 claims abstract description 25
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000013135 deep learning Methods 0.000 claims abstract description 10
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000011160 research Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 5
- 238000011161 development Methods 0.000 abstract description 3
- 238000013508 migration Methods 0.000 abstract description 2
- 230000005012 migration Effects 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000512668 Eunectes Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种面向监督学习应用的集群机器人控制方法,首先在原有机器人系统的上位机软件C++环境中部署libtorch接口,并配置好调用libtorch所需的环境;其次,在深度学习框架PyTorch的Python仿真环境下离线训练控制桌面集群机器人的监督学习模型,将训练好的.pkl模型处理为可以被Torch Script编译器所理解的torch脚本,并保存为.pt后缀文件;最终在Python仿真环境中训练得到的控制网络通过libtorch接口导入上位机的C++环境中,实现对微型桌面机器人集群的控制。本发明结合了C++环境在工程开发领域和Python环境在深度学习领域上的优势,将仿真得到的桌面集群机器人控制网络迁移到实际场景中,能够大幅度减少在实际环境中的训练成本,对于后续智能算法在集群机器人平台上的迁移具有重要意义。
Description
技术领域
本发明涉及集群机器人控制方法,尤其涉及一种面向监督学习应用的集群机器人控制方法。
背景技术
微型桌面集群机器人是智能移动机器人的一种,是一个具有环境感知、动态决策与规划、行为控制与执行等多功能于一体的综合系统。开发桌面集群机器人系统可以验证研究人员所设计的集群自组织运动控制算法的有效性、可迁移性。
机器人上位机指可以直接发送机器人操作指令的计算机或单片机,提供用户操作交互界面并向用户展示反馈数据。微型桌面集群机器人的控制往往通过在指控端开发上位机软件系统来实现,并可以根据实验场景需求,采用不同的控制模式,如集中式控制,分布式控制等。本发明所涉及的伪分布式控制是一种介于集中式控制和分布式控制的控制模式,通过将桌面集群机器人的分布式算法部署到集中控制的上位机系统中,既可统一对集群机器人下达指控命令,又可验证分布式集群算法的有效性,适合在桌面集群机器人系统中使用。
当前微型桌面机器人系统存在控制下位机个数多,上位机集中计算耗时长,上下位机通信带宽低,单个下位机算力小等特点,使用伪分布式上位机系统验证集群算法时,需要耗费大量时间和精力对集群算法参数进行调整和对实验场景进行优化,并且在为方便工程实现所开发的上位机C++环境中,直接开展监督学习的成本过高,所以需要一种新的方式实现在C++环境中加载预训练完毕的监督学习模型,弥补当前微型桌面集群机器人控制方法的局限性。
发明内容
要解决的技术问题
本发明提供了一种将离线监督学习模型部署到桌面机器人伪分布式上位机系统的新控制方法,其目的在于将预训练完毕的监督学习控制模型加入原有上位机的C++环境中,实现对微型桌面机器人的集群控制,从而有效解决背景技术所提到的问题。
技术方案
一种面向监督学习应用的集群机器人控制方法,其特征在于步骤如下:
步骤1:在原有微型桌面集群机器人系统的上位机软件C++环境中部署libtorch接口,并配置好调用libtorch所需的环境;
所述的微型桌面集群机器人系统分为外部感知系统、上位机系统和下位机系统;外部感知系统的感知方式为摄像头提取一定时间间隔中的图片帧,之后将图片信息传输给上位机系统;上位机系统通过图像处理算法识别微型桌面机器人的ArUco码,获取机器人的标识符,在桌面坐标系下的二维位置坐标和在桌面坐标系下的航向信息,通过数据预处理后作为监督学习模型的输入信息;模型输出得到微型桌面机器人的指令信息,经处理后上位机将指令信息编码,通过2.4g无线传输芯片发送给下位机,下位机接收信息,解码,并执行集群机器人的移动指令;
所述的上位机软件是由一个跨平台C++框架Qt开发完成;
所述的libtorch是PyTorch机器学习框架的C++接口,libtorch接口能够将Python仿真环境训练得到的监督学习模型迁移到C++上位机的执行环境中;
步骤2:在深度学习框架PyTorch的Python仿真环境下离线训练控制桌面集群机器人的监督学习模型,将训练好的.pkl模型处理为可以被Torch Script编译器所理解的torch脚本,并保存为.pt后缀文件;
步骤3:在Python仿真环境中训练得到的控制网络通过libtorch接口导入上位机的C++环境中,实现对微型桌面机器人集群的控制;
所述的在Python仿真环境中训练模型的过程为:从真实的桌面机器人实验环境中收集充足的集群算法数据,对这些数据进行预处理,得到训练监督学习模型的输入数据,分为训练集和测试集后,在仿真环境中开展对监督学习模型的训练;
所述的桌面机器人集群控制方式为伪分布式,即上位机集中计算分布式指令,上位机软件加载的已训练好的监督学习模型将会根据外部感知系统的输入,给出下位机的运动指令,其中桌面机器人的运动执行方式为二轮差速运动,模型输出的运动指令需要由上位机封装的其他函数进行转译,之后上位机将会通过串口通信模块,根据上下位机之间的通信协议发送给下位机。
本发明进一步的技术方案:该步骤2所述的将.pkl模型处理为可以被TorchScript编译器所理解的torch脚本并保存为.pt模型的过程,采用的方法为tracing,这是一种记录模型结构的方法,通过使用示例输入对模型进行一次评估,并记录这些输入在模型中的传递过程,从而捕获训练好的模型结构。
本发明进一步的技术方案:该步骤2所述的PyTorch是2017年由Facebook人工智能研究院基于Torch推出的一个开源的机器学习库。
有益效果
本发明提出的一种面向监督学习应用的桌面集群机器人控制方法,首先需要在原有机器人系统的上位机软件C++环境中部署libtorch接口,并配置好调用libtorch所需的环境;其次,在深度学习框架PyTorch的Python仿真环境下离线训练控制桌面集群机器人的监督学习模型,将训练好的.pkl模型处理为可以被Torch Script编译器所理解的torch脚本,并保存为.pt后缀文件;最终在Python仿真环境中训练得到的控制网络通过libtorch接口导入上位机的C++环境中,实现对微型桌面机器人集群的控制。本发明结合了C++环境在工程开发领域和Python环境在深度学习领域上的优势,将仿真得到的桌面集群机器人控制网络迁移到实际场景中,能够大幅度减少在实际环境中的训练成本,对于后续智能算法在集群机器人平台上的迁移具有重要意义。与现有技术相比,其优点在于:
第一、结合了C++环境在工程开发领域和Python环境在深度学习领域上的优势。对比使用深度学习框架Pytorch的C++接口直接在实际场景中训练,在Python仿真环境中训练能够提升算法的训练效率。同时,在C++环境执行机器人控制策略能够弥补Python环境下程序执行效率不足的问题。
第二、将仿真得到的桌面集群机器人控制网络迁移到实际场景中,能够大幅度减少在实际环境中的训练成本。
第三、本发明所使用的libtorch是一款成熟的C++接口,已经过多次版本更新和迭代,使用该接口,软件开发和维护成本低,代码鲁棒性好。
附图说明
附图仅用于示出具体实施例的目的,而并不认为是对本发明的限制,在整个附图中,相同的参考符号表示相同的部件。
图1是监督学习模型训练并部署的流程图;
图2是监督学习模型的输入输出框图;
图3是本发明实例上位机控制流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,将python仿真环境中训练的监督学习模型加载进C++环境中,需要在上位机所在的C++环境中配制好加载libtorch所需的环境,在python环境中训练监督学习模型并最终保存为.pt后缀的文件。包括如下3个步骤:
步骤1:在原有机器人系统的上位机软件C++环境中部署libtorch接口,并配置好调用libtorch所需的环境。
所述的微型桌面集群机器人系统分为外部感知系统,上位机系统和下位机系统。外部感知系统的感知方式为摄像头提取一定时间间隔中的图片帧,之后将图片信息传输给上位机系统,上位机系统通过图像处理算法识别微型桌面机器人的ArUco码,获取机器人的标识符,在桌面坐标系下的二维位置坐标和在桌面坐标系下的航向等信息,通过数据预处理后作为监督学习模型的输入信息。模型输出得到微型桌面机器人的指令信息,经处理后上位机将指令信息编码,通过2.4g无线传输芯片发送给下位机,下位机接收信息,解码,并执行集群机器人的移动指令。
所述的上位机软件是由一个跨平台C++框架Qt开发完成,Qt除了支持界面设计(GUI编程),还封装了与网络编程、多线程、数据库连接、视频音频等相关的功能。通过在QT框架下编程,此上位机系统实现了人机交互,图像处理,算法解算,信息编码,在线轨迹显示,串口信息发送等功能。
所述的libtorch是PyTorch机器学习框架的C++接口,可以在C++环境中开展机器学习训练和推理所需的工具扩展。在本发明中,libtorch接口能够将Python仿真环境训练得到的监督学习模型迁移到C++上位机的执行环境中。
步骤2:在深度学习框架PyTorch的Python仿真环境下离线训练控制桌面集群机器人的监督学习模型,将训练好的.pkl模型处理为可以被Torch Script编译器所理解的torch脚本,并保存为.pt后缀文件。
所述的PyTorch是2017年由Facebook人工智能研究院(FAIR)基于Torch推出的一个开源的机器学习库,在Python环境中被广泛使用,同时推出了C++、Java等主流语言的机器学习接口。
作为本发明的一种优选技术方案,该步骤所述的将.pkl模型处理为可以被TorchScript编译器所理解的torch脚本并保存为.pt模型的过程,采用的方法为tracing,这是一种记录模型结构的方法,通过使用示例输入对模型进行一次评估,并记录这些输入在模型中的传递过程,从而捕获训练好的模型结构。
步骤3:在Python仿真环境中训练得到的控制网络通过libtorch接口导入上位机的C++环境中,实现对微型桌面机器人集群的控制。
所述的在Python仿真环境中训练模型的过程为:从真实的桌面机器人实验环境中收集充足的集群算法数据,对这些数据进行预处理,得到训练监督学习模型的输入数据,分为训练集和测试集后,在仿真环境中开展对监督学习模型的训练。
所述的桌面机器人集群控制方式为伪分布式,即上位机集中计算分布式指令,在本发明中,上位机软件加载的已训练好的监督学习模型将会根据外部感知系统的输入,给出下位机的运动指令,其中桌面机器人的运动执行方式为二轮差速运动,模型输出的运动指令需要由上位机封装的其他函数进行转译,之后上位机将会通过串口通信模块,根据上下位机之间的通信协议发送给下位机。
本实例步骤S1至步骤S3为在上位机软件的C++中配置使用libtorch所需环境的过程。
步骤S1、如101,登录Pytorch官方网站下载与训练监督学习模型所用的版本所匹配的发行版压缩包,本发明实例使用的Pytorch和libtorch版本均为1.9.0。
步骤S2、如102,在上位机所在的指控端配置libtorch的静态库(.lib)和动态库(.dll)的环境变量,本发明实例上位机指控端为PC机,操作系统为Windows。将上一步骤下载的libtorch压缩包解压,保存在合适的根目录下,其中包含多个文件夹,如include,lib,cmake,bin等,lib文件夹中包含有调用libtorch所需的动态库和静态库,需要在环境变量中加入lib文件夹路径,本步骤具体操作为鼠标右键点击PC机桌面上我的电脑图标,点击属性,打开控制面板属性,点击高级系统设置,选择系统属性面板中的环境变量,编辑系统变量中的Path,将根目录下lib文件夹路径新增进Path中。
步骤S3、如103,编写本实例所用的上位机QT版本为DeskTop QT 5.12.0,打开未编译的上位机工程,点击工程中的.pro文件,载入放置libtorch文件夹的路径,在加载监督学习的.cpp文件中,加入#include<torch/torch.h>头文件,后续可通过libtroch中的torch::jit::load函数加载已训练好的神经网络模型。
本实例步骤S4至步骤S6为在仿真Python环境中进行模型训练的过程。
步骤S4、如104,利用Pytorch,以及在机器人系统中收集到的实验数据,对控制模型进行离线训练,模型训练所需的输入输出如图2所示。本实例中,为了方便模型训练,通过Anaconda在根目录下创建一个名为pytorch的虚拟环境,并安装numpy等相关科学包及其依赖项,之后可进行监督学习模型训练。
在所述步骤中,在模型训练前,需在真实的桌面集群机器人系统中收集充足的实验数据,例如在一个连续的算法过程中,收集所有机器人的身份信息(id),桌面坐标系下的二维坐标(x,y),桌面坐标系下机器人航向(heading)等信息,并对这些信息进行预处理,本实例所述步骤以经典集群Couzin算法为例,需要将上述提到的机器人信息转变为相对位置,从而计算得出某个体的邻居数量,邻居所处的相对位置等输入信息,之后将数据分为测试集和训练集,并对输入信息打上标签,开展对模型的训练,训练所需的输入输出如图2所示。
步骤S5、如105,将Pytorch训练好的模型转换为Torch Script脚本,本实例这一过程使用的是tracing的方式,这是一种记录模型结构的方法,通过使用示例输入对模型进行一次评估,并记录这些输入在模型中的传递过程,从而捕获训练好的模型结构。具体方法是将模型实例和一个示例传给torch.jit.trace函数,生成torch.jit.ScriptModule对象。
步骤S6、如106,通过torch的save方法将上述步骤生成的对象保存为后缀名为.pt的模型,该模型便可供libtorch所调用。
至此,便可将在仿真环境中使用监督学习算法训练完毕的模型加载进原有上位机,最后编译程序,生成可执行文件,对微型桌面集群机器人进行控制。
本实例步骤S7至S11为加载监督学习模型的上位机对微型桌面集群机器人的控制流程,图3呈现了这一流程。
步骤S7、如子流程301,本实例中,机器人外部感知系统采用的相机型号为海康威视工业相机MV-CE200-10UC,上位机中封装有海康威视相机SDK动态链接库,上位机可以通过函数openCam()从视频流中获取图片帧。
步骤S8、如子流程302,上位机中封装有caculateHeading(),caculatePos()图像处理函数,并在工程环境中封装有OpenCV库,通过对图片帧中桌面机器人的ArUco码处理,可解算得出个体机器人的id,在二维桌面坐标系下的位置信息(x,y)和航向,并存入个体信息结构体数组,方便后续调用。
步骤S9、如子流程303,在本实例中,在上一流程获取的信息并不能直接输入监督模型,需要与训练监督模型输入相匹配,ProcessingInput()函数用来处理上一流程的信息,将其转变为监督模型的输入信息,随后输入监督学习模型,算法输出下位机运动指令。
步骤S10、如子流程304,由于本实例所用到的微型桌面机器人运动执行方式为二轮差速,监督学习模型输出得到的运动指令如“左转5度”“右转15度”等无法直接发送给下位机执行,需要根据机器人运动学模型将其转译为左右轮速度后,再进行通信编码,wheelVelocity()函数将把监督模型输出的运动指令转译为左右轮速度,getSend_data()函数会按照上下位机通信协议,将转译后的左右轮速度进行通信编码,得到一帧指令通信数据。
步骤S11、如子流程305,sendOne_frame()函数将会调用QT通信串口模块,将一帧指令数据通过nRF24L01通信芯片发送给下位机,下位机收到指令,解码,执行。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明公开的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
Claims (3)
1.一种面向监督学习应用的集群机器人控制方法,其特征在于步骤如下:
步骤1:在原有微型桌面集群机器人系统的上位机软件C++环境中部署libtorch接口,并配置好调用libtorch所需的环境;
所述的微型桌面集群机器人系统分为外部感知系统、上位机系统和下位机系统;外部感知系统的感知方式为摄像头提取一定时间间隔中的图片帧,之后将图片信息传输给上位机系统;上位机系统通过图像处理算法识别微型桌面机器人的ArUco码,获取机器人的标识符,在桌面坐标系下的二维位置坐标和在桌面坐标系下的航向信息,通过数据预处理后作为监督学习模型的输入信息;模型输出得到微型桌面机器人的指令信息,经处理后上位机将指令信息编码,通过2.4g无线传输芯片发送给下位机,下位机接收信息,解码,并执行集群机器人的移动指令;
所述的上位机软件是由一个跨平台C++框架Qt开发完成;
所述的libtorch是PyTorch机器学习框架的C++接口,libtorch接口能够将Python仿真环境训练得到的监督学习模型迁移到C++上位机的执行环境中;
步骤2:在深度学习框架PyTorch的Python仿真环境下离线训练控制桌面集群机器人的监督学习模型,将训练好的.pkl模型处理为可以被Torch Script编译器所理解的torch脚本,并保存为.pt后缀文件;
步骤3:在Python仿真环境中训练得到的控制网络通过libtorch接口导入上位机的C++环境中,实现对微型桌面机器人集群的控制;
所述的在Python仿真环境中训练模型的过程为:从真实的桌面机器人实验环境中收集充足的集群算法数据,对这些数据进行预处理,得到训练监督学习模型的输入数据,分为训练集和测试集后,在仿真环境中开展对监督学习模型的训练;
所述的桌面机器人集群控制方式为伪分布式,即上位机集中计算分布式指令,上位机软件加载的已训练好的监督学习模型将会根据外部感知系统的输入,给出下位机的运动指令,其中桌面机器人的运动执行方式为二轮差速运动,模型输出的运动指令需要由上位机封装的其他函数进行转译,之后上位机将会通过串口通信模块,根据上下位机之间的通信协议发送给下位机。
2.根据权利要求1所述一种面向监督学习应用的集群机器人控制方法,其特征在于:该步骤2所述的将.pkl模型处理为可以被Torch Script编译器所理解的torch脚本并保存为.pt模型的过程,采用的方法为tracing,这是一种记录模型结构的方法,通过使用示例输入对模型进行一次评估,并记录这些输入在模型中的传递过程,从而捕获训练好的模型结构。
3.根据权利要求1所述一种面向监督学习应用的集群机器人控制方法,其特征在于:该步骤2所述的PyTorch是2017年由Facebook人工智能研究院基于Torch推出的一个开源的机器学习库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210652820.3A CN115080053B (zh) | 2022-06-10 | 2022-06-10 | 一种面向监督学习应用的集群机器人控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210652820.3A CN115080053B (zh) | 2022-06-10 | 2022-06-10 | 一种面向监督学习应用的集群机器人控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115080053A true CN115080053A (zh) | 2022-09-20 |
CN115080053B CN115080053B (zh) | 2024-02-27 |
Family
ID=83252199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210652820.3A Active CN115080053B (zh) | 2022-06-10 | 2022-06-10 | 一种面向监督学习应用的集群机器人控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115080053B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3786783A1 (fr) * | 2019-08-30 | 2021-03-03 | Bull SAS | Systeme d'aide a la conception d'application d'intelligence artificielle, executable sur des plates-formes informatiques distribuees |
CN113705102A (zh) * | 2021-08-31 | 2021-11-26 | 湖南苍树航天科技有限公司 | 海空集群对抗的推演仿真系统及方法、设备、存储介质 |
US11335056B1 (en) * | 2020-11-30 | 2022-05-17 | Nvidia Corporation | Real-time rendering with implicit shapes |
-
2022
- 2022-06-10 CN CN202210652820.3A patent/CN115080053B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3786783A1 (fr) * | 2019-08-30 | 2021-03-03 | Bull SAS | Systeme d'aide a la conception d'application d'intelligence artificielle, executable sur des plates-formes informatiques distribuees |
US11335056B1 (en) * | 2020-11-30 | 2022-05-17 | Nvidia Corporation | Real-time rendering with implicit shapes |
CN113705102A (zh) * | 2021-08-31 | 2021-11-26 | 湖南苍树航天科技有限公司 | 海空集群对抗的推演仿真系统及方法、设备、存储介质 |
Non-Patent Citations (1)
Title |
---|
叶伟杰;高军礼;蒋丰;郭靖;: "一种提升机器人强化学习开发效率的训练模式研究", 广东工业大学学报, no. 05, 15 September 2020 (2020-09-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN115080053B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Artificial intelligence in product lifecycle management | |
US20220066409A1 (en) | Method and system for generating an artificial intelligence model | |
Pereira et al. | DINASORE: A Dynamic Intelligent Reconfiguration Tool for Cyber-Physical Production Systems. | |
Li et al. | The modified firefly algorithm considering fireflies’ visual range and its application in assembly sequences planning | |
CN112099882B (zh) | 一种业务处理方法、装置及设备 | |
CN112099848A (zh) | 一种业务处理方法、装置及设备 | |
Shu et al. | Architecture for task-dependent human-robot collaboration | |
CN115080053B (zh) | 一种面向监督学习应用的集群机器人控制方法 | |
Øvern | Industry 4.0-Digital twins and OPC UA | |
CN106970543B (zh) | 一种协作机器人控制系统及方法 | |
Gao et al. | Development of an automated system for the soldering of USB cables | |
Jin et al. | Achieving batch-size-of-one production model in robot flexible assembly cells | |
Yun et al. | Digital twin model construction of robot and multi-object under stacking environment for grasping planning | |
CN114217807B (zh) | 一种基于异构众核架构的直接内存访问编译优化方法 | |
CN117733832A (zh) | 一种基于PLCopen标准的模型化机器人控制实现方法 | |
CN109834713B (zh) | 仿人脑机器人控制中枢及仿人脑行走机器人控制中枢 | |
CN108804098A (zh) | 一种点击拖动式编程控制方法及其软件系统 | |
Yuan et al. | Improving world models for robot arm grasping with backward dynamics prediction | |
CN110989995A (zh) | 基于开源深度学习框架的人工智能应用的处理方法及系统 | |
Vidakovic et al. | Design of augmented reality-based Android app for simulation and programming of industrial robots | |
Banjanovic-Mehmedovic et al. | Object Classification in an Intelligent Robotic Cell Using Deep Learning | |
Nagrath et al. | Agent relation charts (ARCs) for modeling cloud based transactions | |
Chien et al. | A Smart Simulation System for Manufacturing | |
EP4303723A1 (en) | System and computer-implemented method for upgrading and/or updating at least one service of a plurality of services | |
Dong et al. | Transfer Learning-Based Intention Recognition of Human Upper Limb in Human-Robot Collaboration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |