CN116766214A - 一种抹光机器人的运动控制方法、系统及抹光机器人 - Google Patents
一种抹光机器人的运动控制方法、系统及抹光机器人 Download PDFInfo
- Publication number
- CN116766214A CN116766214A CN202210216646.8A CN202210216646A CN116766214A CN 116766214 A CN116766214 A CN 116766214A CN 202210216646 A CN202210216646 A CN 202210216646A CN 116766214 A CN116766214 A CN 116766214A
- Authority
- CN
- China
- Prior art keywords
- information
- trowelling
- robot
- trowelling robot
- parameter information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000033001 locomotion Effects 0.000 title claims abstract description 57
- 230000007246 mechanism Effects 0.000 claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 230000007613 environmental effect Effects 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 29
- 230000008859 change Effects 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000010276 construction Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 206010063385 Intellectualisation Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000002002 slurry Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- E—FIXED CONSTRUCTIONS
- E04—BUILDING
- E04F—FINISHING WORK ON BUILDINGS, e.g. STAIRS, FLOORS
- E04F21/00—Implements for finishing work on buildings
- E04F21/20—Implements for finishing work on buildings for laying flooring
- E04F21/24—Implements for finishing work on buildings for laying flooring of masses made in situ, e.g. smoothing tools
-
- E—FIXED CONSTRUCTIONS
- E04—BUILDING
- E04G—SCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
- E04G21/00—Preparing, conveying, or working-up building materials or building elements in situ; Other devices or measures for constructional work
- E04G21/02—Conveying or working-up concrete or similar masses able to be heaped or cast
- E04G21/10—Devices for levelling, e.g. templates or boards
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Architecture (AREA)
- Automation & Control Theory (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本申请实施例提供一种抹光机器人的运动控制方法、系统及抹光机器人,涉及机器人控制技术领域。该抹光机器人的运动控制方法包括:获取所述抹光机器人的动力学参数信息和电机负载率信息;获取所述抹光机器人所在位置的环境信息;将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息;将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息;根据所述倾角调整信息控制所述抹光机器人的抹盘机构。该抹光机器人的运动控制方法可以实现提高抹光机器人移动控制的精确性和平滑性的技术效果。
Description
技术领域
本申请涉及机器人控制技术领域,具体而言,涉及一种抹光机器人的运动控制方法、系统、及抹光机器人、电子设备及计算机可读存储介质。
背景技术
抹光机器人的作用是在混凝土初凝后、终凝前对混凝土表面进行收光。经过机器人抹光的混凝土表面较人工施工的表面更光滑、更平整,能极大提高混凝土表面的密实性及耐磨性,并在功效上较人工作业提高工作效率5倍以上。地面抹光机器人可广泛用于高标准厂房、仓库、停车场、广场、机场以及框架式楼房的混凝土表面的提浆、抹平、抹光。
现有技术中,市场上的抹光机器人一般分为手持式和乘骑式两种半自动装置,持式和乘骑式抹光机器人均是通过具备旋转动力的螺旋桨式的抹子对地面抹压、收光。抹光机器人在对地面进行施工时,地面环境不断变化,其控制系统是一个非线性时变系统,很难对其位置、姿态、速度等进行精准的自动化控制,抗干扰能力差,鲁棒性差。目前手持式抹光机器人依赖人工操作手柄引导装置的移动,而乘骑式抹光机器人依赖人工操作操纵杆引导装置的移动,二者均不能摆脱需要人工作业的限制,且施工效率低。
发明内容
本申请实施例的目的在于提供一种抹光机器人的运动控制方法、系统、抹光机器人、电子设备及计算机可读存储介质,可以实现提高抹光机器人移动控制的精确性和平滑性的技术效果。
第一方面,本申请实施例提供了一种抹光机器人的运动控制方法,包括:
获取所述抹光机器人的动力学参数信息和电机负载率信息;
获取所述抹光机器人所在位置的环境信息;
将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息;
将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息;
根据所述倾角调整信息控制所述抹光机器人的抹盘机构。
在上述实现过程中,该抹光机器人的运动控制方法通过模型预测控制器,实现基于模型预测控制;该运动控制方法以抹光机器人的模型预测控制器作为基础,将抹光机器人的机身状态(电机负载率信息、动力学参数信息)和地面环境参数信息作为反馈输入,从而对抹光机器的状态和倾角输出量进行预测和综合优化,以此计算得到当前最优的倾角调节信息,使得抹光机器人在不同地面环境上可以实现精准、柔顺的运动控制;从而,该抹光机器人的运动控制方法可以实现提高抹光机器人移动控制的精确性和平滑性的技术效果。
进一步地,所述抹光机器人包括定位器、惯性测量单元和视觉传感器,所述获取所述抹光机器人的动力学参数信息和电机负载率信息的步骤,包括:
获取所述抹光机器人的电机负载率信息;
获取定位器数据、惯性测量单元数据和视觉传感器数据;
将所述定位器数据、所述惯性测量单元数据和所述视觉传感器数据进行传感融合,获得所述动力学参数信息,所述动力学参数信息包括位置信息、速度信息、姿态角信息、角速度信息。
在上述实现过程中,通过在抹光机器人上安装定位器、惯性测量单元与视觉传感器,感知机身的位置、姿态、速度和地面信息等状态,从而提供高鲁棒性的多传感融合-运动状态感知方案。
进一步地,所述环境信息包括地面干湿程度信息,所述将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息的步骤,包括:
根据所述电机负载率信息获得电机负载变化率信息;
将所述电机负载率信息、所述电机负载变化率信息和所述地面干湿程度信息输入至预设神经网络,获得地面环境参数信息。
在上述实现过程中,电机负载变化率信息可以通过电机负载率信息计算获得;基于预设神经网络,通过大量的地面环境标注(地面干湿程度信息)和电机负载率信息的采集,输入预设神经网络进行训练获取地面环境摩擦力系数与电机负载率、干湿程度之间的非线性关系,获得相应的地面环境参数信息,实现对地面环境摩擦力系数的精确感知。
进一步地,所述将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息的步骤,包括:
获取动力学参数设定数据;
根据所述动力学参数设定数据、所述动力学参数信息、所述地面环境参数信息输入至模型预测控制器,修正并生成线性化动力学预测模型;
根据所述线性化动力学预测模型,生成控制器的目标函数;
对所述目标函数进行求解并获得所述倾角调整信息。
在上述实现过程中,将动力学参数设定数据、动力学参数信息、地面环境参数信息输入至模型预测控制器,其中地面环境参数信息作为修正参数,最终生成控制器的目标函数;该目标函数以预设动力学模型、地面环境参数信息为基础,以当前时刻及未来一段时期的机器状态和输出作为优化核心,同时可以兼顾到抹盘机构倾角的最大调节量以及响应时间,可以实现抹光机器人的精准施工和施工智能化,提高抹光机器人的作业效率。
进一步地,所述根据所述动力学参数设定数据、所述动力学参数信息、所述地面环境参数信息输入至模型预测控制器,修正并生成线性化动力学预测模型的步骤中,所述线性化动力学预测模型包括线性化动力学公式,所述线性化动力学公式为:
其中,X为所述动力学参数设定数据和所述动力学参数信息的差值矩阵,U为所述抹盘机构的倾角信息,A为第一系数矩阵,B为第二系数矩阵,所述第一系数矩阵矩阵和所述第二系数矩阵由所述抹光机器人的机械结构和所述地面环境参数信息确定。
进一步地,所述根据所述线性化动力学预测模型,生成控制器的目标函数的步骤中,所述目标函数为:
其中,为当前时刻至未来控制域时刻所述抹光机器人的输出变化量组成的一维矩阵,H为第三系数矩阵,p为第四系数矩阵。
进一步地,所述根据所述倾角调整信息控制所述抹光机器人的抹盘机构的步骤,包括:
获取所述抹光机器人的当前位置参数信息;
根据所述当前位置参数信息和所述倾角调整信息控制所述抹光机器人的抹盘机构。
第二方面,本申请实施例提供了一种抹光机器人的运动控制系统,包括:
第一获取模块,用于获取所述抹光机器人的动力学参数信息和电机负载率信息;
第二获取模块,用于获取所述抹光机器人所在位置的环境信息;
地面环境参数模块,用于将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息;
倾角调整信息模块,用于将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息;
控制模块,用于根据所述倾角调整信息控制所述抹光机器人的抹盘机构。
进一步地,所述抹光机器人包括定位器、惯性测量单元和视觉传感器,所述第一获取模块包括:
第一获取单元,用于获取所述抹光机器人的电机负载率信息;
第二获取单元,用于获取定位器数据、惯性测量单元数据和视觉传感器数据;
融合单元,用于将所述定位器数据、所述惯性测量单元数据和所述视觉传感器数据进行传感融合,获得所述动力学参数信息,所述动力学参数信息包括位置信息、速度信息、姿态角信息、角速度信息。
进一步地,所述环境信息包括地面干湿程度信息,所述地面环境参数模块包括:
电机负载变化率单元,用于根据所述电机负载率信息获得电机负载变化率信息;
地面环境参数单元,用于将所述电机负载率信息、所述电机负载变化率信息和所述地面干湿程度信息输入至预设神经网络,获得地面环境参数信息。
进一步地,所述倾角调整信息模块包括:
设定数据获取单元,用于获取动力学参数设定数据;
线性化动力学单元,用于根据所述动力学参数设定数据、所述动力学参数信息、所述地面环境参数信息输入至模型预测控制器,修正并生成线性化动力学预测模型;
目标函数单元,用于根据所述线性化动力学预测模型,生成控制器的目标函数;
倾角调整信息单元,用于对所述目标函数进行求解并获得所述倾角调整信息。
进一步地,所述控制模块包括:
当前位置参数单元,用于获取所述抹光机器人的当前位置参数信息;
控制单元,用于根据所述当前位置参数信息和所述倾角调整信息控制所述抹光机器人的抹盘机构。
第三方面,本申请实施例提供的抹光机器人,所述抹光机器人的运动执行第一方面任一项所述的抹光机器人的运动控制方法。
第四方面,本申请实施例提供的一种电子设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任一项所述的方法的步骤。
第五方面,本申请实施例提供的一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如第一方面任一项所述的方法。
第六方面,本申请实施例提供的一种计算机程序产品,所述计算机程序产品在计算机上运行时,使得计算机执行如第一方面任一项所述的方法。
本申请公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本申请公开的上述技术即可得知。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种抹光机器人的运动控制方法的流程示意图;
图2为本申请实施例提供的另一种抹光机器人的运动控制方法的流程示意图;
图3为本申请实施例提供的抹光机器人的结构示意图;
图4为本申请实施例提供的抹光机器人的另一视角下的结构示意图;
图5为本申请实施例提供的抹光机器人的运动控制系统的结构框图;
图6为本申请实施例提供的一种电子设备的结构框图。
图标:101-定位器;102-第一抹盘机构;103-第二抹盘机构;104-抹盘倾角控制机构;105-视觉传感器;106-抹盘倾角轴;107-倾角轴调整电机;110-第一获取模块;120-第二获取模块;200-地面环境参数模块;300-倾角调整信息模块;400-控制模块;510-处理器;520-通信接口;530-存储器;540-通信总线。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
本申请实施例提供了一种抹光机器人的运动控制方法、系统、电子设备及计算机可读存储介质,可以应用于抹光机器人的抹光作业过程中;该抹光机器人的运动控制方法通过模型预测控制器,实现基于模型预测控制;该运动控制方法以抹光机器人的模型预测控制器作为基础,将抹光机器人的机身状态(电机负载率信息、动力学参数信息)和地面环境参数信息作为反馈输入,从而对抹光机器的状态和倾角输出量进行预测和综合优化,以此计算得到当前最优的倾角调节信息,使得抹光机器人在不同地面环境上可以实现精准、柔顺的运动控制;从而,该抹光机器人的运动控制方法可以实现提高抹光机器人移动控制的精确性和平滑性的技术效果。
请参见图1,图1为本申请实施例提供的一种抹光机器人的运动控制方法的流程示意图,该抹光机器人的运动控制方法包括如下步骤:
S110:获取抹光机器人的动力学参数信息和电机负载率信息。
S120:获取抹光机器人所在位置的环境信息;
示例性地,电机负载率信息即抹光机器人的主轴的电机负载率,可以在一定程度上可以反映地面摩擦力;环境信息包括地面干湿程度信息,地面干湿程度信息可以有安装在抹光机器人上的视觉传感器获得。
示例性地,动力学参数信息包括抹光机器人的位置、姿态、速度、角速度等信息。
S200:将电机负载率信息和环境信息输入至预设神经网络,获得地面环境参数信息。
示例性地,地面环境参数信息包括地面环境摩擦力系数;通过将电机负载率信息和地面干湿程度信息输入预设神经网络,实现对预设神经网络的大量数据训练,实现根据当前电机负载(电机负载率信息)、干湿程度(地面干湿程度信息)对地面环境摩擦力系数进行精准估计,并把估计信息提供给模型预测控制器,实现对动力学模型的修正。
示例性地,模型预测控制器的内容包括输入动力学参数和地面信息,以及获得和修正动力学模型,随后在预设控制域和控制域下根据目标函数求解倾角调整信息,即本申请实施例使用了模型预测控制器来求解最优倾角。
S300:将动力学参数信息和地面环境参数信息输入至模型预测控制器,获得倾角调整信息。
S400:根据倾角调整信息控制抹光机器人的抹盘机构。
示例性地,模型预测控制器以动力学建模为基础,在神经网络的辅助下可以判断地面环境(摩擦力系数)的变化,实现对未来一段时期内抹光机器人的状态量和输出量进行预测,并建立综合性的目标优化函数;从而,倾角调整信息为最优控制量,并以此调整抹盘机构的倾角轴使得抹光机器人能够始终维持期望的动力学参数;当受到外界干扰时,抹光机器人也能够在短时间内恢复稳定。该方法与传统方法的差异性在于不仅仅考虑机器人当下的状态,还会对未来状态进行预测并把其当作优化指标之一,具有良好的远瞻性,实现了较大程度的智能化。
在一些实施方式中,该运动控制方法以抹光机器人的模型预测控制器作为基础,将抹光机器人的机身状态(电机负载率信息、动力学参数信息)和地面环境参数信息作为反馈输入,从而对抹光机器的状态和倾角输出量进行预测和综合优化,以此计算得到当前最优的倾角调节信息,使得抹光机器人在不同地面环境上可以实现精准、柔顺的运动控制;从而,该抹光机器人的运动控制方法可以实现提高抹光机器人移动控制的精确性和平滑性的技术效果,提高机器人的作业效率,减少机器人的施工故障率。
请参见图2,图2为本申请实施例提供的另一种抹光机器人的运动控制方法的流程示意图。
示例性地,抹光机器人包括定位器、惯性测量单元和视觉传感器,S110:获取所述抹光机器人的动力学参数信息和电机负载率信息的步骤,包括:
S111:获取抹光机器人的电机负载率信息;
S112:获取定位器数据、惯性测量单元数据和视觉传感器数据;
S113:将定位器数据、惯性测量单元数据和视觉传感器数据进行传感融合,获得动力学参数信息,动力学参数信息包括位置信息、速度信息、姿态角信息、角速度信息。
示例性地,通过在抹光机器人上安装定位器、惯性测量单元(IMU,InertialMeasurement Unit)与视觉传感器,感知机身的位置、姿态、速度和地面信息等状态,从而提供高鲁棒性的多传感融合-运动状态感知方案。可选地,定位器可以是卫星导航(GNSS,Global Navigation Satellite System)定位器、基站导航定位器等,此处对定位器的具体定位方式不作限定。
示例性地,获取当前抹光机器人的运动状态信息是实现其运动控制的基础。GNSS、IMU和视觉传感器三种传感器可以对机身的位置、姿态、速度、角速度等信息进行感知,三种传感器彼此优劣互补,三者的信息融合可以给抹光机器人提供厘米级精度的状态信息。工地上经常面临没有GPS信号的情况,而此时IMU和视觉传感器两者的融合依然可以提高较高精度的定位。同时,视觉传感器还能对障碍物和地面环境进行识别。
示例性地,环境信息包括地面干湿程度信息,S200:将电机负载率信息和环境信息输入至预设神经网络,获得地面环境参数信息的步骤,包括:
S210:根据电机负载率信息获得电机负载变化率信息;
S220:将电机负载率信息、电机负载变化率信息和地面干湿程度信息输入至预设神经网络,获得地面环境参数信息。
示例性地,电机负载变化率信息可以通过电机负载率信息计算获得;基于预设神经网络,通过大量的地面环境标注(地面干湿程度信息)和电机负载率信息的采集,输入预设神经网络进行训练获取地面环境摩擦力系数与电机负载率、干湿程度之间的非线性关系,获得相应的地面环境参数信息,实现对地面环境摩擦力系数的精确感知。
在一些实施场景中,抹光机器人施工的作业面由于干湿程度、浇筑用料等不同,会影响抹刀的摩擦受力,从而对抹光机器人的运动控制造成重要影响。视觉传感器可以判断地面的干湿程度,而抹光机器人的主轴的电机负载率则在一定程度上可以反映地面摩擦力,经过大量数据训练的神经网络将根据当前电机负载、干湿程度对地面环境摩擦力系数进行精准估计,并把估计信息提供给模型预测控制器以修正预设动力学模型。
示例性地,S300:将动力学参数信息和地面环境参数信息输入至模型预测控制器,获得倾角调整信息的步骤,包括:
S310:获取动力学参数设定数据;
S320:根据动力学参数设定数据、动力学参数信息、地面环境参数信息输入至模型预测控制器,修正并生成线性化动力学预测模型;
S330:根据线性化动力学预测模型,生成控制器的目标函数;
S340:对目标函数进行求解获得倾角调整信息。
示例性地,控制器为抹光机器人的运动控制机构;动力学参数设定数据为设定的期望数据,如抹光机器人期望位置、期望速度、期望姿态角等;将动力学参数设定数据、动力学参数信息、地面环境参数信息输入至模型预测控制器,其中地面环境参数信息作为修正参数,最终生成控制器的目标函数;该目标函数以预设动力学模型、地面环境参数信息为基础,以对当前时刻及未来一段时期的机器状态和输出作为优化的核心,同时可以兼顾到抹盘机构倾角的最大调节量以及响应时间,可以实现抹光机器人的精准施工和施工智能化,提高抹光机器人的作业效率。
示例性地,根据动力学参数设定数据、动力学参数信息、地面环境参数信息输入至模型预测控制器,修正并生成线性化动力学预测模型的步骤中,线性化动力学预测模型包括线性化动力学公式,线性化动力学公式为:
其中,X为动力学参数设定数据和动力学参数信息的差值矩阵,U为抹盘机构的倾角信息,A为第一系数矩阵,B为第二系数矩阵,第一系数矩阵矩阵和第二系数矩阵由抹光机器人的机械结构和地面环境参数信息确定。
示例性地,根据线性化动力学预测模型,生成控制器的目标函数的步骤中,目标函数为:
其中,为当前时刻至未来控制域时刻抹光机器人的输出变化量组成的一维矩阵,H为第三系数矩阵,p为第四系数矩阵。
示例性地,第三系数矩阵和第四系数矩阵是由预测状态量、预测输出量、控制域、预测域以及控制系数权重等决定的相关参数。
示例性地,S400:根据倾角调整信息控制抹光机器人的抹盘机构的步骤,包括:
S410:获取抹光机器人的当前位置参数信息;
S420:根据当前位置参数信息和倾角调整信息控制抹光机器人的抹盘机构。
示例性地,结合当前位置参数信息和倾角调整信息,可以将抹光机器人调整至期望状态(即目标状态)。
请参见图3和图4,图3为本申请实施例提供的抹光机器人的结构示意图,图4为本申请实施例提供的抹光机器人的另一视角下的结构示意图;该抹光机器人包括机器人本体、定位器101、第一抹盘机构102、第二抹盘机构103、抹盘倾角控制机构104、视觉传感器105、抹盘倾角轴106、倾角轴调整电机107。
示例性地,本申请实施例提供的抹光机器人的运动控制方法的目的在于提供基于模型预测控制的抹光机器人运动控制方法,解决了目前抹光机器人依赖人工辅助牵引、无法进行自主精准移动作业的问题。
示例性地,为实现抹光机器人能够对机身运动状态和地面环境进行感知,提供一种高鲁棒性多传感融合方案。抹光机器人上安装的定位器101、IMU以及视觉传感器105(双目摄像头),三种传感器可以对机身的位置、姿态、速度、角速度等信息进行感知;定位器101可以实现长时间定位,但其数据更新频率低,有信号丢失的风险;IMU数据更新频率高,短时间内数据精度高;在长时间范围内,GPS可以为IMU校准误差,保证精度;而在短时间范围内,IMU可以提高更高频率的定位数据,一定程度降低定位器101信号丢失的风险。视觉传感器105的数据频率与定位精度依赖于传感器的好坏以及对应的视觉算法,其加入会提高整个定位系统的鲁棒性,即使在定位器101信号完全丢失的情况下,IMU与视觉传感器105的双融合依然可以保证一定的精度。除此之外,视觉传感器105可以判断机身周围的障碍物信息,还能根据拍摄照片对地面环境的干湿程度进行判断。三种传感器彼此优劣互补,三者的信息融合可以给抹光机器人提供厘米级精度的状态信息。
示例性地,为实现抹光机器人能够对地面环境进行更精准的感知,从而修正动力学模型种的地面摩擦力信息,帮助控制器适应地面变化,提供一种基于预设神经网络的地面环境参数信息在线预测方法。视觉传感器105能对地面环境的干湿程度进行判断,而抹光机器人的主轴电机负载则能够反映出地面环境的摩擦力大小。经过大量地面干湿程度与电机负载数据训练的神经网络能够描述这种非线性关系,从而通过训练好的神经网络能够实时感知地面环境变化。
示例性地,为实现抹光机器人能够智能地调节抹盘以控制自身达到期望地状态,提供一种基于模型预测控制的抹光机器人运动控制方法。该方法以模型预测控制器信息为基础,以对当前时刻及未来一段时期的机器状态和输出作为优化的核心,同时其还能够兼顾到抹盘倾角的最大调节量以及响应时间。与传统方法不同,该方法具有一定的预测性,并不断进行滚动优化和反馈校正,可以得到出当前时刻到未来一段时间抹盘倾角的最优输出量,控制器选择当前时刻输出量作为当前倾角调节量。
结合图1至图4,本申请实施例提供的抹光机器人的运动控制方法具体应用流程示例如下:
步骤1:视觉传感器105根据地面拍照图像得到地面干湿程度系数(地面干湿程度信息),通过电机驱动器可以读取抹光机器人的电机负载(电机负载率信息),将抹光机器人放置于摩擦力实验平台(该平台为自设计平台,设计思路为在底座固定的平台上,在最底层铺设与施工现场相同的混凝土料,在不同的干湿程度下让机器在平台进行不同速度、角速度下的移动,并通过拉力传感器、扭矩传感器等以及自身运动数据等可以推导出机身所受的摩擦作用力)上可以得到不同干湿程度、负载情况下抹光机器人受到的摩擦反作用力。经过大量数据采集和标注,对神经网络进行训练(神经网络选取全连接神经网络,层数和每层的神经元数由数据量和算力决)。
步骤2:获取动力学参数设定数据,包括期望位置xd和yd,行进速度Vd、和期望姿态角φd;
步骤3:将定位器101、IMU和视觉传感器105的数据进行传感融合(该融合基于扩展卡尔曼滤波)得到抹光传感器机身的实际位置[x,y]、速度v、姿态角φ、角速度ω等信息。第一抹盘机构102、第二抹盘机构103由抹光机器人内的主轴电机共同控制,两者保持同步,两者与地面的相互作用过程将对主轴电机负载产生影响。抹盘机构的转速可以通过遥控器或者机器app设定;
步骤4:从主轴电机驱动器读取电机负载率信息L,计算电机负载变化率信息从视觉传感器得到地面干湿程度信息λ。
步骤5:将输入预设神经网络,得到摩擦力修正系数γ。
步骤6:将地面环境变化信息传递给动力学方程f(x,u)对其进行修正,同时动力学方程采取局部线性化措施,最终得到其线性化动力学方程其形式为
其中,而U=[θL,θR]T分别为第一抹盘机构102、第二抹盘机构103的倾角。而其中第一系数矩阵、第二系数矩阵由具体的抹光机器人机械结构和地面信息决定;
步骤7:将步骤6得到的动力学方程作为预测模型,控制器的目标函数的具体形式为矩阵H和p由预测状态量和预测输出量、控制域、预测域以及控制系数权重等决定,/>为当前时刻至未来控制域时刻输出变化量所组成的一维矩阵。模型预测控制器将对目标函数将在指定约束条件下(如倾角最大调整值、调整响应速度等)进行二次型规划求解,求出当前抹盘(第一抹盘机构102、第二抹盘机构103)需要达到的最优倾角值θL和θR;
步骤8:抹光机器人安装有抹盘倾角轴调整电机,倾角轴调整电机107将调整抹盘倾角轴106的位置使抹盘倾角控制机构104(该机构与倾角轴固连,倾角相等)达到给定的倾角θL和θR。
其中,与θL和θR具有定量精确的数学关系,如图4所示,根据数学关系,求得θL和θR后便反推得到/>通过电机位置模式便可让倾角轴电机快速调整到/>位置,而不用通过其他调节算法。这样可快速、定量的调节倾角,提高响应。其数学关系形式如下:
其中,W、a和b的具体表达式与机身结构设计尺寸相关。
步骤9:抹盘倾角调整完毕,重新回到步骤2进行下一次循环(控制器单次循环耗时10ms),直到完成施工作业目标。
请参见图5,图5为本申请实施例提供的抹光机器人的运动控制系统的结构框图,该抹光机器人的运动控制系统包括:
第一获取模块110,用于获取抹光机器人的动力学参数信息和电机负载率信息;
第二获取模块120,用于获取抹光机器人所在位置的环境信息;
地面环境参数模块200,用于将电机负载率信息和环境信息输入至预设神经网络,获得地面环境参数信息;
倾角调整信息模块300,将电机负载率信息和环境信息输入至模型预测控制器,获得倾角调整信息;
控制模块400,用于根据倾角调整信息控制抹光机器人的抹盘机构。
示例性地,抹光机器人包括定位器、惯性测量单元和视觉传感器,第一获取模块110包括:
第一获取单元,用于获取抹光机器人的电机负载率信息;
第二获取单元,用于获取定位器数据、惯性测量单元数据和视觉传感器数据;
融合单元,用于将定位器数据、惯性测量单元数据和视觉传感器数据进行传感融合,获得动力学参数信息,动力学参数信息包括位置信息、速度信息、姿态角信息、角速度信息。
示例性地,环境信息包括地面干湿程度信息,地面环境参数模块200包括:
电机负载变化率单元,用于根据电机负载率信息获得电机负载变化率信息;
地面环境参数单元,用于将电机负载率信息、电机负载变化率信息和地面干湿程度信息输入至预设神经网络,获得地面环境参数信息。
示例性地,倾角调整信息模块300包括:
设定数据获取单元,用于获取动力学参数设定数据;
线性化动力学单元,用于根据动力学参数设定数据、动力学参数信息、地面环境参数信息输入至模型预测控制器,修正并生成线性化动力学预测模型;
目标函数单元,用于根据线性化动力学预测模型,生成控制器的目标函数;
倾角调整信息单元,用于根据目标函数获得倾角调整信息。
进一步地,所述控制模块包括:
当前位置参数单元,用于获取所述抹光机器人的当前位置参数信息;
控制单元,用于根据所述当前位置参数信息和所述倾角调整信息控制所述抹光机器人的抹盘机构。
应理解,图5所示的抹光机器人的运动控制系统与图1至图4所示的方法实施例相对应,为避免重复,此处不再赘述。
本申请还提供一种电子设备,请参见图6,图6为本申请实施例提供的一种电子设备的结构框图。电子设备可以包括处理器510、通信接口520、存储器530和至少一个通信总线540。其中,通信总线540用于实现这些组件直接的连接通信。其中,本申请实施例中电子设备的通信接口520用于与其他节点设备进行信令或数据的通信。处理器510可以是一种集成电路芯片,具有信号的处理能力。
上述的处理器510可以是通用处理器,包括中央处理器(CPU,Central ProcessingUnit)、网络处理器(NP,Network Processor)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器510也可以是任何常规的处理器等。
存储器530可以是,但不限于,随机存取存储器(RAM,Random Access Memory),只读存储器(ROM,Read Only Memory),可编程只读存储器(PROM,Programmable Read-OnlyMemory),可擦除只读存储器(EPROM,Erasable Programmable Read-Only Memory),电可擦除只读存储器(EEPROM,Electric Erasable Programmable Read-Only Memory)等。存储器530中存储有计算机可读取指令,当所述计算机可读取指令由所述处理器510执行时,电子设备可以执行上述图1至图4方法实施例涉及的各个步骤。
可选地,电子设备还可以包括存储控制器、输入输出单元。
所述存储器530、存储控制器、处理器510、外设接口、输入输出单元各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通信总线540实现电性连接。所述处理器510用于执行存储器530中存储的可执行模块,例如电子设备包括的软件功能模块或计算机程序。
输入输出单元用于提供给用户创建任务以及为该任务创建启动可选时段或预设执行时间以实现用户与服务器的交互。所述输入输出单元可以是,但不限于,鼠标和键盘等。
可以理解,图6所示的结构仅为示意,所述电子设备还可包括比图6中所示更多或者更少的组件,或者具有与图6所示不同的配置。图6中所示的各组件可以采用硬件、软件或其组合实现。
本申请实施例还提供一种存储介质,所述存储介质上存储有指令,当所述指令在计算机上运行时,所述计算机程序被处理器执行时实现方法实施例所述的方法,为避免重复,此处不再赘述。
本申请还提供一种计算机程序产品,所述计算机程序产品在计算机上运行时,使得计算机执行方法实施例所述的方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种抹光机器人的运动控制方法,其特征在于,包括:
获取所述抹光机器人的动力学参数信息和电机负载率信息;
获取所述抹光机器人所在位置的环境信息;
将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息;
将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息;
根据所述倾角调整信息控制所述抹光机器人的抹盘机构。
2.根据权利要求1所述的抹光机器人的运动控制方法,其特征在于,所述抹光机器人包括定位器、惯性测量单元和视觉传感器,所述获取所述抹光机器人的动力学参数信息和电机负载率信息的步骤,包括:
获取所述抹光机器人的电机负载率信息;
获取定位器数据、惯性测量单元数据和视觉传感器数据;
将所述定位器数据、所述惯性测量单元数据和所述视觉传感器数据进行传感融合,获得所述动力学参数信息,所述动力学参数信息包括位置信息、速度信息、姿态角信息、角速度信息。
3.根据权利要求2所述的抹光机器人的运动控制方法,其特征在于,所述环境信息包括地面干湿程度信息,所述将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息的步骤,包括:
根据所述电机负载率信息获得电机负载变化率信息;
将所述电机负载率信息、所述电机负载变化率信息和所述地面干湿程度信息输入至预设神经网络,获得地面环境参数信息。
4.根据权利要求1所述的抹光机器人的运动控制方法,其特征在于,所述将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息的步骤,包括:
获取动力学参数设定数据;
根据所述动力学参数设定数据、所述动力学参数信息、所述地面环境参数信息输入至模型预测控制器;
生成线性化动力学预测模型;
根据所述线性化动力学预测模型,生成控制器的目标函数;
对所述目标函数进行求解并获得所述倾角调整信息。
5.根据权利要求4所述的抹光机器人的运动控制方法,其特征在于,所述根据所述动力学参数设定数据、所述动力学参数信息、所述地面环境参数信息输入至模型预测控制器,生成线性化动力学预测模型的步骤中,所述线性化动力学预测模型包括线性化动力学公式,所述线性化动力学公式为:
其中,X为所述动力学参数设定数据和所述动力学参数信息的差值矩阵,U为所述抹盘机构的倾角信息,A为第一系数矩阵,B为第二系数矩阵,所述第一系数矩阵矩阵和所述第二系数矩阵由所述抹光机器人的机械结构和所述地面环境参数信息确定。
6.根据权利要求4或5所述的抹光机器人的运动控制方法,其特征在于,所述根据所述线性化动力学预测模型,生成控制器的目标函数的步骤中,所述目标函数为:
其中,为当前时刻至未来控制域时刻所述抹光机器人的输出变化量组成的一维矩阵,H为第三系数矩阵,p为第四系数矩阵。
7.根据权利要求1所述的抹光机器人的运动控制方法,其特征在于,所述根据所述倾角调整信息控制所述抹光机器人的抹盘机构的步骤,包括:
获取所述抹光机器人的当前位置参数信息;
根据所述当前位置参数信息和所述倾角调整信息控制所述抹光机器人的抹盘机构。
8.一种抹光机器人的运动控制系统,其特征在于,包括:
第一获取模块,用于获取所述抹光机器人的动力学参数信息和电机负载率信息;
第二获取模块,用于获取所述抹光机器人所在位置的环境信息;
地面环境参数模块,用于将所述电机负载率信息和所述环境信息输入至预设神经网络,获得地面环境参数信息;
倾角调整信息模块,用于将所述动力学参数信息和所述地面环境参数信息输入至模型预测控制器,获得倾角调整信息;
控制模块,用于根据所述倾角调整信息控制所述抹光机器人的抹盘机构。
9.一种抹光机器人,其特征在于,所述抹光机器人的运动执行如权利要求1至7任一项所述的抹光机器人的运动控制方法。
10.一种电子设备,其特征在于,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的抹光机器人的运动控制方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210216646.8A CN116766214A (zh) | 2022-03-07 | 2022-03-07 | 一种抹光机器人的运动控制方法、系统及抹光机器人 |
PCT/CN2022/103385 WO2023168865A1 (zh) | 2022-03-07 | 2022-07-01 | 一种抹光机器人的运动控制方法、系统及抹光机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210216646.8A CN116766214A (zh) | 2022-03-07 | 2022-03-07 | 一种抹光机器人的运动控制方法、系统及抹光机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116766214A true CN116766214A (zh) | 2023-09-19 |
Family
ID=87937058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210216646.8A Pending CN116766214A (zh) | 2022-03-07 | 2022-03-07 | 一种抹光机器人的运动控制方法、系统及抹光机器人 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116766214A (zh) |
WO (1) | WO2023168865A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117656084B (zh) * | 2024-01-31 | 2024-04-05 | 哈尔滨工业大学 | 一种基于LuGre模型的摩擦动力学在线辨识方法 |
CN118617426A (zh) * | 2024-08-13 | 2024-09-10 | 湖南大学 | 一种自动安装钢筋的智能系统、方法及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102200787B (zh) * | 2011-04-18 | 2013-04-17 | 重庆大学 | 机器人行为多层次集成学习方法及系统 |
JP6634463B2 (ja) * | 2018-03-14 | 2020-01-22 | 鹿島建設株式会社 | コンクリート仕上げ装置 |
CN111037562B (zh) * | 2019-12-27 | 2021-04-06 | 广东博智林机器人有限公司 | 机器人的控制方法、装置及机器人 |
CN111260057B (zh) * | 2020-01-21 | 2023-04-07 | 北京空间飞行器总体设计部 | 一种基于虚拟传感器的足式机器人地形感知方法 |
KR102370544B1 (ko) * | 2021-06-10 | 2022-03-04 | 현대엔지니어링(주) | 방향 및 자세 교정이 가능한 미장로봇 |
CN113325698B (zh) * | 2021-06-15 | 2024-05-31 | 广东博智林机器人有限公司 | 抹光机控制方法、装置、计算机设备和存储介质 |
-
2022
- 2022-03-07 CN CN202210216646.8A patent/CN116766214A/zh active Pending
- 2022-07-01 WO PCT/CN2022/103385 patent/WO2023168865A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2023168865A1 (zh) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110286683B (zh) | 一种履带式移动机器人的自主行驶路径跟踪控制方法 | |
CN116766214A (zh) | 一种抹光机器人的运动控制方法、系统及抹光机器人 | |
CN109017984B (zh) | 一种无人车的轨迹跟随控制方法、控制系统及相关装置 | |
US9851211B2 (en) | Information processing apparatus, computer-readable recording medium, and information processing system | |
CN111070205B (zh) | 对桩控制方法、装置、智能机器人及存储介质 | |
US20180246516A1 (en) | Navigation system based on slow feature gradients | |
CN114440928A (zh) | 激光雷达与里程计的联合标定方法、机器人、设备和介质 | |
JP2010224755A (ja) | 移動体及び移動体の位置推定方法 | |
CN109343539A (zh) | 运动控制方法、装置、机器人及存储介质 | |
US20230278214A1 (en) | Robot localization using variance sampling | |
JP6954553B2 (ja) | 自律走行車両、コントローラ、コンピュータプログラム、自律走行車両の制御方法 | |
Li et al. | Visual-inertial odometry with online calibration of velocity-control based kinematic motion models | |
Kaliński et al. | Optimal control at energy performance index of the mobile robots following dynamically created trajectories | |
Vinod et al. | Development of an autonomous fog computing platform using control-theoretic approach for robot-vision applications | |
Bazhenov et al. | Software for the mobile robot spatial orientation system | |
Karthik et al. | Dual Mode PID Controller for Path Planning of Encoder Less Mobile Robots in Warehouse Environment | |
CN111146983B (zh) | 用于同步马达驱动装置的供应电流动态的主动控制 | |
CN112345798A (zh) | 位置姿势推定装置以及位置姿势推定方法 | |
Bakirci et al. | Improving position-time trajectory accuracy in vehicle stop-and-go scenarios by using a mobile robot as a testbed | |
Sangale et al. | Localization of a mobile autonomous robot using extended Kalman filter | |
Marques et al. | Autonomous robot for mapping using ultrasonic sensors | |
CN117207190B (zh) | 基于视觉与触觉融合的精准抓取机器人系统 | |
Clotet et al. | Simulator for omnidirectional robots equipped with 2D and 3D LiDAR sensors | |
CN113050622B (zh) | 无人压路机路径跟踪控制方法及系统、服务器及介质 | |
Edwan et al. | A Low Cost Modular Autonomous Robot Vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40100589 Country of ref document: HK |