CN115256084B - 一种用于地面研磨机器人的地面平整度检测处理方法 - Google Patents
一种用于地面研磨机器人的地面平整度检测处理方法 Download PDFInfo
- Publication number
- CN115256084B CN115256084B CN202210682670.0A CN202210682670A CN115256084B CN 115256084 B CN115256084 B CN 115256084B CN 202210682670 A CN202210682670 A CN 202210682670A CN 115256084 B CN115256084 B CN 115256084B
- Authority
- CN
- China
- Prior art keywords
- ground
- flatness
- image
- laser
- construction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 23
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 238000010276 construction Methods 0.000 claims abstract description 43
- 238000013135 deep learning Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000007790 scraping Methods 0.000 claims abstract description 4
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 4
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 239000011248 coating agent Substances 0.000 claims description 3
- 238000000576 coating method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000008447 perception Effects 0.000 description 6
- 108700041286 delta Proteins 0.000 description 4
- 239000010865 sewage Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000011179 visual inspection Methods 0.000 description 3
- 239000000428 dust Substances 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 208000012260 Accidental injury Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B7/00—Machines or devices designed for grinding plane surfaces on work, including polishing plane glass surfaces; Accessories therefor
- B24B7/10—Single-purpose machines or devices
- B24B7/18—Single-purpose machines or devices for grinding floorings, walls, ceilings or the like
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B1/00—Processes of grinding or polishing; Use of auxiliary equipment in connection with such processes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B41/00—Component parts such as frames, beds, carriages, headstocks
- B24B41/04—Headstocks; Working-spindles; Features relating thereto
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B47/00—Drives or gearings; Equipment therefor
- B24B47/20—Drives or gearings; Equipment therefor relating to feed movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B49/00—Measuring or gauging equipment for controlling the feed movement of the grinding tool or work; Arrangements of indicating or measuring equipment, e.g. for indicating the start of the grinding operation
- B24B49/12—Measuring or gauging equipment for controlling the feed movement of the grinding tool or work; Arrangements of indicating or measuring equipment, e.g. for indicating the start of the grinding operation involving optical means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B24—GRINDING; POLISHING
- B24B—MACHINES, DEVICES, OR PROCESSES FOR GRINDING OR POLISHING; DRESSING OR CONDITIONING OF ABRADING SURFACES; FEEDING OF GRINDING, POLISHING, OR LAPPING AGENTS
- B24B51/00—Arrangements for automatic control of a series of individual steps in grinding a workpiece
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种地面研磨机器人的地面平整度检测处理方法,属于地坪研磨技术领域,该平整度检测处理方法适用于地面研磨机器人,包括如下步骤:在施工模块中采用网格激光发射器,在前方的平整地面形成3*3或其他n*n的矩形网格;通过深度学习算法对地面平整度进行标注;通过传统图像处理算法分别对2D图像,3D数据进行平整度检测,最终再合成总的平整度数值。本方案使用包括但不仅于深度学习和传统图像处理算法,可以在不同的平整度的地面自适应地实现研磨,使得施工后的地面平整且垂直,标准统一,地面平整度检测准确,且能根据平整度的不同,自动调整研磨压力、行走速度和刮板旋转的速度。
Description
技术领域
本发明涉及地坪研磨技术领域,尤其是涉及一种用于地面研磨机器人的地面平整度检测处理方法。
背景技术
新铺设的地坪一般都需要进行水磨用以平整地面,而地面研磨水磨工艺的一般工序包括:往地面洒水、研磨、人工扫水、收集污水以及污水排放。众多工序复杂、劳动强度较大,且人工使用研磨机进行研磨时,由于噪音、灰尘、漏电、机械误伤等原因,极易对人体健康造成危害。
另,为了达到抑制扬尘的效果,水磨通常需要大量的市政水对地面进行湿润,容易造成水资源的浪费。同时,打磨完的污水难以收集,若采用人工收集的方式较为费事费力,且收集起来的污水随意排放,容易对市政管道造成堵塞。
现有技术下,传统人工的研磨过程会由人工目测判断地面的粗糙程度,决定人工研磨的时间,没有统一的标准,不同人工施工质量难以标准化。
发明内容
本发明的目的在于提供一种用于地面研磨机器人的地面平整度检测处理方法,以解决现有技术中地面研磨作业中人工判断地面粗糙度不准确的技术问题。
本发明提供一种用于地面研磨机器人的地面平整度检测处理方法,该平整度检测处理方法适用于地面研磨机器人,包括如下步骤:
Sp1:在施工模块中采用网格激光发射器,在前方的平整地面形成3*3或其他n*n的矩形网格;
Sp2:通过深度学习算法对地面平整度进行标注;
Sp2-1:对于由2D图像、深度图像、平整度组成的标签,三者共同匹配构成样本集合,选择其中的70%作为训练集,30%作为测试集;
Sp2-2:将2D图像、深度数据分别送入多层卷积中,其中2D图像使用RESNET等典型2D图像的深度学习结构,3D数据输入POINTNET等典型3D数据的深度学习结构,并在卷积层后的全连接层进行合并,即将PointNet结构的n*1024与RESNET结构的maxpool层的n*1024合并成为n*2048,再输入全连接层,最终结果以分类表示,直接输出地面平整度;
Sp2-3:随机设置深度神经网络的初始网络权重,将数据输入神经网络进行正向计算,根据计算结构与标签的差值进行梯度计算并反向传播,深度神经网络更新其网络权重,直到达到训练次数上限或准确率满足要求;
Sp3:通过传统图像处理算法分别对2D图像,3D数据进行平整度检测,最终再合成总的平整度数值;
Sp3-1:2D图像中的平整度基于激光网格中横向激光线的扭曲程度,2D图像中粗糙度基于激光网格中纵向激光线的扭曲程度。
进一步,进行平整度检测时,采用地面研磨机器人进行作业,采用施工模块遍历地面除障碍物、柱子等非施工区域的每一处,设定房间的两面直角相交的墙为坐标系的x,y方向,设备沿x方向在房间左下角作为初始位置,沿x方向进行施工,如果施工过程没有障碍物,则行进至墙边,地面研磨设备掉头,使得第一条施工的右边界与当前施工路线的左边界重合,再继续开始S型轨迹施工。
进一步,所述地面研磨机器人包括研磨头、驱动轮、电控柜、激光雷达、外壳和深度摄像头,所述研磨头用于地面研磨,所述驱动轮驱动地面研磨机器人前进,所述激光雷达用于地面研磨机器人的导航与定位,所述深度摄像头的感知区域在施工区域正前方,包括第一感知单元,用于传回2D图像,以及第二感知单元,用于传回3D点云数据。
进一步,所述2D图像的视野包含网格激光区域,当设备垂直于地面,且地面完全垂直、横向时,网格的竖条纹与重力方向一致,网格的横条纹与重力方向垂直,通过网格的形变程度即可进行地面的平整度检测。
进一步,所述深度学习算法需要先由人工对于地面平整度进行标注,一张640*480*3像素的2D图像,一组对应1000mm*600mm地面的256000*3像素的3D数据,以及与之相对应的一个地面平整度、一个地面为最小样本,在样本中,2D图像、3D数据的拍摄角点都垂直于地面,不同样本之间可以有重合区域,有重合区域的样本可以平整度不同。
进一步,所述PointNet的典型模型结构包括以下流程:
Sp1:输入为一帧的全部点云数据的集合,表示为一个nx3的2d tensor,其中n代表点云数量,3对应xyz坐标;
Sp2:输入的数据先通过和一个T-Net学习到的转换矩阵相乘来对齐,保证了模型对特定空间转换的不变性;
Sp3:通过多次mlp对各点云数据进行特征提取后,再用一个T-Net对特征进行对齐;
Sp4:在特征的各个维度上执行maxpooling操作来得到最终的全局特征;
Sp5:对分类任务,将全局特征通过mlp来预测最后的分类分数,对分割任务,将全局特征和之前学习到的各点云的局部特征进行串联,再通过mlp得到每个数据点的分类结果。
进一步,以最简的3*3条激光线为例,即一条横向激光线在视野中央,一条横向激光线在垂直视野上80%位置,一横向条激光线在垂直视野上20%位置,一条纵向激光线在视野中央,一条纵向激光线在横向视野上80%位置,一条纵向激光线在横向视野上20%位置,2D图像处理流程包括:
Sp1:使用颜色过滤,将选定颜色的激光线从图像中提取出来;
Sp2:使用canny边缘提取,提取出直线轮廓,此时必然包含其他杂线边缘;
Sp3:使用霍夫直线检测,提取出直线;
Sp4:基于长度、斜率范围对直线进行过滤;
Sp5:得到3条横向激光线,3条纵向激光线后,计算出横向激光线与相机横向方向的在右侧形成的夹角θ,三条激光线形成的角分别为θ1,θ2,θ3,其平整度T=α*θ1+β*θ2+γ*θ3,α、β、γ为对应系数;计算出纵向激光线与相机垂直方向的在右侧形成的夹角δ,三条激光线形成的角分别为δ1,δ2,δ3,粗糙度G=a*δ1+b*δ2+c*δ3,a、b、c为对应系数。
进一步,基于位置信息及2D图像、3D数据拼接的精确地图,使得对本面墙的下一次施工时,设备能精确定位,将不同施工流程中观察到的地面进行位置匹配,对比施工效果;在抹腻子施工对地面的横向度进行调整时,针对地面不同的粗糙度G,需要增大研磨机构与地面压力P,减少行走速度S,增大刮板旋转的速度S0。
与现有技术相比较,本发明的有益效果在于:
现有技术下,传统人工的研磨过程会由人工目测判断地面的粗糙程度,决定人工研磨的时间,没有统一的标准,不同人工施工质量难以标准化,而本方案使用包括但不仅于深度学习和传统图像处理算法,可以在不同的平整度的地面自适应地实现研磨,使得施工后的地面平整且垂直,标准统一,地面平整度检测准确,且能根据平整度的不同,自动调整研磨压力、行走速度和刮板旋转的速度。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中地面研磨机器人的整体结构示意图;
图2为本发明中PointNet的典型模型结构图;
图3为本发明中图像处理算法中通过横向激光线计算平整度的示意图;
图4为本发明中图像处理算法中通过纵向激光线计算粗糙度的示意图。
附图标记:
1、研磨头;2、驱动轮;3、电控柜;4、激光雷达;5、外壳;6、深度摄像头。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
通常在此处附图中描述和显示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。
基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1至图4所示,本发明实施例提供了一种用于地面研磨机器人的地面平整度检测处理方法,该平整度检测处理方法适用于地面研磨机器人,包括如下步骤:
Sp1:在施工模块中采用网格激光发射器,在前方的平整地面形成3*3或其他n*n的矩形网格;
Sp2:通过深度学习算法对地面平整度进行标注;
Sp2-1:对于由2D图像、深度图像、平整度组成的标签,三者共同匹配构成样本集合,选择其中的70%作为训练集,30%作为测试集;
Sp2-2:将2D图像、深度数据分别送入多层卷积中,其中2D图像使用RESNET等典型2D图像的深度学习结构,3D数据输入POINTNET等典型3D数据的深度学习结构,并在卷积层后的全连接层进行合并,即将PointNet结构的n*1024与RESNET结构的maxpool层的n*1024合并成为n*2048,再输入全连接层,最终结果以分类表示,直接输出地面平整度;
Sp2-3:随机设置深度神经网络的初始网络权重,将数据输入神经网络进行正向计算,根据计算结构与标签的差值进行梯度计算并反向传播,深度神经网络更新其网络权重,直到达到训练次数上限或准确率满足要求;
Sp3:通过传统图像处理算法分别对2D图像,3D数据进行平整度检测,最终再合成总的平整度数值;
Sp3-1:2D图像中的平整度基于激光网格中横向激光线的扭曲程度,2D图像中粗糙度基于激光网格中纵向激光线的扭曲程度。
现有技术下,传统人工的研磨过程会由人工目测判断地面的粗糙程度,决定人工研磨的时间,没有统一的标准,不同人工施工质量难以标准化,而本方案使用包括但不仅于深度学习和传统图像处理算法,可以在不同的平整度的地面自适应地实现研磨,使得施工后的地面平整且垂直,标准统一,地面平整度检测准确,且能根据平整度的不同,自动调整研磨压力、行走速度和刮板旋转的速度。
具体的,进行平整度检测时,采用地面研磨机器人进行作业,采用施工模块遍历地面除障碍物、柱子等非施工区域的每一处,设定房间的两面直角相交的墙为坐标系的x,y方向,设备沿x方向在房间左下角作为初始位置,沿x方向进行施工,如果施工过程没有障碍物,则行进至墙边,地面研磨设备掉头,使得第一条施工的右边界与当前施工路线的左边界重合,再继续开始S型轨迹施工。
具体的,地面研磨机器人包括研磨头1、驱动轮2、电控柜3、激光雷达4、外壳5和深度摄像头6,研磨头1用于地面研磨,驱动轮2驱动地面研磨机器人前进,激光雷达4用于地面研磨机器人的导航与定位,深度摄像头6的感知区域在施工区域正前方,包括第一感知单元,用于传回2D图像,以及第二感知单元,用于传回3D点云数据。
具体的,2D图像的视野包含网格激光区域,当设备垂直于地面,且地面完全垂直、横向时,网格的竖条纹与重力方向一致,网格的横条纹与重力方向垂直,通过网格的形变程度即可进行地面的平整度检测。
具体的,深度学习算法需要先由人工对于地面平整度进行标注,一张640*480*3像素的2D图像,一组对应1000mm*600mm地面的256000*3像素的3D数据,以及与之相对应的一个地面平整度、一个地面为最小样本,在样本中,2D图像、3D数据的拍摄角点都垂直于地面,不同样本之间可以有重合区域,有重合区域的样本可以平整度不同。
具体的,PointNet的典型模型结构包括以下流程:
Sp1:输入为一帧的全部点云数据的集合,表示为一个nx3的2dtensor,其中n代表点云数量,3对应xyz坐标;
Sp2:输入的数据先通过和一个T-Net学习到的转换矩阵相乘来对齐,保证了模型对特定空间转换的不变性;
Sp3:通过多次mlp对各点云数据进行特征提取后,再用一个T-Net对特征进行对齐;
Sp4:在特征的各个维度上执行maxpooling操作来得到最终的全局特征;
Sp5:对分类任务,将全局特征通过mlp来预测最后的分类分数,对分割任务,将全局特征和之前学习到的各点云的局部特征进行串联,再通过mlp得到每个数据点的分类结果。
具体的,以最简的3*3条激光线为例,即一条横向激光线在视野中央,一条横向激光线在垂直视野上80%位置,一横向条激光线在垂直视野上20%位置,一条纵向激光线在视野中央,一条纵向激光线在横向视野上80%位置,一条纵向激光线在横向视野上20%位置,2D图像处理流程包括:
Sp1:使用颜色过滤,将选定颜色的激光线从图像中提取出来;
Sp2:使用canny边缘提取,提取出直线轮廓,此时必然包含其他杂线边缘;
Sp3:使用霍夫直线检测,提取出直线;
Sp4:基于长度、斜率范围对直线进行过滤;
Sp5:得到3条横向激光线,3条纵向激光线后,计算出横向激光线与相机横向方向的在右侧形成的夹角θ,三条激光线形成的角分别为θ1,θ2,θ3,其平整度T=α*θ1+β*θ2+γ*θ3,α、β、γ为对应系数;计算出纵向激光线与相机垂直方向的在右侧形成的夹角δ,三条激光线形成的角分别为δ1,δ2,δ3,粗糙度G=a*δ1+b*δ2+c*δ3,a、b、c为对应系数。
具体的,基于位置信息及2D图像、3D数据拼接的精确地图,使得对本面墙的下一次施工时,设备能精确定位,将不同施工流程中观察到的地面进行位置匹配,对比施工效果;在抹腻子施工对地面的横向度进行调整时,针对地面不同的粗糙度G,需要增大研磨机构与地面压力P,减少行走速度S,增大刮板旋转的速度S0。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种用于地面研磨机器人的地面平整度检测处理方法,该地面平整度检测处理方法适用于地面研磨机器人,其特征在于:包括如下步骤:
Sp1:在施工模块中采用网格激光发射器,在前方的平整地面形成3*3或其他n*n的矩形网格;
Sp2:通过深度学习算法对地面平整度进行标注;
Sp2-1:对于由2D图像、深度图像、平整度组成的标签,三者共同匹配构成样本集合,选择其中的70%作为训练集,30%作为测试集;
Sp2-2:将2D图像、深度数据分别送入多层卷积中,其中2D图像使用RESNET的深度学习结构,3D数据输入POINTNET的深度学习结构,并在卷积层后的全连接层进行合并,即将PointNet结构的n*1024与RESNET结构的maxpool层的n*1024合并成为n*2048,再输入全连接层,最终结果以分类表示,直接输出地面平整度;
Sp2-3:随机设置深度神经网络的初始网络权重,将数据输入神经网络进行正向计算,根据计算结构与标签的差值进行梯度计算并反向传播,深度神经网络更新其网络权重,直到达到训练次数上限或准确率满足要求;
Sp3:通过传统图像处理算法分别对2D图像,3D数据进行平整度检测,最终再合成总的平整度数值;
Sp3-1:2D图像中的平整度基于激光网格中横向激光线的扭曲程度,2D图像中粗糙度基于激光网格中纵向激光线的扭曲程度。
2.根据权利要求1所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:进行平整度检测时,采用地面研磨机器人进行作业,采用施工模块遍历地面除障碍物、柱子非施工区域的每一处,设定房间的两面直角相交的墙为坐标系的x,y方向,设备沿x方向在房间左下角作为初始位置,沿x方向进行施工,如果施工过程没有障碍物,则行进至墙边,地面研磨设备掉头,使得第一条施工的右边界与当前施工路线的左边界重合,再继续开始S型轨迹施工。
3.根据权利要求1所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:所述地面研磨机器人包括研磨头(1)、驱动轮(2)、电控柜(3)、激光雷达(4)、外壳(5)和深度摄像头(6),所述研磨头(1)用于地面研磨,所述驱动轮(2)驱动地面研磨机器人前进,所述激光雷达(4)用于地面研磨机器人的导航与定位,所述深度摄像头(6)的感知区域在施工区域正前方,包括第一感知单元,用于传回2D图像,以及第二感知单元,用于传回3D点云数据。
4.根据权利要求3所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:所述2D图像的视野包含网格激光区域,当设备垂直于地面,且地面完全垂直、横向时,网格的竖条纹与重力方向一致,网格的横条纹与重力方向垂直,通过网格的形变程度即可进行地面的平整度检测。
5.根据权利要求1所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:所述深度学习算法需要先由人工对于地面平整度进行标注,一张640*480*3像素的2D图像,一组对应1000mm*600mm地面的256000*3像素的3D数据,以及与之相对应的一个地面平整度、一个地面为最小样本,在样本中,2D图像、3D数据的拍摄角点都垂直于地面,不同样本之间容许存在重合区域,有重合区域的样本容许平整度不同。
6.根据权利要求1所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:所述PointNet的模型结构包括以下流程:
Sp1:输入为一帧的全部点云数据的集合,表示为一个nx3的2d tensor,其中n代表点云数量,3对应xyz坐标;
Sp2:输入的数据先通过和一个T-Net学习到的转换矩阵相乘来对齐,保证了模型对特定空间转换的不变性;
Sp3:通过多次mlp对各点云数据进行特征提取后,再用一个T-Net对特征进行对齐;
Sp4:在特征的各个维度上执行maxpooling操作来得到最终的全局特征;
Sp5:对分类任务,将全局特征通过mlp来预测最后的分类分数,对分割任务,将全局特征和之前学习到的各点云的局部特征进行串联,再通过mlp得到每个数据点的分类结果。
7.根据权利要求1所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:所述激光网格设置为3*3条激光线,即一条横向激光线在视野中央,一条横向激光线在垂直视野上80%位置,一横向条激光线在垂直视野上20%位置,一条纵向激光线在视野中央,一条纵向激光线在横向视野上80%位置,一条纵向激光线在横向视野上20%位置,2D图像处理流程包括:
Sp1:使用颜色过滤,将选定颜色的激光线从图像中提取出来;
Sp2:使用canny边缘提取,提取出直线轮廓,此时必然包含其他杂线边缘;
Sp3:使用霍夫直线检测,提取出直线;
Sp4:基于长度、斜率范围对直线进行过滤;
Sp5:得到3条横向激光线,3条纵向激光线后,计算出横向激光线与相机横向方向的在右侧形成的夹角θ,三条激光线形成的角分别为θ1,θ2,θ3,其平整度T=α*θ1+β*θ2+γ*θ3=,α、β、γ为对应系数;计算出纵向激光线与相机垂直方向的在右侧形成的夹角δ,三条激光线形成的角分别为δ1,δ2,δ3,粗糙度G=a*δ1+b*δ2+c*δ3=,a、b、c为对应系数。
8.根据权利要求1所述的一种用于地面研磨机器人的地面平整度检测处理方法,其特征在于:基于位置信息及2D图像、3D数据拼接的精确地图,使得对本面墙的下一次施工时,设备能精确定位,将不同施工流程中观察到的地面进行位置匹配,对比施工效果;在抹腻子施工对地面的横向度进行调整时,针对地面不同的粗糙度G,需要增大研磨机构与地面压力P,减少行走速度S,增大刮板旋转的速度S0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210682670.0A CN115256084B (zh) | 2022-06-16 | 2022-06-16 | 一种用于地面研磨机器人的地面平整度检测处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210682670.0A CN115256084B (zh) | 2022-06-16 | 2022-06-16 | 一种用于地面研磨机器人的地面平整度检测处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115256084A CN115256084A (zh) | 2022-11-01 |
CN115256084B true CN115256084B (zh) | 2024-02-27 |
Family
ID=83760463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210682670.0A Active CN115256084B (zh) | 2022-06-16 | 2022-06-16 | 一种用于地面研磨机器人的地面平整度检测处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115256084B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110109466A (zh) * | 2019-05-31 | 2019-08-09 | 东北大学 | 基于多传感器的自主地面打磨机器人控制系统 |
CN110528830A (zh) * | 2019-08-30 | 2019-12-03 | 广东博智林机器人有限公司 | 墙面处理机器人及其精度对位装置和精度校正方法 |
CN111266954A (zh) * | 2020-05-08 | 2020-06-12 | 苏州高之仙自动化科技有限公司 | 工作站和具有其的除尘系统 |
EP3932638A1 (en) * | 2020-06-30 | 2022-01-05 | Purspray | Method for manufacturing a floor system |
CN114594762A (zh) * | 2022-01-25 | 2022-06-07 | 深圳大方智能科技有限公司 | 一种基于视觉的室内施工行走调节方法 |
-
2022
- 2022-06-16 CN CN202210682670.0A patent/CN115256084B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110109466A (zh) * | 2019-05-31 | 2019-08-09 | 东北大学 | 基于多传感器的自主地面打磨机器人控制系统 |
CN110528830A (zh) * | 2019-08-30 | 2019-12-03 | 广东博智林机器人有限公司 | 墙面处理机器人及其精度对位装置和精度校正方法 |
CN111266954A (zh) * | 2020-05-08 | 2020-06-12 | 苏州高之仙自动化科技有限公司 | 工作站和具有其的除尘系统 |
EP3932638A1 (en) * | 2020-06-30 | 2022-01-05 | Purspray | Method for manufacturing a floor system |
CN114594762A (zh) * | 2022-01-25 | 2022-06-07 | 深圳大方智能科技有限公司 | 一种基于视觉的室内施工行走调节方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115256084A (zh) | 2022-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109900280B (zh) | 一种基于自主导航的畜禽信息感知机器人与地图构建方法 | |
CN105511462B (zh) | 一种基于视觉的agv导航方法 | |
Ribeiro et al. | Remote inspection of RC structures using unmanned aerial vehicles and heuristic image processing | |
CN110738642A (zh) | 基于Mask R-CNN的钢筋混凝土裂缝识别及测量方法及存储介质 | |
EP3818337B1 (en) | Defect detection system using a camera equipped uav for building facades on complex asset geometry with optimal automatic obstacle deconflicted flightpath | |
CN110473221B (zh) | 一种目标物体自动扫描系统及方法 | |
CN102297660A (zh) | 一种盾构隧道衬砌管片接缝张开宽度的测量方法及装置 | |
CN113358665A (zh) | 一种无人机隧洞缺陷检测方法及系统 | |
KR102339465B1 (ko) | 딥러닝-영상인식 기반 해상폐기물 제거용 자율운항 선박 시스템 | |
US20200357141A1 (en) | Systems and methods for calibrating an optical system of a movable object | |
CN102679914A (zh) | 一种盾构隧道衬砌管片渗漏水面积的测量方法及装置 | |
CN104700395A (zh) | 一种构造物外观裂缝检测方法及系统 | |
CN112308913B (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN114565675A (zh) | 一种在视觉slam前端去除动态特征点的方法 | |
Dahaghin et al. | Precise 3D extraction of building roofs by fusion of UAV-based thermal and visible images | |
CN109063638A (zh) | 基于倾斜摄影预测废弃物产生量的方法、系统及介质 | |
CN115965790A (zh) | 一种基于布料模拟算法的倾斜摄影点云滤波方法 | |
CN113420810B (zh) | 一种基于红外和可见光的电缆沟智能巡检系统及巡检方法 | |
CN115256084B (zh) | 一种用于地面研磨机器人的地面平整度检测处理方法 | |
CN113848209B (zh) | 一种基于无人机与激光测距的堤坝裂缝检测方法 | |
CN110349209A (zh) | 基于双目视觉的振捣棒定位方法 | |
CN113947623A (zh) | 一种粗糙度检测方法、slam定位方法及施工方法 | |
CN115984687A (zh) | 河工动床模型试验水边界测量方法、装置、设备及介质 | |
CN105354855A (zh) | 一种高耸结构外观检测装置及方法 | |
CN114494415A (zh) | 一种自动驾驶装载机对沙石堆检测识别和测量的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |