CN109816728B - 基于生成查询网络的机械臂抓取点定位检测的方法 - Google Patents
基于生成查询网络的机械臂抓取点定位检测的方法 Download PDFInfo
- Publication number
- CN109816728B CN109816728B CN201910088800.6A CN201910088800A CN109816728B CN 109816728 B CN109816728 B CN 109816728B CN 201910088800 A CN201910088800 A CN 201910088800A CN 109816728 B CN109816728 B CN 109816728B
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- camera
- model
- generation
- subsystem
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于生成查询网络的机械臂抓取点定位检测的方法,包括如下步骤:(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,场景图像获取子系统包括相机,三维模型生成子系统包括生成查询网络;(2)通过相机对包含机械臂和被抓取物体的当前实际场景进行图片采集;(3)将获得的图片序列作为作为生成查询网络表现层的输入;(4)通过检测判断子系统对生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败。本发明能够独立与机械臂和被抓取的物体,使用人工智能的方法,检测机械臂抓取是否正确和规范,使操作人员能够较全面了解到操作过程中的情况。
Description
技术领域
本发明涉及人工智能及控制技术领域,具体涉及一种基于生成查询网络的机械臂抓取点定位检测的方法。
背景技术
有一些物体在移动过程中,只能抓取某些特定部位,如果抓取其他部位,则很有可能损坏物体。在使用机械臂移动这些物体时,机械臂的“抓手”只能抓取有限被允许抓取的部位。然而,在很多情况下,机械臂抓取的定位不精确,常常发生“错位”等意外,导致移动过程中物体损坏或者掉落。在之前的解决方案中,利用光感,电感,压感等物理方法。而这些方法需要在机械臂或物体上安装相应的物理感应器件,且只能确定物体是否被抓取,无法得到更多的信息。在一般机器视觉设备(如相机),由于拍摄角度、清晰度等因素,所拍摄的图像很可能信息缺失,让人难以直观理解。
发明内容
本发明的目的是提供一种基于生成查询网络的机械臂抓取点定位检测的方法,能够独立与机械臂和被抓取的物体,使用人工智能的方法,检测机械臂抓取是否正确和规范,使操作人员能够较全面了解到操作过程中的情况。
为实现上述发明目的,本发明提供以下的技术方案:一种基于生成查询网络的机械臂抓取点定位检测的方法,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,所述场景图像获取子系统包括相机,所述三维模型生成子系统包括生成查询网络;
(2)通过所述相机对包含机械臂和被抓取物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列;
(3)将步骤(2)获得的图片序列作为作为所述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维仿真环境;
(4)通过所述检测判断子系统对步骤(3)生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败。
优选的,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列。
优选的,所述相机为单目相机。
优选的,拍摄方位用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,pos_x表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,pos_z表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角。
优选的,所述生成查询网络在训练时选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
其中,
θ是模型的待训练的参数;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
优选的,所述检测判断子系统对三维仿真环境中的机械臂抓取区域、机械臂带动物体移动区域以及物体放置区域进行预设,所述检测判断子系统判断三维仿真环境中预设的机械臂抓取区域与实时的机械臂抓取区域是否一致,如是,则标识机械臂抓取正确,如否,则标识机械臂抓取错误,所述检测判断子系统判断三维仿真环境中机械臂带动物体移动时物体是否掉落,如是,则标识抓取中物体掉落,如否,则标识抓取中物体保持,所述检测判断子系统判断三维仿真环境中预设的物体放置区域与实时的物体放置区域是否一致,如是,则标识物体放置正确,如否,则标识物体放置错误。
由于上述技术方案运用,本发明与现有技术相比具有以下优点:本发明公开的基于生成查询网络的机械臂抓取点定位检测的方法,以摄像机获取图片为输入,判断机械臂抓取位点的情况。传统方法是使用光、电,压力等物理方法。而本方法基于生成查询网络,使用人工智能的方法,解决了传统方法依赖相应的电子元器件,且需要固定安装在机械臂或物体上,复用度低,适用场合的广泛性不高,仅提供光、点、压力的参数,不便理解等方面的不足,本方法可以提供更多的抓取状态信息,并且能够智能检测抓取点是否抓取成功,并给予操作员相应的状态信息。
附图说明
图1为本发明公开的基于生成查询网络的机械臂抓取点定位检测的方法的流程图;
图2为本发明公开的生成查询网络的结构图;
图3为本发明公开的生成查询网络的表现层网络架构。
具体实施方式
下面结合本发明的原理、附图以及实施例对本发明进一步描述
参见图1至图3,如其中的图例所示,一种基于生成查询网络的机械臂抓取点定位检测的方法,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,上述场景图像获取子系统包括相机,上述三维模型生成子系统包括生成查询网络,上述相机为单目相机;
(2)通过上述相机对包含机械臂和被抓取物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列,带有空间姿态信息的图片序列定义为其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,是相机拍摄方位,是从拍摄方位拍摄到的图像,拍摄方位用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,pos_x表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,pos_z表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角;
(3)将步骤(2)获得的图片序列作为作为上述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维仿真环境;
(4)通过上述检测判断子系统对步骤(3)生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败。
上文中,上述生成查询网络在训练时选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
其中,
θ是模型的待训练的参数;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
上文中,上述检测判断子系统对三维仿真环境中的机械臂抓取区域、机械臂带动物体移动区域以及物体放置区域进行预设,所述检测判断子系统判断三维仿真环境中预设的机械臂抓取区域与实时的机械臂抓取区域是否一致,如是,则标识机械臂抓取正确,如否,则标识机械臂抓取错误,所述检测判断子系统判断三维仿真环境中机械臂带动物体移动时物体是否掉落,如是,则标识抓取中物体掉落,如否,则标识抓取中物体保持,所述检测判断子系统判断三维仿真环境中预设的物体放置区域与实时的物体放置区域是否一致,如是,则标识物体放置正确,如否,则标识物体放置错误。
本发明提供一种机械臂抓取点定位检测的方法,以摄像机获取图片为输入,判断机械臂抓取位点的情况。传统方法是使用光、电,压力等物理方法。而本方法基于生成查询网络,使用人工智能的方法,解决了传统方法依赖相应的电子元器件,且需要固定安装在机械臂或物体上,复用度低,适用场合的广泛性不高,仅提供光、点、压力的参数,不便理解等方面的不足,本方法可以提供更多的抓取状态信息,并且能够智能检测抓取点是否抓取成功,并给予操作员相应的状态信息。
基于生成查询网络的机械臂抓取点定位检测的方法,包括多个步骤,场景数据准备,是针对机械臂和物体所在场景拍摄的一系列的图片,该图片序列作为生成查询网络的输入的图片序列。生成查询网络训练完成,内部生成该图片序列的场景模型,作为初始的仿真环境,供后期使用。接下来,在仿真环境中设置抓取区域和放置区域,旨在检测物体是否抓取和放置正确;在仿真环境中,设置抓取状态和放置状态,旨在检测机械臂抓取物体出现的各种情况,并由相应的状态。接着,更新场景,是从场景中一个固定视角的相机输入一张图片作为输入,实时推理和更新仿真环境。检测机械臂状态,将现实通过推理更新映射到仿真环境,现实中的机械臂状态就是仿真环境中机械臂状态,检测仿真环境中机械臂状态就可以知道现实中机械臂状态。详细步骤如下:
步骤一:数据准备阶段
把以机械臂为圆心,机械臂到被抓取物体为半径的区域作为最小视角半径,在这个视角场景中拍摄一系列的图片。且是多角度拍摄同个场景,所拍摄的图片越多,后期检测结果越准确。所拍摄的图片同时要带有五个维度的信息,这五个维度分别是摄像机的X轴,摄像机的Y轴,摄像机的Z轴,摄像机的俯仰角(pitch)和摄像机的偏航角(yaw)。这五个维度表示的是该张图片被拍摄时摄像机的方位以及角度。也就是说每张图片与摄像机的姿态一一对应。而这一系列图片形成的图片集合被称为图片序列,它所包括的内容有图片和摄像机的姿态,整个图片序列作为生成查询网络的训练数据。对于该序列,使用来表示,其中,i∈{1,…,N},k∈{1,…,K},N是数据中场景的数目,K是每个场景中记录的图片的数目,是从视角拍摄到的图像。其中,用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,其中pos_x是摄像机的X轴坐标,pos_y是摄像机的Y轴坐标,pos_z是摄像机的Z轴坐标,yaw表示摄像机的偏航角(yaw),pitch表示摄像机的俯仰角(pitch)。
在条件生成模型中,由于交叉熵作为代价函数需要对高维度的隐变量进行积分过于困难,所以选用值逼近方法,即最小化上界,作为代价函数。
采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数。损失函数技术方式如下:
其中,是值逼近中的最小化上界方法,用来替代难以优化的交叉熵代价函数。θ是模型参数;xq表示预测的图片;是六层卷积网络,[k=2,s=2]->[k=3,s=1]->[k=2,s=2]->[k=3,s=1]->[k=3,s=1]->[k=3,s=1],其中k表示卷积核,s表示步长,为将输入映射到高斯分布的均值。是六层卷积网络,[k=2,s=2]->[k=3,s=1]->[k=2,s=2]->[k=3,s=1]->[k=3,s=1]->[k=3,s=1],其中k表示卷积核,s表示步长将各自的输入映射到高斯分布的充分统计量(标准差和均值)。是卷积网络,卷积核为2x2,步长2x2,将推理网络状态映射到隐变量的变分后验的充分统计。
训练完成即可将元输入的二维图片序列生成一个三维场景模型。
步骤三:物体抓取点,抓取区域和放置区域设置
将生成的三维场景模型作为仿真环境,将现实机械臂和物体的状态映射到仿真环境中。设置环境中物体抓取点、机械臂抓取物体区域和放置区域。
步骤四:抓取状态和警告设置
当仿真环境中机机械臂抓取点定位成功,标识抓取成功状态;当仿真环境中机械臂抓取点定位失败,标识抓取失败状态。当仿真环境中机械臂抓取物体中途掉落,标识中途掉落状态;当房中环境中机械臂抓取物体放置到正确位置,标识放置成功状态;当仿真环境中,机械臂抓取物体放置位置错误,标识放置失败状态。使用这些状态表示机械臂在抓取和放置物体时可能发生的情况,同时,给予操作人员相应的提醒或警告。
步骤五:输入固定视角相机
选择一个固定视角,该固定视角的选择范围以机械臂为圆心,机械臂与被抓取物体的距离作为最小半径的地面上半圆。拍摄的图片要求包含机械臂和物体,并且该图片中机械臂不能遮挡到被抓取物体。
步骤六:更新场景
更具新的图片输入,通过生成查询网络推理当前的机械臂和物体状态,实时更新场景模型。
步骤七:检测机械臂状态
现实中机械臂状态和仿真环境中机械臂状态是映射的,仿真环境中的机械臂状态可以指代现实中的机械臂状态,以此来判断机械臂抓取物体的状态。根据实时的仿真环境的反馈,基于相应的抓取状态和警告。
基于生成查询网络的机械臂抓取点定位检测的方法,使用机器视觉的方式和人工智能的方法来检测机械臂抓取物体的状态,并将状态信息通过三维仿真环境表现出来,比传统依靠普通的物体方法检测具有更多可利用和观察的信息。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.一种基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,所述场景图像获取子系统包括相机,所述三维模型生成子系统包括生成查询网络;
(2)通过所述相机对包含机械臂和被抓取物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列;
(3)将步骤(2)获得的图片序列作为所述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维仿真环境;
(4)通过所述检测判断子系统对步骤(3)生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败;
所述生成查询网络在训练时选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
其中,
θ是模型的待训练的参数;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
2.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列。
3.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,所述相机为单目相机。
6.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,所述检测判断子系统对三维仿真环境中的机械臂抓取区域、机械臂带动物体移动区域以及物体放置区域进行预设,所述检测判断子系统判断三维仿真环境中预设的机械臂抓取区域与实时的机械臂抓取区域是否一致,如是,则标识机械臂抓取正确,如否,则标识机械臂抓取错误,所述检测判断子系统判断三维仿真环境中机械臂带动物体移动时物体是否掉落,如是,则标识抓取中物体掉落,如否,则标识抓取中物体保持,所述检测判断子系统判断三维仿真环境中预设的物体放置区域与实时的物体放置区域是否一致,如是,则标识物体放置正确,如否,则标识物体放置错误。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910088800.6A CN109816728B (zh) | 2019-01-30 | 2019-01-30 | 基于生成查询网络的机械臂抓取点定位检测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910088800.6A CN109816728B (zh) | 2019-01-30 | 2019-01-30 | 基于生成查询网络的机械臂抓取点定位检测的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109816728A CN109816728A (zh) | 2019-05-28 |
CN109816728B true CN109816728B (zh) | 2022-06-14 |
Family
ID=66605745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910088800.6A Active CN109816728B (zh) | 2019-01-30 | 2019-01-30 | 基于生成查询网络的机械臂抓取点定位检测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109816728B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533014B (zh) * | 2019-08-29 | 2020-12-25 | 口碑(上海)信息技术有限公司 | 智能化设备的运行检测方法及装置 |
CN115972198B (zh) * | 2022-12-05 | 2023-10-10 | 无锡宇辉信息技术有限公司 | 一种非完全信息条件下的机械臂视觉抓取方法与装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108656107A (zh) * | 2018-04-04 | 2018-10-16 | 北京航空航天大学 | 一种基于图像处理的机械臂抓取系统及方法 |
CN109241964A (zh) * | 2018-08-17 | 2019-01-18 | 上海非夕机器人科技有限公司 | 机械臂的抓取点的获取方法及设备 |
-
2019
- 2019-01-30 CN CN201910088800.6A patent/CN109816728B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108656107A (zh) * | 2018-04-04 | 2018-10-16 | 北京航空航天大学 | 一种基于图像处理的机械臂抓取系统及方法 |
CN109241964A (zh) * | 2018-08-17 | 2019-01-18 | 上海非夕机器人科技有限公司 | 机械臂的抓取点的获取方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109816728A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109483554B (zh) | 基于全局和局部视觉语义的机器人动态抓取方法及系统 | |
CN112476434B (zh) | 一种基于协作机器人的视觉3d取放方法及系统 | |
CN110000785B (zh) | 农业场景无标定机器人运动视觉协同伺服控制方法与设备 | |
CN105598965B (zh) | 基于立体视觉的机器人欠驱动手自主抓取方法 | |
CN108827154B (zh) | 一种机器人无示教抓取方法、装置及计算机可读存储介质 | |
US8843236B2 (en) | Method and system for training a robot using human-assisted task demonstration | |
EP4122657A1 (en) | Generating a model for an object encountered by a robot | |
CN108748149B (zh) | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 | |
CN108466268A (zh) | 一种货物分类搬运方法、系统及移动机器人和存储介质 | |
JP6671694B1 (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
CN109816728B (zh) | 基于生成查询网络的机械臂抓取点定位检测的方法 | |
CN111331607B (zh) | 一种基于机械臂的自主抓取与码垛方法及系统 | |
CN113664835B (zh) | 机器人自动手眼标定方法与系统 | |
CN113103235B (zh) | 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法 | |
CN111191650B (zh) | 基于rgb-d图像视觉显著性的物品定位方法与系统 | |
CN114851201A (zh) | 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法 | |
CN114347008A (zh) | 基于工业机器人的无序抓取工件方法、装置及智能终端 | |
CN112164112A (zh) | 一种获取机械臂位姿信息的方法及装置 | |
CN112454368B (zh) | 基于激光测距与深度强化学习的机械手臂控制系统及方法 | |
CN114187312A (zh) | 目标物的抓取方法、装置、系统、存储介质及设备 | |
CN115862074A (zh) | 人体指向确定、屏幕控制方法、装置及相关设备 | |
CN116117786A (zh) | 高视觉可见性下机械臂轨迹规划方法及系统 | |
CN113977637A (zh) | 可用于非精度料箱的机器人视觉识别抓件系统及方法 | |
JPH09323280A (ja) | マニピュレータの制御方法及びシステム | |
CN112589795A (zh) | 一种基于不确定性多帧融合的真空吸盘机械臂抓取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |