CN109816728B - 基于生成查询网络的机械臂抓取点定位检测的方法 - Google Patents

基于生成查询网络的机械臂抓取点定位检测的方法 Download PDF

Info

Publication number
CN109816728B
CN109816728B CN201910088800.6A CN201910088800A CN109816728B CN 109816728 B CN109816728 B CN 109816728B CN 201910088800 A CN201910088800 A CN 201910088800A CN 109816728 B CN109816728 B CN 109816728B
Authority
CN
China
Prior art keywords
mechanical arm
camera
model
generation
subsystem
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910088800.6A
Other languages
English (en)
Other versions
CN109816728A (zh
Inventor
吴吉
吴水明
杨钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Original Assignee
Suzhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd filed Critical Suzhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Priority to CN201910088800.6A priority Critical patent/CN109816728B/zh
Publication of CN109816728A publication Critical patent/CN109816728A/zh
Application granted granted Critical
Publication of CN109816728B publication Critical patent/CN109816728B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于生成查询网络的机械臂抓取点定位检测的方法,包括如下步骤:(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,场景图像获取子系统包括相机,三维模型生成子系统包括生成查询网络;(2)通过相机对包含机械臂和被抓取物体的当前实际场景进行图片采集;(3)将获得的图片序列作为作为生成查询网络表现层的输入;(4)通过检测判断子系统对生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败。本发明能够独立与机械臂和被抓取的物体,使用人工智能的方法,检测机械臂抓取是否正确和规范,使操作人员能够较全面了解到操作过程中的情况。

Description

基于生成查询网络的机械臂抓取点定位检测的方法
技术领域
本发明涉及人工智能及控制技术领域,具体涉及一种基于生成查询网络的机械臂抓取点定位检测的方法。
背景技术
有一些物体在移动过程中,只能抓取某些特定部位,如果抓取其他部位,则很有可能损坏物体。在使用机械臂移动这些物体时,机械臂的“抓手”只能抓取有限被允许抓取的部位。然而,在很多情况下,机械臂抓取的定位不精确,常常发生“错位”等意外,导致移动过程中物体损坏或者掉落。在之前的解决方案中,利用光感,电感,压感等物理方法。而这些方法需要在机械臂或物体上安装相应的物理感应器件,且只能确定物体是否被抓取,无法得到更多的信息。在一般机器视觉设备(如相机),由于拍摄角度、清晰度等因素,所拍摄的图像很可能信息缺失,让人难以直观理解。
发明内容
本发明的目的是提供一种基于生成查询网络的机械臂抓取点定位检测的方法,能够独立与机械臂和被抓取的物体,使用人工智能的方法,检测机械臂抓取是否正确和规范,使操作人员能够较全面了解到操作过程中的情况。
为实现上述发明目的,本发明提供以下的技术方案:一种基于生成查询网络的机械臂抓取点定位检测的方法,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,所述场景图像获取子系统包括相机,所述三维模型生成子系统包括生成查询网络;
(2)通过所述相机对包含机械臂和被抓取物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列;
(3)将步骤(2)获得的图片序列作为作为所述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维仿真环境;
(4)通过所述检测判断子系统对步骤(3)生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败。
优选的,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列。
优选的,所述相机为单目相机。
优选的,带有空间姿态信息的图片序列定义为
Figure BDA0001962607780000021
其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,
Figure BDA0001962607780000022
是相机拍摄方位,
Figure BDA0001962607780000023
是从拍摄方位
Figure BDA0001962607780000024
拍摄到的图像。
优选的,拍摄方位
Figure BDA0001962607780000025
用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,pos_x表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,pos_z表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角。
优选的,所述生成查询网络在训练时选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
Figure BDA0001962607780000026
其中,
θ是模型的待训练的参数;
Figure BDA0001962607780000031
表示当前函数有两个参数,分别为θ和φ;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
Figure BDA0001962607780000032
表示在D和qφ的条件下的期望;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
Figure BDA0001962607780000033
中η是卷积网络,将其输入uL映射到高斯分布的均值g,其中u0表示模型的初始状态;
Figure BDA0001962607780000034
相当于
Figure BDA00019626077800000312
即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型;
Figure BDA0001962607780000035
表示取该模型的负对数;
Figure BDA0001962607780000036
相当于
Figure BDA00019626077800000313
即在预测图片分布xq,视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下的推理模型,其中
Figure BDA0001962607780000037
是推理模型的初始状态;
Figure BDA0001962607780000038
相当于
Figure BDA00019626077800000311
即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型,其中,
Figure BDA0001962607780000039
表示生成模型的初始状态;
Figure BDA0001962607780000041
中KL用来表示两个模型的相似度,也称KL散度;
Figure BDA0001962607780000042
将模型的所有KL散度相加求和;
Figure BDA0001962607780000043
求取期望。
优选的,所述检测判断子系统对三维仿真环境中的机械臂抓取区域、机械臂带动物体移动区域以及物体放置区域进行预设,所述检测判断子系统判断三维仿真环境中预设的机械臂抓取区域与实时的机械臂抓取区域是否一致,如是,则标识机械臂抓取正确,如否,则标识机械臂抓取错误,所述检测判断子系统判断三维仿真环境中机械臂带动物体移动时物体是否掉落,如是,则标识抓取中物体掉落,如否,则标识抓取中物体保持,所述检测判断子系统判断三维仿真环境中预设的物体放置区域与实时的物体放置区域是否一致,如是,则标识物体放置正确,如否,则标识物体放置错误。
由于上述技术方案运用,本发明与现有技术相比具有以下优点:本发明公开的基于生成查询网络的机械臂抓取点定位检测的方法,以摄像机获取图片为输入,判断机械臂抓取位点的情况。传统方法是使用光、电,压力等物理方法。而本方法基于生成查询网络,使用人工智能的方法,解决了传统方法依赖相应的电子元器件,且需要固定安装在机械臂或物体上,复用度低,适用场合的广泛性不高,仅提供光、点、压力的参数,不便理解等方面的不足,本方法可以提供更多的抓取状态信息,并且能够智能检测抓取点是否抓取成功,并给予操作员相应的状态信息。
附图说明
图1为本发明公开的基于生成查询网络的机械臂抓取点定位检测的方法的流程图;
图2为本发明公开的生成查询网络的结构图;
图3为本发明公开的生成查询网络的表现层网络架构。
具体实施方式
下面结合本发明的原理、附图以及实施例对本发明进一步描述
参见图1至图3,如其中的图例所示,一种基于生成查询网络的机械臂抓取点定位检测的方法,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,上述场景图像获取子系统包括相机,上述三维模型生成子系统包括生成查询网络,上述相机为单目相机;
(2)通过上述相机对包含机械臂和被抓取物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列,带有空间姿态信息的图片序列定义为
Figure BDA0001962607780000051
其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,
Figure BDA0001962607780000052
是相机拍摄方位,
Figure BDA0001962607780000053
是从拍摄方位
Figure BDA0001962607780000054
拍摄到的图像,拍摄方位
Figure BDA0001962607780000055
用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,pos_x表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,pos_z表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角;
(3)将步骤(2)获得的图片序列作为作为上述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维仿真环境;
(4)通过上述检测判断子系统对步骤(3)生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败。
上文中,上述生成查询网络在训练时选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
Figure BDA0001962607780000061
其中,
θ是模型的待训练的参数;
Figure BDA0001962607780000062
表示当前函数有两个参数,分别为θ和φ;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
Figure BDA0001962607780000063
表示在D和qφ的条件下的期望;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
Figure BDA0001962607780000064
中η是卷积网络,将其输入uL映射到高斯分布的均值g,其中u0表示模型的初始状态;
Figure BDA0001962607780000065
相当于
Figure BDA0001962607780000066
即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型;
Figure BDA0001962607780000071
表示取该模型的负对数;
Figure BDA0001962607780000072
相当于
Figure BDA00019626077800000710
即在预测图片分布xq,视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下的推理模型,其中
Figure BDA0001962607780000077
是推理模型的初始状态;
Figure BDA0001962607780000073
相当于
Figure BDA0001962607780000078
即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型,其中,
Figure BDA0001962607780000079
表示生成模型的初始状态;
Figure BDA0001962607780000074
中KL用来表示两个模型的相似度,也称KL散度;
Figure BDA0001962607780000075
将模型的所有KL散度相加求和;
Figure BDA0001962607780000076
求取期望。
上文中,上述检测判断子系统对三维仿真环境中的机械臂抓取区域、机械臂带动物体移动区域以及物体放置区域进行预设,所述检测判断子系统判断三维仿真环境中预设的机械臂抓取区域与实时的机械臂抓取区域是否一致,如是,则标识机械臂抓取正确,如否,则标识机械臂抓取错误,所述检测判断子系统判断三维仿真环境中机械臂带动物体移动时物体是否掉落,如是,则标识抓取中物体掉落,如否,则标识抓取中物体保持,所述检测判断子系统判断三维仿真环境中预设的物体放置区域与实时的物体放置区域是否一致,如是,则标识物体放置正确,如否,则标识物体放置错误。
本发明提供一种机械臂抓取点定位检测的方法,以摄像机获取图片为输入,判断机械臂抓取位点的情况。传统方法是使用光、电,压力等物理方法。而本方法基于生成查询网络,使用人工智能的方法,解决了传统方法依赖相应的电子元器件,且需要固定安装在机械臂或物体上,复用度低,适用场合的广泛性不高,仅提供光、点、压力的参数,不便理解等方面的不足,本方法可以提供更多的抓取状态信息,并且能够智能检测抓取点是否抓取成功,并给予操作员相应的状态信息。
基于生成查询网络的机械臂抓取点定位检测的方法,包括多个步骤,场景数据准备,是针对机械臂和物体所在场景拍摄的一系列的图片,该图片序列作为生成查询网络的输入的图片序列。生成查询网络训练完成,内部生成该图片序列的场景模型,作为初始的仿真环境,供后期使用。接下来,在仿真环境中设置抓取区域和放置区域,旨在检测物体是否抓取和放置正确;在仿真环境中,设置抓取状态和放置状态,旨在检测机械臂抓取物体出现的各种情况,并由相应的状态。接着,更新场景,是从场景中一个固定视角的相机输入一张图片作为输入,实时推理和更新仿真环境。检测机械臂状态,将现实通过推理更新映射到仿真环境,现实中的机械臂状态就是仿真环境中机械臂状态,检测仿真环境中机械臂状态就可以知道现实中机械臂状态。详细步骤如下:
步骤一:数据准备阶段
把以机械臂为圆心,机械臂到被抓取物体为半径的区域作为最小视角半径,在这个视角场景中拍摄一系列的图片。且是多角度拍摄同个场景,所拍摄的图片越多,后期检测结果越准确。所拍摄的图片同时要带有五个维度的信息,这五个维度分别是摄像机的X轴,摄像机的Y轴,摄像机的Z轴,摄像机的俯仰角(pitch)和摄像机的偏航角(yaw)。这五个维度表示的是该张图片被拍摄时摄像机的方位以及角度。也就是说每张图片与摄像机的姿态一一对应。而这一系列图片形成的图片集合被称为图片序列,它所包括的内容有图片和摄像机的姿态,整个图片序列作为生成查询网络的训练数据。对于该序列,使用
Figure BDA0001962607780000091
来表示,其中,i∈{1,…,N},k∈{1,…,K},N是数据中场景的数目,K是每个场景中记录的图片的数目,
Figure BDA0001962607780000092
是从视角
Figure BDA0001962607780000093
拍摄到的图像。其中,
Figure BDA0001962607780000094
用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,其中pos_x是摄像机的X轴坐标,pos_y是摄像机的Y轴坐标,pos_z是摄像机的Z轴坐标,yaw表示摄像机的偏航角(yaw),pitch表示摄像机的俯仰角(pitch)。
在条件生成模型中,由于交叉熵作为代价函数需要对高维度的隐变量进行积分过于困难,所以选用值逼近方法,即最小化上界,作为代价函数。
采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数。损失函数技术方式如下:
Figure BDA0001962607780000095
观察到的训练样本模型:
Figure BDA0001962607780000096
后验因子:
Figure BDA0001962607780000097
先验因子:
Figure BDA0001962607780000098
后验样本:
Figure BDA00019626077800000912
其中,
Figure BDA0001962607780000099
是值逼近中的最小化上界方法,用来替代难以优化的交叉熵代价函数。θ是模型参数;xq表示预测的图片;
Figure BDA00019626077800000910
是六层卷积网络,[k=2,s=2]->[k=3,s=1]->[k=2,s=2]->[k=3,s=1]->[k=3,s=1]->[k=3,s=1],其中k表示卷积核,s表示步长,为将输入映射到高斯分布的均值。
Figure BDA00019626077800000911
是六层卷积网络,[k=2,s=2]->[k=3,s=1]->[k=2,s=2]->[k=3,s=1]->[k=3,s=1]->[k=3,s=1],其中k表示卷积核,s表示步长将各自的输入映射到高斯分布的充分统计量(标准差和均值)。
Figure BDA0001962607780000101
是卷积网络,卷积核为2x2,步长2x2,将推理网络状态映射到隐变量的变分后验的充分统计。
训练完成即可将元输入的二维图片序列生成一个三维场景模型。
步骤三:物体抓取点,抓取区域和放置区域设置
将生成的三维场景模型作为仿真环境,将现实机械臂和物体的状态映射到仿真环境中。设置环境中物体抓取点、机械臂抓取物体区域和放置区域。
步骤四:抓取状态和警告设置
当仿真环境中机机械臂抓取点定位成功,标识抓取成功状态;当仿真环境中机械臂抓取点定位失败,标识抓取失败状态。当仿真环境中机械臂抓取物体中途掉落,标识中途掉落状态;当房中环境中机械臂抓取物体放置到正确位置,标识放置成功状态;当仿真环境中,机械臂抓取物体放置位置错误,标识放置失败状态。使用这些状态表示机械臂在抓取和放置物体时可能发生的情况,同时,给予操作人员相应的提醒或警告。
步骤五:输入固定视角相机
选择一个固定视角,该固定视角的选择范围以机械臂为圆心,机械臂与被抓取物体的距离作为最小半径的地面上半圆。拍摄的图片要求包含机械臂和物体,并且该图片中机械臂不能遮挡到被抓取物体。
步骤六:更新场景
更具新的图片输入,通过生成查询网络推理当前的机械臂和物体状态,实时更新场景模型。
步骤七:检测机械臂状态
现实中机械臂状态和仿真环境中机械臂状态是映射的,仿真环境中的机械臂状态可以指代现实中的机械臂状态,以此来判断机械臂抓取物体的状态。根据实时的仿真环境的反馈,基于相应的抓取状态和警告。
基于生成查询网络的机械臂抓取点定位检测的方法,使用机器视觉的方式和人工智能的方法来检测机械臂抓取物体的状态,并将状态信息通过三维仿真环境表现出来,比传统依靠普通的物体方法检测具有更多可利用和观察的信息。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一检测判断子系统,所述场景图像获取子系统包括相机,所述三维模型生成子系统包括生成查询网络;
(2)通过所述相机对包含机械臂和被抓取物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列;
(3)将步骤(2)获得的图片序列作为所述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维仿真环境;
(4)通过所述检测判断子系统对步骤(3)生成的三维仿真环境进行分析,判断机械臂抓取物体是否成功,如是,则当前实际场景中机械臂抓取物体成功,如否,则当前实际场景中机械臂抓取物体失败;
所述生成查询网络在训练时选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
Figure FDA0003628188940000011
其中,
θ是模型的待训练的参数;
Figure FDA0003628188940000012
表示当前函数有两个参数,分别为θ和φ;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
Figure FDA0003628188940000013
表示在D和qφ的条件下的期望;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中
Figure FDA00036281889400000212
Figure FDA0003628188940000021
中η是卷积网络,将其输入uL映射到高斯分布的均值g,其中u0表示模型的初始状态;
Figure FDA0003628188940000022
相当于
Figure FDA0003628188940000023
即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型;
Figure FDA0003628188940000024
表示取该模型的负对数;
Figure FDA0003628188940000025
相当于
Figure FDA00036281889400000213
即在预测图片分布xq,视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下的推理模型,其中
Figure FDA0003628188940000026
是推理模型的初始状态;
Figure FDA0003628188940000027
相当于
Figure FDA0003628188940000028
即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型,其中,
Figure FDA0003628188940000029
表示生成模型的初始状态;
Figure FDA00036281889400000210
中KL用来表示两个模型的相似度,也称KL散度;
Figure FDA00036281889400000211
将模型的所有KL散度相加求和;
Figure FDA0003628188940000031
求取期望。
2.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列。
3.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,所述相机为单目相机。
4.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,带有空间姿态信息的图片序列定义为
Figure FDA0003628188940000032
其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,
Figure FDA0003628188940000033
是相机拍摄方位,
Figure FDA0003628188940000034
是从拍摄方位
Figure FDA0003628188940000035
拍摄到的图像。
5.根据权利要求4所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,拍摄方位
Figure FDA0003628188940000036
用五个维度的向量
Figure FDA0003628188940000037
表示,
Figure FDA0003628188940000038
表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,
Figure FDA0003628188940000039
表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角。
6.根据权利要求1所述的基于生成查询网络的机械臂抓取点定位检测的方法,其特征在于,所述检测判断子系统对三维仿真环境中的机械臂抓取区域、机械臂带动物体移动区域以及物体放置区域进行预设,所述检测判断子系统判断三维仿真环境中预设的机械臂抓取区域与实时的机械臂抓取区域是否一致,如是,则标识机械臂抓取正确,如否,则标识机械臂抓取错误,所述检测判断子系统判断三维仿真环境中机械臂带动物体移动时物体是否掉落,如是,则标识抓取中物体掉落,如否,则标识抓取中物体保持,所述检测判断子系统判断三维仿真环境中预设的物体放置区域与实时的物体放置区域是否一致,如是,则标识物体放置正确,如否,则标识物体放置错误。
CN201910088800.6A 2019-01-30 2019-01-30 基于生成查询网络的机械臂抓取点定位检测的方法 Active CN109816728B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910088800.6A CN109816728B (zh) 2019-01-30 2019-01-30 基于生成查询网络的机械臂抓取点定位检测的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910088800.6A CN109816728B (zh) 2019-01-30 2019-01-30 基于生成查询网络的机械臂抓取点定位检测的方法

Publications (2)

Publication Number Publication Date
CN109816728A CN109816728A (zh) 2019-05-28
CN109816728B true CN109816728B (zh) 2022-06-14

Family

ID=66605745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910088800.6A Active CN109816728B (zh) 2019-01-30 2019-01-30 基于生成查询网络的机械臂抓取点定位检测的方法

Country Status (1)

Country Link
CN (1) CN109816728B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533014B (zh) * 2019-08-29 2020-12-25 口碑(上海)信息技术有限公司 智能化设备的运行检测方法及装置
CN115972198B (zh) * 2022-12-05 2023-10-10 无锡宇辉信息技术有限公司 一种非完全信息条件下的机械臂视觉抓取方法与装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN109241964A (zh) * 2018-08-17 2019-01-18 上海非夕机器人科技有限公司 机械臂的抓取点的获取方法及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108656107A (zh) * 2018-04-04 2018-10-16 北京航空航天大学 一种基于图像处理的机械臂抓取系统及方法
CN109241964A (zh) * 2018-08-17 2019-01-18 上海非夕机器人科技有限公司 机械臂的抓取点的获取方法及设备

Also Published As

Publication number Publication date
CN109816728A (zh) 2019-05-28

Similar Documents

Publication Publication Date Title
CN109483554B (zh) 基于全局和局部视觉语义的机器人动态抓取方法及系统
CN112476434B (zh) 一种基于协作机器人的视觉3d取放方法及系统
CN110000785B (zh) 农业场景无标定机器人运动视觉协同伺服控制方法与设备
CN105598965B (zh) 基于立体视觉的机器人欠驱动手自主抓取方法
CN108827154B (zh) 一种机器人无示教抓取方法、装置及计算机可读存储介质
US8843236B2 (en) Method and system for training a robot using human-assisted task demonstration
EP4122657A1 (en) Generating a model for an object encountered by a robot
CN108748149B (zh) 一种复杂环境下基于深度学习的无标定机械臂抓取方法
CN108466268A (zh) 一种货物分类搬运方法、系统及移动机器人和存储介质
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
CN109816728B (zh) 基于生成查询网络的机械臂抓取点定位检测的方法
CN111331607B (zh) 一种基于机械臂的自主抓取与码垛方法及系统
CN113664835B (zh) 机器人自动手眼标定方法与系统
CN113103235B (zh) 一种基于rgb-d图像对柜体表面设备进行垂直操作的方法
CN111191650B (zh) 基于rgb-d图像视觉显著性的物品定位方法与系统
CN114851201A (zh) 一种基于tsdf三维重建的机械臂六自由度视觉闭环抓取方法
CN114347008A (zh) 基于工业机器人的无序抓取工件方法、装置及智能终端
CN112164112A (zh) 一种获取机械臂位姿信息的方法及装置
CN112454368B (zh) 基于激光测距与深度强化学习的机械手臂控制系统及方法
CN114187312A (zh) 目标物的抓取方法、装置、系统、存储介质及设备
CN115862074A (zh) 人体指向确定、屏幕控制方法、装置及相关设备
CN116117786A (zh) 高视觉可见性下机械臂轨迹规划方法及系统
CN113977637A (zh) 可用于非精度料箱的机器人视觉识别抓件系统及方法
JPH09323280A (ja) マニピュレータの制御方法及びシステム
CN112589795A (zh) 一种基于不确定性多帧融合的真空吸盘机械臂抓取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant