CN113822251A - 基于双目视觉的地面侦察机器人手势控制系统及控制方法 - Google Patents

基于双目视觉的地面侦察机器人手势控制系统及控制方法 Download PDF

Info

Publication number
CN113822251A
CN113822251A CN202111394436.XA CN202111394436A CN113822251A CN 113822251 A CN113822251 A CN 113822251A CN 202111394436 A CN202111394436 A CN 202111394436A CN 113822251 A CN113822251 A CN 113822251A
Authority
CN
China
Prior art keywords
robot
network
fingertip
training
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111394436.XA
Other languages
English (en)
Other versions
CN113822251B (zh
Inventor
纪鹏
冯金香
马凤英
张芳芳
张慧
王斌鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Original Assignee
Qilu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology filed Critical Qilu University of Technology
Priority to CN202111394436.XA priority Critical patent/CN113822251B/zh
Publication of CN113822251A publication Critical patent/CN113822251A/zh
Application granted granted Critical
Publication of CN113822251B publication Critical patent/CN113822251B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于双目视觉的地面侦察机器人手势控制系统及控制方法,包括显示器、双目摄像装置、控制指环、人机交互控制系统,显示器、双目摄像装置、控制指环分别与人机交互控制系统连接;显示器用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标发送给机器人执行。可用于多自由度机械臂的地面侦察机器人,采用控制指环和双目摄像装置结合的方式,实现了机器人的位置移动和摄像头角度、高度的改变,完成侦察任务。

Description

基于双目视觉的地面侦察机器人手势控制系统及控制方法
技术领域
本发明涉及于双目视觉、移动机器人的远程控制相关技术领域,具体的说,是一种基于双目视觉,通过手势远程控制地面侦察机器人的控制系统及控制方法。
背景技术
地面侦察机器人一般是由可移动的机器人车体和侦察系统组成的,常用于有限空间(如野外、楼宇、室内)的侦察,也可搭载一定装备应用于矿业地下、消防等工作环境中,以及车厢、机舱等地的反恐侦察、有毒气体环境下的勘察、核辐射环境下的反恐及侦察。
最简单的侦察机器人搭载的侦察系统是由摄像头和两自由度云台组成的,摄像头固定于云台上,通过遥杆控制云台实现摄像头的移动控制,进而完成侦察任务。该方法的缺点是侦察范围小、不够灵活。另有采用多自由度机械臂取代两自由度云台的侦察机器人,其通常是将摄像头固定于多自由度机械臂末端,通过按钮或摇杆结合按钮来控制机械臂运动实现侦察。然而,按钮记忆复杂,机械臂控制难度大且不直观。为了解决这个问题,研究者开始使用手势这种直观且容易操作的方式来控制多自由度机械臂的运动。常见的手势控制方法有手势佩戴可识别装置(如数据手套等)和基于视觉图像的控制方式。前者是通过识别跟踪佩戴的装置来控制机械臂运动,但这种方法不能控制机械臂末端运动,而且装备昂贵。后者多采用基于肤色、形状等特征将手势分割出来,再通过手势识别分类,不同手势代表不同操作,进而控制机械臂末端运动。然而在手势分割过程中,常常会因为光照等问题导致肤色分割效果不佳,分割结果的准确性直接影响了后续工作的完成。
发明内容
针对上述问题,本发明提出一种基于双目视觉的地面侦察机器人手势控制系统及控制方法,可用于多自由度机械臂的地面侦察机器人,采用控制指环和双目摄像装置结合的方式,实现了机器人的位置移动和摄像头角度、高度的改变,完成侦察任务。
本发明提供如下技术方案:基于双目视觉的地面侦察机器人手势控制系统,包括显示器、双目摄像装置、控制指环、人机交互控制系统;所述显示器、双目摄像装置、控制指环分别与人机交互控制系统连接;显示器用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标通过无线通信装置或者有线通信装置发送给机器人执行。
控制指环为内含单片机、具有近距离无线通信功能的控制器,控制指环有三个档位,分别是停止档、机器人车体控制档和机械臂末端控制档,通过将指环上的滑动开关滑动到不同档位控制机器人运动,采用无线通信方式,利于指环的使用,如果采用有线方式,通信线很容易阻碍控制指环的运动,并且通信线也会影响双目摄像装置的拍摄。
将操作人员操控的控制端和侦察机器人之间连接,可以采用有线或者无线的方式,根据实际使用需要进行设置,操作人员在控制端通过滑动控制指环选择控制机器人车体或机械臂,确定控制机器人车体或机械臂后,双目摄像装置拍摄到操作人员手指运动的手势图像,手势图像通过人机交互控制系统处理获得指尖移动轨迹信息,将指尖移动轨迹信息传送给执行端,执行端接收信息,控制机器人车体或者机械臂末端运动,带动侦察摄像头拍摄操作人员指定的区域,完成侦察任务,机器人执行端包括履带式机器人车体、多自由度机械臂、侦察摄像头、远距离无线通信装置、机器人控制系统。其中,多自由度机械臂末端搭载侦察摄像头固定于履带式机器人车体上,通过侦察摄像头拍摄侦察区图像。机器人控制系统通过远距离无线通信装置接收控制端发送来的指尖点的轨迹,将指尖点轨迹进行关节反解之后,控制机器人车载机械臂各关节跟踪指尖点轨迹进行关节反解之后对应的关节角轨迹。
基于双目视觉的地面侦察机器人手势控制方法,包括如下步骤,步骤1、将操作人员操控的控制端和侦察机器人之间建立连接;步骤2、打开控制端的显示器,显示侦察机器人拍摄的侦察图像;步骤3、判断控制指环的档位,并将档位信息发送给侦察机器人并执行下一步;步骤4、解码控制指环发送来的档位信息并判断控制指环档位是否处于机器人车体控制档,如果是处于机器人车体控制档,则根据双目摄像装置获得操作人员的指尖点所在区域信息进行机器人车体运动控制指令编码,然后发送给执行端并执行步骤6,如果是处于机械臂末端控制档,则将双目摄像装置获得操作人员的连续指尖点坐标信息进行机械臂末端运动控制指令编码,然后通过发送给执行端并执行步骤5;步骤5、执行端接收机械臂末端运动控制指令编码并解码为连续指尖点坐标信息,然后控制机械臂末端跟踪指尖点运动;步骤6、执行端接收机器人车体运动控制指令编码,然后解码为机器人车体运动控制指令,然后控制机器人车体向指定方向移动;步骤7、判断程序是否结束,如果是,则结束对机器人的控制,否则,执行步骤3。在使用时,需要操作员佩戴控制指环、安装双目摄像头和显示器。
上述的指令编码包括包头、功能位、数据位、数据、校验位、包尾,其中包头为机器人控制的起始位,功能位代表控制指环档位,指环档位包括停止档、控制机器人车体档或控制机械臂末端档,数据位表示即将接收数据的位数,数据是指尖点坐标信息或指尖点所在区域信息,校验位用于校验传输数据的准确与否,包尾为结束位。
步骤4中,双目摄像装置获得操作人员指尖点的具体步骤为:步骤41、双目摄像装置拍摄操作人员手势的双视角图像;步骤42、采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割;步骤43、采用指尖检测算法对步骤42得到的语义分割后的手势图像进行指尖检测;步骤44、采用三维重建算法将步骤43检测到的二维图像指尖点重建为三维指尖点。
步骤42中,基于对抗网络的半监督语义分割算法,具体为:
步骤421、构建网络;
包括一个语义分割网络和一个判别网络,语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与真实标签图之间的差别,来调整语义分割结果;其中,语义分割网络采用DeeplabV3+,判别网络采用DCGAN结构中的判别器--卷积神经网络。分割网络的输入是H×W×3(H、W分别为图像的高和宽,3为RGB三通道)的图像,输出是H×W×K(K为分割的类别数)的类别概率图。其中,类别概率图表征图像中的点为类别K的概率。判别网络的输入是来自分割网络的类别概率图或与输入图像对应的真实标签的独热码,输出是H×W×1的置信图,具体地,置信图表征图像中的像素点来自真实标签的置信度。
步骤422、确定损失函数和训练方式;
本网络的训练包括语义分割网络的训练和判别网络的训练,在训练过程中,用到两种训练方式:全监督性训练和半监督训练。
全监督训练中,只使用有标签的图像进行训练,语义分割网络的损失函数为:语义分割网络生成的语义分割图和真实标签的交叉熵损失
Figure 430615DEST_PATH_IMAGE001
、对抗损失
Figure 144493DEST_PATH_IMAGE002
Figure 658651DEST_PATH_IMAGE003
为全监督训练的损失函数,计算公式如下:
Figure 53860DEST_PATH_IMAGE004
Figure 664970DEST_PATH_IMAGE005
Figure 487432DEST_PATH_IMAGE006
其中,
Figure 488886DEST_PATH_IMAGE007
为超参数,用于调节两损失所占权重,输入图像为x,像素坐标为(h,w),K为类别数,语义分割结果为
Figure 484524DEST_PATH_IMAGE008
,判别网络输入为
Figure 153403DEST_PATH_IMAGE008
或真实标签的独热码
Figure 881188DEST_PATH_IMAGE009
,当(h,w)处的像素点x属于k类别时,
Figure 432255DEST_PATH_IMAGE009
=1;否则,
Figure 169266DEST_PATH_IMAGE009
=0,判别网络的输出结果为
Figure 427072DEST_PATH_IMAGE010
,表示输入图像经语义分割网络和判别网络之后所得的置信图上该像素点处的值,D(
Figure 856917DEST_PATH_IMAGE011
)表示真实标签经过独热码编码得到的置信图上该像素点处的值。
半监督训练中,针对有标签的图像,分割网络的损失函数为:分割网络生成的语义分割图和真实标签的交叉熵
Figure 396745DEST_PATH_IMAGE012
、对抗损失
Figure 406289DEST_PATH_IMAGE013
;针对无标签的图像,把判别网络得到的置信度较高的区域记作伪标签,代替真实标签,进而,分割网络的损失函数变为:分割网络生成的语义分割图和伪标签的交叉熵
Figure 49760DEST_PATH_IMAGE014
、对抗损失
Figure 181664DEST_PATH_IMAGE013
Figure 910586DEST_PATH_IMAGE015
为半监督训练的损失函数;
Figure 723821DEST_PATH_IMAGE016
其中,
Figure 18536DEST_PATH_IMAGE017
为超参数,用于调节各损失函数所占比重,
Figure 790183DEST_PATH_IMAGE014
半监督交叉熵损失。
Figure 475242DEST_PATH_IMAGE018
其中,M为设置的阈值,
Figure 154485DEST_PATH_IMAGE019
Figure 506969DEST_PATH_IMAGE020
时,
Figure 183938DEST_PATH_IMAGE021
=1,否则,
Figure 621873DEST_PATH_IMAGE021
=0,F(·)为筛选函数,用来选择分类置信度较高的像素点,这些像素点构成伪标签;
步骤423、开始训练;包括语义分割网络的训练和判别网络的训练,在训练时,先训练判别网络,再训练语义分割网络;在更新语义分割网络参数时,要保持判别网络参数不变。
步骤4231、训练判别网络;使用有标签图像进行全监督训练,损失函数是交叉熵损失函数L d ,训练方法为梯度下降法,训练目的为使L d 最小化;
Figure 839227DEST_PATH_IMAGE022
其中,
Figure 46218DEST_PATH_IMAGE023
表示二分类交叉熵损失,计算公式如下:
Figure 159667DEST_PATH_IMAGE024
步骤4232、训练分割网络;首先,对网络进行全监督训练,使得语义分割网络和判别网络都掌握一定的工作能力;其次,将有标签和无标签图像同时放入网络进行半监督训练;将无标签图像经语义分割网络得到的类别概率图送入判别网络,得到置信图,再对其进行二值化处理得到伪标签,利用伪标签进行半监督训练。
步骤43中指尖检测算法具体包括:步骤431、获取语义分割得到的语义分割图;步骤432、对语义分割图进行灰度化、二值化处理;步骤433、利用Canny算子边缘检测的方法从图中找到手势轮廓,并画出来;步骤434、通过求手势轮廓的零阶矩
Figure 881636DEST_PATH_IMAGE025
、一阶矩
Figure 105944DEST_PATH_IMAGE026
、二阶矩
Figure 901861DEST_PATH_IMAGE027
来计算手势轮廓的重心(
Figure 982950DEST_PATH_IMAGE028
),即为手的重心;步骤435、从手势轮廓点中找到距离重心最远的点,该点即为指尖点;步骤436、画出指尖点。
步骤44中的三维重建算法,包括:
步骤441、获取指尖检测得到的指尖点左右视图;
步骤442、标定双目摄像头的坐标点参数,标定双目摄像头,获取双目摄像头的内、外参数。标定过程主要是坐标系之间的转换:世界坐标系-相机坐标系-图像坐标系。
世界坐标系Oxyz-相机坐标系
Figure 395477DEST_PATH_IMAGE029
Figure 157896DEST_PATH_IMAGE030
=
Figure 339479DEST_PATH_IMAGE031
+
Figure 325889DEST_PATH_IMAGE032
(9)
其中,(x,y,z)是点在Oxyz坐标系中的坐标,
Figure 960133DEST_PATH_IMAGE033
是该点在
Figure 526244DEST_PATH_IMAGE029
坐标系中的坐标,
Figure 126115DEST_PATH_IMAGE034
为旋转矩阵,
Figure 221110DEST_PATH_IMAGE032
为平移矩阵。
相机坐标系
Figure 608229DEST_PATH_IMAGE029
-图像坐标系
Figure 774768DEST_PATH_IMAGE035
:
Figure 665363DEST_PATH_IMAGE036
(10)
其中,
Figure 196839DEST_PATH_IMAGE037
为点在
Figure 602412DEST_PATH_IMAGE035
坐标系中的坐标,
Figure 775905DEST_PATH_IMAGE038
为相机焦距。
由于相机有畸变,故图像坐标系的真实坐标点
Figure 521007DEST_PATH_IMAGE039
和理论坐标点有误差(
Figure 488963DEST_PATH_IMAGE040
),即
Figure 381832DEST_PATH_IMAGE041
=
Figure 827857DEST_PATH_IMAGE042
-
Figure 693045DEST_PATH_IMAGE043
(11)
利用棋盘格,采用Harris算法检测其中的角点,由于已知棋盘格中格子之间的距离等世界坐标系信息,故可求出双目摄像头的参数该方法基本步骤为:首先,计算出内外参矩阵的积;其次,求内参矩阵;最后,求外参矩阵。
步骤443、进行双目矫正;根据上一步获得的双目摄像头参数对手势指尖点左右视图进行畸变矫正和极线矫正,使左右视图成像原点一致、两个摄像头光轴平行、左右成像共面、对极线行对齐;
步骤444、进行立体匹配;对双目矫正后的指尖图像,通过立体匹配算法对其进行立体匹配,计算视差图;
步骤445、根据视差图进行三维重建;根据视差图,通过几何关系求出深度图,生成三维点云图像,并利用摄像头参数求出指尖点的三维坐标。
设指尖点在世界坐标系中的坐标为
Figure 628640DEST_PATH_IMAGE044
,已知左右视图的图像坐标系中的坐标分别为
Figure 212068DEST_PATH_IMAGE045
Figure 196205DEST_PATH_IMAGE046
。根据几何关系有:
Figure 978216DEST_PATH_IMAGE047
Figure 287974DEST_PATH_IMAGE048
其中,
Figure 93119DEST_PATH_IMAGE038
为焦距,
Figure 943264DEST_PATH_IMAGE049
为基线长度,通过上式计算出指尖点的三维坐标。
步骤5中机械臂末端控制时,具体为:步骤51、读取三维重建得到的指尖点的三维坐标;步骤52、将读取到的三维坐标映射到机械臂坐标系;步骤53、判断机械臂末端是否到达指尖点处,如果是,执行步骤51,读取下一个指尖点坐标,如果否,执行下一步;步骤54、对指尖点坐标进行逆运动学求解,计算出指尖点坐标对应的机械臂各关节角值;步骤55、使用机器人轨迹跟踪控制算法控制多自由度机械臂的各个关节跟踪指尖点反解后的关节角并最终使机械臂末端跟随指尖点运动。
步骤6中车体运动时,依据的指尖点所在区域,将区域划分为A、B、C、D、E,若指尖点位于区域A,则控制机器人车体前进;指尖点位于区域B,则控制机器人车体后退;指尖点位于区域C,则控制机器人车体左转;指尖点位于区域D,则控制机器人车体右转;指尖点位于区域E,则控制机器人车体停止,
A区域可用如下约束条件表示:
Figure 783044DEST_PATH_IMAGE050
(12)
B区域可用如下约束条件表示:
Figure 998124DEST_PATH_IMAGE051
(13)
C区域可用如下约束条件表示:
Figure 290566DEST_PATH_IMAGE052
(14)
D区域可用如下约束条件表示
Figure 944401DEST_PATH_IMAGE053
(15)
E区域可用如下约束条件表示:
Figure 373108DEST_PATH_IMAGE054
(16)
其中,r为E区域圆的半径,
Figure 24669DEST_PATH_IMAGE055
Figure 368188DEST_PATH_IMAGE056
分别为右下限和左上限。
通过上述描述可以看出本方案中相比现有技术,具有如下效果:(1)本公开在控制端有显示器,可以实时观察侦察区的情况,采用双目摄像头拍摄手势图像,通过建立手指指尖与机器人的联系,实现了只需移动手指,便可控制机器人车体或机械臂末端运动的功能,简单易懂,方便操作。(2)本公开在控制端采用控制指环作为系统的开关,三档调节,可随意切换控制机器人车体或机械臂运动,操作简单、方便快捷。(3)本方案中采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割。该网络由DeeplabV3+语义分割网络和一个判别网络构成,其中,语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与标签图之间的差别,来调整语义分割结果,使得分割效果更好;另外,采用半监督,用判别网络产生的伪标签帮助分割网络来训练,可以有效地解决语义分割中常见的标签获取难的问题;最后,语义分割是像素级别的分割,分割过程中往往容易忽略像素间的整体关系,而生成对抗网络的方法可以有效地解决这个问题。(4)本方案中采用寻找最大重心距离的方法检测指尖,简单方便、快捷有效,为整个过程节省了时间,更容易实现实时控制。
附图说明
图1是本发明具体实施方式的系统概图。
图2是本发明具体实施方式的控制方法的流程图。
图3是本发明具体实施方式的控制指环放大图。
图4是本发明具体实施方式的无线通信编码方式图。
图5 是本发明具体实施方式的指尖点区域划分图。
图6是本发明具体实施方式的生成对抗网络半监督语义分割图。
图7是本发明具体实施方式的分割网络结构中的DeeplabV3+结构图。
图8是本发明具体实施方式的判别网络结构图。
图9是本发明具体实施方式的指尖检测实现流程图。
图10是本发明具体实施方式的三维重建实现流程图。
图11是本发明具体实施方式的机械臂末端位置控制实现流程图。
图中:A1为显示器,A2为双目摄像头,A3为控制指环,A4为控制端近距离无线通信装置,A5为控制端远距离无线通信装置,A6为人机交互控制系统,B1为机器人车体,B2为机械臂,B3为侦察摄像头,B4为执行端远距离无线通信装置,B5为机器人控制系统。
具体实施方式
下面将结合本发明具体实施方式中的附图,对本发明具体实施方式中的技术方案进行清楚、完整地描述,显然,所描述的具体实施方式仅仅是本发明一种具体实施方式,而不是全部的具体实施方式。基于本发明中的具体实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他具体实施方式,都属于本发明保护的范围。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合;
通过附图可以看出,本发明的基于双目视觉的地面侦察机器人手势控制系统,包括显示器A1、双目摄像装置A2、控制指环A3、人机交互控制系统A6,显示器A1、双目摄像装置A2、控制指环A3分别与人机交互控制系统A6连接;显示器A1用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标发送给机器人执行,本具体实施方式采用履带式机器人。
操作人员在控制端通过滑动控制指环A3选择控制机器人车体B1或机械臂B2末端运动,通过移动手指,双目摄像装置A2拍摄,人机交互控制系统A6处理,将指尖移动轨迹信息传送给执行端,执行端接收信息,通过机器人控制系统B5控制机器人车体B1或机械臂B2末端运动,机械臂B2为多自由度机械臂,带动侦察摄像头B3拍摄操作人员指定的区域,完成侦察任务。机器人包括履带式机器人车体B1、机械臂B2、侦察摄像头B3、执行端远距离无线通信装置B4、机器人控制系统B5。其中,多自由度机械臂B2末端搭载侦察摄像头B3固定于履带式机器人车体B1上,通过侦察摄像头B3拍摄侦察区图像,通过执行端远距离无线通信装置B4与控制端联络。机器人控制系统B5通过执行端远距离无线通信装置B4接收控制端发送来的指尖点的轨迹,将指尖点轨迹进行关节反解之后,控制机器人车载机械臂B2各关节跟踪指尖点轨迹进行关节反解之后对应的关节角轨迹。
控制指环A3为内含单片机、具有近距离无线通信功能的控制器,控制指环有三个档位,分别是停止档、机器人车体控制档和机械臂末端控制档,通过不同档位控制机器人运动。
一种基于上述系统的地面侦察机器人手势控制方法,包括如下步骤,
步骤1、将操作人员操控的控制端和侦察机器人之间建立连接,本具体实施方式中采用无线通信方式建立连接;
步骤2、打开控制端的显示器A1,显示侦察机器人拍摄的侦察图像;
步骤3、判断控制指环A3的档位,并将档位信息发送给侦察机器人并执行下一步;
步骤4、解码控制指环A3发送来的档位信息并判断控制指环档位是否处于机器人车体控制档,如果是处于机器人车体控制档,则根据双目摄像装置A2获得操作人员的指尖点所在区域信息进行机器人车体运动控制指令编码,然后发送给执行端并执行步骤6,如果是处于机械臂B2末端控制档,则将双目摄像装置A2获得操作人员的连续指尖点坐标信息进行机械臂B2末端运动控制指令编码,然后通过发送给执行端并执行步骤5;
如图4所示的编码方式,其中,包头为机器人控制的起始位,功能位代表控制指环档位(停止、控制机器人车体或控制机械臂),数据位表示即将接收数据的位数,数据是指尖点坐标信息或指尖点所在区域信息,校验位用于校验传输数据的准确与否,包尾为结束位。例如,包头位:0xFF00;功能位:0xAA表示控制机器人车体,0xBB表示控制机械臂,0xCC表示停止;数据位:0x02表示即将接收两位数据(机器人车体控制时的指尖点区域信息),0x03表示即将接收两位数据(机械臂控制时的指尖点坐标信息);数据即两位区域信息或三位坐标信息;校验位为前面所有位数据之和;包尾位:0xEE。
双目摄像装置获得操作人员指尖点的具体步骤为:
步骤41、双目摄像装置拍摄操作人员手势的双视角图像;
步骤42、采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割;
具体为:步骤421、构建网络;本网络包括一个语义分割网络和一个判别网络,其中,语义分割网络采用DeeplabV3+,判别网络采用DCGAN结构中的判别器--卷积神经网络。语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与真实标签图之间的差别,来调整语义分割结果。生成对抗网络半监督语义分割流程图如图6所示,分割网络结构如图7所示,判别网络结构如图8所示。分割网络的输入是H×W×3(H、W分别为图像的高和宽,3为RGB三通道)的图像,输出是H×W×K(K为分割的类别数)的类别概率图。其中,类别概率图表征图像中的点为类别K的概率。判别网络的输入是来自分割网络的类别概率图或与输入图像对应的真实标签的独热码,输出是H×W×1的置信图,具体地,置信图表征图像中的像素点来自真实标签的置信度。
步骤422、确定损失函数和训练方式;本网络的训练包括语义分割网络的训练和判别网络的训练,在训练过程中,用到两种训练方式:全监督性训练和半监督训练。
全监督训练中,只使用有标签的图像进行训练,语义分割网络的损失函数为:语义分割网络生成的语义分割图和真实标签的交叉熵损失
Figure 763397DEST_PATH_IMAGE012
、对抗损失
Figure 46611DEST_PATH_IMAGE013
Figure 931391DEST_PATH_IMAGE057
为全监督训练的损失函数,计算公式如下:
Figure 198424DEST_PATH_IMAGE058
Figure 131745DEST_PATH_IMAGE059
Figure 535044DEST_PATH_IMAGE060
其中,
Figure 590725DEST_PATH_IMAGE007
为超参数,用于调节两损失所占权重,输入图像为x,像素坐标为(h,w),K为类别数,语义分割结果为
Figure 79475DEST_PATH_IMAGE008
,判别网络输入为
Figure 816487DEST_PATH_IMAGE008
或真实标签的独热码
Figure 136610DEST_PATH_IMAGE009
,当(h,w)处的像素点x属于k类别时,
Figure 300875DEST_PATH_IMAGE009
=1;否则,
Figure 276921DEST_PATH_IMAGE009
=0,判别网络的输出结果为
Figure 614362DEST_PATH_IMAGE010
,表示输入图像经语义分割网络和判别网络之后所得的置信图上该像素点处的值,D(
Figure 257833DEST_PATH_IMAGE011
)表示真实标签经过独热码编码得到的置信图上该像素点处的值;
半监督训练中,针对有标签的图像,分割网络的损失函数为:分割网络生成的语义分割图和真实标签的交叉熵
Figure 327420DEST_PATH_IMAGE012
、对抗损失
Figure 853079DEST_PATH_IMAGE013
;针对无标签的图像,把判别网络得到的置信度较高的区域记作伪标签,代替真实标签,进而,分割网络的损失函数变为:分割网络生成的语义分割图和伪标签的交叉熵
Figure 931894DEST_PATH_IMAGE014
、对抗损失
Figure 164292DEST_PATH_IMAGE013
Figure 670359DEST_PATH_IMAGE015
为半监督训练的损失函数。
Figure 683315DEST_PATH_IMAGE016
其中,
Figure 300241DEST_PATH_IMAGE017
为超参数,用于调节各损失函数所占比重,
Figure 652725DEST_PATH_IMAGE014
半监督交叉熵损失。
Figure 392011DEST_PATH_IMAGE062
其中,M为设置的阈值。
Figure 829945DEST_PATH_IMAGE063
Figure 984983DEST_PATH_IMAGE020
时,
Figure 755755DEST_PATH_IMAGE021
=1,否则,
Figure 603626DEST_PATH_IMAGE021
=0。F(·)为筛选函数,用来选择分类置信度较高的像素点,这些像素点构成伪标签。
步骤423、开始训练;此训练过程分为两部分:语义分割网络的训练和判别网络的训练,在训练时,先训练判别网络,再训练语义分割网络。在更新语义分割网络参数时,要保持判别网络参数不变。步骤4231、训练判别网络;使用有标签图像进行全监督训练,损失函数是交叉熵损失函数L d ,训练方法为梯度下降法,训练目的为使L d 最小化。步骤4232、训练分割网络;首先,对网络进行15000个epoch的全监督训练,使得语义分割网络和判别网络都掌握一定的工作能力。其次,将有标签和无标签图像同时放入网络进行半监督训练5000个epoch。将无标签图像经语义分割网络得到的类别概率图送入判别网络,得到置信图,再对其进行二值化处理得到伪标签,利用伪标签进行半监督训练。
步骤43、采用指尖检测算法对步骤42得到的语义分割后的手势图像进行指尖检测;如图9所示,步骤431、获取语义分割得到的语义分割图;步骤432、对语义分割图进行灰度化、二值化处理;步骤433、利用Canny检测的方法从图中找到手势轮廓,并画出来;步骤434、通过求手势轮廓的零阶矩
Figure 263277DEST_PATH_IMAGE064
、一阶矩
Figure 284323DEST_PATH_IMAGE065
、二阶矩
Figure 611399DEST_PATH_IMAGE066
来计算手势轮廓的重心(
Figure 630170DEST_PATH_IMAGE067
),即为手的重心G;步骤435、从手势轮廓点中找到距离重心最远的点F,该点即为指尖点;步骤436、画出左右视图中的指尖点
Figure 42697DEST_PATH_IMAGE068
Figure 601855DEST_PATH_IMAGE069
步骤44、采用三维重建算法将步骤43检测到的二维图像指尖点重建为三维指尖点。
如图10所示,步骤441、获取指尖检测得到的指尖点左右视图;
步骤442标定双目摄像头A2;对双目摄像头A2进行标定,获取双目摄像头A2的内、外参数。标定过程主要是坐标系之间的转换:世界坐标系-相机坐标系-图像坐标系。
世界坐标系Oxyz-相机坐标系
Figure 517858DEST_PATH_IMAGE029
Figure 973110DEST_PATH_IMAGE030
=
Figure 669671DEST_PATH_IMAGE031
+
Figure 235781DEST_PATH_IMAGE032
(9)
其中,(x,y,z)是点在Oxyz坐标系中的坐标,
Figure 6291DEST_PATH_IMAGE033
是该点在
Figure 429182DEST_PATH_IMAGE029
坐标系中的坐标,
Figure 816301DEST_PATH_IMAGE034
为旋转矩阵,
Figure 654944DEST_PATH_IMAGE032
为平移矩阵。
相机坐标系
Figure 607857DEST_PATH_IMAGE029
-图像坐标系
Figure 404911DEST_PATH_IMAGE035
:
Figure 748168DEST_PATH_IMAGE036
(10)
其中,
Figure 718398DEST_PATH_IMAGE037
为点在
Figure 729079DEST_PATH_IMAGE035
坐标系中的坐标,
Figure 431456DEST_PATH_IMAGE038
为相机焦距。
由于相机有畸变,故图像坐标系的真实坐标点
Figure 58747DEST_PATH_IMAGE039
和理论有误差(
Figure 802974DEST_PATH_IMAGE040
),即
Figure 933741DEST_PATH_IMAGE041
=
Figure 807019DEST_PATH_IMAGE042
-
Figure 187185DEST_PATH_IMAGE043
(11)
采用检测算法检测其中的角点,由于已知棋盘格中格子之间的距离等世界坐标系信息,故可求出双目摄像头的参数。该方法基本步骤为:首先,计算出内外参矩阵的积;其次,求内参矩阵;最后,求外参矩阵。
步骤443、进行双目矫正;根据上一步获得的双目摄像头参数对手势指尖点左右视图进行畸变矫正和极线矫正,使左右视图成像原点一致、两个摄像头光轴平行、左右成像共面、对极线行对齐。
步骤444、进行立体匹配;对双目矫正后的指尖图像,通过BM立体匹配算法对其进行立体匹配,计算视差图。
步骤445、根据视差图进行三维重建;根据视差图,通过几何关系求出深度图,生成三维点云图像,并利用摄像头参数求出指尖点的三维坐标。
设指尖点在世界坐标系中的坐标为
Figure 436901DEST_PATH_IMAGE044
,已知左右视图的图像坐标系中的坐标分别为
Figure 156595DEST_PATH_IMAGE045
Figure 263091DEST_PATH_IMAGE070
。根据几何关系有:
Figure 333815DEST_PATH_IMAGE071
Figure 121643DEST_PATH_IMAGE072
其中,
Figure 758161DEST_PATH_IMAGE073
为焦距,
Figure 238820DEST_PATH_IMAGE074
为基线长度,通过上式计算出指尖点的三维坐标
Figure 265682DEST_PATH_IMAGE075
步骤5、执行端接收机械臂B2末端运动控制指令编码并解码为连续指尖点坐标信息,然后控制机械臂B2末端跟踪指尖点运动;
如图11所示,步骤5中的机械臂B2末端控制时,具体为:步骤51、读取三维重建得到的指尖点的三维坐标
Figure 919518DEST_PATH_IMAGE075
;步骤52、将读取到的三维坐标
Figure 613804DEST_PATH_IMAGE075
映射到机械臂坐标系GX-Y-Z,记为P1; 步骤53、判断机械臂末端点Q3是否到达P1处,如果是,执行步骤5.1,读取下一个指尖点坐标,如果否,执行下一步;步骤54、对指尖点坐标进行逆运动学求解,计算出指尖点坐标对应的机械臂B2各关节角值;步骤55、使用机器人轨迹跟踪控制算法控制多自由度机械臂B2的各个关节跟踪指尖点反解后的关节角并最终使机械臂B2末端跟随指尖点运动。
步骤6、执行端接收机器人车体运动控制指令编码,然后解码为机器人车体运动控制指令,然后控制机器人车体向指定方向移动;
如图5所示,依据指尖点区域划分情况,具体为:将区域划分为A、B、C、D、E,划分情况如图5所示。若指尖点位于区域A,则控制机器人车体前进;指尖点位于区域B,则控制机器人车体后退;指尖点位于区域C,则控制机器人车体左转;指尖点位于区域D,则控制机器人车体右转;指尖点位于区域E,则控制机器人车体停止。
按照如图5所示方式建立直角坐标系,则A区域可用如下约束条件表示:
Figure DEST_PATH_IMAGE076
(12)
B区域可用如下约束条件表示:
Figure 999786DEST_PATH_IMAGE051
(13)
C区域可用如下约束条件表示:
Figure 841840DEST_PATH_IMAGE052
(14)
D区域可用如下约束条件表示
Figure 971470DEST_PATH_IMAGE053
(15)
E区域可用如下约束条件表示:
Figure 520263DEST_PATH_IMAGE054
(16)
其中,r为E区域圆的半径,
Figure 405043DEST_PATH_IMAGE055
Figure 672076DEST_PATH_IMAGE056
分别为右下限和左上限。
步骤7、判断程序是否结束,如果是,则结束对机器人的控制,否则,执行步骤3。
尽管已经示出和描述了本发明的具体实施方式,对于本领域的普通技术人员而言,可以理解在不脱离发明的原理和精神的情况下可以对这些具体实施方式进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (10)

1.基于双目视觉的地面侦察机器人手势控制系统,其特征在于:包括显示器、双目摄像装置、控制指环、人机交互控制系统;所述显示器、双目摄像装置、控制指环分别与人机交互控制系统连接;
显示器用于显示侦察机器人拍摄的场景图像;双目摄像装置用于采集操作人员的手势图像,控制指环用于控制地面侦察机器人车体的运动和机械臂的运动,人机交互控制系统用于处理双目摄像装置拍摄的手势图像,将手势图像处理为指尖点的三维坐标,然后将指尖点的三维坐标发送给机器人执行。
2.根据权利要求1所述的基于双目视觉的地面侦察机器人手势控制系统,其特征在于,
控制指环为内含单片机、具有近距离无线通信功能的控制器,控制指环有三个档位,分别是停止档、机器人车体控制档和机械臂末端控制档,通过不同档位控制机器人运动。
3.基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤1、将操作人员操控的控制端和侦察机器人之间建立连接;
步骤2、打开控制端的显示器,显示侦察机器人拍摄的侦察图像;
步骤3、判断控制指环的档位,并将档位信息发送给侦察机器人并执行下一步;
步骤4、解码控制指环发送来的档位信息并判断控制指环档位是否处于机器人车体控制档,如果是处于机器人车体控制档,则根据双目摄像装置获得操作人员的指尖点所在区域信息进行机器人车体运动控制指令编码,然后发送给执行端并执行步骤6,如果是处于机械臂末端控制档,则将双目摄像装置获得操作人员的连续指尖点坐标信息进行机械臂末端运动控制指令编码,然后通过发送给执行端并执行步骤5;
步骤5、执行端接收机械臂末端运动控制指令编码并解码为连续指尖点坐标信息,然后控制机械臂末端跟踪指尖点运动;
步骤6、执行端接收机器人车体运动控制指令编码,然后解码为机器人车体运动控制指令,然后控制机器人车体向指定方向移动;
步骤7、判断程序是否结束,如果是,则结束对机器人的控制,否则,执行步骤3。
4.根据权利要求3所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
指令编码包括包头、功能位、数据位、数据、校验位、包尾,其中包头为机器人控制的起始位,功能位代表控制指环档位,指环档位包括停止档、控制机器人车体档或控制机械臂末端档,数据位表示即将接收数据的位数,数据是指尖点坐标信息或指尖点所在区域信息,校验位用于校验传输数据的准确与否,包尾为结束位。
5.根据权利要求3所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤4中,双目摄像装置获得操作人员指尖点的具体步骤为:
步骤41、双目摄像装置拍摄操作人员手势的双视角图像;
步骤42、采用基于对抗网络的半监督语义分割算法对拍摄的双视角图像进行语义分割;
步骤43、采用指尖检测算法对步骤42得到的语义分割后的手势图像进行指尖检测;
步骤44、采用三维重建算法将步骤43检测到的二维图像指尖点重建为三维指尖点。
6.根据权利要求5所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤42中,基于对抗网络的半监督语义分割算法,具体为:
步骤421、构建网络;
包括一个语义分割网络和一个判别网络,语义分割网络用于生成与输入手势图像相对应的语义分割图,判别网络通过检测分割网络产生的分割图与真实标签图之间的差别,来调整语义分割结果;
步骤422、确定损失函数和训练方式;
本网络的训练包括语义分割网络的训练和判别网络的训练,在训练过程中,用到两种训练方式:全监督性训练和半监督训练;
全监督训练中,只使用有标签的图像进行训练,语义分割网络的损失函数为:语义分割网络生成的语义分割图和真实标签的交叉熵损失
Figure 85125DEST_PATH_IMAGE001
、对抗损失
Figure 533424DEST_PATH_IMAGE002
Figure 578740DEST_PATH_IMAGE003
为全监督训练的损失函数,计算公式如下:
Figure 255841DEST_PATH_IMAGE004
Figure 335792DEST_PATH_IMAGE005
Figure 423834DEST_PATH_IMAGE006
其中,
Figure 222025DEST_PATH_IMAGE007
为超参数,用于调节两损失所占权重,输入图像为x,像素坐标为(h,w),K为类别数,语义分割结果为
Figure 686505DEST_PATH_IMAGE008
,判别网络输入为
Figure 620963DEST_PATH_IMAGE008
或真实标签的独热码
Figure 409401DEST_PATH_IMAGE009
,当(h,w)处的像素点x属于k类别时,
Figure 429310DEST_PATH_IMAGE009
=1;否则,
Figure 431901DEST_PATH_IMAGE009
=0,判别网络的输出结果为
Figure 220865DEST_PATH_IMAGE010
Figure 181868DEST_PATH_IMAGE011
表示输入图像经语义分割网络和判别网络之后所得的置信图上该像素点处的值,D(
Figure 689073DEST_PATH_IMAGE012
)表示真实标签经过独热码编码得到的置信图上该像素点处的值;
半监督训练中,针对有标签的图像,分割网络的损失函数为:分割网络生成的语义分割图和真实标签的交叉熵
Figure 980508DEST_PATH_IMAGE013
、对抗损失
Figure 889558DEST_PATH_IMAGE002
;针对无标签的图像,把判别网络得到的置信度较高的区域记作伪标签,代替真实标签,进而,分割网络的损失函数变为:分割网络生成的语义分割图和伪标签的交叉熵
Figure 755883DEST_PATH_IMAGE014
、对抗损失
Figure 750384DEST_PATH_IMAGE015
为半监督训练的损失函数,
Figure 94777DEST_PATH_IMAGE016
其中,
Figure 123913DEST_PATH_IMAGE017
为超参数,用于调节各损失函数所占比重,
Figure 410407DEST_PATH_IMAGE014
半监督交叉熵损失,
Figure 626625DEST_PATH_IMAGE018
其中,M为设置的阈值,
Figure 774709DEST_PATH_IMAGE019
Figure 658352DEST_PATH_IMAGE020
时,
Figure 866479DEST_PATH_IMAGE021
=1,否则,
Figure 569993DEST_PATH_IMAGE021
=0,F(·)为筛选函数,用来选择分类置信度较高的像素点,这些像素点构成伪标签;
步骤423、开始训练;
包括语义分割网络的训练和判别网络的训练,在训练时,先训练判别网络,再训练语义分割网络;
步骤4231、训练判别网络;
使用有标签图像进行全监督训练,损失函数是交叉熵损失函数L d ,训练方法为梯度下降法,训练目的为使L d 最小化;
Figure 272501DEST_PATH_IMAGE022
其中,
Figure 10650DEST_PATH_IMAGE023
表示二分类交叉熵损失,计算公式如下:
Figure 389678DEST_PATH_IMAGE024
步骤4232、训练分割网络;
首先,对网络进行全监督训练,使得语义分割网络和判别网络都掌握一定的工作能力;其次,将有标签和无标签图像同时放入网络进行半监督训练;将无标签图像经语义分割网络得到的类别概率图送入判别网络,得到置信图,再对其进行二值化处理得到伪标签,利用伪标签进行半监督训练。
7.根据权利要求5所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤43中指尖检测算法具体包括:
步骤431、获取语义分割得到的语义分割图;
步骤432、对语义分割图进行灰度化、二值化处理;
步骤433、利用Canny算子边缘检测的方法从图中找到手势轮廓,并画出来;
步骤434、通过求手势轮廓的零阶矩
Figure 580488DEST_PATH_IMAGE025
、一阶矩
Figure 335955DEST_PATH_IMAGE026
、二阶矩
Figure 663031DEST_PATH_IMAGE027
来计算手势轮廓的重心(
Figure 730737DEST_PATH_IMAGE028
),即为手的重心;
步骤435、从手势轮廓点中找到距离重心最远的点,该点即为指尖点;
步骤436、画出指尖点。
8.根据权利要求5所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤44中的三维重建算法,包括:
步骤441、获取指尖检测得到的指尖点左右视图;
步骤442、标定双目摄像头的坐标点参数;
步骤443、进行双目矫正;
根据上一步获得的双目摄像头参数对手势指尖点左右视图进行畸变矫正和极线矫正,使左右视图成像原点一致、两个摄像头光轴平行、左右成像共面、对极线行对齐;
步骤444、进行立体匹配;
对双目矫正后的指尖图像,通过立体匹配算法对其进行立体匹配,计算视差图;
步骤445、根据视差图进行三维重建;
根据视差图,通过几何关系求出深度图,生成三维点云图像,并利用摄像头参数求出指尖点的三维坐标。
9.根据权利要求5所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤5中机械臂末端控制时,具体为:
步骤51、读取三维重建得到的指尖点的三维坐标;
步骤52、将读取到的三维坐标映射到机械臂坐标系;
步骤53、判断机械臂末端是否到达指尖点处,如果是,执行步骤51,读取下一个指尖点坐标,如果否,执行下一步;
步骤54、对指尖点坐标进行逆运动学求解,计算出指尖点坐标对应的机械臂各关节角值;
步骤55、使用机器人轨迹跟踪控制算法控制多自由度机械臂的各个关节跟踪指尖点反解后的关节角并最终使机械臂末端跟随指尖点运动。
10.根据权利要求5所述的基于双目视觉的地面侦察机器人手势控制方法,其特征在于,
步骤6中车体运动时,依据的指尖点所在区域,将区域划分为A、B、C、D、E,若指尖点位于区域A,则控制机器人车体前进;指尖点位于区域B,则控制机器人车体后退;指尖点位于区域C,则控制机器人车体左转;指尖点位于区域D,则控制机器人车体右转;指尖点位于区域E,则控制机器人车体停止,
A区域可用如下约束条件表示:
Figure 408843DEST_PATH_IMAGE029
B区域可用如下约束条件表示:
Figure 702421DEST_PATH_IMAGE030
C区域可用如下约束条件表示:
Figure 415163DEST_PATH_IMAGE031
D区域可用如下约束条件表示
Figure 870415DEST_PATH_IMAGE032
E区域可用如下约束条件表示:
Figure 35817DEST_PATH_IMAGE033
其中,r为E区域圆的半径,
Figure 867507DEST_PATH_IMAGE034
Figure 451066DEST_PATH_IMAGE035
分别为右下限和左上限。
CN202111394436.XA 2021-11-23 2021-11-23 基于双目视觉的地面侦察机器人手势控制系统及控制方法 Active CN113822251B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111394436.XA CN113822251B (zh) 2021-11-23 2021-11-23 基于双目视觉的地面侦察机器人手势控制系统及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111394436.XA CN113822251B (zh) 2021-11-23 2021-11-23 基于双目视觉的地面侦察机器人手势控制系统及控制方法

Publications (2)

Publication Number Publication Date
CN113822251A true CN113822251A (zh) 2021-12-21
CN113822251B CN113822251B (zh) 2022-02-08

Family

ID=78919739

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111394436.XA Active CN113822251B (zh) 2021-11-23 2021-11-23 基于双目视觉的地面侦察机器人手势控制系统及控制方法

Country Status (1)

Country Link
CN (1) CN113822251B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449167A (zh) * 2022-01-15 2022-05-06 重庆长安汽车股份有限公司 基于体态识别的汽车拍照方法、系统、车辆及存储介质
CN115830408A (zh) * 2022-10-22 2023-03-21 北京百度网讯科技有限公司 伪标签生成方法、装置、设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107649406A (zh) * 2017-09-30 2018-02-02 南京航空航天大学 一种高效的双目视觉多物料拾取系统及方法
CN107813310A (zh) * 2017-11-22 2018-03-20 浙江优迈德智能装备有限公司 一种基于双目视觉多手势机器人控制方法
CN109955254A (zh) * 2019-04-30 2019-07-02 齐鲁工业大学 移动机器人控制系统及机器人末端位姿的遥操作控制方法
CN110039545A (zh) * 2019-04-30 2019-07-23 齐鲁工业大学 一种基于可穿戴设备的机器人远程控制系统及控制方法
CN111216133A (zh) * 2020-02-05 2020-06-02 广州中国科学院先进技术研究所 一种基于指尖识别和手部运动跟踪的机器人演示编程方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107649406A (zh) * 2017-09-30 2018-02-02 南京航空航天大学 一种高效的双目视觉多物料拾取系统及方法
CN107813310A (zh) * 2017-11-22 2018-03-20 浙江优迈德智能装备有限公司 一种基于双目视觉多手势机器人控制方法
CN109955254A (zh) * 2019-04-30 2019-07-02 齐鲁工业大学 移动机器人控制系统及机器人末端位姿的遥操作控制方法
CN110039545A (zh) * 2019-04-30 2019-07-23 齐鲁工业大学 一种基于可穿戴设备的机器人远程控制系统及控制方法
CN111216133A (zh) * 2020-02-05 2020-06-02 广州中国科学院先进技术研究所 一种基于指尖识别和手部运动跟踪的机器人演示编程方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中国期刊网官方账号: "《基于手势识别控制的机械臂小车》", 《百度文库:HTTPS://WENKU.BAIDU.COM/VIEW/D0EA6F4FF41FB7360B4C2E3F5727A5E9856A27B6》 *
葛立: "《基于双目视觉的六自由度机械臂手势识别控制系统研究》", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114449167A (zh) * 2022-01-15 2022-05-06 重庆长安汽车股份有限公司 基于体态识别的汽车拍照方法、系统、车辆及存储介质
CN114449167B (zh) * 2022-01-15 2023-06-06 重庆长安汽车股份有限公司 基于体态识别的汽车拍照方法、系统、车辆及存储介质
CN115830408A (zh) * 2022-10-22 2023-03-21 北京百度网讯科技有限公司 伪标签生成方法、装置、设备以及存储介质
CN115830408B (zh) * 2022-10-22 2024-03-08 北京百度网讯科技有限公司 伪标签生成方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN113822251B (zh) 2022-02-08

Similar Documents

Publication Publication Date Title
CN109544636B (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN107909061B (zh) 一种基于不完备特征的头部姿态跟踪装置及方法
CN113822251B (zh) 基于双目视觉的地面侦察机器人手势控制系统及控制方法
WO2020221311A1 (zh) 基于可穿戴设备的移动机器人控制系统及控制方法
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
CN109048926A (zh) 一种基于立体视觉的机器人智能避障系统及方法
CN110039545A (zh) 一种基于可穿戴设备的机器人远程控制系统及控制方法
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
CN116630394B (zh) 一种三维建模约束的多模态目标物体姿态估计方法及系统
CN109079794B (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN109940626B (zh) 一种基于机器人视觉的画眉机器人系统的控制方法
CN108229440A (zh) 一种基于多传感器融合室内人体姿态识别方法
CN109800676A (zh) 基于深度信息的手势识别方法及系统
Liu et al. Using unsupervised deep learning technique for monocular visual odometry
CN109785373B (zh) 一种基于散斑的六自由度位姿估计系统及方法
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
WO2022228391A1 (zh) 一种终端设备定位方法及其相关设备
CN108828996A (zh) 一种基于视觉信息的机械臂遥操作系统及方法
CN106403924A (zh) 基于深度摄像头的机器人快速定位与姿态估计方法
CN110555383A (zh) 一种基于卷积神经网络和3d估计的手势识别方法
CN105225270B (zh) 一种信息处理方法及电子设备
CN111241940B (zh) 一种机器人的远程控制方法、人体边界框确定方法及系统
CN108052901B (zh) 一种基于双目的手势识别智能无人机远程操控方法
CN110991306B (zh) 自适应的宽视场高分辨率智能传感方法和系统
CN113821108B (zh) 基于多模态交互技术的机器人远程控制系统及控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 250353 University Road, Changqing District, Ji'nan, Shandong Province, No. 3501

Patentee after: Qilu University of Technology (Shandong Academy of Sciences)

Country or region after: China

Address before: 250353 University Road, Changqing District, Ji'nan, Shandong Province, No. 3501

Patentee before: Qilu University of Technology

Country or region before: China