CN109318227B - 一种基于人形机器人的掷骰子方法及人形机器人 - Google Patents
一种基于人形机器人的掷骰子方法及人形机器人 Download PDFInfo
- Publication number
- CN109318227B CN109318227B CN201811108132.0A CN201811108132A CN109318227B CN 109318227 B CN109318227 B CN 109318227B CN 201811108132 A CN201811108132 A CN 201811108132A CN 109318227 B CN109318227 B CN 109318227B
- Authority
- CN
- China
- Prior art keywords
- dice
- image
- humanoid robot
- mode
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 241000282414 Homo sapiens Species 0.000 claims abstract description 87
- 230000033001 locomotion Effects 0.000 claims abstract description 67
- 230000008569 process Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 42
- 238000003708 edge detection Methods 0.000 claims description 34
- 210000000988 bone and bone Anatomy 0.000 claims description 24
- 230000000877 morphologic effect Effects 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 9
- 230000010365 information processing Effects 0.000 claims description 9
- 230000003238 somatosensory effect Effects 0.000 claims description 9
- 238000009499 grossing Methods 0.000 claims description 8
- 238000005260 corrosion Methods 0.000 claims description 7
- 230000007797 corrosion Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 21
- 230000008901 benefit Effects 0.000 description 16
- 238000005096 rolling process Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 13
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000005242 forging Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 229910052742 iron Inorganic materials 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 241001166076 Diapheromera femorata Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/003—Manipulators for entertainment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于人形机器人的掷骰子方法及人形机器人。其中,所述方法包括:人形机器人获取其到骰子的距离信息,进而根据该获取到的距离信息,运动到距离骰子合适的地点位置,进而在该运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出。通过上述方式,能够实现人形机器人能够自动掷骰子。
Description
技术领域
本发明涉及人形机器人技术领域,尤其涉及一种基于人形机器人的掷骰子方法及人形机器人。
背景技术
在人力资源越发紧缺的大环境下,对自动化机械的投入愈发受到各行业的重视,带给了机器人产业发展的巨大机遇与挑战。2013年的中国是全世界机器人购买数量最多的国家,甚至超过了机械自动化程度更高的日本。现在,高效率,好管理的机器人越来越受到各行业的青睐。
但是,以库卡、安川、发那科为首的外资机器人品牌占据了中国将近90%的机器人市场。国产机器人的销售量只有区区市场总量的十分之一,说明国产机器人的竞争力还不够足。打铁还需自身硬,要提高国产机器人的市场竞争力,需要突破自身的技术桎梏,提高核心技术水平,才能在机器人市场突出重围,与外资品牌正面交锋。在《中国制造2025》的政策扶持与战略指导下,中国的机器人产业正欣欣向荣,遍地开花,多个机器人产业园区已经建成并投入使用,围绕着技术研发这一关键环节开展工作。
2018年5月16号,在天津举办的第二届世界智能大会上,各种各样的机器人及应用场景,无一不在预示着:以人工智能为代表的新一轮科技革命孕育兴起,正以前所未有的速度和方式改变着世界。其中最令人瞩目的就是各种机器人对各种场景的实际应用。
中国首个独立研制的人形机器人是一台命名为“先行者”的机器人,于2000年11月29日在长沙国防科技大学展示,先行者的体重有20公斤,身高达1.4米。其外观造型与人类相似,与人类一样具有五官与四肢,可以实现拟人化的行走以及一些基本操作,步行速率为每秒两步,而且还有语言能力。
此后,又有多个研究所及公司展开对人形机器人的研究。现阶段,人形机器人的应用场景主要以军工、航天等行业应用为主。根据学界的定义,完整形态上的智能机器人应具备感知、交互、决策、控制四大功能。具体到人形机器人形体,其核心技术难点在于步态控制、环境感知等环节,所以目前为止大部分研究所及公司主要在攻关或者完善核心技术难题,如平衡控制,姿态规划,自主避障等。
在第50届国际最具影响力的美国CES(International Consumer ElectronicsShow,国际消费性电子展会)展会上,令人眼前一亮的Talos机器人。是来自中国的乐聚(深圳)机器人技术有限公司自主研发的人形机器人。Talos机器人具有高精度数字伺服舵机、高级步态算法和人形SLAM技术。这是中国企业首次公布的具有SLAM算法的人形机器人。Talos能够根据地面的变化调整身体重心,从而保持平衡。此外,Talos每只手具有3根手指,虽然结构简单,但是依旧能够完成对轻量物品的抓取任务。
国内对于人形机器人抓取研究的实验及文献较少,较大的原因是人形机器人手指电机功率较小,普遍只能抓取质量较轻的物体。而且对于不规则物体的抓取还需要大量的样本数据进行分析实验。因此,机器人抓取的开发大部分是使用机械臂进行的。
厦门电子产品展会就展出过某厂家利用六轴机械臂实现的掷骰子这一过程。所有骰子需要放在一个器皿里面,让机械臂去抓取这个器皿再倾倒出骰子。局限性在于需要手动去把倒出来的骰子一个一个拣出来,再重新放进到骰盅里面去。
国外的人形机器人发展起步较早,最为突出的应属谷歌旗下的波士顿动力公司研发的Atlas人形机器人,在2018年5月其公司发布的视频来看。Atlas已经能够在城市公路以及微小崎岖的土路上奔跑,并且可以实现后空翻。抓取方面,Atlas可以搬动重达10磅的箱子,但从视频中看,Atlas为了提高抓取的精度,依旧采用了贴上定位标签进行定点搬运工作。
同样在机器人方面研究有深厚底蕴的日本丰田公司,在2017年六月份发布了一款命名为T-HR3的人形机器人。可以完全复制人类的动作,并且完成精度非常高。从抓取气球而不使气球产生较大形变的结果看来,该机器人对抓取力度的控制十分精确。但是该机器人还是存在一定局限性:没有人工智能自主能力,需要人类坐在控制台上来操纵机器人。
我国国内对人形机器人领域的研究虽然起步得晚,但是其发展速度十分迅猛,直到2013年,人形机器人的相关科研工作已经在国内绝大多数“985”、“211”高校开展。同时,国内还举办了许多关于人形机器人的竞赛,以进行进一步交流学习。除此之外,在与人形机器人关联的图像处理及定位算法领域,我国的学者也取得了许多成果,包括一些高校的图像处理算法和定位算法。因此,尽管我国国内对人形机器人领域的研究虽然起步得晚,但学者们和科研人员们仍在不断学习与探索人形机器人。但是,现有的人形机器人的研究方案还无法实现人形机器人能够自动掷骰子。
发明内容
有鉴于此,本发明的目的在于提出一种基于人形机器人的掷骰子方法及人形机器人,能够实现人形机器人能够自动掷骰子。
根据本发明的一个方面,提供一种基于人形机器人的掷骰子方法,包括:
人形机器人获取其到骰子的距离信息;
根据所述获取到的距离信息,运动到距离骰子合适的地点位置;
在所述运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据所述调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出。
其中,所述人形机器人获取其到骰子的距离信息,包括:
采用摄像头摄像方式,获取骰子的图像;
将所述获取到的骰子的图像的格式调整成构造函数形式;
将所述调整成构造函数格式后的骰子的图像先进行二值化处理再转化成灰度图像;
将所述转化成灰度图像后的骰子的图像先去除噪声再平滑图像;
采用多级边缘检测算法算子对所述平滑图像后的骰子的图像进行边缘检测;
对所述经边缘检测后的骰子的图像进行形态学处理包括图像膨胀、图像腐蚀;
对所述经形态学处理后的骰子的图像进行轮廓检测及绘制轮廓;
计算所述绘制的轮廓所包含图像的像素面积;
根据所述计算得到的像素面积,获取其到骰子的距离信息。
其中,所述人形机器人根据所述获取到的距离信息,运动到距离骰子合适的地点位置,包括:
所述人形机器人根据所述获取到的距离信息,确定能抓取到骰子的位置信息,根据所述确定的能抓取到骰子的位置信息确定骰子在所述位置上的像素面积大小,并将所述确定的骰子在所述位置上的像素面积大小设置为像素阈值,在运动过程中只要骰子在当前位置上的像素面积大小没有达到所述像素阈值则继续往前运动,直到运动到骰子在当前位置上的像素面积大小达到所述像素阈值则停下,运动到距离骰子合适的地点位置。
其中,所述人形机器人采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,包括:
人形机器人采用体感方式,获取人体的运动过程;
根据所述获取到的人体的运行过程数据,提取人体的骨胳关节点模型;
根据所述提取到的人体的骨胳关节点模型,采用绘制方式绘制仿人体骨胳关节点运动轨迹数据。
其中,所述人形机器人根据所述调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出,包括:
人形机器人根据所述调取出的仿人体骨胳关节点运动轨迹数据,模拟抓取骰子和掷出骰子的过程,并根据所述模拟抓取骰子和掷出骰子的过程,抓取骰子并掷出。
根据本发明的另一个方面,提供一种人形机器人,包括:
信息处理系统、控制系统和执行系统;
所述信息处理系统,用于获取人形机器人到骰子的距离信息;
所述控制系统,用于根据所述获取到的距离信息,运动到距离骰子合适的地点位置;
所述执行系统,用于在所述运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据所述调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出。
其中,所述信息处理系统,具体用于:
采用摄像头摄像方式,获取骰子的图像;
将所述获取到的骰子的图像的格式调整成构造函数形式;
将所述调整成构造函数格式后的骰子的图像先进行二值化处理再转化成灰度图像;
将所述转化成灰度图像后的骰子的图像先去除噪声再平滑图像;
采用多级边缘检测算法算子对所述平滑图像后的骰子的图像进行边缘检测;
对所述经边缘检测后的骰子的图像进行形态学处理包括图像膨胀、图像腐蚀;
对所述经形态学处理后的骰子的图像进行轮廓检测及绘制轮廓;
计算所述绘制的轮廓所包含图像的像素面积;
根据所述计算得到的像素面积,获取其到骰子的距离信息。
其中,所述控制系统,具体用于:
根据所述获取到的距离信息,确定能抓取到骰子的位置信息,根据所述确定的能抓取到骰子的位置信息确定骰子在所述位置上的像素面积大小,并将所述确定的骰子在所述位置上的像素面积大小设置为像素阈值,在运动过程中只要骰子在当前位置上的像素面积大小没有达到所述像素阈值则继续往前运动,直到运动到骰子在当前位置上的像素面积大小达到所述像素阈值则停下,运动到距离骰子合适的地点位置。
其中,所述执行系统,具体用于:
采用体感方式,获取人体的运动过程;
根据所述获取到的人体的运行过程数据,提取人体的骨胳关节点模型;
根据所述提取到的人体的骨胳关节点模型,采用绘制方式绘制仿人体骨胳关节点运动轨迹数据。
其中,所述执行系统,具体用于:
根据所述调取出的仿人体骨胳关节点运动轨迹数据,模拟抓取骰子和掷出骰子的过程,并根据所述模拟抓取骰子和掷出骰子的过程,抓取骰子并掷出。
可以发现,以上方案,人形机器人可以在该运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出,能够实现人形机器人能够自动掷骰子。
进一步的,以上方案,人形机器人当关节角度运行到特殊情况时,可以通过例如滤波器的方式调整来解决,使得代码工作量降低,在对单个刚体或刚体系统进行运动学及动力学的描述、分析和计算的时候,空间向量可以提供简洁的符号、更少的未知数、更少的方程。
进一步的,以上方案,人形机器人可以采用空间向量方式的优点是能精确反应人体骨骼的正确运动轨迹,实时性好。
进一步的,以上方案,人形机器人可以采用逆运动学的矩阵变换方式的优点是计算准确,因为骰子是静止放置,而计算过程与骰子的位置有关,不会被人身体的晃动所干扰到。
进一步的,以上方案,人形机器人可以采用双目测距方式的优点是定位较为准确,人形机器人采用单目测距方式的优点是原理简单,易于代码实现,计算量小,反应速度快。
进一步的,以上方案,人形机器人可以先对图片进行二值化处理再转化灰度图可以最大限度的降低环境和光线造成的图像噪声。
进一步的,以上方案,人形机器人采用的边缘检测算法是一个多级边缘算法,因其低错误率、高定位性、最小响应的良好表现被普遍认为是边缘检测的最优算法。
附图说明
图1为本发明基于人形机器人的掷骰子方法一实施例的流程示意图;
图2为本发明基于人形机器人的掷骰子方法一实施例中人形机器人空间坐标系统的一举例示意图;
图3为为本发明基于人形机器人的掷骰子方法一实施例中采用体感方式对人体的骨胳关节点模型进行编号的一举例示意图;
图4为为本发明基于人形机器人的掷骰子方法一实施例中采用Kinect动作捕捉绘图效果的一举例示意图;
图5为本发明基于人形机器人的掷骰子方法一实施例中采用双目测距方式测人形机器到骰子的距离的一举例示意图;
图6为本发明基于人形机器人的掷骰子方法一实施例中采用单目测距方式进行棋盘标定的一举例示意图;
图7为本发明基于人形机器人的掷骰子方法一实施例中对转化成灰度图像后的骰子的图像去除噪声后的一举例示意图;
图8为本发明基于人形机器人的掷骰子方法一实施例中采用多级边缘检测算法对经平滑图像后的骰子的图像进行边缘检测的一举例示意图;
图9为本发明基于人形机器人的掷骰子方法一实施例中对经边缘检测后的骰子的图像进行形态学处理后的一举例示意图;
图10为本发明基于人形机器人的掷骰子方法一实施例中对骰子进行轮廓绘制后的一举例示意图;
图11为本发明基于人形机器人的掷骰子方法一实施例中彩采用Kinect动作捕捉的具体实现过程的一举例示意图;
图12为本发明基于人形机器人的掷骰子方法一实施例中进行OpenCV图像处理的具体实现过程的一举例示意图;
图13为本发明人形机器人一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本发明作进一步的详细描述。特别指出的是,以下实施例仅用于说明本发明,但不对本发明的范围进行限定。同样的,以下实施例仅为本发明的部分实施例而非全部实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种基于人形机器人的掷骰子方法,能够实现人形机器人能够自动掷骰子。
请参见图1,图1为本发明基于人形机器人的掷骰子方法一实施例的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括如下步骤:
S101:人形机器人获取其到骰子的距离信息。
其中,该人形机器人获取其到骰子的距离信息,可以包括:
采用摄像头摄像方式,获取骰子的图像;
将该获取到的骰子的图像的格式调整成np.array(构造函数)形式;
将该调整成构造函数格式后的骰子的图像先进行二值化处理再转化成灰度图像;
将该转化成灰度图像后的骰子的图像先去除噪声再平滑图像;
采用Canny(多级边缘检测算法)算子对该平滑图像后的骰子的图像进行边缘检测;
对该经边缘检测后的骰子的图像进行形态学处理包括图像膨胀、图像腐蚀等;
对该经形态学处理后的骰子的图像进行轮廓检测及绘制轮廓;
计算该绘制的轮廓所包含图像的像素面积;
根据该计算得到的像素面积,获取其到骰子的距离信息。
S102:人形机器人根据该获取到的距离信息,运动到距离骰子合适的地点位置。
其中,该人形机器人根据该获取到的距离信息,运动到距离骰子合适的地点位置,可以包括:
该人形机器人根据该获取到的距离信息,确定能抓取到骰子的位置信息,根据该确定的能抓取到骰子的位置信息确定骰子在该位置上的像素面积大小,并将该确定的骰子在该位置上的像素面积大小设置为像素阈值,在运动过程中只要骰子在当前位置上的像素面积大小没有达到该像素阈值则继续往前运动,直到运动到骰子在当前位置上的像素面积大小达到该像素阈值则停下,运动到距离骰子合适的地点位置。
S103:人形机器人在该运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出。
其中,该人形机器人采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,可以包括:
人形机器人采用Kinect(体感)方式,获取人体的运动过程;
根据该获取到的人体的运行过程数据,提取人体的骨胳关节点模型;
根据该提取到的人体的骨胳关节点模型,采用绘制方式绘制仿人体骨胳关节点运动轨迹数据。
其中,该人形机器人根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出,可以包括:
人形机器人根据该调取出的仿人体骨胳关节点运动轨迹数据,模拟抓取骰子和掷出骰子的过程,并根据该模拟抓取骰子和掷出骰子的过程,抓取骰子并掷出。
在本实施例中,可以采用Kinect体感方式,内部可以嵌入深度传感器,其原理是使用红外线向外投射,再计算出投射的红外线被反射回传感器的时间,通过红外线经过的时间来计算出距离,即TOF(Time Of Light,飞行时间测距)算法来获取物体的深度信息。
在本实施例中,由于Kinect摄像机获取的图片是带有深度信息的,所以Kinect的相机空间使用的是3D(3Dimensions,三维)空间坐标,可以定义如下:
(1)Kinect的红外相机中心是Kinect坐标空间的原点。
(2)Kinect的摄像机投射方向的正左方是Kinect坐标空间的X轴方向。
(3)Kinect的摄像机投射方向的正上方是Kinect坐标空间的Y轴方向。
(4)Kinect的摄像机投射方向的正前方是Kinect坐标空间的Z轴方向。
请参见图2,图2为本发明基于人形机器人的掷骰子方法一实施例中人形机器人空间坐标系统的一举例示意图。如图2所示,人形机器人的空间坐标系,可以定义为:
(1)坐标原点(x=0,y=0,z=0)位于直立状态下两脚掌中心在地面连线的中点。
(2)人形机器人面朝的正前方为坐标空间的X轴方向。
(3)人形机器人面朝的正左方为坐标空间的Y轴方向。
(4)人形机器人面朝的正上方为坐标空间的Z轴方向。
(5)角度正方向定义为X轴逆时针旋转的角度。
在本实施例中,人形机器人创建变量时可以无需声明数据格式的便捷性。所以在调用Kinect获取图片信息时,将图片的坐标信息重新按顺序导入到对象中,即Kinect的X轴Y轴Z轴分别为人形机器人的的-Y轴Z轴-X轴,并且以人体胸口位置点为坐标原点,重新建立一个坐标系,在该新建的坐标系上来计算关节角度。
在本实施例中,可以采用空间向量方式来计算关节角度,该空间向量方式提供了关于刚体运动状态或施加在其上的力的完整描述。与欧氏向量提供的关于运动状态和受力的完整描述是一样的。特别的,空间向量将刚体运动或力的线性运动和旋转运动两个方面结合成了一个单独的量。
在本实施例中,当关节角度运行到特殊情况时,可以通过例如滤波器的方式调整来解决,使得代码工作量降低。在对单个刚体或刚体系统进行运动学及动力学的描述、分析和计算的时候,空间向量可以提供简洁的符号、更少的未知数、更少的方程。
在本实施例中,可以通过人形机器人逆运动学的矩阵变换方式也可以得到合适的关节角度。由于抓取目标的位置是固定的,抓取时人肢体末端是和骰子重合的,所以可以通过逆运动学求解来得出各个关节的角度。具体原理如下:
假设右肩前关节(RShoulderPitch)为矩阵r11,右肩滚动关节(RShoulderRoll)为r12,右肘滚动关节(RElbowYaw)为r13,右肘前关节(RElbowPitch)为px。因为在逆运动学中手腕关节对于求解无意义,故可省略其变换矩阵。
其中:
r11=C1(C2C3C3+S2S4)-(C4S1S3);
r12=-C1C2S3-C3S1;
r13=C1(-C2C3S4+C4S2)+S1S3S4;
px=C1S2d3;
r21=S1(C2C3C3+S2S4)+C2C4S3);
r22=-C2S1S3+C3C1;
r23=S1(-C2C3S4+C4S2)-C1S3S4;
py=S1S2d3;
r31=C2S4-C3C4S2;
r32=S2S3;
r33=C3S2S4+C2C4;
pz=C2d3等。
其中,矩阵A可以左乘来得到第一个需要的肩膀关节,进而从各个关节的角度值使机器人的手置于卡式坐标系中的位置。
在本实施例中,空间向量方式的优点是能精确反应人体骨骼的正确运动轨迹,实时性好。
在本实施例中,逆运动学的矩阵变换方式的优点是计算准确,因为骰子是静止放置,而计算过程与骰子的位置有关,不会被人身体的晃动所干扰到。
请参见图3,图3为为本发明基于人形机器人的掷骰子方法一实施例中采用体感方式对人体的骨胳关节点模型进行编号的一举例示意图。如图3所示,要在Kinect的信息空间中提取需要的自由度,重新编写序号,使之对应到人形机器人上。
请参见图4,图4为为本发明基于人形机器人的掷骰子方法一实施例中采用Kinect动作捕捉绘图效果的一举例示意图。如图4所示,可以在提取好所需的骨骼关节点后,需要将保留的骨骼关节点按照顺序连线,就可以重新建立起一个能与人形机器人各个关节相对应的骨骼模型。通过OpenCV(Open Source Computer Vision Library,开源计算机视觉库)的可视化窗口可以比较直观的看出肢体在空间中的运动轨迹。
在本实施例中,测距算法的精准度,直接决定了人形机器人抓取骰子过程顺利与否。虽然Kinect摄像机带有深度摄像头,能输出带有深度信息的图像。但是官方给出的文档中明确规定了Kinect在运行时每分钟移动位置的次数不得超过6次。所以将Kinect摄像机安装在机器人身上的想法比较不现实,对骰子的测距可以由通过人形机器人摄像机获取的图片来计算。
在本实施例中,可以采用双目测距方式测人形机器到骰子的距离,对于双目测距算法,可以理解为:相同一个物体,在两个同向平行的摄像头中所成的像是不同的,不同之处在于物体在图像中的位置相对于中心的偏移方向不同,即左边摄像机拍出的图像中物体位置靠右,右边摄像机拍出的图像中物体位置靠左。然后依据两个偏移量的长度与相似三角形原理来计算出物体与两摄像头中点的距离。
请参见图5,图5为本发明基于人形机器人的掷骰子方法一实施例中采用双目测距方式测人形机器到骰子的距离的一举例示意图。如图5所示,f是每个摄像头本身的焦距,即传感器与镜头之间的距离。T则是两个摄像头的镜头之间的距离。这些参数都是定值。而d是不确定的,d是一个物体在分别两个传感器上所成的像,也就是xl和xr之间的距离,是个变量。所以只要获得d的值,之后再根据相似三角形原理,就可以求出Z。
在本实施例中,还可以采用单目测距方式测人形机器到骰子的距离,单目测距方式的原理比双目测距算法较好理解,可以参照小孔成像模型。
请参见图6,图6为本发明基于人形机器人的掷骰子方法一实施例中采用单目测距方式进行棋盘标定的一举例示意图。如图6所示,单目测距方式的优点是原理简单,易于代码实现,计算量小,反应速度快,但存在着致命缺点就是准确度极低,因为人形机器人的相机像素较低,在采用单目测距方式进行棋盘标定时,如图6所示,棋盘的边缘畸变非常严重。
在本实施例中,双目测距方式的优点是定位较为准确,单目测距方式的优点是原理简单,易于代码实现,计算量小,反应速度快。
在本实施例中,由光的成像原理可以得知,物体离摄像头越近,物体在视野中的成像面积就越大。于是,只要确定好当机器人位于能抓取骰子的位置时,骰子在机器人的视野中的像素面积大小,就能将这个像素面积设为阈值,只要在机器人视野中物体所占的像素面积没达到这个阈值就继续往前走,当达到阈值时则停下。
在本实施例中,人形机器人在逐渐靠近骰子的过程中,骰子在平面图像中的形状会逐渐发生变化。但是总体上还是可以将这种变化视为一个线性增长的过程。由于人形机器人两个摄像头的角度不同,骰子的成像形状也不同。启动两个相机并设定好各自的阈值,可以在一定程度上修正误差。该算法的优点是不需要计算出准确距离所以计算量小,实时性较优,响应快。
在本实施例中,在调取了人形机器人摄像机中的原始图片之后,需要对图片进行一系列处理才能获得一个较好的骰子轮廓。而较高的轮廓精确度则会直接影响到测距工作的进行。对原始图片进行二值化处理后再转化成灰度图。这一步骤非常关键,先对图片进行二值化处理再转化灰度图可以最大限度的降低环境和光线造成的图像噪声。
请参见图7,图7为本发明基于人形机器人的掷骰子方法一实施例中对转化成灰度图像后的骰子的图像去除噪声后的一举例示意图。如图7所示,对转化成灰度图像后的骰子的图像中存在的高频噪声进行处理,降低图像变化率,使图像变得平滑。过程中可以用到低通滤泼器来对图片进行模糊化处理,例如可以使用9x 9内核的低通滤波器进行图像处理,之后再对模糊的图像进行二值化,经过测试发现,在实验室环境下的图像梯度可以设置为200,将高于这个梯度的像素都可以设置为白,高于此梯度的像素可以设置为黑,这样处理有助于更加直观的暴露出骰子的面积。
请参见图8,图8为本发明基于人形机器人的掷骰子方法一实施例中采用多级边缘检测算法对经平滑图像后的骰子的图像进行边缘检测的一举例示意图。如图8所示,获得最佳阈值之后输入Canny算子函数中,使用Canny算子进行边缘检测。Canny边缘检测算法是一个多级边缘算法,因其低错误率、高定位性、最小响应的良好表现被普遍认为是边缘检测的最优算法。在OpenCV中,Canny边缘检测函数原型为:Canny(image,threshold1,threshold2,[edges])。其中,image是待处理的图像。threshold1、threshold2是两个自行设定的阈值,threshold2较大,用来控制强边缘的初始分割,但经过threshold2检测出来的边缘会显得断断续续,此时就要由较小的threshold1阈值来将间断的边缘连接起来。
在本实施例中,可以选定sobel(Sobel operator,索贝尔算子)算子的矩阵大小,canny函数会对滤波后图像中的每个像素计算其梯度的大小和方向,而sobel算子的矩阵可以作为对X反向和Y方向偏微分的一阶近似的矩阵,由此得出每个像素的梯度大小与方向,进而找到每个像素点的邻接像素。
请参见图9,图9为本发明基于人形机器人的掷骰子方法一实施例中对经边缘检测后的骰子的图像进行形态学处理后的一举例示意图。如图9所示,如果经过Canny检测之后边缘线条仍然有不连续的像素点,则需要进行形态学上的处理,分别执行预设次数的图像腐蚀与图像膨胀,使边缘连线连贯且自然。
请参见图10,图10为本发明基于人形机器人的掷骰子方法一实施例中对骰子进行轮廓绘制后的一举例示意图。如图10所示,需要通过OpenCV的findcontours()函数来找出待处理图片中的轮廓。函数原型可以为:findContours(image,mode,method)returnimage,cnts,hierarchy image为待处理图片,该函数只接受二值化图片。mode参数提供了四个途径来检测图像中的轮廓,四个参数如下:
CV_RETR_EXTERNAL:省略大轮廓中的小轮廓,保留最外围大轮廓。
CV_RETR_LIST:检测图像中存在的所有轮廓,但不包含轮廓间的继承与包含关系。
CV_RETR_TREE:检测图像中存在的所有轮廓,并且保留轮廓间的继承与包含关系,当选中此模式时返回的hierarchy参数才有意义。
CV_RETR_CCOMP:图像中存在的所有轮廓都将被检测,保留在轮廓之间继承与包含关系,与上个参数不同的是继承与包含关系只有两层。
method通过两个参数来选取不同的轮廓表示方法:
CV_CHAIN_APPROX_NONE:识别轮廓的所有像素点并储存。
CV_CHAIN_APPROX_SIMPLE:只对图像中的线段的起始点信息保留,线段需为对角线、水平线或垂线。
cv2.findContours()函数返回两个值和一个可选值hierarchy,一个是检测到的轮廓,另一个是保留的轮廓信息。函数返回的信息都保存在Numpy列表中,格式(type)为np.array形式呈现。在本实施例中,可以优选选择CV_RETR_EXTERNAL,CV_CHAIN_APPROX_SIMPLE,因为需要获得的是最大的骰子轮廓。
在本实施例中,可以通过drawcontours()函数将上述描绘出的图像中的轮廓过行绘制。其中,该drawcontours()函数的原型可以为:cv2.drawContours(image,cnt,contourID,color),image是选取在哪张图像上进行描绘轮廓,cnt是contours的缩写,是findcontours()函数返回的一个列表,列表中包含轮廓信息,contourID是对第二个参数cnt列表的选择,可指定描绘cnt列表中的任何一个轮廓,当contourID为-1时,程序将描绘所有的轮廓。color参数输入RGB(红、绿、蓝三色)形式的颜色就可以指定轮廓线条的颜色。此外该函数还可以通过参数调整轮廓宽度等,在此不再赘述。
在本实施例中,可以应用OpenCV的contourArea()函数。输入检测得到的cnts参数即可得到骰子轮廓圈得的区域的像素面积。
请参见图11,图11为本发明基于人形机器人的掷骰子方法一实施例中彩采用Kinect动作捕捉的具体实现过程的一举例示意图。如图11所示,该Kinect动作捕捉的具体实现过程,可以包括:
(1)、Kinect开始工作。
(2)、Kinect分析视野中的人体的关节点并对骨骼点进行追踪。
(3)、返回关节点在Kinect空间中的坐标信息。
(4)、建立坐标系,确定坐标系原点为两肩中点ShoulderSpine,X轴方向为从左肩指向右肩,Y轴方向为ShoulderSpine垂直向下,Z轴为从ShoulderSpine指向Kinect摄像头。
(5)、Kinect筛选与人形机器人相对应的关节点。
(6)、用线条代替骨骼,连接关节点绘制出骨骼框架。
(7)、求出关节点的在新坐标系的位置,通过位置相减得到方向向量,再用方向向量进行计算得出向量间的角度,即为关节角度。对关节角度设定安全范围,确保不损坏机器人。
(8)、设定好人形机器人的IP地址和端口号,连接ALproxy,并将角度传输给ALproxy,ALproxy通过角度来使机器人运动。设定好关节转动的速度,避免机器人损伤。
(9)、运行程序,使机器人模仿人体动作。
(10)、创建空列表,将运行过程中的关节角度保存在列表内,可以设定每隔1秒保存一次,减少误差。
在本实施例中,由以上可知,Kinect动作捕捉的主要工作,可以包括:建立新的Kinect与人形机器人坐标系新的映射关系、筛选需要的自由度加以处理、设置合适的关节范围。
请参见图12,图12为本发明基于人形机器人的掷骰子方法一实施例中进行OpenCV图像处理的具体实现过程的一举例示意图。如图12所示,该OpenCV图像处理的具体实现过程,可以包括:
(1)、获取图像前需要先使程序连接上人形机器人,通过连接ALproxy,调用其中的视觉模块,选择切换那个摄像头来完成。分为连接人形,调取人形的图像并修改图像格式两步。
(2)、二值化图像:可以通过OpenCV的threshold()函数完成,但函数中的参数要因环境光线做出些许调整,然后再转化成灰度图。
(3)、首先使用低通滤泼器平滑图像例如9x 9内核,使图像中的高频噪声平滑,降低图像变化率,再对图像二值化,例如梯度图像中所有小于100的像素都可以被设置为0(黑色),大于100的全部可以设置为255(白色)。
(4)、在用Canny算子进行边缘检测时,可以使用高斯滤波器对图像进行处理,高斯内核可以选择(3,3),然后再对平滑处理后的图像用Canny算子进行边缘检测,通过另外编写的测试Canny函数阈值的程序得出当前环境下的最优阈值。
(5)、经过Canny算子检测的轮廓线有断断续续的现象,会对下一步的轮廓绘制有所影响,对轮廓线进行形态学处理,可以分别执行预设次数如4次图像腐蚀与图像膨胀,使轮廓线闭合,平滑。
(6)、经过上述的图像处理,得到一个较为精确的骰子轮廓,检测这个轮廓,并将这个轮廓绘制在原图上。
(7)、上一步第(6)步中轮廓检测函数会返回轮廓大小与属性,可以通过对轮廓信息的提取,计算出轮廓的像素面积,同时考虑到可能存在些许噪点的干扰,函数中选择max()来或者面积最大的函数。
可以发现,在本实施例中,人形机器人可以在该运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出,能够实现人形机器人能够自动掷骰子。
进一步的,在本实施例中,人形机器人当关节角度运行到特殊情况时,可以通过例如滤波器的方式调整来解决,使得代码工作量降低,在对单个刚体或刚体系统进行运动学及动力学的描述、分析和计算的时候,空间向量可以提供简洁的符号、更少的未知数、更少的方程。
进一步的,在本实施例中,人形机器人可以采用空间向量方式的优点是能精确反应人体骨骼的正确运动轨迹,实时性好。
进一步的,在本实施例中,人形机器人可以采用逆运动学的矩阵变换方式的优点是计算准确,因为骰子是静止放置,而计算过程与骰子的位置有关,不会被人身体的晃动所干扰到。
进一步的,在本实施例中,人形机器人可以采用双目测距方式的优点是定位较为准确,人形机器人采用单目测距方式的优点是原理简单,易于代码实现,计算量小,反应速度快。
进一步的,在本实施例中,人形机器人可以先对图片进行二值化处理再转化灰度图可以最大限度的降低环境和光线造成的图像噪声。
进一步的,在本实施例中,人形机器人采用的Canny边缘检测算法是一个多级边缘算法,因其低错误率、高定位性、最小响应的良好表现被普遍认为是边缘检测的最优算法。
本发明还提供一种人形机器人,能够实现人形机器人能够自动掷骰子。
请参见图13,图13为本发明人形机器人一实施例的结构示意图。本实施例中,该人形机器人130为上述实施例中的人形机器人,该人形机器人130包括信息处理系统131、控制系统132和执行系统133。
该信息处理系统131,用于获取人形机器人到骰子的距离信息。
该控制系统132,用于根据该获取到的距离信息,运动到距离骰子合适的地点位置。
该执行系统133,用于在该运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出。
可选地,该信息处理系统131,可以具体用于:
采用摄像头摄像方式,获取骰子的图像;
将该获取到的骰子的图像的格式调整成构造函数形式;
将该调整成构造函数格式后的骰子的图像先进行二值化处理再转化成灰度图像;
将该转化成灰度图像后的骰子的图像先去除噪声再平滑图像;
采用多级边缘检测算法算子对该平滑图像后的骰子的图像进行边缘检测;
对该经边缘检测后的骰子的图像进行形态学处理包括图像膨胀、图像腐蚀等;
对该经形态学处理后的骰子的图像进行轮廓检测及绘制轮廓;
计算该绘制的轮廓所包含图像的像素面积;
根据该计算得到的像素面积,获取其到骰子的距离信息。
可选地,该控制系统132,可以具体用于:
根据该获取到的距离信息,确定能抓取到骰子的位置信息,根据该确定的能抓取到骰子的位置信息确定骰子在该位置上的像素面积大小,并将该确定的骰子在该位置上的像素面积大小设置为像素阈值,在运动过程中只要骰子在当前位置上的像素面积大小没有达到该像素阈值则继续往前运动,直到运动到骰子在当前位置上的像素面积大小达到该像素阈值则停下,运动到距离骰子合适的地点位置。
可选地,该执行系统133,可以具体用于:
采用体感方式,获取人体的运动过程;
根据该获取到的人体的运行过程数据,提取人体的骨胳关节点模型;
根据该提取到的人体的骨胳关节点模型,采用绘制方式绘制仿人体骨胳关节点运动轨迹数据。
可选地,该执行系统133,可以具体用于:
根据该调取出的仿人体骨胳关节点运动轨迹数据,模拟抓取骰子和掷出骰子的过程,并根据该模拟抓取骰子和掷出骰子的过程,抓取骰子并掷出。
该人形机器人130的各个单元模块可分别执行上述方法实施例中对应步骤,故在此不对各单元模块进行赘述,详细请参见以上对应步骤的说明。
可以发现,以上方案,人形机器人可以在该运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据该调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出,能够实现人形机器人能够自动掷骰子。
进一步的,以上方案,人形机器人当关节角度运行到特殊情况时,可以通过例如滤波器的方式调整来解决,使得代码工作量降低,在对单个刚体或刚体系统进行运动学及动力学的描述、分析和计算的时候,空间向量可以提供简洁的符号、更少的未知数、更少的方程。
进一步的,以上方案,人形机器人可以采用空间向量方式的优点是能精确反应人体骨骼的正确运动轨迹,实时性好。
进一步的,以上方案,人形机器人可以采用逆运动学的矩阵变换方式的优点是计算准确,因为骰子是静止放置,而计算过程与骰子的位置有关,不会被人身体的晃动所干扰到。
进一步的,以上方案,人形机器人可以采用双目测距方式的优点是定位较为准确,人形机器人采用单目测距方式的优点是原理简单,易于代码实现,计算量小,反应速度快。
进一步的,以上方案,人形机器人可以先对图片进行二值化处理再转化灰度图可以最大限度的降低环境和光线造成的图像噪声。
进一步的,以上方案,人形机器人采用的Canny边缘检测算法是一个多级边缘算法,因其低错误率、高定位性、最小响应的良好表现被普遍认为是边缘检测的最优算法。
在本发明所提供的几个实施方式中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本发明各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的部分实施例,并非因此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效装置或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (4)
1.一种基于人形机器人的掷骰子方法,其特征在于,包括:
人形机器人获取其到骰子的距离信息;
所述人形机器人根据所述获取到的距离信息,确定能抓取到骰子的位置信息,根据所述确定的能抓取到骰子的位置信息确定骰子在所述位置上的像素面积大小,并将所述确定的骰子在所述位置上的像素面积大小设置为像素阈值,在运动过程中只要骰子在当前位置上的像素面积大小没有达到所述像素阈值则继续往前运动,直到运动到骰子在当前位置上的像素面积大小达到所述像素阈值则停下,运动到距离骰子合适的地点位置;
在所述运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据所述调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出;
所述人形机器人采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,包括:
人形机器人采用体感方式,获取人体的运动过程;所述体感方式采用Kinect体感方式,内部嵌入深度传感器,其原理是使用红外线向外投射,再计算出投射的红外线被反射回传感器的时间,通过红外线经过的时间来计算出距离,即TOF算法来获取物体的深度信息;Kinect的相机空间使用的是3D空间坐标;采用空间向量方式来计算关节角度,该空间向量方式提供了关于刚体运动状态或施加在其上的力的完整描述;当关节角度运行到特殊情况时,通过滤波器的方式调整来解决,使得代码工作量降低,或者通过人形机器人逆运动学的矩阵变换方式也得到合适的关节角度;
根据所述获取到的人体的运动过程数据,提取人体的骨胳关节点模型;
根据所述提取到的人体的骨胳关节点模型,采用绘制方式绘制仿人体骨胳关节点运动轨迹数据;
所述人形机器人根据所述调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出,包括:
人形机器人根据所述调取出的仿人体骨胳关节点运动轨迹数据,模拟抓取骰子和掷出骰子的过程,并根据所述模拟抓取骰子和掷出骰子的过程,抓取骰子并掷出。
2.如权利要求1所述的基于人形机器人的掷骰子方法,其特征在于,所述人形机器人获取其到骰子的距离信息,包括:
采用摄像头摄像方式,获取骰子的图像;
将所述获取到的骰子的图像的格式调整成构造函数形式;
将所述调整成构造函数格式后的骰子的图像先进行二值化处理再转化成灰度图像;
将所述转化成灰度图像后的骰子的图像先去除噪声再平滑图像;
采用多级边缘检测算法算子对所述平滑图像后的骰子的图像进行边缘检测;
对经所述边缘检测后的骰子的图像进行形态学处理包括图像膨胀、图像腐蚀;
对经所述形态学处理后的骰子的图像进行轮廓检测及绘制轮廓;
计算所述绘制的轮廓所包含图像的像素面积;
根据所述计算得到的像素面积,获取其到骰子的距离信息。
3.一种人形机器人,其特征在于,包括:
信息处理系统、控制系统和执行系统;
所述信息处理系统,用于获取人形机器人到骰子的距离信息;
所述控制系统,根据所述获取到的距离信息,确定能抓取到骰子的位置信息,根据所述确定的能抓取到骰子的位置信息确定骰子在所述位置上的像素面积大小,并将所述确定的骰子在所述位置上的像素面积大小设置为像素阈值,在运动过程中只要骰子在当前位置上的像素面积大小没有达到所述像素阈值则继续往前运动,直到运动到骰子在当前位置上的像素面积大小达到所述像素阈值则停下,运动到距离骰子合适的地点位置;
所述执行系统,用于在所述运动到的地点位置调取所存储的采用绘制方式绘制的仿人体骨胳关节点运动轨迹数据,并根据所述调取出的仿人体骨胳关节点运动轨迹数据抓取骰子并掷出;
所述执行系统,具体用于:
采用体感方式,获取人体的运动过程;所述体感方式采用Kinect体感方式,内部嵌入深度传感器,其原理是使用红外线向外投射,再计算出投射的红外线被反射回传感器的时间,通过红外线经过的时间来计算出距离,即TOF算法来获取物体的深度信息;Kinect的相机空间使用的是3D空间坐标;采用空间向量方式来计算关节角度,该空间向量方式提供了关于刚体运动状态或施加在其上的力的完整描述;当关节角度运行到特殊情况时,通过滤波器的方式调整来解决,使得代码工作量降低,或者通过人形机器人逆运动学的矩阵变换方式也得到合适的关节角度;
根据所述获取到的人体的运动过程数据,提取人体的骨胳关节点模型;
根据所述提取到的人体的骨胳关节点模型,采用绘制方式绘制仿人体骨胳关节点运动轨迹数据;
根据所述调取出的仿人体骨胳关节点运动轨迹数据,模拟抓取骰子和掷出骰子的过程,并根据所述模拟抓取骰子和掷出骰子的过程,抓取骰子并掷出。
4.如权利要求3所述的人形机器人,其特征在于,所述信息处理系统,具体用于:
采用摄像头摄像方式,获取骰子的图像;
将所述获取到的骰子的图像的格式调整成构造函数形式;
将所述调整成构造函数格式后的骰子的图像先进行二值化处理再转化成灰度图像;
将所述转化成灰度图像后的骰子的图像先去除噪声再平滑图像;
采用多级边缘检测算法算子对所述平滑图像后的骰子的图像进行边缘检测;
对经所述边缘检测后的骰子的图像进行形态学处理包括图像膨胀、图像腐蚀;
对经所述形态学处理后的骰子的图像进行轮廓检测及绘制轮廓;
计算所述绘制的轮廓所包含图像的像素面积;
根据所述计算得到的像素面积,获取其到骰子的距离信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811108132.0A CN109318227B (zh) | 2018-09-21 | 2018-09-21 | 一种基于人形机器人的掷骰子方法及人形机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811108132.0A CN109318227B (zh) | 2018-09-21 | 2018-09-21 | 一种基于人形机器人的掷骰子方法及人形机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109318227A CN109318227A (zh) | 2019-02-12 |
CN109318227B true CN109318227B (zh) | 2021-03-26 |
Family
ID=65265759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811108132.0A Expired - Fee Related CN109318227B (zh) | 2018-09-21 | 2018-09-21 | 一种基于人形机器人的掷骰子方法及人形机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109318227B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175561A (zh) * | 2019-05-24 | 2019-08-27 | 上海电机学院 | 一种道路交通标志检测与识别方法 |
CN111168722A (zh) * | 2019-12-12 | 2020-05-19 | 中国科学院深圳先进技术研究院 | 一种基于单目摄像头测距的机器人跟随系统及方法 |
CN111780716A (zh) * | 2020-07-03 | 2020-10-16 | 杭州电子科技大学 | 一种基于目标像素面积和宽高比的单目实时测距方法 |
CN114770461B (zh) * | 2022-04-14 | 2023-12-01 | 深圳技术大学 | 一种基于单目视觉的移动机器人及其自动抓取方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05184033A (ja) * | 1991-12-26 | 1993-07-23 | Tokyo Electric Power Co Inc:The | 被覆線皮剥装置と同装置を用いた高圧引下線工事用ロボット |
CN106826851A (zh) * | 2017-02-21 | 2017-06-13 | 福州市贝芽智能科技有限公司 | 一种基于多传感器融合技术的智能早教机器人 |
CN108274476A (zh) * | 2018-03-01 | 2018-07-13 | 华侨大学 | 一种人形机器人抓取球体的方法 |
CN108416786A (zh) * | 2018-02-02 | 2018-08-17 | 华侨大学 | 一种基于人形机器人识别物体形状和色彩的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9846843B2 (en) * | 2013-10-30 | 2017-12-19 | Georgia Tech Research Corporation | Methods and systems for facilitating interactions between a robot and user |
-
2018
- 2018-09-21 CN CN201811108132.0A patent/CN109318227B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05184033A (ja) * | 1991-12-26 | 1993-07-23 | Tokyo Electric Power Co Inc:The | 被覆線皮剥装置と同装置を用いた高圧引下線工事用ロボット |
CN106826851A (zh) * | 2017-02-21 | 2017-06-13 | 福州市贝芽智能科技有限公司 | 一种基于多传感器融合技术的智能早教机器人 |
CN108416786A (zh) * | 2018-02-02 | 2018-08-17 | 华侨大学 | 一种基于人形机器人识别物体形状和色彩的方法 |
CN108274476A (zh) * | 2018-03-01 | 2018-07-13 | 华侨大学 | 一种人形机器人抓取球体的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109318227A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tremblay et al. | Deep object pose estimation for semantic robotic grasping of household objects | |
CN109318227B (zh) | 一种基于人形机器人的掷骰子方法及人形机器人 | |
CN109255813B (zh) | 一种面向人机协作的手持物体位姿实时检测方法 | |
CN113524194B (zh) | 基于多模特征深度学习的机器人视觉抓取系统的目标抓取方法 | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN109015640B (zh) | 抓取方法、系统、计算机装置及可读存储介质 | |
CN108401461A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN110211180A (zh) | 一种基于深度学习的机械臂自主抓取方法 | |
JP2013050947A (ja) | 物体姿勢推定方法、物体姿勢推定装置、物体推定姿勢精緻化方法、およびコンピューター可読媒体 | |
CN110298854B (zh) | 基于在线自适应与单目视觉的飞行蛇形臂协同定位方法 | |
CN110555908B (zh) | 基于室内移动目标背景修复的三维重建方法 | |
CN110428465A (zh) | 基于视觉和触觉的机械臂抓取方法、系统、装置 | |
EP3921801B1 (en) | Creating training data variability in machine learning for object labelling from images | |
CN115578460B (zh) | 基于多模态特征提取与稠密预测的机器人抓取方法与系统 | |
CN110375765B (zh) | 基于直接法的视觉里程计方法、系统及存储介质 | |
CN114004883A (zh) | 一种冰壶球的视觉感知方法、装置、计算机设备和存储介质 | |
CN112183506A (zh) | 一种人体姿态生成方法及其系统 | |
CN107808388A (zh) | 包含运动目标的图像处理方法、装置及电子设备 | |
Sharma et al. | Unsupervised learning of depth and ego-motion from cylindrical panoramic video | |
WO2023116430A1 (zh) | 视频与城市信息模型三维场景融合方法、系统及存储介质 | |
Wang et al. | A virtual end-effector pointing system in point-and-direct robotics for inspection of surface flaws using a neural network based skeleton transform | |
CN210361314U (zh) | 一种基于增强现实技术的机器人示教装置 | |
Ni et al. | 3D-point-cloud registration and real-world dynamic modelling-based virtual environment building method for teleoperation | |
Liu et al. | 6d object pose estimation without pnp | |
Blomqvist et al. | Semi-automatic 3D object keypoint annotation and detection for the masses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210326 Termination date: 20210921 |