CN104199314B - 一种机器人智能仿真测试方法 - Google Patents
一种机器人智能仿真测试方法 Download PDFInfo
- Publication number
- CN104199314B CN104199314B CN201410468357.2A CN201410468357A CN104199314B CN 104199314 B CN104199314 B CN 104199314B CN 201410468357 A CN201410468357 A CN 201410468357A CN 104199314 B CN104199314 B CN 104199314B
- Authority
- CN
- China
- Prior art keywords
- emulator
- robot
- target
- emulation
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000010998 test method Methods 0.000 title claims abstract description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 38
- 238000012360 testing method Methods 0.000 claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 18
- 238000004088 simulation Methods 0.000 claims abstract description 13
- 238000003384 imaging method Methods 0.000 claims description 9
- 241000251468 Actinopterygii Species 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000002950 deficient Effects 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 abstract 1
- 238000013461 design Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明属于智能信息技术领域,具体涉及一种机器人智能仿真测试方法。本发明的方法采用视觉图像仿真器生成包含视觉背景和目标的仿真视觉图像;采用跟踪算法仿真器获取仿真视觉图像中的目标,并实时输出目标脱靶量;机器人仿真器根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并实现实时跟踪功能;撤去视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试。本发明解决了现有技术难以满足大规模机器人测试要求的技术问题,取得了测试效率高、测试稳定性好、测试精度高的有益效果。
Description
技术领域
本发明属于智能信息技术领域,具体涉及一种机器人智能仿真测试方法。
背景技术
随着科学技术信息化、智能化的发展,机器人技术得到了国内外学者的广泛关注,且呈现出规模越来越大、复杂度越来越高的发展态势。通过对机器人进行测试,能够发现设备中隐藏的问题和设计缺陷,是保障机器人质量和可靠性的重要手段。
传统的机器人测试手段主要采用人工实验测试的方式,存在测试效率低、测试稳定性差、测试精度低等缺点,难以满足大规模机器人的测试要求。\
发明内容
本发明需要解决的技术问题为:现有机器人测试系统测试效率低、测试稳定性差、测试精度低,难以满足大规模机器人的测试要求。
本发明的技术方案如下所述:
一种机器人智能仿真测试方法,包括以下步骤:
步骤1:通过参数配置计算机初始化参数;
步骤2:将初始化后的参数传输至视觉图像仿真器;
步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像;
步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量;
步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能;
步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤1设置的系统稳定阈值范围内;
步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试:若脱靶量小于等于系统稳定阈值,则机器人合格;否则,机器人不合格。
作为优选方案:步骤3包括以下步骤:
步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像;
步骤3.2:对需要跟踪的目标进行建模仿真
步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
作为优选方案:步骤3.2包括以下步骤:
步骤3.2.1:对目标外形、实时空间位置及反射系数进行三维建模;
步骤3.3.2:对三维建模后的目标表面划分计算网格;
步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
本发明的有益效果为:
(1)本发明的一种机器人智能仿真测试方法,将计算机技术、机械技术、信号处理技术、传感器技术等相关理论和技术相结合,能够显著提高测试效率、稳定性和精度,能够满足大规模视觉跟踪机器人的测试要求;
(2)本发明的一种机器人智能仿真测试方法,能够根据不同应用设计不同测试场景和流程,测试目的指向性强;
(3)本发明的一种机器人智能仿真测试方法,通过精确的定时与触发时钟,能够实现系统同步;
(4)本发明的一种机器人智能仿真测试方法,实现了视觉跟踪机器人的智能检测与及时反馈,测试人员能够及时掌握系统运作状况和存在问题,有效提高工作效率,可以广泛应用于农业、工业、交通、国防等领域。
附图说明
图1为本发明的一种机器人智能仿真测试方法设备布局图。
具体实施方式
下面结合附图和实施例对本发明的一种机器人智能仿真测试方法进行详细说明。
本发明涉及到的一种机器人的功能及工作原理:
该机器人为一种基于视觉的目标跟踪机器人,主要功能为:对设定的运动目标进行监视跟踪,并实时输出目标在视觉传感器(如相机)中的实时位置。该机器人主要包含了机器人初始参数配置模块、机器人执行机构(如机械臂)、目标检测跟踪模块和视觉传感器。工作原理:首先对机器人各参数进行初始化配置,视觉传感器拍摄到运动目标后通过目标检测跟踪模块从拍摄的图像中找出需跟踪目标并输出目标在图像中的实时位置(即脱靶量),机器人执行机构接收脱靶量后根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制模块实现跟踪功能。
如图1所示,实现本实施例方法的机器人智能仿真测试系统,包括参数配置计算机、视觉仿真器、跟踪算法仿真器和机器人仿真器:参数配置计算机于仿真测试初始时刻进行参数配置;视觉仿真器仿真出机器人拍摄到的视觉图像;跟踪算法仿真器对视觉仿真器输出的仿真视觉图像进行智能识别并输出目标在仿真图像中的位置,即目标脱靶量;机器人仿真器根据机器人当前状态和目标脱靶量规划机器人的跟踪任务,并将机器人仿真器执行跟踪任务后的新状态反馈至视觉仿真器。所述机器人的状态,是指机器人各关节的转动角度状态。
所述参数配置计算机主要对视觉仿真器的分辨率和视场角、机器人仿真器的PD控制参数和系统稳定阈值等参数进行配置。
所述视觉仿真器包括视觉背景仿真模块和目标仿真模块:视觉背景仿真模块根据机器人当前状态及背景环境仿真出当前机器人的视觉传感器能够拍摄到的环境背景图像;目标仿真模块根据机器人当前状态和目标的形状、当前空间位置及光学特性仿真出目标图像;环境背景图像和目标图像采用现有技术相融合,形成仿真视觉图像。
所述跟踪算法仿真器采用卡尔曼滤波算法,能够对机动目标进行有效监视及跟踪。
所述机器人仿真器包括机器人运动仿真模块和控制仿真模块:机器人运动仿真模块用于模拟机器人机械机构的运动状态;控制仿真模块用于接收机器人目标状态并结合其当前状态后输出行进路线等控制策略。其中,机器人目标状态是指设置在机器人上的视觉传感器指向被跟踪目标时,机器人各机械关节的转动角度状态;机器人当前状态是指机器人当前时刻各关节的转动角度状态。
本实施例的一种机器人智能仿真测试方法,通过以下步骤进行测试:
步骤1:通过参数配置计算机初始化参数。
步骤2:将初始化后的参数传输至视觉图像仿真器。
步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像。
步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像。
步骤3.2:对需要跟踪的目标进行建模仿真
步骤3.2.1:对目标外形、实时空间位置及反射系数等参数进行三维建模;
步骤3.2.2:对三维建模后的目标表面划分计算网格;
步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量。
步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能。
步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤1设置的系统稳定阈值范围内;
步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以半实物半仿真的方式完成视觉跟踪机器人的测试:若脱靶量小于等于系统稳定阈值,则机器人合格;否则,机器人不合格。
以上具体实施例仅用于举例说明本发明的结构和流程,本领域技术人员在本发明的构思下可以做出多种变形和变化,这些变形和变化均包括在本发明的保护范围之内。
Claims (1)
1.一种机器人智能仿真测试方法,其特征在于:包括以下步骤:
步骤1:通过参数配置计算机初始化参数;
步骤2:将初始化后的参数传输至视觉图像仿真器;
步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像;
步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量;
步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能;
步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤1设置的系统稳定阈值范围内;
步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试:若脱靶量小于等于系统稳定阈值,则机器人合格;否则,机器人不合格;
步骤3包括以下步骤:
步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像;
步骤3.2:对需要跟踪的目标进行建模仿真
步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像;
步骤3.2包括以下步骤:
步骤3.2.1:对目标外形、实时空间位置及反射系数进行三维建模;
步骤3.3.2:对三维建模后的目标表面划分计算网格;
步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410468357.2A CN104199314B (zh) | 2014-09-15 | 2014-09-15 | 一种机器人智能仿真测试方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410468357.2A CN104199314B (zh) | 2014-09-15 | 2014-09-15 | 一种机器人智能仿真测试方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104199314A CN104199314A (zh) | 2014-12-10 |
CN104199314B true CN104199314B (zh) | 2016-08-31 |
Family
ID=52084615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410468357.2A Expired - Fee Related CN104199314B (zh) | 2014-09-15 | 2014-09-15 | 一种机器人智能仿真测试方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104199314B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109709823A (zh) * | 2018-12-26 | 2019-05-03 | 中国北方车辆研究所 | 基于模型的信息集成测试方法 |
CN110262283B (zh) * | 2019-06-11 | 2022-08-23 | 远形时空科技(北京)有限公司 | 一种多场景的视觉机器人仿真平台及方法 |
CN112199299B (zh) * | 2020-07-13 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 一种生物识别设备的测试方法、装置、设备及系统 |
-
2014
- 2014-09-15 CN CN201410468357.2A patent/CN104199314B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN104199314A (zh) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tremblay et al. | Deep object pose estimation for semantic robotic grasping of household objects | |
CN104199313B (zh) | 一种机器人智能仿真测试系统 | |
Gao et al. | Vector: A versatile event-centric benchmark for multi-sensor slam | |
Teuliere et al. | A dense and direct approach to visual servoing using depth maps | |
CN112925223A (zh) | 基于视觉传感网络的无人机三维跟踪虚拟测试仿真系统 | |
CN105373011B (zh) | 检测光电跟踪设备的实时仿真系统和计算机 | |
CN107066975B (zh) | 基于深度传感器的视频识别与跟踪系统及其方法 | |
CN110062916A (zh) | 用于模拟可移动平台的操作的视觉模拟系统 | |
CN104199314B (zh) | 一种机器人智能仿真测试方法 | |
CN103235545A (zh) | 一种光电跟踪系统的仿真测试方法和装置 | |
CN114139370A (zh) | 一种光学引擎和电磁成像双模动目标同步仿真方法和系统 | |
Wang et al. | A synthetic dataset for Visual SLAM evaluation | |
Ning | Design and research of motion video image analysis system in sports training | |
Kohtala et al. | Leveraging synthetic data from cad models for training object detection models–a vr industry application case | |
CN110787433A (zh) | 一种用于高尔夫模拟器的高尔夫球感测系统 | |
Cai et al. | Dynamic illumination optical flow computing for sensing multiple mobile robots from a drone | |
Heindl et al. | ReconstructMe SDK: a C API for Real-time 3D Scanning | |
Perez et al. | Exploring 3-d reconstruction techniques: A benchmarking tool for underwater robotics | |
Zhong et al. | Reconstruction and Simulation of Elastic Objects with Spring-Mass 3D Gaussians | |
Irmisch et al. | Simulation framework for a visual-inertial navigation system | |
KR101628174B1 (ko) | 열원내장 이동객체와 주변 간의 상호 열교환 효과를 반영한 합성적외선영상 생성방법 | |
Xue et al. | Event-based non-rigid reconstruction from contours | |
Lu et al. | Binocular Vision‐Based Recognition Method for Table Tennis Motion Trajectory | |
Rocca et al. | Humaface: Human to machine facial animation | |
CN118573843A (zh) | 一种动作捕捉系统的性能测试方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160831 |