CN115072357B - 一种基于双目视觉的机器人转载自动定位方法 - Google Patents
一种基于双目视觉的机器人转载自动定位方法 Download PDFInfo
- Publication number
- CN115072357B CN115072357B CN202110274133.8A CN202110274133A CN115072357B CN 115072357 B CN115072357 B CN 115072357B CN 202110274133 A CN202110274133 A CN 202110274133A CN 115072357 B CN115072357 B CN 115072357B
- Authority
- CN
- China
- Prior art keywords
- camera
- grabbing
- box body
- positioning
- falling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/902—Devices for picking-up and depositing articles or materials provided with drive systems incorporating rotary and rectilinear movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G43/00—Control devices, e.g. for safety, warning or fault-correcting
- B65G43/08—Control devices operated by article or material being fed, conveyed or discharged
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/60—Other road transportation technologies with climate change mitigation effect
- Y02T10/70—Energy storage systems for electromobility, e.g. batteries
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Geometry (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种基于双目视觉的机器人转载自动定位方法,包括:步骤一:抓取相机分别检测并确定对应吊孔中心三维坐标;步骤二:将与第二抓取相机对应的吊孔中心位置转换至第一抓取相机坐标系下;步骤三:定位箱体上侧中心位置;步骤四:进行机器人运行轨迹规划;步骤五:吊具与箱体锁定;步骤六:箱体移动至落放平台上方;步骤七:落放相机分别检测并确定落放平台上对应定位支座中心三维坐标;步骤八:将与第二落放相机对应的定位支座中心位置转换至第一落放相机的坐标系下;步骤九:定位箱体下侧中心位置;步骤十:进行机器人运行轨迹规划;步骤十一:箱体落放在落放平台上。本发明能够在不同工况和复杂恶劣天气等条件实现转载高精度定位。
Description
技术领域
本发明涉及机器人领域,具体地说是一种基于双目视觉的机器人转载自动定位方法。
背景技术
目前折臂式重载机器人的野外转载作业多采用手动或使用惯性导航、激光导航、直接位置导航、GPS导航等方法实现转载目标的定位和导航,但以上导航方式普遍存在手动操作困难、导航路径改变困难、累计误差漂移、对作业环境布置要求高、视场范围小、环境适应性差以及精度低等问题。
发明内容
本发明的目的在于提供一种基于双目视觉的机器人转载自动定位方法,解决了折臂式重载机器人在不同工况以及复杂恶劣天气等条件下针对传统吊车无法实现高精度定位的难题,同时也提高了大型重载装备的智能化程度。
本发明的目的是通过以下技术方案来实现的:
一种基于双目视觉的机器人转载自动定位方法,包括吊具、箱体和落放平台,所述吊具一侧设有第一抓取相机和第二抓取相机,另一侧设有可伸缩的第一落放相机和可伸缩的第二落放相机,所述箱体上设有第一抓取定位标识和第二抓取定位标识,所述落放平台上设有第一落放定位标识和第二落放定位标识,包括如下步骤:
步骤一:机器人驱动吊具运动至待转载的箱体上方,第一抓取相机和第二抓取相机分别检测箱体上对应吊孔的位置,并且两个吊孔呈斜对角设置,然后确定吊孔中心在对应抓取相机坐标系下的三维坐标;
步骤二:将第二抓取相机的坐标系OB-XBYBZB统一至第一抓取相机的坐标系OA-XAYAZA,并将与第二抓取相机对应的吊孔中心位置转换至第一抓取相机的坐标系下;
步骤五:机器人驱动吊具与箱体锁定;
步骤六:机器人驱动吊具带动箱体移动至落放平台上方;
步骤七:第一落放相机和第二落放相机均自动伸出并分别检测落放平台上对应的定位支座位置,然后确定定位支座中心在对应落放相机坐标系下的三维坐标;
步骤八:将第二落放相机的坐标系OD-XDYDZD统一至第一落放相机的坐标系OC-XCYCZC,并将与第二落放相机对应的定位支座中心位置转换至第一落放相机的坐标系下;
步骤十一:机器人驱动箱体落放在落放平台上。
步骤一中,吊孔位置检测时,第一抓取相机与第一抓取定位标识配合确定箱体前部的吊孔位置,第二抓取相机与第二抓取定位标识配合确定箱体后部的吊孔位置。
步骤二中,吊孔中心由坐标系OB-XBYBZB下的三维坐标(xB,yB,zB)转换到坐标系OA-XAYAZA下的三维坐标(x′B,y′B,z′B),变换关系如下式(1)所示:
步骤三中,箱体上侧的中心位置在第一抓取相机坐标系下的坐标如下式(2)所示:
步骤七中,定位支座位置检测时,第一落放相机与第一落放定位标识配合确定落放平台前部的定位支座中心位置,第二落放相机与第二落放定位标识配合确定落放平台后部的定位支座中心位置。
步骤八中,将定位支座中心在坐标系OD-XDYDZD下的三维坐标(xD,yD,zD)转换到坐标系OC-XCYCZC下的三维坐标(x'D,y'D,z'D),变换关系如下式(3)所示:
步骤九中,箱体(9)下侧的中心位置在第一落放相机(4)坐标系下的坐标如下式(4):
所述吊具中部设有第一相机侧展机构、后端设有第二相机侧展机构,所述第一落放相机设于所述第一相机侧展机构上,所述第二落放相机设于所述第二相机侧展机构上。
所述吊具上设有图像处理工控机。
本发明的优点与积极效果为:
1、本发明将折臂式重载机器人轨迹规划技术与视觉导航技术相融合,实现了机器人的自动导航定位,突破了传统吊车全靠人为手动操作的壁垒,提高了恶劣条件下重载装备自动转载换装精度,且多型号通用。
2、本发明采用视觉相机实现抓取和落放定位,能够自动寻找视觉标志点并使其进入视场范围,能够自动识别待转载箱体,并提供待转载箱体的抓取位姿数据用于实现机器人自动抓取,能够自动识别箱体落放位置,并提供箱体的落放位姿数据用于实现机器人自动落放。
3、本发明采用视觉相机实现抓取和落放定位,视觉相机视场范围大,可达到前后方向±420mm,左右方向±420mm,能够完全覆盖目标物的停放偏差(典型值:±100mm),降低目标物的停放难度。
4、本发明可实现全天候、全工作域内的绝对位姿和相对位姿导航定位,可在高温、低温、大风、大雾、雨雪等环境气候条件下实现定位。
附图说明
图1为本发明采用的定位系统组成示意图,
图2为本发明采用的视觉相机部署位置示意图,
图3为本发明的工作状态示意图一,
图4为本发明的工作状态示意图二,
图5为本发明坐标转换所依据的中心透视投影原理示意图,
图6为本发明三维坐标系旋转平移变换示意图,
图7为箱体中心位置示意图。
其中,1.第一抓取相机;2.吊具;3.图像处理工控机;4.第一落放相机;5.第一相机侧展机构;6.第二抓取相机;7.第二相机侧展机构;8.第二落放相机;9.箱体;10.第一抓取定位标识;11.第二落放定位标识;12.第二抓取定位标识;13.第一落放定位标识;14.落放平台。
具体实施方式
下面结合附图对本发明作进一步详述。
如图1~4所示,本发明采用的自动定位系统包括第一抓取相机1、第二抓取相机6、第一落放相机4、第二落放相机8以及多个定位标识,其中如图2所示,吊具2的右侧前端设有第一抓取相机1、右侧后端设有第二抓取相机6,吊具2的左侧中部设有可伸缩的第一落放相机4、左侧后端设有可伸缩的第二落放相机8,如图3所示,待转载的箱体9的左侧前部设有第一抓取定位标识10、左侧后部设有第二抓取定位标识12,如图4所示,落放平台14左侧前部设有第一落放定位标识13、左侧后部设有第二落放定位标识11。所述吊具2、箱体9和落放平台14均为本领域公知技术,其中吊具2通过折臂式机器人驱动移动。
如图2所示,所述吊具2的左侧中部设有第一相机侧展机构5、左侧后端设有第二相机侧展机构7,所述第一落放相机4设于所述第一相机侧展机构5上,所述第二落放相机8设于所述第二相机侧展机构7上。所述第一相机侧展机构5和第二相机侧展机构7为本领域公知技术,比如可采用气缸驱动形式,将相机安装于气缸缸杆端部的相机支架上,进而实现利用气缸驱动相机伸缩目的,本发明也可以根据实际需要选择其他形式的相机侧展机构。
各个视觉相机均为本领域公知技术且为市购产品,其由工业相机、光学镜头、光源、图像采集卡组成,工业相机将景物成像在图像传感器上,图像数字信号采集与传输,光学镜头将视场范围内的景物清晰的成像在传感器上,光源为图像采集提供环境光照以外的辅助LED照明,图像采集卡实现多通道图像信号采集与传输。
另外如图1~2所示,本发明系统还包括图像处理工控机3,所述图像处理工控机3安装于吊具2中部,所述图像处理工控机3为本领域公知技术,本实施例中的图像处理工控机3采用研华工控机,产品采用宽温设计,无风扇散热,搭载第六代英特尔酷睿i7处理器,内置嵌入式操作系统,方便系统集成,图像处理工控机3中装载控制软件。
如图1所示,本发明系统中的控制软件包括视觉测量软件与机器人位姿修正软件,其中视觉测量软件实现图像采集与传输,目标载体上合作目标测量,数据通信等功能,机器人位姿修正软件根据视觉测量结果自动纠正运动位姿偏差,实时规划机器人运动轨迹,实现箱体的自动抓取和自动落放。所述控制软件为本领域公知技术。
本发明的自动定位方法包括抓取过程和落放过程,具体如下:
A、抓取过程:
步骤一:机器人驱动吊具2运动至待转载的箱体9上方,第一抓取相机1和第二抓取相机6分别检测箱体9上对应吊孔的位置,并确定吊孔中心在对应抓取相机坐标系下的三维坐标。
步骤一实施时,首先视觉定位系统上电初始化,可正常与机器人控制软件通信,并实时上传视觉定位装置状态数据,然后进行吊具2与箱体9初定位,具体为:机器人驱动吊具2运动至待转载箱体9上方,此时吊具2与待转载箱体9之间的位置偏差为前后方向±420mm,左右方向±420mm,其中前后方向定义与箱体上的前后方向定义一致,左右方向为前后方向在箱体平面上的垂直方向;
如图7所示,所述箱体9上的吊孔呈斜对角设置,吊孔位置检测是在视觉相机通过畸变校正和视差矫正后,根据检测算法检测箱体9上的抓取定位标识点位置,然后准确定位吊孔中心在各自抓取相机平面下的位置,此为本领域公知技术。吊孔位置检测时,第一抓取相机1与第一抓取定位标识10配合确定箱体9前部的吊孔位置,第二抓取相机6与第二抓取定位标识12配合确定箱体9后部的吊孔位置,且两个吊孔呈斜对角设置。
确定吊孔中心在对应抓取相机坐标系下的三维坐标时,系统根据中心透视投影原理进行3D解算,也就是分别将两个吊孔中心位置在各自抓取相机下的图像坐标(uA,vA)和(uB,vB)转换到各自抓取相机坐标系下的三维坐标(xA,yA,zA)和(xB,yB,zB),中心透视投影原理如图5所示。
步骤二:坐标统一变换,将第二抓取相机6的坐标系OB-XBYBZB统一至第一抓取相机1的坐标系OA-XAYAZA,并将与第二抓取相机6对应的吊孔中心位置转换至第一抓取相机1的坐标系下。
具体为:利用标定模块中标定的第二抓取相机6在第一抓取相机1下的转矩阵R和平移向量T,将第二抓取相机6坐标系OB-XBYBZB统一到第一抓取相机1坐标系OA-XAYAZA。如图6所示,根据三维坐标系的旋转和平移变换原理,将吊孔中心P在坐标系OB-XBYBZB下的三维坐标(xB,yB,zB)转换到坐标系OA-XAYAZA下的三维坐标(x′B,y′B,z′B),变换关系如下式(1)所示:
如图7所示,箱体9上侧的中心位置即是两个呈斜对角设置的吊孔中心位置(xA,yA,zA)和(x′B,y′B,z′B)连线的中点,因此抓取箱体9上侧的中心位置在第一抓取相机1坐标系下的坐标如下式(2)所示:
步骤五:机器人驱动吊具2与箱体9锁定,吊具2距离箱体9竖直高度1600mm处,开始次纠偏,纠偏完成后吊具2可自动进入箱体2吊块,纠偏高度均可调整,但应保证纠偏后自动导入,且纠偏高度在1500mm~2000mm。所述吊具2与箱体2吊块配合锁定为本领域公知技术。
B、落放过程:
步骤六:步骤五中吊具2与箱体9锁定后,机器人驱动吊具2带动箱体9移动至落放平台14上方,此时箱体离落放位置前后偏差为±420mm,左右偏差为±420mm。
步骤七:第一落放相机4和第二落放相机8自动伸出分别检测落放平台14上对应的定位支座位置,并确定定位支座中心在对应落放相机坐标系下的三维坐标。
定位支座位置检测是在视觉相机通过畸变校正和视差矫正后,根据检测算法检测落放平台14上落放定位标识点位置,然后准确确定定位支座在各自成像相机平面下的中心位置。定位支座位置检测时,第一落放相机4与第一落放定位标识13配合确定落放平台14前部的定位支座中心位置,第二落放相机8与第二落放定位标识11配合确定落放平台14后部的定位支座中心位置。
计算各个定位支座中心位置在对应落放相机坐标系下的三维坐标时,根据中心透视投影原理进行3D解算,也就是分别将两个支座中心位置在各自成像相机下的图像坐标(uC,vC)和(uD,vD)转换到各自视觉相机坐标系下的三维坐标(xD,yD,zD)和(xD',yD',zD')。
步骤八:坐标统一变换,将第二落放相机8的坐标系OD-XDYDZD统一至第一落放相机4的坐标系OC-XCYCZC,并将与第二落放相机8对应的定位支座中心位置转换至第一落放相机4的坐标系下。
具体为:利用标定模块中标定的第二落放相机8在第一落放相机4下的转矩阵R'和平移向量T',将第二落放相机8坐标系OD-XDYDZD统一到第一落放相机4坐标系OC-XCYCZC。根据三维坐标系的旋转和平移变换原理,将定位支座中心在坐标系OD-XDYDZD下的三维坐标(xD,yD,zD)转换到坐标系OC-XCYCZC下的三维坐标(x'D,y'D,z'D),变换关系如下式(3)所示:
步骤九:定位箱体9下侧的中心位置具体为:落放箱体9下侧的中心位置/>即是两个定位支座中心位置(xC,yC,zC)和(x'D,y'D,z'D)连线的中点,因此箱体9下侧的中心位置在第一落放相机4的OC-XCYCZC坐标系下的坐标如下式(4):
步骤十一:机器人驱动箱体9落放在落放平台14上,此时机器人携带箱体9进行运动纠偏,纠偏后应可实现箱体9自动落放至目标车辆上的落放平台14。机器人落放过程中的纠偏位置可变,但纠偏后应自动落放至目标车辆的落放平台14上,且纠偏高度为3100mm~3500mm。
本发明采用视觉相机实现抓取和落放定位,能够自动寻找视觉标志点并使其进入视场范围,能够自动识别待转载箱体,并提供待转载箱体的抓取位姿数据用于实现机器人自动抓取,能够自动识别箱体落放位置,并提供箱体的落放位姿数据用于实现机器人自动落放。
Claims (9)
1.一种基于双目视觉的机器人转载自动定位方法,包括吊具、箱体和落放平台,其特征在于:所述吊具(2)一侧设有第一抓取相机(1)和第二抓取相机(6),另一侧设有可伸缩的第一落放相机(4)和可伸缩的第二落放相机(8),所述箱体(9)上设有第一抓取定位标识(10)和第二抓取定位标识(12),所述落放平台(14)上设有第一落放定位标识(13)和第二落放定位标识(11),包括如下步骤:
步骤一:机器人驱动吊具(2)运动至待转载的箱体(9)上方,第一抓取相机(1)和第二抓取相机(6)分别检测箱体(9)上对应吊孔的位置,并且两个吊孔呈斜对角设置,然后确定吊孔中心在对应抓取相机坐标系下的三维坐标;
步骤二:将第二抓取相机(6)的坐标系OB-XBYBZB统一至第一抓取相机(1)的坐标系OA-XAYAZA,并将与第二抓取相机(6)对应的吊孔中心位置转换至第一抓取相机(1)的坐标系下;
步骤五:机器人驱动吊具(2)与箱体(9)锁定;
步骤六:机器人驱动吊具(2)带动箱体(9)移动至落放平台(14)上方;
步骤七:第一落放相机(4)和第二落放相机(8)均自动伸出并分别检测落放平台(14)上对应的定位支座位置,然后确定定位支座中心在对应落放相机坐标系下的三维坐标;
步骤八:将第二落放相机(8)的坐标系OD-XDYDZD统一至第一落放相机(4)的坐标系OC-XCYCZC,并将与第二落放相机(8)对应的定位支座中心位置转换至第一落放相机(4)的坐标系下;
步骤十一:机器人驱动箱体(9)落放在落放平台(14)上。
2.根据权利要求1所述的机器人转载自动定位方法,其特征在于:步骤一中,吊孔位置检测时,第一抓取相机(1)与第一抓取定位标识(10)配合确定箱体(9)前部的吊孔位置,第二抓取相机(6)与第二抓取定位标识(12)配合确定箱体(9)后部的吊孔位置。
5.根据权利要求1所述的机器人转载自动定位方法,其特征在于:步骤七中,定位支座位置检测时,第一落放相机(4)与第一落放定位标识(13)配合确定落放平台(14)前部的定位支座中心位置,第二落放相机(8)与第二落放定位标识(11)配合确定落放平台(14)后部的定位支座中心位置。
8.根据权利要求1所述的机器人转载自动定位方法,其特征在于:所述吊具(2)中部设有第一相机侧展机构(5)、后端设有第二相机侧展机构(7),所述第一落放相机(4)设于所述第一相机侧展机构(5)上,所述第二落放相机(8)设于所述第二相机侧展机构(7)上。
9.根据权利要求1所述的机器人转载自动定位方法,其特征在于:所述吊具(2)上设有图像处理工控机(3)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110274133.8A CN115072357B (zh) | 2021-03-15 | 2021-03-15 | 一种基于双目视觉的机器人转载自动定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110274133.8A CN115072357B (zh) | 2021-03-15 | 2021-03-15 | 一种基于双目视觉的机器人转载自动定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115072357A CN115072357A (zh) | 2022-09-20 |
CN115072357B true CN115072357B (zh) | 2023-07-07 |
Family
ID=83240734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110274133.8A Active CN115072357B (zh) | 2021-03-15 | 2021-03-15 | 一种基于双目视觉的机器人转载自动定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115072357B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104786226A (zh) * | 2015-03-26 | 2015-07-22 | 华南理工大学 | 抓取在线工件的机器人位姿及运动轨迹定位系统与方法 |
CN106829469A (zh) * | 2017-03-30 | 2017-06-13 | 武汉库柏特科技有限公司 | 一种基于双相机的机器人无序抓取装置及方法 |
CN110509281A (zh) * | 2019-09-16 | 2019-11-29 | 中国计量大学 | 基于双目视觉的位姿识别与抓取的装置与方法 |
CN111775154A (zh) * | 2020-07-20 | 2020-10-16 | 广东拓斯达科技股份有限公司 | 一种机器人视觉系统 |
CN112132889A (zh) * | 2020-08-25 | 2020-12-25 | 中国计量大学 | 一种基于双目视觉的软磁体姿态识别及自动抓取方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005058867B4 (de) * | 2005-12-09 | 2018-09-27 | Cine-Tv Broadcast Systems Gmbh | Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn |
US20200262065A1 (en) * | 2019-02-14 | 2020-08-20 | InTune Products LLC | Method of closed-loop point to point robot path planning by online correction and alignment via a dual camera vision system |
-
2021
- 2021-03-15 CN CN202110274133.8A patent/CN115072357B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104786226A (zh) * | 2015-03-26 | 2015-07-22 | 华南理工大学 | 抓取在线工件的机器人位姿及运动轨迹定位系统与方法 |
CN106829469A (zh) * | 2017-03-30 | 2017-06-13 | 武汉库柏特科技有限公司 | 一种基于双相机的机器人无序抓取装置及方法 |
CN110509281A (zh) * | 2019-09-16 | 2019-11-29 | 中国计量大学 | 基于双目视觉的位姿识别与抓取的装置与方法 |
CN111775154A (zh) * | 2020-07-20 | 2020-10-16 | 广东拓斯达科技股份有限公司 | 一种机器人视觉系统 |
CN112132889A (zh) * | 2020-08-25 | 2020-12-25 | 中国计量大学 | 一种基于双目视觉的软磁体姿态识别及自动抓取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115072357A (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101988083B1 (ko) | 가동 타겟 오브젝트의 위치 탐색을 위한 시스템 및 방법 | |
Walter et al. | Fast mutual relative localization of uavs using ultraviolet led markers | |
AU2008342721B2 (en) | Method and system for the high-precision positioning of at least one object in a final location in space | |
CN102448679B (zh) | 至少一个物体以高精度定位到空间最终位置的方法和系统 | |
CN111127568B (zh) | 一种基于空间点位信息的相机位姿标定方法 | |
CN102798350B (zh) | 一种臂架挠度的测量方法、装置及系统 | |
CN109737981B (zh) | 基于多传感器的无人车目标搜索装置及方法 | |
CN110640738A (zh) | 一种动态捕捉的工业机器人平台 | |
CN109781068B (zh) | 面向空间应用的视觉测量系统地面模拟评估系统及方法 | |
CN115343299B (zh) | 一种轻量化公路隧道集成检测系统及方法 | |
US11769269B2 (en) | Fusing multiple depth sensing modalities | |
CN110568866A (zh) | 一种三维立体曲面视觉引导对位系统及对位方法 | |
CN115072357B (zh) | 一种基于双目视觉的机器人转载自动定位方法 | |
US20240051152A1 (en) | Autonomous solar installation using artificial intelligence | |
CN114067210A (zh) | 一种基于单目视觉导引的移动机器人智能抓取方法 | |
CN203163998U (zh) | 水平移动式4d汽车四轮定位测量系统 | |
US12014515B2 (en) | Estimating a pose of a spatially movable platform | |
CN113959412A (zh) | 一种基于红外探测的无人机对接过程主动视觉导航方法 | |
CN115246123A (zh) | 一种基于单目移动视觉的机器人运动学参数标定方法及系统 | |
CN113500584A (zh) | 一种三自由度并联机器人的末端误差校正系统及方法 | |
CN112884832A (zh) | 一种基于多目视觉的智能小车轨迹预测方法 | |
US20230150151A1 (en) | End of Arm Sensing Device | |
Min | Binocular stereo vision control method for landing position of four rotor UAV | |
CN116394227A (zh) | 一种五轴混联机器人视觉检测方法 | |
CN117798906A (zh) | 双目视觉和机械臂联动的大范围高精度姿态测量对准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |