CN109664291A - 一种机器人的引导方法 - Google Patents

一种机器人的引导方法 Download PDF

Info

Publication number
CN109664291A
CN109664291A CN201710957526.2A CN201710957526A CN109664291A CN 109664291 A CN109664291 A CN 109664291A CN 201710957526 A CN201710957526 A CN 201710957526A CN 109664291 A CN109664291 A CN 109664291A
Authority
CN
China
Prior art keywords
robot
information
ranging
spatial scene
range information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710957526.2A
Other languages
English (en)
Inventor
欧阳光
池敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Light Vision Intelligent Technology Co Ltd
Original Assignee
Nanjing Light Vision Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Light Vision Intelligent Technology Co Ltd filed Critical Nanjing Light Vision Intelligent Technology Co Ltd
Priority to CN201710957526.2A priority Critical patent/CN109664291A/zh
Publication of CN109664291A publication Critical patent/CN109664291A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

本发明提供了一种机器人的引导方法,包括步骤:第一步:测距;对机器人与目标位置进行测距,并将具体的距离信息发到计算机,计算机对所述图像数据进行图像处理和分析,得出机器人距离目标位置的距离信息;第二步:对第一步中的距离信息进行标定,设定至少一个位置作为机器人到达的目标点;第三步:机器人根据用户发出的指令进行停止或移动,最后到达目的地。本发明利用电子设备的深度摄像头、动作追踪摄像头以及红外发射器以及与所述红外发射器匹配的接收器可以获取所述空间场景中各个物体在预设三维直角坐标系O‑XYZ中的参数信息,在利用视觉信息驱动机器人朝目标运动。达到“手眼协调”,提高工业机器人智能装配的准确性、稳定性,提高自动化程度。

Description

一种机器人的引导方法
技术领域
本发明涉及机器人领域,具体涉及一种机器人的引导方法。
背景技术
视觉定位要求机器视觉系统能够快速准确的找到被测零件并确认其位置,上下料使用机器视觉来定位,引导机械手臂准确抓取。
在半导体封装领域,设备需要根据机器视觉取得的芯片位置信息调整拾取头,准确拾取芯片并进行绑定,这就是视觉定位在机器视觉工业领域最基本的应用。
在餐厅、写字楼、停车场等场景下,将用户引导至其希望到达的目的地是一个实际存在的需求。然而,传统的导引方案不能很好地满足该需求。以现有的餐厅导引机器人为例,其移动依赖于事先贴于地面的导引磁条以确定行走路线,该方案具有路线单一、需要事先布置磁条等缺点,且在有障碍物(如周围行人)干扰的情况下无法进行避障。
发明内容
发明目的:本发明针对上述不足,提供一种机器人的引导方法。
技术方案:
一种机器人的引导方法,包括步骤:。
第一步:测距;对机器人与目标位置进行测距,并将具体的距离信息发到计算机,计算机对所述图像数据进行图像处理和分析,得出机器人距离目标位置的距离信息;
第二步:对第一步中的距离信息进行标定,设定至少一个位置作为机器人到达的目标点;
第三步:机器人根据用户发出的指令进行停止或移动,最后到达目的地。
所述测距采用激光测距仪进行测距。
所述测距通过电子设备的深度摄像头、动作追踪摄像头以及红外发射器以及与所述红外发射器匹配的接收器可以获取所述空间场景中各个物体在预设三维直角坐标系O-XYZ中的参数信息,所述参数信息包括:所述空间场景的体积信息、所述物体在所述空间场景中的位置 信息以及景深信息。
当获得距离信息后,基于距离信息建立空间场景的三维模型,所述三维模型可以为所述空间场景的三维地图,以真实展示所述空间场景及其内部物体的布局。
所述三维模型可以为基于所述三维地图的虚拟图像。
有益效果:本发明利用电子设备的深度摄像头、动作追踪摄像头以及红外发射器以及与所述红外发射器匹配的接收器可以获取所述空间场景中各个物体在预设三维直角坐标系O-XYZ中的参数信息,在利用视觉信息驱动机器人朝目标运动。达到“手眼协调”,提高工业机器人智能装配的准确性、稳定性,提高了其自动化程度。
具体实施方式
下面对本发明作更进一步的说明。
第一步:测距;本发明使用激光测距仪进行测距,并将具体的距离信息发到计算机,计算机对所述图像数据进行图像处理和分析,得出机器人距离目标位置的距离信息;
第二步:对第一步中的距离信息进行标定,设定至少一个位置作为机器人到达的目标点;
第三步:机器人根据用户发出的指令进行停止或移动,最后到达目的地。
本发明的测距还可以通过电子设备的深度摄像头、动作追踪摄像头以及红外发射器以及与所述红外发射器匹配的接收器可以获取所述空间场景中各个物体在预设三维直角坐标系O-XYZ中的参数信息,所述参数信息包括:所述空间场景的体积信息、所述物体在所述空间场景中的位置 信息以及景深信息。
其中,可以设定三维直角坐标系O-XYZ中,X轴与Y轴的XY平面为水平面, Z轴为竖直向上的方向。
对于所述空间场景的体积信息,同样可以通过电子设备的深度摄像头、动作追踪摄像头以及红外发射器以及与所述红外发射器匹配的接收器可以获取,或者,直接将空间场景的已知体积信息输入并存储到所述电子设备。
其中,所述空间场景的体积信息包括所 述空间的形状以及边线尺寸。如当所述空间场景为立方体的房间,其体积信息包括房间的立方体结构以及立方体的长宽高,如当所述空间场景为圆柱形房间时,其体积信息包括房 间的圆柱形结构以及圆柱形的高以及底面圆形的半径。
当获得距离信息后,可以基于距离信息建立空间场景的三维模型,所述三维模型可以为所述空间场景的三维地图,以真实展示所述空间场景及其内部物体的布局。其他实施方式中,所述三维模型可以为基于所述三维地图的虚拟图像,如所述三维模型可以为与所述空间场景具有相同空间体积的虚拟花园图像。
设定至少一个位置作为机器人到达的目标点具体为,将所述输入操作转换为行进路径,用户直接通过显示屏执行输入操作,输入操作可以为在显示屏上的滑动操作。形成机器人的与i运动目标。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种机器人的引导方法,其特征在于:包括步骤:
第一步:测距;对机器人与目标位置进行测距,并将具体的距离信息发到计算机,计算机对所述图像数据进行图像处理和分析,得出机器人距离目标位置的距离信息;
第二步:对第一步中的距离信息进行标定,设定至少一个位置作为机器人到达的目标点;
第三步:机器人根据用户发出的指令进行停止或移动,最后到达目的地。
2.根据权利要求1所述的机器人的引导方法,其特征在于:所述测距采用激光测距仪进行测距。
3.根据权利要求1所述的机器人的引导方法,其特征在于:所述测距通过电子设备的深度摄像头、动作追踪摄像头以及红外发射器以及与所述红外发射器匹配的接收器可以获取所述空间场景中各个物体在预设三维直角坐标系O-XYZ中的参数信息,所述参数信息包括:所述空间场景的体积信息、所述物体在所述空间场景中的位置 信息以及景深信息。
4.根据权利要求1所述的机器人的引导方法,其特征在于:当获得距离信息后,基于距离信息建立空间场景的三维模型,所述三维模型可以为所述空间场景的三维地图,以真实展示所述空间场景及其内部物体的布局。
5.根据权利要求4所述的机器人的引导方法,其特征在于:所述三维模型可以为基于所述三维地图的虚拟图像。
CN201710957526.2A 2017-10-13 2017-10-13 一种机器人的引导方法 Pending CN109664291A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710957526.2A CN109664291A (zh) 2017-10-13 2017-10-13 一种机器人的引导方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710957526.2A CN109664291A (zh) 2017-10-13 2017-10-13 一种机器人的引导方法

Publications (1)

Publication Number Publication Date
CN109664291A true CN109664291A (zh) 2019-04-23

Family

ID=66140029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710957526.2A Pending CN109664291A (zh) 2017-10-13 2017-10-13 一种机器人的引导方法

Country Status (1)

Country Link
CN (1) CN109664291A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111399637A (zh) * 2020-02-28 2020-07-10 广州幻境科技有限公司 一种基于slam的虚拟现实大空间定位方法及系统
CN112157660A (zh) * 2020-11-05 2021-01-01 珠海市一微半导体有限公司 一种具有跟踪功能的移动机器人及目标跟踪方法
CN113240881A (zh) * 2021-07-12 2021-08-10 环球数科集团有限公司 一种基于多特征融合的火灾识别系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111399637A (zh) * 2020-02-28 2020-07-10 广州幻境科技有限公司 一种基于slam的虚拟现实大空间定位方法及系统
CN112157660A (zh) * 2020-11-05 2021-01-01 珠海市一微半导体有限公司 一种具有跟踪功能的移动机器人及目标跟踪方法
CN113240881A (zh) * 2021-07-12 2021-08-10 环球数科集团有限公司 一种基于多特征融合的火灾识别系统

Similar Documents

Publication Publication Date Title
AU2018295572B2 (en) Real time position and orientation tracker
CN110243360B (zh) 机器人在运动区域的地图构建及定位方法
KR101988083B1 (ko) 가동 타겟 오브젝트의 위치 탐색을 위한 시스템 및 방법
CN110275538A (zh) 智能巡航车导航方法及系统
US9757859B1 (en) Tooltip stabilization
CN108663681A (zh) 基于双目摄像头与二维激光雷达的移动机器人导航方法
US20180003498A1 (en) Visual positioning system and method based on high reflective infrared identification
CN105486311A (zh) 室内机器人定位导航方法及装置
CN109144068A (zh) 三向前移式导航切换agv叉车的电控方式及控制装置
CN102419178A (zh) 基于红外路标的移动机器人定位系统和方法
CN109541535A (zh) 一种基于uwb和视觉slam的agv室内定位及导航的方法
CN110211228A (zh) 用于建图的数据处理方法及装置
CN109664291A (zh) 一种机器人的引导方法
EP4141474A1 (en) System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning
CN109791406A (zh) 自主载体的对象感知和规避系统
US20220128998A1 (en) Navigation method, moving carrier and navigation system
CN109443345A (zh) 用于监控导航的定位方法及系统
CN103472434B (zh) 一种机器人声音定位方法
CN107291072A (zh) 一种移动机器人路径规划系统及方法
Acuna et al. Moma: Visual mobile marker odometry
KR101850118B1 (ko) 이동 로봇과 카메라의 캘리브레이션 방법 및 시스템
US20230064401A1 (en) System for 3d surveying by a ugv and a uav with automatic provision of referencing of ugv lidar data and uav lidar data
CN110471430A (zh) 一种agv局部高精度定位导航装置
Wang et al. Design of multi-robot cooperative transport system
Liu et al. Visual navigation for UAVs landing on accessory building floor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190423