WO2021017083A1 - 一种工业机器人建图定位系统及机器人 - Google Patents

一种工业机器人建图定位系统及机器人 Download PDF

Info

Publication number
WO2021017083A1
WO2021017083A1 PCT/CN2019/103497 CN2019103497W WO2021017083A1 WO 2021017083 A1 WO2021017083 A1 WO 2021017083A1 CN 2019103497 W CN2019103497 W CN 2019103497W WO 2021017083 A1 WO2021017083 A1 WO 2021017083A1
Authority
WO
WIPO (PCT)
Prior art keywords
module
sensor
image
robot
control
Prior art date
Application number
PCT/CN2019/103497
Other languages
English (en)
French (fr)
Inventor
何正文
王宇智
Original Assignee
南京驭逡通信科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 南京驭逡通信科技有限公司 filed Critical 南京驭逡通信科技有限公司
Publication of WO2021017083A1 publication Critical patent/WO2021017083A1/zh

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Definitions

  • the invention belongs to the technical field of robots, and particularly relates to an industrial robot mapping and positioning system and a robot.
  • Existing mobile robots usually use sensors installed on the robot body to scan the surrounding environment, use these sensors to measure the position information of obstacles around the robot, and record the mileage information of the robot itself, and calculate it through positioning and map construction methods.
  • the map of the robot's environment and the robot's location information due to the constant installation position of each sensor and the different sampling rate between each other, the existing positioning method will detect errors when the bumpy road surface, or the car body undulates excessively, or the machine rotates, collides, etc. Therefore, the accuracy and robustness of mapping and positioning algorithms decrease, which in turn affects the map quality and positioning accuracy.
  • the present invention provides an industrial robot mapping and positioning system and a robot.
  • an industrial robot mapping and positioning system including a vision module, a control module, and a power supply module.
  • the vision module is composed of an image acquisition module, an image processing module, and a communication module.
  • the vision module is connected to the power module, the power module is connected to the vision module, the image acquisition module is connected to the image processing module, the image processing module is connected to the communication module, and the
  • the control module is composed of a control end computer module and a vehicle-mounted computer module, and the control end computer module is connected with the vehicle-mounted computer module.
  • the image acquisition module includes an image sensor, an optical camera and an auxiliary light source, and the image processor is a CMOS sensor.
  • the image processing module includes a microprocessor inside, and the microprocessor is connected to the image sensor, and the microprocessor adopts an S3C2440 processing chip.
  • the inside of the communication module includes a communication interface, and the communication interface is connected with the microprocessor and the control module.
  • control terminal computer module Preferably, the output ends of the control terminal computer module are respectively connected with the remote control handle module and the wireless data module, and mainly complete robot control, sensor information fusion, environment map construction, etc.
  • the output ends of the vehicle-mounted computer module are respectively connected to the vehicle control module and the wireless data module
  • the wireless data module is connected to the vehicle sensor module
  • the vehicle control module is connected to the motor drive module
  • the vehicle computer module It mainly completes the collection and transmission of data such as sensors and cameras.
  • the internal processing flow of the image processing module is to initialize first, then acquire the target image, and read the Y component of the image while binarizing the Y component of the image, and then binarizing the image to obtain the target edge Pixels, and finally through the pixels on the edge of the target, determine the spatial position and posture of the target.
  • the vehicle-mounted sensor is divided into an internal sensor and an external sensor.
  • the internal sensor includes an odometer and a gyroscope.
  • the internal sensor is mainly used to detect internal parameters of the robot.
  • the external sensor includes a visual sensor, a laser sensor, An infrared sensor and an MTI sensor, the MTI sensor is a miniature attitude sensor.
  • a robot including a robot body, a plurality of cameras are fixed at the top of the robot body, an observation platform is fixed at the middle of the bottom end of the robot body, and the bottom end of the observation platform is symmetrical
  • a steering gear is fixed, the number of the steering gear is two, and the steering gear is connected to the controller inside the robot body.
  • the overall structure of the present invention is simple, more accurate data can be obtained, and measurement errors can be reduced, so that the position and posture of the robot at different times can be grasped more conveniently.
  • the position and posture information of the workpiece target can be accurately obtained, which reduces the intensity of manual labor and is more convenient for people to use.
  • Figure 1 is a structural block diagram of the industrial robot mapping and positioning system provided in Example 1;
  • Fig. 2 is a structural block diagram of the control module provided in embodiment 1;
  • FIG. 3 is a flowchart of the image processing module provided in Embodiment 1;
  • Vision Module In the above figures, 1. Vision Module; 2. Control Module; 3. Power Module; 4. Image Acquisition Module; 5. Image Processing Module; 6. Communication Module; 7. Control Computer Module; 8. Vehicle Computer Module; 9. Remote control handle module; 10. Wireless data module; 11. Vehicle control module; 12. Vehicle sensor module; 13. Motor drive module; 14. Robot body; 15. Camera; 16. Observation platform; 17. Steering gear.
  • Embodiment 1 as shown in Figures 1 to 3, the present invention provides an industrial robot mapping and positioning system, including a vision module 1, a control module 2, and a power supply module 3.
  • the vision module 1 consists of an image acquisition module 4,
  • the image processing module 5 and the communication module 6 are composed.
  • the control module 2 is connected to the vision module 1 and the power supply module 3, the power supply module 3 is connected to the vision module 1, and the image acquisition module 4 is connected to the
  • the image processing module 5 is connected, the image processing module 5 is connected to the communication module 6, and the control module 2 is composed of a control end computer module 7 and a vehicle-mounted computer module 8; the control end computer is the main control computer of the entire system , Is directly controlled by the operator, and is mainly used to complete environmental feature recognition, data coordinate transformation, and environmental map creation.
  • the on-board computer is the control computer, which mainly controls the action of the sensor and receives the environmental information obtained by the sensor, and performs simple environmental information After processing, it is sent to the control-end computer, and the control-end computer module 7 is connected to the vehicle-mounted computer module 8.
  • the power supply module 3 supplies power to the entire device, and the vision module 1 performs image shooting and transmission, and passes the control module 2.
  • the microprocessor sends a signal to the image sensor to collect the image. After receiving the signal, the image sensor converts the optical image into an electronic signal.
  • the data result is transferred to the storage unit through DMA, and then passed
  • the microprocessor reads the image data from the storage unit, obtains the spatial position and posture of the target through the computer, and finally sends the obtained data to the robot controller through the communication interface to control the movement of the robot.
  • the image acquisition module 4 includes an image sensor, an optical camera 15 and an auxiliary light source.
  • the image processor is a CMOS sensor; the processing chip of the sensor has a high processing speed and can output multiple formats.
  • the image processing module 5 includes a microprocessor inside, and the microprocessor is connected to the image sensor.
  • the microprocessor adopts the S3C2440 processing chip; because the processing chip has a dedicated interface, and The interface supports digital video interface standards, and can be directly connected to the image sensor without the need for an interface conversion circuit.
  • the communication module 6 includes a communication interface inside, and the communication interface is connected with the microprocessor and the control module 2.
  • control terminal computer module 7 is respectively connected with the remote control handle module 9 and the wireless data module 10, and mainly complete robot control, sensor information fusion, environment map construction, etc.
  • the output terminals of the on-board computer module 8 are respectively connected to the in-vehicle control module 112 and the wireless data module 10, the wireless data module 10 is connected to the on-board sensor module 12, and the in-vehicle control module 112 and the motor drive module 13 is connected, and the on-board computer module 8 mainly completes the collection and transmission of data such as sensors and cameras 15.
  • the internal processing flow of the image processing module 5 is to initialize first, then acquire the target image, read the Y component of the image while binarizing the Y component of the image, and then binarize the image to obtain the target Edge pixels, and finally determine the spatial position and posture of the target through the pixels of the target edge; from the principle of image processing, it can be seen that the more pixels of the image, the higher the recognition and calculation accuracy, so the Y component image is selected for binarization Processing and calculation.
  • the vehicle-mounted sensors are divided into internal sensors and external sensors.
  • the internal sensors include an odometer and a gyroscope.
  • the internal sensors are mainly used to detect internal parameters of the robot.
  • the external sensors include visual sensors, laser sensors, Infrared sensor and MTI sensor, the MTI sensor is a miniature attitude and orientation sensor; the data information of the external environment can be obtained through the external sensor, processed by the on-board computer, and transmitted to the control end computer, and the robot is in the process of movement, due to the external environment Various slopes and obstacles cause the robot to generate a tilt angle. When the tilt angle is large, obstacles that do not belong to the plane may be scanned in, resulting in larger data in the data output by the sensor during the mapping and positioning process.
  • Deviation through the MTI sensor using its internal enhanced three-axis gyroscope to quickly track the space attitude of the measured object, while measuring the acceleration and geomagnetic field of the three axes to provide compensation for the speed of the three axes, which is conducive to the stability and stability of the robot. It is controlled, and the MTI is small in size and light in weight, and can be easily installed on the robot to accurately obtain the robot's posture in the process of crossing obstacles.
  • Embodiment 2 as shown in FIG. 4, the present invention provides an industrial robot, including a robot body 14, a plurality of cameras 15 are fixed at the top of the robot body 14, and an observation platform is fixed at the bottom middle of the robot body 14 16.
  • a steering gear 17 is symmetrically fixed at the bottom end of the observation platform 16, the number of the steering gear 17 is two, and the steering gear 17 is connected to the controller inside the robot body 14;
  • the observation platform 16 is a two-degree-of-freedom movement platform composed of two steering gears 17, which can ensure that the robot remains as stable as possible during the measurement, thereby improving the accuracy of the measurement.
  • the microprocessor first sends out the image acquisition signal to the image sensor. After receiving the signal, the image sensor converts the optical image into an electronic signal. After signal amplification, the data result is transferred to the storage unit through DMA, and then through The microprocessor reads the image data from the storage unit, obtains the spatial position and posture of the target through the computer, and finally sends the obtained data to the robot controller through the communication interface to control the movement of the robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种工业机器人建图定位系统及机器人,包括视觉模块(1)、控制模块(2)和电源模块(3),视觉模块(1)由图像采集模块(4)、图像处理模块(5)和通信模块(6)组成,控制模块(2)与视觉模块(1)和电源模块(3)连接,电源模块(3)与视觉模块(1)连接,图像采集模块(4)与图像处理模块(5)连接,图像处理模块(5)与通信模块(6)连接,且控制模块(2)由控制端计算机模块(7)和车载计算机模块(8)组成,控制端计算机模块(7)与车载计算机模块(8)连接,可以准确的获取工件目标的位置和姿态的信息,降低了人工劳动的强度,更加方便人们的使用。

Description

一种工业机器人建图定位系统及机器人 技术领域
本发明属于机器人技术领域,尤其涉及一种工业机器人建图定位系统及机器人。
背景技术
现有的移动机器人通常利用安装在机器人机身上的传感器扫描周围环境,利用这些传感器测得机器人周围障碍物的位置信息,并记录机器人自身行走的里程信息,同时通过定位和地图构建的方法计算机器人所处环境的地图和机器人的位置信息。但是由于每个传感器安装位置恒定、相互之间的采样率不同,当坎坷不平的路面、或车体起伏震动过大、或机器旋转、碰撞等情况出现时,现有的定位方法会检测到错误的数据,从而使建图和定位算法的准确度和鲁棒性下降,进而影响地图质量和定位精度。
技术问题
本发明针对上述的问题,提供了一种工业机器人建图定位系统及机器人。
技术解决方案
根据本发明的一个方面,提供了一种工业机器人建图定位系统,包括视觉模块、控制模块和电源模块,所述视觉模块由图像采集模块、图像处理模块和通信模块组成,所述控制模块与所述视觉模块和所述电源模块连接,所述电源模块与所述视觉模块连接,所述图像采集模块与所述图像处理模块连接,所述图像处理模块与所述通信模块连接,且所述控制模块由控制端计算机模块和车载计算机模块组成,所述控制端计算机模块与所述车载计算机模块连接。
作为优选,所述图像采集模块的内部包括图像传感器、光学摄像头和辅助光源,所述图像处理器为CMOS传感器。
作为优选,所述图像处理模块的内部包括微处理器,且所述微处理器与所述图像传感器连接,所述微处理器采用S3C2440处理芯片。
作为优选,所述通信模块的内部包括通信接口,且所述通信接口与所述微处理器和所述控制模块连接。
作为优选,所述控制端计算机模块的输出端分别与遥控手柄模块和无线数据模块连接,主要完成机器人控制、传感器信息融合、环境地图构建等。
作为优选,所述车载计算机模块的输出端分别与车内控制模块和无线数据模块连接,所述无线数据模块与车载传感器模块连接,所述车内控制模块与电机驱动模块连接,且车载计算机模块主要完成传感器、摄像头等数据的采集和传输。
作为优选,所述图像处理模块内部的处理流程为首先进行初始化,其次采集目标图像,并读取图像的Y分量同时对图像Y分量进行二值化处理,然后通过二值化图像,得到目标边缘像素点,最后通过目标边缘的像素点,确定目标的空间位置和姿态。
作为优选,所述车载传感器分为内部传感器和外部传感器,所述内部传感器包括里程计和陀螺仪,所述内部传感器主要用于检测机器人内部的参数,所述外部传感器包括视觉传感器、激光传感器、红外传感器和MTI传感器,所述MTI传感器为微型姿态方位传感器。
根据本发明的另一个方面,提供了一种机器人,包括机器人本体,所述机器人本体的顶端固定有若干摄像头,所述机器人本体的底端中部固定有观测台,所述观测台的底端对称固定有舵机,所述舵机的个数为两个,所述舵机与所述机器人本体内部的控制器连接。
有益效果
与现有技术相比,本发明的优点和积极效果在于,
1、本发明整体结构简单,可以获得更加精确的数据,减少测量的误差,从而可以更加方便的掌握机器人在不同时刻的位置和姿态。
2、提高机器人对环境的感知和应变能力,通过机器人的视觉系统,不需要预先对工业机器人的运动轨迹进行示教和编程,从而节省时间,提高生产的效率和加工质量。
3、可以准确的获取工件目标的位置和姿态的信息,降低了人工劳动的强度,更加方便人们的使用。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
    图1为实施例1提供的工业机器人建图定位系统的结构框图;
图2为实施例1提供的控制模块的结构框图;
图3为实施例1提供的图像处理模块的流程图;
图4为实施例1提供的机器人的结构示意图;
以上各图中,1、视觉模块;2、控制模块;3、电源模块;4、图像采集模块;5、图像处理模块;6、通信模块;7、控制端计算机模块;8、车载计算机模块;9、遥控手柄模块;10、无线数据模块;11、车内控制模块;12、车载传感器模块;13、电机驱动模块;14、机器人本体;15、摄像头;16、观测台;17、舵机。
本发明的最佳实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和实施例对本发明做进一步说明。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开说明书的具体实施例的限制。
实施例1,如图1至图3所示,本发明提供了一种工业机器人建图定位系统,包括视觉模块1、控制模块2和电源模块3,所述视觉模块1由图像采集模块4、图像处理模块5和通信模块6组成,所述控制模块2与所述视觉模块1和所述电源模块3连接,所述电源模块3与所述视觉模块1连接,所述图像采集模块4与所述图像处理模块5连接,所述图像处理模块5与所述通信模块6连接,且所述控制模块2由控制端计算机模块7和车载计算机模块8组成;控制端计算机为整个系统的主控制计算机,由操作人员直接控制,主要用来完成环境特征识别、数据坐标变换和环境地图创建等车载计算机为从控制计算机,主要是控制传感器的动作和接收传感器获取的环境信息,对环境信息进行简单的处理后传送给控制端计算机,所述控制端计算机模块7与所述车载计算机模块8连接;通过电源模块3为整个装置进行供电,通过视觉模块1进行图像的拍摄和传输,并通过控制模块2进行控制机器人的运动,首先微处理器向图像传感器发出采集图像的信号,收到信号后,图像传感器将光学图像转换成电子信号,经过信号放大处理将数据结果通过DMA传送到存储单元,然后通过微处理器将图像数据从存储单元中读取出,通过计算机得到目标的空间位置和姿态,最后通过通信接口将得到的数据发送到机器人控制器控制机器人的运动。
进一步的,所述图像采集模块4的内部包括图像传感器、光学摄像头15和辅助光源,所述图像处理器为CMOS传感器;该传感器的处理芯片处理速度较高,且可以输出多种格式。
进一步的,所述图像处理模块5的内部包括微处理器,且所述微处理器与所述图像传感器连接,所述微处理器采用S3C2440处理芯片;由于该处理芯片有一个专用的接口,且该接口支持数字视频接口标准,并且无需接口转换电路,便可以和图像传感器直接连接使用。
进一步的,所述通信模块6的内部包括通信接口,且所述通信接口与所述微处理器和所述控制模块2连接。
进一步的,所述控制端计算机模块7的输出端分别与遥控手柄模块9和无线数据模块10连接,主要完成机器人控制、传感器信息融合、环境地图构建等。
进一步的,所述车载计算机模块8的输出端分别与车内控制模块112和无线数据模块10连接,所述无线数据模块10与车载传感器模块12连接,所述车内控制模块112与电机驱动模块13连接,且车载计算机模块8主要完成传感器、摄像头15等数据的采集和传输。
进一步的,所述图像处理模块5内部的处理流程为首先进行初始化,其次采集目标图像,并读取图像的Y分量同时对图像Y分量进行二值化处理,然后通过二值化图像,得到目标边缘像素点,最后通过目标边缘的像素点,确定目标的空间位置和姿态;由图像处理的原理可知,图像的像素点越多,识别与计算精度越高,所以选择Y分量图像进行二值化处理和计算。
进一步的,所述车载传感器分为内部传感器和外部传感器,所述内部传感器包括里程计和陀螺仪,所述内部传感器主要用于检测机器人内部的参数,所述外部传感器包括视觉传感器、激光传感器、红外传感器和MTI传感器,所述MTI传感器为微型姿态方位传感器;通过外部传感器可以获得外部环境的数据信息通过车载计算机的处理,传输送控制端计算机上,且机器人在运动的过程中,由于外界各种各样的斜坡和障碍使得机器人产生倾斜角度,在倾斜角度较大的时候可能会将不属于平面范围的障碍物扫描进来,导致传感器输出的数据在建图定位过程中会出现较大的数据偏差,通过MTI传感器利用其内部的增强型三轴陀螺仪快速跟踪被测物体的空间姿态,同时测量三个轴向的加速度和地磁场为三个轴转速提供补偿,有利于对机器人的稳定和控制,且MTI体积小、重量轻,可以方便的安装在机器人上,能够准确的获得机器人在越障过程中的姿态。
实施例2,如图4所示,本发明提供了一种工业机器人,包括机器人本体14,所述机器人本体14的顶端固定有若干摄像头15,所述机器人本体14的底端中部固定有观测台16,所述观测台16的底端对称固定有舵机17,所述舵机17的个数为两个,所述舵机17与所述机器人本体14内部的控制器连接;通过观测台16,且观测台16为两个自由度的运动平台,由两个舵机17组成,可以确保机器人在测量时尽可能的保持平稳,从而提高测量的精度。
为了方便理解本发明的上述技术方案,以下就本发明在实际过程中的工作原理或者操作方式进行详细说明。
在实际应用时,首先通过微处理器向图像传感器发出采集图像的信号,收到信号后,图像传感器将光学图像转换成电子信号,经过信号放大处理将数据结果通过DMA传送到存储单元,然后通过微处理器将图像数据从存储单元中读取出,通过计算机得到目标的空间位置和姿态,最后通过通信接口将得到的数据发送到机器人控制器控制机器人的运动。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其它领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (9)

  1. 一种工业机器人建图定位系统,其特征在于,包括视觉模块(1)、控制模块(2)和电源模块(3),所述视觉模块(1)由图像采集模块(4)、图像处理模块(5)和通信模块(6)组成,所述控制模块(2)与所述视觉模块(1)和所述电源模块(3)连接,所述电源模块(3)与所述视觉模块(1)连接,所述图像采集模块(4)与所述图像处理模块(5)连接,所述图像处理模块(5)与所述通信模块(6)连接,且所述控制模块(2)由控制端计算机模块(7)和车载计算机模块(8)组成,所述控制端计算机模块(7)与所述车载计算机模块(8)连接。
  2. 根据权利要求1所述的一种工业机器人建图定位系统,其特征在于,所述图像采集模块(4)的内部包括图像传感器、光学摄像头和辅助光源,所述图像处理器为CMOS传感器。
  3. 根据权利要求2所述的一种工业机器人建图定位系统,其特征在于,所述图像处理模块(5)的内部包括微处理器,且所述微处理器与所述图像传感器连接,所述微处理器采用S3C2440处理芯片。
  4. 根据权利要求3所述的一种工业机器人建图定位系统,其特征在于,所述通信模块(6)的内部包括通信接口,且所述通信接口与所述微处理器和所述控制模块连接。
  5. 根据权利要求1所述的一种工业机器人建图定位系统,其特征在于,所述控制端计算机模块(7)的输出端分别与遥控手柄模块(9)和无线数据模块(10)连接,主要完成机器人控制、传感器信息融合、环境地图构建等。
  6. 根据权利要求5所述的一种工业机器人建图定位系统,其特征在于,所述车载计算机模块(8)的输出端分别与车内控制模块(11)和无线数据模块连接(10),所述无线数据模块(10)与车载传感器模块(12)连接,所述车内控制模块(11)与电机驱动模块(13)连接,且车载计算机模块(8)主要完成传感器、摄像头等数据的采集和传输。
  7. 根据权利要求1所述的一种工业机器人建图定位系统,其特征在于,所述图像处理模块(5)内部的处理流程为首先进行初始化,其次采集目标图像,并读取图像的Y分量同时对图像Y分量进行二值化处理,然后通过二值化图像,得到目标边缘像素点,最后通过目标边缘的像素点,确定目标的空间位置和姿态。
  8. 根据权利要求6所述的一种工业机器人建图定位系统,其特征在于,所述车载传感器分为内部传感器和外部传感器,所述内部传感器包括里程计和陀螺仪,所述内部传感器主要用于检测机器人内部的参数,所述外部传感器包括视觉传感器、激光传感器、红外传感器和MTI传感器,所述MTI传感器为微型姿态方位传感器。
  9. 一种工业机器人,其特征在于,包括机器人本体(14),所述机器人本体(14)的顶端固定有若干摄像头(15),所述机器人本体(14)的底端中部固定有观测台(16),所述观测台(16)的底端对称固定有舵机(17),所述舵机(17)的个数为两个,所述舵机(17)与所述机器人本体(14)内部的控制器连接。
PCT/CN2019/103497 2019-07-28 2019-08-30 一种工业机器人建图定位系统及机器人 WO2021017083A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910685916.8A CN110421563A (zh) 2019-07-28 2019-07-28 一种工业机器人建图定位系统及机器人
CN201910685916.8 2019-07-28

Publications (1)

Publication Number Publication Date
WO2021017083A1 true WO2021017083A1 (zh) 2021-02-04

Family

ID=68411051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/103497 WO2021017083A1 (zh) 2019-07-28 2019-08-30 一种工业机器人建图定位系统及机器人

Country Status (2)

Country Link
CN (1) CN110421563A (zh)
WO (1) WO2021017083A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114161434B (zh) * 2021-11-03 2024-04-12 深圳市芯众云科技有限公司 一种基于视觉和无线技术的仿人机器人控制系统
CN114515923A (zh) * 2022-03-11 2022-05-20 上海隧道工程智造海盐有限公司 一种应用于隧道钢筋焊接的视觉定位系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101920498A (zh) * 2009-06-16 2010-12-22 泰怡凯电器(苏州)有限公司 实现室内服务机器人同时定位和地图创建的装置及机器人
CN201904871U (zh) * 2010-04-23 2011-07-20 北京航空航天大学 新型嵌入式图像采集处理装置
CN103399577A (zh) * 2013-08-02 2013-11-20 哈尔滨工程大学 一种远程操作救援机器人的探测感知系统
CN107169977A (zh) * 2017-04-24 2017-09-15 华南理工大学 基于FPGA和Kirsch的自适应阈值彩色图像边缘检测方法
CN109597406A (zh) * 2018-10-30 2019-04-09 昆山睿力得软件技术有限公司 一种视觉定位引导装置及方法
CN109664292A (zh) * 2017-10-16 2019-04-23 南京敏光视觉智能科技有限公司 一种焊接用机器人视觉定位系统及方法
CN109697720A (zh) * 2017-10-20 2019-04-30 南京敏光视觉智能科技有限公司 一种工业用机器视觉识别分析系统
US20190143525A1 (en) * 2017-11-16 2019-05-16 Kabushiki Kaisha Toshiba Actuation system and computer program product
CN110039536A (zh) * 2019-03-12 2019-07-23 广东工业大学 室内地图构造和定位的自导航机器人系统及图像匹配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN208826630U (zh) * 2018-08-21 2019-05-07 四川文理学院 一种带远程主操作手的关节式机械臂
CN109352647A (zh) * 2018-10-12 2019-02-19 盐城工学院 一种汽车用六轴机器人视觉抓取系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101920498A (zh) * 2009-06-16 2010-12-22 泰怡凯电器(苏州)有限公司 实现室内服务机器人同时定位和地图创建的装置及机器人
CN201904871U (zh) * 2010-04-23 2011-07-20 北京航空航天大学 新型嵌入式图像采集处理装置
CN103399577A (zh) * 2013-08-02 2013-11-20 哈尔滨工程大学 一种远程操作救援机器人的探测感知系统
CN107169977A (zh) * 2017-04-24 2017-09-15 华南理工大学 基于FPGA和Kirsch的自适应阈值彩色图像边缘检测方法
CN109664292A (zh) * 2017-10-16 2019-04-23 南京敏光视觉智能科技有限公司 一种焊接用机器人视觉定位系统及方法
CN109697720A (zh) * 2017-10-20 2019-04-30 南京敏光视觉智能科技有限公司 一种工业用机器视觉识别分析系统
US20190143525A1 (en) * 2017-11-16 2019-05-16 Kabushiki Kaisha Toshiba Actuation system and computer program product
CN109597406A (zh) * 2018-10-30 2019-04-09 昆山睿力得软件技术有限公司 一种视觉定位引导装置及方法
CN110039536A (zh) * 2019-03-12 2019-07-23 广东工业大学 室内地图构造和定位的自导航机器人系统及图像匹配方法

Also Published As

Publication number Publication date
CN110421563A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
CN110119698B (zh) 用于确定对象状态的方法、装置、设备和存储介质
CN106981082B (zh) 车载摄像头标定方法、装置及车载设备
CN112189225B (zh) 车道线信息检测装置、方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质
CN101435704B (zh) 一种星敏感器高动态下的星跟踪方法
JP2020085886A (ja) 乗物、乗物測位システム、及び乗物測位方法
CN106625673A (zh) 狭小空间装配系统及装配方法
JP2019528501A (ja) マルチカメラシステムにおけるカメラ位置合わせ
CN106066179A (zh) 一种基于ros操作系统的机器人位置丢失找回方法和控制系统
WO2014027478A1 (ja) 道路環境認識装置
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN111967360A (zh) 基于车轮的目标车辆姿态检测方法
WO2013145025A1 (ja) ステレオカメラシステム及び移動体
CN105835030A (zh) 基于无线控制和视频传输的危险地域多功能探测车
WO2021017083A1 (zh) 一种工业机器人建图定位系统及机器人
CN113311821B (zh) 一种多悬垂管道探伤移动机器人的建图与定位系统及方法
CN113821040A (zh) 一种深度视觉相机与激光雷达融合导航的机器人
CN113819905A (zh) 一种基于多传感器融合的里程计方法及装置
CN110901638B (zh) 驾驶辅助方法及系统
CN112819711A (zh) 一种基于单目视觉的利用道路车道线的车辆反向定位方法
CN115903857A (zh) 基于rfid的粮面无人巡检装置及定位方法
CN108253929A (zh) 一种四轮定位仪、系统及其实现方法
CN111145262A (zh) 一种基于车载的单目标定方法
CN111145260A (zh) 一种基于车载的双目标定方法
CN103278141B (zh) 婴幼儿睡眠监控系统及方法
CN113701750A (zh) 一种井下多传感器的融合定位系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19939621

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19939621

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19939621

Country of ref document: EP

Kind code of ref document: A1