WO2023137841A1 - 基于机器视觉的机器人关节形变传感器、机械臂及方法 - Google Patents

基于机器视觉的机器人关节形变传感器、机械臂及方法 Download PDF

Info

Publication number
WO2023137841A1
WO2023137841A1 PCT/CN2022/079898 CN2022079898W WO2023137841A1 WO 2023137841 A1 WO2023137841 A1 WO 2023137841A1 CN 2022079898 W CN2022079898 W CN 2022079898W WO 2023137841 A1 WO2023137841 A1 WO 2023137841A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
marker
collision
mechanical arm
robot joint
Prior art date
Application number
PCT/CN2022/079898
Other languages
English (en)
French (fr)
Inventor
于宏宇
王若钦
吴池力
Original Assignee
广州市香港科大霍英东研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 广州市香港科大霍英东研究院 filed Critical 广州市香港科大霍英东研究院
Publication of WO2023137841A1 publication Critical patent/WO2023137841A1/zh

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J17/00Joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J17/00Joints
    • B25J17/02Wrist joints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Definitions

  • the invention belongs to the field of robot sensors, and in particular relates to a machine vision-based robot joint deformation sensor, a mechanical arm and a method.
  • Robots are widely used in industrial production.
  • the movement trajectory deviates and the workpiece shifts, which leads to the collision of the robot during the work process. If the collision is not detected at the first time and the movement of the robot is stopped, it may cause damage to the robot system, valuable tools at the end or valuable workpieces, and even cause more serious safety problems.
  • the reason for the above accidents is that the existing robot has certain deficiencies in the anti-collision system, and no effective active prevention mechanism has been established.
  • the present invention provides a robot joint deformation sensor, a mechanical arm and a method based on machine vision.
  • the present invention adopts following technical scheme:
  • a robot joint deformation sensor based on machine vision, installed in a robot joint the robot joint includes a first installation part and a second installation part disposed opposite to each other and a support part that connects and supports the first installation part and the second installation part, and the robot joint deformation sensor includes one or more camera devices and one or more markers;
  • the imaging device is fixed on the side of the first installation part facing the second installation part; the marker is arranged on the side of the second installation part facing the first installation part, the imaging device is electrically connected to the controller of the robot, and the imaging device takes pictures of the marker to record the position change of the marker.
  • the change in position includes a change in six degrees of freedom.
  • the marker is provided with a marker origin and at least one target point, and the distance between the target point and the marker origin is a known value.
  • a mechanical arm comprising at least two mechanical arm segments and a robot joint connected between the two mechanical arm segments, each of the robot joints is provided with the robot joint deformation sensor based on machine vision as described above.
  • the robot joint further includes a shell disposed around the first mounting part and the second mounting part.
  • the mechanical arm includes three sequentially connected mechanical arm segments, and adjacent mechanical arm segments are connected through the robot joints.
  • the camera captures the marker to obtain a first image
  • the controller obtains the first position data of the marker according to the first image
  • the imaging device captures the marker to obtain a second image, and the controller obtains second position data of the marker according to the second image;
  • the method further includes step S6 of using the post-collision position data as the position data of the end of the robotic arm to reset the robotic arm.
  • an imaging device and a marker are arranged in the robot joint, images of the marker can be taken by the imaging device, and the position changes of the marker before and after the collision are compared, thereby determining the deformation data of the robot joint after the collision, and then determining the position after the collision.
  • the above-mentioned robot joint deformation sensor based on machine vision is used, and the deformation amount of the joint can be determined by relying on the image taken by the camera device, and combined with the length data of the pre-stored mechanical arm segment, the position of the end of the mechanical arm after the collision of the mechanical arm can be determined.
  • Fig. 1 is the schematic diagram that the robot joint deformation sensor of the present invention is installed in the robot joint;
  • Fig. 2 is a schematic diagram before and after the collision between the manipulator and the obstacle;
  • Fig. 3 is a schematic diagram of the first image, the second image taken by the imaging device and the comparison between the two;
  • Fig. 4 is a step diagram of the method of the present invention.
  • a robot joint deformation sensor based on machine vision is installed in a robot joint 1 .
  • the deformation sensor of the robot joint 1 includes one or more camera devices 2 and one or more markers 3 . In one embodiment, there is one camera device 2 and one marker 3 . In another embodiment, there are three camera devices 2 and markers 3 .
  • the robot joint 1 includes a first mounting portion 11 and a second mounting portion 12 oppositely disposed therein, and a support portion 13 connecting and supporting the first mounting portion 11 and the second mounting portion 12 .
  • the first mounting part 11 and the second mounting part 12 are two flanges of the robot joint 1, and the supporting part 13 is a supporting shaft. It can be understood that the robot joint 1 may be a common joint or a flexible joint.
  • the imaging device 2 is fixed on a side of the first installation part 11 facing the second installation part 12 ; the marker 3 is arranged on a side of the second installation part 12 facing the first installation part 11 . That is, both the imaging device 2 and the marker 3 are located inside the joint and oppositely arranged, so that the imaging device 2 can take pictures of the marker 3 .
  • the camera device 2 is electrically connected to the controller of the robot, and the camera device 2 takes pictures of the marker 3 to record the position change of the marker 3 . If a collision occurs, the controller will compare the photos taken before and after the collision, and the position change of the marker 3 after the collision relative to that before the collision can be obtained, and the offset and/or deflection of the marker 3 relative to the camera 2 can be calculated according to the size change of the marker 3, and the final position data (including movement data and rotation data) can be obtained.
  • the position change includes the change of six degrees of freedom. Since the collision occurs in three-dimensional space, various collisions may occur, and the deformation after the collision is also various. It is possible to shift or rotate in a single direction after the collision, or it may be shifted and rotated in multiple directions.
  • the marker 3 is provided with a mark origin 31 (the circle of a in FIG. 3 ) and at least one target point 32 (the triangle of a in FIG. 3 ), and the distance between the target point 32 and the mark origin 31 is a known value.
  • the translation in the plane direction can be determined by the position of the mark origin 31 before and after the collision, the change of the distance from the camera 2 can be determined by the change of the overall size relationship, and the overall rotation can be determined by the angle change of the line between the mark origin 31 and the target point 32.
  • the shapes of the target points 32 may be all the same, or all different, or partly the same.
  • a mechanical arm comprising at least two mechanical arm segments 4 and a robot joint 1 connected between the two mechanical arm segments 4, each of the robot joints 1 is provided with the robot joint 1 deformation sensor based on machine vision as described above.
  • Each joint on the manipulator adopts the above-mentioned robot joint 1 deformation sensor, so that after a collision, the deformation values of multiple robot joint 1 deformation sensors are used for calculation and processing, so as to calculate the offset of the entire manipulator after the collision, so as to determine the position of the manipulator after the collision.
  • the robotic arm has two robotic arm segments 4 with a robot joint 1 in between. In another embodiment, the robotic arm has three robotic arm segments 4 with two robotic joints 1 in total.
  • the robot joint 1 further includes an outer shell 14 arranged around the first mounting part 11 and the second mounting part 12 to protect the internal camera device 2 and marker 3 from being damaged during a collision and causing failure.
  • the shell 14 is cylindrical, and the entire robot joint 1 is cylindrical.
  • the dotted line in FIG. 2 is the mechanical arm before hitting the obstacle 5.
  • the solid line in FIG. 2 is the mechanical arm segment 4 that deforms and stops after the collision.
  • the mechanical arm includes three sequentially connected mechanical arm segments 4. Adjacent mechanical arm segments 4 are connected by the robot joint 1. One end of the mechanical arm is fixed, and the other end is the working end. By comparing the position of each joint before and after the collision, the change and offset of the angle can be calculated, so as to finally determine the position of the end of the mechanical arm.
  • the camera device 2 captures the marker 3 to obtain a first image, and the controller obtains the first position data of the marker 3 according to the first image.
  • the camera 2 can continue to take pictures, and the pictures taken correspond to the time records.
  • the joints of the robot are deformed, and compared with the previous photos, the position data of the markers in the photographed photos has changed. Based on this, it is judged that a collision has occurred, and an alarm is issued.
  • the collision detection sensor pressure or other forms of sensors
  • the robot stops moving after the collision. After a collision, the robot joints are deformed, which is detected by the robot joint deformation sensor based on machine vision, and the controller controls each driver to suspend work to avoid further damage.
  • the imaging device 2 captures the marker 3 to obtain a second image, and the controller obtains second position data of the marker 3 according to the second image.
  • the camera device 2 continues to take photos, and can obtain data at different moments during the entire joint deformation process.
  • the movement process of the marker during deformation can be known, as shown in Figure 3 (b). It can be understood that when the image taken later does not change any more, it means that the mechanical arm has stopped running, and the photo at this time can be used as the second image.
  • each manipulator segment 4 of the robot calculates and obtain the post-collision position data of the end of the robot arm.
  • the length of the mechanical arm segment 4 connected to it will further amplify the deformation. Therefore, it is necessary to combine the length of the mechanical arm segment 4 to determine the overall offset data of the second joint after the deformation of the first joint, and then determine the offset of the third arm segment according to the deformation amount of the second joint, and finally obtain the position data of its end.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于机器视觉的机器人关节形变传感器、机械臂及方法,传感器装设在机器人关节内,机器人关节内包括相对设置的第一安装部和第二安装部以及连接并支撑第一安装部和第二安装部的支撑部,传感器包括摄像装置和标记物;摄像装置固定在第一安装部朝向第二安装部的一面;标记物设置在第二安装部朝向第一安装部的一面,摄像装置与机器人的控制器电连接,摄像装置对标记物拍照以记录标记物的位置变化。本发明的基于机器视觉的机器人关节形变传感器中,在机器人关节内设置摄像装置和标记物,可通过摄像装置拍摄标记物的图像,比较碰撞前后的标记物的位置变化,从而确定碰撞后的机器人关节的形变数据,进而确定碰撞后的位置。

Description

基于机器视觉的机器人关节形变传感器、机械臂及方法 技术领域
本发明属于机器人传感器领域,具体涉及一种基于机器视觉的机器人关节形变传感器、机械臂及方法。
背景技术
机器人在工业生产中有着广泛的应用。在机器人的使用过程中,由于人为失误、零件故障、控制系统失效等意外导致运动轨迹偏离、工件偏移,从而导致机器人在工作过程中产生碰撞的情况时有发生。如果没有第一时间发现碰撞并停止机器人的运动,可能会造成机器人系统、末端贵重工具或者贵重工件的损坏,甚至产生更严重的安全问题。产生以上事故的原因是现有的机器人在防碰撞系统上存在一定的不足,没有建立起有效的主动预防机制。机器人难以第一时间预测或检测到碰撞,并主动采取中断或避让措施,也无法在碰撞解除后及时恢复工作位置,从而继续进行被中断的作业。对此,越来越多的工业机器人企业投入研发碰撞自动检测识别和姿态自恢复系统,试图解决机器人碰撞问题。
现有方案主要集中在对于碰撞本身的预防和防护上,而碰撞解除后机械臂能迅速回归到碰撞发生前的位置,继续被中断的作业同样是非常重要的需求。通过控制系统的运行状态和记录,可以调取到触发碰撞信号时,机械臂理论上的位置。但是机械臂真实的中止位置又受到信号延迟、关节的变形等因素影响,难以被精确定位。
发明内容
为解决现有技术中的机械臂碰撞后难以精确定位的问题,本发明提供了一种基于机器视觉的机器人关节形变传感器、机械臂及方法。
本发明采用了以下技术方案:
一种基于机器视觉的机器人关节形变传感器,装设在机器人关节内,所述机器人关节内包括相对设置的第一安装部和第二安装部以及连接并支撑所述第一安装部和第二安装部的支撑部,所述机器人关节形变传感器包括一个或多个摄像装置和一个或多个标记物;
所述摄像装置固定在所述第一安装部朝向所述第二安装部的一面;所述标记物设置在所述第二安装部朝向所述第一安装部的一面,所述摄像装置与所述机器人的控制器电连接,所述摄像装置对所述标记物拍照以记录所述标记物的位置变化。
在一些实施例中,所述位置变化包括六个自由度的变化。
在一些实施例中,所述标记物上设有标记原点和至少一个目标点,所述目标点与所述标记原点的距离为已知值。
一种机械臂,包括至少两个机械臂段和连接在两所述机械臂段之间的机器人关节,每一所述机器人关节内设有如上所述的基于机器视觉的机器人关节形变传感器。
在一些实施例中,所述机器人关节还包括围绕所述第一安装部和第二安装部设置的外壳。
在一些实施例中,所述机械臂包括三个依次连接的机械臂段,相邻的机械臂段之间通过所述机器人关节连接。
一种碰撞后的机械臂末端位置的确定方法,采用如上所述机械臂,所述方法包括以下步骤:
S1.碰撞前,所述摄像装置对所述标记物拍摄获得第一图像,所述控制器根据所述第一图像获得标记物的第一位置数据;
S2.碰撞后所述机器人暂停运动;
S3.所述摄像装置对所述标记物拍摄获得第二图像,所述控制器根据所述第二图像获得标记物的第二位置数据;
S4.将所述第二位置数据与所述第一位置数据对比,获得碰撞后相对于碰撞前的标记物的位移变化量;
S5.根据预存的机械人的各机械臂段的长度数据,结合与所述机械臂段连接的机器人关节内的标记物的所述位移变化量,计算并获得机器臂末端的碰撞后位置数据。
在一些实施例中,还包括步骤S6.以所述碰撞后位置数据作为所述机器臂末端的位置数据,对所述机械臂进行复位。
与现有技术相比,本发明的有益效果为:
本发明的基于机器视觉的机器人关节形变传感器中,在机器人关节内设置摄像装置和标记物,可通过摄像装置拍摄标记物的图像,比较碰撞前后的标记物的位置变化,从而确定碰撞后的机器人关节的形变数据,进而确定碰撞后的位置。
本发明的机械臂和碰撞后的机械臂末端位置的确定方法中,采用了上述的基于机器视觉的机器人关节形变传感器,依靠该摄像装置拍摄的图像,可确定关节的变形量,再结合预存的机械臂段的长度数据,可以确定机械臂碰撞后的机械臂末端的位置。
附图说明
下面结合附图和具体实施方式对本发明的技术作进一步地详细说明:
图1是本发明的机器人关节形变传感器安装在机器人关节内的示意图;
图2是机械臂与障碍物碰撞前后的示意图;
图3是摄像装置拍摄的第一图像、第二图像以及二者比较的示意图;
图4是本发明方法的步骤图。
附图标记:
1-机器人关节;11-第一安装部;12-第二安装部;13-支撑部;14-外壳;
2-摄像装置;
3-标记物;31-标记原点;32-目标点;
4-机械臂段;
5-障碍物。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。附图中各处使用的相同的附图标记指示相同或相似的部分。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。此外,本发明中所使用的上、下、左、右等描述仅仅是相对于附图中本发明各组成部分的相互位置关系来说的。
参照图1至图3,一种基于机器视觉的机器人关节形变传感器,装设在机器人关节1内。所述机器人关节1形变传感器包括一个或多个摄像装置2和一个或多个标记物3。在一个实施例中,摄像装置2和标记物3都为一个。在另一个实施例中,摄像装置2和标记物3都为三个。
其中,所述机器人关节1内包括相对设置的第一安装部11和第二安装部12以及连接并支撑所述第一安装部11和第二安装部12的支撑部13。在一个实施例中,第一安装部11和第二安装部12为机器人关节1的两个法兰盘,支撑部13为支撑轴。可以理解的,该机器人关节1可以是普通关节,也可以是柔性关节。
所述摄像装置2固定在所述第一安装部11朝向所述第二安装部12的一面;所述标记物3设置在所述第二安装部12朝向所述第一安装部11的一面。即摄像装置2和标记物3均位于关节内部并相对设置,以便于摄像装置2对标记物3进行拍照。
所述摄像装置2与所述机器人的控制器电连接,所述摄像装置2对所述标记物3拍照以记录所述标记物3的位置变化。如果发生碰撞,控制器将碰撞前后拍摄的照片进行对比,可以获得标记物3在碰撞后相对于碰撞前的位置变化,可根据标记物3的尺寸变化计算出标记物3相对于摄像装置2的偏移和/或偏转,获得最后的位置数据(包括移动数据和转动数据)。例如控制器从碰撞前拍摄的照片中获得的数据,标记物3在的位置,碰撞后,拍摄照片,获得标记物3在碰撞后图片中的位置,将两个位置对比获得偏移量,从而确定了变形量的大小,从而为确定机械臂碰撞后的位置提供了计算基础。
其中,所述位置变化包括六个自由度的变化,由于是在三维空间中发生的碰撞,各种碰撞都可能发生,碰撞后的形变也是各式各样,有可能碰撞后因单一方向偏移或旋转,也可能是多方向的偏移和旋转。
所述标记物3上设有标记原点31(图3中a的圆形)和至少一个目标点32(图3中a的三角形),所述目标点32与所述标记原点31的距离为已知值。可以通过碰撞前后标记原点31的位置确定平面方向上的平移,通过整体尺寸关系的变化确定与摄像装置2之间距离的变化,通过标记原点31与目标点32之间连线的角度变化确定整体的旋转。通过设置标记图像,可以进一步方便位置数据变化的计算。其中,当目标点32的数量为多个时,各目标点32的形状可以全部相同,也可以全部不同,也可以部分相同。
一种机械臂,包括至少两个机械臂段4和连接在两所述机械臂段4之间的机器人关节1,每一所述机器人关节1内设有如上所述的基于机器视觉的机器人关节1形变传感器。机械臂上的每一个关节都采用上述的机器人关节1形变传感器,从而才发生碰撞后,通过多个机器人关节1形变传感器活动的形变量进行计算处理,从而计算出整个机械臂在碰撞后的偏移,从而确定机械臂碰撞后的位置。在一个实施例中,机械臂具有两个机械臂段4,二者之间为机器人关节1。在另一个实施例中,机械臂具有三个机械臂段4,共有两个机器人关节1。
在一些实施例中,所述机器人关节1还包括围绕所述第一安装部11和第二安装部12设置的外壳14,以保护内部的摄像装置2和标记物3,避免碰撞过程中将二者损坏,导致失效。其中,该外壳14呈筒状,整个机器人关节1呈圆柱状。
在一个实施例中,如图2所示,图2中虚线部分为碰到障碍物5前的机械臂,图2中实线部分为碰撞后形变并停止的机械臂段4,所述机械臂包括三个依次连接的机械臂段4,相邻的机械臂段4之间通过所述机器人关节1连接,机械臂的一端固定,另一端为工作端,在碰撞后,机械臂末端(即工作端)位置发生变化,相邻机械臂的角度关系也发生变化。通过每一个关节碰撞前后的位置对比,从而可以计算出角度的变化和偏移,从而最终确定机械臂末端的位置。
一种碰撞后的机械臂末端位置的确定方法,采用如上所述机械臂,所述方法包括以下步骤:
S1.碰撞前,所述摄像装置2对所述标记物3拍摄获得第一图像,所述控制器根据所述第一图像获得标记物3的第一位置数据。在实际的使用中,难以预判什么时候才会发生碰撞,因此,可以在机械臂运行时,摄像装置2持续进行拍摄,拍摄出的照片与时间记录对应。当发生碰撞后,机器人关节发生形变,拍摄到的照片与之前的照片相比,标记物的位置数据发生了变化,据此判断发生了碰撞,从而发出警报。当然也可以依靠机械臂自身的碰撞探测传感器(压力或其它形式的传感器)检测碰撞,发出警报,将警报时间前的拍摄的照片作为第一图像,如图3中(a)。
S2.碰撞后所述机器人暂停运动。发生碰撞后,机器人关节发生形变,从而被基于机器视觉的机器人关节形变传感器检测到,控制器控制各个驱动器暂停工作,避免进一步造成损伤。
S3.所述摄像装置2对所述标记物3拍摄获得第二图像,所述控制器根据所述第二图像获得标记物3的第二位置数据。在发生碰撞的过程中以及机械臂暂停运动后,摄像装置2都持续在拍摄照片,可以获得整个关节形变过程中不同时刻的数据,通过在后拍摄的照片与前一张照片的位置数据对比,可以得知标记物在形变时的移动过程,如图3中(b)。可以理解的,当后面拍摄的图像不再发生变化时,说明机械臂已经暂停运行,可将此时的照片作为第二图像。
S4.将所述第二位置数据与所述第一位置数据对比,如图3中(c),获得碰撞后相对于碰撞前的标记物3的位移变化量。对比碰撞前后的位置数据,确定位置变化量。
S5.根据预存的机械人的各机械臂段4的长度数据,结合与所述机械臂段4连接的机器人关节1内的标记物3的所述位移变化量,计算并获得机器臂末端的碰撞后位置数据。当第一个关节发生形变,与其连接的机械臂段4的长度会将该形变进一步放大,因此需要结合机械臂段4的长度来确定第一关节变形后,在后面的第二关节的整体偏移数据,然后再根据第二关节的变形量确定第三臂段的偏移量,最终获得其末端的位置数据。
S6.以所述碰撞后位置数据作为所述机器臂末端的位置数据,对所述机械臂进行复位,以进行后续的工作。
本发明所述的基于机器视觉的机器人关节形变传感器、机械臂及方法的其它内容参见现有技术,在此不再赘述。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,故凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何修改、等同变 化与修饰,均仍属于本发明技术方案的范围内。

Claims (8)

  1. 一种基于机器视觉的机器人关节形变传感器,装设在机器人关节内,所述机器人关节内包括相对设置的第一安装部和第二安装部以及连接并支撑所述第一安装部和第二安装部的支撑部,其特征在于,所述机器人关节形变传感器包括一个或多个摄像装置和一个或多个标记物;
    所述摄像装置固定在所述第一安装部朝向所述第二安装部的一面;所述标记物设置在所述第二安装部朝向所述第一安装部的一面,所述摄像装置与所述机器人的控制器电连接,所述摄像装置对所述标记物拍照以记录所述标记物的位置变化。
  2. 根据权利要求1所述的基于机器视觉的机器人关节形变传感器,其特征在于,所述位置变化包括六个自由度的变化。
  3. 根据权利要求1所述的基于机器视觉的机器人关节形变传感器,其特征在于,所述标记物上设有标记原点和至少一个目标点,所述目标点与所述标记原点的距离为已知值。
  4. 一种机械臂,其特征在于,包括至少两个机械臂段和连接在两所述机械臂段之间的机器人关节,每一所述机器人关节内设有如权利要求1-3中任一项所述的基于机器视觉的机器人关节形变传感器。
  5. 根据权利要求4所述的机械臂,其特征在于:所述机器人关节还包括围绕所述第一安装部和第二安装部设置的外壳。
  6. 根据权利要求4所述的机械臂,其特征在于:所述机械臂包括三个依次连接的机械臂段,相邻的机械臂段之间通过所述机器人关节连接。
  7. 一种碰撞后的机械臂末端位置的确定方法,其特征在于,采用如权利要求4-6中任一项所述机械臂,所述方法包括以下步骤:
    S1.碰撞前,所述摄像装置对所述标记物拍摄获得第一图像,所述控制器根据所述第一图像获得标记物的第一位置数据;
    S2.碰撞后所述机器人暂停运动;
    S3.所述摄像装置对所述标记物拍摄获得第二图像,所述控制器根据所述第二图像获得标记物的第二位置数据;
    S4.将所述第二位置数据与所述第一位置数据对比,获得碰撞后相对于碰撞前的标记物的位移变化量;
    S5.根据预存的机械人的各机械臂段的长度数据,结合与所述机械臂段连接的机器人关节内的标记物的所述位移变化量,计算并获得机器臂末端的碰撞后位置数据。
  8. 根据权利要求7所述的碰撞后的机械臂末端位置的确定方法,其特征在于,还包括步 骤S6.以所述碰撞后位置数据作为所述机器臂末端的位置数据,对所述机械臂进行复位。
PCT/CN2022/079898 2022-01-21 2022-03-09 基于机器视觉的机器人关节形变传感器、机械臂及方法 WO2023137841A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210074095.6 2022-01-21
CN202210074095.6A CN114407084A (zh) 2022-01-21 2022-01-21 基于机器视觉的机器人关节形变传感器、机械臂及方法

Publications (1)

Publication Number Publication Date
WO2023137841A1 true WO2023137841A1 (zh) 2023-07-27

Family

ID=81276040

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/079898 WO2023137841A1 (zh) 2022-01-21 2022-03-09 基于机器视觉的机器人关节形变传感器、机械臂及方法

Country Status (2)

Country Link
CN (1) CN114407084A (zh)
WO (1) WO2023137841A1 (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05302817A (ja) * 1992-02-26 1993-11-16 Kobe Steel Ltd ロボットのたわみ及び歪検出装置
US5383368A (en) * 1992-11-16 1995-01-24 Southwest Research Institute Deflection sensor for robot links
CN103868466A (zh) * 2014-02-08 2014-06-18 合肥工业大学 一种平行双关节坐标测量机转动臂变形综合测量装置
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质
CN210952710U (zh) * 2019-11-28 2020-07-07 西安联创兴科测控科技有限公司 一种带有视频监控功能的位移传感器
CN112536800A (zh) * 2020-12-09 2021-03-23 杭州电子科技大学 具有内置视觉传感器的刚柔耦合机械臂及其变形检测方法
CN113624371A (zh) * 2021-08-06 2021-11-09 中国科学院自动化研究所 基于双目视觉的高分辨率视触觉传感器及点云生成方法
CN216731891U (zh) * 2022-01-21 2022-06-14 广州市香港科大霍英东研究院 基于机器视觉的机器人关节形变传感器和机械臂

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05302817A (ja) * 1992-02-26 1993-11-16 Kobe Steel Ltd ロボットのたわみ及び歪検出装置
US5383368A (en) * 1992-11-16 1995-01-24 Southwest Research Institute Deflection sensor for robot links
CN103868466A (zh) * 2014-02-08 2014-06-18 合肥工业大学 一种平行双关节坐标测量机转动臂变形综合测量装置
CN110162175A (zh) * 2019-05-16 2019-08-23 腾讯科技(深圳)有限公司 基于视觉的触觉测量方法、装置、设备及存储介质
CN210952710U (zh) * 2019-11-28 2020-07-07 西安联创兴科测控科技有限公司 一种带有视频监控功能的位移传感器
CN112536800A (zh) * 2020-12-09 2021-03-23 杭州电子科技大学 具有内置视觉传感器的刚柔耦合机械臂及其变形检测方法
CN113624371A (zh) * 2021-08-06 2021-11-09 中国科学院自动化研究所 基于双目视觉的高分辨率视触觉传感器及点云生成方法
CN216731891U (zh) * 2022-01-21 2022-06-14 广州市香港科大霍英东研究院 基于机器视觉的机器人关节形变传感器和机械臂

Also Published As

Publication number Publication date
CN114407084A (zh) 2022-04-29

Similar Documents

Publication Publication Date Title
KR970007039B1 (ko) 검출 위치 보정 방법
US20210402613A1 (en) Method for the control of a processing machine or of an industrial robot
JP5370128B2 (ja) ロボットの故障検出装置
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
TW201820061A (zh) 防碰撞系統及防碰撞方法
JP2003117861A (ja) ロボットの位置補正システム
CN113560942B (zh) 机床的工件取放控制装置及其控制方法
CN216731891U (zh) 基于机器视觉的机器人关节形变传感器和机械臂
WO2023137841A1 (zh) 基于机器视觉的机器人关节形变传感器、机械臂及方法
JPH0460817A (ja) カメラの位置ずれ検出方法
JP2786874B2 (ja) 可動位置制御装置
JP3754340B2 (ja) 位置検出装置
JPH10240323A (ja) 移動ロボットの異常動作防止方法
JPH106264A (ja) ロボットアームの状態検出方法および検出システム
TWM623185U (zh) 機床的工件取放控制裝置
JPH1011146A (ja) 移動体の停止姿勢補正装置
JPS61226289A (ja) ロボツト・マニピユレ−タの診断装置
JPH06297364A (ja) 位置合せ装置
TWI772129B (zh) 機床的工件取放控制裝置及其控制方法
JP3562096B2 (ja) 位置検出方法
JPH0423015A (ja) 物体の認識制御方法
JP3396072B2 (ja) 三次元位置計測方法及びその装置
RU2795317C1 (ru) Способ управления манипулятором
US20240066713A1 (en) Robot system and robot control method
JPS63288696A (ja) ロボット動作異常監視方式

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22921276

Country of ref document: EP

Kind code of ref document: A1