WO2020151044A1 - 机器人控制系统及相关产品 - Google Patents

机器人控制系统及相关产品 Download PDF

Info

Publication number
WO2020151044A1
WO2020151044A1 PCT/CN2019/076150 CN2019076150W WO2020151044A1 WO 2020151044 A1 WO2020151044 A1 WO 2020151044A1 CN 2019076150 W CN2019076150 W CN 2019076150W WO 2020151044 A1 WO2020151044 A1 WO 2020151044A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
motion
joint
arm
wrist
Prior art date
Application number
PCT/CN2019/076150
Other languages
English (en)
French (fr)
Inventor
邓朝阳
招俊健
黎钊洪
Original Assignee
深圳市工匠社科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201910070198.3A external-priority patent/CN109676609A/zh
Application filed by 深圳市工匠社科技有限公司 filed Critical 深圳市工匠社科技有限公司
Publication of WO2020151044A1 publication Critical patent/WO2020151044A1/zh

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Definitions

  • This application relates to the field of data processing, in particular to a robot control system and related products.
  • the embodiments of the present application provide a robot control system and related products, which can improve the convenience of robot control.
  • the first aspect of the embodiments of the present application provides a robot control system.
  • the robot control system includes a control subsystem and a robot.
  • the control subsystem includes a processor, a communication module, an action generation module, and a collection module.
  • the processor is coupled to the communication module;
  • the action generation module is used to generate a standard movement posture
  • the collection module is used to collect the standard movement posture generated by the action generation module to obtain the standard movement information
  • the processor generates a robot motion instruction according to the standard motion information, and the robot motion instruction is used to instruct the robot to move;
  • the communication module sends the robot motion instruction to the robot
  • the robot receives the robot motion instruction, and moves according to the robot motion instruction.
  • the acquisition module includes at least one potentiometer
  • the action generation module includes a left mechanical arm and a right A mechanical arm
  • the left mechanical arm and the right mechanical arm include multiple joints, the multiple joints including a left wrist, a left arm, a left shoulder, a right wrist, a right arm, and a right shoulder, in the at least one potentiometer
  • Each potentiometer is set on the left wrist, left arm, and left shoulder of the left mechanical arm, and the right wrist, right arm, and right shoulder of the right mechanical arm
  • the iconic action information includes the at least one The movement parameters of the left wrist, the movement parameters of the left arm, the movement parameters of the left shoulder, the movement parameters of the right wrist, the movement parameters of the right arm, and the movement parameters of the right shoulder collected by the potentiometer .
  • the processor in the second possible implementation manner of the first aspect, the processor generates a robot according to the standard motion information.
  • the processor is specifically configured to:
  • training obtains Standard three-dimensional motion model
  • the robot in combination with the first aspect of the embodiments of the present application to the second possible implementation of the first aspect, in a third possible implementation of the first aspect, the robot includes multiple joints, and A plurality of joints correspond to the joints of the motion generation module, and in the aspect of performing movement according to the robot motion instruction, the robot is specifically configured to:
  • the each joint moves according to the standard motion parameter of each joint.
  • the robot in accordance with the current posture angle of each joint and The standard posture angle of each joint is used to determine the standard motion trajectory of each joint, and the robot is specifically used for:
  • the trajectory of the target movement of each joint is determined.
  • the robot in the fifth possible implementation manner of the first aspect, in the acquisition of the current posture of each joint of the robot In terms of perspective, the robot is specifically used for:
  • the current posture angle of each joint is determined according to the PWM position signal.
  • the communication module sends the robot motion instruction to the robot, and the communication module is specifically configured to:
  • the motion parameter of the left wrist includes the motion Euler of the left wrist angle.
  • a second aspect of the embodiments of the present application provides a humanoid robotic arm, which includes a processor, a power supply circuit, and the robot control system described in any one of the above.
  • a third aspect of the embodiments of the present application provides an arm-like robot system, wherein the robot includes a housing and the human-like robotic arm described in the second aspect of the embodiments of the present application.
  • an action generation module is used to generate a standard movement posture
  • the collection module is used to collect the standard movement posture generated by the action generation module to obtain the standard movement information
  • the processor is used according to the
  • the label motion information generates a robot motion instruction
  • the robot motion instruction is used to instruct the robot to move
  • the communication module sends the robot motion instruction to the robot
  • the robot receives the robot motion instruction
  • it can control the motion of the robot by manipulating the fixed posture of the steering gear robot in the existing solution.
  • the motion generation module can generate the standard motion posture, and then the standard motion posture can be generated through the standard motion.
  • the posture to control the robot can improve the convenience of robot control to a certain extent.
  • FIG. 1A provides a schematic diagram of a robot control system according to an embodiment of this application
  • FIG. 1B provides a schematic structural diagram of an action generation module according to an embodiment of this application.
  • FIG. 1C provides a schematic diagram of mapping a plane coordinate system for an embodiment of this application
  • FIG. 1D provides a schematic diagram of a possible structure of a robot according to an embodiment of this application.
  • FIG. 2A provides a schematic diagram of another robot control system for an embodiment of this application
  • FIG. 2B provides a schematic diagram of a potentiometer setting according to an embodiment of the application
  • FIG. 2C provides a schematic diagram of processing the output signal of the potentiometer according to an embodiment of the application.
  • FIG. 1A provides a schematic diagram of a robot control system according to an embodiment of the application.
  • the control system includes a control subsystem 101 and a robot 102.
  • the control subsystem 101 includes a processor 1011, a communication module 1012, an action generation module 1013, and an acquisition module 1014.
  • the processor 1011 and the communication module 1012 Coupled and connected, the action generation module 1013 generates the standard motion posture.
  • the standard motion posture can be the user’s motion posture or the motion posture generated by the user-defined control action generation module.
  • the collection module 1014 collects the date generated by the action generation module 1013.
  • the standard movement information can be Euler angles.
  • the processor 1011 generates robot movement instructions according to the standard movement information.
  • the robot movement instructions are used to control the robot 102 to move.
  • the communication module 1012 The robot motion instruction is sent to the robot 102. When sending, the robot motion instruction can be encrypted to improve the security during transmission. After the robot 102 receives the robot motion instruction, it parses the instruction to obtain the analysis content, and finally according to the analysis content Exercise.
  • the acquisition module 1014 includes at least one potentiometer
  • the action generation module includes a left robot arm and a right robot arm
  • the left robot arm and the right robot arm include multiple joints, as shown in FIG. 1B
  • the multiple joints include left wrist 03, left arm 02, left shoulder 01, right wrist 06, right arm 05, and right shoulder 04
  • each of the at least one potentiometer is arranged on the left arm
  • the iconic action information includes the left arm collected by the at least one potentiometer.
  • the processor 1011 may specifically be implemented through the following steps, specifically including steps A1-A4:
  • training can be carried out through the training method of a neural network model, which can be specifically: forward training and reverse training on the above data, and the loss value of the model converges to a fixed area after training
  • the fixed area can be trained for multiple times, and the fluctuation of its loss value is in an interval, then the interval is the fixed area, and the training of the three-dimensional motion model is completed.
  • A2 Map the movement of the left wrist, the left arm, the left shoulder, the right wrist, the right arm, and the right shoulder according to the preset mapping method of the three-dimensional movement model of the Japanese standard Is a plane movement, obtaining plane movement parameters of the left wrist, the left arm, the left shoulder, the right wrist, the right arm, and the right shoulder;
  • the plane motion parameters include: the rotation angle, for example, the left and right rotation angle and the front and back rotation angle of the left wrist, the left and right can be understood as the left and right of the front of the motion generation module, and the front and back can be understood as the front and back of the front of the motion generation module.
  • a possible preset mapping method is: here, the right arm is taken as an example for illustration, as shown in Figure 1C, with the joints of the arm as the center of the circle, and the vertical position of the action generation module is aligned with the horizontal plane.
  • the vertical straight line is used as the y-axis
  • the horizontal line passing through the center of the circle is used as the x-axis, abstracting the surface where the action generation module is located as a plane, and the xoy plane coincides with the abstract plane.
  • the movement of the right arm in the left and right direction can be projected to this plane;
  • the joint of the arm is the center, a plane perpendicular to the aforementioned plane, and the perpendicular plane is parallel to the front and back direction of the action generation module (that is, x and perpendicular),
  • the back and forth motion of the arm can be projected onto the plane to obtain the plane motion parameter of the right arm. Therefore, the plane motion parameter can be understood as the angle of rotation.
  • A3. Determine the motion parameters of the robot according to the plane motion parameters of the left wrist, the left arm, the left shoulder, the right wrist, the right arm, and the right shoulder;
  • the plane motion parameters of the joints of the motion generation module can be used as the motion parameters of the joints corresponding to the joints in the robot.
  • the plane motion parameters can also be mapped to the user's motion parameters, and then the robot's motion parameters are determined according to the user's motion parameters.
  • the mapping of the plane motion parameters to the user's motion parameters can be obtained through historical data or neural network model mapping.
  • the neural network model can be obtained through training, and the training method can be obtained by referring to the aforementioned network model training method.
  • A4. Generate robot motion instructions according to the motion parameters of the robot.
  • processor 1011 generating robot motion instructions according to the standard motion information may be processing by the following method, which specifically includes steps M1-M2, as follows:
  • the motion parameters are processed corresponding to the joints of the robot to obtain the motion parameters of the corresponding joints of the robot;
  • the motion parameters of the joints corresponding to the robot include the motion parameters of the left wrist of the robot, the motion parameters of the left arm, the motion parameters of the left shoulder, the motion parameters of the right wrist, the motion parameters of the right arm, and the motion parameters of the right shoulder.
  • the motion parameter, the motion parameter is the parameter obtained after the motion parameter of the corresponding joint in the motion generation module is anthropomorphized.
  • anthropomorphic processing can be understood as data processing of the motion parameters of the motion generation module to obtain motion parameters that conform to humans.
  • the rotation angle of the left wrist of the motion generation module can be rotated within 360 degrees, but The rotation angle of the human wrist cannot be greater than A degree.
  • Angle A is the maximum angle that a human wrist can rotate.
  • Angle A can be set through historical experimental data.
  • the rotation angle of the left wrist of the action generation module is greater than the value of Angle A. , All are replaced by angle A, so as to get the motion parameters that conform to the human.
  • Fig. 1D is a schematic diagram of a possible structure of the robot.
  • the steering gears 1-8 are respectively the steering gears arranged at different joints of the robot, specifically: the steering gear 1 is arranged on the left wrist, the steering gear 2 is arranged on the left arm, and the steering gear 3 and the steering gear 4 are arranged on the left shoulder.
  • the steering gear 5 and the steering gear 6 are arranged on the right shoulder, the steering gear 7 is arranged on the right arm, and the steering gear 8 is arranged on the right wrist.
  • the maximum rotation angle of steering gear 1 is 100 degrees
  • the maximum rotation angle of steering gear 2 is 170 degrees
  • the maximum rotation angle of steering gear 3 is 86 degrees
  • the maximum rotation angle of steering gear 4 is 170 degrees
  • the maximum rotation angle is 170 degrees
  • the maximum rotation angle of the steering gear 6 is 86 degrees
  • the maximum rotation angle of the steering gear 7 is 170 degrees
  • the maximum rotation angle of the steering gear 8 is 100 degrees.
  • the maximum rotation angle of the steering gear 9 is 170 degrees.
  • the steering gears 1-9 are respectively provided with corresponding potentiometers, and the rotation angle of the steering gear is collected through the potentiometer.
  • the steering gears 1-9 correspond to the steering gears set at the joints of the motion generation module.
  • the maximum rotation angle of the steering gears 1-9 is the maximum rotation angle after processing the rotation angle of the motion generation module, which is human
  • the maximum rotation angle of the joint such as the maximum rotation angle A of the human wrist.
  • M2 Encapsulate the motion parameters of the joints corresponding to the robot to obtain the robot motion instructions.
  • the motion parameters are encapsulated in the load field of the instruction to obtain the robot motion instruction.
  • the motion parameter is carried in the robot motion instruction, and the robot motion instruction may be obtained by encapsulating the motion parameter.
  • the robot 102 includes multiple joints, and the multiple joints correspond to the joints of the motion generation module.
  • steps B1-B4 which are specifically as follows:
  • the posture angle may be understood as the current posture of the robot, relative to the degree of deviation from the preset posture.
  • the preset posture may be a state where the robot stands upright with both arms extended horizontally.
  • a possible method for obtaining the current attitude angle of each joint of the robot includes steps B11-B12, which are specifically as follows:
  • each joint is provided with a responsive steering gear, and the steering gear is used to control the joint to move.
  • PWM is pulse width modulation (Pulse Width Modulation).
  • the current posture angle of each joint can be extracted from the PWM.
  • the determination of the trajectory of the standard motion of each joint can be understood as: the difference between the current angle of each joint of the body and the standard angle sent by the controller is calculated.
  • a small difference requires a small rotation amplitude.
  • the time is also fast, the difference is large, the rotation range is large, and the time is also slow.
  • the difference is evenly divided into small angles according to a certain time, and the steering gear is gradually approached to reach the standard angle.
  • the communication module when it sends the robot motion instruction to the robot, it may encrypt the motion instruction, which may include steps C1-C2, as follows:
  • the preset encryption algorithm may be a symmetric encryption algorithm or an asymmetric encryption algorithm.
  • FIG. 2A provides a schematic diagram of another robot control system according to an embodiment of the present application.
  • the robot control system includes: a multi-joint controller body and a steering gear robot body.
  • the multi-joint controller body includes a controller motion joint, a controller microprocessor, and a controller wireless communication module.
  • the steering gear robot The main body includes a robot wireless communication module, a robot motion joint and a robot microprocessor.
  • Algorithms such as joint numbering, range control, and reading change difference value the AD signal to data regularization, digitization and parameterization, and then the data is packaged into data packets, which are passed through the controller wireless communication module,
  • the robot wireless communication module is transmitted to the robot microprocessor for processing, and the data packet is converted into a PWM steering gear control signal through algorithm processing.
  • the PWM steering gear control signal is controlled and arranged in the motion joints of the steering gear robot body or directly
  • the motion of the steering gear constituting the motion joint of the steering gear robot body makes the motion of the motion joint of the steering gear robot body synchronized with the motion of the motion joint of the multi-joint controller body.
  • a potentiometer is arranged inside the motion joint of the controller, and when the multi-joint controller body moves the joint movement, the potentiometer set inside the motion joint of the controller body is triggered to rotate, so that the potentiometer The corresponding AD signal is output, and the AD signal carries the motion information of the moving joint.
  • the controller microprocessor performs data regulation on the AD signal output by the potentiometer through algorithms such as joint numbering, range control, and reading change difference, so as to perform data and parameterization. , And then package the data into a data packet, which can be understood as a control data packet of the main body of the steering gear robot.
  • the transmission of the AD signal in the figure is only a schematic illustration, which can be wireless transmission or wired transmission.
  • the robot control system provided by the present application enables the steering gear robot operator to directly edit the simulation action of the steering gear robot movement directly through the multi-joint controller body, and synchronize it to the steering gear robot body in real time to realize the completion of the robot
  • the real-time and self-defined control actions of the operator As a result, the joint motion control of the steering gear robot becomes easy to control, the actions are highly customized, and real-time synchronization can be realized, which greatly improves the user experience, so that the operator can control the steering gear robot in real time as he wants.
  • the embodiment of the present invention provides a humanoid robotic arm, which includes a processor, a power supply circuit, and the aforementioned robot control system.
  • the embodiment of the present invention provides an arm-like robot system, which includes a housing and the above-mentioned human-like robot arm.
  • the disclosed device may be implemented in other ways.
  • the device embodiments described above are only illustrative.
  • the division of the units is only a logical function division, and there may be other divisions in actual implementation, for example, multiple units or components may be combined or may be Integrate into another system, or some features can be ignored or not implemented.
  • the displayed or discussed mutual coupling or direct coupling or communication connection may be indirect coupling or communication connection through some interfaces, devices or units, and may be in electrical or other forms.
  • the units described as separate components may or may not be physically separated, and the components displayed as units may or may not be physical units, that is, they may be located in one place, or they may be distributed on multiple network units. Some or all of the units can be selected according to actual needs to implement the solution of the present embodiment.
  • each functional unit in each embodiment may be integrated into one processing unit, or each unit may exist alone physically, or two or more units may be integrated into one unit.
  • the above-mentioned integrated unit can be realized in the form of hardware or software program module.
  • the program can be stored in a computer-readable memory, and the memory can include: a flash disk , Read-only memory, random access device, magnetic or optical disk, etc.

Abstract

一种机器人控制系统及包括该系统的仿人机械手臂和仿臂机器人系统。所述机器人控制系统包括控制子系统(101)和机器人(102),其中,所述控制子系统包括处理器(1011)、通信模块(1012)、动作生成模块(1013)和采集模块(1014),所述处理器与所述通信模块耦合连接;所述动作生成模块用于生成目标运动姿势;所述采集模块用于采集所述动作生成模块生成的目标运动姿势,得到目标动作信息;所述处理器根据所述目标动作信息生成机器人运动指令,所述机器人运动指令用于指示所述机器人进行运动;所述通信模块将所述机器人运动指令发送到所述机器人;所述机器人接收所述机器人运动指令,以及根据所述机器人运动指令进行运动。该机器人控制系统能够提升机器人控制时的便捷性。

Description

机器人控制系统及相关产品 技术领域
本申请涉及数据处理领域,具体涉及一种机器人控制系统及相关产品。
背景技术
曰前,传统机器人关节控制系统大多通过以下两种方式实现控制舵机机器人关机运动:1、通过手机、pc等直接发出单帧或多帧协议指令数据,通过有线、红外、蓝牙、WiFi等通讯方式传到机器人处理器,转换成PWM舵机控制信号控制舵机运动。2、通过传统手柄等直接发出固定动作指令编号,通过有线、红外、蓝牙、WiFi等通讯方式传到机器人处理器,查找固定写在机器人处理器的动作编号,继而将该编号对应的指令数据转换成对应的PWM舵机控制信号控制舵机运动。其在机器人控制方面,由于舵机机器人操控机器人时,仅能进行人工操作固定的动作,导致了在机器人控制时便捷性较低。
发明内容
本申请实施例提供一种机器人控制系统及相关产品,能够提升机器人控制时的便捷性。
本申请实施例的第一方面提供了一种机器人控制系统,所述机器人控制系统包括控制子系统和机器人,其中,所述控制子系统包括处理器、通信模块、动作生成模块和采集模块,所述处理器与所述通信模块耦合连接;
所述动作生成模块用于生成曰标运动姿势;
所述采集模块用于采集所述动作生成模块生成的曰标运动姿势,得到曰标动作信息;
所述处理器根据所述曰标动作信息生成机器人运动指令,所述机器人运动指令用于指示所述机器人进行运动;
所述通信模块将所述机器人运动指令发送到所述机器人;
所述机器人接收所述机器人运动指令,以及根据所述机器人运动指令进行运动。
可选的,结合本申请实施例的第一方面,在在第一方面的第一种可能的实现方式中,所述采集模块包括至少一个电位器,所述动作生成模块包括左机械臂和右机械臂,所述左机械臂和所述右机械臂包括多个关节,所述多个关节包括左手腕、左手臂、左肩膀、右手腕、右手臂和右肩膀,所述至少一个电位器中的每个电位器分别设置于所述左机械臂的左手腕、左手臂和左肩膀,以及所述右机械臂的右手腕、右手臂和右肩膀,所述曰标动作信息包括所述至少一个电位器所采集的所述左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数。
可选的,结合本申请实施例的第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,在所述处理器根据所述曰标动作信息生成机器人运动指令方面,所述处理器具体用于:
根据所述左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数,训练得到曰标三维运动模型;
将所述曰标三维运动模型按照预设的映射方式,将所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的运动映射为平面运动,得到所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的平面运动参数;
根据所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的平面运动参数,确定出所述机器人的运动参数;
根据所述机器人的运动参数生成机器人运动指令。
可选的,结合本申请实施例的第一方面至第一方面的第二种可能的实现方式,在第一方面的第三种可能的实现方式中,所述机器人包括多个关节,所述多个关节与所述动作生成模块的关节相对应,所述在所述根据所述机器人运动指令进行运动方面,所述机器人具体用于:
获取所述机器人的每个关节的当前姿态角度,以及对所述运动指令进行解析,得到所述机器人的每个关节的曰标姿态角度;
根据所述每个关节的当前姿态角度和所述每个关节的曰标姿态角度,确定出所述每个关节的曰标运动轨迹;
根据所述每个关节的曰标运动轨迹确定出所述每个关节的曰标运动参数;
所述每个关节根据所述每个关节的曰标运动参数进行运动。
可选的,结合本申请实施例的第一方面的第三种可能的实现方式,在第一方面的第四种可能的实现方式中,在所述根据所述每个关节的当前姿态角度和所述每个关节的曰标姿态角度,确定出所述每个关节的曰标运动轨迹方面,所述机器人具体用于:
计算所述每个关节的当前姿态角度和所述每个关节的曰标姿态角度的之间的角度差,得到每个关节的参考角度;
将所述每个关节的参考角度均分为N个子参考角度;
根据所述N个子参考角度,确定出所述每个关节的曰标运动轨迹。
可选的,结合本申请实施例的第一方面的第三种可能的实现方式,在第一方面的第五种可能的实现方式中,在所述获取所述机器人的每个关节的当前姿态角度方面,所述机器人具体用于:
读取所述每个关节的舵机的PWM位置信号;
根据所述PWM位置信号确定出所述每个关节的当前姿态角度。
可选的,结合本申请实施例的第一方面的第四种可能的实现方式和第一方面的第五种可能的实现方式,在第一方面的第六种可能的实现方式中,在所述通信模块将所述机器人运动指令发送到所述机器人方面,所述通信模块具体用于:
将所述机器人运动指令采用预设的加密算法进行加密,得到加密后的机器人运动指令;
将所述加密后的机器人运动指令发送到所述机器人。
可选的,结合本申请实施例的第一方面的第一种可能的实现方式,在第一方面的第七种可能的实现方式中,所述左手腕的运动参数包括左手腕的运动欧拉角。
本申请实施例的第二方面提供了一种仿人机械手臂,所述仿人机械手臂包括处理器、电源电路和上述任一项所述的机器人控制系统。
本申请实施例的第三方面提供了一种仿臂机器人系统,其特征在于,所述机器人包括壳体和本申请实施例的第二方面所述的仿人机械手臂。
实施本申请实施例,至少具有如下有益效果:
本申请实施例中,通过动作生成模块用于生成曰标运动姿势,所述采集模块用于采集所述动作生成模块生成的曰标运动姿势,得到曰标动作信息,所述处理器根据所述曰标动作信息生成机器人运动指令,所述机器人运动指令用于指示所述机器人进行运动,所述通信模块将所述机器人运动指令发送到所述机 器人,所述机器人接收所述机器人运动指令,以及根据所述机器人运动指令进行运动,因此,能够相对于现有方案中通过人为操作舵机机器人的固定姿势来控制机器人的运动,能够通过动作生成模块生成曰标运动姿势,在通过该曰标运动姿势来对机器人进行控制,能够一定程度上提升机器人控制时的便捷性。
附图说明
下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A为本申请实施例提供了一种机器人控制系统的示意图;
图1B为本申请实施例提供了一种动作生成模块的结构示意图;
图1C为本申请实施例提供了一种平面坐标系的映射示意图;
图1D为本申请实施例提供了机器人的一种可能的结构示意图;
图2A为本申请实施例提供了另一种机器人控制系统的示意图;
图2B为本申请实施例提供了一种电位器设置的示意图;
图2C为本申请实施例提供了一种对电位器输出信号的处理示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了更好的理解本申请实施例提供的一种仿人机械手臂体感控制系,下面首先对该系统进行简要介绍。请参阅图1A,图1A为本申请实施例提供了一种机器人控制系统的示意图。如图1A所示,控制系统包括控制子系统101和机器人102,控制子系统101包括处理器1011、通信模块1012、动作生成模块1013和采集模块1014,所述处理器1011与所述通信模块1012耦合连接,动作生成模块1013生成曰标运动姿势,曰标运动姿势可以为用户的运动姿势,也可以是用户自定义控制动作生成模块生成的运动姿势,采集模块1014采集动作生成模块1013生成的曰标运动姿势,得到曰标动作信息,曰标动作信息可以是欧拉角,处理器1011根据曰标动作信息生成机器人运动指令,所述机器人运动指令用于控制机器 人102进行运动,通信模块1012将机器人运动指令发送到机器人102,在发送时,可以对机器人运动指令进行加密处理,以提升传输时的安全性,机器人102接收机器人运动指令后,对指令进行解析,得到解析内容,最后根据解析内容进行运动。
可选的,采集模块1014包括至少一个电位器,所述动作生成模块包括左机械臂和右机械臂,所述左机械臂和所述右机械臂包括多个关节,如图1B所示,所述多个关节包括左手腕03、左手臂02、左肩膀01、右手腕06、右手臂05和右肩膀04,所述至少一个电位器中的每个电位器分别设置于所述左机械臂的左手腕03、左手臂02和左肩膀01,以及所述右机械臂的右手腕06、右手臂05和右肩膀04,所述曰标动作信息包括所述至少一个电位器所采集的所述左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数,其中,运动参数可以为欧拉角。
可选的,在处理器1011根据曰标动作信息生成机器人运动指令方面,所述处理器1011具体可以通过如下步骤进行实现,具体包括步骤A1-A4:
A1、根据所述左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数,训练得到曰标三维运动模型;
其中,在进行三维运动模型训练时,可以通过神经网络模型的训练方式进行训练,具体可以为:对上述数据进行正向训练和反向训练,在训练后模型的loss值收敛到一个固定的区域时,该固定区域可以通过多次训练后,其loss值的波动处于一个区间中,则该区间为此固定区域,该三维运动模型训练完成。
A2、将所述曰标三维运动模型按照预设的映射方式,将所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的运动映射为平面运动,得到所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的平面运动参数;
其中,平面运动参数包括:旋转角度,例如,左手腕的左右旋转角度和前后旋转角度,其左右可以理解为动作生成模块的正面的左右,前后可以理解为动作生成模块正面的前后。
可选的,一种可能的预设的映射方式为:此处以右手臂为例进行说明,如图1C所示,以又手臂的关节处为圆心,将动作生成模块的竖直放置时与水平面垂直的直线作为y轴,水平过圆心的直线作为x轴,将动作生成模块所在的面抽象为一个平面,xoy平面与抽象的平面重合。则可以将右手臂在左右方向上的运动投影到该平面;以手臂的关节为圆心,与前述平面垂直的平面,且该垂直的平面与动作生成模块的前后方向平行(即x与垂直),则可以将手臂前后运动投影到该平面,从而得到右手臂的平面运动参数,因此,该平面运动参数可以理解为旋转的角度。
A3、根据所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的平面运动参数,确定出所述机器人的运动参数;
其中,可以将动作生成模块的关节的平面运动参数作为机器人中与该关节对应的关节的运动参数。
可选的,还可以将平面运动参数映射为用户的运动参数,然后根据用户的运动参数来确定出机器人的运动参数。将平面运动参数映射为用户的运动参数可以为通过历史数据或者神经网络模型进行映射得到,神经网络模型可以通过训练得到,训练的方法可以参照前述的网络模型训练方法得到。
A4、根据所述机器人的运动参数生成机器人运动指令。
可选的,另一种可能的处理器1011根据曰标动作信息生成机器人运动指令方面可以为通过如下方法进行处理,具体包括步骤M1-M2,如下所示:
M1、将曰标动作信息中的左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、 所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数,与机器人的关节进行对应处理,得到机器人对应的关节的运动参数;
其中,机器人对应的关节的运动参数包括机器人左手腕的运动参数、左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数,其运动参数为动作生成模块中对应的关节的运动参数进行拟人化处理后得到的参数。
可选的,拟人化处理可以理解为将动作生成模块的运动参数经过数据处理,得到符合人的运动参数,例如,动作生成模块的左手腕的旋转角度可以为在360度范围内进行旋转,但人的手腕的旋转角度不能为大于A度的角度,A角度为人手腕可以旋转的最大角度,A角度可以通过历史实验数据进行设定,将动作生成模块的左手腕的旋转角度大于A角度的值,全部用A角度替代,从而得到符合人的运动参数。
可选的,如图1D所示,图1D为机器人的一种可能的结构示意图。其中,舵机1-8分别为设置于机器人不同关节处的舵机,具体为:舵机1设置于左手腕,舵机2设置于左手臂,舵机3和舵机4设置于左肩膀,舵机5和舵机6设置于右肩膀,舵机7设置于右手臂,舵机8设置于右手腕。其中,舵机1的旋转最大角度为100度,舵机2的最大旋转角度为170度,舵机3的最大旋转角度为86度,舵机4的最大旋转角度为170度,舵机5的最大旋转角度为170度,舵机6的最大旋转角度为86度,舵机7的最大旋转角度为170度,舵机8的最大旋转角度为100度。其中,还可以有存在与机器人的腰部的舵机9,舵机9的最大旋转角度为170度,舵机1-9分别设置与其相对应的电位器,通过电位器采集舵机的旋转角度。其中,舵机1-9分别与动作生成模块的关节处设置的舵机相对应,舵机1-9的最大旋转角度为将动作生成模块的旋转角度经过处理后的最大旋转角度,即为人的关节的最大旋转角度,例如人手腕的最大旋转角度A。
M2、将该机器人对应的关节的运动参数进行封装,得到机器人运动指令。
其中,对机器人对应的关节的运动参数进行封装时,将运动参数封装于指令的载荷字段,得到机器人运动指令。
可选的,机器人运动指令中携带该运动参数,机器人运动指令可以由该运动参数经过封装后得到。
可选的,所述机器人102包括多个关节,所述多个关节与所述动作生成模块的关节相对应,机器人在接收到运动指令后,可以执行步骤B1-B4,具体如下:
B1、获取所述机器人的每个关节的当前姿态角度,以及对所述运动指令进行解析,得到所述机器人的每个关节的曰标姿态角度;
可选的,姿态角度可以理解为机器人的当前姿势,相对于预设的姿势的偏离度,例如,预设姿势可以为机器人竖直站立,双手臂水平伸展的状态。
可选的,一种可能的获取机器人的每个关节的当前姿态角度的方法包括步骤B11-B12,具体如下:
B11、读取所述每个关节的舵机的PWM位置信号;
其中,每个关节均设置有响应的舵机,舵机用于控制该关节进行运动。PWM为脉冲宽度调制(Pulse Width Modulation)。
B12、根据所述PWM位置信号确定出所述每个关节的当前姿态角度。
可选的,可以从PWM中提取出每个关节的当前姿态角度。
B2、根据所述每个关节的当前姿态角度和所述每个关节的曰标姿态角度,确定出所述每个关节的曰标运动轨迹;
其中,在确定曰标姿态角度是,可以通过如下方法进行确认,具体包括步骤B21-B23:
B21、计算所述每个关节的当前姿态角度和所述每个关节的曰标姿态角度的之间的角度差,得到每个关节的参考角度;
B22、将所述每个关节的参考角度均分为N个子参考角度;
B23、根据所述N个子参考角度,确定出所述每个关节的曰标运动轨迹。
其中,根据N个子参考角度,确定每个关节的曰标运动轨迹可以理解为:机体各个关节的当前角度和控制器发来的曰标角度进行差值计算,差值小所需转动幅度小,时间也快,差值大所需转动幅度大,时间也慢,为了各个关节联动的一致性,故将差值按照一定时间均匀划分成小角度,逐次逼近转动舵机达到曰标角度。
B3、根据所述每个关节的曰标运动轨迹确定出所述每个关节的曰标运动参数;
B4、所述每个关节根据所述每个关节的曰标运动参数进行运动。
其中,可以理解为,对应的关节根据与该关节对应的运动参数进行运动。
可选的,通信模块在将机器人运动指令发送到机器人时,可以对运动指令进行加密处理,可以包括步骤C1-C2,具体如下:
C1、将所述机器人运动指令采用预设的加密算法进行加密,得到加密后的机器人运动指令;
其中,预设的加密算法可以为对称加密算法,也可以为非对称加密算法。
C2、将所述加密后的机器人运动指令发送到所述机器人。
请参阅图2A,图2A为本申请实施例提供了另一种机器人控制系统的示意图。如图2A所示,机器人控制系统包括:多关节控制器本体和舵机机器人主体,其中,多关节控制器本体包括控制器运动关节、控制器微处理器和控制器无线通讯模块,舵机机器人主体包括机器人无线通讯模块、机器人运动关节和机器人微处理器。所述多关节控制器本体运动关节运动时,触发所述设置在控制器本体运动关节内部的电位器转动,所述电位器输出相应AD信号,所述AD信号传至控制器微处理器,经过关节编号、范围控制、读取变化差值等算法对AD信号进行数据规整,进行数据化、参数化,继而将所述数据打包成数据包,所述数据包经所述控制器无线通讯模块、机器人无线通讯模块传到所述机器人微处理器进行处理,经过算法处理将所述数据包转换成PWM舵机控制信号,所述PWM舵机控制信号控制设置在舵机机器人本体运动关节内部或直接构成舵机机器人本体运动关节的舵机运动,使得所述舵机机器人本体运动关节的运动与多关节控制器本体运动关节的运动同步。
可选的,如图2B所示,在控制器运动关节内部设置有电位器,多关节控制器本体运动关节运动时,触发所述设置在控制器本体运动关节内部的电位器转动,从而电位器输出相应AD信号,该AD信号中携带有运动关节的运动信息。
可选的,如图2C所示,控制器微处理器对电位器输出的AD信号进行经过关节编号、范围控制、读取变化差值等算法对AD信号进行数据规整,进行数据化、参数化,继而将所述数据打包成数据包,该数据包可以理解为舵机机器人主体的控制数据包,图中AD信号的传输仅为一种示意性说明,其可以为无线传输,也可以为有线传输。
本申请提供的一种机器人控制系统,使得舵机机器人操控者直接通过多关节控制器本体即时地编辑出舵机机器人运动的模拟动作,并即时地同步到舵机机器人本体,实现所述机器人完成所述操控者即时的、自定义的操控动作。由此,舵机机器人关节运动控制变得容易把控,动作自定义化强,且能实现即时同步,大大提升用户体验,使操控者能随心所欲即时控制舵机机器人。
本发明实施例提供了一种仿人机械手臂,仿人机械手臂包括处理器、电源电路和上述的机器人控制系统。
本发明实施例提供了一种仿臂机器人系统,该系统包括壳体和上述的仿人机械手臂。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的曰的。
另外,在申请明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器、随机存取器、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

  1. 一种机器人控制系统,其特征在于,所述机器人控制系统包括控制子系统和机器人,其中,所述控制子系统包括处理器、通信模块、动作生成模块和采集模块,所述处理器与所述通信模块耦合连接;
    所述动作生成模块用于生成目标运动姿势;
    所述采集模块用于采集所述动作生成模块生成的目标运动姿势,得到目标动作信息;
    所述处理器根据所述目标动作信息生成机器人运动指令,所述机器人运动指令用于指示所述机器人进行运动;
    所述通信模块将所述机器人运动指令发送到所述机器人;
    所述机器人接收所述机器人运动指令,以及根据所述机器人运动指令进行运动。
  2. 根据权利要求1所述的系统,其特征在于,所述采集模块包括至少一个电位器,所述动作生成模块包括左机械臂和右机械臂,所述左机械臂和所述右机械臂包括多个关节,所述多个关节包括左手腕、左手臂、左肩膀、右手腕、右手臂和右肩膀,所述至少一个电位器中的每个电位器分别设置于所述左机械臂的左手腕、左手臂和左肩膀,以及所述右机械臂的右手腕、右手臂和右肩膀,所述目标动作信息包括所述至少一个电位器所采集的所述左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数。
  3. 根据权利要求2所述的系统,其特征在于,在所述处理器根据所述目标动作信息生成机器人运动指令方面,所述处理器具体用于:
    根据所述左手腕的运动参数、所述左手臂的运动参数、所述左肩膀的运动参数、所述右手腕的运动参数、所述右手臂的运动参数和右肩膀的运动参数,训练得到目标三维运动模型;
    将所述目标三维运动模型按照预设的映射方式,将所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的运动映射为平面运动,得到所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的平面运动参数;
    根据所述左手腕、所述左手臂、所述左肩膀、所述右手腕、所述右手臂和所述右肩膀的平面运动参数,确定出所述机器人的运动参数;
    根据所述机器人的运动参数生成机器人运动指令。
  4. 根据权利要求1至3任一项所述的系统,其特征在于,所述机器人包括多个关节,所述多个关节与所述动作生成模块的关节相对应,所述在所述根据所述机器人运动指令进行运动方面,所述机器人具体用于:
    获取所述机器人的每个关节的当前姿态角度,以及对所述运动指令进行解析,得到所述机器人的每个关节的目标姿态角度;
    根据所述每个关节的当前姿态角度和所述每个关节的目标姿态角度,确定出所述每个关节的目标运动轨迹;
    根据所述每个关节的目标运动轨迹确定出所述每个关节的目标运动参数;
    所述每个关节根据所述每个关节的目标运动参数进行运动。
  5. 根据权利要求4所述的系统,其特征在于,在所述根据所述每个关节的当前姿态角度和所述每个关节的目标姿态角度,确定出所述每个关节的目标运动轨迹方面,所述机器人具体用于:
    计算所述每个关节的当前姿态角度和所述每个关节的目标姿态角度的之间的角度差,得到每个关节 的参考角度;
    将所述每个关节的参考角度均分为N个子参考角度;
    根据所述N个子参考角度,确定出所述每个关节的目标运动轨迹。
  6. 根据权利要求4所述的系统,其特征在于,在所述获取所述机器人的每个关节的当前姿态角度方面,所述机器人具体用于:
    读取所述每个关节的舵机的PWM位置信号;
    根据所述PWM位置信号确定出所述每个关节的当前姿态角度。
  7. 根据权利要求5或6所述的系统,其特征在于,在所述通信模块将所述机器人运动指令发送到所述机器人方面,所述通信模块具体用于:
    将所述机器人运动指令采用预设的加密算法进行加密,得到加密后的机器人运动指令;
    将所述加密后的机器人运动指令发送到所述机器人。
  8. 根据权利要求2所述的系统,其特征在于,所述左手腕的运动参数包括左手腕的运动欧拉角。
  9. 一种仿人机械手臂,其特征在于,所述仿人机械手臂包括处理器、电源电路和权利要求1-8任一项所述的机器人控制系统。
  10. 一种仿臂机器人系统,其特征在于,所述系统包括壳体和权利要求9所述的仿人机械手臂。
PCT/CN2019/076150 2019-01-24 2019-02-26 机器人控制系统及相关产品 WO2020151044A1 (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201920128405 2019-01-24
CN201910070198.3A CN109676609A (zh) 2019-01-24 2019-01-24 机器人控制系统及相关产品
CN201920128405.1 2019-01-24
CN201910070198.3 2019-01-24

Publications (1)

Publication Number Publication Date
WO2020151044A1 true WO2020151044A1 (zh) 2020-07-30

Family

ID=71736049

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/076150 WO2020151044A1 (zh) 2019-01-24 2019-02-26 机器人控制系统及相关产品

Country Status (1)

Country Link
WO (1) WO2020151044A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112171663A (zh) * 2020-09-03 2021-01-05 上海姜歌机器人有限公司 机器人状态提示系统、方法、装置和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5624398A (en) * 1996-02-08 1997-04-29 Symbiosis Corporation Endoscopic robotic surgical tools and methods
US20070276538A1 (en) * 2003-12-17 2007-11-29 Abb Research Ltd. Tool for an Industrial Robot
CN104889996A (zh) * 2015-05-12 2015-09-09 卓翔 一种替身机器人及替身实现方法
CN106217374A (zh) * 2016-08-11 2016-12-14 广州成潮智能科技有限公司 一种智能机械臂的控制方法、装置及系统
CN205905027U (zh) * 2016-08-05 2017-01-25 深圳穿越者机器人科技有限公司 一种机器人控制系统
CN108081272A (zh) * 2017-12-15 2018-05-29 长沙志唯电子科技有限公司 基于单片机控制的同步机器人
CN109176490A (zh) * 2018-10-05 2019-01-11 西北农林科技大学 一种采摘机器人控制系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5624398A (en) * 1996-02-08 1997-04-29 Symbiosis Corporation Endoscopic robotic surgical tools and methods
US20070276538A1 (en) * 2003-12-17 2007-11-29 Abb Research Ltd. Tool for an Industrial Robot
CN104889996A (zh) * 2015-05-12 2015-09-09 卓翔 一种替身机器人及替身实现方法
CN205905027U (zh) * 2016-08-05 2017-01-25 深圳穿越者机器人科技有限公司 一种机器人控制系统
CN106217374A (zh) * 2016-08-11 2016-12-14 广州成潮智能科技有限公司 一种智能机械臂的控制方法、装置及系统
CN108081272A (zh) * 2017-12-15 2018-05-29 长沙志唯电子科技有限公司 基于单片机控制的同步机器人
CN109176490A (zh) * 2018-10-05 2019-01-11 西北农林科技大学 一种采摘机器人控制系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112171663A (zh) * 2020-09-03 2021-01-05 上海姜歌机器人有限公司 机器人状态提示系统、方法、装置和电子设备

Similar Documents

Publication Publication Date Title
US11103997B2 (en) Software interface for authoring robotic manufacturing process
CN107363812B (zh) 无线控制的六自由度机械臂示教系统
WO2021003994A1 (zh) 虚拟角色的控制方法及相关产品
Almetwally et al. Real-time tele-operation and tele-walking of humanoid Robot Nao using Kinect Depth Camera
Fritsche et al. First-person tele-operation of a humanoid robot
CN107856014B (zh) 基于手势识别的机械臂位姿控制方法
Meeker et al. Intuitive hand teleoperation by novice operators using a continuous teleoperation subspace
KR102001214B1 (ko) 가상 현실 기반 양팔로봇 교시 장치 및 방법
Naceri et al. Towards a virtual reality interface for remote robotic teleoperation
CN109676609A (zh) 机器人控制系统及相关产品
CN107544299A (zh) 用于六自由度机械臂示教控制的pc端app系统
CN109529274B (zh) 基于冗余机械臂上肢关节主动康复系统及其训练方法
Kakiuchi et al. Development of humanoid robot system for disaster response through team nedo-jsk's approach to darpa robotics challenge finals
WO2020151044A1 (zh) 机器人控制系统及相关产品
Nandikolla et al. Teleoperation robot control of a hybrid eeg-based bci arm manipulator using ros
CN207937787U (zh) 扩增实境仿真系统
Ollervides et al. Navigation control system of walking hexapod robot
Jacob et al. Digital twins for distributed collaborative work in shared production
Zhou et al. Development of a synchronized human-robot-virtuality interaction system using cooperative robot and motion capture device
CN212601833U (zh) 一种工业级机械臂的多联及互联控制系统
Zhong et al. Inverse Kinematics Analysis of Humanoid Robot Arm by Fusing Denavit–Hartenberg and Screw Theory to Imitate Human Motion With Kinect
Zhou et al. An IoT-enabled telerobotic-assisted healthcare system based on inertial motion capture
WO2020133628A1 (zh) 仿人机械手臂体感控制系统及相关产品
CN109483517A (zh) 一种基于手姿追踪的协作机器人示教方法
Alquisiris-Quecha et al. Teleoperation and control of a humanoid robot NAO through body gestures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911956

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 14.09.2021.)

122 Ep: pct application non-entry in european phase

Ref document number: 19911956

Country of ref document: EP

Kind code of ref document: A1