WO2018193130A1 - Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system - Google Patents

Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system Download PDF

Info

Publication number
WO2018193130A1
WO2018193130A1 PCT/EP2018/060264 EP2018060264W WO2018193130A1 WO 2018193130 A1 WO2018193130 A1 WO 2018193130A1 EP 2018060264 W EP2018060264 W EP 2018060264W WO 2018193130 A1 WO2018193130 A1 WO 2018193130A1
Authority
WO
WIPO (PCT)
Prior art keywords
gripper
robot
pose
database
poses
Prior art date
Application number
PCT/EP2018/060264
Other languages
German (de)
French (fr)
Inventor
Maximo Alejandro ROA GARZON
Monika FLOREK-JASINSKA
Christian Emmerich
Elena Francesca GAMBARO
Annett STELZER
Michael Suppa
Original Assignee
Roboception Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102017108727.3A external-priority patent/DE102017108727B4/en
Application filed by Roboception Gmbh filed Critical Roboception Gmbh
Priority to EP18719839.5A priority Critical patent/EP3612355A1/en
Publication of WO2018193130A1 publication Critical patent/WO2018193130A1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements

Definitions

  • the invention relates to a method for creating a database with
  • Gripper poses a method for controlling a robot, a corresponding computer-readable storage medium and a handling system.
  • Modern handling systems such as multi-axis robots, serve to transport objects from a first location to a second location. For this purpose it is necessary that the robot grips the object by means of a gripper and holds it securely so that it does not fall down during the transport.
  • the objects to be gripped are always in the same place with the same orientation, so that a gripping needs to be programmed only once and then can be executed repeatedly.
  • the objects may be on
  • robotic systems have perception systems, e.g. B. on stereo camera systems, the detection of the objects to be gripped
  • the dimensions and the orientation of the object to be gripped can be determined by means of these perception systems, so that the points of application for the gripper can be determined.
  • a pose is as one Representation comprising three spatial coordinates and three angles, which describes the position and orientation of a second coordinate system with respect to a reference coordinate system.
  • the mass distribution of the object to be gripped by means of a visual perception system is usually not recognizable. It can
  • Working space of the robot indicates how many directions a point in the
  • Publication further describes that a database can be used which contains information on possible gripping actions of known objects.
  • a disadvantage of the procedure described in the cited publication is that the creation of the database is very complicated. It is not sufficient to store only a single gripper pose for each object. Rather, a variety of gripper poses must be manually recorded and stored in the database so that the gripping of an object can be carried out safely. Based on the described prior art, it is the task of
  • Invention to provide a method for creating a database with gripper poses, which addresses the above-mentioned disadvantages.
  • the efficient filling of a database is to be made possible.
  • a method for controlling a robot is to be specified, which allows an efficient control of the robot.
  • a corresponding computer-readable storage medium should be specified.
  • a handling system is to be specified, which allows the efficient gripping of an object.
  • the object is achieved by a method for creating a database with gripper poses according to claim 1.
  • the object is achieved by a method for creating a database with gripper poses comprising: a. Save, in particular by recording, at least one
  • Trainingsgreiferpose for gripping a training object in particular with respect to a training object associated
  • One core of the invention is therefore that one or a plurality of further gripper poses are generated for a single training gripper pose. So only the training gripper pose has to be set manually. It is particularly advantageous that the further gripper poses are generated using object prototypes. Thus, the properties of the object prototypes can be used to determine the further gripper poses. The described method therefore allows the efficient storage of at least one further gripper pose in addition to the training gripper pose.
  • the object is further achieved by a method for controlling a robot according to claim 2.
  • the object is achieved by a method for controlling a robot, comprising:
  • a pose particularly the training gripper pose, may be represented as a six-tuple having three spatial coordinates and three angles relative to a training object associated with the training object
  • Training object coordinate system has.
  • a pose can be stored particularly efficiently in a data structure that indicates the position and orientation with respect to the training object.
  • a gripper pose can be used, regardless of where the object to be gripped is in space or in a robot coordinate system.
  • the method may include selecting the at least one object prototype from a set of candidate prototypes.
  • the set of candidate prototypes may include a cylinder, a sphere, a box, a cone, a truncated cone, and / or a pyramid.
  • the at least one object prototype can thus be a geometric basic form, whereby a very flexible handling of the described method is possible.
  • the object prototypes may be described by geometric parameters such as length, depth, width, height, and / or radius.
  • the known geometry of the object prototype can then be utilized for automatic generation of the at least one further gripper pose.
  • at least one symmetry axis may be associated with the at least one object prototype, wherein a plurality of gripper poses may be generated taking into account the at least one symmetry axis, in particular by rotation about the at least one symmetry axis, preferably using a transformation matrix, wherein the gripper poses are respectively stored can.
  • Object prototype is used to generate the variety of gripper poses.
  • a rotationally symmetrical body can be gripped equally well using a plurality of poses.
  • a large number of possible gripper poses can be generated, which deliver similarly good gripping results.
  • An object prototype may be in a CAD data format, such as. IGES or STL.
  • the CAD data format can directly or indirectly specify an axis of symmetry and / or a plane of symmetry that can be used to generate the further gripper poses.
  • the training gripper pose and the further at least one gripper pose may each be stored with an object identification number that may be associated with the training object.
  • the assignment of the training gripper pose and the further at least one gripper pose to an object identification number makes it possible to find a plurality of possible poses for gripping an object, if the
  • Object database to query a variety of possible gripper poses at once for a single object.
  • a storing of gripping parameters can be provided together with the poses in an object database, in particular gripper information, a gripping mode, a quality indication, a force, a gripping strategy and / or a grip description.
  • the object database which can preferably be assigned to individual poses.
  • This can be data that specifies the grip closer. For example, may be indicated by a force with which force an object should be grasped.
  • a gripping type can be stored.
  • a multi-finger gripper z For example, a finger is used to grasp an object only with the fingertips of the multi-finger gripper.
  • Gripper information may include information indicating a gripper type or even a particular gripper product.
  • Gripper information can be stored in a gripper table or gripper database. So it can be a reference to the poses
  • the corresponding entry in the gripper table or gripper database are stored.
  • the corresponding entry may also include a CAD model of the gripper or performance parameters, such as a maximum application force.
  • at least one rule may be provided which indicates that for each pose
  • the rule can z. B. implemented as part of the object database.
  • a gripping strategy can specify how an object should be gripped.
  • a quality indication may include indications as to whether a reliable gripping is possible, i. whether in experiments it turned out that one
  • the saving of the gripping parameters has the advantage that gripping an object is easier
  • the method may include identifying the first item.
  • Training object comprise, in particular by means of a perception system, for. B. by means of a stereo camera.
  • the training object is automatically identified, so that information about the training object automatically in the
  • Object database can be written. This makes the process even more efficient.
  • the method may include storing
  • Object features for recognizing the training object comprise, in particular geometric information, such as corners and / or edges of the Training object, preferably such that poses are attributable to the object features.
  • Object features may also include visual information. These include image descriptors, such as color and color intensity gradients,
  • Texture information can be stored as object features.
  • a description of the training object can be stored in the database.
  • This description may be implemented by object features.
  • the position and orientation of corners and / or edges can be stored so that a perception system can find and / or identify an object on the basis of the stored object features.
  • the object features may be stored so as to be associated with the stored gripper poses.
  • This assignment can be implemented directly or indirectly. For example, all poses may be stored in a first database table. All objects can be stored in a second database table and all object features can be stored in a third database table. An assignment can then be executed using corresponding primary keys and references in the tables.
  • Object features can be selected.
  • a method for identifying the training object is selected.
  • a Pezeptions mentor is selected, which uses image sections for the identification of objects.
  • An object can be identified in such a way that first of all a hypothesis is drawn as to which object is in the view of a perception system.
  • the method may include: an identification of a target object to be gripped, in particular of an object identification number assigned to the target object;
  • an end effector e.g. B. a parallel gripper, a robot.
  • the described embodiment has the advantage that the gripping of an object by the robot is simplified. After identifying the object to be gripped, using an associated
  • the determining the reading may comprise a plurality of candidate poses, in particular from an object database, wherein the reading may be performed in consideration of a reachability map and / or a capability map of a robot.
  • the described embodiment has the advantage that from the plurality of candidate poses a Zielgreiferpose can be selected, which leads to particularly good gripping results for a particular robot. This can be ensured via the reachability map and / or the ability map.
  • a reachability map indicates which points in the room can be reached by the robot taking into account its kinematics.
  • a skill card indicates how many directions the robot can reach to a point within its working space.
  • Embodiment the gripping of a target object safer and easier.
  • the determining may include sorting one or more candidate poses, wherein the sorting may be performed considering the skill card.
  • Candidate poses are tried one after the other. Represents, for example out that a first candidate pose is not appropriate, then proceed to a second candidate pose.
  • the method may include motion planning to move a robot from an initial configuration to a robot
  • Target configuration wherein the target configuration may be associated with a Zielgreiferpose.
  • Candidate pose corresponds to the pose that has been identified as the most suitable pose during sorting.
  • it can be established, for example, that the most suitable pose, taking into account a current robot configuration, for example due to obstacles, can not be achieved or insufficiently well. Therefore, a loop of selecting a target gripper pose and motion planning can be executed. This ensures that exactly that Zielgreiferpose is used, which is most suitable for the robot at the current time.
  • the object is further achieved by a computer-readable storage medium according to claim 15.
  • a storage medium containing instructions that cause at least one processor to implement a method as claimed in any one of the preceding claims when the instructions are executed by the at least one processor.
  • the object is further achieved by a handling system according to claim 16.
  • a handling system comprising:
  • a perception system for detecting an object which is arranged in particular on the robot; wherein the robot is adapted
  • NEN robot 10 in an initial configuration before grasping an object 1;
  • Fig. 2b shows the object 1 of Fig. 2a and the gripper 20 of Fig. 2a in one
  • FIG. 3 shows a schematic illustration of an image of an object 1 on an object prototype 30
  • 4a shows an object prototype 30 with symmetry axis S; 4b shows the generation of a plurality of gripper poses PP "under
  • FIG. 5 shows a schematic representation of a database table 41
  • Fig. 6 is a schematic representation of a handling system
  • FIG. 7 is a flow chart illustrating a method of controlling a
  • Robot 10 indicates.
  • Fig. 1 shows a robot 10 shown in an initial configuration.
  • the robot 10 has a gripper 20 which is shown in FIG.
  • Embodiment designed as a parallel gripper 20 That is, the
  • Parallel gripper 20 has two jaws, which are parallel to each other and
  • a force sensor is provided on the jaws of the parallel gripper, which are designed to measure how much force is applied to an object to be gripped.
  • a stereo camera 11 is attached to the robot 10
  • the stereo camera 11 is aligned so that it also perceives the gripper 20. So also gripped objects can be permanently recorded. Therefore, the handle of the object can also be monitored. For example, it is possible to determine the slip (so-called "slip detection")
  • the stereo camera 11 By means of the stereo camera 11, it is possible to produce a three-dimensional map of the surroundings by moving the robot 10.
  • the three-dimensional map consists of a point cloud representing the position in a first step individual discrete points in a coordinate system of the robot 10 indicates.
  • a world model can be created from the three-dimensional map. It can be determined using image processing, where z. B. surfaces are located. Also, individual objects in the environment of the robot 10 can be recognized and their pose stored within the world model. When the pose of an object in the
  • a bottle 1 is arranged in the immediate vicinity of the robot 10.
  • the bottle 1 is located within the working space of the robot 10, ie in the area in which the robot 10 can theoretically grasp objects.
  • the stereo camera 11 now detects the contours of the bottle 1.
  • the robot 10 can be moved so that the bottle 1 is taken from as many angles through the stereo camera 11.
  • the robot 10 can be moved such that the bottle 1 can be gripped by the gripper 20.
  • the robot 10 may e.g. B. over
  • the robot 10 is a
  • the training gripper pose is recorded manually by an operator.
  • FIGS. 2a and 2b it is briefly explained how the gripping of an object 1 is carried out.
  • Fig. 2a shows the gripper 20 in a Anfahrtspose.
  • the approach pose is usually stored in relation to an object coordinate system 2.
  • the object coordinate system 2 is the one to be gripped
  • the approaching pose comprises a three-dimensional vector VI as well as three solid angles, which rotate around that of the
  • the vector VI points from the origin of the object coordinate system 2 to the so-called “tool center point” (TCP) of the gripper
  • Fig. 2b shows the gripper 20 of Fig. 2a in a gripper pose, i. in a pose in which the object 1 can be grasped.
  • the gripper pose of the gripper 20 is also stored with respect to the object coordinate system 2.
  • Gripper pose includes the vector V2 and three solid angles.
  • the vector V2 also points from the origin of the object coordinate system 2 to the TCP of the gripper 20.
  • the gripper jaws of the gripper 20 need be compressed in the embodiment of FIG. 2b.
  • the gripper jaws may be compressed until a threshold force value, e.g. B. 20 or 50 Newton, is exceeded.
  • a threshold force value e.g. B. 20 or 50 Newton
  • Robot configuration to be moved
  • FIG. 3 shows how a plurality of gripper poses P, PP "can be generated for an object 1.
  • FIG. 3 shows how an object prototype is determined for an object 1.
  • the exact configuration of the object prototypes 30, 30 ⁇ 30 can be determined via a large number of parameters, such that the height of the cylinder 30 can be determined by means of the parameter LI
  • the radius of the cylinder can be defined by means of the parameter R1 ⁇ can be defined in its dimensions by means of the parameters L2, L3 and L4
  • the sphere 30 can be defined via the radius R2.
  • the parameters LI to L4 and Rl, R2 are changed so that a maximum volume of the object prototypes 30, 30 ⁇ 30" through the bottle 1 is filled.
  • the bottle 1 is thus placed in the object prototypes 30, 30 ⁇ 30 "This can be carried out by known optimization methods
  • the object prototypes 30, 30 ⁇ 30 "of Fig. 3 have symmetries which can be determined by means of symmetry axes S.
  • Fig. 4a the
  • a cylinder is
  • the symmetry is used in the following to generate a multiplicity of possible gripper poses ⁇ ⁇ , P "for gripping the cylinder 30.
  • FIG. FIG. 4 b shows a gripper pose P of a gripper which has been manually created by an operator by means of the robot 10.
  • the axis of symmetry S can further gripper poses ⁇ be generated ⁇ , P "now.
  • the Greiferpose P is rotated by means of a transformation matrix to the center of the cylinder 30 in a plan view around. In this manner, as can in any angular intervals, e.g., every 1 degree, every 5 degrees or every 10 degrees, a gripper pose P ⁇ P "be generated.
  • any angular intervals e.g., every 1 degree, every 5 degrees or every 10 degrees
  • Fig. 5 shows a schematic representation of a table 41 of the object database 40.
  • Database table 41 includes the columns “Object”, “Gripper”, “PoseStart”, “PoseGr.” and “F”.
  • object contains identification numbers associated with objects 1. These may be, for example, the
  • Identification number act in another database table are stored in the object descriptions.
  • Each row of the database table 41 corresponds to a gripper pose.
  • the gripper used is stored for each gripper pose P2, P4.
  • a parallel gripper is stored as a gripper type in both rows of the table.
  • each an associated An marspose PI, P3 is stored.
  • the associated approach positions PI, P3 can like the
  • Gripper poses of Fig. 4b are generated by exploiting symmetry axes.
  • the gripper poses P2, P4 correspond to either recorded
  • Gripper poses P2, P4 can also optionally a force value F are stored, indicating the force with which the jaws of the parallel gripper used to press against the object to be lifted 1.
  • Fig. 6 shows an embodiment in which the object database 40 is used to grasp an object.
  • the robot 10 shows a robot 10 with a stereo camera 11 and a gripper 20.
  • the robot 10 further comprises a control device 12, which executes the control of the robot.
  • Arranged next to the robot 10 is a bottle.
  • the stereo camera 11 recognizes the object to be gripped as a bottle.
  • the recognized bottle can be assigned to an object type.
  • the controller 12 communicates via a network or locally with the object database 40.
  • the controller 12 sends a
  • Candidate poses P2, P4 selected that are compatible with the detected object After the candidate poses P2, P4 have been received by the controller 12, they are filtered using a skill card. In the process, those candidate poses are sorted out that can not be reached. In addition, a sorting takes place, which is also performed using the skill card. The order of
  • Gripper poses are determined by the number of directions from which the coordinates associated with the gripper poses can be reached.
  • a path planner is also implemented which maps the path of the robot 10 from the current configuration into the
  • Target configuration corresponding to a first candidate pose Can the path planner pick a path from the current robot configuration to the
  • the path planner Used to grab the object. If the path planner can not calculate a path because, for example, another object obstructs the path, then the next candidate pose is selected in the sorted list of candidate poses. This process is carried out until a candidate pose P2, P4 is found for which the path planner can calculate a path.
  • step Sl video data 51 is analyzed to identify objects 1, Tin of the environment of the robot 10.
  • Known objects 1 are stored together with object features in the object database 40.
  • a perception algorithm is selected which is used to identify the object 1. It is now started for the first known object of the object database 40 to determine whether the object is recognizable in the video data 51. If the object is not recognizable, the second object from object database 40 is continued. Possibly. For the second object, a different perception algorithm is used than for the first object. It is determined that the second object of the object database 40 in the Video data 51 is recognizable, the step S1 is completed.
  • the resulting object data 52 are used in step S2 to query for the detected object from the object database 40 a list of candidate poses P2, P4.
  • the list of candidate poses 53 is filtered in step S3 using a capability map of a robot 10. In the process, those candidate poses are removed which can not be reached with the robot 10 or gripper 20 used. In addition, the list of candidate poses 53 is sorted using the skill card 54. The list of candidate poses 53 is further sorted using user-defined criteria. For example, the gripping type stored for the candidate poses is taken into account in the sorting. Has a user indicated that when using a multi-finger gripper a
  • the list of candidate poses 53 is sorted accordingly.
  • the sorted list of candidate poses 55 is combined with a world model 56, which includes the poses of objects in the environment of the robot 10, to generate a path for the robot 10 in step S4
  • Path planning performed a collision check, with objects that are stored in the world model 56 are taken into account in the path planning. If it is determined in step S5 that no path for the first candidate pose of the list can be determined, a new path planning is started with the next candidate pose of the list. The process repeats until it is determined in step S5 that a robot path 57 can be calculated. In step S6, the robot 10 is then moved using the robot path 57.

Abstract

It is difficult for a robot to grip an object. More particularly, the problem of rapidly determining suitable gripper poses for gripping objects has not previously been adequately resolved. The problem addressed by the invention is therefore that of specifying a method which simplifies gripping of objects by a robot. The problem is solved by a method for creating a database (40) of gripper posses, comprising the following: a. Storing, particularly by recording, at least one training gripper pose (P, P2, P4) for gripping a training object (1), particularly with regard to a training object coordinate system (2) assigned to the training object (1); b. Generating at least one further gripper pose (P', P'') for the training object (1) using at least one object prototype (30, 30', 30'') and the training gripper pose (P, P2, P4); c. Storing the at least one further gripper pose (P') and the training gripper pose (P, P2, P4) with reference to the training object (1) in a database (40).

Description

Verfahren zur Erstellung einer Datenbank mit Greiferposen, Verfahren zum Steuern eines Roboters, computerlesbares Speichermedium und  Method for creating a database with gripper poses, method for controlling a robot, computer-readable storage medium and
Handhabungssystem  handling system
Beschreibung description
Die Erfindung betrifft ein Verfahren zur Erstellung einer Datenbank mit The invention relates to a method for creating a database with
Greiferposen, ein Verfahren zum Steuern eines Roboters, ein entsprechendes computerlesbares Speichermedium und ein Handhabungssystem. Gripper poses, a method for controlling a robot, a corresponding computer-readable storage medium and a handling system.
Moderne Handhabungssysteme, wie Mehrachs-Roboter, dienen dazu, Objekte von einem ersten Ort zu einem zweiten Ort zu transportieren. Hierzu ist es notwendig, dass der Roboter mittels eines Greifers das Objekt greift und sicher hält, damit es während des Transports nicht herunterfällt. In strukturierten Arbeitsumgebungen, wie z. B. in der Automobilproduktion üblich, liegen die zu greifenden Objekte immer an derselben Stelle mit derselben Orientierung, so dass ein Greifen nur einmal programmiert werden muss und dann wiederholt ausgeführt werden kann. Modern handling systems, such as multi-axis robots, serve to transport objects from a first location to a second location. For this purpose it is necessary that the robot grips the object by means of a gripper and holds it securely so that it does not fall down during the transport. In structured work environments, such as As is common in automotive production, the objects to be gripped are always in the same place with the same orientation, so that a gripping needs to be programmed only once and then can be executed repeatedly.
In unstrukturierten Arbeitsumgebungen können die Objekte jedoch an However, in unstructured workspaces, the objects may be on
unterschiedlichen Stellen mit unterschiedlicher Orientierung vorkommen, so dass ein Roboter in der Lage sein muss, das Greifen der Objekte zu adaptieren. Ein Beispiel ist das Greifen verschiedener Teile aus einer Kiste (sog.„bin-picking"). different locations with different orientation occur, so that a robot must be able to adapt the gripping of the objects. An example is the gripping of various parts from a box (so-called "bin-picking").
Um das Greifen von Objekten in unstrukturierten Arbeitsumgebungen zu ermöglichen, verfügen Robotersysteme über Perzeptionssysteme, z. B. über Stereokamerasysteme, die ein Detektieren der zu greifenden Objekte To enable gripping of objects in unstructured work environments, robotic systems have perception systems, e.g. B. on stereo camera systems, the detection of the objects to be gripped
ermöglichen. Ferner können mittels dieser Perzeptionssysteme die Dimensionen und die Orientierung des zu greifenden Objekts festgestellt werden, so dass die Angriffspunkte für den Greifer ermittelt werden können. enable. Furthermore, the dimensions and the orientation of the object to be gripped can be determined by means of these perception systems, so that the points of application for the gripper can be determined.
Bevor ein Objekt gegriffen werden kann, kann der Roboter so verfahren werden, dass lediglich ein Greifer aktiviert werden kann. Die Orientierung und der Ort des Greifers kann durch eine Pose beschrieben werden. Eine Pose ist als eine Repräsentation zu verstehen, die drei Raumkoordinaten sowie drei Winkel umfasst, die die Lage und die Orientierung eines zweiten Koordinatensystems bezüglich eines Referenzkoordinatensystems beschreibt. Before an object can be grasped, the robot can be moved so that only one gripper can be activated. The orientation and location of the gripper can be described by a pose. A pose is as one Representation comprising three spatial coordinates and three angles, which describes the position and orientation of a second coordinate system with respect to a reference coordinate system.
Beim Greifen treten eine Vielzahl von Schwierigkeiten auf. When gripping a variety of difficulties occur.
Beispielsweise ist die Masseverteilung des zu greifenden Objekts mittels eines visuellen Perzeptionssystems meist nicht erkennbar. Dadurch kann es For example, the mass distribution of the object to be gripped by means of a visual perception system is usually not recognizable. It can
vorkommen, dass das Greifen des Objekts an bestimmten Stellen nicht möglich oder nur sehr schwer möglich ist. Darüber hinaus kann mittels eines rein visuell arbeitenden Perzeptionssystems nicht festgestellt werden, mit welcher Kraft ein Objekt gehalten werden muss. Zusätzlich erfordert das Berechnen von möglichen Greiferposen eine lange Rechenzeit und Rechenressourcen eines Computers. Occur that the gripping of the object in certain places is not possible or very difficult. In addition, it can not be determined by means of a purely visually operating perception system with which force an object must be held. In addition, calculating possible gripper poses requires a long computation time and computational resources of a computer.
In der Veröffentlichung In the publication
Porges 0., Stouraitis T., Borst C, Roa M.A. (2014) "Reachability and Capability Analysis for Manipulation Tasks". In : Armada M., Sanfeliu A., Ferre M. (eds) ROBOT2013: First Iberian Robotics Conference. Advances in Intelligent Systems and Computing, vol 253. Springer, Cham wird die Analyse der Greiffähigkeiten eines Roboters vor dem Ausführen eines tatsächlichen Greifens beschrieben. Hierzu wird für den Roboter und den verwendeten Greifer eine Fähigkeitskarte erstellt, die für jeden Punkt des Porges 0., Stouraitis T., Borst C, Roa M.A. (2014) "Reachability and Capability Analysis for Manipulation Tasks". In: Armada M., Sanfeliu A., Ferre M. (eds) ROBOT2013: First Iberian Robotics Conference. Advances in Intelligent Systems and Computing, vol 253. Springer, Cham describes the analysis of the grasping abilities of a robot before performing an actual gripping. For this purpose, a skill map is created for the robot and the gripper used
Arbeitsraums des Roboters angibt, aus wie vielen Richtungen ein Punkt im Working space of the robot indicates how many directions a point in the
Arbeitsraum durch den Roboter angefahren werden kann. Dabei wird der Greifer ebenso wie die Kinematik des Roboters berücksichtigt. Die Fähigkeitskarte wird unabhängig von den zu greifenden Objekten erstellt. Die genannte Working space can be approached by the robot. The gripper as well as the kinematics of the robot are taken into account. The skill card is created independently of the objects to be gripped. The named
Veröffentlichung beschreibt weiter, dass eine Datenbank verwendet werden kann, die Angaben zu möglichen Greifaktionen von bekannten Objekten enthält. Ein Nachteil der in der genannten Veröffentlichung beschriebenen Vorgehensweise ist, dass das Erstellen der Datenbank sehr aufwändig ist. Es ist nicht ausreichend, zu jedem Objekt nur eine einzelne Greiferpose zu speichern. Vielmehr müssen eine Vielzahl von Greiferposen manuell aufgezeichnet und in der Datenbank gespeichert werden, sodass das Greifen eines Objekts sicher ausgeführt werden kann. Ausgehend von dem beschriebenen Stand der Technik ist es Aufgabe der Publication further describes that a database can be used which contains information on possible gripping actions of known objects. A disadvantage of the procedure described in the cited publication is that the creation of the database is very complicated. It is not sufficient to store only a single gripper pose for each object. Rather, a variety of gripper poses must be manually recorded and stored in the database so that the gripping of an object can be carried out safely. Based on the described prior art, it is the task of
Erfindung, ein Verfahren zur Erstellung einer Datenbank mit Greiferposen anzugeben, das die vorstehend genannten Nachteile adressiert. Insbesondere soll das effiziente Befüllen einer Datenbank ermöglicht werden. Darüber hinaus soll ein Verfahren zum Steuern eines Roboters angegeben werden, welches eine effiziente Steuerung des Roboters ermöglicht. Zusätzlich soll ein entsprechendes computerlesbares Speichermedium angegeben werden. Darüber hinaus soll ein Handhabungssystem angegeben werden, welches das effiziente Greifen eines Objekts ermöglicht. Invention to provide a method for creating a database with gripper poses, which addresses the above-mentioned disadvantages. In particular, the efficient filling of a database is to be made possible. In addition, a method for controlling a robot is to be specified, which allows an efficient control of the robot. In addition, a corresponding computer-readable storage medium should be specified. In addition, a handling system is to be specified, which allows the efficient gripping of an object.
Die Aufgabe wird gelöst durch ein Verfahren zur Erstellung einer Datenbank mit Greiferposen nach Anspruch 1. The object is achieved by a method for creating a database with gripper poses according to claim 1.
Insbesondere wird die Aufgabe gelöst durch ein Verfahren zur Erstellung einer Datenbank mit Greiferposen, Folgendes umfassend : a. Speichern, insbesondere durch Aufzeichnen, mindestens einer In particular, the object is achieved by a method for creating a database with gripper poses comprising: a. Save, in particular by recording, at least one
Trainingsgreiferpose zum Greifen eines Trainingsobjekts, insbesondere bezüglich eines dem Trainingsobjekt zugeordneten  Trainingsgreiferpose for gripping a training object, in particular with respect to a training object associated
Trainingsobjektkoordinatensystems;  Training object coordinate system;
b. Generieren mindestens einer weiteren Greiferpose für das Trainingsobjekt unter Verwendung mindestens eines Objektprototypen und der  b. Generate at least one other gripper pose for the training object using at least one object prototype and the
Trainingsgreiferpose;  Trainingsgreiferpose;
c. Speichern der mindestens einen weiteren Greiferpose und der  c. Saving the at least one further Greiferpose and the
Trainingsgreiferpose mit einem Bezug zu dem Trainingsobjekt in der Datenbank, insbesondere in einer Objektdatenbank.  Trainingsgreiferpose with a reference to the training object in the database, in particular in an object database.
Ein Kern der Erfindung liegt also darin, dass für eine einzige Trainingsgreiferpose eine oder eine Vielzahl von weiteren Greiferposen generiert werden. Es muss also nur die Trainingsgreiferpose manuell vorgegeben werden. Besonders vorteilhaft ist, dass die weiteren Greiferposen unter Verwendung von Objektprototypen generiert werden. Es können also die Eigenschaften der Objektprototypen zur Ermittlung der weiteren Greiferposen herangezogen werden. Das beschriebene Verfahren erlaubt daher das effiziente Speichern mindestens einer weiteren Greiferpose zusätzlich zu der Trainingsgreiferpose. One core of the invention is therefore that one or a plurality of further gripper poses are generated for a single training gripper pose. So only the training gripper pose has to be set manually. It is particularly advantageous that the further gripper poses are generated using object prototypes. Thus, the properties of the object prototypes can be used to determine the further gripper poses. The described method therefore allows the efficient storage of at least one further gripper pose in addition to the training gripper pose.
Die Aufgabe wird ferner gelöst durch ein Verfahren zum Steuern eines Roboters nach Anspruch 2. Insbesondere wird die Aufgabe gelöst durch ein Verfahren zum Steuern eines Roboters, Folgendes aufweisend : The object is further achieved by a method for controlling a robot according to claim 2. In particular, the object is achieved by a method for controlling a robot, comprising:
- Durchführen der Schritte des oben beschriebenen Verfahrens zum Erstellen einer Datenbank; Performing the steps of the method of creating a database described above;
- Abfragen mindestens einer Pose aus der Objektdatenbank; - querying at least one pose from the object database;
- Steuern des Roboters unter Verwendung der mindestens einen Pose. - controlling the robot using the at least one pose.
Das Abfragen und Verwenden einer Greiferpose zum Steuern eines Roboters aus einer Datenbank, wie sie vorstehend beschrieben wurde, ermöglicht ein Querying and using a gripper pose to control a robot from a database as described above enables
insgesamt besonders effizientes Greifverfahren. overall particularly efficient gripping method.
In einer Ausführungsform kann eine Pose, insbesondere die Trainingsgreiferpose, als ein sechs-Tupel repräsentiert sein, das drei Raumkoordinaten und drei Winkel bezogen auf ein dem Trainingsobjekt zugeordneten In one embodiment, a pose, particularly the training gripper pose, may be represented as a six-tuple having three spatial coordinates and three angles relative to a training object associated with the training object
Trainingsobjektkoordinatensystem aufweist. Training object coordinate system has.
Eine Pose kann besonders effizient in einer Datenstruktur gespeichert sein, die die Lage und Orientierung bezüglich des Trainingsobjekts angibt. Dadurch, dass die Angaben bezüglich des Trainingsobjekts gespeichert werden, kann eine Greiferpose verwendet werden, unabhängig davon, wo sich das zu greifende Objekt im Raum bzw. in einem Roboterkoordinatensystem befindet. A pose can be stored particularly efficiently in a data structure that indicates the position and orientation with respect to the training object. By storing the information relating to the training object, a gripper pose can be used, regardless of where the object to be gripped is in space or in a robot coordinate system.
In einer Ausführungsform kann das Verfahren ein Auswählen des mindestens einen Objektprototyps aus einer Menge von Kandidatenprototypen umfassen. In one embodiment, the method may include selecting the at least one object prototype from a set of candidate prototypes.
Die Menge von Kandidatenprototypen kann einen Zylinder, eine Sphäre, einen Quader, einen Kegel, einen Kegelstumpf und/oder eine Pyramide umfassen. The set of candidate prototypes may include a cylinder, a sphere, a box, a cone, a truncated cone, and / or a pyramid.
Der mindestens eine Objektprototyp kann also eine geometrische Grundform sein, wodurch eine sehr flexible Handhabung des beschriebenen Verfahrens möglich ist. Die Objektprototypen können über geometrische Parameter, wie Länge, Tiefe, Breite, Höhe und/oder einem Radius, beschrieben sein. Die bekannte Geometrie des Objektprototyps kann dann zur automatischen Generierung der mindestens einen weiteren Greiferpose ausgenutzt werden. In einer Ausführungsform kann dem mindestens einen Objektprototyp mindestens eine Symmetrieachse zugeordnet sein, wobei eine Vielzahl von Greiferposen unter Berücksichtigung der mindestens einen Symmetrieachse erzeugt werden kann, insbesondere durch Rotation um die mindestens eine Symmetrieachse, bevorzugt unter Verwendung einer Transformationsmatrix, wobei die Greiferposen jeweils gespeichert werden können. The at least one object prototype can thus be a geometric basic form, whereby a very flexible handling of the described method is possible. The object prototypes may be described by geometric parameters such as length, depth, width, height, and / or radius. The known geometry of the object prototype can then be utilized for automatic generation of the at least one further gripper pose. In one embodiment, at least one symmetry axis may be associated with the at least one object prototype, wherein a plurality of gripper poses may be generated taking into account the at least one symmetry axis, in particular by rotation about the at least one symmetry axis, preferably using a transformation matrix, wherein the gripper poses are respectively stored can.
Besonders vorteilhaft ist es, wenn eine bekannte Symmetrieachse des It is particularly advantageous if a known symmetry axis of the
Objektprototyps zur Generierung der Vielzahl von Greiferposen verwendet wird. Hierbei wird ausgenutzt, dass beispielsweise ein rotationssymmetrischer Körper unter Verwendung einer Vielzahl von Posen gleichgut gegriffen werden kann. Dadurch kann eine Vielzahl von möglichen Greiferposen generiert werden, die ähnlich gute Greifergebnisse liefern. Das vereinfacht sehr stark den Aufbau einer Objektdatenbank. Ein Objektprototyp kann in einem CAD-Datenformat, wie z. B. IGES oder STL vorliegen. Das CAD-Datenformat kann direkt oder indirekt eine Symmetrieachse und/oder eine Symmetrieebene angeben, die zur Generierung der weiteren Greiferposen verwendet werden kann. Object prototype is used to generate the variety of gripper poses. In this case, it is utilized that, for example, a rotationally symmetrical body can be gripped equally well using a plurality of poses. As a result, a large number of possible gripper poses can be generated, which deliver similarly good gripping results. This greatly simplifies the construction of an object database. An object prototype may be in a CAD data format, such as. IGES or STL. The CAD data format can directly or indirectly specify an axis of symmetry and / or a plane of symmetry that can be used to generate the further gripper poses.
In einer Ausführungsform kann die Trainingsgreiferpose und die weiteren mindestens eine Greiferpose jeweils mit einer Objektidentifikationsnummer gespeichert werden, die dem Trainingsobjekt zugeordnet sein kann. In one embodiment, the training gripper pose and the further at least one gripper pose may each be stored with an object identification number that may be associated with the training object.
Die Zuordnung der Trainingsgreiferpose und der weiteren mindestens einen Greiferpose zu einer Objektidentifikationsnummer ermöglicht das Auffinden einer Vielzahl von möglichen Posen zum Greifen eines Objekts, wenn die The assignment of the training gripper pose and the further at least one gripper pose to an object identification number makes it possible to find a plurality of possible poses for gripping an object, if the
Objektidentifikationsnummer bekannt ist. Dadurch ist es möglich, aus der Object identification number is known. This makes it possible to get out of the
Objektdatenbank eine Vielzahl von möglichen Greiferposen auf einmal für ein einziges Objekt abzufragen. Object database to query a variety of possible gripper poses at once for a single object.
In einer Ausführungsform kann ein Speichern von Greifparametern zusammen mit den Posen in einer/der Objektdatenbank vorgesehen sein, insbesondere von Greiferinformationen, einer Greifart, einer Qualitätsangabe, einer Kraft, einer Greifstrategie und/oder einer Greifbeschreibung. In one embodiment, a storing of gripping parameters can be provided together with the poses in an object database, in particular gripper information, a gripping mode, a quality indication, a force, a gripping strategy and / or a grip description.
Es ist also möglich, dass zusätzlich zu den genannten Greiferposen weitere Daten in der Objektdatenbank gespeichert werden, die sich vorzugsweise einzelnen Posen zuordnen lassen. Dabei kann es sich um Daten handeln, die das Greifen näher spezifizieren. Beispielsweise kann durch eine Kraft angegeben sein, mit welcher Kraft ein Objekt gegriffen werden soll. Ferner kann eine Greifart gespeichert. Bei einem Mehrfingergreifer kann z. B. gespeichert werden, ob es sich um ein sog. Fingergreifen oder um ein sog.„power"-Greifen handelt. Beim Fingergreifen wird ein Objekt nur mit den Fingerspitzen des Mehrfingergreifers gegriffen. Beim„power"-Greifen wird das Objekt komplett umgriffen. It is therefore possible that, in addition to the mentioned gripper poses, further data are stored in the object database, which can preferably be assigned to individual poses. This can be data that specifies the grip closer. For example, may be indicated by a force with which force an object should be grasped. Furthermore, a gripping type can be stored. In a multi-finger gripper z. For example, a finger is used to grasp an object only with the fingertips of the multi-finger gripper.
Greiferinformationen können Informationen umfassen, die einen Greifertyp angeben oder auch ein bestimmtes Greiferprodukt. Gripper information may include information indicating a gripper type or even a particular gripper product.
Greiferinformationen können in einer Greifertabelle oder Greiferdatenbank gespeichert sein. Es kann also zu den Posen eine Referenz auf den Gripper information can be stored in a gripper table or gripper database. So it can be a reference to the poses
entsprechenden Eintrag in der Greifertabelle bzw. Greiferdatenbank gespeichert werden. Der entsprechende Eintrag kann auch ein CAD Modell des Greifers oder Leistungsparameter, wie eine maximal aufbringbare Kraft, umfassen. Ferner kann mindestens eine Regel vorgesehen sein, die angibt, dass zu jeder Pose corresponding entry in the gripper table or gripper database are stored. The corresponding entry may also include a CAD model of the gripper or performance parameters, such as a maximum application force. Furthermore, at least one rule may be provided which indicates that for each pose
mindestens ein Greifer zugeordnet sein muss. Die Regel kann z. B. als Teil der Objektdatenbank implementiert sein. at least one gripper must be assigned. The rule can z. B. implemented as part of the object database.
Eine Greifstrategie kann angeben, wie ein Objekt gegriffen werden soll. A gripping strategy can specify how an object should be gripped.
Beispielsweise kann vorgesehen sein, dass zunächst mit einer hohen Kraft zugegriffen wird, und nach einer bestimmten Zeit mit einer geringeren Kraft. Eine Qualitätsangabe kann Angaben dazu umfassen, ob ein prozesssicheres Greifen möglich ist, d.h. ob sich in Experimenten herausgestellt hat, dass eine For example, it can be provided that initially a high force is accessed, and after a certain time with a lower force. A quality indication may include indications as to whether a reliable gripping is possible, i. whether in experiments it turned out that one
entsprechende Greiferpose besonders gut geeignet ist. Das Speichern der Greifparameter hat den Vorteil, dass ein Greifen eines Objekts leichter appropriate gripper pose is particularly well suited. The saving of the gripping parameters has the advantage that gripping an object is easier
reproduziert bzw. ausgeführt werden kann. can be reproduced or executed.
In einer Ausführungsform kann das Verfahren ein Identifizieren des In one embodiment, the method may include identifying the
Trainingsobjekts umfassen, insbesondere mittels eines Perzeptionssystems, z. B. mittels einer Stereokamera. Training object comprise, in particular by means of a perception system, for. B. by means of a stereo camera.
Es ist also auch möglich, dass das Trainingsobjekt automatisch identifiziert wird, so dass Informationen über das Trainingsobjekt automatisch in die It is also possible that the training object is automatically identified, so that information about the training object automatically in the
Objektdatenbank geschrieben werden können. Dadurch wird das Verfahren noch effizienter. Object database can be written. This makes the process even more efficient.
In einem Ausführungsbeispiel kann das Verfahren ein Speichern von In one embodiment, the method may include storing
Objektmerkmalen zum Erkennen des Trainingsobjekts umfassen, insbesondere von geometrischen Informationen, wie Ecken und/oder Kanten des Trainingsobjekts, vorzugsweise derart, dass Posen den Objektmerkmalen zuordenbar sind. Objektmerkmale können auch visuelle Informationen umfassen. Dazu zählen Bilddeskriptoren, wie Färb- bzw. Farbintensitätsgradienten, Object features for recognizing the training object comprise, in particular geometric information, such as corners and / or edges of the Training object, preferably such that poses are attributable to the object features. Object features may also include visual information. These include image descriptors, such as color and color intensity gradients,
Farbwerte oder Grauwerte. Auch Bildausschnitte und sonstige Color values or gray values. Also image excerpts and other
Texturinformationen können als Objektmerkmale gespeichert werden. Texture information can be stored as object features.
Um ein zu greifendes Objekt besser in der Objektdatenbank auffinden zu können, kann in der Datenbank eine Beschreibung des Trainingsobjekts gespeichert sein. Diese Beschreibung kann durch Objektmerkmale umgesetzt sein. Dabei kann die Lage und Orientierung von Ecken und/oder von Kanten abgespeichert sein, so dass ein Perzeptionssystem anhand der gespeicherten Objektmerkmale ein Objekt finden und/oder identifizieren kann. Die Objektmerkmale können derart gespeichert sein, dass sie den gespeicherten Greiferposen zuordenbar sind. Diese Zuordnung kann mittelbar oder unmittelbar umgesetzt sein. Z. B. können alle Posen in einer ersten Datenbanktabelle gespeichert sein. Alle Objekte können in einer zweiten Datenbanktabelle gespeichert sein und alle Objektmerkmale können in einer dritten Datenbanktabelle gespeichert sein. Eine Zuordnung kann dann über entsprechende Primärschlüssel und Verweise in den Tabellen ausgeführt werden. In order to better locate an object to be gripped in the object database, a description of the training object can be stored in the database. This description may be implemented by object features. In this case, the position and orientation of corners and / or edges can be stored so that a perception system can find and / or identify an object on the basis of the stored object features. The object features may be stored so as to be associated with the stored gripper poses. This assignment can be implemented directly or indirectly. For example, all poses may be stored in a first database table. All objects can be stored in a second database table and all object features can be stored in a third database table. An assignment can then be executed using corresponding primary keys and references in the tables.
In einer Ausführungsform kann eine Vielzahl von Perzeptionsverfahren In one embodiment, a variety of detection methods
vorgesehen sein, wobei ein Perzeptionsverfahren zur automatischen be provided, with a Perzeptionsverfahren for automatic
Identifizierung des Trainingsobjekts unter Verwendung von gespeicherten Identification of the training object using stored
Objektmerkmalen ausgewählt werden kann. Object features can be selected.
Es ist also möglich, dass basierend auf den in der Objektdatenbank vorhandenen Objektmerkmalen ein Verfahren zur Identifizierung des Trainingsobjekts ausgewählt wird. Sind z. B. in der Objektdatenbank Objektmerkmale gespeichert, die Bildausschnitte betreffen, so wird ein Pezeptionsverfahren ausgewählt, welches Bildausschnitte zur Identifizierung von Objekten verwendet. It is therefore possible that, based on the object features present in the object database, a method for identifying the training object is selected. Are z. B. stored in the object database object features that affect image sections, a Pezeptionsverfahren is selected, which uses image sections for the identification of objects.
Ein Objekt kann derart erkannt werde, dass zunächst eine Hypothese aufgestellt wird, welches Objekt sich im Blick eines Perzeptionssystems befindet. An object can be identified in such a way that first of all a hypothesis is drawn as to which object is in the view of a perception system.
Anschließend kann geprüft werden, ob die Hypothese zutrifft. Das bedeutet, dass nacheinander eine Vielzahl bekannter Objekte durchprobiert werden kann. Subsequently, it can be checked whether the hypothesis is correct. This means that successively a variety of known objects can be tried.
In einer Ausführungsform kann das Verfahren umfassen : - ein Identifizieren eines zu greifenden Zielobjekts, insbesondere einer dem Zielobjekt zugeordneten Objektidentifikationsnummer; In one embodiment, the method may include: an identification of a target object to be gripped, in particular of an object identification number assigned to the target object;
- ein Bestimmen einer Zielgreiferpose, die dem Zielobjekt zuordenbar ist; und - determining a Zielgreiferpose that is attributable to the target object; and
- ein Greifen des Zielobjekts unter Verwendung der Zielgreiferpose, gripping the target object using the target gripper pose,
insbesondere durch einen Endeffektor, z. B. einem Parallelgreifer, eines Roboters.  in particular by an end effector, e.g. B. a parallel gripper, a robot.
Die beschriebene Ausführungsform hat den Vorteil, dass das Greifen eines Objekts durch den Roboter vereinfacht wird. Nach dem Identifizieren des zu greifenden Objekts kann unter Verwendung einer zugeordneten The described embodiment has the advantage that the gripping of an object by the robot is simplified. After identifying the object to be gripped, using an associated
Objektidentifikationsnummer eine Zielgreiferpose bestimmt werden. Object identification number a Zielgreiferpose be determined.
In einer Ausführungsform kann das Bestimmen das Auslesen eine Vielzahl von Kandidatenposen umfassen, insbesondere aus einer/der Objektdatenbank, wobei das Auslesen unter Berücksichtigung einer Erreichbarkeitskarte und/oder einer Fähigkeitskarte eines Roboters durchgeführt werden kann. In an embodiment, the determining the reading may comprise a plurality of candidate poses, in particular from an object database, wherein the reading may be performed in consideration of a reachability map and / or a capability map of a robot.
Die beschriebene Ausführungsform hat den Vorteil, dass aus der Vielzahl von Kandidatenposen eine Zielgreiferpose ausgewählt werden kann, die zu besonders guten Greifergebnissen für einen speziellen Roboter führt. Dies kann über die Erreichbarkeitskarte und/oder die Fähigkeitskarte sichergestellt werden. Eine Erreichbarkeitskarte gibt an, welche Punkte im Raum durch den Roboter unter Berücksichtigung seiner Kinematik erreicht werden können. Eine Fähigkeitskarte gibt an, aus wie vielen Richtungen der Roboter einen Punkt innerhalb seines Arbeitsraums erreichen kann. Insgesamt wird mit der beschriebenen The described embodiment has the advantage that from the plurality of candidate poses a Zielgreiferpose can be selected, which leads to particularly good gripping results for a particular robot. This can be ensured via the reachability map and / or the ability map. A reachability map indicates which points in the room can be reached by the robot taking into account its kinematics. A skill card indicates how many directions the robot can reach to a point within its working space. Overall, with the described
Ausführungsform das Greifen eines Zielobjekts sicherer und vereinfacht. Embodiment, the gripping of a target object safer and easier.
In einer Ausführungsform kann das Bestimmen ein Sortieren einer/der Vielzahl von Kandidatenposen umfassen, wobei das Sortieren unter Berücksichtigung der Fähigkeitskarte durchgeführt werden kann. In an embodiment, the determining may include sorting one or more candidate poses, wherein the sorting may be performed considering the skill card.
Von Vorteil ist, wenn ein Sortieren der Vielzahl von Kandidatenposen It is advantageous if a sorting of the plurality of candidate poses
durchgeführt wird, so dass eine Ordnung entsteht. Dadurch können die is performed so that an order arises. This allows the
Kandidatenposen nacheinander durchprobiert werden. Stellt sich beispielsweise heraus, dass eine erste Kandidatenpose nicht geeignet ist, so kann mit einer zweiten Kandidatenpose fortgefahren werden. Candidate poses are tried one after the other. Represents, for example out that a first candidate pose is not appropriate, then proceed to a second candidate pose.
In einer Ausführungsform kann das Verfahren eine Bewegungsplanung zum Bewegen eines Roboters von einer Ausgangskonfiguration in eine In an embodiment, the method may include motion planning to move a robot from an initial configuration to a robot
Zielkonfiguration umfassen, wobei die Zielkonfiguration einer/der Zielgreiferpose zugeordnet sein kann. Target configuration, wherein the target configuration may be associated with a Zielgreiferpose.
Im Anschluss an das Sortieren kann unter Verwendung der ersten Following the sorting can be done using the first
Kandidatenpose eine Bewegungsplanung durchgeführt werden. Die erste Candidate pose a movement planning to be performed. The first
Kandidatenpose entspricht dabei der Pose, die beim Sortieren als geeignetste Pose ermittelt worden ist. Dabei kann beispielsweise festgestellt werden, dass die geeignetste Pose unter Berücksichtigung einer aktuellen Roboterkonfiguration, beispielsweise auf Grund von Hindernissen, nicht bzw. ungenügend gut erreicht werden kann. Es kann daher eine Schleife der Auswahl einer Zielgreiferpose und der Bewegungsplanung ausgeführt werden. Dadurch ist gewährleistet, dass genau jene Zielgreiferpose verwendet wird, die für den Roboter zum aktuellen Zeitpunkt am besten geeignet ist. Candidate pose corresponds to the pose that has been identified as the most suitable pose during sorting. In this case, it can be established, for example, that the most suitable pose, taking into account a current robot configuration, for example due to obstacles, can not be achieved or insufficiently well. Therefore, a loop of selecting a target gripper pose and motion planning can be executed. This ensures that exactly that Zielgreiferpose is used, which is most suitable for the robot at the current time.
Die Aufgabe wird ferner gelöst durch ein computerlesbares Speichermedium nach Anspruch 15. The object is further achieved by a computer-readable storage medium according to claim 15.
Insbesondere wird die Aufgabe gelöst durch ein computerlesbares In particular, the problem is solved by a computer-readable
Speichermedium, welches Instruktionen enthält, die mindestens einen Prozessor dazu veranlassen, ein Verfahren nach einem der vorhergehenden Ansprüche zu implementieren, wenn die Instruktionen durch den mindestens einen Prozessor ausgeführt werden. A storage medium containing instructions that cause at least one processor to implement a method as claimed in any one of the preceding claims when the instructions are executed by the at least one processor.
Es ergeben sich ähnliche oder identische Vorteile, wie sie bereits im This results in similar or identical advantages as already in the
Zusammenhang mit den vorstehend beschriebenen Verfahren beschrieben wurden. In connection with the methods described above have been described.
Die Aufgabe wird ferner gelöst durch ein Handhabungssystem nach Anspruch 16. The object is further achieved by a handling system according to claim 16.
Insbesondere wird die Aufgabe gelöst durch ein Handhabungssystem, umfassend : In particular, the object is achieved by a handling system comprising:
- eine Objektdatenbank, insbesondere eine Objektdatenbank, die nach an object database, in particular an object database, after
einem der vorhergehend beschriebenen Verfahren erstellt ist; - einen Roboter, der dazu ausgebildet ist, ein Objekt zu greifen; one of the previously described methods is created; a robot adapted to grip an object;
- ein Perzeptionssystem zur Erfassung eines Objekts, das insbesondere an dem Roboter angeordnet ist; wobei der Roboter dazu ausgebildet ist, a perception system for detecting an object which is arranged in particular on the robot; wherein the robot is adapted
- unter Verwendung des erfassten Objekts eine Vielzahl von using the detected object, a plurality of
Kandidatenposen aus der Objektdatenbank abzufragen;  Query candidate poses from the object database;
- die Vielzahl von Kandidatenposen zu filtern, insbesondere unter to filter the multiplicity of candidate poses, in particular under
Verwendung einer Erreichbarkeitskarte und/oder einer Fähigkeitskarte, um eine Zielgreiferpose zu bestimmen,  Use of a reachability map and / or ability map to determine a target grab pose
- eine Roboterkonfiguration entsprechend der Zielgreiferpose einzustellen. - Set a robot configuration according to the Zielgreiferpose.
Es ergeben sich ähnliche oder identische Vorteile, wie sie bereits im This results in similar or identical advantages as already in the
Zusammenhang mit dem vorstehend beschriebenen Verfahren beschrieben sind. Related to the method described above are described.
Weitere vorteilhafte Ausführungsformen ergeben sich anhand der Further advantageous embodiments will be apparent from the
Unteransprüche. Dependent claims.
Nachfolgend wird die Erfindung mittels mehrerer Ausführungsbeispiele The invention will now be described by means of several embodiments
beschrieben, die anhand von Abbildungen näher erläutert werden. Hierbei zeigen : nen Roboter 10 in einer Ausgangskonfiguration vor dem Greifen eines Objekts 1; described in more detail with reference to figures. Here: NEN robot 10 in an initial configuration before grasping an object 1;
Fig. 2a Objekt 1 und einen Greifer 20 in einer Anfahrtspose; Fig. 2a object 1 and a gripper 20 in a Anfahrtspose;
Fig. 2b das Objekt 1 der Fig. 2a und den Greifer 20 der Fig. 2a in einer Fig. 2b shows the object 1 of Fig. 2a and the gripper 20 of Fig. 2a in one
Greiferpose;  Greiferpose;
Fig. 3 eine schematische Darstellung einer Abbildung eines Objekts 1 auf einem Objektprototypen 30; FIG. 3 shows a schematic illustration of an image of an object 1 on an object prototype 30; FIG.
Fig. 4a ein Objektprototyp 30 mit Symmetrieachse S; Fig. 4b das Generieren einer Vielzahl von Greiferposen P P" unter 4a shows an object prototype 30 with symmetry axis S; 4b shows the generation of a plurality of gripper poses PP "under
Verwendung einer Symmetrieachse eines Objektprototypen 30;  Using an axis of symmetry of an object prototype 30;
Fig. 5 eine schematische Darstellung einer Datenbanktabelle 41; 5 shows a schematic representation of a database table 41;
Fig. 6 eine schematische Darstellung eines Handhabungssystems Fig. 6 is a schematic representation of a handling system
umfassend ein Objekt , einen Roboter 10 und eine  comprising an object, a robot 10 and a
Objektdatenbank 40; und  Object database 40; and
Fig. 7 ein Flussdiagramm, welches ein Verfahren zur Steuerung eines 7 is a flow chart illustrating a method of controlling a
Roboters 10 angibt.  Robot 10 indicates.
In der nachfolgenden Beschreibung werden für gleiche und gleichwirkende Teile dieselben Bezugsziffern verwendet. In the following description, the same reference numerals are used for identical and equivalent parts.
Fig. 1 zeigt einen Roboter 10, der in einer Ausgangskonfiguration gezeigt ist. Der Roboter 10 verfügt über einen Greifer 20, der in dem gezeigten Fig. 1 shows a robot 10 shown in an initial configuration. The robot 10 has a gripper 20 which is shown in FIG
Ausführungsbeispiel als Parallelgreifer 20 ausgeführt ist. Das heißt, der Embodiment designed as a parallel gripper 20. That is, the
Parallelgreifer 20 verfügt über zwei Backen, die parallel zueinander und Parallel gripper 20 has two jaws, which are parallel to each other and
voneinander wegbewegt werden können. Um eine Kraft zu messen, sind an den Backen des Parallelgreifers 20 Kraftsensoren vorgesehen, die dazu ausgebildet sind, zu messen, wie viel Kraft auf ein zu greifendes Objekt aufgebracht wird . Zur Erkennung von Objekten ist an dem Roboter 10 eine Stereokamera 11 can be moved away from each other. To measure a force, 20 force sensors are provided on the jaws of the parallel gripper, which are designed to measure how much force is applied to an object to be gripped. For detecting objects, a stereo camera 11 is attached to the robot 10
angeordnet. Die Stereokamera 11 ist dabei so ausgerichtet, dass sie auch den Greifer 20 wahrnimmt. Also können auch gegriffene Objekte permanent erfasst werden. Daher kann auch der Griff des Objekts überwacht werden. Z. B. kann das rutschen (sog .„Slip detection") festgestellt werden. Mittels der Stereokamera 11 ist es möglich, durch Bewegung des Roboters 10 eine dreidimensionale Karte der Umgebung anzufertigen. Die dreidimensionale Karte besteht in einem ersten Schritt aus einer Punktwolke, die die Lage einzelner diskreter Punkte in einem Koordinatensystem des Roboters 10 angibt. arranged. The stereo camera 11 is aligned so that it also perceives the gripper 20. So also gripped objects can be permanently recorded. Therefore, the handle of the object can also be monitored. For example, it is possible to determine the slip (so-called "slip detection") By means of the stereo camera 11, it is possible to produce a three-dimensional map of the surroundings by moving the robot 10. The three-dimensional map consists of a point cloud representing the position in a first step individual discrete points in a coordinate system of the robot 10 indicates.
In einem zweiten Schritt kann aus der dreidimensionalen Karte ein Weltmodell erstellt werden. Dabei kann unter Verwendung von Bildverarbeitung ermittelt werden, wo sich z. B. Oberflächen befinden. Auch können einzelne Objekte in der Umgebung des Roboters 10 erkannt werden und deren Pose innerhalb des Weltmodells gespeichert werden. Wenn die Pose eines Objektes in dem In a second step, a world model can be created from the three-dimensional map. It can be determined using image processing, where z. B. surfaces are located. Also, individual objects in the environment of the robot 10 can be recognized and their pose stored within the world model. When the pose of an object in the
Weltmodell gespeichert ist, ist es nicht notwendig, dass zum Greifen des Objekts, ein Perzeptionssystem eingesetzt wird. Vielmehr kann auf die gespeicherte Pose des Objekts zurückgegriffen werden. In dem Ausführungsbeispiel der Fig. 1 ist in unmittelbarer Nähe zu dem Roboter 10 eine Flasche 1 angeordnet. Die Flasche 1 befindet sich innerhalb des Arbeitsraums des Roboters 10, also in dem Bereich, in dem der Roboter 10 Objekte theoretisch greifen kann. Die Stereokamera 11 detektiert nun die Umrisse der Flasche 1. Um eine möglichst gute Wahrnehmung der Flasche 1 durch die Stereokamera 11 zu ermöglichen, kann der Roboter 10 derart verfahren werden, dass die Flasche 1 aus möglichst vielen Winkeln durch die Stereokamera 11 aufgenommen wird. Saved world model, it is not necessary for gripping the object, a perception system is used. Rather, the saved pose of the object can be used. In the exemplary embodiment of FIG. 1, a bottle 1 is arranged in the immediate vicinity of the robot 10. The bottle 1 is located within the working space of the robot 10, ie in the area in which the robot 10 can theoretically grasp objects. The stereo camera 11 now detects the contours of the bottle 1. In order to allow the best possible perception of the bottle 1 by the stereo camera 11, the robot 10 can be moved so that the bottle 1 is taken from as many angles through the stereo camera 11.
Zum Aufzeichnen einer Trainingsgreiferpose kann der Roboter 10 derart verfahren werden, dass die Flasche 1 durch den Greifer 20 gegriffen werden kann. Zum Aufzeichnen einer Trainingsgreiferpose kann der Roboter 10 z. B. über ein To record a training gripper pose, the robot 10 can be moved such that the bottle 1 can be gripped by the gripper 20. To record a training gripper pose, the robot 10 may e.g. B. over
Bedienteil, also eine Art Fernsteuerung, verfahren werden. In einem weiteren Ausführungsbeispiel handelt es sich bei dem Roboter 10 um einen Keypad, so a kind of remote control, procedure. In another embodiment, the robot 10 is a
drehmomentgeregelten Roboter, der in einem Gravitationskompensationsmodus handgeführt werden kann. Das Aufzeichnen der Trainingsgreiferpose erfolgt manuell durch einen Bediener. torque-controlled robot that can be hand-guided in a gravity compensation mode. The training gripper pose is recorded manually by an operator.
In den Fig. 2a und 2b wird kurz dargelegt, wie das Greifen eines Objekts 1 ausgeführt wird. Die Fig. 2a zeigt dabei den Greifer 20 in einer Anfahrtspose. Die Anfahrtspose wird üblicherweise in Bezug auf ein Objektkoordinatensystem 2 gespeichert. Das Objektkoordinatensystem 2 ist dabei dem zu greifenden In FIGS. 2a and 2b it is briefly explained how the gripping of an object 1 is carried out. Fig. 2a shows the gripper 20 in a Anfahrtspose. The approach pose is usually stored in relation to an object coordinate system 2. The object coordinate system 2 is the one to be gripped
Objekt 1 zugeordnet. Die Anfahrtspose umfasst dabei einen dreidimensionalen Vektor VI sowie drei Raumwinkel, die die Rotation um die von dem Object 1 assigned. The approaching pose comprises a three-dimensional vector VI as well as three solid angles, which rotate around that of the
Objektkoordinatensystem 2 vorgegebenen Raumachsen angeben. Der Vektor VI zeigt von dem Ursprung des Objektkoordinatensystem 2 zu dem sog.„tool center point" (TCP) des Greifers. Dies entspricht dem Ursprung eines Specify object coordinate system 2 given spatial axes. The vector VI points from the origin of the object coordinate system 2 to the so-called "tool center point" (TCP) of the gripper
Greiferkoordinatensystems. Durch das Verwenden einer Anfahrtspose ist sichergestellt, dass das Heranfahren des Greifers 20 vor dem Greifen kontrolliert ausgeführt wird und es zu keiner Kollision mit abstehenden Teilen des Objekts 1 kommt. Die Fig. 2b zeigt den Greifer 20 der Fig. 2a in einer Greiferpose, d.h. in einer Pose, in der das Objekt 1 gegriffen werden kann. Auch die Greiferpose des Greifers 20 ist bezüglich des Objektkoordinatensystems 2 gespeichert. Die Hand coordinate system. By using a Anfahrtspose is ensured that the approach of the gripper 20 is performed controlled before gripping and there is no collision with protruding parts of the object 1. Fig. 2b shows the gripper 20 of Fig. 2a in a gripper pose, i. in a pose in which the object 1 can be grasped. The gripper pose of the gripper 20 is also stored with respect to the object coordinate system 2. The
Greiferpose umfasst dabei den Vektor V2 sowie drei Raumwinkel. Auch der Vektor V2 zeigt von dem Ursprung des Objektkoordinatensystems 2 zu dem TCP des Greifers 20. Zum Greifen des Objekts 1 müssen in dem Ausführungsbeispiel der Fig. 2b lediglich die Greiferbacken des Greifers 20 zusammengedrückt werden. Zum Beispiel können die Greiferbacken solange zusammengedrückt werden, bis ein Schwellenkraftwert, z. B. 20 oder 50 Newton, überschritten ist. Nach dem Zugreifen durch den Greifer 20 kann das Objekt 1 durch ein Ändern der Gripper pose includes the vector V2 and three solid angles. The vector V2 also points from the origin of the object coordinate system 2 to the TCP of the gripper 20. In order to grasp the object 1, only the gripper jaws of the gripper 20 need be compressed in the embodiment of FIG. 2b. For example, the gripper jaws may be compressed until a threshold force value, e.g. B. 20 or 50 Newton, is exceeded. After accessing by the gripper 20, the object 1 can be changed by changing the
Roboterkonfiguration bewegt werden. Robot configuration to be moved.
Die Fig. 3, 4a und 4b zeigen, wie für ein Objekt 1 eine Vielzahl von Greiferposen P, P P" generiert werden kann. Zunächst wird in der Fig . 3 gezeigt, wie für ein Objekt 1 ein Objektprototyp bestimmt wird. Hierzu wird eine Vielzahl von unterschiedlichen Objektprototypen 30, 30\ 30" bereitgestellt. Im 3, 4a and 4b show how a plurality of gripper poses P, PP "can be generated for an object 1. First of all, it is shown in Fig. 3 how an object prototype is determined for an object 1. For this purpose, a multiplicity provided by different object prototypes 30, 30 \ 30 ". in the
Ausführungsbeispiel der Fig. 3 sind ein Zylinder 30, ein Quader 30λ und eine Sphäre 30" dargestellt. Embodiment of Fig. 3, a cylinder 30, a cuboid 30 λ and a sphere 30 "shown.
Die genaue Ausgestaltung der Objektprototypen 30, 30\ 30" kann über eine Vielzahl von Parametern festgelegt werden. So kann die Höhe des Zylinders 30 mittels des Parameters LI festgelegt werden. Der Radius des Zylinders kann mittels des Parameters Rl festgelegt werden. Auch der Quader 30λ kann mittels der Parameter L2, L3 und L4 in seinen Dimensionen festgelegt werden. Die Sphäre 30" kann über den Radius R2 festgelegt werden. The exact configuration of the object prototypes 30, 30 \ 30 "can be determined via a large number of parameters, such that the height of the cylinder 30 can be determined by means of the parameter LI The radius of the cylinder can be defined by means of the parameter R1 λ can be defined in its dimensions by means of the parameters L2, L3 and L4 The sphere 30 "can be defined via the radius R2.
Um einen Objektprototyp 30, 30\ 30" für die Flasche 1 auszuwählen, werden die Parameter LI bis L4 und Rl, R2 derart verändert, dass ein maximales Volumen der Objektprototypen 30, 30\ 30" durch die Flasche 1 ausgefüllt wird. Die Flasche 1 wird also in die Objektprototypen 30, 30\ 30" hineingelegt. Dies kann über bekannte Optimierungsverfahren ausgeführt werden. Der Objektprototyp, der das größte Volumen der Flasche 1 ausfüllt und gleichzeitig die Flasche 1 komplett einschließt, wird als Objektprototyp für die Flasche 1 ausgewählt. Im dargestellten Ausführungsbeispiel der Fig. 3 wird daher der Zylinder 30 für die Flasche 1 als Objektprototyp ausgewählt. In order to select an object prototype 30, 30 \ 30 "for the bottle 1, the parameters LI to L4 and Rl, R2 are changed so that a maximum volume of the object prototypes 30, 30 \ 30" through the bottle 1 is filled. The bottle 1 is thus placed in the object prototypes 30, 30 \ 30 "This can be carried out by known optimization methods The object prototype, which fills the largest volume of the bottle 1 and at the same time completely encloses the bottle 1, becomes an object prototype for the bottle 1 In the illustrated embodiment of Fig. 3, therefore, the cylinder 30 for the bottle 1 is selected as an object prototype.
Die Objektprototypen 30, 30\ 30" der Fig . 3 verfügen über Symmetrien, die anhand von Symmetrieachsen S festlegbar sind. In der Fig. 4a ist die The object prototypes 30, 30 \ 30 "of Fig. 3 have symmetries which can be determined by means of symmetry axes S. In Fig. 4a, the
Symmetrieachse S für den Zylinder 30 dargestellt. Ein Zylinder ist Symmetry axis S for the cylinder 30 shown. A cylinder is
rotationssymmetrisch um die Symmetrieachse S aufgebaut. Die Symmetrie wird im Folgenden zur Generierung einer Vielzahl möglicher Greiferposen Ρλ, P" zum Greifen des Zylinders 30 verwendet. constructed rotationally symmetrical about the symmetry axis S. The symmetry is used in the following to generate a multiplicity of possible gripper poses Ρ λ , P "for gripping the cylinder 30.
Dazu zeigt die Fig . 4b eine Greiferpose P eines Greifers, welche durch einen Bediener mittels des Roboters 10 manuell erstellt worden ist. Unter Verwendung der Symmetrieachse S können nun weitere Greiferposen Ρλ, P" generiert werden. Dazu wird die Greiferpose P mittels einer Transformationsmatrix um das Zentrum des Zylinders 30 in einer Draufsicht herum rotiert. Auf diese Art und Weise kann in beliebigen Winkelabständen, z. B. alle 1 Grad, alle 5 Grad oder alle 10 Grad, eine Greiferpose P\ P" generiert werden. Selbstverständlich kann jedem For this purpose, FIG. FIG. 4 b shows a gripper pose P of a gripper which has been manually created by an operator by means of the robot 10. Under use the axis of symmetry S can further gripper poses Ρ be generated λ, P "now. For this purpose the Greiferpose P is rotated by means of a transformation matrix to the center of the cylinder 30 in a plan view around. In this manner, as can in any angular intervals, e.g., every 1 degree, every 5 degrees or every 10 degrees, a gripper pose P \ P "be generated. Of course everyone can
Objektprototypen 30, 30\ 30" eine Vielzahl von Symmetrieachsen S zugewiesen werden, so dass eine sehr große Anzahl von Greiferposen Ρλ, P" generiert werden kann. So ist es möglich, dass für eine aufgezeichnete Greiferpose P zum Greifen der Flasche 1 eine Vielzahl von weiteren Greiferposen Ρλ, P", generiert werden, die ebenfalls zum Greifen der Flasche 1 geeignet sind. Object prototypes 30, 30 \ 30 "a plurality of axes of symmetry S are assigned, so that a very large number of gripper poses Ρ λ , P" can be generated. It is thus possible for a recorded gripper pose P for gripping the bottle 1 to generate a multiplicity of further gripper poses Ρ λ , P ", which are likewise suitable for gripping the bottle 1.
Die aufgezeichnete Greiferpose P sowie die generierten Greiferpose P\ P" werden anschließend in einer Objektdatenbank 40 gespeichert. Fig . 5 zeigt eine schematische Darstellung einer Tabelle 41 der Objektdatenbank 40. Die The recorded gripper pose P and the generated gripper pose P \ P "are then stored in an object database 40. Fig. 5 shows a schematic representation of a table 41 of the object database 40. The
Datenbanktabelle 41 umfasst die Spalten„Objekt",„Greifer",„PoseAnfahr", „PoseGr." und„F". Die Spalte„Objekt" enthält Identifikationsnummern, die Objekten 1, zugeordnet sind . Dabei kann es sich beispielsweise um die Database table 41 includes the columns "Object", "Gripper", "PoseStart", "PoseGr." and "F". The column "object" contains identification numbers associated with objects 1. These may be, for example, the
Identifikationsnummer in einer weiteren Datenbanktabelle handeln, in der Objektbeschreibungen abgelegt sind . Jede Zeile der Datenbanktabelle 41 entspricht einer Greiferpose. Dabei wird zu jeder Greiferpose P2, P4 der verwendete Greifer gespeichert. In dem gezeigten Ausführungsbeispiel ist in beiden Tabellenzeilen ein Parallelgreifer als Greifertyp gespeichert. Darüber hinaus wird zu den Greiferposen P2, P4 jeweils eine zugehörige Anfahrtspose PI, P3 gespeichert. Die zugehörigen Anfahrtsposen PI, P3 können wie die Identification number act in another database table, are stored in the object descriptions. Each row of the database table 41 corresponds to a gripper pose. In this case, the gripper used is stored for each gripper pose P2, P4. In the embodiment shown, a parallel gripper is stored as a gripper type in both rows of the table. In addition to the gripper poses P2, P4 each an associated Anfahrtspose PI, P3 is stored. The associated approach positions PI, P3 can like the
Greiferposen der Fig. 4b durch Ausnutzung von Symmetrieachsen generiert werden. Die Greiferposen P2, P4 entsprechen entweder aufgezeichneten Gripper poses of Fig. 4b are generated by exploiting symmetry axes. The gripper poses P2, P4 correspond to either recorded
Greiferposen P oder generierten Greiferposen P P". Zusätzlich zu den Gripper poses P or generated gripper poses P P ". In addition to the
Greiferposen P2, P4 kann auch noch optional ein Kraftwert F gespeichert werden, der angibt, mit welcher Kraft die Backen des verwendeten Parallelgreifers gegen das zu hebende Objekt 1 drücken sollen. Gripper poses P2, P4 can also optionally a force value F are stored, indicating the force with which the jaws of the parallel gripper used to press against the object to be lifted 1.
Die Fig. 6 zeigt ein Ausführungsbeispiel, bei dem die Objektdatenbank 40 zum Greifen eines Objekts verwendet wird . Die Fig. 6 zeigt einen Roboter 10 mit einer Stereokamera 11 sowie einem Greifer 20. Der Roboter 10 umfasst ferner eine Steuereinrichtung 12, die die Steuerung des Roboters ausführt. Neben dem Roboter 10 angeordnet ist eine Flasche dargestellt. In einem ersten Schritt erkennt die Stereokamera 11 das zu greifende Objekt als eine Flasche. Die erkannte Flasche kann einem Objekttyp zugeordnet werden. Anschließend wird aus der Objektdatenbank 40 eine Vielzahl von Kandidatenposen 52 abgefragt werden. Hierzu kommuniziert die Steuerung 12 über ein Netzwerk oder lokal mit der Objektdatenbank 40. Zur Abfrage sendet die Steuerung 12 eine Fig. 6 shows an embodiment in which the object database 40 is used to grasp an object. 6 shows a robot 10 with a stereo camera 11 and a gripper 20. The robot 10 further comprises a control device 12, which executes the control of the robot. Arranged next to the robot 10 is a bottle. In a first step, the stereo camera 11 recognizes the object to be gripped as a bottle. The recognized bottle can be assigned to an object type. Subsequently, will from the object database 40 a plurality of candidate poses 52 are queried. For this purpose, the controller 12 communicates via a network or locally with the object database 40. For the query, the controller 12 sends a
Identifikationsnummer, die der erkannten Flasche zugeordnet ist. Unter Verwendung der übermittelten Identifikationsnummer werden jene Identification number associated with the recognized bottle. Using the transmitted identification number, those become
Kandidatenposen P2, P4 ausgewählt, die mit dem erkannten Objekt kompatibel sind. Nachdem die Kandidatenposen P2, P4 durch die Steuereinrichtung 12 empfangen wurden, werden diese unter Verwendung einer Fähigkeitskarte gefiltert. Dabei werden jene Kandidatenposen aussortiert, die nicht erreicht werden können. Darüber hinaus findet eine Sortierung statt, die auch unter Verwendung der Fähigkeitskarte ausgeführt wird. Die Reihenfolge der Candidate poses P2, P4 selected that are compatible with the detected object. After the candidate poses P2, P4 have been received by the controller 12, they are filtered using a skill card. In the process, those candidate poses are sorted out that can not be reached. In addition, a sorting takes place, which is also performed using the skill card. The order of
Greiferposen wird durch die Anzahl der Richtungen bestimmt, aus denen die den Greiferposen zugeordneten Koordinaten erreicht werden können. Gripper poses are determined by the number of directions from which the coordinates associated with the gripper poses can be reached.
Auf der Steuereinrichtung 12 ist darüber hinaus ein Pfadplaner implementiert, der den Pfad des Roboters 10 von der aktuellen Konfiguration in die On the control device 12, a path planner is also implemented which maps the path of the robot 10 from the current configuration into the
Zielkonfiguration, die einer ersten Kandidatenpose entspricht, berechnet. Kann der Pfadplaner einen Pfad von der aktuellen Roboterkonfiguration zu der Target configuration corresponding to a first candidate pose. Can the path planner pick a path from the current robot configuration to the
Zielroboterkonfiguration berechnen, so wird die erste Kandidatenpose zum Calculate target robot configuration, the first candidate pose becomes
Greifen des Objekts verwendet. Kann der Pfadplaner keinen Pfad berechnen, weil beispielsweise ein weiteres Objekt den Pfad versperrt, so wird die nächste Kandidatenpose in der sortierten Liste der Kandidatenposen ausgewählt. Dieses Verfahren wird solange ausgeführt, bis eine Kandidatenpose P2, P4 gefunden ist, für die der Pfadplaner einen Pfad berechnen kann. Used to grab the object. If the path planner can not calculate a path because, for example, another object obstructs the path, then the next candidate pose is selected in the sorted list of candidate poses. This process is carried out until a candidate pose P2, P4 is found for which the path planner can calculate a path.
Das beschriebene Verfahren dieser Anmeldung ist im Flussdiagramm der Fig. 7 noch einmal zusammengefasst. The described method of this application is summarized in the flowchart of FIG. 7 again.
Im ersten Schritt Sl werden Videodaten 51 analysiert, um Objekte 1, Tin der Umgebung des Roboters 10 zu identifizieren. Bekannte Objekte 1, sind zusammen mit Objektmerkmalen in der Objektdatenbank 40 gespeichert. Unter Verwendung der Objektmerkmale wird ein Perzeptionsalgorithmus ausgewählt, der zur Erkennung des Objekts 1, eingesetzt wird. Es wird nun für das erste bekannte Objekt der Objektdatenbank 40 begonnen zu ermitteln, ob das Objekt in den Videodaten 51 erkennbar ist. Ist das Objekt nicht erkennbar, so wird mit dem zweiten Objekt aus der Objektdatenbank 40 fortgefahren. Evtl. wird für das zweite Objekt ein anderer Perzeptionsalgorithmus verwendet als für das erste Objekt. Wird festgestellt, dass das zweite Objekt der Objektdatenbank 40 in den Videodaten 51 erkennbar ist, ist der Schritt Sl beendet. Die resultierenden Objektdaten 52 werden im Schritt S2 verwendet, um für das erkannte Objekt aus der Objektdatenbank 40 eine Liste von Kandidatenposen P2, P4 abzufragen. In the first step Sl, video data 51 is analyzed to identify objects 1, Tin of the environment of the robot 10. Known objects 1, are stored together with object features in the object database 40. Using the object features, a perception algorithm is selected which is used to identify the object 1. It is now started for the first known object of the object database 40 to determine whether the object is recognizable in the video data 51. If the object is not recognizable, the second object from object database 40 is continued. Possibly. For the second object, a different perception algorithm is used than for the first object. It is determined that the second object of the object database 40 in the Video data 51 is recognizable, the step S1 is completed. The resulting object data 52 are used in step S2 to query for the detected object from the object database 40 a list of candidate poses P2, P4.
Die Liste der Kandidatenposen 53 wird im Schritt S3 unter Verwendung einer Fähigkeitskarte eines Roboters 10 gefiltert. Dabei werden jene Kandidatenposen entfernt, die sich mit dem verwendete Roboter 10 oder Greifer 20 nicht erreichen lassen. Darüber hinaus wird die Liste der Kandidatenposen 53 unter Verwendung der Fähigkeitskarte 54 sortiert. Die Liste der Kandidatenposen 53 wird ferner unter Verwendung von benutzerdefinierten Kriterien sortiert. Z. B. wird die zu den Kandidatenposen gespeicherte Greifart bei der Sortierung berücksichtigt. Hat ein Benutzer angegeben, dass bei Verwendung eines Mehrfingergreifers ein The list of candidate poses 53 is filtered in step S3 using a capability map of a robot 10. In the process, those candidate poses are removed which can not be reached with the robot 10 or gripper 20 used. In addition, the list of candidate poses 53 is sorted using the skill card 54. The list of candidate poses 53 is further sorted using user-defined criteria. For example, the gripping type stored for the candidate poses is taken into account in the sorting. Has a user indicated that when using a multi-finger gripper a
Fingergreifen zu bevorzugen ist, so wird die Liste der Kandidatenposen 53 entsprechend sortiert. Fingergrip is to be preferred, the list of candidate poses 53 is sorted accordingly.
Die sortierte Liste von Kandidatenposen 55 wird im Schritt S4 zusammen mit einem Weltmodell 56, welches die Posen von Objekten in der Umgebung des Roboters 10 umfasst, zur Generierung eines Pfades für den Roboter 10 The sorted list of candidate poses 55 is combined with a world model 56, which includes the poses of objects in the environment of the robot 10, to generate a path for the robot 10 in step S4
verwendet. Zur Pfadplanung wir die Inverskinematik des verwendeten Roboters 10 berücksichtigt, die die Roboterkonfiguration, also die Gelenkwinkel, bei Kenntnis der Pose des Greifers 20 angibt. Darüber hinaus wird bei der used. For path planning we take into account the inverse kinematics of the robot 10 used, which indicates the robot configuration, ie the joint angles, when the position of the gripper 20 is known. In addition, at the
Pfadplanung eine Kollisionsprüfung ausgeführt, wobei Objekte, die im Weltmodell 56 gespeichert sind, bei der Pfadplanung berücksichtigt werden. Wird im Schritt S5 festgestellt, dass kein Pfad für die erste Kandidatenpose der Liste ermittelt werden kann, so wird eine erneute Pfadplanung mit der nächsten Kandidatenpose der Liste gestartet. Das Verfahren wiederholt sich solange, bis in Schritt S5 festgestellt wird, dass ein Roboterpfad 57 berechnet werden kann. Im Schritt S6 wird dann der Roboter 10 unter Verwendung des Roboterpfads 57 verfahren. Path planning performed a collision check, with objects that are stored in the world model 56 are taken into account in the path planning. If it is determined in step S5 that no path for the first candidate pose of the list can be determined, a new path planning is started with the next candidate pose of the list. The process repeats until it is determined in step S5 that a robot path 57 can be calculated. In step S6, the robot 10 is then moved using the robot path 57.
An dieser Stelle sei darauf hingewiesen, dass alle oben beschriebenen Teile für sich alleine gesehen und in jeder Kombination, insbesondere die in den It should be noted at this point that all parts described above, taken alone and in any combination, especially in the
Zeichnungen dargestellten Details, als erfindungswesentlich beansprucht werden. Abänderungen hiervon sind dem Fachmann geläufig. Drawings shown details are claimed as essential to the invention. Variations thereof are familiar to the person skilled in the art.
Bezuqszeichenliste: LIST OF REFERENCES:
1 Objekt, Flasche 1 object, bottle
2 Objektkoordinatensystem 10 Roboter 2 object coordinate system 10 robots
11 3D-Kamera  11 3D camera
12 Steuereinrichtung  12 control device
20 Parallelgreifer 20 parallel grippers
30, 30\ 30" Objektprototyp 30, 30 \ 30 "object prototype
40 Objektdatenbank  40 object database
41 Datenbanktabelle  41 database table
51 Videodaten  51 video data
52 Objektdaten  52 object data
53 Liste von Kandidatenposen  53 List of candidate poses
54 Fähigkeitskarte  54 skill card
55 sortierte Liste von Kandidatenposen 55 sorted list of candidate poses
56 Weltmodel 56 world model
57 Roboterpfad  57 robot path
LI, L2, L3, L4 Länge LI, L2, L3, L4 length
Tl, T2, T3 Radius  T1, T2, T3 radius
P, Ρλ Kandidatenpose P, Ρ λ candidate pose
PI, P3 Anfahrpose  PI, P3 start-up pose
P2, P4 Greiferpose  P2, P4 gripper pose
VI, V2 Vektor  VI, V2 vector
F Kraftangabe  F force
S Symmetrieachse  S symmetry axis
S1-S6 Verfahrensschritte  S1-S6 process steps

Claims

Ansprüche claims
1. Verfahren zur Erstellung einer Datenbank (40) mit Greiferposen, Folgendes umfassend : A method of creating a database (40) with gripper poses comprising:
a. Speichern, insbesondere durch Aufzeichnen, mindestens einer  a. Save, in particular by recording, at least one
Trainingsgreiferpose (P, P2, P4) zum Greifen eines Trainingsobjekts (1), insbesondere bezüglich eines dem Trainingsobjekt (1) zugeordneten Trainingsobjektkoordinatensystems (2);  Trainingsgreiferpose (P, P2, P4) for gripping a training object (1), in particular with respect to a training object (1) associated training object coordinate system (2);
b. Generieren mindestens einer weiteren Greiferpose (P\ P") für das  b. Generate at least one further gripper pose (P \ P ") for the
Trainingsobjekt (1) unter Verwendung mindestens eines  Training object (1) using at least one
Objektprototypen (30, 30\ 30") und der Trainingsgreiferpose (P, P2, P4);  Object prototypes (30, 30 \ 30 ") and the training gripper pose (P, P2, P4);
c. Speichern der mindestens einen weiteren Greiferpose (Ρλ) und der c. Storing the at least one further gripper pose (Ρ λ ) and the
Trainingsgreiferpose (P, P2, P4) mit einem Bezug zu dem  Trainingsgreiferpose (P, P2, P4) with respect to the
Trainingsobjekt (1) in der Datenbank (40), insbesondere in einer Objektdatenbank (40).  Training object (1) in the database (40), in particular in an object database (40).
2. Verfahren zum Steuern eines Roboters (10), Folgendes aufweisend : A method of controlling a robot (10), comprising:
- Durchführen der Schritte des Verfahrens nach Anspruch 1 zum Erstellen der Datenbank (40);  Performing the steps of the method of claim 1 for creating the database (40);
- Abfragen mindestens einer Pose (P, P\ P", P2, P4) aus der  - Querying at least one pose (P, P \ P ", P2, P4) from the
Objektdatenbank (40);  Object database (40);
- Steuern des Roboters (10) unter Verwendung der mindestens einen Pose (P, P\ P", P2, P4).  - Controlling the robot (10) using the at least one pose (P, P \ P ", P2, P4).
3. Verfahren nach einem der vorhergehenden Ansprüche, 3. The method according to any one of the preceding claims,
d a d u rc h g e ke n n ze i c h n et , d a s s  d a d u rc h e e n c i n e s, d a s s
eine Pose (P, P\ P", PI, P2, P3, P4), insbesondere die Trainingsgreiferpose (P, P2, P4), als ein sechs-Tupel repräsentiert wird, das drei  a pose (P, P \ P ", PI, P2, P3, P4), in particular the exercise gripper pose (P, P2, P4), is represented as a six-tuple, the three
Raumkoordinaten und drei Winkel bezogen auf ein dem Trainingsobjekt (1) zugeordnetes Trainingsobjektkoordinatensystem (2) aufweist.  Spatial coordinates and three angles with respect to a the training object (1) associated training object coordinate system (2).
4. Verfahren nach einem der vorhergehenden Ansprüche 4. The method according to any one of the preceding claims
g e ke n n ze i c h n et d u r c h  marked by
ein Auswählen des mindestens einen Objektprototypen (30, 30\ 30") aus einer Menge von Kandidatenprototypen (30, 30\ 30"). selecting the at least one object prototype (30, 30 \ 30 ") from a set of candidate prototypes (30, 30 \ 30").
5. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 3, 5. The method according to any one of the preceding claims, in particular according to claim 3,
dadurch gekennzeichnet, dass  characterized in that
die Menge von Kandidatenprototypen (30, 30\ 30")  the set of candidate prototypes (30, 30 \ 30 ")
- einen Zylinder (30);  a cylinder (30);
- eine Sphäre (30");  a sphere (30 ");
- einen Quader (30λ); - a cuboid (30 λ );
- einen Kegel;  - a cone;
- einen Kegelstumpf; und/oder  - a truncated cone; and or
- eine Pyramide  - a pyramid
umfasst.  includes.
6. Verfahren nach einem der vorhergehenden Ansprüche, 6. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass  characterized in that
dem mindestens einen Objektprototyp (30, 30\ 30") mindestens eine Symmetrieachse (S) zugeordnet ist, wobei eine Vielzahl von Greiferposen (Ρλ, P") unter Berücksichtigung der mindestens einen Symmetrieachse (S) generiert wird, insbesondere durch Rotation um die mindestens eine Symmetrieachse, bevorzugt unter Verwendung einer at least one symmetry axis (S) is assigned to the at least one object prototype (30, 30 \ 30 "), a multiplicity of gripper poses (Ρ λ , P") being generated taking into account the at least one symmetry axis (S), in particular by rotation around the axis at least one axis of symmetry, preferably using a
Transformationsmatrix, wobei die Vielzahl von Greiferposen (Ρλ, P") jeweils gespeichert werden. Transformation matrix, wherein the plurality of gripper poses (Ρ λ , P ") are stored respectively.
7. Verfahren nach einem der vorhergehenden Ansprüche, 7. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass  characterized in that
die Trainingsgreiferpose (P, P2, P4) und die weitere mindestens eine Greiferpose (P\ P") jeweils mit einer Objektidentifikationsnummer gespeichert werden, die dem Trainingsobjekt (1) zugeordnet ist.  the training gripper pose (P, P2, P4) and the further at least one gripper pose (P \ P ") are each stored with an object identification number associated with the training object (1).
8. Verfahren nach einem der vorhergehenden Ansprüche, 8. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass  characterized in that
das Speichern ein Speichern von Greifparametern zusammen mit den Posen in einer/der Objektdatenbank (40) umfasst, insbesondere  the storing comprises storing gripping parameters together with the poses in an object database (40), in particular
Greiferinformationen, eine Greifart, eine Qualitätsangabe, eine Kraft (F), eine Greifstrategie und/oder eine Greifbeschreibung. Gripper information, a gripping type, a quality indication, a force (F), a gripping strategy and / or a grip description.
9. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch 9. The method according to any one of the preceding claims, characterized by
ein Identifizieren des Trainingsobjekts (1), insbesondere mittels eines Perzeptionssystems (11), z.B. mittels einer Stereokamera (11).  identifying the training object (1), in particular by means of a perception system (11), e.g. by means of a stereo camera (11).
10. Verfahren nach einem der vorhergehenden Ansprüche, 10. The method according to any one of the preceding claims,
insbesondere nach Anspruch 9,  in particular according to claim 9,
gekennzeichnet durch  marked by
ein Speichern von Objektmerkmalen zum Erkennen des Trainingsobjekts (1), insbesondere von Ecken und/oder Kanten des Trainingsobjekts (1), vorzugsweise derart, dass Posen den Objektmerkmalen zuordenbar sind.  storing object features for recognizing the training object (1), in particular corners and / or edges of the training object (1), preferably such that poses can be assigned to the object features.
11. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 9 oder 10, 11. The method according to any one of the preceding claims, in particular according to claim 9 or 10,
gekennzeichnet durch  marked by
- ein Identifizieren eines zu greifenden Zielobjekts ( ), insbesondere einer dem Zielobjekt ( ) zugeordneten Objektidentifikationsnummer; - Identifying a target object to be gripped (), in particular an object identification number associated with the target object (12);
- ein Bestimmen einer Zielgreiferpose (P2, P4), die dem Zielobjekt ( ) zuordenbar ist; - determining a Zielgreiferpose (P2, P4), which is the target object () assignable;
- ein Greifen des Zielobjekts ( ) unter Verwendung der Zielgreiferpose (P2, P4), insbesondere durch einen Endeffektor (20), z.B. einem Parallelgreifer (20), eines Roboters (10).  - gripping the target object (12) using the target gripper pose (P2, P4), in particular by an end effector (20), e.g. a parallel gripper (20), a robot (10).
12. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 11, 12. The method according to any one of the preceding claims, in particular according to claim 11,
dadurch gekennzeichnet, dass  characterized in that
das Bestimmen das Auslesen einer Vielzahl von Kandidatenposen (P2, P4) umfasst, insbesondere aus einer/der Objektdatenbank (40), wobei das Auslesen unter Berücksichtigung einer Erreichbarkeitskarte und/oder einer Fähigkeitskarte eines Roboters (10) durchgeführt wird.  the determining comprises reading out a plurality of candidate poses (P2, P4), in particular from an object database (40), wherein the reading is performed in consideration of a reachability map and / or a capability map of a robot (10).
13. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 11 13. The method according to any one of the preceding claims, in particular according to claim 11
dadurch gekennzeichnet, dass  characterized in that
das Bestimmen ein Sortieren einer/der Vielzahl von Kandidatenposen (P2, P4) umfasst, wobei das Sortieren unter Berücksichtigung der  the determining comprises sorting one or more candidate poses (P2, P4), the sorting taking into account the
Fähigkeitskarte durchgeführt wird. Skill card is performed.
14. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 10 14. The method according to any one of the preceding claims, in particular according to claim 10
g e ke n n ze i c h n et d u r c h  marked by
eine Bewegungsplanung zum Bewegen eines Roboters (10) von einer Ausgangskonfiguration in einer Zielkonfiguration, wobei die  a motion planning for moving a robot (10) from an initial configuration in a target configuration, wherein the
Zielkonfiguration einer/der Zielgreiferpose (P2, P4) zugeordnet ist.  Target configuration of a Zielgreiferpose (P2, P4) is assigned.
15. Computerlesbares Speichermedium, welches Instruktionen enthält, die mindestens einen Prozessor dazu veranlassen ein Verfahren nach einem der vorhergehenden Ansprüche zu implementieren, wenn die Instruktionen durch den mindestens einen Prozessor ausgeführt werden. A computer readable storage medium containing instructions that cause at least one processor to implement a method as claimed in any one of the preceding claims when the instructions are executed by the at least one processor.
16. Handhabungssystem, umfassend : 16. Handling system comprising:
- eine Objektdatenbank (40), insbesondere eine Objektdatenbank (40), die nach einem der Ansprüche 1 bis 14 erstellt ist;  - An object database (40), in particular an object database (40), which is created according to one of claims 1 to 14;
- einen Roboter (10), der dazu ausgebildet ist, ein Objekt (1, ) zu  - A robot (10) which is adapted to an object (1,) to
greifen;  to grab;
- ein Perzeptionssystem (11) zur Erfassung des Objekts (1, ), das  - A perception system (11) for detecting the object (1,), the
insbesondere an dem Roboter (10) angeordnet ist,  is arranged in particular on the robot (10),
wobei der Roboter (10) dazu ausgebildet ist,  wherein the robot (10) is designed to
- unter Verwendung des erfassten Objekts (1, ) eine Vielzahl von  - using the detected object (1,) a plurality of
Kandidatenposen (P2, P4) aus der Objektdatenbank (40) abzufragen; Query candidate poses (P2, P4) from the object database (40);
- die Vielzahl von Kandidatenposen (P2, P4) zu filtern, insbesondere unter Verwendung einer Erreichbarkeitskarte und/oder einer to filter the plurality of candidate poses (P2, P4), in particular using a reachability map and / or a
Fähigkeitskarte, um eine Zielgreiferpose (P2, P4) zu bestimmen;  Skill card to determine a target gripper pose (P2, P4);
- eine Roboterkonfiguration entsprechend der Zielgreiferpose (P2, P4) einzustellen.  - Set a robot configuration according to the Zielgreiferpose (P2, P4).
PCT/EP2018/060264 2017-04-21 2018-04-23 Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system WO2018193130A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18719839.5A EP3612355A1 (en) 2017-04-21 2018-04-23 Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102017108517 2017-04-21
DE102017108517.3 2017-04-21
DE102017108727.3 2017-04-24
DE102017108727.3A DE102017108727B4 (en) 2017-04-24 2017-04-24 Method for creating a database with gripper poses, method for controlling a robot, computer-readable storage medium and handling system

Publications (1)

Publication Number Publication Date
WO2018193130A1 true WO2018193130A1 (en) 2018-10-25

Family

ID=62046918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/060264 WO2018193130A1 (en) 2017-04-21 2018-04-23 Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system

Country Status (2)

Country Link
EP (1) EP3612355A1 (en)
WO (1) WO2018193130A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111504328A (en) * 2020-05-22 2020-08-07 梅卡曼德(北京)机器人科技有限公司 Robot motion planning method, path planning method, grabbing method and device
CN112633187A (en) * 2020-12-28 2021-04-09 山东电子职业技术学院 Robot automatic handling method and system based on image analysis and storage medium
JPWO2020188660A1 (en) * 2019-03-15 2021-10-14 オムロン株式会社 Gripping position / posture registration device, gripping position / posture registration method and program
CN113538459A (en) * 2021-07-07 2021-10-22 重庆大学 Multi-mode grabbing obstacle avoidance detection optimization method based on drop point area detection
CN114683251A (en) * 2022-03-31 2022-07-01 上海节卡机器人科技有限公司 Robot grabbing method and device, electronic equipment and readable storage medium
WO2022227726A1 (en) * 2021-04-29 2022-11-03 北京三一智造科技有限公司 Drill rod mounting and dismounting control method and device, and drill rod mounting and dismounting apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2461959A (en) * 2008-07-22 2010-01-27 Recognition Robotics Inc A visual guidance and work piece recognition system for a manipulator
US20110010009A1 (en) * 2008-03-10 2011-01-13 Toyota Jidosha Kabushiki Kaisha Action teaching system and action teaching method
EP3020516A2 (en) * 2014-11-13 2016-05-18 KUKA Roboter GmbH Determination of object-related grip areas by means of a robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110010009A1 (en) * 2008-03-10 2011-01-13 Toyota Jidosha Kabushiki Kaisha Action teaching system and action teaching method
GB2461959A (en) * 2008-07-22 2010-01-27 Recognition Robotics Inc A visual guidance and work piece recognition system for a manipulator
EP3020516A2 (en) * 2014-11-13 2016-05-18 KUKA Roboter GmbH Determination of object-related grip areas by means of a robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PORGES 0.; STOURAITIS T.; BORST C.; ROA M.A.: "ROBOT2013: First Iberian Robotics Conference. Advances in Intelligent Systems and Computing", vol. 253, 2014, SPRINGER, article "Reachability and Capability Analysis for Manipulation Tasks"

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020188660A1 (en) * 2019-03-15 2021-10-14 オムロン株式会社 Gripping position / posture registration device, gripping position / posture registration method and program
EP3831546A4 (en) * 2019-03-15 2022-03-23 OMRON Corporation Grasping position and orientation registration device, grasping position and orientation registration method, and program
JP7164011B2 (en) 2019-03-15 2022-11-01 オムロン株式会社 Gripping position/orientation registration device, gripping position/orientation registration method, and program
CN111504328A (en) * 2020-05-22 2020-08-07 梅卡曼德(北京)机器人科技有限公司 Robot motion planning method, path planning method, grabbing method and device
CN114061580A (en) * 2020-05-22 2022-02-18 梅卡曼德(北京)机器人科技有限公司 Robot grabbing method and device based on symmetry degree, electronic equipment and medium
CN114061580B (en) * 2020-05-22 2023-12-29 梅卡曼德(北京)机器人科技有限公司 Robot grabbing method and device based on symmetry degree, electronic equipment and medium
CN111504328B (en) * 2020-05-22 2022-07-08 梅卡曼德(北京)机器人科技有限公司 Robot motion planning method, path planning method, grabbing method and device
CN112633187B (en) * 2020-12-28 2023-05-05 山东电子职业技术学院 Automatic robot carrying method, system and storage medium based on image analysis
CN112633187A (en) * 2020-12-28 2021-04-09 山东电子职业技术学院 Robot automatic handling method and system based on image analysis and storage medium
WO2022227726A1 (en) * 2021-04-29 2022-11-03 北京三一智造科技有限公司 Drill rod mounting and dismounting control method and device, and drill rod mounting and dismounting apparatus
CN113538459A (en) * 2021-07-07 2021-10-22 重庆大学 Multi-mode grabbing obstacle avoidance detection optimization method based on drop point area detection
CN113538459B (en) * 2021-07-07 2023-08-11 重庆大学 Multimode grabbing obstacle avoidance detection optimization method based on drop point area detection
CN114683251A (en) * 2022-03-31 2022-07-01 上海节卡机器人科技有限公司 Robot grabbing method and device, electronic equipment and readable storage medium

Also Published As

Publication number Publication date
EP3612355A1 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
DE102017108727B4 (en) Method for creating a database with gripper poses, method for controlling a robot, computer-readable storage medium and handling system
WO2018193130A1 (en) Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system
DE102015208584B4 (en) Gripping device and gripping method
DE102018116053B4 (en) Robot system and robot learning method
DE102014102943B4 (en) Robot system with functionality for determining the location of a 3D box
DE102015001527B4 (en) Robot system using visual feedback
DE112017002498B4 (en) ROBOT OPERATION EVALUATION DEVICE, ROBOT OPERATION EVALUATION METHOD AND ROBOT SYSTEM
DE60205300T2 (en) Device for avoiding collisions
DE102012007254B4 (en) A method and apparatus for predicting a disability between a target part of a robot and a peripheral object
DE102015000587B4 (en) A robot programming device for creating a robot program for taking an image of a workpiece
DE102016122678B4 (en) Workpiece position / posture calculation system and handling system
EP3020516B1 (en) Determination of object-related grip areas by means of a robot
DE102021121063A1 (en) EFFICIENT DATA GENERATION FOR LEARNING TO GRIP WITH GENERAL GRIPPERS
DE112019000097B4 (en) Control device, working robot, program and control method
DE102016001174A1 (en) Robot system for removing workpieces with position and orientation conversion function and process for removing workpieces
WO2020225229A1 (en) Machine learning an object detection process using a robot-guided camera
DE102015111080A1 (en) Robotic device with machine vision
DE112018007727B4 (en) robotic system
DE102021205324A1 (en) Industrial robot gripping method and device, computer storage medium and industrial robot
EP3323565B1 (en) Method and device for commissioning a multiple axis system
DE112018007729B4 (en) Machine learning device and robotic system equipped with same
EP3702108A1 (en) Method for determining a gripping position for gripping a workpiece
DE102017213658A1 (en) Handling arrangement with a handling device for performing at least one work step and method and computer program
DE102015214857A1 (en) Method and system for creating a three-dimensional model of a production environment
DE112017007903T5 (en) HOLDING POSITION AND ORIENTATION TEACHING DEVICE, HOLDING POSITION AND ORIENTATION TEACHING METHOD AND ROBOT SYSTEM

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18719839

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018719839

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018719839

Country of ref document: EP

Effective date: 20191121