EP3612355A1 - Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem - Google Patents

Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem

Info

Publication number
EP3612355A1
EP3612355A1 EP18719839.5A EP18719839A EP3612355A1 EP 3612355 A1 EP3612355 A1 EP 3612355A1 EP 18719839 A EP18719839 A EP 18719839A EP 3612355 A1 EP3612355 A1 EP 3612355A1
Authority
EP
European Patent Office
Prior art keywords
gripper
robot
pose
database
poses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP18719839.5A
Other languages
English (en)
French (fr)
Inventor
Maximo Alejandro ROA GARZON
Monika FLOREK-JASINSKA
Christian Emmerich
Elena Francesca GAMBARO
Annett STELZER
Michael Suppa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RoboCeption GmbH
Original Assignee
RoboCeption GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102017108727.3A external-priority patent/DE102017108727B4/de
Application filed by RoboCeption GmbH filed Critical RoboCeption GmbH
Publication of EP3612355A1 publication Critical patent/EP3612355A1/de
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements

Definitions

  • the invention relates to a method for creating a database with
  • Gripper poses a method for controlling a robot, a corresponding computer-readable storage medium and a handling system.
  • Modern handling systems such as multi-axis robots, serve to transport objects from a first location to a second location. For this purpose it is necessary that the robot grips the object by means of a gripper and holds it securely so that it does not fall down during the transport.
  • the objects to be gripped are always in the same place with the same orientation, so that a gripping needs to be programmed only once and then can be executed repeatedly.
  • the objects may be on
  • robotic systems have perception systems, e.g. B. on stereo camera systems, the detection of the objects to be gripped
  • the dimensions and the orientation of the object to be gripped can be determined by means of these perception systems, so that the points of application for the gripper can be determined.
  • a pose is as one Representation comprising three spatial coordinates and three angles, which describes the position and orientation of a second coordinate system with respect to a reference coordinate system.
  • the mass distribution of the object to be gripped by means of a visual perception system is usually not recognizable. It can
  • Working space of the robot indicates how many directions a point in the
  • Publication further describes that a database can be used which contains information on possible gripping actions of known objects.
  • a disadvantage of the procedure described in the cited publication is that the creation of the database is very complicated. It is not sufficient to store only a single gripper pose for each object. Rather, a variety of gripper poses must be manually recorded and stored in the database so that the gripping of an object can be carried out safely. Based on the described prior art, it is the task of
  • Invention to provide a method for creating a database with gripper poses, which addresses the above-mentioned disadvantages.
  • the efficient filling of a database is to be made possible.
  • a method for controlling a robot is to be specified, which allows an efficient control of the robot.
  • a corresponding computer-readable storage medium should be specified.
  • a handling system is to be specified, which allows the efficient gripping of an object.
  • the object is achieved by a method for creating a database with gripper poses according to claim 1.
  • the object is achieved by a method for creating a database with gripper poses comprising: a. Save, in particular by recording, at least one
  • Trainingsgreiferpose for gripping a training object in particular with respect to a training object associated
  • One core of the invention is therefore that one or a plurality of further gripper poses are generated for a single training gripper pose. So only the training gripper pose has to be set manually. It is particularly advantageous that the further gripper poses are generated using object prototypes. Thus, the properties of the object prototypes can be used to determine the further gripper poses. The described method therefore allows the efficient storage of at least one further gripper pose in addition to the training gripper pose.
  • the object is further achieved by a method for controlling a robot according to claim 2.
  • the object is achieved by a method for controlling a robot, comprising:
  • a pose particularly the training gripper pose, may be represented as a six-tuple having three spatial coordinates and three angles relative to a training object associated with the training object
  • Training object coordinate system has.
  • a pose can be stored particularly efficiently in a data structure that indicates the position and orientation with respect to the training object.
  • a gripper pose can be used, regardless of where the object to be gripped is in space or in a robot coordinate system.
  • the method may include selecting the at least one object prototype from a set of candidate prototypes.
  • the set of candidate prototypes may include a cylinder, a sphere, a box, a cone, a truncated cone, and / or a pyramid.
  • the at least one object prototype can thus be a geometric basic form, whereby a very flexible handling of the described method is possible.
  • the object prototypes may be described by geometric parameters such as length, depth, width, height, and / or radius.
  • the known geometry of the object prototype can then be utilized for automatic generation of the at least one further gripper pose.
  • at least one symmetry axis may be associated with the at least one object prototype, wherein a plurality of gripper poses may be generated taking into account the at least one symmetry axis, in particular by rotation about the at least one symmetry axis, preferably using a transformation matrix, wherein the gripper poses are respectively stored can.
  • Object prototype is used to generate the variety of gripper poses.
  • a rotationally symmetrical body can be gripped equally well using a plurality of poses.
  • a large number of possible gripper poses can be generated, which deliver similarly good gripping results.
  • An object prototype may be in a CAD data format, such as. IGES or STL.
  • the CAD data format can directly or indirectly specify an axis of symmetry and / or a plane of symmetry that can be used to generate the further gripper poses.
  • the training gripper pose and the further at least one gripper pose may each be stored with an object identification number that may be associated with the training object.
  • the assignment of the training gripper pose and the further at least one gripper pose to an object identification number makes it possible to find a plurality of possible poses for gripping an object, if the
  • Object database to query a variety of possible gripper poses at once for a single object.
  • a storing of gripping parameters can be provided together with the poses in an object database, in particular gripper information, a gripping mode, a quality indication, a force, a gripping strategy and / or a grip description.
  • the object database which can preferably be assigned to individual poses.
  • This can be data that specifies the grip closer. For example, may be indicated by a force with which force an object should be grasped.
  • a gripping type can be stored.
  • a multi-finger gripper z For example, a finger is used to grasp an object only with the fingertips of the multi-finger gripper.
  • Gripper information may include information indicating a gripper type or even a particular gripper product.
  • Gripper information can be stored in a gripper table or gripper database. So it can be a reference to the poses
  • the corresponding entry in the gripper table or gripper database are stored.
  • the corresponding entry may also include a CAD model of the gripper or performance parameters, such as a maximum application force.
  • at least one rule may be provided which indicates that for each pose
  • the rule can z. B. implemented as part of the object database.
  • a gripping strategy can specify how an object should be gripped.
  • a quality indication may include indications as to whether a reliable gripping is possible, i. whether in experiments it turned out that one
  • the saving of the gripping parameters has the advantage that gripping an object is easier
  • the method may include identifying the first item.
  • Training object comprise, in particular by means of a perception system, for. B. by means of a stereo camera.
  • the training object is automatically identified, so that information about the training object automatically in the
  • Object database can be written. This makes the process even more efficient.
  • the method may include storing
  • Object features for recognizing the training object comprise, in particular geometric information, such as corners and / or edges of the Training object, preferably such that poses are attributable to the object features.
  • Object features may also include visual information. These include image descriptors, such as color and color intensity gradients,
  • Texture information can be stored as object features.
  • a description of the training object can be stored in the database.
  • This description may be implemented by object features.
  • the position and orientation of corners and / or edges can be stored so that a perception system can find and / or identify an object on the basis of the stored object features.
  • the object features may be stored so as to be associated with the stored gripper poses.
  • This assignment can be implemented directly or indirectly. For example, all poses may be stored in a first database table. All objects can be stored in a second database table and all object features can be stored in a third database table. An assignment can then be executed using corresponding primary keys and references in the tables.
  • Object features can be selected.
  • a method for identifying the training object is selected.
  • a Pezeptions mentor is selected, which uses image sections for the identification of objects.
  • An object can be identified in such a way that first of all a hypothesis is drawn as to which object is in the view of a perception system.
  • the method may include: an identification of a target object to be gripped, in particular of an object identification number assigned to the target object;
  • an end effector e.g. B. a parallel gripper, a robot.
  • the described embodiment has the advantage that the gripping of an object by the robot is simplified. After identifying the object to be gripped, using an associated
  • the determining the reading may comprise a plurality of candidate poses, in particular from an object database, wherein the reading may be performed in consideration of a reachability map and / or a capability map of a robot.
  • the described embodiment has the advantage that from the plurality of candidate poses a Zielgreiferpose can be selected, which leads to particularly good gripping results for a particular robot. This can be ensured via the reachability map and / or the ability map.
  • a reachability map indicates which points in the room can be reached by the robot taking into account its kinematics.
  • a skill card indicates how many directions the robot can reach to a point within its working space.
  • Embodiment the gripping of a target object safer and easier.
  • the determining may include sorting one or more candidate poses, wherein the sorting may be performed considering the skill card.
  • Candidate poses are tried one after the other. Represents, for example out that a first candidate pose is not appropriate, then proceed to a second candidate pose.
  • the method may include motion planning to move a robot from an initial configuration to a robot
  • Target configuration wherein the target configuration may be associated with a Zielgreiferpose.
  • Candidate pose corresponds to the pose that has been identified as the most suitable pose during sorting.
  • it can be established, for example, that the most suitable pose, taking into account a current robot configuration, for example due to obstacles, can not be achieved or insufficiently well. Therefore, a loop of selecting a target gripper pose and motion planning can be executed. This ensures that exactly that Zielgreiferpose is used, which is most suitable for the robot at the current time.
  • the object is further achieved by a computer-readable storage medium according to claim 15.
  • a storage medium containing instructions that cause at least one processor to implement a method as claimed in any one of the preceding claims when the instructions are executed by the at least one processor.
  • the object is further achieved by a handling system according to claim 16.
  • a handling system comprising:
  • a perception system for detecting an object which is arranged in particular on the robot; wherein the robot is adapted
  • NEN robot 10 in an initial configuration before grasping an object 1;
  • Fig. 2b shows the object 1 of Fig. 2a and the gripper 20 of Fig. 2a in one
  • FIG. 3 shows a schematic illustration of an image of an object 1 on an object prototype 30
  • 4a shows an object prototype 30 with symmetry axis S; 4b shows the generation of a plurality of gripper poses PP "under
  • FIG. 5 shows a schematic representation of a database table 41
  • Fig. 6 is a schematic representation of a handling system
  • FIG. 7 is a flow chart illustrating a method of controlling a
  • Robot 10 indicates.
  • Fig. 1 shows a robot 10 shown in an initial configuration.
  • the robot 10 has a gripper 20 which is shown in FIG.
  • Embodiment designed as a parallel gripper 20 That is, the
  • Parallel gripper 20 has two jaws, which are parallel to each other and
  • a force sensor is provided on the jaws of the parallel gripper, which are designed to measure how much force is applied to an object to be gripped.
  • a stereo camera 11 is attached to the robot 10
  • the stereo camera 11 is aligned so that it also perceives the gripper 20. So also gripped objects can be permanently recorded. Therefore, the handle of the object can also be monitored. For example, it is possible to determine the slip (so-called "slip detection")
  • the stereo camera 11 By means of the stereo camera 11, it is possible to produce a three-dimensional map of the surroundings by moving the robot 10.
  • the three-dimensional map consists of a point cloud representing the position in a first step individual discrete points in a coordinate system of the robot 10 indicates.
  • a world model can be created from the three-dimensional map. It can be determined using image processing, where z. B. surfaces are located. Also, individual objects in the environment of the robot 10 can be recognized and their pose stored within the world model. When the pose of an object in the
  • a bottle 1 is arranged in the immediate vicinity of the robot 10.
  • the bottle 1 is located within the working space of the robot 10, ie in the area in which the robot 10 can theoretically grasp objects.
  • the stereo camera 11 now detects the contours of the bottle 1.
  • the robot 10 can be moved so that the bottle 1 is taken from as many angles through the stereo camera 11.
  • the robot 10 can be moved such that the bottle 1 can be gripped by the gripper 20.
  • the robot 10 may e.g. B. over
  • the robot 10 is a
  • the training gripper pose is recorded manually by an operator.
  • FIGS. 2a and 2b it is briefly explained how the gripping of an object 1 is carried out.
  • Fig. 2a shows the gripper 20 in a Anfahrtspose.
  • the approach pose is usually stored in relation to an object coordinate system 2.
  • the object coordinate system 2 is the one to be gripped
  • the approaching pose comprises a three-dimensional vector VI as well as three solid angles, which rotate around that of the
  • the vector VI points from the origin of the object coordinate system 2 to the so-called “tool center point” (TCP) of the gripper
  • Fig. 2b shows the gripper 20 of Fig. 2a in a gripper pose, i. in a pose in which the object 1 can be grasped.
  • the gripper pose of the gripper 20 is also stored with respect to the object coordinate system 2.
  • Gripper pose includes the vector V2 and three solid angles.
  • the vector V2 also points from the origin of the object coordinate system 2 to the TCP of the gripper 20.
  • the gripper jaws of the gripper 20 need be compressed in the embodiment of FIG. 2b.
  • the gripper jaws may be compressed until a threshold force value, e.g. B. 20 or 50 Newton, is exceeded.
  • a threshold force value e.g. B. 20 or 50 Newton
  • Robot configuration to be moved
  • FIG. 3 shows how a plurality of gripper poses P, PP "can be generated for an object 1.
  • FIG. 3 shows how an object prototype is determined for an object 1.
  • the exact configuration of the object prototypes 30, 30 ⁇ 30 can be determined via a large number of parameters, such that the height of the cylinder 30 can be determined by means of the parameter LI
  • the radius of the cylinder can be defined by means of the parameter R1 ⁇ can be defined in its dimensions by means of the parameters L2, L3 and L4
  • the sphere 30 can be defined via the radius R2.
  • the parameters LI to L4 and Rl, R2 are changed so that a maximum volume of the object prototypes 30, 30 ⁇ 30" through the bottle 1 is filled.
  • the bottle 1 is thus placed in the object prototypes 30, 30 ⁇ 30 "This can be carried out by known optimization methods
  • the object prototypes 30, 30 ⁇ 30 "of Fig. 3 have symmetries which can be determined by means of symmetry axes S.
  • Fig. 4a the
  • a cylinder is
  • the symmetry is used in the following to generate a multiplicity of possible gripper poses ⁇ ⁇ , P "for gripping the cylinder 30.
  • FIG. FIG. 4 b shows a gripper pose P of a gripper which has been manually created by an operator by means of the robot 10.
  • the axis of symmetry S can further gripper poses ⁇ be generated ⁇ , P "now.
  • the Greiferpose P is rotated by means of a transformation matrix to the center of the cylinder 30 in a plan view around. In this manner, as can in any angular intervals, e.g., every 1 degree, every 5 degrees or every 10 degrees, a gripper pose P ⁇ P "be generated.
  • any angular intervals e.g., every 1 degree, every 5 degrees or every 10 degrees
  • Fig. 5 shows a schematic representation of a table 41 of the object database 40.
  • Database table 41 includes the columns “Object”, “Gripper”, “PoseStart”, “PoseGr.” and “F”.
  • object contains identification numbers associated with objects 1. These may be, for example, the
  • Identification number act in another database table are stored in the object descriptions.
  • Each row of the database table 41 corresponds to a gripper pose.
  • the gripper used is stored for each gripper pose P2, P4.
  • a parallel gripper is stored as a gripper type in both rows of the table.
  • each an associated An marspose PI, P3 is stored.
  • the associated approach positions PI, P3 can like the
  • Gripper poses of Fig. 4b are generated by exploiting symmetry axes.
  • the gripper poses P2, P4 correspond to either recorded
  • Gripper poses P2, P4 can also optionally a force value F are stored, indicating the force with which the jaws of the parallel gripper used to press against the object to be lifted 1.
  • Fig. 6 shows an embodiment in which the object database 40 is used to grasp an object.
  • the robot 10 shows a robot 10 with a stereo camera 11 and a gripper 20.
  • the robot 10 further comprises a control device 12, which executes the control of the robot.
  • Arranged next to the robot 10 is a bottle.
  • the stereo camera 11 recognizes the object to be gripped as a bottle.
  • the recognized bottle can be assigned to an object type.
  • the controller 12 communicates via a network or locally with the object database 40.
  • the controller 12 sends a
  • Candidate poses P2, P4 selected that are compatible with the detected object After the candidate poses P2, P4 have been received by the controller 12, they are filtered using a skill card. In the process, those candidate poses are sorted out that can not be reached. In addition, a sorting takes place, which is also performed using the skill card. The order of
  • Gripper poses are determined by the number of directions from which the coordinates associated with the gripper poses can be reached.
  • a path planner is also implemented which maps the path of the robot 10 from the current configuration into the
  • Target configuration corresponding to a first candidate pose Can the path planner pick a path from the current robot configuration to the
  • the path planner Used to grab the object. If the path planner can not calculate a path because, for example, another object obstructs the path, then the next candidate pose is selected in the sorted list of candidate poses. This process is carried out until a candidate pose P2, P4 is found for which the path planner can calculate a path.
  • step Sl video data 51 is analyzed to identify objects 1, Tin of the environment of the robot 10.
  • Known objects 1 are stored together with object features in the object database 40.
  • a perception algorithm is selected which is used to identify the object 1. It is now started for the first known object of the object database 40 to determine whether the object is recognizable in the video data 51. If the object is not recognizable, the second object from object database 40 is continued. Possibly. For the second object, a different perception algorithm is used than for the first object. It is determined that the second object of the object database 40 in the Video data 51 is recognizable, the step S1 is completed.
  • the resulting object data 52 are used in step S2 to query for the detected object from the object database 40 a list of candidate poses P2, P4.
  • the list of candidate poses 53 is filtered in step S3 using a capability map of a robot 10. In the process, those candidate poses are removed which can not be reached with the robot 10 or gripper 20 used. In addition, the list of candidate poses 53 is sorted using the skill card 54. The list of candidate poses 53 is further sorted using user-defined criteria. For example, the gripping type stored for the candidate poses is taken into account in the sorting. Has a user indicated that when using a multi-finger gripper a
  • the list of candidate poses 53 is sorted accordingly.
  • the sorted list of candidate poses 55 is combined with a world model 56, which includes the poses of objects in the environment of the robot 10, to generate a path for the robot 10 in step S4
  • Path planning performed a collision check, with objects that are stored in the world model 56 are taken into account in the path planning. If it is determined in step S5 that no path for the first candidate pose of the list can be determined, a new path planning is started with the next candidate pose of the list. The process repeats until it is determined in step S5 that a robot path 57 can be calculated. In step S6, the robot 10 is then moved using the robot path 57.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

Das Greifen von Objekten mittels eines Roboters ist schwierig. Insbesondere das schnelle Ermitteln von geeigneten Greiferposen zum Greifen von Objekten ist bisher nicht ausreichend gelöst. Es ist daher Aufgabe der Erfindung, ein Verfahren anzugeben, das das Greifen von Objekten mittels eines Roboters vereinfacht. Die Aufgabe wird gelöst durch ein Verfahren zur Erstellung einer Datenbank (40) mit Greiferposen, Folgendes aufweisend: a. Speichern, insbesondere durch Aufzeichnen, mindestens einer Trainingsgreiferpose (P, P2, P4) zum Greifen eines Trainingsobjekts (1), insbesondere bezüglich eines dem Trainingsobjekt (1) zugeordneten Trainingsobjektkoordinatensystems (2); b. Generieren mindestens einer weiteren Greiferpose (P', P'') für das Trainingsobjekt (1) unter Verwendung mindestens eines Objektprototypen (30, 30', 30'') und der Trainingsgreiferpose (P, P2,P4); c. Speichern der mindestens einen weiteren Greiferpose (P') und der Trainingsgreiferpose (P, P2, P4) mit einem Bezug zu dem Trainingsobjekt (1) in einer Datenbank (40).

Description

Verfahren zur Erstellung einer Datenbank mit Greiferposen, Verfahren zum Steuern eines Roboters, computerlesbares Speichermedium und
Handhabungssystem
Beschreibung
Die Erfindung betrifft ein Verfahren zur Erstellung einer Datenbank mit
Greiferposen, ein Verfahren zum Steuern eines Roboters, ein entsprechendes computerlesbares Speichermedium und ein Handhabungssystem.
Moderne Handhabungssysteme, wie Mehrachs-Roboter, dienen dazu, Objekte von einem ersten Ort zu einem zweiten Ort zu transportieren. Hierzu ist es notwendig, dass der Roboter mittels eines Greifers das Objekt greift und sicher hält, damit es während des Transports nicht herunterfällt. In strukturierten Arbeitsumgebungen, wie z. B. in der Automobilproduktion üblich, liegen die zu greifenden Objekte immer an derselben Stelle mit derselben Orientierung, so dass ein Greifen nur einmal programmiert werden muss und dann wiederholt ausgeführt werden kann.
In unstrukturierten Arbeitsumgebungen können die Objekte jedoch an
unterschiedlichen Stellen mit unterschiedlicher Orientierung vorkommen, so dass ein Roboter in der Lage sein muss, das Greifen der Objekte zu adaptieren. Ein Beispiel ist das Greifen verschiedener Teile aus einer Kiste (sog.„bin-picking").
Um das Greifen von Objekten in unstrukturierten Arbeitsumgebungen zu ermöglichen, verfügen Robotersysteme über Perzeptionssysteme, z. B. über Stereokamerasysteme, die ein Detektieren der zu greifenden Objekte
ermöglichen. Ferner können mittels dieser Perzeptionssysteme die Dimensionen und die Orientierung des zu greifenden Objekts festgestellt werden, so dass die Angriffspunkte für den Greifer ermittelt werden können.
Bevor ein Objekt gegriffen werden kann, kann der Roboter so verfahren werden, dass lediglich ein Greifer aktiviert werden kann. Die Orientierung und der Ort des Greifers kann durch eine Pose beschrieben werden. Eine Pose ist als eine Repräsentation zu verstehen, die drei Raumkoordinaten sowie drei Winkel umfasst, die die Lage und die Orientierung eines zweiten Koordinatensystems bezüglich eines Referenzkoordinatensystems beschreibt.
Beim Greifen treten eine Vielzahl von Schwierigkeiten auf.
Beispielsweise ist die Masseverteilung des zu greifenden Objekts mittels eines visuellen Perzeptionssystems meist nicht erkennbar. Dadurch kann es
vorkommen, dass das Greifen des Objekts an bestimmten Stellen nicht möglich oder nur sehr schwer möglich ist. Darüber hinaus kann mittels eines rein visuell arbeitenden Perzeptionssystems nicht festgestellt werden, mit welcher Kraft ein Objekt gehalten werden muss. Zusätzlich erfordert das Berechnen von möglichen Greiferposen eine lange Rechenzeit und Rechenressourcen eines Computers.
In der Veröffentlichung
Porges 0., Stouraitis T., Borst C, Roa M.A. (2014) "Reachability and Capability Analysis for Manipulation Tasks". In : Armada M., Sanfeliu A., Ferre M. (eds) ROBOT2013: First Iberian Robotics Conference. Advances in Intelligent Systems and Computing, vol 253. Springer, Cham wird die Analyse der Greiffähigkeiten eines Roboters vor dem Ausführen eines tatsächlichen Greifens beschrieben. Hierzu wird für den Roboter und den verwendeten Greifer eine Fähigkeitskarte erstellt, die für jeden Punkt des
Arbeitsraums des Roboters angibt, aus wie vielen Richtungen ein Punkt im
Arbeitsraum durch den Roboter angefahren werden kann. Dabei wird der Greifer ebenso wie die Kinematik des Roboters berücksichtigt. Die Fähigkeitskarte wird unabhängig von den zu greifenden Objekten erstellt. Die genannte
Veröffentlichung beschreibt weiter, dass eine Datenbank verwendet werden kann, die Angaben zu möglichen Greifaktionen von bekannten Objekten enthält. Ein Nachteil der in der genannten Veröffentlichung beschriebenen Vorgehensweise ist, dass das Erstellen der Datenbank sehr aufwändig ist. Es ist nicht ausreichend, zu jedem Objekt nur eine einzelne Greiferpose zu speichern. Vielmehr müssen eine Vielzahl von Greiferposen manuell aufgezeichnet und in der Datenbank gespeichert werden, sodass das Greifen eines Objekts sicher ausgeführt werden kann. Ausgehend von dem beschriebenen Stand der Technik ist es Aufgabe der
Erfindung, ein Verfahren zur Erstellung einer Datenbank mit Greiferposen anzugeben, das die vorstehend genannten Nachteile adressiert. Insbesondere soll das effiziente Befüllen einer Datenbank ermöglicht werden. Darüber hinaus soll ein Verfahren zum Steuern eines Roboters angegeben werden, welches eine effiziente Steuerung des Roboters ermöglicht. Zusätzlich soll ein entsprechendes computerlesbares Speichermedium angegeben werden. Darüber hinaus soll ein Handhabungssystem angegeben werden, welches das effiziente Greifen eines Objekts ermöglicht.
Die Aufgabe wird gelöst durch ein Verfahren zur Erstellung einer Datenbank mit Greiferposen nach Anspruch 1.
Insbesondere wird die Aufgabe gelöst durch ein Verfahren zur Erstellung einer Datenbank mit Greiferposen, Folgendes umfassend : a. Speichern, insbesondere durch Aufzeichnen, mindestens einer
Trainingsgreiferpose zum Greifen eines Trainingsobjekts, insbesondere bezüglich eines dem Trainingsobjekt zugeordneten
Trainingsobjektkoordinatensystems;
b. Generieren mindestens einer weiteren Greiferpose für das Trainingsobjekt unter Verwendung mindestens eines Objektprototypen und der
Trainingsgreiferpose;
c. Speichern der mindestens einen weiteren Greiferpose und der
Trainingsgreiferpose mit einem Bezug zu dem Trainingsobjekt in der Datenbank, insbesondere in einer Objektdatenbank.
Ein Kern der Erfindung liegt also darin, dass für eine einzige Trainingsgreiferpose eine oder eine Vielzahl von weiteren Greiferposen generiert werden. Es muss also nur die Trainingsgreiferpose manuell vorgegeben werden. Besonders vorteilhaft ist, dass die weiteren Greiferposen unter Verwendung von Objektprototypen generiert werden. Es können also die Eigenschaften der Objektprototypen zur Ermittlung der weiteren Greiferposen herangezogen werden. Das beschriebene Verfahren erlaubt daher das effiziente Speichern mindestens einer weiteren Greiferpose zusätzlich zu der Trainingsgreiferpose.
Die Aufgabe wird ferner gelöst durch ein Verfahren zum Steuern eines Roboters nach Anspruch 2. Insbesondere wird die Aufgabe gelöst durch ein Verfahren zum Steuern eines Roboters, Folgendes aufweisend :
- Durchführen der Schritte des oben beschriebenen Verfahrens zum Erstellen einer Datenbank;
- Abfragen mindestens einer Pose aus der Objektdatenbank;
- Steuern des Roboters unter Verwendung der mindestens einen Pose.
Das Abfragen und Verwenden einer Greiferpose zum Steuern eines Roboters aus einer Datenbank, wie sie vorstehend beschrieben wurde, ermöglicht ein
insgesamt besonders effizientes Greifverfahren.
In einer Ausführungsform kann eine Pose, insbesondere die Trainingsgreiferpose, als ein sechs-Tupel repräsentiert sein, das drei Raumkoordinaten und drei Winkel bezogen auf ein dem Trainingsobjekt zugeordneten
Trainingsobjektkoordinatensystem aufweist.
Eine Pose kann besonders effizient in einer Datenstruktur gespeichert sein, die die Lage und Orientierung bezüglich des Trainingsobjekts angibt. Dadurch, dass die Angaben bezüglich des Trainingsobjekts gespeichert werden, kann eine Greiferpose verwendet werden, unabhängig davon, wo sich das zu greifende Objekt im Raum bzw. in einem Roboterkoordinatensystem befindet.
In einer Ausführungsform kann das Verfahren ein Auswählen des mindestens einen Objektprototyps aus einer Menge von Kandidatenprototypen umfassen.
Die Menge von Kandidatenprototypen kann einen Zylinder, eine Sphäre, einen Quader, einen Kegel, einen Kegelstumpf und/oder eine Pyramide umfassen.
Der mindestens eine Objektprototyp kann also eine geometrische Grundform sein, wodurch eine sehr flexible Handhabung des beschriebenen Verfahrens möglich ist. Die Objektprototypen können über geometrische Parameter, wie Länge, Tiefe, Breite, Höhe und/oder einem Radius, beschrieben sein. Die bekannte Geometrie des Objektprototyps kann dann zur automatischen Generierung der mindestens einen weiteren Greiferpose ausgenutzt werden. In einer Ausführungsform kann dem mindestens einen Objektprototyp mindestens eine Symmetrieachse zugeordnet sein, wobei eine Vielzahl von Greiferposen unter Berücksichtigung der mindestens einen Symmetrieachse erzeugt werden kann, insbesondere durch Rotation um die mindestens eine Symmetrieachse, bevorzugt unter Verwendung einer Transformationsmatrix, wobei die Greiferposen jeweils gespeichert werden können.
Besonders vorteilhaft ist es, wenn eine bekannte Symmetrieachse des
Objektprototyps zur Generierung der Vielzahl von Greiferposen verwendet wird. Hierbei wird ausgenutzt, dass beispielsweise ein rotationssymmetrischer Körper unter Verwendung einer Vielzahl von Posen gleichgut gegriffen werden kann. Dadurch kann eine Vielzahl von möglichen Greiferposen generiert werden, die ähnlich gute Greifergebnisse liefern. Das vereinfacht sehr stark den Aufbau einer Objektdatenbank. Ein Objektprototyp kann in einem CAD-Datenformat, wie z. B. IGES oder STL vorliegen. Das CAD-Datenformat kann direkt oder indirekt eine Symmetrieachse und/oder eine Symmetrieebene angeben, die zur Generierung der weiteren Greiferposen verwendet werden kann.
In einer Ausführungsform kann die Trainingsgreiferpose und die weiteren mindestens eine Greiferpose jeweils mit einer Objektidentifikationsnummer gespeichert werden, die dem Trainingsobjekt zugeordnet sein kann.
Die Zuordnung der Trainingsgreiferpose und der weiteren mindestens einen Greiferpose zu einer Objektidentifikationsnummer ermöglicht das Auffinden einer Vielzahl von möglichen Posen zum Greifen eines Objekts, wenn die
Objektidentifikationsnummer bekannt ist. Dadurch ist es möglich, aus der
Objektdatenbank eine Vielzahl von möglichen Greiferposen auf einmal für ein einziges Objekt abzufragen.
In einer Ausführungsform kann ein Speichern von Greifparametern zusammen mit den Posen in einer/der Objektdatenbank vorgesehen sein, insbesondere von Greiferinformationen, einer Greifart, einer Qualitätsangabe, einer Kraft, einer Greifstrategie und/oder einer Greifbeschreibung.
Es ist also möglich, dass zusätzlich zu den genannten Greiferposen weitere Daten in der Objektdatenbank gespeichert werden, die sich vorzugsweise einzelnen Posen zuordnen lassen. Dabei kann es sich um Daten handeln, die das Greifen näher spezifizieren. Beispielsweise kann durch eine Kraft angegeben sein, mit welcher Kraft ein Objekt gegriffen werden soll. Ferner kann eine Greifart gespeichert. Bei einem Mehrfingergreifer kann z. B. gespeichert werden, ob es sich um ein sog. Fingergreifen oder um ein sog.„power"-Greifen handelt. Beim Fingergreifen wird ein Objekt nur mit den Fingerspitzen des Mehrfingergreifers gegriffen. Beim„power"-Greifen wird das Objekt komplett umgriffen.
Greiferinformationen können Informationen umfassen, die einen Greifertyp angeben oder auch ein bestimmtes Greiferprodukt.
Greiferinformationen können in einer Greifertabelle oder Greiferdatenbank gespeichert sein. Es kann also zu den Posen eine Referenz auf den
entsprechenden Eintrag in der Greifertabelle bzw. Greiferdatenbank gespeichert werden. Der entsprechende Eintrag kann auch ein CAD Modell des Greifers oder Leistungsparameter, wie eine maximal aufbringbare Kraft, umfassen. Ferner kann mindestens eine Regel vorgesehen sein, die angibt, dass zu jeder Pose
mindestens ein Greifer zugeordnet sein muss. Die Regel kann z. B. als Teil der Objektdatenbank implementiert sein.
Eine Greifstrategie kann angeben, wie ein Objekt gegriffen werden soll.
Beispielsweise kann vorgesehen sein, dass zunächst mit einer hohen Kraft zugegriffen wird, und nach einer bestimmten Zeit mit einer geringeren Kraft. Eine Qualitätsangabe kann Angaben dazu umfassen, ob ein prozesssicheres Greifen möglich ist, d.h. ob sich in Experimenten herausgestellt hat, dass eine
entsprechende Greiferpose besonders gut geeignet ist. Das Speichern der Greifparameter hat den Vorteil, dass ein Greifen eines Objekts leichter
reproduziert bzw. ausgeführt werden kann.
In einer Ausführungsform kann das Verfahren ein Identifizieren des
Trainingsobjekts umfassen, insbesondere mittels eines Perzeptionssystems, z. B. mittels einer Stereokamera.
Es ist also auch möglich, dass das Trainingsobjekt automatisch identifiziert wird, so dass Informationen über das Trainingsobjekt automatisch in die
Objektdatenbank geschrieben werden können. Dadurch wird das Verfahren noch effizienter.
In einem Ausführungsbeispiel kann das Verfahren ein Speichern von
Objektmerkmalen zum Erkennen des Trainingsobjekts umfassen, insbesondere von geometrischen Informationen, wie Ecken und/oder Kanten des Trainingsobjekts, vorzugsweise derart, dass Posen den Objektmerkmalen zuordenbar sind. Objektmerkmale können auch visuelle Informationen umfassen. Dazu zählen Bilddeskriptoren, wie Färb- bzw. Farbintensitätsgradienten,
Farbwerte oder Grauwerte. Auch Bildausschnitte und sonstige
Texturinformationen können als Objektmerkmale gespeichert werden.
Um ein zu greifendes Objekt besser in der Objektdatenbank auffinden zu können, kann in der Datenbank eine Beschreibung des Trainingsobjekts gespeichert sein. Diese Beschreibung kann durch Objektmerkmale umgesetzt sein. Dabei kann die Lage und Orientierung von Ecken und/oder von Kanten abgespeichert sein, so dass ein Perzeptionssystem anhand der gespeicherten Objektmerkmale ein Objekt finden und/oder identifizieren kann. Die Objektmerkmale können derart gespeichert sein, dass sie den gespeicherten Greiferposen zuordenbar sind. Diese Zuordnung kann mittelbar oder unmittelbar umgesetzt sein. Z. B. können alle Posen in einer ersten Datenbanktabelle gespeichert sein. Alle Objekte können in einer zweiten Datenbanktabelle gespeichert sein und alle Objektmerkmale können in einer dritten Datenbanktabelle gespeichert sein. Eine Zuordnung kann dann über entsprechende Primärschlüssel und Verweise in den Tabellen ausgeführt werden.
In einer Ausführungsform kann eine Vielzahl von Perzeptionsverfahren
vorgesehen sein, wobei ein Perzeptionsverfahren zur automatischen
Identifizierung des Trainingsobjekts unter Verwendung von gespeicherten
Objektmerkmalen ausgewählt werden kann.
Es ist also möglich, dass basierend auf den in der Objektdatenbank vorhandenen Objektmerkmalen ein Verfahren zur Identifizierung des Trainingsobjekts ausgewählt wird. Sind z. B. in der Objektdatenbank Objektmerkmale gespeichert, die Bildausschnitte betreffen, so wird ein Pezeptionsverfahren ausgewählt, welches Bildausschnitte zur Identifizierung von Objekten verwendet.
Ein Objekt kann derart erkannt werde, dass zunächst eine Hypothese aufgestellt wird, welches Objekt sich im Blick eines Perzeptionssystems befindet.
Anschließend kann geprüft werden, ob die Hypothese zutrifft. Das bedeutet, dass nacheinander eine Vielzahl bekannter Objekte durchprobiert werden kann.
In einer Ausführungsform kann das Verfahren umfassen : - ein Identifizieren eines zu greifenden Zielobjekts, insbesondere einer dem Zielobjekt zugeordneten Objektidentifikationsnummer;
- ein Bestimmen einer Zielgreiferpose, die dem Zielobjekt zuordenbar ist; und
- ein Greifen des Zielobjekts unter Verwendung der Zielgreiferpose,
insbesondere durch einen Endeffektor, z. B. einem Parallelgreifer, eines Roboters.
Die beschriebene Ausführungsform hat den Vorteil, dass das Greifen eines Objekts durch den Roboter vereinfacht wird. Nach dem Identifizieren des zu greifenden Objekts kann unter Verwendung einer zugeordneten
Objektidentifikationsnummer eine Zielgreiferpose bestimmt werden.
In einer Ausführungsform kann das Bestimmen das Auslesen eine Vielzahl von Kandidatenposen umfassen, insbesondere aus einer/der Objektdatenbank, wobei das Auslesen unter Berücksichtigung einer Erreichbarkeitskarte und/oder einer Fähigkeitskarte eines Roboters durchgeführt werden kann.
Die beschriebene Ausführungsform hat den Vorteil, dass aus der Vielzahl von Kandidatenposen eine Zielgreiferpose ausgewählt werden kann, die zu besonders guten Greifergebnissen für einen speziellen Roboter führt. Dies kann über die Erreichbarkeitskarte und/oder die Fähigkeitskarte sichergestellt werden. Eine Erreichbarkeitskarte gibt an, welche Punkte im Raum durch den Roboter unter Berücksichtigung seiner Kinematik erreicht werden können. Eine Fähigkeitskarte gibt an, aus wie vielen Richtungen der Roboter einen Punkt innerhalb seines Arbeitsraums erreichen kann. Insgesamt wird mit der beschriebenen
Ausführungsform das Greifen eines Zielobjekts sicherer und vereinfacht.
In einer Ausführungsform kann das Bestimmen ein Sortieren einer/der Vielzahl von Kandidatenposen umfassen, wobei das Sortieren unter Berücksichtigung der Fähigkeitskarte durchgeführt werden kann.
Von Vorteil ist, wenn ein Sortieren der Vielzahl von Kandidatenposen
durchgeführt wird, so dass eine Ordnung entsteht. Dadurch können die
Kandidatenposen nacheinander durchprobiert werden. Stellt sich beispielsweise heraus, dass eine erste Kandidatenpose nicht geeignet ist, so kann mit einer zweiten Kandidatenpose fortgefahren werden.
In einer Ausführungsform kann das Verfahren eine Bewegungsplanung zum Bewegen eines Roboters von einer Ausgangskonfiguration in eine
Zielkonfiguration umfassen, wobei die Zielkonfiguration einer/der Zielgreiferpose zugeordnet sein kann.
Im Anschluss an das Sortieren kann unter Verwendung der ersten
Kandidatenpose eine Bewegungsplanung durchgeführt werden. Die erste
Kandidatenpose entspricht dabei der Pose, die beim Sortieren als geeignetste Pose ermittelt worden ist. Dabei kann beispielsweise festgestellt werden, dass die geeignetste Pose unter Berücksichtigung einer aktuellen Roboterkonfiguration, beispielsweise auf Grund von Hindernissen, nicht bzw. ungenügend gut erreicht werden kann. Es kann daher eine Schleife der Auswahl einer Zielgreiferpose und der Bewegungsplanung ausgeführt werden. Dadurch ist gewährleistet, dass genau jene Zielgreiferpose verwendet wird, die für den Roboter zum aktuellen Zeitpunkt am besten geeignet ist.
Die Aufgabe wird ferner gelöst durch ein computerlesbares Speichermedium nach Anspruch 15.
Insbesondere wird die Aufgabe gelöst durch ein computerlesbares
Speichermedium, welches Instruktionen enthält, die mindestens einen Prozessor dazu veranlassen, ein Verfahren nach einem der vorhergehenden Ansprüche zu implementieren, wenn die Instruktionen durch den mindestens einen Prozessor ausgeführt werden.
Es ergeben sich ähnliche oder identische Vorteile, wie sie bereits im
Zusammenhang mit den vorstehend beschriebenen Verfahren beschrieben wurden.
Die Aufgabe wird ferner gelöst durch ein Handhabungssystem nach Anspruch 16.
Insbesondere wird die Aufgabe gelöst durch ein Handhabungssystem, umfassend :
- eine Objektdatenbank, insbesondere eine Objektdatenbank, die nach
einem der vorhergehend beschriebenen Verfahren erstellt ist; - einen Roboter, der dazu ausgebildet ist, ein Objekt zu greifen;
- ein Perzeptionssystem zur Erfassung eines Objekts, das insbesondere an dem Roboter angeordnet ist; wobei der Roboter dazu ausgebildet ist,
- unter Verwendung des erfassten Objekts eine Vielzahl von
Kandidatenposen aus der Objektdatenbank abzufragen;
- die Vielzahl von Kandidatenposen zu filtern, insbesondere unter
Verwendung einer Erreichbarkeitskarte und/oder einer Fähigkeitskarte, um eine Zielgreiferpose zu bestimmen,
- eine Roboterkonfiguration entsprechend der Zielgreiferpose einzustellen.
Es ergeben sich ähnliche oder identische Vorteile, wie sie bereits im
Zusammenhang mit dem vorstehend beschriebenen Verfahren beschrieben sind.
Weitere vorteilhafte Ausführungsformen ergeben sich anhand der
Unteransprüche.
Nachfolgend wird die Erfindung mittels mehrerer Ausführungsbeispiele
beschrieben, die anhand von Abbildungen näher erläutert werden. Hierbei zeigen : nen Roboter 10 in einer Ausgangskonfiguration vor dem Greifen eines Objekts 1;
Fig. 2a Objekt 1 und einen Greifer 20 in einer Anfahrtspose;
Fig. 2b das Objekt 1 der Fig. 2a und den Greifer 20 der Fig. 2a in einer
Greiferpose;
Fig. 3 eine schematische Darstellung einer Abbildung eines Objekts 1 auf einem Objektprototypen 30;
Fig. 4a ein Objektprototyp 30 mit Symmetrieachse S; Fig. 4b das Generieren einer Vielzahl von Greiferposen P P" unter
Verwendung einer Symmetrieachse eines Objektprototypen 30;
Fig. 5 eine schematische Darstellung einer Datenbanktabelle 41;
Fig. 6 eine schematische Darstellung eines Handhabungssystems
umfassend ein Objekt , einen Roboter 10 und eine
Objektdatenbank 40; und
Fig. 7 ein Flussdiagramm, welches ein Verfahren zur Steuerung eines
Roboters 10 angibt.
In der nachfolgenden Beschreibung werden für gleiche und gleichwirkende Teile dieselben Bezugsziffern verwendet.
Fig. 1 zeigt einen Roboter 10, der in einer Ausgangskonfiguration gezeigt ist. Der Roboter 10 verfügt über einen Greifer 20, der in dem gezeigten
Ausführungsbeispiel als Parallelgreifer 20 ausgeführt ist. Das heißt, der
Parallelgreifer 20 verfügt über zwei Backen, die parallel zueinander und
voneinander wegbewegt werden können. Um eine Kraft zu messen, sind an den Backen des Parallelgreifers 20 Kraftsensoren vorgesehen, die dazu ausgebildet sind, zu messen, wie viel Kraft auf ein zu greifendes Objekt aufgebracht wird . Zur Erkennung von Objekten ist an dem Roboter 10 eine Stereokamera 11
angeordnet. Die Stereokamera 11 ist dabei so ausgerichtet, dass sie auch den Greifer 20 wahrnimmt. Also können auch gegriffene Objekte permanent erfasst werden. Daher kann auch der Griff des Objekts überwacht werden. Z. B. kann das rutschen (sog .„Slip detection") festgestellt werden. Mittels der Stereokamera 11 ist es möglich, durch Bewegung des Roboters 10 eine dreidimensionale Karte der Umgebung anzufertigen. Die dreidimensionale Karte besteht in einem ersten Schritt aus einer Punktwolke, die die Lage einzelner diskreter Punkte in einem Koordinatensystem des Roboters 10 angibt.
In einem zweiten Schritt kann aus der dreidimensionalen Karte ein Weltmodell erstellt werden. Dabei kann unter Verwendung von Bildverarbeitung ermittelt werden, wo sich z. B. Oberflächen befinden. Auch können einzelne Objekte in der Umgebung des Roboters 10 erkannt werden und deren Pose innerhalb des Weltmodells gespeichert werden. Wenn die Pose eines Objektes in dem
Weltmodell gespeichert ist, ist es nicht notwendig, dass zum Greifen des Objekts, ein Perzeptionssystem eingesetzt wird. Vielmehr kann auf die gespeicherte Pose des Objekts zurückgegriffen werden. In dem Ausführungsbeispiel der Fig. 1 ist in unmittelbarer Nähe zu dem Roboter 10 eine Flasche 1 angeordnet. Die Flasche 1 befindet sich innerhalb des Arbeitsraums des Roboters 10, also in dem Bereich, in dem der Roboter 10 Objekte theoretisch greifen kann. Die Stereokamera 11 detektiert nun die Umrisse der Flasche 1. Um eine möglichst gute Wahrnehmung der Flasche 1 durch die Stereokamera 11 zu ermöglichen, kann der Roboter 10 derart verfahren werden, dass die Flasche 1 aus möglichst vielen Winkeln durch die Stereokamera 11 aufgenommen wird.
Zum Aufzeichnen einer Trainingsgreiferpose kann der Roboter 10 derart verfahren werden, dass die Flasche 1 durch den Greifer 20 gegriffen werden kann. Zum Aufzeichnen einer Trainingsgreiferpose kann der Roboter 10 z. B. über ein
Bedienteil, also eine Art Fernsteuerung, verfahren werden. In einem weiteren Ausführungsbeispiel handelt es sich bei dem Roboter 10 um einen
drehmomentgeregelten Roboter, der in einem Gravitationskompensationsmodus handgeführt werden kann. Das Aufzeichnen der Trainingsgreiferpose erfolgt manuell durch einen Bediener.
In den Fig. 2a und 2b wird kurz dargelegt, wie das Greifen eines Objekts 1 ausgeführt wird. Die Fig. 2a zeigt dabei den Greifer 20 in einer Anfahrtspose. Die Anfahrtspose wird üblicherweise in Bezug auf ein Objektkoordinatensystem 2 gespeichert. Das Objektkoordinatensystem 2 ist dabei dem zu greifenden
Objekt 1 zugeordnet. Die Anfahrtspose umfasst dabei einen dreidimensionalen Vektor VI sowie drei Raumwinkel, die die Rotation um die von dem
Objektkoordinatensystem 2 vorgegebenen Raumachsen angeben. Der Vektor VI zeigt von dem Ursprung des Objektkoordinatensystem 2 zu dem sog.„tool center point" (TCP) des Greifers. Dies entspricht dem Ursprung eines
Greiferkoordinatensystems. Durch das Verwenden einer Anfahrtspose ist sichergestellt, dass das Heranfahren des Greifers 20 vor dem Greifen kontrolliert ausgeführt wird und es zu keiner Kollision mit abstehenden Teilen des Objekts 1 kommt. Die Fig. 2b zeigt den Greifer 20 der Fig. 2a in einer Greiferpose, d.h. in einer Pose, in der das Objekt 1 gegriffen werden kann. Auch die Greiferpose des Greifers 20 ist bezüglich des Objektkoordinatensystems 2 gespeichert. Die
Greiferpose umfasst dabei den Vektor V2 sowie drei Raumwinkel. Auch der Vektor V2 zeigt von dem Ursprung des Objektkoordinatensystems 2 zu dem TCP des Greifers 20. Zum Greifen des Objekts 1 müssen in dem Ausführungsbeispiel der Fig. 2b lediglich die Greiferbacken des Greifers 20 zusammengedrückt werden. Zum Beispiel können die Greiferbacken solange zusammengedrückt werden, bis ein Schwellenkraftwert, z. B. 20 oder 50 Newton, überschritten ist. Nach dem Zugreifen durch den Greifer 20 kann das Objekt 1 durch ein Ändern der
Roboterkonfiguration bewegt werden.
Die Fig. 3, 4a und 4b zeigen, wie für ein Objekt 1 eine Vielzahl von Greiferposen P, P P" generiert werden kann. Zunächst wird in der Fig . 3 gezeigt, wie für ein Objekt 1 ein Objektprototyp bestimmt wird. Hierzu wird eine Vielzahl von unterschiedlichen Objektprototypen 30, 30\ 30" bereitgestellt. Im
Ausführungsbeispiel der Fig. 3 sind ein Zylinder 30, ein Quader 30λ und eine Sphäre 30" dargestellt.
Die genaue Ausgestaltung der Objektprototypen 30, 30\ 30" kann über eine Vielzahl von Parametern festgelegt werden. So kann die Höhe des Zylinders 30 mittels des Parameters LI festgelegt werden. Der Radius des Zylinders kann mittels des Parameters Rl festgelegt werden. Auch der Quader 30λ kann mittels der Parameter L2, L3 und L4 in seinen Dimensionen festgelegt werden. Die Sphäre 30" kann über den Radius R2 festgelegt werden.
Um einen Objektprototyp 30, 30\ 30" für die Flasche 1 auszuwählen, werden die Parameter LI bis L4 und Rl, R2 derart verändert, dass ein maximales Volumen der Objektprototypen 30, 30\ 30" durch die Flasche 1 ausgefüllt wird. Die Flasche 1 wird also in die Objektprototypen 30, 30\ 30" hineingelegt. Dies kann über bekannte Optimierungsverfahren ausgeführt werden. Der Objektprototyp, der das größte Volumen der Flasche 1 ausfüllt und gleichzeitig die Flasche 1 komplett einschließt, wird als Objektprototyp für die Flasche 1 ausgewählt. Im dargestellten Ausführungsbeispiel der Fig. 3 wird daher der Zylinder 30 für die Flasche 1 als Objektprototyp ausgewählt.
Die Objektprototypen 30, 30\ 30" der Fig . 3 verfügen über Symmetrien, die anhand von Symmetrieachsen S festlegbar sind. In der Fig. 4a ist die
Symmetrieachse S für den Zylinder 30 dargestellt. Ein Zylinder ist
rotationssymmetrisch um die Symmetrieachse S aufgebaut. Die Symmetrie wird im Folgenden zur Generierung einer Vielzahl möglicher Greiferposen Ρλ, P" zum Greifen des Zylinders 30 verwendet.
Dazu zeigt die Fig . 4b eine Greiferpose P eines Greifers, welche durch einen Bediener mittels des Roboters 10 manuell erstellt worden ist. Unter Verwendung der Symmetrieachse S können nun weitere Greiferposen Ρλ, P" generiert werden. Dazu wird die Greiferpose P mittels einer Transformationsmatrix um das Zentrum des Zylinders 30 in einer Draufsicht herum rotiert. Auf diese Art und Weise kann in beliebigen Winkelabständen, z. B. alle 1 Grad, alle 5 Grad oder alle 10 Grad, eine Greiferpose P\ P" generiert werden. Selbstverständlich kann jedem
Objektprototypen 30, 30\ 30" eine Vielzahl von Symmetrieachsen S zugewiesen werden, so dass eine sehr große Anzahl von Greiferposen Ρλ, P" generiert werden kann. So ist es möglich, dass für eine aufgezeichnete Greiferpose P zum Greifen der Flasche 1 eine Vielzahl von weiteren Greiferposen Ρλ, P", generiert werden, die ebenfalls zum Greifen der Flasche 1 geeignet sind.
Die aufgezeichnete Greiferpose P sowie die generierten Greiferpose P\ P" werden anschließend in einer Objektdatenbank 40 gespeichert. Fig . 5 zeigt eine schematische Darstellung einer Tabelle 41 der Objektdatenbank 40. Die
Datenbanktabelle 41 umfasst die Spalten„Objekt",„Greifer",„PoseAnfahr", „PoseGr." und„F". Die Spalte„Objekt" enthält Identifikationsnummern, die Objekten 1, zugeordnet sind . Dabei kann es sich beispielsweise um die
Identifikationsnummer in einer weiteren Datenbanktabelle handeln, in der Objektbeschreibungen abgelegt sind . Jede Zeile der Datenbanktabelle 41 entspricht einer Greiferpose. Dabei wird zu jeder Greiferpose P2, P4 der verwendete Greifer gespeichert. In dem gezeigten Ausführungsbeispiel ist in beiden Tabellenzeilen ein Parallelgreifer als Greifertyp gespeichert. Darüber hinaus wird zu den Greiferposen P2, P4 jeweils eine zugehörige Anfahrtspose PI, P3 gespeichert. Die zugehörigen Anfahrtsposen PI, P3 können wie die
Greiferposen der Fig. 4b durch Ausnutzung von Symmetrieachsen generiert werden. Die Greiferposen P2, P4 entsprechen entweder aufgezeichneten
Greiferposen P oder generierten Greiferposen P P". Zusätzlich zu den
Greiferposen P2, P4 kann auch noch optional ein Kraftwert F gespeichert werden, der angibt, mit welcher Kraft die Backen des verwendeten Parallelgreifers gegen das zu hebende Objekt 1 drücken sollen.
Die Fig. 6 zeigt ein Ausführungsbeispiel, bei dem die Objektdatenbank 40 zum Greifen eines Objekts verwendet wird . Die Fig. 6 zeigt einen Roboter 10 mit einer Stereokamera 11 sowie einem Greifer 20. Der Roboter 10 umfasst ferner eine Steuereinrichtung 12, die die Steuerung des Roboters ausführt. Neben dem Roboter 10 angeordnet ist eine Flasche dargestellt. In einem ersten Schritt erkennt die Stereokamera 11 das zu greifende Objekt als eine Flasche. Die erkannte Flasche kann einem Objekttyp zugeordnet werden. Anschließend wird aus der Objektdatenbank 40 eine Vielzahl von Kandidatenposen 52 abgefragt werden. Hierzu kommuniziert die Steuerung 12 über ein Netzwerk oder lokal mit der Objektdatenbank 40. Zur Abfrage sendet die Steuerung 12 eine
Identifikationsnummer, die der erkannten Flasche zugeordnet ist. Unter Verwendung der übermittelten Identifikationsnummer werden jene
Kandidatenposen P2, P4 ausgewählt, die mit dem erkannten Objekt kompatibel sind. Nachdem die Kandidatenposen P2, P4 durch die Steuereinrichtung 12 empfangen wurden, werden diese unter Verwendung einer Fähigkeitskarte gefiltert. Dabei werden jene Kandidatenposen aussortiert, die nicht erreicht werden können. Darüber hinaus findet eine Sortierung statt, die auch unter Verwendung der Fähigkeitskarte ausgeführt wird. Die Reihenfolge der
Greiferposen wird durch die Anzahl der Richtungen bestimmt, aus denen die den Greiferposen zugeordneten Koordinaten erreicht werden können.
Auf der Steuereinrichtung 12 ist darüber hinaus ein Pfadplaner implementiert, der den Pfad des Roboters 10 von der aktuellen Konfiguration in die
Zielkonfiguration, die einer ersten Kandidatenpose entspricht, berechnet. Kann der Pfadplaner einen Pfad von der aktuellen Roboterkonfiguration zu der
Zielroboterkonfiguration berechnen, so wird die erste Kandidatenpose zum
Greifen des Objekts verwendet. Kann der Pfadplaner keinen Pfad berechnen, weil beispielsweise ein weiteres Objekt den Pfad versperrt, so wird die nächste Kandidatenpose in der sortierten Liste der Kandidatenposen ausgewählt. Dieses Verfahren wird solange ausgeführt, bis eine Kandidatenpose P2, P4 gefunden ist, für die der Pfadplaner einen Pfad berechnen kann.
Das beschriebene Verfahren dieser Anmeldung ist im Flussdiagramm der Fig. 7 noch einmal zusammengefasst.
Im ersten Schritt Sl werden Videodaten 51 analysiert, um Objekte 1, Tin der Umgebung des Roboters 10 zu identifizieren. Bekannte Objekte 1, sind zusammen mit Objektmerkmalen in der Objektdatenbank 40 gespeichert. Unter Verwendung der Objektmerkmale wird ein Perzeptionsalgorithmus ausgewählt, der zur Erkennung des Objekts 1, eingesetzt wird. Es wird nun für das erste bekannte Objekt der Objektdatenbank 40 begonnen zu ermitteln, ob das Objekt in den Videodaten 51 erkennbar ist. Ist das Objekt nicht erkennbar, so wird mit dem zweiten Objekt aus der Objektdatenbank 40 fortgefahren. Evtl. wird für das zweite Objekt ein anderer Perzeptionsalgorithmus verwendet als für das erste Objekt. Wird festgestellt, dass das zweite Objekt der Objektdatenbank 40 in den Videodaten 51 erkennbar ist, ist der Schritt Sl beendet. Die resultierenden Objektdaten 52 werden im Schritt S2 verwendet, um für das erkannte Objekt aus der Objektdatenbank 40 eine Liste von Kandidatenposen P2, P4 abzufragen.
Die Liste der Kandidatenposen 53 wird im Schritt S3 unter Verwendung einer Fähigkeitskarte eines Roboters 10 gefiltert. Dabei werden jene Kandidatenposen entfernt, die sich mit dem verwendete Roboter 10 oder Greifer 20 nicht erreichen lassen. Darüber hinaus wird die Liste der Kandidatenposen 53 unter Verwendung der Fähigkeitskarte 54 sortiert. Die Liste der Kandidatenposen 53 wird ferner unter Verwendung von benutzerdefinierten Kriterien sortiert. Z. B. wird die zu den Kandidatenposen gespeicherte Greifart bei der Sortierung berücksichtigt. Hat ein Benutzer angegeben, dass bei Verwendung eines Mehrfingergreifers ein
Fingergreifen zu bevorzugen ist, so wird die Liste der Kandidatenposen 53 entsprechend sortiert.
Die sortierte Liste von Kandidatenposen 55 wird im Schritt S4 zusammen mit einem Weltmodell 56, welches die Posen von Objekten in der Umgebung des Roboters 10 umfasst, zur Generierung eines Pfades für den Roboter 10
verwendet. Zur Pfadplanung wir die Inverskinematik des verwendeten Roboters 10 berücksichtigt, die die Roboterkonfiguration, also die Gelenkwinkel, bei Kenntnis der Pose des Greifers 20 angibt. Darüber hinaus wird bei der
Pfadplanung eine Kollisionsprüfung ausgeführt, wobei Objekte, die im Weltmodell 56 gespeichert sind, bei der Pfadplanung berücksichtigt werden. Wird im Schritt S5 festgestellt, dass kein Pfad für die erste Kandidatenpose der Liste ermittelt werden kann, so wird eine erneute Pfadplanung mit der nächsten Kandidatenpose der Liste gestartet. Das Verfahren wiederholt sich solange, bis in Schritt S5 festgestellt wird, dass ein Roboterpfad 57 berechnet werden kann. Im Schritt S6 wird dann der Roboter 10 unter Verwendung des Roboterpfads 57 verfahren.
An dieser Stelle sei darauf hingewiesen, dass alle oben beschriebenen Teile für sich alleine gesehen und in jeder Kombination, insbesondere die in den
Zeichnungen dargestellten Details, als erfindungswesentlich beansprucht werden. Abänderungen hiervon sind dem Fachmann geläufig.
Bezuqszeichenliste:
1 Objekt, Flasche
2 Objektkoordinatensystem 10 Roboter
11 3D-Kamera
12 Steuereinrichtung
20 Parallelgreifer
30, 30\ 30" Objektprototyp
40 Objektdatenbank
41 Datenbanktabelle
51 Videodaten
52 Objektdaten
53 Liste von Kandidatenposen
54 Fähigkeitskarte
55 sortierte Liste von Kandidatenposen
56 Weltmodel
57 Roboterpfad
LI, L2, L3, L4 Länge
Tl, T2, T3 Radius
P, Ρλ Kandidatenpose
PI, P3 Anfahrpose
P2, P4 Greiferpose
VI, V2 Vektor
F Kraftangabe
S Symmetrieachse
S1-S6 Verfahrensschritte

Claims

Ansprüche
1. Verfahren zur Erstellung einer Datenbank (40) mit Greiferposen, Folgendes umfassend :
a. Speichern, insbesondere durch Aufzeichnen, mindestens einer
Trainingsgreiferpose (P, P2, P4) zum Greifen eines Trainingsobjekts (1), insbesondere bezüglich eines dem Trainingsobjekt (1) zugeordneten Trainingsobjektkoordinatensystems (2);
b. Generieren mindestens einer weiteren Greiferpose (P\ P") für das
Trainingsobjekt (1) unter Verwendung mindestens eines
Objektprototypen (30, 30\ 30") und der Trainingsgreiferpose (P, P2, P4);
c. Speichern der mindestens einen weiteren Greiferpose (Ρλ) und der
Trainingsgreiferpose (P, P2, P4) mit einem Bezug zu dem
Trainingsobjekt (1) in der Datenbank (40), insbesondere in einer Objektdatenbank (40).
2. Verfahren zum Steuern eines Roboters (10), Folgendes aufweisend :
- Durchführen der Schritte des Verfahrens nach Anspruch 1 zum Erstellen der Datenbank (40);
- Abfragen mindestens einer Pose (P, P\ P", P2, P4) aus der
Objektdatenbank (40);
- Steuern des Roboters (10) unter Verwendung der mindestens einen Pose (P, P\ P", P2, P4).
3. Verfahren nach einem der vorhergehenden Ansprüche,
d a d u rc h g e ke n n ze i c h n et , d a s s
eine Pose (P, P\ P", PI, P2, P3, P4), insbesondere die Trainingsgreiferpose (P, P2, P4), als ein sechs-Tupel repräsentiert wird, das drei
Raumkoordinaten und drei Winkel bezogen auf ein dem Trainingsobjekt (1) zugeordnetes Trainingsobjektkoordinatensystem (2) aufweist.
4. Verfahren nach einem der vorhergehenden Ansprüche
g e ke n n ze i c h n et d u r c h
ein Auswählen des mindestens einen Objektprototypen (30, 30\ 30") aus einer Menge von Kandidatenprototypen (30, 30\ 30").
5. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 3,
dadurch gekennzeichnet, dass
die Menge von Kandidatenprototypen (30, 30\ 30")
- einen Zylinder (30);
- eine Sphäre (30");
- einen Quader (30λ);
- einen Kegel;
- einen Kegelstumpf; und/oder
- eine Pyramide
umfasst.
6. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
dem mindestens einen Objektprototyp (30, 30\ 30") mindestens eine Symmetrieachse (S) zugeordnet ist, wobei eine Vielzahl von Greiferposen (Ρλ, P") unter Berücksichtigung der mindestens einen Symmetrieachse (S) generiert wird, insbesondere durch Rotation um die mindestens eine Symmetrieachse, bevorzugt unter Verwendung einer
Transformationsmatrix, wobei die Vielzahl von Greiferposen (Ρλ, P") jeweils gespeichert werden.
7. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
die Trainingsgreiferpose (P, P2, P4) und die weitere mindestens eine Greiferpose (P\ P") jeweils mit einer Objektidentifikationsnummer gespeichert werden, die dem Trainingsobjekt (1) zugeordnet ist.
8. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
das Speichern ein Speichern von Greifparametern zusammen mit den Posen in einer/der Objektdatenbank (40) umfasst, insbesondere
Greiferinformationen, eine Greifart, eine Qualitätsangabe, eine Kraft (F), eine Greifstrategie und/oder eine Greifbeschreibung.
9. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch
ein Identifizieren des Trainingsobjekts (1), insbesondere mittels eines Perzeptionssystems (11), z.B. mittels einer Stereokamera (11).
10. Verfahren nach einem der vorhergehenden Ansprüche,
insbesondere nach Anspruch 9,
gekennzeichnet durch
ein Speichern von Objektmerkmalen zum Erkennen des Trainingsobjekts (1), insbesondere von Ecken und/oder Kanten des Trainingsobjekts (1), vorzugsweise derart, dass Posen den Objektmerkmalen zuordenbar sind.
11. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 9 oder 10,
gekennzeichnet durch
- ein Identifizieren eines zu greifenden Zielobjekts ( ), insbesondere einer dem Zielobjekt ( ) zugeordneten Objektidentifikationsnummer;
- ein Bestimmen einer Zielgreiferpose (P2, P4), die dem Zielobjekt ( ) zuordenbar ist;
- ein Greifen des Zielobjekts ( ) unter Verwendung der Zielgreiferpose (P2, P4), insbesondere durch einen Endeffektor (20), z.B. einem Parallelgreifer (20), eines Roboters (10).
12. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 11,
dadurch gekennzeichnet, dass
das Bestimmen das Auslesen einer Vielzahl von Kandidatenposen (P2, P4) umfasst, insbesondere aus einer/der Objektdatenbank (40), wobei das Auslesen unter Berücksichtigung einer Erreichbarkeitskarte und/oder einer Fähigkeitskarte eines Roboters (10) durchgeführt wird.
13. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 11
dadurch gekennzeichnet, dass
das Bestimmen ein Sortieren einer/der Vielzahl von Kandidatenposen (P2, P4) umfasst, wobei das Sortieren unter Berücksichtigung der
Fähigkeitskarte durchgeführt wird.
14. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 10
g e ke n n ze i c h n et d u r c h
eine Bewegungsplanung zum Bewegen eines Roboters (10) von einer Ausgangskonfiguration in einer Zielkonfiguration, wobei die
Zielkonfiguration einer/der Zielgreiferpose (P2, P4) zugeordnet ist.
15. Computerlesbares Speichermedium, welches Instruktionen enthält, die mindestens einen Prozessor dazu veranlassen ein Verfahren nach einem der vorhergehenden Ansprüche zu implementieren, wenn die Instruktionen durch den mindestens einen Prozessor ausgeführt werden.
16. Handhabungssystem, umfassend :
- eine Objektdatenbank (40), insbesondere eine Objektdatenbank (40), die nach einem der Ansprüche 1 bis 14 erstellt ist;
- einen Roboter (10), der dazu ausgebildet ist, ein Objekt (1, ) zu
greifen;
- ein Perzeptionssystem (11) zur Erfassung des Objekts (1, ), das
insbesondere an dem Roboter (10) angeordnet ist,
wobei der Roboter (10) dazu ausgebildet ist,
- unter Verwendung des erfassten Objekts (1, ) eine Vielzahl von
Kandidatenposen (P2, P4) aus der Objektdatenbank (40) abzufragen;
- die Vielzahl von Kandidatenposen (P2, P4) zu filtern, insbesondere unter Verwendung einer Erreichbarkeitskarte und/oder einer
Fähigkeitskarte, um eine Zielgreiferpose (P2, P4) zu bestimmen;
- eine Roboterkonfiguration entsprechend der Zielgreiferpose (P2, P4) einzustellen.
EP18719839.5A 2017-04-21 2018-04-23 Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem Pending EP3612355A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017108517 2017-04-21
DE102017108727.3A DE102017108727B4 (de) 2017-04-24 2017-04-24 Verfahren zur Erstellung einer Datenbank mit Greiferposen, Verfahren zum Steuern eines Roboters, computerlesbares Speichermedium und Handhabungssystem
PCT/EP2018/060264 WO2018193130A1 (de) 2017-04-21 2018-04-23 Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem

Publications (1)

Publication Number Publication Date
EP3612355A1 true EP3612355A1 (de) 2020-02-26

Family

ID=62046918

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18719839.5A Pending EP3612355A1 (de) 2017-04-21 2018-04-23 Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem

Country Status (2)

Country Link
EP (1) EP3612355A1 (de)
WO (1) WO2018193130A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3831546A4 (de) * 2019-03-15 2022-03-23 OMRON Corporation Greifpositions- und ausrichtungsregistrierungsvorrichtung, greifpositions- und ausrichtungsregistrierungsverfahren und programm
CN111504328B (zh) 2020-05-22 2022-07-08 梅卡曼德(北京)机器人科技有限公司 机器人运动规划方法、路径规划方法、抓取方法及其装置
CN112633187B (zh) * 2020-12-28 2023-05-05 山东电子职业技术学院 基于图像分析的机器人自动搬运方法、系统和存储介质
CN113062697B (zh) * 2021-04-29 2023-10-31 北京三一智造科技有限公司 一种钻杆装卸控制方法、装置及钻杆装卸设备
CN113538459B (zh) * 2021-07-07 2023-08-11 重庆大学 一种基于落点区域检测的多模式抓取避障检测优化方法
CN114683251A (zh) * 2022-03-31 2022-07-01 上海节卡机器人科技有限公司 机器人抓取方法、装置、电子设备及可读取存储介质
CN115570564B (zh) * 2022-09-26 2024-06-14 北京航空航天大学 一种家用服务机器人对目标位姿的识别与规范化方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT11337U1 (de) * 2009-02-26 2010-08-15 Ih Tech Sondermaschb U Instand Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
DE102014223167A1 (de) * 2014-11-13 2016-05-19 Kuka Roboter Gmbh Bestimmen von objektbezogenen Greifräumen mittels eines Roboters

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT11337U1 (de) * 2009-02-26 2010-08-15 Ih Tech Sondermaschb U Instand Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten

Also Published As

Publication number Publication date
WO2018193130A1 (de) 2018-10-25

Similar Documents

Publication Publication Date Title
DE102017108727B4 (de) Verfahren zur Erstellung einer Datenbank mit Greiferposen, Verfahren zum Steuern eines Roboters, computerlesbares Speichermedium und Handhabungssystem
EP3612355A1 (de) Verfahren zur erstellung einer datenbank mit greiferposen, verfahren zum steuern eines roboters, computerlesbares speichermedium und handhabungssystem
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE112017002498B4 (de) Robotervorgang-auswertungseinrichtung, robotervorgang-auswertungsverfahren und robotersystem
DE102021121063A1 (de) Effiziente datengenerierung für das greifenlernen mit allgemeinen greifern
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102015002658B4 (de) Robotersimulationssystem, das einen Entnahmevorgang eines Werkstücks simuliert
EP3020516B1 (de) Bestimmen von objektbezogenen greifräumen mittels eines roboters
DE112019000097B4 (de) Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
DE112018007727B4 (de) Robotersystem
DE102015000587A1 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102021107568A1 (de) Adaptive planung von zugriffen zum aufheben von behältern
DE102016001174A1 (de) Robotersystem zum Entnehmen von Werkstücken mit Umrechenfunktion von Position und Orientierung und Verfahren zum Entnehmen von Werkstücken
EP3966731A1 (de) Maschinelles lernen einer objekterkennung mithilfe einer robotergeführten kamera
DE102021205324A1 (de) Greifverfahren und Greifvorrichtung eines Industrieroboters, Computerspeichermedium und Industrieroboter
DE112018007729B4 (de) Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem
EP3323565B1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
DE112017007903B4 (de) Haltepositions- und Orientierungslehreinrichtung, Haltepositions- und Orientierungslehrverfahren und Robotersystem
EP3702108A1 (de) Verfahren zum ermitteln einer greifposition zum ergreifen eines werkstücks
DE102015214857A1 (de) Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung
WO2019029878A1 (de) Handhabungsanordnung mit einer handhabungseinrichtung zur durchführung mindestens eines arbeitsschritts sowie verfahren und computerprogramm
WO2023237323A1 (de) Erhöhung der greifrate

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20191118

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIN1 Information on inventor provided before grant (corrected)

Inventor name: GAMBARO, ELENA FRANCESCA

Inventor name: STELZER, ANNETT

Inventor name: ROA GARZON, MAXIMO ALEJANDRO

Inventor name: SUPPA, MICHAEL

Inventor name: FLOREK-JASINSKA, MONIKA

Inventor name: EMMERICH, CHRISTIAN

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20210929

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230621