DE102020104359B4 - Workspace limitation for a robot manipulator - Google Patents

Workspace limitation for a robot manipulator Download PDF

Info

Publication number
DE102020104359B4
DE102020104359B4 DE102020104359.7A DE102020104359A DE102020104359B4 DE 102020104359 B4 DE102020104359 B4 DE 102020104359B4 DE 102020104359 A DE102020104359 A DE 102020104359A DE 102020104359 B4 DE102020104359 B4 DE 102020104359B4
Authority
DE
Germany
Prior art keywords
volume shape
manipulator
working space
image
camera unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020104359.7A
Other languages
German (de)
Other versions
DE102020104359A1 (en
Inventor
Andreas Spenninger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Franka Emika GmbH
Original Assignee
Franka Emika GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Franka Emika GmbH filed Critical Franka Emika GmbH
Priority to DE102020104359.7A priority Critical patent/DE102020104359B4/en
Publication of DE102020104359A1 publication Critical patent/DE102020104359A1/en
Application granted granted Critical
Publication of DE102020104359B4 publication Critical patent/DE102020104359B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35123Calculate volume of object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40584Camera, non-contact sensor mounted on wrist, indep from gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49035Reconstruct boundary volume from stack of layer contours, sections

Abstract

Verfahren zum Einschränken eines Arbeitsraumes eines Robotermanipulators (1), aufweisend die Schritte:- Aufnehmen (S1) eines Bildes eines Objekts (3) im Arbeitsraum des Robotermanipulators (1) durch eine Kameraeinheit (5), wobei die Kameraeinheit (5) an einem portablen Endgerät für einen Anwender angeordnet ist,- Ermitteln (S2) einer Position und/oder einer Orientierung des Objekts (3) im Arbeitsraum des Robotermanipulators (1) relativ zum Robotermanipulator (1) durch Bildanalyse des Bildes durch eine Recheneinheit (7), wobei durch die Kameraeinheit (5) ein gemeinsames Bild des Robotermanipulators (1) und des Objekts (3) im Arbeitsraum des Robotermanipulators (1) aufgenommen wird,- Ermitteln (S3) einer virtuellen geometrischen Volumenform (9) durch die Recheneinheit (7) so, dass die virtuelle geometrische Volumenform (9) das Objekt (3) virtuell vollständig umschließt, und- Definieren (S4) des räumlichen Inhalts der Volumenform (9) als unzulässiges Gebiet für den Robotermanipulator (1) durch die Recheneinheit (7), sodass der Arbeitsraum durch die Volumenform (9) beschränkt wird.Method for restricting a working space of a robotic manipulator (1), comprising the steps: - Recording (S1) an image of an object (3) in the working space of the robotic manipulator (1) by a camera unit (5), the camera unit (5) being on a portable Terminal is arranged for a user, - determining (S2) a position and / or an orientation of the object (3) in the workspace of the robot manipulator (1) relative to the robot manipulator (1) by image analysis of the image by a computing unit (7), wherein by the camera unit (5) captures a joint image of the robot manipulator (1) and the object (3) in the working space of the robot manipulator (1),- a virtual geometric volume shape (9) is determined (S3) by the computing unit (7) such that the virtual geometric volume shape (9) virtually completely encloses the object (3), and defining (S4) the spatial content of the volume shape (9) as an impermissible area for the robot manipulator (1) by the computing unit (7), so that the working space is limited by the volumetric form (9).

Description

Die Erfindung betrifft ein Verfahren zum Einschränken eines Arbeitsraumes eines Robotermanipulators sowie ein System zum Einschränken des Arbeitsraumes des Robotermanipulators.The invention relates to a method for restricting a working space of a robotic manipulator and a system for restricting the working space of the robotic manipulator.

Im Stand der Technik sind Systeme bekannt, um den Arbeitsraum eines Roboters zu überwachen.Systems are known in the prior art for monitoring the working space of a robot.

So betrifft die DE 10 2017 222 057 A1 ein Robotersystem, umfassend einen Roboter, der einen Kontakt mit einem Objekt erfassen kann, wobei sich der Roboter in einem vorbestimmten Suchbereich in einer vorbestimmten Stellung bewegt und einen Freigabe-Sperrbereich des Roboters innerhalb des Suchbereichs basierend auf Positionsstellungsdaten in Bezug auf den Roboter einstellt, der während der Bewegung des Roboters in Kontakt mit dem Objekt gekommen ist.So affects the DE 10 2017 222 057 A1 a robot system comprising a robot that can detect contact with an object, the robot moving in a predetermined search area in a predetermined posture and setting a release-prohibited area of the robot within the search area based on positional posture data with respect to the robot that came into contact with the object during the movement of the robot.

Die DE 10 2016 120 763 B4 betrifft ein Verfahren zur kollisionsfreien Bewegungsplanung eines ersten Manipulators in einem ersten Arbeitsraum und eines zweiten Manipulators in einem zweiten Arbeitsraum, wobei sich der erste und der zweite Arbeitsraum zumindest teilweise überschneiden, mit den Schritten: Einlesen einer ersten dynamischen Karte für einen ersten Konfigurationsraum des ersten Manipulators, wobei die erste dynamische Karte einen ersten Suchgraphen und eine erste Abbildung zwischen dem ersten Arbeitsraum und dem ersten Suchgraphen umfasst, Einlesen einer zweiten dynamischen Karte für einen zweiten Konfigurationsraum des zweiten Manipulators, wobei die zweite dynamische Karte einen zweiten Suchgraphen und eine zweite Abbildung zwischen dem zweiten Arbeitsraum und dem zweiten Suchgraphen umfasst, und Koordinieren der Bewegung des ersten Manipulators und des zweiten Manipulators basierend auf der ersten dynamischen Karte und der zweiten dynamischen Karte.the DE 10 2016 120 763 B4 relates to a method for collision-free movement planning of a first manipulator in a first workspace and a second manipulator in a second workspace, the first and the second workspace overlapping at least partially, with the steps: reading in a first dynamic map for a first configuration space of the first manipulator , wherein the first dynamic map comprises a first search graph and a first mapping between the first workspace and the first search graph, reading in a second dynamic map for a second configuration space of the second manipulator, the second dynamic map comprising a second search graph and a second mapping between the second workspace and the second search graph, and coordinating movement of the first manipulator and the second manipulator based on the first dynamic map and the second dynamic map.

Die DE 10 2009 026 091 A1 betrifft ein Verfahren zur Überwachung eines dreidimensionalen Raumbereichs, insbesondere einer Arbeitszelle einer automatisiert arbeitenden Maschine wie Roboter, bei dem Bilder verwendet werden, die in zeitlicher Folge von wenigstens zwei, richtungs-diversitär bzw. richtungs-disimilar angeordneten Kameras erfasst wurden, deren Sichtstrahlen sich wenigstens teilweise in einem Anfragevolumen in dem Raumbereich überschneiden und bei dem anhand einer Szenenanalyse der Bilder in das Anfragevolumen eindringende Objekte und/oder gegebenenfalls Hindernisse detektiert werden, wobei in jeder oder für jede Kamera eine unabhängige Szenenanalyse der Bilder durchgeführt wird, dass Ergebnisse der unabhängigen Szenenanalysen der richtungs-diversitären Kameras redundant ausgewertet und dadurch ein oder mehrere fehlertolerante Überwachungssignale gebildet werden.the DE 10 2009 026 091 A1 relates to a method for monitoring a three-dimensional spatial area, in particular a work cell of an automated machine such as a robot, in which images are used which were recorded in a chronological sequence by at least two cameras arranged in different directions or in different directions, the visual beams of which are at least partially overlap in a query volume in the spatial area and in which objects penetrating the query volume and/or possible obstacles are detected on the basis of a scene analysis of the images, with an independent scene analysis of the images being carried out in each or for each camera that the results of the independent scene analyzes of the Directionally diverse cameras are evaluated redundantly and one or more fault-tolerant surveillance signals are formed as a result.

Die DE 11 2014 000 700 T5 betrifft ein Interferenzprüfgerät, welches aufweist: eine Modellzahl-Obergrenzen-Eingabeeinheit, in die eine Obergrenze einer Anzahl geometrischer Modelle, die einem Modellierungsziel zugeordnet werden, eingegeben wird, wobei das Modellierungsziel ein Ziel einer Interferenzprüfung ist; eine Modellierungseinheit, die, wenn ein Quader, welcher dazu ausgebildet ist, das Modellierungsziel einzuschließen, als Modellierungsziel als ein Modell für eine Interferenzprüfung eingegeben wird, neue geometrische Modelle nutzt, die niedrigere Berechnungskosten pro Berechnungsabstandseinheit als der Quader haben und deren Anzahl gleich oder kleiner als die Obergrenzen-Zahl der Modelle ist, um den Quader mit den neuen geometrischen Modellen und Modellen des Modellierungsziels zu ersetzen; eine Modellkandidaten-Speichereinheit, die als Modellkandidaten Modelle speichert, in denen die neuen geometrischen Modelle benutzt werden; eine Berechnungsverarbeitungsaufwand-Obergrenzen-Einstelleinheit, die eine Obergrenze eines Berechnungsaufwands setzt, die eine Obergrenze eines Berechnungsbetrags bei der Berechnungs-Verarbeitung einer Interferenzprüfung ist, auf der Basis von Information, die sich auf einen jeden durch einen Controller, der das Modellierungstarget steuert, ausgeführten Prozess benötigten Berechnungs-Verarbeitungsbetrag bezieht; eine Volumenmodell-Bestimmungseinheit, die aus den Modellkandidaten einen Modellkandidaten herauszieht, auf dem eine Berechnungsverarbeitung der Interferenzprüfung mit einem Berechnungs-Verarbeitungsbetrag ausgeführt werden kann, der gleich oder kleiner als die Berechnungsbetrag-Obergrenze ist, und die, wenn es unter den herausgezogenen Modellkandidaten ein Modell mit einem Volumen gibt, das gleich der oder kleiner als die Volumenobergrenze ist, einen Modellkandidaten mit einem kleinsten Modelleinschlussvolumen als ein Modellmodellierungsziel aus den herausgezogenen Modellkandidaten bestimmt; eine Interferenzprüfeinheit, die eine Interferenzprüfung zwischen Modellen unter Nutzung eines durch die Volumenmodell-Bestimmungseinheit bestimmten Modells ausführt und die, wenn es die Möglichkeit einer Interferenz gibt, einen Betriebsstopp-Befehl ausgibt und, wenn es keine Möglichkeit einer Interferenz gibt, einen Betriebsfortsetzungs-Befehl ausgibt.the DE 11 2014 000 700 T5 relates to an interference check apparatus comprising: a model number upper limit input unit to which an upper limit of a number of geometric models assigned to a modeling target, the modeling target being a target of an interference check; a modeling unit that, when a cuboid designed to enclose the modeling target is input as a modeling target as a model for an interference check, uses new geometric models that have lower calculation costs per unit calculation distance than the cuboid and the number of which is equal to or less than the upper limit number of models is to replace the cuboid with the new geometric models and models of the modeling target; a candidate model storage unit that stores, as candidate models, models in which the new geometric models are used; a calculation processing amount upper limit setting unit that sets an upper limit of a calculation amount that is an upper limit of a calculation amount in calculation processing of an interference check, based on information related to each process executed by a controller that controls the modeling target obtains required calculation processing amount; a solid model determining unit that extracts, from among the model candidates, a model candidate on which calculation processing of the interference check can be performed with a calculation processing amount equal to or smaller than the calculation amount upper limit, and if there is a model among the extracted model candidates having a volume equal to or smaller than the volume upper limit, determines a model candidate having a smallest model confinement volume as a model modeling target from among the extracted model candidates; an interference check unit that performs an interference check between models using a model determined by the solid model determination unit and that issues an operation stop command when there is a possibility of interference and issues a continue operation command when there is no possibility of interference .

Die EP 1 901 150 B1 betrifft ein Verfahren zum Vermeiden von Kollisionen zwischen Bauteilen eines multiaxialen Industrieroboters und wenigstens einem anderen Objekt, wobei das Verfahren umfasst ein Empfangen von Information über einen für den Roboter geplanten Weg, ein Berechnen der kürzesten Entfernungen zwischen den Bauteilen des Roboters und dem Objekt an einer Mehrzahl zukünftiger Zeitpunkte basierend auf dieser Information über den geplanten Weg, und ein Bestimmen einer Stoppzeit für den Roboter wobei das Verfahren ferner umfasst: ein Durchführen einer Extrapolation der gespeicherten kürzesten Entfernungen, bis die Entfernung zwischen dem Roboter und dem Objekt Null wird, und auf deren Grundlage ein Bestimmen der Zeit, die bis zu einer Kollision zwischen dem Roboter und dem Objekt verbleibt, ein Vergleichen der veranschlagten, bis zu einer Kollision verbleibenden Zeit mit der Stoppzeit für den Roboter, und ein Stoppen des Roboters oder des Objekts in dem Falle, in dem die veranschlagte, bis zur Kollision verbleibende Zeit nahe der Stoppzeit des Roboters liegt.the EP 1 901 150 B1 relates to a method for avoiding collisions between components of a multiaxial industrial robot and at least one other object, the method comprising receiving information about a path planned for the robot, calculating the shortest distances between the components of the robot and the object at a plurality future instants based on this information about the planned path, and determining a stopping time for the robot, the method further comprising: performing an extrapolation of the stored shortest distances until the distance between the robot and the object becomes zero, and based thereon Determining the time remaining before a collision between the robot and the object, comparing the estimated time remaining before a collision with the stopping time for the robot, and stopping the robot or the object in the case where the estimated time remaining to collision is close to the robot's stop time.

Die JP H04 236 676 A betrifft schließlich ein Verfahren zur Überprüfung von Interferenzen einer beweglichen Struktur.the JP H04 236 676 A finally relates to a method for checking interference of a moving structure.

Aufgabe der Erfindung ist es, das Definieren eines zulässigen Arbeitsraumes für einen Robotermanipulator zu vereinfachen.The object of the invention is to simplify the definition of a permissible working space for a robot manipulator.

Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche.The invention results from the features of the independent claims. Advantageous developments and refinements are the subject matter of the dependent claims.

Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Einschränken eines Arbeitsraumes eines Robotermanipulators, aufweisend die Schritte:

  • - Aufnehmen eines Bildes eines Objekts im Arbeitsraum des Robotermanipulators durch eine Kameraeinheit, wobei die Kameraeinheit an einem portablen Endgerät für einen Anwender angeordnet ist,
  • - Ermitteln einer Position und/oder einer Orientierung des Objekts im Arbeitsraum des Robotermanipulators relativ zum Robotermanipulator auf Basis des Bildes durch Bildanalyse des Bildes durch eine Recheneinheit, wobei durch die Kameraeinheit ein gemeinsames Bild des Robotermanipulators und des Objekts im Arbeitsraum des Robotermanipulators aufgenommen wird,
  • - Ermitteln einer virtuellen geometrischen Volumenform durch die Recheneinheit so, dass die virtuelle geometrische Volumenform das Objekt virtuell vollständig umschließt, und
  • - Definieren des räumlichen Inhalts der Volumenform als unzulässiges Gebiet für den Robotermanipulator durch die Recheneinheit, sodass der Arbeitsraum durch die Volumenform beschränkt wird.
A first aspect of the invention relates to a method for restricting a working space of a robot manipulator, having the steps:
  • - Recording an image of an object in the working space of the robotic manipulator using a camera unit, the camera unit being arranged on a portable end device for a user,
  • - Determining a position and/or an orientation of the object in the working space of the robotic manipulator relative to the robotic manipulator on the basis of the image by image analysis of the image by a computing unit, with the camera unit taking a joint image of the robotic manipulator and the object in the working space of the robotic manipulator,
  • - Determining a virtual geometric volume shape by the computing unit so that the virtual geometric volume shape completely encloses the object virtually, and
  • - defining the spatial content of the volume shape as an inadmissible area for the robot manipulator by the computing unit, so that the working space is restricted by the volume shape.

Der Arbeitsraum des Robotermanipulators ist prinzipiell der Raum, innerhalb dessen der Robotermanipulator mittels seiner Bewegungen eine Aufgabe durchführen kann. Der Begriff des Arbeitsraums ist dabei im Vorhergehenden und im Folgenden nicht dahingehend einschränkend zu sehen, dass er nur notwendigerweise alle von einem fixen Standort des Robotermanipulators erreichbaren Orte umfasst. Vielmehr ist es der prinzipielle Arbeitsraum, sodass auch Orte davon umfasst sind, die durch eine Verschiebung der Basis des Robotermanipulators durch einen Referenzpunkt des Robotermanipulators, insbesondere am Endeffektor des Robotermanipulators, erreichbar sind.The working space of the robot manipulator is basically the space within which the robot manipulator can perform a task using its movements. In the foregoing and in the following, the term workspace is not to be seen as restrictive in that it only necessarily includes all locations that can be reached from a fixed location of the robotic manipulator. Rather, it is the basic working space, so that it also includes locations that can be reached by moving the base of the robot manipulator through a reference point of the robot manipulator, in particular on the end effector of the robot manipulator.

Im ersten Schritt des Verfahrens wird ein Bild des Objekts in diesem Arbeitsraum des Robotermanipulators durch eine Kameraeinheit aufgenommen. Bevorzugt ist die Kameraeinheit eine Stereokameraeinheit oder eine aus einer Vielzahl von einzelnen Kameras bestehende Kameraeinheit, sodass eine räumliche Information in dem Bild enthalten ist. Aus dieser räumlichen Information wird im nächsten Schritt eine Position und/oder eine Orientierung des Objekts im Arbeitsraum relativ zum Robotermanipulator ermittelt. Sind demnach im Betrieb des Robotermanipulators insbesondere mittels Gelenkwinkelsensoren des Robotermanipulators die aktuellen Positionen und Orientierungen aller Glieder und Gelenke des Robotermanipulators im Raum bekannt, so sind durch die Informationen aus dem aufgenommenen Bild über das Objekt im Arbeitsraum des Robotermanipulators auch die Position und/oder die Orientierung des Objekts relativ zum Robotermanipulator bekannt.In the first step of the method, an image of the object in this working space of the robotic manipulator is recorded by a camera unit. The camera unit is preferably a stereo camera unit or a camera unit consisting of a large number of individual cameras, so that spatial information is contained in the image. In the next step, a position and/or an orientation of the object in the working space relative to the robot manipulator is determined from this spatial information. If the current positions and orientations of all limbs and joints of the robot manipulator in space are known during operation of the robot manipulator, in particular by means of joint angle sensors of the robot manipulator, then the position and/or orientation is also known from the information from the recorded image about the object in the working space of the robot manipulator of the object relative to the robot manipulator is known.

Das Ermitteln der virtuellen geometrischen Volumenform durch die Recheneinheit erfolgt insbesondere durch ein iteratives Verfahren, bei dem bevorzugt Konturen, insbesondere Kanten, einer vorgegebenen Grundform iterativ so angepasst und insbesondere verengt werden, bis die virtuelle geometrische Volumenform an den Rändern des Objekts anliegt, bevorzugt mit einem gewissen Sicherheitsabstand. Alternativ bevorzugt wird, sofern möglich, die virtuelle geometrische Volumenform unmittelbar analytisch bestimmt, insbesondere dann, wenn die Abmessungen des Objekts bereits in analytischer Form (beispielsweise vektoriell) und entsprechenden Koordinaten in einem insbesondere erdfesten Koordinatensystem vorliegen.The computing unit determines the virtual geometric volume shape in particular by means of an iterative method, in which preferably contours, in particular edges, of a given basic shape are iteratively adapted and in particular narrowed until the virtual geometric volume shape is in contact with the edges of the object, preferably with a certain safety margin. Alternatively, if possible, the virtual geometric volume shape is determined directly analytically, in particular when the dimensions of the object are already available in analytical form (for example vectorial) and corresponding coordinates in a particularly earth-fixed coordinate system.

Es wird eine virtuelle geometrische Volumenform durch die Recheneinheit so ermittelt, dass die virtuelle geometrische Volumenform das Objekt virtuell vollständig umschließt. Dass die virtuelle geometrische Volumenform das Objekt virtuell vollständig umschließt, heißt nicht zwingend, dass die virtuelle geometrische Volumenform eine geschlossene Form sein muss. Vielmehr bedeutet dieser Ausdruck, dass keine Kante oder Fläche oder gedachte Verbindungslinien von Stützpunkten der virtuellen geometrischen Volumenform das Objekt durchdringen, es sei denn (optional) dort, wo das Objekt an einem Boden aufliegt oder die Oberfläche des Bodens durchdringt.A virtual geometric volume shape is determined by the computing unit in such a way that the virtual geometric volume shape virtually completely encloses the object. The fact that the virtual geometric volume shape virtually completely encloses the object does not necessarily mean that the virtual geometric volume shape has to be a closed shape. Rather, this expression means that no edge or surface or imaginary connecting lines from support points of the virtual geometric volume shape penetrate the object unless (optionally) where the object rests on a floor or penetrates the surface of the floor.

Die virtuelle geometrische Volumenform dient dabei insbesondere zur Definition eines unzulässigen Bereichs innerhalb des Arbeitsraums, der bevorzugt vom Endeffektor des Robotermanipulators und weiterhin bevorzugt von allen anderen Punkten an den Gliedern und den Gelenken und unter Umständen weiteren Bauelementen des Robotermanipulators nicht angefahren werden soll. Dies verhindert vorteilhaft Kollisionen mit dem Objekt im Arbeitsraum des Robotermanipulators.The virtual geometric volume shape is used in particular to define an impermissible area within the workspace that should preferably not be approached by the end effector of the robot manipulator and also preferably by all other points on the limbs and joints and possibly other components of the robot manipulator. This advantageously prevents collisions with the object in the working space of the robot manipulator.

Die Oberfläche, die als Rand der virtuellen geometrischen Volumenform den volumenförmigen Bereich der virtuellen geometrischen Volumenform begrenzt, dient dabei bevorzugt als virtuelle Wand für den Robotermanipulator. Bevorzugt wird dabei ein Potenzialfeld um die virtuelle geometrische Volumenform so erzeugt, dass der Robotermanipulator virtuell durch eine Kraft des Potenzialfelds von der virtuellen geometrischen Volumenform abgestoßen wird. Dies dient insbesondere beim manuellen Führen des Robotermanipulators dazu, dass dieser von dem Objekt mit ausreichendem Sicherheitsabstand ferngehalten wird, da dann der Anwender eine scheinbar natürlich abstoßende Kraft von dem Objekt weg erfährt. Bei der automatischen Ausführung eines Steuerprogramms hingegen werden vom Robotermanipulator abzufahrende Trajektorie und Bahnen insbesondere so geplant, dass sie den unzulässigen Bereich nicht durchstoßen. Sollte die aktuell ausgeführte Bahn des Robotermanipulators aus irgendeinem Grund in den unzulässigen Bereich aktuell eindringen oder voraussichtlich eindringen werden, wird bevorzugt der Robotermanipulator abgebremst, das heißt, stillgesetzt, bevorzugt durch ein sicheres Stopp-Verfahren.The surface, which delimits the volume-like area of the virtual geometric volume shape as the edge of the virtual geometric volume shape, preferably serves as a virtual wall for the robot manipulator. A potential field around the virtual geometric volume shape is preferably generated in such a way that the robot manipulator is virtually repelled from the virtual geometric volume shape by a force of the potential field. In particular when guiding the robotic manipulator manually, this serves to keep it away from the object at a sufficient safety distance, since the user then experiences an apparently naturally repelling force away from the object. In the automatic execution of a control program, on the other hand, the trajectory and paths to be traveled by the robot manipulator are planned in particular in such a way that they do not penetrate the impermissible area. If the currently executed path of the robotic manipulator for some reason actually penetrates or is likely to penetrate into the impermissible area, the robotic manipulator is preferably braked, that is to say stopped, preferably by a safe stopping method.

Es ist daher eine vorteilhafte Wirkung der Erfindung, dass alleine durch das Aufnehmen eines Bildes des Objekts im Arbeitsraum des Robotermanipulators eine Kollisionsvermeidung des Robotermanipulators mit dem Objekt im Arbeitsraum bereitgestellt werden kann.It is therefore an advantageous effect of the invention that a collision avoidance of the robot manipulator with the object in the work space can be provided just by recording an image of the object in the work space of the robot manipulator.

Bevorzugt weist das Verfahren weiterhin den Schritt auf:

  • - Durchführen einer Bahnplanung zum Ausführen einer Aufgabe durch den Robotermanipulator, wobei die Bahn für den Robotermanipulator so definiert wird, dass sie außerhalb des unzulässigen Gebiets im Arbeitsraum des Robotermanipulators verläuft.
The method preferably also has the step:
  • - Performing a trajectory planning for the robotic manipulator to perform a task, wherein the trajectory for the robotic manipulator is defined to be outside the prohibited area in the robotic manipulator's workspace.

Bevorzugt weist das Verfahren weiterhin den Schritt auf:

  • - Ausführen der geplanten Bahn durch Ansteuern von Aktuatoren des Robotermanipulators zum Abfahren der geplanten Bahn.
The method preferably also has the step:
  • - Execution of the planned path by controlling actuators of the robot manipulator to follow the planned path.

Gemäß einer vorteilhaften Ausführungsform ist die Kameraeinheit eine Stereokameraeinheit. Eine Stereokameraeinheit weist insbesondere mehrere einzelne Kameras auf, insbesondere zwei Kameras, die ähnlich zu den zwei Augen eines Menschen durch die gleichzeitige Sicht aus zwei verschiedenen Standpunkten eine räumliche Information der Umgebung bilden können. Vorteilhaft erleichtert dies eine Bildanalyse durch die Recheneinheit, da durch diese stereografischen Informationen auch räumliche Informationen über die Position und/oder die Orientierung des Objekts entweder relativ zum Robotermanipulator, wenn dieser mit auf dem Bild abgelichtet ist, oder relativ zur Kameraeinheit zur Verfügung stehen.According to an advantageous embodiment, the camera unit is a stereo camera unit. A stereo camera unit has, in particular, a plurality of individual cameras, in particular two cameras, which, similar to the two eyes of a human being, can form spatial information about the environment through the simultaneous view from two different points of view. This advantageously facilitates image analysis by the computing unit, since this stereographic information also provides spatial information about the position and/or orientation of the object either relative to the robot manipulator if this is also photographed in the image, or relative to the camera unit.

Erfindungsgemäß wird durch die Kameraeinheit ein gemeinsames Bild des Robotermanipulators und des Objekts im Arbeitsraum des Robotermanipulators aufgenommen, wobei das Ermitteln der Position und/oder der Orientierung des Objekts im Arbeitsraum des Robotermanipulators relativ zum Robotermanipulator durch Bildanalyse des Bildes durch die Recheneinheit erfolgt. Das Bild der Kameraeinheit beinhaltet beim Aufnehmen des gemeinsamen Bildes des Robotermanipulators zusammen mit dem Objekt im Arbeitsraum des Robotermanipulators räumliche Informationen, insbesondere über Position und Orientierung des Objekts relativ zur Kameraeinheit sowie über Position und Orientierung des Robotermanipulators relativ zur Kameraeinheit, und damit auch eine Information bezüglich der Relativposition zwischen dem Robotermanipulator und dem Objekt sowie der relativen Orientierung zwischen dem Robotermanipulator und dem Objekt. Das gemeinsame Bild des Robotermanipulators und des Objekts drückt dabei aus, dass auf einem Bild sowohl der Robotermanipulator als auch das Objekt aufgenommen werden.According to the invention, a joint image of the robot manipulator and the object in the working space of the robot manipulator is recorded by the camera unit, the position and/or the orientation of the object in the working space of the robot manipulator relative to the robot manipulator being determined by image analysis of the image by the computing unit. When recording the joint image of the robot manipulator together with the object in the working space of the robot manipulator, the image of the camera unit contains spatial information, in particular about the position and orientation of the object relative to the camera unit and about the position and orientation of the robot manipulator relative to the camera unit, and thus also information regarding the relative position between the robotic manipulator and the object, and the relative orientation between the robotic manipulator and the object. The joint image of the robot manipulator and the object expresses the fact that both the robot manipulator and the object are recorded in one image.

Prinzipiell kann statt eines einzigen gemeinsamen Bildes auch dieses gemeinsame Bild aus zwei einzelnen Bildern oder aus mehreren einzelnen Bildern zusammengesetzt werden, bzw. aus den einzelnen Bildern die räumliche Information jeweils zwischen Objekt und Kameraeinheit und Robotermanipulatoren Kameraeinheit extrahiert werden, und diese einzelnen Informationen dabei zu der gesamten Information der relativen Position und relativen Orientierung zwischen Objekt und Robotermanipulator zusammengesetzt werden.In principle, instead of a single joint image, this joint image can also be composed of two individual images or of several individual images, or the spatial information between the object and camera unit and robot manipulator camera unit can be extracted from the individual images, and this individual information can be added to the complete information of the relative position and relative orientation between the object and the robot manipulator.

Erfindungsgemäß ist die Kameraeinheit an einem portablen Endgerät für einen Anwender angeordnet. Das portable Endgerät für den Anwender ist insbesondere ein Mobiltelefon, ein Tablett, ein Laptop Computer, oder Ähnliches. Wird die Kameraeinheit an einem solchen portablen Endgerät für einen Anwender verwendet, können insbesondere die mehrfach vorhandenen Linsen der Kameraeinheit des portablen Endgeräts als Stereokameraeinheit verwendet werden, um räumliche Informationen des Bildes zu erzeugen, da typischerweise moderne portable Endgeräte mit hochwertigen Kameraeinheiten ausgestattet sind und mehrere Linsensysteme aufweisen. Vorteilhaft kann mittels dieser Ausführungsform auf bestehende portable Endgeräte für Anwender zurückgegriffen werden, um das Einschränken eines Arbeitsraumes für einen Robotermanipulator zu vereinfachen.According to the invention, the camera unit is arranged on a portable end device for a user. The portable end device for the user is in particular a mobile phone, a tablet, a laptop top computer, or something similar. If the camera unit is used on such a portable terminal for a user, the multiple lenses of the camera unit of the portable terminal can be used as a stereo camera unit in order to generate spatial information of the image, since modern portable terminals are typically equipped with high-quality camera units and multiple lens systems exhibit. Advantageously, by means of this embodiment, existing portable end devices for users can be used in order to simplify the restriction of a working space for a robotic manipulator.

Gemäß einer weiteren vorteilhaften Ausführungsform weist die Kameraeinheit eine inertiale Messeinheit mit einem Lagewinkelsensor auf, wobei durch die inertiale Messeinheit mit dem Lagewinkelsensor eine absolute Orientierung des Objekts und/oder des Robotermanipulators ermittelt wird, wobei von der Recheneinheit eine Orientierung der virtuellen geometrischen Volumenform abhängig von der absoluten Orientierung des Objekts und/oder des Robotermanipulators ermittelt wird. Der Lagewinkelsensor umfasst insbesondere eine Kreiseleinheit mit einem Schwerkraftsensor, sodass in jeder beliebigen Orientierung der Kameraeinheit ermittelt werden kann, in welcher absoluten Orientierung die Kameraeinheit, das heißt aktuell gegenüber dem Schwerkraftvektor und damit dem Referenzellipsoid der Erde und insbesondere einer Tangentialebene an der Erdoberfläche, aufweist. Insbesondere die Orientierung der virtuellen geometrischen Volumenform wird dabei insbesondere so abhängig von der ermittelten absoluten Orientierung des Objekts und/oder des Robotermanipulators ermittelt, dass diese an die Richtung des Schwerkraftvektors angepasst wird. Insbesondere dann, wenn die virtuelle geometrische Volumenform durch einen einfachen und bekannten geometrischen Körper wie Zylinder, Quader, etc. angenähert wird, erfährt dieser geometrische Körper eine Ausrichtung entlang des Schwerkraftvektors. Dies erleichtert vorteilhaft das Aufstellen des Robotermanipulators und den intuitiv erfassbaren Bezug zwischen dem Robotermanipulator und der virtuellen geometrischen Volumenform.According to a further advantageous embodiment, the camera unit has an inertial measurement unit with a position angle sensor, with the inertial measurement unit with the position angle sensor determining an absolute orientation of the object and/or the robot manipulator, with the computing unit determining an orientation of the virtual geometric volume shape depending on the absolute orientation of the object and/or the robot manipulator is determined. The attitude angle sensor includes in particular a gyro unit with a gravity sensor, so that in any orientation of the camera unit it can be determined in which absolute orientation the camera unit is, i.e. currently in relation to the gravity vector and thus the reference ellipsoid of the earth and in particular a tangential plane on the earth's surface. In particular, the orientation of the virtual geometric volume shape is determined in particular as a function of the determined absolute orientation of the object and/or the robot manipulator in such a way that it is adapted to the direction of the gravity vector. In particular when the virtual geometric volume shape is approximated by a simple and known geometric body such as a cylinder, cuboid, etc., this geometric body experiences an alignment along the gravity vector. This advantageously facilitates setting up the robot manipulator and the intuitively ascertainable relationship between the robot manipulator and the virtual geometric volume shape.

Gemäß einer weiteren vorteilhaften Ausführungsform weist das Verfahren weiterhin die Schritte auf:

  • - Ausgeben eines Vorschlags zur virtuellen geometrischen Volumenform durch Anzeigen von Informationen über die Volumenform für einen Anwender an einer Anzeigeeinheit, und
  • - Erfassen einer Eingabe des Anwenders bezüglich einer Bestätigung und/oder einer Vergrößerung der Volumenform und/oder einer Orientierungsänderung der Volumenform durch den Anwender an einer Eingabeeinheit,
wobei die virtuelle geometrische Volumenform auf Basis der erfassten Eingabe ermittelt wird.According to a further advantageous embodiment, the method also has the steps:
  • - outputting a suggestion of the virtual solid geometric shape by displaying information about the solid shape to a user on a display unit, and
  • - detecting an input from the user regarding a confirmation and/or an enlargement of the volume shape and/or a change in orientation of the volume shape by the user on an input unit,
wherein the virtual volumetric geometric shape is determined based on the sensed input.

Die Anzeigeeinheit ist bevorzugt ein Bildschirm des portablen Endgeräts für den Anwender, oder ein Bildschirm eines Anwenderrechners, eine Anzeige einer 3D Brille, ein Hologramm, oder Ähnliches. Bevorzugt ist außerdem die Anzeigeeinheit mit der Eingabeeinheit verbunden und besonders bevorzugt sind Anzeigeeinheit und Eingabeeinheit im selben Bauelement angeordnet, beispielsweise auf einem berührungsempfindlichen Bildschirm. Weiterhin bevorzugt wird der Vorschlag zur virtuellen geometrischen Volumenform in einer 3D Ansicht angezeigt, sodass der Anwender den Vorschlag zur virtuellen geometrischen Volumenform insbesondere durch Wischgesten oder durch Eingaben wie in gängigen CAD-Systemen verdrehen und verschieben kann, um einen umfassenden Eindruck von dem Vorschlag zur virtuellen geometrischen Volumenform zu erhalten. Insbesondere nur auf die Eingabe des Anwenders hin wird der Vorschlag zur virtuellen geometrischen Volumenform auch übernommen und daher eine besonders sichere Ausführung eines Steuerprogramms des Robotermanipulators sichergestellt. Der Vorschlag zur virtuellen geometrischen Volumenform entspricht dabei der zunächst durch die Recheneinheit ermittelten virtuellen geometrischen Volumenform, die nach diesem Prinzip daher zunächst durch die Recheneinheit ermittelt und berechnet wird, und vorteilhaft gemäß dieser Ausführungsform vom Anwender anpassbar ist.The display unit is preferably a screen of the portable end device for the user, or a screen of a user's computer, a display of 3D glasses, a hologram, or the like. In addition, the display unit is preferably connected to the input unit, and the display unit and input unit are particularly preferably arranged in the same component, for example on a touch-sensitive screen. Furthermore, the proposal for the virtual geometric volume shape is preferably displayed in a 3D view, so that the user can rotate and move the proposal for the virtual geometric volume shape, in particular by swiping gestures or by making inputs as in common CAD systems, in order to get a comprehensive impression of the proposal for the virtual to obtain a geometric volume shape. In particular, the suggestion for the virtual geometric volume shape is also adopted only upon input from the user, and therefore a particularly reliable execution of a control program of the robot manipulator is ensured. The proposal for the virtual geometric volume shape corresponds to the virtual geometric volume shape first determined by the computing unit, which is therefore first determined and calculated by the computing unit according to this principle and can advantageously be adapted by the user according to this embodiment.

Gemäß einer weiteren vorteilhaften Ausführungsform erfolgt das Ermitteln der virtuellen geometrischen Volumenform so, dass die Außenflächen der virtuellen geometrischen Volumenform mit einem vorgegebenen Sicherheitsabstand vom Objekt entfernt sind. Der Sicherheitsabstand vom Objekt stellt insbesondere sicher, dass zuverlässig keine Kollision zwischen dem Robotermanipulator und dem Objekt auftritt, auch wenn der Robotermanipulator eine gewisse kinetische Energie aufweist und vor dem Objekt zum Abbremsen gezwungen wird.According to a further advantageous embodiment, the virtual geometric volume shape is determined in such a way that the outer surfaces of the virtual geometric volume shape are at a predetermined safety distance from the object. The safety distance from the object ensures in particular that no collision between the robotic manipulator and the object reliably occurs, even if the robotic manipulator has a certain kinetic energy and is forced to brake in front of the object.

Gemäß einer weiteren vorteilhaften Ausführungsform wird die virtuelle geometrische Volumenform aus zumindest einer der folgenden Grundformen ausgewählt oder zusammengesetzt: Kugel, Quader, Zylinder, Würfel, Pyramide, dreidimensionales Hexagon.According to a further advantageous embodiment, the virtual geometric volume shape is selected or composed of at least one of the following basic shapes: sphere, cuboid, cylinder, cube, pyramid, three-dimensional hexagon.

Ein weiterer Aspekt der Erfindung betrifft ein System zum Einschränken eines Arbeitsraumes eines Robotermanipulators, aufweisend eine Kameraeinheit, die zum Aufnehmen eines Bildes eines Objekts im Arbeitsraum des Robotermanipulators ausgeführt ist, wobei die Kameraeinheit an einem portablen Endgerät für einen Anwender angeordnet ist, wobei die Kameraeinheit dazu ausgeführt ist, ein gemeinsames Bild des Robotermanipulators und des Objekts im Arbeitsraum des Robotermanipulators aufzunehmen, und aufweisend eine Recheneinheit, die dazu ausgeführt ist, auf Basis des gemeinsamen Bildes des Robotermanipulators und des Objekts durch Bildanalyse des Bildes eine Position und/oder eine Orientierung des Objekts im Arbeitsraum des Robotermanipulators relativ zum Robotermanipulator zu ermitteln, eine virtuelle geometrische Volumenform so zu ermitteln, dass die virtuelle geometrische Volumenform das Objekt virtuell vollständig umschließt, und den räumlichen Inhalt der Volumenform als unzulässiges Gebiet für den Robotermanipulator durch die Recheneinheit zu definieren, sodass der Arbeitsraum durch die Volumenform beschränkt wird.A further aspect of the invention relates to a system for restricting a working space of a robotic manipulator, having a camera unit for recording an image of an object in the working space of the robotic manipulator is designed, wherein the camera unit is arranged on a portable end device for a user, wherein the camera unit is designed to record a common image of the robotic manipulator and the object in the workspace of the robotic manipulator, and having a computing unit, which is designed to common image of the robot manipulator and the object by image analysis of the image to determine a position and/or an orientation of the object in the working space of the robot manipulator relative to the robot manipulator, to determine a virtual geometric volume shape such that the virtual geometric volume shape virtually completely encloses the object, and to define the spatial content of the volume shape as an impermissible area for the robot manipulator by the computing unit, so that the working space is restricted by the volume shape.

Vorteile und bevorzugte Weiterbildungen des vorgeschlagenen Systems ergeben sich durch eine analoge und sinngemäße Übertragung der im Zusammenhang mit dem vorgeschlagenen Verfahren vorstehend gemachten Ausführungen.Advantages and preferred developments of the proposed system result from an analogous and analogous transfer of the statements made above in connection with the proposed method.

Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der - gegebenenfalls unter Bezug auf die Zeichnung - zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen.Further advantages, features and details result from the following description, in which at least one exemplary embodiment is described in detail-if necessary with reference to the drawing. Identical, similar and/or functionally identical parts are provided with the same reference symbols.

Es zeigen:

  • 1 ein Verfahren zum Einschränken eines Arbeitsraumes gemäß einem Ausführungsbeispiel der Erfindung,
  • 2 ein System zum Einschränken eines Arbeitsraumes gemäß einem weiteren Ausführungsbeispiel der Erfindung, und
  • 3 ein System zum Einschränken eines Arbeitsraumes gemäß einem weiteren Ausführungsbeispiel der Erfindung.
Show it:
  • 1 a method for restricting a workspace according to an embodiment of the invention,
  • 2 a system for restricting a workspace according to another embodiment of the invention, and
  • 3 a system for restricting a workspace according to another embodiment of the invention.

Die Darstellungen in den Figuren sind schematisch und nicht maßstäblich.The representations in the figures are schematic and not to scale.

1 zeigt ein Verfahren zum Einschränken eines Arbeitsraumes eines Robotermanipulators 1, aufweisend die Schritte:

  • - Aufnehmen S1 eines Bildes eines Objekts 3 im Arbeitsraum des Robotermanipulators 1 durch eine Kameraeinheit 5,
  • - Ermitteln S2 einer Position und einer Orientierung des Objekts 3 im Arbeitsraum des Robotermanipulators 1 relativ zum Robotermanipulator 1 durch eine Recheneinheit 7,
  • - Ermitteln S3 einer virtuellen geometrischen Volumenform 9 durch die Recheneinheit 7 so, dass die virtuelle geometrische Volumenform 9 das Objekt 3 virtuell vollständig umschließt,
  • - Definieren S4 des räumlichen Inhalts der Volumenform 9 als unzulässiges Gebiet für den Robotermanipulator 1 durch die Recheneinheit 7, sodass der Arbeitsraum durch die Volumenform 9 beschränkt wird,
  • - Ausgeben S5 eines Vorschlags zur virtuellen geometrischen Volumenform 9 durch Anzeigen von Informationen über die Volumenform 9 für einen Anwender an einer Anzeigeeinheit 13, und
  • - Erfassen S6 einer Eingabe des Anwenders bezüglich einer Bestätigung und/oder einer Vergrößerung der Volumenform 9 und/oder einer Orientierungsänderung der Volumenform 9 durch den Anwender an einer Eingabeeinheit 15,
wobei die virtuelle geometrische Volumenform 9 auf Basis der erfassten Eingabe ermittelt wird. 1 shows a method for restricting a working space of a robot manipulator 1, comprising the steps:
  • - recording S1 of an image of an object 3 in the working space of the robotic manipulator 1 by a camera unit 5,
  • - Determining S2 a position and an orientation of the object 3 in the working space of the robot manipulator 1 relative to the robot manipulator 1 by a computing unit 7,
  • - Determination S3 of a virtual geometric volume shape 9 by the computing unit 7 in such a way that the virtual geometric volume shape 9 virtually completely encloses the object 3,
  • - Defining S4 of the spatial content of the volume form 9 as an impermissible area for the robot manipulator 1 by the computing unit 7, so that the working space is limited by the volume form 9,
  • - outputting S5 a proposal for the virtual geometric volume shape 9 by displaying information about the volume shape 9 for a user on a display unit 13, and
  • - detecting S6 an input from the user regarding a confirmation and/or an enlargement of the volumetric shape 9 and/or a change in orientation of the volumetric shape 9 by the user on an input unit 15,
wherein the virtual geometric volume shape 9 is determined based on the detected input.

Im Schritt S1 bestehen dabei zwei Ausführungsmöglichkeiten, wie das Bild des Objekts 3 aufgenommen wird. Zum einen durch eine Kameraeinheit 5, die am Robotermanipulator 1 selbst angeordnet ist, wodurch auf dem Bild insbesondere lediglich das Objekt 3 aufgenommen ist. Eine weitere Möglichkeit besteht darin, dass das Bild ein gemeinsames Bild von Objekt 3 und Robotermanipulator 1 ist, sodass die Kameraeinheit 5 insbesondere vom Robotermanipulator 1 physisch losgelöst ist und besonders bevorzugt durch einen Anwender gehalten wird. Diese beiden Ausführungsformen werden ausführlicher im Rahmen der gezeigten Systeme 100 in der 2 und der 3 näher erläutert. Die im obigen Verfahren gezeigten Bezugszeichen können dennoch auf die 2 und auf die 3 zum besseren Verständnis übertragen werden, da das oben erklärte Verfahren auf beiden Systemen 100, wie folgt erklärt, ausgeführt werden kann.In step S1 there are two options for how the image of the object 3 is recorded. On the one hand by a camera unit 5, which is arranged on the robotic manipulator 1 itself, as a result of which only the object 3 in particular is recorded on the image. A further possibility is that the image is a joint image of object 3 and robotic manipulator 1, so that the camera unit 5 is physically detached in particular from the robotic manipulator 1 and is particularly preferably held by a user. These two embodiments are described in more detail within the framework of the systems 100 shown in FIG 2 and the 3 explained in more detail. The reference numbers shown in the above procedure can still refer to the 2 and on the 3 transferred for better understanding as the method explained above can be performed on either system 100 as explained below.

2 zeigt ein System 100 zum Einschränken eines Arbeitsraumes eines Robotermanipulators 1. Das System 100 weist eine als Stereokameraeinheit ausgebildete Kameraeinheit 5 auf, die am distalen Glied des Robotermanipulators 1 angeordnet ist und zum Aufnehmen eines Bildes eines Objekts 3 im Arbeitsraum des Robotermanipulators 1 dient. Am distalen Glied des Robotermanipulators 1 ist auch der Endeffektor des Robotermanipulators 1 angeordnet. Die Stereokameraeinheit 5 weist zwei einzelne Kameras auf, die gleichzeitig ein jeweiliges Teilbild aufnehmen. Weiterhin weist das System 100 eine Recheneinheit 7 auf, die zum Ermitteln einer Position und einer Orientierung des Objekts 3 im Arbeitsraum des Robotermanipulators 1 relativ zum Robotermanipulator 1 dient. Das Ermitteln der Position und der Orientierung des Objekts 3 im Arbeitsraum des Robotermanipulators 1 relativ zum Robotermanipulator 1 erfolgt durch Bildanalyse des Bildes durch die Recheneinheit 7 und auf Basis von Gelenkwinkelsensoren 11 des Robotermanipulators 1. Die Gelenkwinkelsensoren 11 erfassen hierfür jeweilige Winkel zwischen den durch ein jeweiliges Gelenk miteinander verbundenen Gliedern. Die räumliche Information aus dem Bild, die durch die Stereokamera-Funktionalität der Kameraeinheit 5 erhalten wird, erlaubt eine Bestimmung der relativen Position und einer relativen Orientierung des Objekts zur Kameraeinheit 5. Die Position und die Orientierung der Kameraeinheit 5 selbst ist wiederum in einem roboterfesten Referenzsystem bekannt, da mittels der Gelenkwinkelsensoren 11 eine aktuelle Pose des Robotermanipulators 1 bekannt ist, und damit die Position und Orientierung der Kameraeinheit 5 relativ zur fixen Basis (Sockel) des Robotermanipulators 1. Daraufhin ermittelt die Recheneinheit 7 in dem roboterfesten Referenzsystem eine virtuelle geometrische Volumenform 9 in Quaderform so, dass die virtuelle geometrische Volumenform 9 das Objekt 3 virtuell vollständig umschließt. Das Ermitteln der virtuellen geometrischen Volumenform 9 erfolgt so, dass die Außenflächen der virtuellen geometrischen Volumenform 9 mit einem vorgegebenen Sicherheitsabstand vom Objekt 3 entfernt sind. Ein Vorschlag zur virtuellen geometrischen Volumenform 9 wird durch Anzeigen der Volumenform 9 an einer Anzeigeeinheit 13 dem Anwender übermittelt. Der Anwender tätigt hierauf eine Eingabe zur Bestätigung an einer Eingabeeinheit 15. Anzeigeeinheit 13 und Eingabeeinheit 15 sind Bildschirm bzw. Maus/Tastatur an einem Anwenderrechner, der mit der Recheneinheit 7 verbunden ist. Die so bestätigte ermittelte virtuelle geometrische Volumenform wird von der Recheneinheit 7 abgespeichert. Der räumliche Inhalt der Volumenform 9 dient als unzulässiges Gebiet für den Robotermanipulator 1, sodass der Arbeitsraum durch die Volumenform 9 beschränkt wird. Beim Ausführen von Steuerprogrammen durch den Robotermanipulator 1 wird daher dieses Gebiet umfahren. 2 shows a system 100 for restricting a working space of a robotic manipulator 1. The system 100 has a camera unit 5 designed as a stereo camera unit, which is arranged on the distal limb of the robotic manipulator 1 and is used to record an image of an object 3 in the working space of the robotic manipulator 1. The end effector of the robotic manipulator 1 is also arranged on the distal link of the robotic manipulator 1 . The stereo camera unit 5 has two individual cameras that record a respective partial image at the same time. Furthermore, the system 100 has a computing unit 7, which is used to determine a position and an orientation of the object 3 in the working space of the robot manipulator 1 relative to the robot mani 1 is used. The position and the orientation of the object 3 in the working space of the robotic manipulator 1 relative to the robotic manipulator 1 are determined by image analysis of the image by the computing unit 7 and on the basis of joint angle sensors 11 of the robotic manipulator 1. For this purpose, the joint angle sensors 11 detect the respective angles between the articulated limbs connected together. The spatial information from the image, which is obtained through the stereo camera functionality of the camera unit 5, allows a determination of the relative position and a relative orientation of the object to the camera unit 5. The position and the orientation of the camera unit 5 itself is in turn in a robot-fixed reference system known, since a current pose of the robotic manipulator 1 is known by means of the joint angle sensors 11, and thus the position and orientation of the camera unit 5 relative to the fixed base (pedestal) of the robotic manipulator 1. The computing unit 7 then determines a virtual geometric volume shape 9 in the robot-fixed reference system in cuboid shape so that the virtual geometric volume shape 9 encloses the object 3 virtually completely. The virtual geometric volume shape 9 is determined in such a way that the outer surfaces of the virtual geometric volume shape 9 are at a predetermined safety distance from the object 3 . A suggestion for the virtual geometric volume shape 9 is transmitted to the user by displaying the volume shape 9 on a display unit 13 . The user then makes an entry for confirmation on an input unit 15 . The virtual geometric volume shape determined in this way and confirmed in this way is stored by the computing unit 7 . The spatial content of the volume shape 9 serves as an impermissible area for the robotic manipulator 1, so that the working space is restricted by the volume shape 9. Therefore, when the robot manipulator 1 executes control programs, this area is circumvented.

3 zeigt ein System 100 zum Einschränken eines Arbeitsraumes eines Robotermanipulators 1. Das System 100 weist eine als Stereokameraeinheit ausgebildete Kameraeinheit 5 auf, die zum Aufnehmen eines gemeinsamen Bildes des Robotermanipulators 1 und des Objekts 3 im Arbeitsraum des Robotermanipulators 1 dient. Die Stereokameraeinheit weist zwei einzelne Kameras auf, die gleichzeitig ein jeweiliges Teilbild der Situation aufnehmen. Diese Kameraeinheit 5 ist an einem portablen Endgerät, einem Mobiltelefon, für einen Anwender angeordnet und nimmt ein Bild mit räumlichen Informationen des Robotermanipulators 1 zusammen mit dem Objekt 3 auf, wodurch die relative Position und die relative Orientierung zwischen Robotermanipulator 1 und Objekt ermittelt werden können. Weiterhin weist das System 100 eine Recheneinheit 7 auf, die zum Ermitteln einer Position und einer Orientierung des Objekts 3 im Arbeitsraum des Robotermanipulators 1 relativ zum Robotermanipulator 1 dient. Das Ermitteln der Position und der Orientierung des Objekts 3 im Arbeitsraum des Robotermanipulators 1 relativ zum Robotermanipulator 1 erfolgt wiederum durch Bildanalyse des Bildes durch die Recheneinheit 7. Ferner ermittelt die Recheneinheit 7 eine virtuelle geometrische Volumenform 9 in Quaderform so, dass die virtuelle geometrische Volumenform 9 das Objekt 3 virtuell vollständig umschließt. Das Ermitteln der virtuellen geometrischen Volumenform 9 erfolgt so, dass die Außenflächen der virtuellen geometrischen Volumenform 9 mit einem vorgegebenen Sicherheitsabstand vom Objekt 3 entfernt sind. Der räumliche Inhalt der Volumenform 9 dient hierbei als unzulässiges Gebiet für den Robotermanipulator 1, sodass der Arbeitsraum durch die Volumenform 9 beschränkt wird. 3 1 shows a system 100 for restricting a working space of a robotic manipulator 1. The system 100 has a camera unit 5 designed as a stereo camera unit, which is used to record a common image of the robotic manipulator 1 and the object 3 in the working space of the robotic manipulator 1. The stereo camera unit has two individual cameras that record a respective partial image of the situation at the same time. This camera unit 5 is arranged on a portable terminal device, a mobile phone, for a user and takes an image with spatial information of the robotic manipulator 1 together with the object 3, whereby the relative position and the relative orientation between the robotic manipulator 1 and the object can be determined. Furthermore, the system 100 has a computing unit 7 which is used to determine a position and an orientation of the object 3 in the working space of the robotic manipulator 1 relative to the robotic manipulator 1 . The determination of the position and the orientation of the object 3 in the working space of the robot manipulator 1 relative to the robot manipulator 1 is again carried out by image analysis of the image by the processing unit 7. Furthermore, the processing unit 7 determines a virtual geometric volume shape 9 in the shape of a cuboid such that the virtual geometric volume shape 9 encloses the object 3 virtually completely. The virtual geometric volume shape 9 is determined in such a way that the outer surfaces of the virtual geometric volume shape 9 are at a predetermined safety distance from the object 3 . The spatial content of the volume form 9 serves as an impermissible area for the robotic manipulator 1, so that the working space is limited by the volume form 9.

BezugszeichenlisteReference List

11
Robotermanipulatorrobotic manipulator
33
Objektobject
55
Kameraeinheitcamera unit
77
Recheneinheitunit of account
99
virtuelle geometrische Volumenformvirtual geometric volume shape
1111
Gelenkwinkelsensorenjoint angle sensors
1313
Anzeigeeinheitdisplay unit
1515
Eingabeeinheitinput unit
100100
System system
S1S1
AufnehmenTo record
S2S2
ErmittelnDetermine
S3S3
ErmittelnDetermine
S4S4
DefinierenDefine
S5S5
AusgebenSpend
S6S6
ErfassenTo capture

Claims (7)

Verfahren zum Einschränken eines Arbeitsraumes eines Robotermanipulators (1), aufweisend die Schritte: - Aufnehmen (S1) eines Bildes eines Objekts (3) im Arbeitsraum des Robotermanipulators (1) durch eine Kameraeinheit (5), wobei die Kameraeinheit (5) an einem portablen Endgerät für einen Anwender angeordnet ist, - Ermitteln (S2) einer Position und/oder einer Orientierung des Objekts (3) im Arbeitsraum des Robotermanipulators (1) relativ zum Robotermanipulator (1) durch Bildanalyse des Bildes durch eine Recheneinheit (7), wobei durch die Kameraeinheit (5) ein gemeinsames Bild des Robotermanipulators (1) und des Objekts (3) im Arbeitsraum des Robotermanipulators (1) aufgenommen wird, - Ermitteln (S3) einer virtuellen geometrischen Volumenform (9) durch die Recheneinheit (7) so, dass die virtuelle geometrische Volumenform (9) das Objekt (3) virtuell vollständig umschließt, und - Definieren (S4) des räumlichen Inhalts der Volumenform (9) als unzulässiges Gebiet für den Robotermanipulator (1) durch die Recheneinheit (7), sodass der Arbeitsraum durch die Volumenform (9) beschränkt wird.Method for restricting a working space of a robotic manipulator (1), comprising the steps: - Recording (S1) an image of an object (3) in the working space of the robotic manipulator (1) using a camera unit (5), the camera unit (5) being attached to a portable terminal is arranged for a user, - determining (S2) a position and/or an orientation of the object (3) in the working space of the robot manipulator (1) relative to the robot manipulator (1) by image analysis of the image by a computing unit (7), with the camera unit (5) recording a joint image of the robot manipulator (1) and the object (3) in the working space of the robot manipulator (1), - determining (S3) a virtual geometric Volume shape (9) by the computing unit (7) in such a way that the virtual geometric volume shape (9) virtually completely encloses the object (3), and - defining (S4) the spatial content of the volume shape (9) as an impermissible area for the robot manipulator ( 1) by the computing unit (7), so that the working space is limited by the volumetric shape (9). Verfahren nach Anspruch 1, wobei die Kameraeinheit (5) eine Stereokameraeinheit ist.procedure after claim 1 , wherein the camera unit (5) is a stereo camera unit. Verfahren nach Anspruch 1, wobei die Kameraeinheit (5) eine inertiale Messeinheit mit einem Lagewinkelsensor aufweist, wobei durch die inertiale Messeinheit mit dem Lagewinkelsensor eine absolute Orientierung des Objekts (3) und/oder des Robotermanipulators (1) ermittelt wird, wobei von der Recheneinheit (7) eine Orientierung der virtuellen geometrischen Volumenform (9) abhängig von der absoluten Orientierung des Objekts (3) und/oder des Robotermanipulators (1) ermittelt wird.procedure after claim 1 , wherein the camera unit (5) has an inertial measuring unit with a position angle sensor, with an absolute orientation of the object (3) and/or the robotic manipulator (1) being determined by the inertial measuring unit with the position angle sensor, with the computing unit (7) generating a Orientation of the virtual geometric volume shape (9) is determined depending on the absolute orientation of the object (3) and / or the robot manipulator (1). Verfahren nach einem der vorhergehenden Ansprüche, weiterhin aufweisend die Schritte: - Ausgeben (S5) eines Vorschlags zur virtuellen geometrischen Volumenform (9) durch Anzeigen von Informationen über die Volumenform (9) für einen Anwender an einer Anzeigeeinheit (13), und - Erfassen (S6) einer Eingabe des Anwenders bezüglich einer Bestätigung und/oder einer Vergrößerung der Volumenform (9) und/oder einer Orientierungsänderung der Volumenform (9) durch den Anwender an einer Eingabeeinheit (15), wobei die virtuelle geometrische Volumenform (9) auf Basis der erfassten Eingabe ermittelt wird.Method according to one of the preceding claims, further comprising the steps of: - Outputting (S5) a proposal for the virtual geometric volume shape (9) by displaying information about the volume shape (9) for a user on a display unit (13), and - detecting (S6) an input from the user regarding a confirmation and/or an enlargement of the volume shape (9) and/or a change in orientation of the volume shape (9) by the user on an input unit (15), the virtual geometric volume shape (9) is determined based on the recorded input. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ermitteln der virtuellen geometrischen Volumenform (9) so erfolgt, dass die Außenflächen der virtuellen geometrischen Volumenform (9) mit einem vorgegebenen Sicherheitsabstand vom Objekt (3) entfernt sind.Method according to one of the preceding claims, in which the virtual geometric volume shape (9) is determined in such a way that the outer surfaces of the virtual geometric volume shape (9) are at a predetermined safety distance from the object (3). Verfahren nach einem der vorhergehenden Ansprüche, wobei die virtuelle geometrische Volumenform (9) aus zumindest einer der folgenden Grundformen ausgewählt oder zusammengesetzt wird: Kugel, Quader, Zylinder, Würfel, Pyramide, dreidimensionales Hexagon.Method according to one of the preceding claims, in which the virtual geometric volume shape (9) is selected from or composed of at least one of the following basic shapes: sphere, cuboid, cylinder, cube, pyramid, three-dimensional hexagon. System (100) zum Einschränken eines Arbeitsraumes eines Robotermanipulators (1), aufweisend eine Kameraeinheit (5), die zum Aufnehmen eines Bildes eines Objekts (3) im Arbeitsraum des Robotermanipulators (1) ausgeführt ist, wobei die Kameraeinheit (5) an einem portablen Endgerät für einen Anwender angeordnet ist, wobei die Kameraeinheit (5) dazu ausgeführt ist, ein gemeinsames Bild des Robotermanipulators (1) und des Objekts (3) im Arbeitsraum des Robotermanipulators (1) aufzunehmen, und aufweisend eine Recheneinheit (7), die dazu ausgeführt ist, eine Position und/oder eine Orientierung des Objekts (3) im Arbeitsraum des Robotermanipulators (1) relativ zum Robotermanipulator (1) auf Basis des gemeinsamen Bildes des Robotermanipulators (1) und des Objekts (3) durch Bildanalyse des Bildes zu ermitteln, eine virtuelle geometrische Volumenform (9) so zu ermitteln, dass die geometrische Volumenform (9) das Objekt (3) virtuell vollständig umschließt, und den räumlichen Inhalt der Volumenform (9) als unzulässiges Gebiet für den Robotermanipulator (1) durch die Recheneinheit (7) zu definieren, sodass der Arbeitsraum durch die Volumenform (9) beschränkt wird.System (100) for restricting a working space of a robotic manipulator (1), having a camera unit (5) which is designed to record an image of an object (3) in the working space of the robotic manipulator (1), the camera unit (5) being mounted on a portable Terminal is arranged for a user, wherein the camera unit (5) is designed to record a common image of the robotic manipulator (1) and the object (3) in the workspace of the robotic manipulator (1), and having a computing unit (7) that is designed to determine a position and/or an orientation of the object (3) in the working space of the robot manipulator (1) relative to the robot manipulator (1) on the basis of the joint image of the robot manipulator (1) and the object (3) by image analysis of the image to determine a virtual geometric volume shape (9) so that the geometric volume shape (9) completely encloses the object (3) virtually, and the spatial content of the volume shape (9) to be defined as an impermissible area for the robotic manipulator (1) by the computing unit (7), so that the working space is limited by the volumetric form (9).
DE102020104359.7A 2020-02-19 2020-02-19 Workspace limitation for a robot manipulator Active DE102020104359B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020104359.7A DE102020104359B4 (en) 2020-02-19 2020-02-19 Workspace limitation for a robot manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020104359.7A DE102020104359B4 (en) 2020-02-19 2020-02-19 Workspace limitation for a robot manipulator

Publications (2)

Publication Number Publication Date
DE102020104359A1 DE102020104359A1 (en) 2021-08-19
DE102020104359B4 true DE102020104359B4 (en) 2022-04-14

Family

ID=77060600

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020104359.7A Active DE102020104359B4 (en) 2020-02-19 2020-02-19 Workspace limitation for a robot manipulator

Country Status (1)

Country Link
DE (1) DE102020104359B4 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04236676A (en) 1991-01-21 1992-08-25 Hitachi Ltd Method for checking interference of articulated structure
EP1901150B1 (en) 2006-09-14 2008-10-29 Abb Research Ltd. A method and device for avoiding collisions between an industrial robot and an object
DE102009026091A1 (en) 2008-07-02 2010-04-01 Elan Schaltelemente Gmbh & Co. Kg Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE112014000700T5 (en) 2013-02-06 2015-10-22 Mitsubishi Electric Corporation Interferenzprüfgerät
DE102017222057A1 (en) 2016-12-08 2018-06-14 Fanuc Corporation robot system
DE102016120763B4 (en) 2016-10-31 2019-03-14 Pilz Gmbh & Co. Kg Method for collision-free motion planning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04236676A (en) 1991-01-21 1992-08-25 Hitachi Ltd Method for checking interference of articulated structure
EP1901150B1 (en) 2006-09-14 2008-10-29 Abb Research Ltd. A method and device for avoiding collisions between an industrial robot and an object
DE102009026091A1 (en) 2008-07-02 2010-04-01 Elan Schaltelemente Gmbh & Co. Kg Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE112014000700T5 (en) 2013-02-06 2015-10-22 Mitsubishi Electric Corporation Interferenzprüfgerät
DE102016120763B4 (en) 2016-10-31 2019-03-14 Pilz Gmbh & Co. Kg Method for collision-free motion planning
DE102017222057A1 (en) 2016-12-08 2018-06-14 Fanuc Corporation robot system

Also Published As

Publication number Publication date
DE102020104359A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
DE102019002898B4 (en) robot simulation device
DE102019009313B4 (en) Robot control, method and computer program using augmented reality and mixed reality
DE102018109463C5 (en) Method for using a multi-unit actuated kinematics, preferably a robot, particularly preferably an articulated robot, by a user using a mobile display device
DE602005005306T2 (en) Control of the path of a gripper
DE102015002760B4 (en) Robot simulation system that simulates the process of removing workpieces
DE112017002498B4 (en) ROBOT OPERATION EVALUATION DEVICE, ROBOT OPERATION EVALUATION METHOD AND ROBOT SYSTEM
DE102017128543B4 (en) NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
DE102018112403B4 (en) ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT
DE102016216441B3 (en) Method and device for human-robot cooperation
DE112019003204T5 (en) VISUALIZATION AND MODIFICATION OF WORKING EDGE AREAS USING EXTENDED REALITY
WO2008098831A1 (en) Method and device for securing a work space
DE102020000390B4 (en) robotic system
DE102021103726B4 (en) Measurement parameter optimization method and device and computer control program
DE102021109332B4 (en) Apparatus and method for controlling a robot to insert an object into an insertion site
Kohn et al. Towards a real-time environment reconstruction for VR-based teleoperation through model segmentation
DE102020206403A1 (en) Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot
DE10215885A1 (en) Automatic process control
DE102017007359A1 (en) Method and system for checking and / or modifying a working process of a robot
DE102020104359B4 (en) Workspace limitation for a robot manipulator
EP1915239B1 (en) Method for generating an environmental image
DE102022202563B3 (en) Planning a trajectory of a robot
DE112017007903B4 (en) Holding position and orientation teaching device, holding position and orientation teaching method and robot system
DE102016214391B4 (en) Method for controlling an operation of a coordinate measuring machine and coordinate measuring machine with control
DE112020001675B4 (en) remote control device
Park Supervisory control of robot manipulator for gross motions

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final