DE102015225587A1 - Interaction system and method for interaction between a person and at least one robot unit - Google Patents
Interaction system and method for interaction between a person and at least one robot unit Download PDFInfo
- Publication number
- DE102015225587A1 DE102015225587A1 DE102015225587.5A DE102015225587A DE102015225587A1 DE 102015225587 A1 DE102015225587 A1 DE 102015225587A1 DE 102015225587 A DE102015225587 A DE 102015225587A DE 102015225587 A1 DE102015225587 A1 DE 102015225587A1
- Authority
- DE
- Germany
- Prior art keywords
- person
- unit
- data
- robot unit
- communication interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40203—Detect position of operator, create non material barrier to protect operator
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
Gegenstand der Erfindung ist ein Interaktionssystem (100) mit mindestens einer Kameraeinheit (10), welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum (13) aufweist und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person (14) innerhalb eines Arbeitsraumes (13) erfasst, mindestens einer Robotereinheit (11), welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) steuerbar und bewegbar ist, und einer Kommunikationsschnittstelle (12), welche zwischen der mindestens einen Kameraeinheit (10) und der mindestens einen Robotereinheit (11) angeordnet ist, wobei die Kommunikationsschnittstelle (12) derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit (10) die Positionsdaten und die Bewegungsdaten der Person (14) empfängt und die empfangenen Positionsdaten und die Bewegungsdaten der Person (14) in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit (11) steuerbar ist. The invention relates to an interaction system (100) having at least one camera unit (10), which has a depth sensor function for detecting depth data in a work space (13) and which is designed such that this position data and movement data of a person (14) within a workspace (13) detects, at least one robot unit (11), which is designed such that it is controllable and movable in dependence on the position data and movement data of the person (14) within the working space (13), and a communication interface (12) which between the at least one camera unit (10) and the at least one robot unit (11) is arranged, wherein the communication interface (12) is designed such that it receives from the at least one camera unit (10) the position data and the movement data of the person (14) and the received position data and the movement data of the person (14) in control commands umw means, by means of which a movement of the robot unit (11) is controllable.
Description
Die Erfindung betrifft ein Interaktionssystem. Ferner betrifft die Erfindung ein Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes. The invention relates to an interaction system. Furthermore, the invention relates to a method for interaction between a person and at least one robot unit within a workspace.
Arbeiten in einem definierten, abgegrenzten Arbeitsraum eine Person und mindestens eine Robotereinheit zusammen, so ist es üblicherweise vorgesehen, dass die Robotereinheit nach einem speziellen Ablaufschema programmiert ist und die Robotereinheit entsprechend dieser Programmierung arbeitet und ihre Bewegungen ausführt. Eine direkte, unmittelbare Interaktion bzw. Kommunikation zwischen der Person und der Robotereinheit kann dabei jedoch nicht erreicht werden, da eine Reaktion der Robotereinheit auf ein menschliches Verhalten der Person nicht möglich ist. Die Zusammenarbeit zwischen der Person und der Robotereinheit ist dadurch erschwert und zudem auch wenig effektiv. If a person and at least one robot unit work together in a defined, delimited working space, then it is usually provided that the robot unit is programmed according to a specific flowchart and the robot unit works in accordance with this programming and executes its movements. However, a direct, immediate interaction or communication between the person and the robot unit can not be achieved because a reaction of the robot unit to a human behavior of the person is not possible. The collaboration between the person and the robot unit is made more difficult and also less effective.
Aus der
Der Erfindung liegt daher die Aufgabe zugrunde, ein Interaktionssystem und ein Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes zur Verfügung zu stellen, mittels welchen eine Kommunikation zwischen der Person und der Robotereinheit verbessert und sicherer ausgeführt werden kann. The invention is therefore based on the object to provide an interaction system and a method for interaction between a person and at least one robot unit within a workspace, by means of which a communication between the person and the robot unit can be improved and executed more safely.
Diese Aufgabe wird mit den Merkmalen der unabhängigen Ansprüche gelöst. Bevorzugte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben. This object is achieved with the features of the independent claims. Preferred embodiments and further developments are specified in the subclaims.
Das Interaktionssystem gemäß der Erfindung weist mindestens eine Kameraeinheit auf, welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum aufweist, und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person innerhalb eines Arbeitsraumes erfasst. Weiter weist das Interaktionssystem gemäß der Erfindung mindestens eine Robotereinheit auf, welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person innerhalb des Arbeitsraumes steuerbar und bewegbar ist. Zudem weist das Interaktionssystem gemäß der Erfindung eine Kommunikationsschnittstelle auf, welche zwischen der mindestens einen Kameraeinheit und der mindestens einen Robotereinheit angeordnet ist, wobei die Kommunikationsschnittstelle derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit die Positionsdaten und die Bewegungsdaten der Person empfängt und die empfangenen Positionsdaten und Bewegungsdaten der Person in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit steuerbar ist. The interaction system according to the invention comprises at least one camera unit, which has a depth sensor function for detecting depth data in a work space, and which is designed such that it detects position data and movement data of a person within a work space. Furthermore, the interaction system according to the invention has at least one robot unit, which is designed such that it can be controlled and moved as a function of the position data and movement data of the person within the working space. In addition, the interaction system according to the invention has a communication interface, which is arranged between the at least one camera unit and the at least one robot unit, wherein the communication interface is designed such that it receives the position data and the movement data of the person from the at least one camera unit and the received Position data and movement data of the person converts into control commands, by means of which a movement of the robot unit is controllable.
Die Lösung der erfindungsgemäßen Aufgabe erfolgt ferner mittels eines Verfahrens zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes, bei welchem mindestens eine eine Tiefensensorfunktion zur Erfassung von Tiefendaten aufweisende Kameraeinheit Positionsdaten und Bewegungsdaten der Person innerhalb des Arbeitsraumes erfasst, die Positionsdaten und Bewegungsdaten an eine Kommunikationsschnittstelle gesendet werden, welche die Positionsdaten und Bewegungsdaten in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der mindestens einen Robotereinheit gesteuert wird. The object of the invention is further achieved by means of a method for interaction between a person and at least one robot unit within a workspace, in which at least one camera unit recording a depth sensor function for detecting depth data captures position data and movement data of the person within the workspace, the position data and movement data a communication interface is transmitted, which converts the position data and movement data into control commands, by means of which a movement of the at least one robot unit is controlled.
Das erfindungsgemäße Interaktionssystem und das erfindungsgemäße Verfahren zeichnen sich somit dadurch aus, dass mittels der in dem definierten Arbeitsraum befindlichen Person eine Steuerung der mindestens einen Robotereinheit, welche sich ebenfalls innerhalb dieses Arbeitsraumes befindet, über Gesten, Bewegungen und die Position der Person in dem Arbeitsraum erfolgen kann. Hierdurch kann eine Synchronisierung der Arbeitsabläufe zwischen einer Person und einer Robotereinheit innerhalb eines Arbeitsraumes erreicht werden, wodurch eine verbesserte Kommunikation und damit auch ein effizienteres Arbeiten zwischen der Person und der Robotereinheit erreicht werden kann. Die Arbeitsabläufe von der Person und der Robotereinheit können dadurch effizient aneinander angepasst werden. Durch die Bewegungserfassung der Person mittels einer oder mehrerer Kameraeinheiten innerhalb des Arbeitsraumes können Befehle, beispielsweise Startbefehle, wie „Bauteil holen“, aber auch Pausenbefehle oder Stoppbefehle an die Robotereinheit gesendet werden, wobei das Senden über die Kommunikationsschnittstelle, welche zwischen der Kameraeinheit und der Robotereinheit geschaltet ist, erfolgt. Dies ermöglicht eine besonders gute Austaktung zwischen der Person und der Robotereinheit. Die Robotereinheit kann dadurch den Bewegungen und der Geschwindigkeit der Person innerhalb des Arbeitsraumes unterstellt und angepasst werden. Die Robotereinheit kann hierdurch ihre ihr zugeordneten Tätigkeiten zur richtigen Zeit und am richtigen Ort durchführen und bewegt sich nicht nach einer hinterlegten Programmierung in einem festgelegten Taktzeitrhythmus. Mittels des erfindungsgemäßen Interaktionssystem passt sich die Robotereinheit der Person und damit dem Menschen an und nicht anders herum. Durch die Synchronisierung ist es nicht mehr nötig, der Robotereinheit zusätzliche Befehle beispielsweise mittels eines Handschalters zu geben. Die Tätigkeiten der Robotereinheit, wie zum Beispiel „Zurücktreten von der Maschine“ oder „Hineingreifen in einen Behälter“, werden automatisiert durch die Bewegungen, die Gesten und die Position der Person gesteuert. Dies erlaubt ein „natürlicheres“ Arbeiten der Robotereinheit. Die Kameraeinheit übernimmt zudem eine Überwachungsfunktion, wobei mittels der Überwachung mit der Kameraeinheit erreicht werden kann, dass zusätzlich zu dem effizienteren und intelligenteren Arbeiten der Robotereinheit ein Kontakt zwischen der Robotereinheit und der Person innerhalb des Arbeitsraumes vermieden werden kann. Hierdurch kann eine erhöhte Sicherheit bei dem Arbeiten einer Robotereinheit zusammen mit einer Person erreicht werden. Dies ermöglicht ein sicheres Arbeiten von einer Person und einer Robotereinheit auch auf einem reduzierten Arbeitsraumbereich. Die Kameraeinheit ermöglicht zudem eine kontinuierliche Überwachung des Arbeitsraumes und der Person. Die Kameraeinheit weist eine Tiefensensorfunktion auf, wodurch eine 3-D-Raumerfassung ermöglicht wird. Mittels dieser Kameraeinheit ist eine Tiefenmessung möglich, wobei hierbei die Tiefendaten über einen geeigneten Rechenalgorithmus ermittelt werden können. Die Kameraeinheit kann dabei Lichtimpulse senden und empfangen. Weiter kann die Kameraeinheit auch einen Farbsensor aufweisen, mittels welchem Bilddaten ermittelt werden können. Die Kameraeinheit ist in der Lage, dreidimensionale Daten in Echtzeit aufzuzeigen. Die Kameraeinheit überwacht den Arbeitsraum und ermittelt ununterbrochen die Position der Person. Diese Daten werden kontinuierlich mit der Position der Robotereinheit abgeglichen. Durch diese Berechnung kann, sobald ein festgelegter Mindestabstand unterschritten wird, die Robotereinheit beispielsweise in einen Stoppzustand versetzt, die Bahnplanung der Robotereinheit angepasst, die Geschwindigkeit der Robotereinheit reduziert, etc. werden. Die Kommunikation zwischen der Robotereinheit und der Kameraeinheit erfolgt über die Kommunikationsschnittstelle, welche vorzugsweise als eine interaktive Mensch-Roboter-Schnittstelle ausgebildet ist. Beispielsweise kann die Kommunikationsstelle ein Computer sein oder aber auch eine speicherprogrammierbare Steuerung (SPS), wenn die Kameraeinheit einen eigenen Systemcontroller aufweist. Das erfindungsgemäße Interaktionssystem ermöglicht damit eine Realisierung einer „echten“ Zusammenarbeit zwischen einer Person und einer Robotereinheit durch eine intelligente Bewegungserfassung der Person und einer darauf angepassten Bewegungssteuerung der Robotereinheit. Eine Kommunikation zwischen einer Person und einer Robotereinheit in einem Arbeitsraum ist dadurch gegenüber herkömmlichen Systemen wesentlich verbessert. Zudem ist dadurch eine Verbesserung des Prozessablaufes bei einer Interaktion zwischen einer Person und einer Robotereinheit möglich. In der Produktion können hierdurch beispielsweise Taktzeitverkürzungen, eine Erhöhung der Produktivität und eine deutliche Senkung der ergonomischen Belastung der Person erreicht werden, da die Robotereinheit mehr Arbeitsaufgaben übernehmen kann und eine gezielte Aufteilung der Arbeitsinhalte zwischen der Person und der Robotereinheit ermöglicht sind. Damit kann ein Hand-in-Hand-Arbeiten zwischen der Person und der Robotereinheit erreicht werden, wobei die Robotereinheit in ihren Bewegungen auf die Gesten, Bewegungen und die Position der Person reagieren kann. The interaction system according to the invention and the method according to the invention are therefore characterized in that by means of the person located in the defined working space a control of the at least one robot unit, which is also located within this work space, via gestures, movements and the position of the person in the work space can. As a result, a synchronization of the workflow between a person and a robot unit within a work space can be achieved, whereby an improved communication and thus a more efficient working between the person and the Robot unit can be achieved. The workflows of the person and the robot unit can thereby be efficiently adapted to each other. By the movement detection of the person by means of one or more camera units within the workspace commands, such as startup commands, such as "get component", but also pause commands or stop commands can be sent to the robot unit, wherein the transmission via the communication interface, which between the camera unit and the robot unit is switched takes place. This allows a particularly good balancing between the person and the robot unit. The robot unit can thereby be subordinated to the movements and the speed of the person within the working space and adjusted. The robot unit can thereby perform its assigned activities at the right time and in the right place and does not move according to a stored programming in a fixed cycle time rhythm. By means of the interaction system according to the invention, the robot unit adapts to the person and thus to the person and not the other way round. Due to the synchronization, it is no longer necessary to give the robot unit additional commands, for example by means of a manual switch. The activities of the robot unit, such as "withdrawing from the machine" or "grasping into a container", are automatically controlled by the person's movements, gestures and position. This allows a "more natural" working of the robot unit. The camera unit also assumes a monitoring function, it being possible by means of monitoring with the camera unit to achieve that, in addition to the more efficient and intelligent operation of the robot unit, contact between the robot unit and the person within the working space can be avoided. As a result, increased safety in the operation of a robot unit can be achieved together with a person. This allows a safe working of a person and a robot unit even on a reduced workspace area. The camera unit also allows continuous monitoring of the workspace and the person. The camera unit has a depth sensor function, enabling 3-D space detection. By means of this camera unit, a depth measurement is possible, in which case the depth data can be determined by means of a suitable calculation algorithm. The camera unit can send and receive light pulses. Furthermore, the camera unit can also have a color sensor, by means of which image data can be determined. The camera unit is capable of displaying three-dimensional data in real time. The camera unit monitors the working space and continuously determines the position of the person. These data are continuously compared with the position of the robot unit. As a result of this calculation, as soon as a predetermined minimum distance is undershot, for example, the robot unit is put into a stop state, the path planning of the robot unit is adapted, the speed of the robot unit is reduced, etc. The communication between the robot unit and the camera unit takes place via the communication interface, which is preferably designed as an interactive human-robot interface. For example, the communication point may be a computer or even a programmable logic controller (PLC) if the camera unit has its own system controller. The interaction system according to the invention thus makes it possible to realize a "real" cooperation between a person and a robot unit by means of an intelligent movement detection of the person and an adapted motion control of the robot unit. A communication between a person and a robot unit in a work space is thereby significantly improved over conventional systems. In addition, thereby an improvement of the process flow in an interaction between a person and a robot unit is possible. In this way, for example, cycle time reductions, an increase in productivity and a significant reduction in the ergonomic burden of the person can be achieved in production since the robot unit can take on more work tasks and a targeted division of the work contents between the person and the robot unit is made possible. Thus, a hand-in-hand between the person and the robot unit can be achieved, whereby the robot unit can react in their movements to the gestures, movements and the position of the person.
Bevorzugt ist es vorgesehen, dass die Kommunikationsschnittstelle eine Steuereinheit aufweist, welche die Steuerungsbefehle jeweils einer Indexierung zuordnet, über welche in der Robotereinheit gespeicherte Programmabläufe startbar sind. Jede Indexierung stellt vorzugsweise eine Arbeitsanweisung dar, wie beispielsweise „Start Beladen“. Die in der Robotereinheit gespeicherten Programmabläufe sind auf die in der Steuereinheit gespeicherten Indexierungen abgestimmt, so dass vorzugsweise jeder Indexierung ein Programmablauf zugeordnet ist. Die einzelnen Programmabläufe sind vorzugsweise als Unterprogramme in einem Hauptprogramm gespeichert, wodurch ein Fehlaufruf eines Programmablaufes vermieden werden kann. It is preferably provided that the communication interface has a control unit which assigns the control commands in each case to an indexing, via which program sequences stored in the robot unit can be started. Each indexing preferably represents a work instruction, such as "Start Loaded". The program sequences stored in the robot unit are matched to the indexings stored in the control unit, so that preferably each indexation is assigned a program sequence. The individual program sequences are preferably stored as subroutines in a main program, whereby an erroneous call of a program sequence can be avoided.
Weiter ist es bevorzugt vorgesehen, dass die Kommunikationsschnittstelle eine Auswerteeinheit aufweist, in welcher definierte Standortdaten der Person gespeichert sind, wobei die Auswerteeinheit vorzugsweise derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit empfangenen Positionsdaten und/oder Bewegungsdaten der Person mit den gespeicherten Standortdaten der Person abgleicht. Durch den Abgleich zwischen den gesendeten Positionsdaten der Person und den gespeicherten Standortdaten der Person können vorzugsweise die Steuerungsbefehle generiert werden, über welche die Steuerung der Bewegungen der Robotereinheit erfolgt. Durch den Abgleich der gesendeten Positionsdaten mit den gespeicherten Standortdaten und damit von Ist-Positionsdaten mit Soll-Positionsdaten der Person kann kontinuierlich eine optimale Anpassung der Arbeitsabläufe zwischen der Person und der mindestens einen Robotereinheit innerhalb des Arbeitsraumes ermöglicht werden. Zudem kann durch den Abgleich der gesendeten Positionsdaten mit den gespeicherten Standortdaten der Person eine Vermeidung von ungewollten Kollisionen zwischen der Person und der Robotereinheit erreicht werden. Furthermore, it is preferably provided that the communication interface has an evaluation unit in which defined location data of the person are stored, wherein the evaluation unit is preferably designed such that it receives the position data and / or movement data received from the at least one camera unit Align the person with the stored location data of the person. By comparing the transmitted position data of the person and the stored location data of the person, the control commands can preferably be generated, via which the control of the movements of the robot unit takes place. By aligning the transmitted position data with the stored location data and thus of actual position data with desired position data of the person, an optimal adaptation of the work processes between the person and the at least one robot unit within the workspace can be continuously enabled. In addition, by comparing the transmitted position data with the stored location data of the person, an avoidance of unwanted collisions between the person and the robot unit can be achieved.
Die mindestens eine Kameraeinheit ist bevorzugt derart positioniert, dass der gesamte Bewegungsbereich der Person innerhalb des Arbeitsraumes im Sichtfeld der mindestens einen Kameraeinheit ist. Damit kann eine gute und optimale Erkennung der Person innerhalb des Arbeitsraumes mittels der mindestens einen Kameraeinheit sichergestellt werden. Bevorzugt ist es vorgesehen, dass beim Einsatz genau einer Kameraeinheit diese derart positioniert ist, dass die Person möglichst frontal zur Kameraeinheit steht. Damit ist eine Erfassung der gesamten Person und insbesondere ihrer gesamten Bewegungen und Gesten mittels der Kameraeinheit möglich. Um zu vermeiden, dass Totwinkel entstehen können, kann es vorgesehen sein, dass das Interaktionssystem zwei oder mehr als zwei Kameraeinheiten aufweist, welche an verschiedenen Positionen innerhalb des Arbeitsraumes aufgestellt werden können, wodurch ein komplettes Abdecken des Arbeitsraumes unter Vermeidung von Totwinkeln sichergestellt werden kann. The at least one camera unit is preferably positioned such that the entire range of motion of the person within the working space is in the field of vision of the at least one camera unit. Thus, a good and optimal detection of the person within the work space can be ensured by means of the at least one camera unit. It is preferably provided that when using exactly one camera unit, it is positioned in such a way that the person stands as frontally as possible to the camera unit. This makes it possible to record the entire person and in particular their entire movements and gestures by means of the camera unit. In order to avoid that blind spots can occur, it can be provided that the interaction system has two or more than two camera units, which can be set up at different positions within the working space, whereby a complete covering of the working space can be ensured while avoiding dead angles.
Weiter bevorzugt ist es vorgesehen, dass die mindestens eine Kameraeinheit ein in dem Arbeitsraum befindliches Hindernis erfasst und Daten zu dem Hindernis an die Kommunikationsschnittstelle sendet. Die Daten zu dem Hindernis können insbesondere die Anzahl der Hindernisse und die Position der Hindernisse in dem Arbeitsraum sein. Durch das Erfassen eines Hindernisses kann die Position der Robotereinheit mit der Position des Hindernisses mittels der Kommunikationsschnittstelle abgeglichen werden, so dass die Robotereinheit an dem Hindernis vorbeigeführt werden kann und dadurch eine Kollision der Robotereinheit mit dem Hindernis verhindert werden kann. Further preferably, it is provided that the at least one camera unit detects an obstacle located in the working space and transmits data to the obstacle to the communication interface. The data for the obstacle may be, in particular, the number of obstacles and the position of the obstacles in the work space. By detecting an obstacle, the position of the robot unit can be adjusted with the position of the obstacle by means of the communication interface, so that the robot unit can be guided past the obstacle and thereby a collision of the robot unit with the obstacle can be prevented.
Weiter kann es vorgesehen sein, dass die Kommunikationsschnittstelle in Abhängigkeit der Daten zu dem Hindernis eine Ausweichstrategie generiert und dass die Kommunikationsschnittstelle die mindestens eine Robotereinheit entsprechend der Ausweichstrategie steuert. Die Robotereinheit bewegt sich vorzugsweise auf einer fest definierten Bewegungsbahn. Jedoch ist ein Abweichen der Robotereinheit von dieser definierten Bewegungsbahn möglich, falls ein Hindernis von der Kameraeinheit erkannt wird. Sobald ein Hindernis erkannt wird, kann die Kommunikationsschnittstelle eine Ausweichstrategie ermitteln, um eine Kollision der Robotereinheit mit dem Hindernis zu vermeiden. Die Ausweichstrategie kann derart ausgebildet sein, dass die Robotereinheit auf eine alternative, fest hinterlegte weitere Bewegungsbahn umgelenkt wird. Alternativ ist es auch möglich, dass eine dynamisch freie Ausweichroute durch die Kommunikationsschnittstelle generiert werden kann und die Robotereinheit entsprechend der generierten Ausweichroute gesteuert werden kann. Furthermore, it can be provided that the communication interface generates an evasion strategy as a function of the data for the obstacle and that the communication interface controls the at least one robot unit in accordance with the evasion strategy. The robot unit preferably moves on a defined path of movement. However, deviating the robot unit from this defined trajectory is possible if an obstacle is detected by the camera unit. As soon as an obstacle is detected, the communication interface can determine an avoidance strategy in order to avoid a collision of the robot unit with the obstacle. The avoidance strategy can be designed such that the robot unit is deflected to an alternative, permanently stored further movement path. Alternatively, it is also possible that a dynamically free alternative route can be generated by the communication interface and the robot unit can be controlled according to the generated alternative route.
Weiter ist es bevorzugt vorgesehen, dass die mindestens eine Kameraeinheit die Anzahl der Personen in dem Arbeitsraum erfasst und Daten zu der Anzahl der Personen an die Kommunikationsschnittstelle sendet. Innerhalb der Kommunikationsschnittstelle kann hinterlegt sein, dass bei einer bestimmten Anzahl von Personen innerhalb des Arbeitsraumes ein Abbruch der Arbeit bzw. der Bewegungen der Robotereinheit erfolgt. Demzufolge kann über eine Abbruchbedingung gesteuert werden, ob bei einer bestimmten Anzahl von identifizierten Personen in dem Arbeitsraum die Robotereinheit gestoppt wird. Die Sicherheit des Interaktionssystems kann dadurch weiter verbessert werden. Furthermore, it is preferably provided that the at least one camera unit records the number of persons in the workspace and transmits data on the number of persons to the communication interface. It can be stored within the communication interface that, given a certain number of persons within the workspace, the work or movements of the robot unit are interrupted. Accordingly, it can be controlled via a termination condition whether a certain number of identified persons in the work space, the robot unit is stopped. The security of the interaction system can thereby be further improved.
Die Robotereinheit kann in Form einer sensitiven Robotereinheit ausgebildet sein. Eine derartige sensitive Robotereinheit kann interne oder externe Sensoren aufweisen. Bei Überschreitung einer bestimmten, vorher definierten Kraft, beispielsweise nach
Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung einer bevorzugten Ausgestaltung der Erfindung anhand der Figuren näher dargestellt. Es zeigen: Further, measures improving the invention will be described in more detail below together with the description of a preferred embodiment of the invention with reference to FIGS. Show it:
Die Kameraeinheit
Die Kommunikationsschnittstelle
Mittels des Interaktionssystems
Die Kommunikationsschnittstelle
Die Steuereinheit
In der Auswerteeinheit
In
Wie in
Bei der hier gezeigten Darstellung ist die Robotereinheit
In
Zuerst entnimmt, wie in
Sobald sich die Person
Auf der Bearbeitungsstation
Nach der Bearbeitung des Artikels
Ein Startbefehl der Robotereinheit
Danach kann der Prozess erneut gestartet werden, wie in
Durch eine derartige Verschaltung der einzelnen Komponenten kann eine besonders hohe Sicherheit bei der Interaktion zwischen einer Person
Die Erfindung beschränkt sich in ihrer Ausführung nicht auf die vorstehend angegebenen bevorzugten Ausgestaltungen. Vielmehr ist eine Anzahl von Varianten denkbar, welche von den dargestellten Lösungen auch bei grundsätzlich anders gearteten Ausführungen Gebrauch macht. Sämtliche aus den Ansprüchen der Beschreibung oder den Zeichnungen hervorgehende Merkmale und/oder Vorteile einschließlich konstruktiven Einzelheiten räumlicher Anordnungen und Verfahrensschritte können sowohl für sich als auch in den verschiedensten Kombinationen erfindungswesentlich sein. The invention is not limited in its execution to the above-mentioned preferred embodiments. Rather, a number of variants is conceivable, which makes use of the solutions shown even in fundamentally different versions. All features and / or advantages resulting from the claims of the description or the drawings, including structural details of spatial arrangements and method steps, can be essential to the invention, both individually and in the most diverse combinations.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 100 100
- Interaktionssystem Interaction system
- 10 10
- Kameraeinheit camera unit
- 11 11
- Robotereinheit robot unit
- 12 12
- Kommunikationsschnittstelle Communication Interface
- 13 13
- Arbeitsraum working space
- 14 14
- Person person
- 15 15
- Lagerstation storage station
- 16 16
- Steuereinheit control unit
- 17 17
- Auswerteeinheit evaluation
- 18 18
- Ablagestation deposit station
- 19 19
- Artikel items
- 20 20
- Redundantes Steuerungssystem Redundant control system
- 21 21
- Einkanaliges Steuerungssystem Single-channel control system
- 22 22
- Steuerung control
- 23 23
- Steuerung control
- 24 24
- Sichtfeld field of view
- 25 25
- Bearbeitungsstation processing station
- 26 26
- Materialbereitstellungsplatz Material supply position
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- DE 102009046107 A1 [0003] DE 102009046107 A1 [0003]
Zitierte Nicht-PatentliteraturCited non-patent literature
- TS ISO 15066 [0015] TS ISO 15066 [0015]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015225587.5A DE102015225587A1 (en) | 2015-12-17 | 2015-12-17 | Interaction system and method for interaction between a person and at least one robot unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015225587.5A DE102015225587A1 (en) | 2015-12-17 | 2015-12-17 | Interaction system and method for interaction between a person and at least one robot unit |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015225587A1 true DE102015225587A1 (en) | 2017-06-22 |
Family
ID=58994300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015225587.5A Pending DE102015225587A1 (en) | 2015-12-17 | 2015-12-17 | Interaction system and method for interaction between a person and at least one robot unit |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015225587A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019206012A1 (en) * | 2019-04-26 | 2020-10-29 | Kuka Deutschland Gmbh | Method and system for operating a robot |
DE102019206010A1 (en) * | 2019-04-26 | 2020-10-29 | Kuka Aktiengesellschaft | Method and system for monitoring a robot arrangement |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4417128A1 (en) * | 1994-05-16 | 1995-12-14 | Elnic Gmbh | Closed-circuit video surveillance system with image processing |
DE10152543A1 (en) * | 2001-10-24 | 2003-05-08 | Sick Ag | Method and device for controlling a safety-relevant function of a machine |
DE10245720A1 (en) * | 2002-09-24 | 2004-04-01 | Pilz Gmbh & Co. | Safety method for protecting automatic machine danger area with scene analysis of different images of danger area via 2 different analysis algorithms for reliable detection of foreign object in danger area |
DE10320343A1 (en) * | 2003-05-07 | 2004-12-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for monitored cooperation between robot unit and human operator e.g. for industry, involves impressing movement pattern on to robot during approach to human operator |
DE10324627A1 (en) * | 2003-05-28 | 2005-01-05 | Daimlerchrysler Ag | Working space monitoring for automated operating machines involves monitoring speed-dependent second zone for object penetration, preventing object from entering first zone if detected in second zone |
DE102006048166A1 (en) * | 2006-08-02 | 2008-02-07 | Daimler Ag | Method for observing a person in an industrial environment |
EP2023160A1 (en) * | 2007-08-02 | 2009-02-11 | Sick Ag | 3D room surveillance with configuration mode for determining the protection fields |
DE102009026091A1 (en) * | 2008-07-02 | 2010-04-01 | Elan Schaltelemente Gmbh & Co. Kg | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera |
DE102009046107A1 (en) | 2009-10-28 | 2011-05-05 | Ifm Electronic Gmbh | System and method for interaction between a person and a machine |
DE102010002250A1 (en) * | 2010-02-23 | 2011-08-25 | ifm electronic gmbh, 45128 | monitoring system |
DE102010017857A1 (en) * | 2010-04-22 | 2011-10-27 | Sick Ag | 3D security device and method for securing and operating at least one machine |
US20110264266A1 (en) * | 2008-12-03 | 2011-10-27 | Abb Research Ltd. | Robot safety system and a method |
DE102012007242A1 (en) * | 2012-03-09 | 2013-09-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Monitoring system for ensuring cooperation between worker and robot in human robot cooperation system, has control unit that controls robot using position of worker and region crossed by worker and robot in and/or from danger area |
US20140067121A1 (en) * | 2012-08-31 | 2014-03-06 | Rodney Brooks | Systems and methods for safe robot operation |
US20140244037A1 (en) * | 2013-02-27 | 2014-08-28 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
DE112012005650T5 (en) * | 2012-01-13 | 2014-10-09 | Mitsubishi Electric Corporation | Risk measurement system |
US20150217455A1 (en) * | 2014-02-04 | 2015-08-06 | Microsoft Corporation | Controlling a robot in the presence of a moving object |
-
2015
- 2015-12-17 DE DE102015225587.5A patent/DE102015225587A1/en active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4417128A1 (en) * | 1994-05-16 | 1995-12-14 | Elnic Gmbh | Closed-circuit video surveillance system with image processing |
DE10152543A1 (en) * | 2001-10-24 | 2003-05-08 | Sick Ag | Method and device for controlling a safety-relevant function of a machine |
DE10245720A1 (en) * | 2002-09-24 | 2004-04-01 | Pilz Gmbh & Co. | Safety method for protecting automatic machine danger area with scene analysis of different images of danger area via 2 different analysis algorithms for reliable detection of foreign object in danger area |
DE10320343A1 (en) * | 2003-05-07 | 2004-12-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for monitored cooperation between robot unit and human operator e.g. for industry, involves impressing movement pattern on to robot during approach to human operator |
DE10324627A1 (en) * | 2003-05-28 | 2005-01-05 | Daimlerchrysler Ag | Working space monitoring for automated operating machines involves monitoring speed-dependent second zone for object penetration, preventing object from entering first zone if detected in second zone |
DE102006048166A1 (en) * | 2006-08-02 | 2008-02-07 | Daimler Ag | Method for observing a person in an industrial environment |
EP2023160A1 (en) * | 2007-08-02 | 2009-02-11 | Sick Ag | 3D room surveillance with configuration mode for determining the protection fields |
DE102009026091A1 (en) * | 2008-07-02 | 2010-04-01 | Elan Schaltelemente Gmbh & Co. Kg | Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera |
US20110264266A1 (en) * | 2008-12-03 | 2011-10-27 | Abb Research Ltd. | Robot safety system and a method |
DE102009046107A1 (en) | 2009-10-28 | 2011-05-05 | Ifm Electronic Gmbh | System and method for interaction between a person and a machine |
DE102010002250A1 (en) * | 2010-02-23 | 2011-08-25 | ifm electronic gmbh, 45128 | monitoring system |
DE102010017857A1 (en) * | 2010-04-22 | 2011-10-27 | Sick Ag | 3D security device and method for securing and operating at least one machine |
DE112012005650T5 (en) * | 2012-01-13 | 2014-10-09 | Mitsubishi Electric Corporation | Risk measurement system |
DE102012007242A1 (en) * | 2012-03-09 | 2013-09-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Monitoring system for ensuring cooperation between worker and robot in human robot cooperation system, has control unit that controls robot using position of worker and region crossed by worker and robot in and/or from danger area |
US20140067121A1 (en) * | 2012-08-31 | 2014-03-06 | Rodney Brooks | Systems and methods for safe robot operation |
US20140244037A1 (en) * | 2013-02-27 | 2014-08-28 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US20150217455A1 (en) * | 2014-02-04 | 2015-08-06 | Microsoft Corporation | Controlling a robot in the presence of a moving object |
Non-Patent Citations (1)
Title |
---|
TS ISO 15066 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019206012A1 (en) * | 2019-04-26 | 2020-10-29 | Kuka Deutschland Gmbh | Method and system for operating a robot |
DE102019206010A1 (en) * | 2019-04-26 | 2020-10-29 | Kuka Aktiengesellschaft | Method and system for monitoring a robot arrangement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018206077B4 (en) | Robot control device and robot control program | |
DE102016008908B4 (en) | Industrial robot system and control method therefor | |
EP2838698B2 (en) | Robot arrangement and method for controlling a robot | |
EP3011225B1 (en) | Device and method for securing a machine that operates in an automated manner | |
DE112017002639T5 (en) | Robot control device | |
DE102016216441B3 (en) | Method and device for human-robot cooperation | |
DE102017128543B4 (en) | NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT | |
DE102018212531B4 (en) | Article transfer device | |
DE102015012232A1 (en) | Robotic system collaborating with humans | |
EP2216144B1 (en) | System and method to check components and/or functional devices with a testing device | |
EP2380709A2 (en) | 3D safety device and method for securing and operating at least one machine | |
DE202013104860U1 (en) | working device | |
WO2008014909A1 (en) | Camera-based monitoring of machines with moving machine elements for the purpose of collision prevention | |
DE102018118265B4 (en) | Procedure and monitoring system for protecting a machine | |
DE102012212754A1 (en) | Method for operating a sensor system and sensor system | |
EP2888185A1 (en) | Method and system for assisting a worker in a system for manipulating goods items | |
EP3587044B1 (en) | Method for gripping objects in a search area and positioning system | |
EP3725472A1 (en) | Method for determining a trajectory of a robot | |
DE102017202004A1 (en) | Device for securing a machine-controlled handling device and method | |
WO2015049207A2 (en) | Human-robot collaboration planning technology | |
EP2594373B1 (en) | Determining the permitted traversing range using a pointer | |
EP3118706B1 (en) | Method for controlling a picking vehicle | |
EP3333116A1 (en) | Method for automatic alignment of an industrial truck in a warehouse and system consisting of an industrial truck and a warehouse | |
EP3118708B1 (en) | Control method for a picking truck | |
WO2005039836A2 (en) | Method for effecting the movement of a handling device and image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication |