DE102015225587A1 - Interaction system and method for interaction between a person and at least one robot unit - Google Patents

Interaction system and method for interaction between a person and at least one robot unit Download PDF

Info

Publication number
DE102015225587A1
DE102015225587A1 DE102015225587.5A DE102015225587A DE102015225587A1 DE 102015225587 A1 DE102015225587 A1 DE 102015225587A1 DE 102015225587 A DE102015225587 A DE 102015225587A DE 102015225587 A1 DE102015225587 A1 DE 102015225587A1
Authority
DE
Germany
Prior art keywords
person
unit
data
robot unit
communication interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015225587.5A
Other languages
German (de)
Inventor
Nadja Fischer
Jonathan Naar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102015225587.5A priority Critical patent/DE102015225587A1/en
Publication of DE102015225587A1 publication Critical patent/DE102015225587A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Gegenstand der Erfindung ist ein Interaktionssystem (100) mit mindestens einer Kameraeinheit (10), welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum (13) aufweist und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person (14) innerhalb eines Arbeitsraumes (13) erfasst, mindestens einer Robotereinheit (11), welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) steuerbar und bewegbar ist, und einer Kommunikationsschnittstelle (12), welche zwischen der mindestens einen Kameraeinheit (10) und der mindestens einen Robotereinheit (11) angeordnet ist, wobei die Kommunikationsschnittstelle (12) derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit (10) die Positionsdaten und die Bewegungsdaten der Person (14) empfängt und die empfangenen Positionsdaten und die Bewegungsdaten der Person (14) in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit (11) steuerbar ist. The invention relates to an interaction system (100) having at least one camera unit (10), which has a depth sensor function for detecting depth data in a work space (13) and which is designed such that this position data and movement data of a person (14) within a workspace (13) detects, at least one robot unit (11), which is designed such that it is controllable and movable in dependence on the position data and movement data of the person (14) within the working space (13), and a communication interface (12) which between the at least one camera unit (10) and the at least one robot unit (11) is arranged, wherein the communication interface (12) is designed such that it receives from the at least one camera unit (10) the position data and the movement data of the person (14) and the received position data and the movement data of the person (14) in control commands umw means, by means of which a movement of the robot unit (11) is controllable.

Figure DE102015225587A1_0001
Figure DE102015225587A1_0001

Description

Die Erfindung betrifft ein Interaktionssystem. Ferner betrifft die Erfindung ein Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes. The invention relates to an interaction system. Furthermore, the invention relates to a method for interaction between a person and at least one robot unit within a workspace.

Arbeiten in einem definierten, abgegrenzten Arbeitsraum eine Person und mindestens eine Robotereinheit zusammen, so ist es üblicherweise vorgesehen, dass die Robotereinheit nach einem speziellen Ablaufschema programmiert ist und die Robotereinheit entsprechend dieser Programmierung arbeitet und ihre Bewegungen ausführt. Eine direkte, unmittelbare Interaktion bzw. Kommunikation zwischen der Person und der Robotereinheit kann dabei jedoch nicht erreicht werden, da eine Reaktion der Robotereinheit auf ein menschliches Verhalten der Person nicht möglich ist. Die Zusammenarbeit zwischen der Person und der Robotereinheit ist dadurch erschwert und zudem auch wenig effektiv. If a person and at least one robot unit work together in a defined, delimited working space, then it is usually provided that the robot unit is programmed according to a specific flowchart and the robot unit works in accordance with this programming and executes its movements. However, a direct, immediate interaction or communication between the person and the robot unit can not be achieved because a reaction of the robot unit to a human behavior of the person is not possible. The collaboration between the person and the robot unit is made more difficult and also less effective.

Aus der DE 10 2009 046 107 A1 ist ein System für eine Interaktion zwischen einer Person und einem Robotereinheit bekannt, welches Markierungsmittel, die an der Person an bestimmten Positionen, vorzugsweise Endpositionen von Extremitäten oder Gelenken angeordnet sind, aufweist. Ferner weist das System mindestens eine Kameraeinheit zur Erfassung des Interaktionsbereiches und zur Erfassung der Markierungsmittel auf. Zudem weist das System eine Auswerteeinheit auf, die derart gesteuert ist, dass ausgehend von den erfassten Markierungsmitteln ein Modell der Person erstellt wird und eine Position und eine Bewegung der Person erfasst und/oder vorbestimmt wird. Weiter ist eine Steuereinheit vorgesehen, die die Robotereinheit derart ansteuert, dass bei einer sicherheitskritischen Position und/oder Bewegung der Person die Person nicht gefährdet wird. Hierbei spielen die an der Person zu befestigenden Markierungsmittel eine wesentliche Rolle, da mittels der Kameraeinheit die Markierungsmittel erfasst werden und damit ein Modell der Person erstellt wird, um eine Interaktion zwischen der Person und der Robotereinheit innerhalb eines Arbeitsraumes generieren zu können. Dieses System bedingt jedoch einen hohen Aufwand, aufgrund des notwendigen Vorsehens der Markierungsmittel, welche an der Person an vorher genau definierten Positionen befestigt werden müssen, da ohne diese Markierungsmittel das System nicht anwendbar ist. Die an der Person befestigten Markierungsmittel können zudem verrutschen oder sich sogar vollständig lösen, wodurch eine fehlerfreie Interaktion zwischen der Person und der Robotereinheit nicht mehr möglich ist. From the DE 10 2009 046 107 A1 For example, a system for an interaction between a person and a robot unit is known, which has marking means which are arranged on the person at specific positions, preferably end positions of extremities or joints. Furthermore, the system has at least one camera unit for detecting the interaction area and for detecting the marking means. In addition, the system has an evaluation unit which is controlled such that, based on the detected marking means, a model of the person is created and a position and a movement of the person are detected and / or predetermined. Further, a control unit is provided, which controls the robot unit such that in a safety-critical position and / or movement of the person, the person is not endangered. In this case, the marking means to be fastened to the person play an essential role, since the marking means are detected by means of the camera unit and a model of the person is created in order to be able to generate an interaction between the person and the robot unit within a working space. However, this system requires a lot of effort, due to the necessary provision of the marking means which must be attached to the person at previously precisely defined positions, since without this marking means the system is not applicable. The attached to the person marking means can also slip or even completely loose, whereby a perfect interaction between the person and the robot unit is no longer possible.

Der Erfindung liegt daher die Aufgabe zugrunde, ein Interaktionssystem und ein Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes zur Verfügung zu stellen, mittels welchen eine Kommunikation zwischen der Person und der Robotereinheit verbessert und sicherer ausgeführt werden kann. The invention is therefore based on the object to provide an interaction system and a method for interaction between a person and at least one robot unit within a workspace, by means of which a communication between the person and the robot unit can be improved and executed more safely.

Diese Aufgabe wird mit den Merkmalen der unabhängigen Ansprüche gelöst. Bevorzugte Ausgestaltungen und Weiterbildungen sind in den Unteransprüchen angegeben. This object is achieved with the features of the independent claims. Preferred embodiments and further developments are specified in the subclaims.

Das Interaktionssystem gemäß der Erfindung weist mindestens eine Kameraeinheit auf, welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum aufweist, und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person innerhalb eines Arbeitsraumes erfasst. Weiter weist das Interaktionssystem gemäß der Erfindung mindestens eine Robotereinheit auf, welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person innerhalb des Arbeitsraumes steuerbar und bewegbar ist. Zudem weist das Interaktionssystem gemäß der Erfindung eine Kommunikationsschnittstelle auf, welche zwischen der mindestens einen Kameraeinheit und der mindestens einen Robotereinheit angeordnet ist, wobei die Kommunikationsschnittstelle derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit die Positionsdaten und die Bewegungsdaten der Person empfängt und die empfangenen Positionsdaten und Bewegungsdaten der Person in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit steuerbar ist. The interaction system according to the invention comprises at least one camera unit, which has a depth sensor function for detecting depth data in a work space, and which is designed such that it detects position data and movement data of a person within a work space. Furthermore, the interaction system according to the invention has at least one robot unit, which is designed such that it can be controlled and moved as a function of the position data and movement data of the person within the working space. In addition, the interaction system according to the invention has a communication interface, which is arranged between the at least one camera unit and the at least one robot unit, wherein the communication interface is designed such that it receives the position data and the movement data of the person from the at least one camera unit and the received Position data and movement data of the person converts into control commands, by means of which a movement of the robot unit is controllable.

Die Lösung der erfindungsgemäßen Aufgabe erfolgt ferner mittels eines Verfahrens zur Interaktion zwischen einer Person und mindestens einer Robotereinheit innerhalb eines Arbeitsraumes, bei welchem mindestens eine eine Tiefensensorfunktion zur Erfassung von Tiefendaten aufweisende Kameraeinheit Positionsdaten und Bewegungsdaten der Person innerhalb des Arbeitsraumes erfasst, die Positionsdaten und Bewegungsdaten an eine Kommunikationsschnittstelle gesendet werden, welche die Positionsdaten und Bewegungsdaten in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der mindestens einen Robotereinheit gesteuert wird. The object of the invention is further achieved by means of a method for interaction between a person and at least one robot unit within a workspace, in which at least one camera unit recording a depth sensor function for detecting depth data captures position data and movement data of the person within the workspace, the position data and movement data a communication interface is transmitted, which converts the position data and movement data into control commands, by means of which a movement of the at least one robot unit is controlled.

Das erfindungsgemäße Interaktionssystem und das erfindungsgemäße Verfahren zeichnen sich somit dadurch aus, dass mittels der in dem definierten Arbeitsraum befindlichen Person eine Steuerung der mindestens einen Robotereinheit, welche sich ebenfalls innerhalb dieses Arbeitsraumes befindet, über Gesten, Bewegungen und die Position der Person in dem Arbeitsraum erfolgen kann. Hierdurch kann eine Synchronisierung der Arbeitsabläufe zwischen einer Person und einer Robotereinheit innerhalb eines Arbeitsraumes erreicht werden, wodurch eine verbesserte Kommunikation und damit auch ein effizienteres Arbeiten zwischen der Person und der Robotereinheit erreicht werden kann. Die Arbeitsabläufe von der Person und der Robotereinheit können dadurch effizient aneinander angepasst werden. Durch die Bewegungserfassung der Person mittels einer oder mehrerer Kameraeinheiten innerhalb des Arbeitsraumes können Befehle, beispielsweise Startbefehle, wie „Bauteil holen“, aber auch Pausenbefehle oder Stoppbefehle an die Robotereinheit gesendet werden, wobei das Senden über die Kommunikationsschnittstelle, welche zwischen der Kameraeinheit und der Robotereinheit geschaltet ist, erfolgt. Dies ermöglicht eine besonders gute Austaktung zwischen der Person und der Robotereinheit. Die Robotereinheit kann dadurch den Bewegungen und der Geschwindigkeit der Person innerhalb des Arbeitsraumes unterstellt und angepasst werden. Die Robotereinheit kann hierdurch ihre ihr zugeordneten Tätigkeiten zur richtigen Zeit und am richtigen Ort durchführen und bewegt sich nicht nach einer hinterlegten Programmierung in einem festgelegten Taktzeitrhythmus. Mittels des erfindungsgemäßen Interaktionssystem passt sich die Robotereinheit der Person und damit dem Menschen an und nicht anders herum. Durch die Synchronisierung ist es nicht mehr nötig, der Robotereinheit zusätzliche Befehle beispielsweise mittels eines Handschalters zu geben. Die Tätigkeiten der Robotereinheit, wie zum Beispiel „Zurücktreten von der Maschine“ oder „Hineingreifen in einen Behälter“, werden automatisiert durch die Bewegungen, die Gesten und die Position der Person gesteuert. Dies erlaubt ein „natürlicheres“ Arbeiten der Robotereinheit. Die Kameraeinheit übernimmt zudem eine Überwachungsfunktion, wobei mittels der Überwachung mit der Kameraeinheit erreicht werden kann, dass zusätzlich zu dem effizienteren und intelligenteren Arbeiten der Robotereinheit ein Kontakt zwischen der Robotereinheit und der Person innerhalb des Arbeitsraumes vermieden werden kann. Hierdurch kann eine erhöhte Sicherheit bei dem Arbeiten einer Robotereinheit zusammen mit einer Person erreicht werden. Dies ermöglicht ein sicheres Arbeiten von einer Person und einer Robotereinheit auch auf einem reduzierten Arbeitsraumbereich. Die Kameraeinheit ermöglicht zudem eine kontinuierliche Überwachung des Arbeitsraumes und der Person. Die Kameraeinheit weist eine Tiefensensorfunktion auf, wodurch eine 3-D-Raumerfassung ermöglicht wird. Mittels dieser Kameraeinheit ist eine Tiefenmessung möglich, wobei hierbei die Tiefendaten über einen geeigneten Rechenalgorithmus ermittelt werden können. Die Kameraeinheit kann dabei Lichtimpulse senden und empfangen. Weiter kann die Kameraeinheit auch einen Farbsensor aufweisen, mittels welchem Bilddaten ermittelt werden können. Die Kameraeinheit ist in der Lage, dreidimensionale Daten in Echtzeit aufzuzeigen. Die Kameraeinheit überwacht den Arbeitsraum und ermittelt ununterbrochen die Position der Person. Diese Daten werden kontinuierlich mit der Position der Robotereinheit abgeglichen. Durch diese Berechnung kann, sobald ein festgelegter Mindestabstand unterschritten wird, die Robotereinheit beispielsweise in einen Stoppzustand versetzt, die Bahnplanung der Robotereinheit angepasst, die Geschwindigkeit der Robotereinheit reduziert, etc. werden. Die Kommunikation zwischen der Robotereinheit und der Kameraeinheit erfolgt über die Kommunikationsschnittstelle, welche vorzugsweise als eine interaktive Mensch-Roboter-Schnittstelle ausgebildet ist. Beispielsweise kann die Kommunikationsstelle ein Computer sein oder aber auch eine speicherprogrammierbare Steuerung (SPS), wenn die Kameraeinheit einen eigenen Systemcontroller aufweist. Das erfindungsgemäße Interaktionssystem ermöglicht damit eine Realisierung einer „echten“ Zusammenarbeit zwischen einer Person und einer Robotereinheit durch eine intelligente Bewegungserfassung der Person und einer darauf angepassten Bewegungssteuerung der Robotereinheit. Eine Kommunikation zwischen einer Person und einer Robotereinheit in einem Arbeitsraum ist dadurch gegenüber herkömmlichen Systemen wesentlich verbessert. Zudem ist dadurch eine Verbesserung des Prozessablaufes bei einer Interaktion zwischen einer Person und einer Robotereinheit möglich. In der Produktion können hierdurch beispielsweise Taktzeitverkürzungen, eine Erhöhung der Produktivität und eine deutliche Senkung der ergonomischen Belastung der Person erreicht werden, da die Robotereinheit mehr Arbeitsaufgaben übernehmen kann und eine gezielte Aufteilung der Arbeitsinhalte zwischen der Person und der Robotereinheit ermöglicht sind. Damit kann ein Hand-in-Hand-Arbeiten zwischen der Person und der Robotereinheit erreicht werden, wobei die Robotereinheit in ihren Bewegungen auf die Gesten, Bewegungen und die Position der Person reagieren kann. The interaction system according to the invention and the method according to the invention are therefore characterized in that by means of the person located in the defined working space a control of the at least one robot unit, which is also located within this work space, via gestures, movements and the position of the person in the work space can. As a result, a synchronization of the workflow between a person and a robot unit within a work space can be achieved, whereby an improved communication and thus a more efficient working between the person and the Robot unit can be achieved. The workflows of the person and the robot unit can thereby be efficiently adapted to each other. By the movement detection of the person by means of one or more camera units within the workspace commands, such as startup commands, such as "get component", but also pause commands or stop commands can be sent to the robot unit, wherein the transmission via the communication interface, which between the camera unit and the robot unit is switched takes place. This allows a particularly good balancing between the person and the robot unit. The robot unit can thereby be subordinated to the movements and the speed of the person within the working space and adjusted. The robot unit can thereby perform its assigned activities at the right time and in the right place and does not move according to a stored programming in a fixed cycle time rhythm. By means of the interaction system according to the invention, the robot unit adapts to the person and thus to the person and not the other way round. Due to the synchronization, it is no longer necessary to give the robot unit additional commands, for example by means of a manual switch. The activities of the robot unit, such as "withdrawing from the machine" or "grasping into a container", are automatically controlled by the person's movements, gestures and position. This allows a "more natural" working of the robot unit. The camera unit also assumes a monitoring function, it being possible by means of monitoring with the camera unit to achieve that, in addition to the more efficient and intelligent operation of the robot unit, contact between the robot unit and the person within the working space can be avoided. As a result, increased safety in the operation of a robot unit can be achieved together with a person. This allows a safe working of a person and a robot unit even on a reduced workspace area. The camera unit also allows continuous monitoring of the workspace and the person. The camera unit has a depth sensor function, enabling 3-D space detection. By means of this camera unit, a depth measurement is possible, in which case the depth data can be determined by means of a suitable calculation algorithm. The camera unit can send and receive light pulses. Furthermore, the camera unit can also have a color sensor, by means of which image data can be determined. The camera unit is capable of displaying three-dimensional data in real time. The camera unit monitors the working space and continuously determines the position of the person. These data are continuously compared with the position of the robot unit. As a result of this calculation, as soon as a predetermined minimum distance is undershot, for example, the robot unit is put into a stop state, the path planning of the robot unit is adapted, the speed of the robot unit is reduced, etc. The communication between the robot unit and the camera unit takes place via the communication interface, which is preferably designed as an interactive human-robot interface. For example, the communication point may be a computer or even a programmable logic controller (PLC) if the camera unit has its own system controller. The interaction system according to the invention thus makes it possible to realize a "real" cooperation between a person and a robot unit by means of an intelligent movement detection of the person and an adapted motion control of the robot unit. A communication between a person and a robot unit in a work space is thereby significantly improved over conventional systems. In addition, thereby an improvement of the process flow in an interaction between a person and a robot unit is possible. In this way, for example, cycle time reductions, an increase in productivity and a significant reduction in the ergonomic burden of the person can be achieved in production since the robot unit can take on more work tasks and a targeted division of the work contents between the person and the robot unit is made possible. Thus, a hand-in-hand between the person and the robot unit can be achieved, whereby the robot unit can react in their movements to the gestures, movements and the position of the person.

Bevorzugt ist es vorgesehen, dass die Kommunikationsschnittstelle eine Steuereinheit aufweist, welche die Steuerungsbefehle jeweils einer Indexierung zuordnet, über welche in der Robotereinheit gespeicherte Programmabläufe startbar sind. Jede Indexierung stellt vorzugsweise eine Arbeitsanweisung dar, wie beispielsweise „Start Beladen“. Die in der Robotereinheit gespeicherten Programmabläufe sind auf die in der Steuereinheit gespeicherten Indexierungen abgestimmt, so dass vorzugsweise jeder Indexierung ein Programmablauf zugeordnet ist. Die einzelnen Programmabläufe sind vorzugsweise als Unterprogramme in einem Hauptprogramm gespeichert, wodurch ein Fehlaufruf eines Programmablaufes vermieden werden kann. It is preferably provided that the communication interface has a control unit which assigns the control commands in each case to an indexing, via which program sequences stored in the robot unit can be started. Each indexing preferably represents a work instruction, such as "Start Loaded". The program sequences stored in the robot unit are matched to the indexings stored in the control unit, so that preferably each indexation is assigned a program sequence. The individual program sequences are preferably stored as subroutines in a main program, whereby an erroneous call of a program sequence can be avoided.

Weiter ist es bevorzugt vorgesehen, dass die Kommunikationsschnittstelle eine Auswerteeinheit aufweist, in welcher definierte Standortdaten der Person gespeichert sind, wobei die Auswerteeinheit vorzugsweise derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit empfangenen Positionsdaten und/oder Bewegungsdaten der Person mit den gespeicherten Standortdaten der Person abgleicht. Durch den Abgleich zwischen den gesendeten Positionsdaten der Person und den gespeicherten Standortdaten der Person können vorzugsweise die Steuerungsbefehle generiert werden, über welche die Steuerung der Bewegungen der Robotereinheit erfolgt. Durch den Abgleich der gesendeten Positionsdaten mit den gespeicherten Standortdaten und damit von Ist-Positionsdaten mit Soll-Positionsdaten der Person kann kontinuierlich eine optimale Anpassung der Arbeitsabläufe zwischen der Person und der mindestens einen Robotereinheit innerhalb des Arbeitsraumes ermöglicht werden. Zudem kann durch den Abgleich der gesendeten Positionsdaten mit den gespeicherten Standortdaten der Person eine Vermeidung von ungewollten Kollisionen zwischen der Person und der Robotereinheit erreicht werden. Furthermore, it is preferably provided that the communication interface has an evaluation unit in which defined location data of the person are stored, wherein the evaluation unit is preferably designed such that it receives the position data and / or movement data received from the at least one camera unit Align the person with the stored location data of the person. By comparing the transmitted position data of the person and the stored location data of the person, the control commands can preferably be generated, via which the control of the movements of the robot unit takes place. By aligning the transmitted position data with the stored location data and thus of actual position data with desired position data of the person, an optimal adaptation of the work processes between the person and the at least one robot unit within the workspace can be continuously enabled. In addition, by comparing the transmitted position data with the stored location data of the person, an avoidance of unwanted collisions between the person and the robot unit can be achieved.

Die mindestens eine Kameraeinheit ist bevorzugt derart positioniert, dass der gesamte Bewegungsbereich der Person innerhalb des Arbeitsraumes im Sichtfeld der mindestens einen Kameraeinheit ist. Damit kann eine gute und optimale Erkennung der Person innerhalb des Arbeitsraumes mittels der mindestens einen Kameraeinheit sichergestellt werden. Bevorzugt ist es vorgesehen, dass beim Einsatz genau einer Kameraeinheit diese derart positioniert ist, dass die Person möglichst frontal zur Kameraeinheit steht. Damit ist eine Erfassung der gesamten Person und insbesondere ihrer gesamten Bewegungen und Gesten mittels der Kameraeinheit möglich. Um zu vermeiden, dass Totwinkel entstehen können, kann es vorgesehen sein, dass das Interaktionssystem zwei oder mehr als zwei Kameraeinheiten aufweist, welche an verschiedenen Positionen innerhalb des Arbeitsraumes aufgestellt werden können, wodurch ein komplettes Abdecken des Arbeitsraumes unter Vermeidung von Totwinkeln sichergestellt werden kann. The at least one camera unit is preferably positioned such that the entire range of motion of the person within the working space is in the field of vision of the at least one camera unit. Thus, a good and optimal detection of the person within the work space can be ensured by means of the at least one camera unit. It is preferably provided that when using exactly one camera unit, it is positioned in such a way that the person stands as frontally as possible to the camera unit. This makes it possible to record the entire person and in particular their entire movements and gestures by means of the camera unit. In order to avoid that blind spots can occur, it can be provided that the interaction system has two or more than two camera units, which can be set up at different positions within the working space, whereby a complete covering of the working space can be ensured while avoiding dead angles.

Weiter bevorzugt ist es vorgesehen, dass die mindestens eine Kameraeinheit ein in dem Arbeitsraum befindliches Hindernis erfasst und Daten zu dem Hindernis an die Kommunikationsschnittstelle sendet. Die Daten zu dem Hindernis können insbesondere die Anzahl der Hindernisse und die Position der Hindernisse in dem Arbeitsraum sein. Durch das Erfassen eines Hindernisses kann die Position der Robotereinheit mit der Position des Hindernisses mittels der Kommunikationsschnittstelle abgeglichen werden, so dass die Robotereinheit an dem Hindernis vorbeigeführt werden kann und dadurch eine Kollision der Robotereinheit mit dem Hindernis verhindert werden kann. Further preferably, it is provided that the at least one camera unit detects an obstacle located in the working space and transmits data to the obstacle to the communication interface. The data for the obstacle may be, in particular, the number of obstacles and the position of the obstacles in the work space. By detecting an obstacle, the position of the robot unit can be adjusted with the position of the obstacle by means of the communication interface, so that the robot unit can be guided past the obstacle and thereby a collision of the robot unit with the obstacle can be prevented.

Weiter kann es vorgesehen sein, dass die Kommunikationsschnittstelle in Abhängigkeit der Daten zu dem Hindernis eine Ausweichstrategie generiert und dass die Kommunikationsschnittstelle die mindestens eine Robotereinheit entsprechend der Ausweichstrategie steuert. Die Robotereinheit bewegt sich vorzugsweise auf einer fest definierten Bewegungsbahn. Jedoch ist ein Abweichen der Robotereinheit von dieser definierten Bewegungsbahn möglich, falls ein Hindernis von der Kameraeinheit erkannt wird. Sobald ein Hindernis erkannt wird, kann die Kommunikationsschnittstelle eine Ausweichstrategie ermitteln, um eine Kollision der Robotereinheit mit dem Hindernis zu vermeiden. Die Ausweichstrategie kann derart ausgebildet sein, dass die Robotereinheit auf eine alternative, fest hinterlegte weitere Bewegungsbahn umgelenkt wird. Alternativ ist es auch möglich, dass eine dynamisch freie Ausweichroute durch die Kommunikationsschnittstelle generiert werden kann und die Robotereinheit entsprechend der generierten Ausweichroute gesteuert werden kann. Furthermore, it can be provided that the communication interface generates an evasion strategy as a function of the data for the obstacle and that the communication interface controls the at least one robot unit in accordance with the evasion strategy. The robot unit preferably moves on a defined path of movement. However, deviating the robot unit from this defined trajectory is possible if an obstacle is detected by the camera unit. As soon as an obstacle is detected, the communication interface can determine an avoidance strategy in order to avoid a collision of the robot unit with the obstacle. The avoidance strategy can be designed such that the robot unit is deflected to an alternative, permanently stored further movement path. Alternatively, it is also possible that a dynamically free alternative route can be generated by the communication interface and the robot unit can be controlled according to the generated alternative route.

Weiter ist es bevorzugt vorgesehen, dass die mindestens eine Kameraeinheit die Anzahl der Personen in dem Arbeitsraum erfasst und Daten zu der Anzahl der Personen an die Kommunikationsschnittstelle sendet. Innerhalb der Kommunikationsschnittstelle kann hinterlegt sein, dass bei einer bestimmten Anzahl von Personen innerhalb des Arbeitsraumes ein Abbruch der Arbeit bzw. der Bewegungen der Robotereinheit erfolgt. Demzufolge kann über eine Abbruchbedingung gesteuert werden, ob bei einer bestimmten Anzahl von identifizierten Personen in dem Arbeitsraum die Robotereinheit gestoppt wird. Die Sicherheit des Interaktionssystems kann dadurch weiter verbessert werden. Furthermore, it is preferably provided that the at least one camera unit records the number of persons in the workspace and transmits data on the number of persons to the communication interface. It can be stored within the communication interface that, given a certain number of persons within the workspace, the work or movements of the robot unit are interrupted. Accordingly, it can be controlled via a termination condition whether a certain number of identified persons in the work space, the robot unit is stopped. The security of the interaction system can thereby be further improved.

Die Robotereinheit kann in Form einer sensitiven Robotereinheit ausgebildet sein. Eine derartige sensitive Robotereinheit kann interne oder externe Sensoren aufweisen. Bei Überschreitung einer bestimmten, vorher definierten Kraft, beispielsweise nach TS ISO 15066 , kann dann beispielsweise die Robotereinheit zur Sicherheit der Person gestoppt werden. The robot unit can be designed in the form of a sensitive robot unit. Such a sensitive robot unit may have internal or external sensors. When exceeding a certain, previously defined force, for example after TS ISO 15066 , then, for example, the robot unit can be stopped for the safety of the person.

Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung einer bevorzugten Ausgestaltung der Erfindung anhand der Figuren näher dargestellt. Es zeigen: Further, measures improving the invention will be described in more detail below together with the description of a preferred embodiment of the invention with reference to FIGS. Show it:

1 eine schematische Blockdarstellung eines Interaktionssystems gemäß der Erfindung, 1 a schematic block diagram of an interaction system according to the invention,

2 eine schematische Darstellung eines Arbeitsraumes mit einer darin arbeitenden Person und einer darin arbeitenden Robotereinheit, 2 a schematic representation of a working space with a person working therein and a robot unit working therein,

3A3D eine schematische Darstellung eines Arbeitsablaufes in einem wie in 2 gezeigten Arbeitsraum zwischen der Person und der Robotereinheit gemäß des in 1 gezeigten Interaktionssystems, und 3A - 3D a schematic representation of a workflow in a as in 2 shown working space between the person and the robot unit according to the in 1 shown interaction system, and

4 eine schematische Darstellung der Steuerung des wie in 1 gezeigten Interaktionssystems gemäß der Erfindung. 4 a schematic representation of the control of how in 1 shown interaction system according to the invention.

1 zeigt ein Interaktionssystem 100 gemäß der Erfindung, welche eine Kameraeinheit 10, eine Robotereinheit 11 und eine Kommunikationsschnittstelle 12, welche zwischen der Kameraeinheit 10 und der Robotereinheit 11 angeordnet ist, aufweist. 1 shows an interaction system 100 according to the invention, which is a camera unit 10 , a robot unit 11 and a communication interface 12 which between the camera unit 10 and the robot unit 11 is arranged.

Die Kameraeinheit 10 ist derart ausgebildet, dass diese eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem wie in 2 gezeigten Arbeitsraum 13, innerhalb welchem sich eine Person 14 und die Robotereinheit 11 zur Ausführung ihrer Arbeitstätigkeiten bewegen, aufweist. Die Kameraeinheit 10 ist derart ausgebildet, dass diese Positionsdaten und Bewegungsdaten der Person 14 innerhalb des Arbeitsraumes 13 erfasst. Dabei erfasst die Kameraeinheit 10 die gesamte Person 14, vorzugsweise von Kopf bis Fuß, wodurch die gesamten Bewegungen und Gesten der Person 14 mittels der Kameraeinheit 10 bestimmt und erfasst werden können. Beispielsweise kann die Kameraeinheit 10 beispielsweise durch eine hinterlegte Software derart ausgebildet sein, dass sie eine Datenerfassung der Person 14 ermöglicht und anhand dieser Datenerfassung die Position und die Bewegungen der Person 14 ermitteln kann. Die dabei generierten Positionsdaten und Bewegungsdaten der Person 14 werden von der Kameraeinheit 10 an die Kommunikationsschnittstelle 12 gesendet. The camera unit 10 is designed to provide a depth sensor function for acquiring depth data in an as in 2 shown working space 13 within which a person 14 and the robot unit 11 to carry out their work activities. The camera unit 10 is designed such that this position data and movement data of the person 14 within the workspace 13 detected. The camera unit detects 10 the entire person 14 , preferably from head to toe, reducing the overall movements and gestures of the person 14 by means of the camera unit 10 can be determined and recorded. For example, the camera unit 10 For example, be provided by a stored software such that it is a data collection of the person 14 allows and with the help of this data collection the position and the movements of the person 14 can determine. The generated position data and movement data of the person 14 be from the camera unit 10 to the communication interface 12 Posted.

Die Kommunikationsschnittstelle 12 kann beispielsweise ein Computer sein. Die Kommunikationsschnittstelle 12 ist derart ausgebildet, dass diese die Positionsdaten und Bewegungsdaten der Person 14 von der Kameraeinheit 10 empfängt und die empfangenen Positionsdaten und Bewegungsdaten der Person 14 in Steuerungsbefehle umwandelt, über welche eine Bewegung der Robotereinheit 11 steuerbar ist. Damit ist es möglich zu erreichen, dass die Robotereinheit 11 sich den Bewegungen und der Geschwindigkeit und auch der Position der Person 14 innerhalb des Arbeitsraumes 13 unterstellt und anpasst. Es erfolgt damit eine Steuerung der Bewegung der Robotereinheit 11 über die Bewegungen und die Position der Person 14 innerhalb des Arbeitsraumes 13. The communication interface 12 For example, it can be a computer. The communication interface 12 is designed such that it the position data and movement data of the person 14 from the camera unit 10 receives and the received position data and movement data of the person 14 converted into control commands via which a movement of the robot unit 11 is controllable. This makes it possible to reach that robot unit 11 to the movements and the speed and also the position of the person 14 within the workspace 13 subordinate and adapt. There is thus a control of the movement of the robot unit 11 about the movements and the position of the person 14 within the workspace 13 ,

Mittels des Interaktionssystems 100 kann erreicht werden, dass mittels der Kameraeinheit 10 und der von der Kameraeinheit 10 erfassten Positionsdaten und Bewegungsdaten der Person 14 eine permanente und damit kontinuierliche Planung der Bewegungsbahn der Robotereinheit 11 ermöglicht wird und die Robotereinheit 11 entsprechend dieser kontinuierlich geplanten Bewegungsbahn gesteuert werden kann. By means of the interaction system 100 can be achieved that by means of the camera unit 10 and that of the camera unit 10 recorded position data and movement data of the person 14 a permanent and thus continuous planning of the trajectory of the robot unit 11 is enabled and the robot unit 11 can be controlled according to this continuously planned trajectory.

Die Kommunikationsschnittstelle 12 umfasst eine Steuereinheit 16 und eine Auswerteeinheit 17. The communication interface 12 includes a control unit 16 and an evaluation unit 17 ,

Die Steuereinheit 16 ordnet die Steuerungsbefehle einer Indexierung zu, so dass die Steuerungsbefehle bestimmten, vorher fest definierten Arbeitsanweisungen, welche die Indexierung bilden, zugeteilt werden können. Über diese indexierten Steuerungsbefehle kann die Robotereinheit 11 gesteuert werden, indem in der Robotereinheit 11 gespeicherte Programmabläufe durch die indexierten Steuerungsbefehle gestartet werden können. Jedem indexierten Steuerungsbefehl ist damit vorzugsweise ein Programmablauf zugeordnet. The control unit 16 assigns the control commands to indexing so that the control commands can be assigned to certain predefined work instructions that make up the indexing. These indexed control commands enable the robot unit 11 be controlled by in the robot unit 11 stored programs can be started by the indexed control commands. Each indexed control command is thus preferably associated with a program sequence.

In der Auswerteeinheit 17 sind definierte Standortdaten und damit Soll-Positionsdaten der Person 14 gespeichert, wobei die Auswerteeinheit 17 derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit 10 empfangenen Positionsdaten und/oder Bewegungsdaten der Person 14 mit den gespeicherten Standortdaten der Person 14 abgleicht. Dadurch ist ein Abgleich einer Ist-Position mit einer gespeicherten Soll-Position der Person 14 möglich. Über diesen Abgleich werden die Steuerungsbefehle generiert, über welche wiederum die Steuerung der Bewegungen der Robotereinheit 11 erfolgt. In the evaluation unit 17 are defined location data and thus target position data of the person 14 stored, wherein the evaluation unit 17 is formed such that these from the at least one camera unit 10 received position data and / or movement data of the person 14 with the stored location data of the person 14 adjusts. This is a comparison of an actual position with a stored desired position of the person 14 possible. This adjustment generates the control commands, which in turn control the movements of the robot unit 11 he follows.

In 2 ist beispielhaft ein entsprechender Arbeitsraum 13 gezeigt, innerhalb welchem eine Person 14 mit einer Robotereinheit 11 zusammenarbeitet. Innerhalb des Arbeitsraumes 13 ist die Kameraeinheit 10 derart positioniert, dass der gesamte Bewegungsbereich der Person 14 innerhalb des Arbeitsraumes 13 im Sichtfeld 24 der Kameraeinheit 10 positioniert ist, wie in 2 anhand des gestrichelt dargestellten Sichtfeldes 24 der Kameraeinheit 10 dargestellt ist. Die Kameraeinheit 10 ist dabei derart positioniert, dass die Person 14 frontal zu der Kameraeinheit 10 gerichtet ist. In 2 is an example of a corresponding workspace 13 shown within which a person 14 with a robot unit 11 cooperates. Inside the workroom 13 is the camera unit 10 positioned so that the entire range of motion of the person 14 within the workspace 13 in the field of vision 24 the camera unit 10 is positioned as in 2 by the dashed line of vision 24 the camera unit 10 is shown. The camera unit 10 is positioned in such a way that the person 14 frontal to the camera unit 10 is directed.

Wie in 2 gezeigt ist, kann ein derartiger Arbeitsraum 13 beispielsweise eine Lagerstation 15, eine Bearbeitungsstation 25, einen Materialbereitstellungsplatz 26 und eine Ablagestation 18 aufweisen. Die Arbeitsbereiche zwischen der Robotereinheit 11 und der Person 14 sind fest definiert, so dass eine Aufteilung der Arbeitsinhalte zwischen der Robotereinheit 11 und der Person 14 ermöglicht wird. As in 2 can be shown, such a work space 13 for example, a storage station 15 , a processing station 25 , a material supply point 26 and a storage station 18 exhibit. The work areas between the robot unit 11 and the person 14 are firmly defined, allowing a division of work content between the robot unit 11 and the person 14 is possible.

Bei der hier gezeigten Darstellung ist die Robotereinheit 11 im Bereich der Lagerstation 15, der Bearbeitungsstation 25 und der Ablagestation 18 tätig, wohingegen der Arbeitsbereich der Person 14 im Wesentlichen im Bereich des Materialbereitstellungsplatzes 26 und der Bearbeitungsstation 25 liegt. In the illustration shown here is the robot unit 11 in the area of the storage station 15 , the processing station 25 and the storage station 18 active, whereas the work area of the person 14 essentially in the area of material supply 26 and the processing station 25 lies.

In 3A3D ist ein Arbeitsablauf schematisch dargestellt. In 3A - 3D a workflow is shown schematically.

Zuerst entnimmt, wie in 3A gezeigt ist, die Robotereinheit 11 aus der Lagerstation 15 einen Artikel 19. Während der Entnahme des Artikels 19 durch die Robotereinheit 11 kann die Person 14 an der Bearbeitungsstation 25 beispielsweise eine Baugruppe, die in den Artikel 19 später eingesetzt werden kann, montieren, wie in 3A gezeigt ist. First, as in 3A shown is the robot unit 11 from the storage station 15 an article 19 , During the removal of the article 19 through the robot unit 11 can the person 14 at the processing station 25 For example, an assembly included in the article 19 can be used later, assemble, as in 3A is shown.

Sobald sich die Person 14 dem Materialbereitstellungsplatz 26 zuwendet, kann die Robotereinheit 11 den Artikel 19 auf der Bearbeitungsstation 25 positionieren, wie in 3B zu erkennen ist. As soon as the person 14 the material supply point 26 Turns to the robot unit 11 the article 19 on the workstation 25 position as in 3B can be seen.

Auf der Bearbeitungsstation 25 erfolgt die Bearbeitung des Artikels 19, wobei die Person 14 entsprechend eine Korrektur der Bearbeitung durchführen kann, wie in 3C gezeigt ist. Hierfür wendet sich die Person 14 der Bearbeitungsstation 25 zu, wohingegen die Robotereinheit 11 von der Bearbeitungsstation 25 wieder weggedreht wird, so dass eine Kollision zwischen der Person 14 und der Robotereinheit 11 vermieden werden kann. Während die Person 14 der Bearbeitungsstation 25 zugewandt ist, kann die Robotereinheit 11 den bearbeiteten Artikel 19 bzw. das bearbeitete Bauteil aus dem letzten Zyklus auf der Ablagestation 18, welche beispielsweise ein Transportband sein kann, ablegen. On the workstation 25 the processing of the article takes place 19 , where the person 14 Correspondingly, a correction of the processing can be carried out as in 3C is shown. For this the person turns 14 the processing station 25 to, whereas the robot unit 11 from the processing station 25 is turned away again, causing a collision between the person 14 and the robot unit 11 can be avoided. While the person 14 the processing station 25 facing, the robot unit 11 the edited article 19 or the machined component from the last cycle on the storage station 18 , which may be, for example, a conveyor belt, put down.

Nach der Bearbeitung des Artikels 19 auf der Bearbeitungsstation 25 entnimmt die Robotereinheit 11 den Artikel 19 und legt diesen auf der Ablagestation 18 ab, wie ebenfalls in 3C gezeigt ist. After processing the article 19 on the workstation 25 removes the robot unit 11 the article 19 and put it on the storage station 18 off, as well as in 3C is shown.

Ein Startbefehl der Robotereinheit 11 zum Entnehmen des Artikels 19 aus der Bearbeitungsstation 25 kann beispielsweise dadurch erfolgen, dass die Person 14 die Bearbeitungsstation 25 wieder verlässt und sich dem Materialbereitstellungsplatz 26 zuwendet, wobei dies durch die Kameraeinheit 10 erfasst wird. A start command of the robot unit 11 for removing the article 19 from the processing station 25 can for example be done by the person 14 the processing station 25 again leaves and the material supply place 26 This is done by the camera unit 10 is detected.

Danach kann der Prozess erneut gestartet werden, wie in 3D gezeigt ist. Thereafter, the process can be restarted as in 3D is shown.

4 zeigt schematisch eine Steuerung innerhalb des Interaktionssystems 100. Die Steuerung ist unterteilt in ein redundantes Steuerungssystem 20 und in ein einkanaliges Steuerungssystem 21. Das einkanalige Steuerungssystem 21 umfasst die Kommunikationsschnittstelle 12 und die Kameraeinheit 10, über welche die Bewegungserfassung der Person 14 erfolgt. Das redundante Steuerungssystem 20 umfasst die Robotereinheit 11 und auch die Steuerung 22 der Bearbeitungsstation 25 innerhalb des Arbeitsraumes 13 sowie die zu der Robotereinheit 11 gehörende Steuerung 23, welche einen Safety-Controller mit umfassen kann. Im Bereich des einkanaligen Steuerungssystems 21 erfolgt eine Kommunikation zwischen der Kameraeinheit 10 und der Kommunikationsschnittstelle 12, indem die Kameraeinheit 10 Daten an die Kommunikationsschnittstelle 12 sendet. Die Kommunikationsschnittstelle 12 kommuniziert wiederum mit dem redundanten Steuerungssystem 20, indem die Kommunikationsschnittstelle 12 sowohl mit der Steuerung 22 der Bearbeitungsstation 25 als auch mit der Steuerung 23 der Robotereinheit 11 kommuniziert. Die Steuerung 20 der Bearbeitungsstation 25 kommuniziert und sendet damit Daten zu der Steuerung 23 der Robotereinheit 11, wobei auch eine Kommunikation in die andere Richtung erfolgt von der Steuerung 23 hin zu der Steuerung 22. Weiter erfolgt auch eine Kommunikation zwischen der Steuerung 23 und der Robotereinheit 11, wobei Daten sowohl in Richtung der Robotereinheit 11 als auch von der Robotereinheit 11 hin zu der Steuerung 23 gesendet werden können. 4 schematically shows a control within the interaction system 100 , The controller is divided into a redundant control system 20 and into a single-channel control system 21 , The single-channel control system 21 includes the communication interface 12 and the camera unit 10 , about which the movement detection of the person 14 he follows. The redundant control system 20 includes the robot unit 11 and also the controller 22 the processing station 25 within the workspace 13 as well as to the robot unit 11 belonging control 23 , which can include a safety controller. In the area of the single-channel control system 21 a communication takes place between the camera unit 10 and the communication interface 12 by the camera unit 10 Data to the communication interface 12 sends. The communication interface 12 in turn communicates with the redundant control system 20 by the communication interface 12 both with the controller 22 the processing station 25 as well as with the controller 23 the robot unit 11 communicated. The control 20 the processing station 25 communicates and sends data to the controller 23 the robot unit 11 , whereby also a communication in the other direction takes place from the control 23 to the controller 22 , Next is also a communication between the controller 23 and the robot unit 11 , where data is both in the direction of the robot unit 11 as well as from the robot unit 11 to the controller 23 can be sent.

Durch eine derartige Verschaltung der einzelnen Komponenten kann eine besonders hohe Sicherheit bei der Interaktion zwischen einer Person 14 und einer Robotereinheit 11 innerhalb eines Arbeitsraumes 13 gewährleistet werden. By such an interconnection of the individual components can be a particularly high level of security in the interaction between a person 14 and a robot unit 11 within a workroom 13 be guaranteed.

Die Erfindung beschränkt sich in ihrer Ausführung nicht auf die vorstehend angegebenen bevorzugten Ausgestaltungen. Vielmehr ist eine Anzahl von Varianten denkbar, welche von den dargestellten Lösungen auch bei grundsätzlich anders gearteten Ausführungen Gebrauch macht. Sämtliche aus den Ansprüchen der Beschreibung oder den Zeichnungen hervorgehende Merkmale und/oder Vorteile einschließlich konstruktiven Einzelheiten räumlicher Anordnungen und Verfahrensschritte können sowohl für sich als auch in den verschiedensten Kombinationen erfindungswesentlich sein. The invention is not limited in its execution to the above-mentioned preferred embodiments. Rather, a number of variants is conceivable, which makes use of the solutions shown even in fundamentally different versions. All features and / or advantages resulting from the claims of the description or the drawings, including structural details of spatial arrangements and method steps, can be essential to the invention, both individually and in the most diverse combinations.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

100 100
Interaktionssystem Interaction system
10 10
Kameraeinheit camera unit
11 11
Robotereinheit robot unit
12 12
Kommunikationsschnittstelle Communication Interface
13 13
Arbeitsraum working space
14 14
Person person
15 15
Lagerstation storage station
16 16
Steuereinheit control unit
17 17
Auswerteeinheit evaluation
18 18
Ablagestation deposit station
19 19
Artikel items
20 20
Redundantes Steuerungssystem Redundant control system
21 21
Einkanaliges Steuerungssystem Single-channel control system
22 22
Steuerung control
23 23
Steuerung control
24 24
Sichtfeld field of view
25 25
Bearbeitungsstation processing station
26 26
Materialbereitstellungsplatz Material supply position

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102009046107 A1 [0003] DE 102009046107 A1 [0003]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • TS ISO 15066 [0015] TS ISO 15066 [0015]

Claims (10)

Interaktionssystem (100), mit mindestens einer Kameraeinheit (10), welche eine Tiefensensorfunktion zur Erfassung von Tiefendaten in einem Arbeitsraum (13) aufweist und welche derart ausgebildet ist, dass diese Positionsdaten und Bewegungsdaten einer Person (14) innerhalb eines Arbeitsraumes (13) erfasst, mindestens einer Robotereinheit (11), welche derart ausgebildet ist, dass diese in Abhängigkeit der Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) steuerbar und bewegbar ist, und einer Kommunikationsschnittstelle (12), welche zwischen der mindestens einen Kameraeinheit (10) und der mindestens einen Robotereinheit (11) angeordnet ist, wobei die Kommunikationsschnittstelle (12) derart ausgebildet ist, dass diese von der mindestens einen Kameraeinheit (10) die Positionsdaten und die Bewegungsdaten der Person (14) empfängt und die empfangenen Positionsdaten und die Bewegungsdaten der Person (14) in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der Robotereinheit (11) steuerbar ist. Interaction system ( 100 ), with at least one camera unit ( 10 ), which uses a depth sensor function to acquire depth data in a work space ( 13 ) and which is designed such that this position data and movement data of a person ( 14 ) within a workroom ( 13 ), at least one robot unit ( 11 ), which is designed such that it depends on the position data and movement data of the person ( 14 ) within the workspace ( 13 ) is controllable and movable, and a communication interface ( 12 ), which between the at least one camera unit ( 10 ) and the at least one robot unit ( 11 ), the communication interface ( 12 ) is designed such that it is separated from the at least one camera unit ( 10 ) the position data and the movement data of the person ( 14 ) and receives the received position data and the movement data of the person ( 14 ) converts into control commands by means of which movement of the robot unit ( 11 ) is controllable. Interaktionssystem (100) nach Anspruch 1, dadurch gekennzeichnet, dass die Kommunikationsschnittstelle (12) eine Steuereinheit (16) aufweist, welche die Steuerungsbefehle jeweils einer Indexierung zuordnet, über welche in der mindestens einen Robotereinheit (11) gespeicherte Programmabläufe startbar sind. Interaction system ( 100 ) According to claim 1, characterized in that the communication interface ( 12 ) a control unit ( 16 ), which assigns the control commands in each case to an indexing, via which in the at least one robot unit ( 11 ) stored program sequences are bootable. Interaktionssystem (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kommunikationsschnittstelle (12) eine Auswerteeinheit (17) aufweist, in welcher definierte Standortdaten der Person (14) gespeichert sind, wobei die Auswerteeinheit (17) derart ausgebildet ist, dass diese die von der mindestens einen Kameraeinheit (10) empfangenen Positionsdaten und/oder Bewegungsdaten der Person (14) mit den gespeicherten Standortdaten der Person (14) abgleicht. Interaction system ( 100 ) according to claim 1 or 2, characterized in that the communication interface ( 12 ) an evaluation unit ( 17 ), in which defined location data of the person ( 14 ), wherein the evaluation unit ( 17 ) is designed such that it is separated from the at least one camera unit ( 10 ) received position data and / or movement data of the person ( 14 ) with the stored location data of the person ( 14 ). Interaktionssystem (100) nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die mindestens eine Kameraeinheit (10) derart positioniert ist, dass der gesamte Bewegungsbereich der Person (14) innerhalb des Arbeitsraumes (13) im Sichtfeld (24) der mindestens einen Kameraeinheit (10) ist. Interaction system ( 100 ) according to one of claims 1 to 3, characterized in that the at least one camera unit ( 10 ) is positioned such that the entire range of motion of the person ( 14 ) within the workspace ( 13 ) in the field of view ( 24 ) of the at least one camera unit ( 10 ). Verfahren zur Interaktion zwischen einer Person (14) und mindestens einer Robotereinheit (11) innerhalb eines Arbeitsraumes (13), bei welchem mindestens eine eine Tiefensensorfunktion zur Erfassung von Tiefendaten aufweisende Kameraeinheit (10) Positionsdaten und Bewegungsdaten der Person (14) innerhalb des Arbeitsraumes (13) erfasst, die Positionsdaten und Bewegungsdaten an eine Kommunikationsschnittstelle (12) gesendet werden, welche die Positionsdaten und Bewegungsdaten in Steuerungsbefehle umwandelt, mittels welchen eine Bewegung der mindestens einen Robotereinheit (11) gesteuert wird. Method for interaction between a person ( 14 ) and at least one robot unit ( 11 ) within a workroom ( 13 ), in which at least one camera unit having a depth sensor function for detecting depth data ( 10 ) Position data and movement data of the person ( 14 ) within the workspace ( 13 ), the position data and movement data to a communication interface ( 12 ), which converts the position data and movement data into control commands, by means of which movement of the at least one robot unit ( 11 ) is controlled. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass in einer Steuereinheit (16) der Kommunikationsschnittstelle (12) die Steuerungsbefehle jeweils einer Indexierung zugeordnet werden, über welche in der mindestens einen Robotereinheit (11) gespeicherte Programmabläufe gestartet werden. Method according to claim 5, characterized in that in a control unit ( 16 ) of the communication interface ( 12 ) the control commands are each assigned to an indexing via which in the at least one robot unit ( 11 ) stored program sequences are started. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass eine Auswerteeinheit (17) der Kommunikationsschnittstelle (12) die von der Kameraeinheit (10) empfangenen Positionsdaten und/oder Bewegungsdaten der Person (14) mit in der Auswerteeinheit (17) gespeicherten definierten Standortdaten der Person (14) abgleicht. Method according to claim 5 or 6, characterized in that an evaluation unit ( 17 ) of the communication interface ( 12 ) from the camera unit ( 10 ) received position data and / or movement data of the person ( 14 ) in the evaluation unit ( 17 ) defined location data of the person ( 14 ). Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die mindestens eine Kameraeinheit (10) ein in dem Arbeitsraum (13) befindliches Hindernis erfasst und Daten zu dem Hindernis an die Kommunikationsschnittstelle (12) sendet. Method according to one of claims 5 to 7, characterized in that the at least one camera unit ( 10 ) in the workroom ( 13 detected obstacle and data to the obstacle to the communication interface ( 12 ) sends. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Kommunikationsschnittstelle (12) in Abhängigkeit der von der Kommunikationseinheit (12) empfangenen Daten zu dem Hindernis eine Ausweichstrategie generiert und die mindestens eine Robotereinheit (11) entsprechend der Ausweichstrategie steuert. Method according to claim 8, characterized in that the communication interface ( 12 ) depending on the communication unit ( 12 ) generated data for the obstacle, an evasion strategy and the at least one robot unit ( 11 ) according to the evasion strategy. Verfahren nach einem der Ansprüche 5 bis 9, dadurch gekennzeichnet, dass die mindestens eine Kameraeinheit (10) die Anzahl der Personen (14) in dem Arbeitsraum (13) erfasst und Daten zu der Anzahl der Personen (14) an die Kommunikationsschnittstelle (12) sendet. Method according to one of claims 5 to 9, characterized in that the at least one camera unit ( 10 ) the number of persons ( 14 ) in the workspace ( 13 ) and data on the number of persons ( 14 ) to the communication interface ( 12 ) sends.
DE102015225587.5A 2015-12-17 2015-12-17 Interaction system and method for interaction between a person and at least one robot unit Pending DE102015225587A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015225587.5A DE102015225587A1 (en) 2015-12-17 2015-12-17 Interaction system and method for interaction between a person and at least one robot unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015225587.5A DE102015225587A1 (en) 2015-12-17 2015-12-17 Interaction system and method for interaction between a person and at least one robot unit

Publications (1)

Publication Number Publication Date
DE102015225587A1 true DE102015225587A1 (en) 2017-06-22

Family

ID=58994300

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015225587.5A Pending DE102015225587A1 (en) 2015-12-17 2015-12-17 Interaction system and method for interaction between a person and at least one robot unit

Country Status (1)

Country Link
DE (1) DE102015225587A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206012A1 (en) * 2019-04-26 2020-10-29 Kuka Deutschland Gmbh Method and system for operating a robot
DE102019206010A1 (en) * 2019-04-26 2020-10-29 Kuka Aktiengesellschaft Method and system for monitoring a robot arrangement

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417128A1 (en) * 1994-05-16 1995-12-14 Elnic Gmbh Closed-circuit video surveillance system with image processing
DE10152543A1 (en) * 2001-10-24 2003-05-08 Sick Ag Method and device for controlling a safety-relevant function of a machine
DE10245720A1 (en) * 2002-09-24 2004-04-01 Pilz Gmbh & Co. Safety method for protecting automatic machine danger area with scene analysis of different images of danger area via 2 different analysis algorithms for reliable detection of foreign object in danger area
DE10320343A1 (en) * 2003-05-07 2004-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for monitored cooperation between robot unit and human operator e.g. for industry, involves impressing movement pattern on to robot during approach to human operator
DE10324627A1 (en) * 2003-05-28 2005-01-05 Daimlerchrysler Ag Working space monitoring for automated operating machines involves monitoring speed-dependent second zone for object penetration, preventing object from entering first zone if detected in second zone
DE102006048166A1 (en) * 2006-08-02 2008-02-07 Daimler Ag Method for observing a person in an industrial environment
EP2023160A1 (en) * 2007-08-02 2009-02-11 Sick Ag 3D room surveillance with configuration mode for determining the protection fields
DE102009026091A1 (en) * 2008-07-02 2010-04-01 Elan Schaltelemente Gmbh & Co. Kg Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
DE102009046107A1 (en) 2009-10-28 2011-05-05 Ifm Electronic Gmbh System and method for interaction between a person and a machine
DE102010002250A1 (en) * 2010-02-23 2011-08-25 ifm electronic gmbh, 45128 monitoring system
DE102010017857A1 (en) * 2010-04-22 2011-10-27 Sick Ag 3D security device and method for securing and operating at least one machine
US20110264266A1 (en) * 2008-12-03 2011-10-27 Abb Research Ltd. Robot safety system and a method
DE102012007242A1 (en) * 2012-03-09 2013-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Monitoring system for ensuring cooperation between worker and robot in human robot cooperation system, has control unit that controls robot using position of worker and region crossed by worker and robot in and/or from danger area
US20140067121A1 (en) * 2012-08-31 2014-03-06 Rodney Brooks Systems and methods for safe robot operation
US20140244037A1 (en) * 2013-02-27 2014-08-28 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
DE112012005650T5 (en) * 2012-01-13 2014-10-09 Mitsubishi Electric Corporation Risk measurement system
US20150217455A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Controlling a robot in the presence of a moving object

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417128A1 (en) * 1994-05-16 1995-12-14 Elnic Gmbh Closed-circuit video surveillance system with image processing
DE10152543A1 (en) * 2001-10-24 2003-05-08 Sick Ag Method and device for controlling a safety-relevant function of a machine
DE10245720A1 (en) * 2002-09-24 2004-04-01 Pilz Gmbh & Co. Safety method for protecting automatic machine danger area with scene analysis of different images of danger area via 2 different analysis algorithms for reliable detection of foreign object in danger area
DE10320343A1 (en) * 2003-05-07 2004-12-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for monitored cooperation between robot unit and human operator e.g. for industry, involves impressing movement pattern on to robot during approach to human operator
DE10324627A1 (en) * 2003-05-28 2005-01-05 Daimlerchrysler Ag Working space monitoring for automated operating machines involves monitoring speed-dependent second zone for object penetration, preventing object from entering first zone if detected in second zone
DE102006048166A1 (en) * 2006-08-02 2008-02-07 Daimler Ag Method for observing a person in an industrial environment
EP2023160A1 (en) * 2007-08-02 2009-02-11 Sick Ag 3D room surveillance with configuration mode for determining the protection fields
DE102009026091A1 (en) * 2008-07-02 2010-04-01 Elan Schaltelemente Gmbh & Co. Kg Method for monitoring three-dimensional spatial area, particularly work cell of automatic working machine, for e.g. robot, involves accomplishing independent scene analysis of images in or for each camera
US20110264266A1 (en) * 2008-12-03 2011-10-27 Abb Research Ltd. Robot safety system and a method
DE102009046107A1 (en) 2009-10-28 2011-05-05 Ifm Electronic Gmbh System and method for interaction between a person and a machine
DE102010002250A1 (en) * 2010-02-23 2011-08-25 ifm electronic gmbh, 45128 monitoring system
DE102010017857A1 (en) * 2010-04-22 2011-10-27 Sick Ag 3D security device and method for securing and operating at least one machine
DE112012005650T5 (en) * 2012-01-13 2014-10-09 Mitsubishi Electric Corporation Risk measurement system
DE102012007242A1 (en) * 2012-03-09 2013-09-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Monitoring system for ensuring cooperation between worker and robot in human robot cooperation system, has control unit that controls robot using position of worker and region crossed by worker and robot in and/or from danger area
US20140067121A1 (en) * 2012-08-31 2014-03-06 Rodney Brooks Systems and methods for safe robot operation
US20140244037A1 (en) * 2013-02-27 2014-08-28 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US20150217455A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Controlling a robot in the presence of a moving object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TS ISO 15066

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206012A1 (en) * 2019-04-26 2020-10-29 Kuka Deutschland Gmbh Method and system for operating a robot
DE102019206010A1 (en) * 2019-04-26 2020-10-29 Kuka Aktiengesellschaft Method and system for monitoring a robot arrangement

Similar Documents

Publication Publication Date Title
DE102018206077B4 (en) Robot control device and robot control program
DE102016008908B4 (en) Industrial robot system and control method therefor
EP2838698B2 (en) Robot arrangement and method for controlling a robot
EP3011225B1 (en) Device and method for securing a machine that operates in an automated manner
DE112017002639T5 (en) Robot control device
DE102016216441B3 (en) Method and device for human-robot cooperation
DE102017128543B4 (en) NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
DE102018212531B4 (en) Article transfer device
DE102015012232A1 (en) Robotic system collaborating with humans
EP2216144B1 (en) System and method to check components and/or functional devices with a testing device
EP2380709A2 (en) 3D safety device and method for securing and operating at least one machine
DE202013104860U1 (en) working device
WO2008014909A1 (en) Camera-based monitoring of machines with moving machine elements for the purpose of collision prevention
DE102018118265B4 (en) Procedure and monitoring system for protecting a machine
DE102012212754A1 (en) Method for operating a sensor system and sensor system
EP2888185A1 (en) Method and system for assisting a worker in a system for manipulating goods items
EP3587044B1 (en) Method for gripping objects in a search area and positioning system
EP3725472A1 (en) Method for determining a trajectory of a robot
DE102017202004A1 (en) Device for securing a machine-controlled handling device and method
WO2015049207A2 (en) Human-robot collaboration planning technology
EP2594373B1 (en) Determining the permitted traversing range using a pointer
EP3118706B1 (en) Method for controlling a picking vehicle
EP3333116A1 (en) Method for automatic alignment of an industrial truck in a warehouse and system consisting of an industrial truck and a warehouse
EP3118708B1 (en) Control method for a picking truck
WO2005039836A2 (en) Method for effecting the movement of a handling device and image processing device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication