DE102022118439B3 - Method and device for human-robot interaction control - Google Patents

Method and device for human-robot interaction control Download PDF

Info

Publication number
DE102022118439B3
DE102022118439B3 DE102022118439.0A DE102022118439A DE102022118439B3 DE 102022118439 B3 DE102022118439 B3 DE 102022118439B3 DE 102022118439 A DE102022118439 A DE 102022118439A DE 102022118439 B3 DE102022118439 B3 DE 102022118439B3
Authority
DE
Germany
Prior art keywords
movement
robot
human body
trajectory
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102022118439.0A
Other languages
German (de)
Inventor
Kolja Kühnlenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochschule Fuer Angewandte Wissenschaften Coburg Koerperschaft Des Oeffentlichen Rechts
Hochschule Fuer Angewandte Wss Coburg Koerperschaft Des Oeffentlichen Rechts
Original Assignee
Hochschule Fuer Angewandte Wissenschaften Coburg Koerperschaft Des Oeffentlichen Rechts
Hochschule Fuer Angewandte Wss Coburg Koerperschaft Des Oeffentlichen Rechts
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochschule Fuer Angewandte Wissenschaften Coburg Koerperschaft Des Oeffentlichen Rechts, Hochschule Fuer Angewandte Wss Coburg Koerperschaft Des Oeffentlichen Rechts filed Critical Hochschule Fuer Angewandte Wissenschaften Coburg Koerperschaft Des Oeffentlichen Rechts
Priority to DE102022118439.0A priority Critical patent/DE102022118439B3/en
Application granted granted Critical
Publication of DE102022118439B3 publication Critical patent/DE102022118439B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Ein computerimplementiertes Verfahren zum Festlegen einer Bewegungsrichtung für einen Roboter umfasst das Erfassen einer ersten Bewegungsrichtung eines menschlichen Körperteils und das Errechnen eine prädizierten Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung. Das Verfahren umfasst weiterhin das Festlegen der Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung.A computer-implemented method for determining a movement direction for a robot includes detecting a first movement direction of a human body part and calculating a predicted movement direction of the human body part based on the first movement direction. The method further includes determining the direction of movement of the robot based on an incongruence measure between the direction of movement of the robot and the predicted direction of movement.

Description

GEBIETAREA

Die Erfindung betrifft ein Verfahren zum Steuern einer Bewegung eines Roboters, insbesondere zur Koexistenz, Kollaboration oder Kooperation des Roboters mit einem Menschen.The invention relates to a method for controlling a movement of a robot, in particular for the coexistence, collaboration or cooperation of the robot with a human.

HINTERGRUNDBACKGROUND

Ein kollaborativer Roboter dient dem Menschen als Hilfsmittel oder Unterstützungssystem bei der Handhabung von Objekten, bei der Erledigung von Aufgaben in Heimunterstützung, Unterhaltung, Service-Robotik, Medizinrobotik, Behandlung, Wartung und Produktion oder als Partner bei gemeinsamer Aufgabenbewältigung. Der kollaborative Roboter kann im beruflichen Umfeld oder in einem Privathaushalt zum Einsatz kommen.A collaborative robot serves humans as an aid or support system when handling objects, completing tasks in home support, entertainment, service robotics, medical robotics, treatment, maintenance and production, or as a partner when completing tasks together. The collaborative robot can be used in a professional environment or in a private household.

DE 10 2020 128 261 A1 beschreibt eine Einheit zum Planen einer Roboterstrecke. DE 10 2020 006 160 A1 beschreibt ein Verfahren zur Lageerkennung eines Objekts. DE 10 2018 211 514 B4 beschreibt ein Verfahren zum Bestimmen einer Kollisionswahrscheinlichkeit eines Fahrzeugs. DE 10 2017 113 392 B4 beschreibt eine Vorrichtung zur Sicherheitssteuerung einer Maschine. DE 11 2008 001 884 T5 beschreibt eine Bahnplanungsvorrichtung. US 2014 / 0 316 570 A1 beschreibt ein Verfahren zum Übermitteln einer Intention eines Roboters. DE 10 2020 128 261 A1 describes a unit for planning a robot route. DE 10 2020 006 160 A1 describes a method for detecting the position of an object. DE 10 2018 211 514 B4 describes a method for determining a collision probability of a vehicle. DE 10 2017 113 392 B4 describes a device for safety control of a machine. DE 11 2008 001 884 T5 describes a path planning device. US 2014 / 0 316 570 A1 describes a method for conveying a robot's intention.

Mit dem kollaborativen Roboter verknüpft ist ein Koexistenzbereich. Dies ist ein räumlicher Bereich, in dem zumindest zeitweise sowohl der Mensch als auch der Roboter anzutreffen ist. Der Koexistenzbereich kann räumlich absolut festgelegt sein, beispielsweise als Arbeitsplatz an einem Produktionsstandort, oder räumlich relativ zu dem kollaborativen Roboter festgelegt sein, beispielsweise als ein Schwenkbereich eines sich fortbewegenden Roboterarms.Linked to the collaborative robot is a coexistence area. This is a spatial area in which both humans and robots can be found, at least at times. The coexistence area can be spatially absolutely defined, for example as a workplace at a production site, or spatially defined relative to the collaborative robot, for example as a pivoting area of a moving robot arm.

Konventionelle Koexistenz-, Kooperations- und Kollaborationsverfahren umfassen Verfahren zur Kollisionsvermeidung innerhalb des Koexistenzbereiches. Hierfür werden beispielsweise Unterbereiche im Koexistenzbereich oder im Einflussbereich des Roboters definiert, und ein Roboterverhalten für den Fall spezifiziert, dass der Mensch bzw. Teile des Menschen, wie beispielsweise ein Körperteil oder eine Extremität, in den jeweiligen Unterbereich eintritt/eintreten. Ein einfaches Beispiel ist ein Stopp bei Zutritt durch einen entsprechenden sicherheitsbewerteten überwachten Halt.Conventional coexistence, cooperation and collaboration methods include methods for avoiding collisions within the coexistence area. For this purpose, for example, subareas in the coexistence area or in the robot's area of influence are defined, and a robot behavior is specified in the event that the human or parts of the human, such as a body part or an extremity, enter/enter the respective subarea. A simple example is a stop upon access through an appropriate safety-rated monitored stop.

Entsprechende Verfahren mögen eine Koexistenz von Mensch und Roboter in dem Koexistenzbereich ermöglichen, ohne dass für den Menschen eine nennenswerte Gefahr von dem Roboter ausgeht. Für ein kooperatives oder kollaboratives Handeln von Mensch und Roboter, insbesondere für eine Aufgabenbewältigung, zu der Mensch und Roboter durch ihre jeweiligen, zeitgleichen Bewegungen innerhalb des Koexistenzbereiches beitragen, sind alternative oder verbesserte Verfahren wünschenswert.Corresponding methods may enable humans and robots to coexist in the coexistence area without the robot posing any significant danger to humans. Alternative or improved methods are desirable for cooperative or collaborative action between humans and robots, especially for task completion to which humans and robots contribute through their respective, simultaneous movements within the coexistence area.

ÜBERBLICKOVERVIEW

Es ist daher eine Aufgabe der Erfindung, die Kooperation oder Kollaboration zwischen Mensch und Roboter zu verbessern. Insbesondere soll eine zeitgleiche Bewegung des Roboters mit einem Menschen, der sich in seinem Einflussbereich oder einem Koexistenzbereich aufhält, verbessert werden, beispielsweise dahingehend, dass ein Beitrag (eine Effizienz) der zeitgleichen Bewegungen von Mensch und Roboter für eine Bewältigung einer gemeinsamen Aufgabe verbessert wird.It is therefore an object of the invention to improve the cooperation or collaboration between humans and robots. In particular, a simultaneous movement of the robot with a human who is in its area of influence or a coexistence area should be improved, for example in such a way that a contribution (efficiency) of the simultaneous movements of humans and robots to accomplishing a common task is improved.

Diese Aufgabe wird erfindungsgemäß durch ein computerimplementiertes Verfahren mit den Merkmalen des Anspruchs 1, ein Computerprogramm mit den Merkmalen des Anspruchs 18 und ein Computersystem mit den Merkmalen des Anspruchs 19 gelöst. Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen angegeben.This object is achieved according to the invention by a computer-implemented method with the features of claim 1, a computer program with the features of claim 18 and a computer system with the features of claim 19. Embodiments of the invention are specified in the dependent claims.

Gemäß einem ersten Aspekt umfasst ein computerimplementiertes Verfahren zum Festlegen einer Bewegungsrichtung für einen Roboter das Erfassen einer ersten Bewegungsrichtung eines menschlichen Körperteils und das Errechnen einer prädizierten Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung. Das Verfahren umfasst weiterhin das Festlegen der Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung.According to a first aspect, a computer-implemented method for determining a movement direction for a robot includes detecting a first movement direction of a human body part and calculating a predicted movement direction of the human body part based on the first movement direction. The method further includes determining the direction of movement of the robot based on an incongruence measure between the direction of movement of the robot and the predicted direction of movement.

Bei herkömmlichen Verfahren zur Interaktionssteuerung wird eine Beeinflussung von menschlichen Bewegungen durch eine Bewegung des Roboters nicht berücksichtigt.In conventional interaction control methods, the influence of human movements by a robot movement is not taken into account.

Aus psychologischen Untersuchungen in der wissenschaftlichen Literatur kann jedoch abgeleitet werden, dass der Mensch technologische Systeme „vermenschlicht“, ihnen also bewusst oder unbewusst menschliches Verhalten unterstellt und sein Verhalten entsprechend anpasst. Insbesondere passt der Mensch seine Bewegungen an die Bewegung des technologischen Systems an.However, from psychological studies in the scientific literature it can be deduced that people “humanize” technological systems, i.e. consciously or unconsciously assume human behavior from them and adapt their behavior accordingly. In particular, people adapt their movements to the movement of the technological system.

Im Ergebnis kann die Bewegung des technologischen Systems zu einer Ablenkung der Bewegung des Menschen gegenüber einer geplanten Bewegung des Menschen führen, die dieser ausgeführt hätte, wenn er das technologische System nicht wahrgenommen hätte. Diese Ablenkung wird auch als motorische Interferenz bezeichnet.As a result, the movement of the technological system can lead to a distraction of movement the human being's reaction to a planned movement that the human being would have carried out if he had not perceived the technological system. This distraction is also known as motor interference.

Die motorische Interferenz kann zu einer Verschlechterung der Produktivität des Menschen führen, da sie ihn bei der Ausführung der ihm zugeordneten Aufgabe ablenkt. Sie kann dazu führen, dass die Ausführung der Aufgabe von dem Menschen als besonders anstrengend oder ermüdend empfunden wird. Dadurch reduziert sich die Leistungsfähigkeit und Produktivität des Menschen weiter.The motor interference can lead to a deterioration in human productivity as it distracts him from carrying out the task assigned to him. It can lead to the person experiencing the task as particularly strenuous or tiring. This further reduces human performance and productivity.

Der Erfinder hat erkannt, dass Verfahren zur Kooperation oder Kollaboration zwischen Mensch und Roboter verbessert werden können, indem die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) berücksichtigt wird. Dies wird erfindungsgemäß erreicht, indem die Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und einer prädizierten Bewegungsrichtung des Menschen festgelegt wird. Bei einigen Ausführungsformen wird zudem die prädizierte Bewegungsrichtung des Menschen anhand des Inkongruenzmaßes errechnet.The inventor has recognized that methods for cooperation or collaboration between humans and robots can be improved by taking into account the influence/distraction of human movements by the movement of the robot (motor interference). This is achieved according to the invention by determining the direction of movement of the robot based on an incongruence measure between the direction of movement of the robot and a predicted direction of movement of the human. In some embodiments, the predicted direction of movement of the human is also calculated based on the incongruence measure.

Typischerweise ist die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) und die damit verbundene Produktivitätsverschlechterung umso größer, je größer die Inkongruenz zwischen der menschlichen Bewegung und der Bewegung des Roboters ist. Erfindungsgemäß wird die Inkongruenz anhand eines Inkongruenzmaßes quantifiziert. Ein Vorteil der Erfindung kann darin gesehen werden, ein Verfahren zur Steuerung des Roboters bereitzustellen, bei dem das Inkongruenzmaß zwischen der Bewegung des Roboters und der menschlichen Bewegung zumindest abschnittsweise minimiert wird, sodass die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) minimiert werden kann. Dadurch kann eine Gesamtleistung oder -produktivität von Mensch und Roboter verbessert werden, selbst im Falle einer möglicherweise reduzierten Leistung oder Produktivität des Roboters.Typically, the greater the incongruence between the human movement and the movement of the robot, the greater the influence/distraction of human movements by the movement of the robot (motor interference) and the associated deterioration in productivity. According to the invention, the incongruence is quantified using an incongruence measure. An advantage of the invention can be seen in providing a method for controlling the robot, in which the degree of incongruence between the movement of the robot and the human movement is minimized at least in sections, so that the human movements are influenced/distracted by the movement of the robot (motor Interference) can be minimized. This can improve overall human and robot performance or productivity, even in the event of potentially reduced robot performance or productivity.

Mit dem Roboter ist eine Ist-Position und mindestens eine Soll-Position assoziiert.An actual position and at least one target position are associated with the robot.

Das Verfahren umfasst weiterhin ein Identifizieren eines ersten Abschnittes einer Trajektorie von der Ist-Position zu der mindestens einen Soll-Position, wobei ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und dem ersten Abschnitt der Trajektorie geringer ist als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und einem verbleibenden Abschnitt der Trajektorie von der Ist-Position zu der mindestens einen Soll-Position. Das Verfahren umfasst weiterhin ein Festlegen der Bewegungsrichtung des Roboters entlang des ersten Abschnittes der Trajektorie.The method further comprises identifying a first section of a trajectory from the actual position to the at least one target position, wherein an incongruence measure between the predicted direction of movement and the first section of the trajectory is less than an incongruence measure between the predicted direction of movement and a remaining section the trajectory from the actual position to the at least one target position. The method further includes determining the direction of movement of the robot along the first section of the trajectory.

Bei entsprechenden Ausführungsformen wird zunächst eine möglichst kongruente Bewegung des Roboters mit dem Menschen in Richtung der mindestens einen Soll-Position ausgeführt, so dass eine Beeinflussung der menschlichen Bewegung und eine damit einhergehende Produktivitätsverschlechterung minimiert werden kann. Ein verbleibender Abschnitt der Bewegung des Roboters zu der Soll-Position kann auf einen späteren Zeitpunkt verschoben werden, beispielsweise, wenn sich der Mensch aus dem Einflussbereich des Roboters oder aus dem Koexistenzbereich entfernt hat und keine Beeinflussung der menschlichen Bewegung zu erwarten ist oder wenn der Mensch eine andere Bewegungsrichtung einnimmt, zu der dann beispielsweise der verbleibende Abschnitt kongruenter sein kann.In corresponding embodiments, the robot's movement is first carried out as congruently as possible with the human in the direction of the at least one target position, so that an influence on the human movement and the associated deterioration in productivity can be minimized. A remaining section of the robot's movement to the target position can be postponed to a later point in time, for example when the human has moved away from the robot's area of influence or from the coexistence area and no influence on the human movement is to be expected or when the human takes a different direction of movement, to which, for example, the remaining section can be more congruent.

Der erste Abschnitt der Trajektorie kann parallel zu der prädizierten Bewegungsrichtung sein und/oder der verbleibende Abschnitt der Trajektorie kann senkrecht zu der prädizierten Bewegungsrichtung sein. Alternativ oder zusätzlich kann der erste Abschnitt der Trajektorie von der parallelen bzw. senkrechten Ausrichtung um weniger als 8°, insbesondere um weniger als 6° und besonders bevorzugt um weniger als 4° oder weniger als 3° abweichen. Dabei kann sich die parallele bzw. senkrechte Ausrichtung auf die (parallele bzw. senkrechte) Ausrichtung relativ zur prädizierten Bewegungsrichtung beziehen.The first section of the trajectory can be parallel to the predicted direction of movement and/or the remaining section of the trajectory can be perpendicular to the predicted direction of movement. Alternatively or additionally, the first section of the trajectory can deviate from the parallel or vertical orientation by less than 8°, in particular by less than 6° and particularly preferably by less than 4° or less than 3°. The parallel or vertical orientation can refer to the (parallel or vertical) orientation relative to the predicted direction of movement.

Entsprechende Ausführungsformen können ein einfaches und effizientes Verfahren zum Festlegen der Bewegungsrichtung des Roboters bereitstellen, insbesondere, wenn der erwünschte Bewegungsablauf des Roboters vergleichsweise einfach ist oder kurzfristigen Anpassungen unterliegt und/oder nur wenige, insbesondere nur eine, z. B. jeweils aktuelle, Soll-Position umfasst.Corresponding embodiments can provide a simple and efficient method for determining the direction of movement of the robot, in particular if the desired movement sequence of the robot is comparatively simple or is subject to short-term adjustments and/or only a few, in particular only one, e.g. B. includes the current target position.

Der erste Abschnitt der Trajektorie kann eine Bahnkurve von der Ist-Position zu einer ersten Soll-Position der mindestens einen Soll-Position sein. Der verbleibende Abschnitt der Trajektorie kann eine Bahnkurve zwischen der ersten Soll-Position und einer zweiten Soll-Position der mindesten einen Soll-Position sein (z. B. kann bei derartigen Ausführungsformen die mindestens eine Soll-Position mindestens zwei Soll-Positionen umfassen); und/oder ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und dem ersten Abschnitt der Trajektorie kann geringer sein als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und einer Bahnkurve von der Ist-Position zu den anderen der mindestens einen Soll-Position.The first section of the trajectory can be a trajectory from the actual position to a first target position of the at least one target position. The remaining portion of the trajectory may be a trajectory between the first desired position and a second desired position of the at least one desired position (e.g., in such embodiments, the at least one desired position may include at least two desired positions); and/or an incongruence measure between the predicted direction of movement and the first section of the trajectory may be less than an incongruence measured between the predicted direction of movement and a trajectory from the actual position to the other of the at least one target position.

Entsprechende Ausführungsformen können besonders förderlich für ein kooperatives oder kollaboratives Arbeiten von Mensch und Roboter sein, wenn Mensch und Roboter gemeinsam eine komplexe Aufgabe ausführen sollen, die aus einer Mehrzahl von Teil- oder Zwischenschritten besteht. Entsprechend kann die mindestens eine Soll-Position beispielsweise mehr als 3 oder 4 oder 10 oder 100 Soll-Positionen umfassen, welche (z. B. als Paare von Soll-Positionen) mit den Teil- oder Zwischenschritten assoziiert sein können. Die komplexe Aufgabe kann in die Soll-Positionen bzw. Teilschritte zerlegt werden, und es kann zunächst derjenige Teilschritt ausgeführt werden, der (unter den verbleibenden Teilschritten) das geringste Inkongruenzmaß mit der aktuellen (ersten) Bewegung des Menschen aufweist. Ändert der Mensch seine Bewegungsrichtung, kann eine andere Soll-Position angefahren werden, nämlich diejenige, bei der die Trajektorie von der (aktuellen) Ist-Position zu der Soll-Position (unter den verbleibenden Teilschritten) das geringste Inkongruenzmaß aufweist. Somit kann ein anderer (nächster) Teilschritt ausgeführt werden. Dadurch kann eine Reihenfolge der Teilschritte (entsprechend einem Bewegungsablauf des Roboters) erreicht werden, die ein kooperatives/kollaboratives Arbeiten von Mensch und Roboter mit einer verbesserten Gesamtproduktivität zur Folge hat. Die motorische Interferenz kann gering gehalten werden.Corresponding embodiments can be particularly beneficial for cooperative or collaborative work between humans and robots if humans and robots are to jointly carry out a complex task that consists of a plurality of partial or intermediate steps. Correspondingly, the at least one target position can comprise, for example, more than 3 or 4 or 10 or 100 target positions, which can be associated (e.g. as pairs of target positions) with the partial or intermediate steps. The complex task can be broken down into the target positions or sub-steps, and the sub-step can first be carried out that (among the remaining sub-steps) has the lowest degree of incongruence with the current (first) movement of the person. If the person changes his direction of movement, a different target position can be approached, namely the one in which the trajectory from the (current) actual position to the target position (among the remaining partial steps) has the lowest degree of incongruity. This means that another (next) sub-step can be carried out. This allows a sequence of sub-steps (corresponding to a movement sequence of the robot) to be achieved, which results in cooperative/collaborative work between humans and robots with improved overall productivity. Motor interference can be kept low.

Das Verfahren kann weiterhin ein Festlegen der Bewegungsrichtung des Roboters nach dem ersten Abschnitt der Trajektorie entlang des verbleibenden Abschnittes der Trajektorie umfassen.The method may further include determining the direction of movement of the robot after the first portion of the trajectory along the remaining portion of the trajectory.

Indem der Roboter den verbleibenden Abschnitt der Trajektorie zu einem späteren Zeitpunkt ausführt, kann sichergestellt werden, dass er die Soll-Position erreicht. Somit kann beispielsweise sichergestellt werden, dass der Roboter eine zuvor festgelegte Aufgabe erfüllt. Die Soll-Position bzw. die zuvor festgelegte Aufgabe des Roboters kann das kollaborative Arbeiten von Mensch und Roboter begünstigen und sicherstellen, dass Mensch und Roboter eine zuvor gestellte Gesamtaufgabe ausführen, indem der Roboter seinen Teil (z. B. die zuvor festgelegte Aufgabe bzw. das Anfahren der Soll-Position) abarbeitet.By having the robot execute the remaining portion of the trajectory at a later time, it can be ensured that it reaches the target position. This makes it possible, for example, to ensure that the robot completes a previously defined task. The target position or the previously defined task of the robot can promote collaborative work between humans and robots and ensure that humans and robots carry out a previously set overall task by the robot carrying out its part (e.g. the previously defined task or the approach to the target position).

Der Roboter kann einen Endeffektor aufweisen, und die Bewegungsrichtung des Roboters kann sich auf eine Bewegungsrichtung des Endeffektors beziehen.The robot may include an end effector, and the direction of movement of the robot may relate to a direction of movement of the end effector.

Das menschliche Körperteil kann eine Hand sein.The human body part can be a hand.

Das Verfahren kann weiterhin ein Vorsehen einer Wartezeit nach dem ersten Abschnitt der Trajektorie umfassen.The method may further include providing a waiting time after the first section of the trajectory.

Das Verfahren kann weiterhin ein Festlegen einer Dauer der Wartezeit anhand eines Auslöseereignisses umfassen.The method may further include setting a duration of the waiting time based on a trigger event.

Mit anderen Worten kann die Wartezeit fortgesetzt werden bis das Auslöseereignis eintritt.In other words, the waiting time can continue until the trigger event occurs.

Das Auslöseereignis kann mit einem Werkstück assoziiert sein.The trigger event can be associated with a workpiece.

Alternativ oder zusätzlich kann das Auslöseereignis mit einem menschlichen Körper assoziiert sein, der das menschliche Körperteil umfasst. Insbesondere kann das Auslöseereignis mit dem menschlichen Körperteil assoziiert sein.Alternatively or additionally, the triggering event may be associated with a human body that includes the human body part. In particular, the triggering event can be associated with the human body part.

Das Auslöseereignis kann beispielsweise eine zuvor festgelegte Bewegung des menschlichen Körperteils umfassen oder ein Nichtvorhandensein des menschlichen Körpers in einem räumlichen Nachweisbereich eines Sensors, insbesondere eines weiter unten im Detail beschriebenen Sensors zum Erfassen der ersten Bewegungsrichtung.The triggering event can, for example, include a previously determined movement of the human body part or an absence of the human body in a spatial detection area of a sensor, in particular a sensor described in detail below for detecting the first direction of movement.

Bei entsprechenden Ausführungsformen führt der Roboter den verbleibenden (d. h. zunächst inkongruenteren) Abschnitt der Trajektorie nicht sofort nach dem ersten (zunächst kongruenteren) Abschnitt der Trajektorie aus, sondern wartet zunächst ab. Nach der Wartezeit kann sich der Mensch entfernt haben oder seine Bewegungsrichtung geändert haben, sodass der verbleibende Abschnitt dann kongruenter mit der Bewegungsrichtung des Menschen ist. Somit kann die motorische Interferenz reduziert und die Kollaboration zwischen Mensch und Roboter (z. B. deren Gesamtproduktivität) verbessert werden.In corresponding embodiments, the robot does not carry out the remaining (i.e. initially more incongruent) section of the trajectory immediately after the first (initially more congruent) section of the trajectory, but instead waits. After the waiting period, the person may have moved away or changed their direction of movement, so that the remaining section is then more congruent with the direction of the person's movement. This means that motor interference can be reduced and collaboration between humans and robots (e.g. their overall productivity) can be improved.

Dabei kann die Dauer der Wartezeit gezielt anhand eines Auslöseereignisses festgelegt werden, sodass beim Ausführen des verbleibenden Abschnitts der Trajektorie nach dem Auslöseereignis die motorische Interferenz reduziert ist (z. B. weil sich die Bewegungsrichtung des Menschen bei bzw. mit dem Auslöseereignis geändert hat) oder dass eine möglicherweise resultierende Beeinflussung der Bewegung des Menschen eine für die Gesamtproduktivität von Mensch und Roboter weniger relevante Bewegung des Menschen betrifft (z. B. weil der Beitrag des Menschen zu der gemeinsamen Aufgabenbewältigung mit dem Auslöseereignis abgeschlossen ist) und sich nicht nennenswert auf die Gesamtproduktivität auswirkt.The duration of the waiting time can be specifically determined based on a trigger event, so that when executing the remaining section of the trajectory after the trigger event, the motor interference is reduced (e.g. because the direction of movement of the person has changed during or with the trigger event) or that a possible resulting influence on human movement affects a human movement that is less relevant to the overall productivity of humans and robots (e.g. because the human contribution to the joint task completion is completed with the triggering event) and does not have a significant impact on overall productivity effects.

Bei einigen Ausführungsformen wird das Erfassen der ersten Bewegungsrichtung mithilfe eines Sensors ausgeführt, wobei der Sensor einen räumlichen Nachweisbereich aufweist.In some embodiments, detecting the first direction of movement is accomplished using of a sensor, wherein the sensor has a spatial detection area.

Der räumliche Nachweisbereich des Sensors kann einer Umgebung des Roboters und/oder einem Einflussbereich des Roboters entsprechen.The spatial detection area of the sensor can correspond to an environment of the robot and/or an area of influence of the robot.

Das Verfahren kann weiterhin ein Festlegen der Bewegungsrichtung des Roboters von seiner Ist-Position zu einer mit dem Roboter assoziierten Soll-Position gemäß einer zeitlich und/oder räumlich kürzesten Verbindung umfassen, wenn sich kein menschliches Körperteil in dem räumlichen Nachweisbereich des Sensors befindet.The method may further include determining the direction of movement of the robot from its actual position to a target position associated with the robot according to a shortest connection in time and/or space when no human body part is in the spatial detection range of the sensor.

Durch das Abstimmen des räumlichen Nachweisbereichs des Sensors auf die Umgebung oder den Einflussbereich des Roboters kann sichergestellt werden, dass die (erste) menschliche Bewegungsrichtung genau dann erfasst und zur Grundlage beim Festlegen der Bewegungsrichtung des Roboters gemacht wird, wenn sich der Mensch (oder sein Körperteil) in der Umgebung oder dem Einflussbereich des Roboters befindet.By matching the spatial detection range of the sensor to the environment or the robot's area of influence, it can be ensured that the (first) human direction of movement is detected and made the basis for determining the direction of movement of the robot exactly when the human (or his body part) moves ) is in the robot's environment or area of influence.

Somit kann der Roboter, wenn der Sensor keinen Menschen bzw. kein menschliches Körperteil erfasst, mit maximaler Effizienz und Produktivität (des Roboters selbst) eine ihm zugewiesene Aufgabe erfüllen. Dies kann dadurch erreicht werden, dass die Bewegungsrichtung des Roboters anhand der zeitlich und/oder räumlich kürzesten Verbindung zwischen seiner Ist-Position und seiner Soll-Position festgelegt wird.Thus, if the sensor does not detect a human or human body part, the robot can complete a task assigned to it with maximum efficiency and productivity (of the robot itself). This can be achieved by determining the direction of movement of the robot based on the shortest connection in time and/or space between its actual position and its target position.

Erfasst der Sensor hingegen einen Menschen oder ein menschliches Körperteil, kann die Bewegungsrichtung des Roboters auf Grundlage ihrer (In)Kongruenz zu der (prädizierten) Bewegungsrichtung des Menschen festgelegt werden, um die Gesamtproduktivität von Mensch und Roboter zu maximieren, selbst wenn dabei die Produktivität des Roboters selbst reduziert sein sollte.On the other hand, if the sensor detects a human or a human body part, the direction of movement of the robot can be determined based on its (in)congruence with the (predicted) direction of movement of the human in order to maximize the overall productivity of the human and the robot, even if the productivity of the robot is compromised Robot itself should be reduced.

Das Inkongruenzmaß kann auf einem Zwischenwinkel und/oder einer Vektordifferenz basieren.The incongruence measure can be based on an intermediate angle and/or a vector difference.

Beispielsweise kann das Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung auf einem Zwischenwinkel zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung basieren. Entsprechendes kann für das Inkongruenzmaß zwischen (jeweils zwei) anderen Bewegungsrichtungen gelten.For example, the incongruence measure between the direction of movement of the robot and the predicted direction of movement can be based on an intermediate angle between the direction of movement of the robot and the predicted direction of movement. The same can apply to the incongruence measure between (two) other directions of movement.

In dieser Beschreibung kann sich der Begriff „Bewegung“ auf eine - insbesondere momentane oder aktuelle - vektorielle Geschwindigkeit beziehen. Beispielsweise kann sich eine Bewegung des Roboters oder des menschlichen Körperteils auf eine - insbesondere momentane oder aktuelle - vektorielle Geschwindigkeit des Roboters oder des menschlichen Körperteils beziehen.In this description, the term “movement” can refer to a - particularly instantaneous or current - vectorial speed. For example, a movement of the robot or the human body part can relate to a - in particular instantaneous or current - vectorial speed of the robot or the human body part.

Mit anderen Worten kann die Bewegung eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit umfassen. Beispielsweise kann die Bewegung des Roboters oder des menschlichen Körperteils eine Bewegungsrichtung des Roboters oder des menschlichen Körperteils umfassen, und die Bewegung des Roboters oder des menschlichen Körperteils kann eine Bewegungsgeschwindigkeit des Roboters oder des menschlichen Körperteils umfassen.In other words, the movement may include a direction of movement and a speed of movement. For example, the movement of the robot or the human body part may include a movement direction of the robot or the human body part, and the movement of the robot or the human body part may include a movement speed of the robot or the human body part.

Bewegung, Bewegungsrichtung und/oder Bewegungsgeschwindigkeit können sich auf die jeweils momentane/aktuelle Bewegung, Bewegungsrichtung und/oder Bewegungsgeschwindigkeit beziehen.Movement, direction of movement and/or speed of movement can refer to the current/momentary movement, direction of movement and/or speed of movement.

Das Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der Bewegungsrichtung des menschlichen Körperteils kann auf einer Vektordifferenz zwischen einer Bewegung des Roboters, die die Bewegungsrichtung des Roboters umfasst, und einer Bewegung des menschlichen Körperteils, die die Bewegungsrichtung des menschlichen Körperteils umfasst, basieren. Entsprechendes kann für das Inkongruenzmaß zwischen (jeweils zwei) anderen Bewegungsrichtungen gelten.The incongruence measure between the movement direction of the robot and the movement direction of the human body part may be based on a vector difference between a movement of the robot that includes the movement direction of the robot and a movement of the human body part that includes the movement direction of the human body part. The same can apply to the incongruence measure between (two) other directions of movement.

Das Verfahren kann weiterhin ein Erfassen einer ersten Bewegungsgeschwindigkeit des menschlichen Körperteils umfassen.The method may further comprise detecting a first movement speed of the human body part.

Das Verfahren kann weiterhin ein Errechnen einer prädizierten Bewegungsgeschwindigkeit des menschlichen Körperteils auf Grundlage der ersten Bewegungsgeschwindigkeit umfassen.The method may further include calculating a predicted movement speed of the human body part based on the first movement speed.

Das Verfahren kann weiterhin ein Festlegen einer Bewegungsgeschwindigkeit des Roboters entsprechend der prädizierten Bewegungsgeschwindigkeit umfassen.The method may further include setting a movement speed of the robot according to the predicted movement speed.

Das Anpassen der Bewegungsgeschwindigkeit des Roboters an die (prädizierte) Bewegungsgeschwindigkeit des Menschen (bzw. seines Körperteils) kann die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) weiter reduzieren und die Kooperation und Kollaboration von Mensch und Roboter, beispielsweise deren Gesamtproduktivität, weiter verbessern.Adjusting the movement speed of the robot to the (predicted) movement speed of the human (or its body part) can further reduce the influence/distraction of human movements by the movement of the robot (motor interference) and improve cooperation and collaboration between humans and robots, for example further improve their overall productivity.

Die prädizierte Bewegungsgeschwindigkeit kann der ersten Bewegungsgeschwindigkeit entsprechen.The predicted movement speed can correspond to the first movement speed.

Alternativ kann die prädizierte Bewegungsgeschwindigkeit der ersten Bewegungsgeschwindigkeit entsprechen, korrigiert entsprechend einer errechneten Ablenkung des menschlichen Körperteils.Alternatively, the predicted movement speed may correspond to the first movement speed, corrected according to a calculated deflection of the human body part.

Die prädizierte Bewegungsrichtung kann der ersten Bewegungsrichtung entsprechen.The predicted direction of movement can correspond to the first direction of movement.

Alternativ kann die prädizierte Bewegungsrichtung der ersten Bewegungsrichtung entsprechen, korrigiert entsprechend einer errechneten Ablenkung des menschlichen Körperteils.Alternatively, the predicted direction of movement may correspond to the first direction of movement, corrected according to a calculated deflection of the human body part.

Bei einigen Ausführungsformen umfasst das Verfahren weiterhin ein Errechnen der Ablenkung des menschlichen Körperteils, wobei das Errechnen der Ablenkung des menschlichen Körperteils auf einem Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der ersten Bewegungsrichtung basiert.In some embodiments, the method further includes calculating the deflection of the human body part, wherein calculating the deflection of the human body part is based on an incongruence measure between the direction of movement of the robot and the first direction of movement.

Alternativ oder zusätzlich kann die errechnete Ablenkung des menschlichen Körperteils auf einem mit dem Roboter assoziierten Parameter zu dessen Menschenähnlichkeit basieren.Alternatively or additionally, the calculated deflection of the human body part can be based on a human-likeness parameter associated with the robot.

Insbesondere kann die errechnete Ablenkung des menschlichen Körperteils mit dem Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der ersten Bewegungsrichtung zunehmen, insbesondere monoton oder streng monoton.In particular, the calculated deflection of the human body part can increase with the incongruence measure between the direction of movement of the robot and the first direction of movement, in particular monotonically or strictly monotonically.

Bei einigen Ausführungsformen kann die errechnete Ablenkung des menschlichen Körperteils mit der Menschenähnlichkeit zunehmen, insbesondere monoton oder streng monoton. Alternativ kann die errechnete Ablenkung des menschlichen Körperteils über zumindest einen vordefinierten Bereich mit zunehmender Menschenähnlichkeit abnehmen. Beispielsweise kann der zumindest eine vordefinierte Bereich dem Bereich des Uncanny Valley Effektes entsprechen, wie er aus der wissenschaftlichen Literatur bekannt ist.In some embodiments, the calculated deflection of the human body part may increase with human-likeness, particularly monotonically or strictly monotonically. Alternatively, the calculated deflection of the human body part can decrease over at least a predefined area as the human-likeness increases. For example, the at least one predefined area can correspond to the area of the uncanny valley effect, as is known from the scientific literature.

Bei einigen Ausführungsformen umfasst das Verfahren weiterhin ein Berechnen einer Kollisionswahrscheinlichkeit zwischen dem Roboter und dem menschlichen Körperteil oder zwischen dem Roboter und einem menschlichen Körper, der das menschliche Körperteil umfasst.In some embodiments, the method further includes calculating a collision probability between the robot and the human body part or between the robot and a human body that includes the human body part.

Die berechnete Kollisionswahrscheinlichkeit kann mit der errechneten Ablenkung des menschlichen Körperteils zunehmen, insbesondere monoton oder streng monoton.The calculated collision probability can increase with the calculated deflection of the human body part, in particular monotonically or strictly monotonically.

Bei einigen Ausführungsformen umfasst das Verfahren weiterhin ein Berechnen eines Sicherheitsabstandes zwischen dem Roboter und dem menschlichen Körperteil.In some embodiments, the method further includes calculating a safety distance between the robot and the human body part.

Der berechnete Sicherheitsabstand kann mit der errechneten Ablenkung des menschlichen Körperteils zunehmen.The calculated safety distance can increase with the calculated deflection of the human body part.

Das Verfahren kann zudem ein Bestimmen eines Abstandes zwischen dem Roboter und dem menschlichen Körperteil umfassen.The method may also include determining a distance between the robot and the human body part.

Das Verfahren kann zudem ein Festlegen der Bewegungsrichtung des Roboters mit einer Komponente weg von dem menschlichen Körperteil umfassen, um den Abstand zwischen dem Roboter und dem menschlichen Körperteil zu vergrößern, falls der Abstand zwischen dem Roboter und dem menschlichen Körperteil den Sicherheitsabstand unterschreitet.The method may also include setting the direction of movement of the robot with a component away from the human body part to increase the distance between the robot and the human body part if the distance between the robot and the human body part falls below the safety distance.

Entsprechende Ausführungsformen können die Sicherheit des Menschen verbessern und die Gefahr von Schäden am Roboter reduzieren.Corresponding embodiments can improve human safety and reduce the risk of damage to the robot.

Bei einigen Ausführungsformen wird das Festlegen der Bewegungsrichtung des Roboters auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung mittels eines geschlossenen Regelkreises ausgeführt.In some embodiments, determining the direction of movement of the robot based on the incongruence measure between the direction of movement of the robot and the predicted direction of movement is carried out using a closed-loop control system.

Hierdurch kann eine höhere Reaktivität und Reaktionsgeschwindigkeit des Verfahrens erreicht werden in Bezug auf die Berechnung des Inkongruenzmaßes und das Festlegen der Bewegungsrichtung des Roboters.In this way, a higher reactivity and reaction speed of the method can be achieved in relation to the calculation of the incongruence measure and the determination of the direction of movement of the robot.

Bei einigen Ausführungsformen wird das Festlegen der Bewegungsrichtung des Roboters auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung anhand eines deterministischen Modells ausgeführt. Bei entsprechenden Ausführungsformen lassen sich Zusammenhänge von Bewegungskongruenz und/oder Menschenähnlichkeit und Ablenkung der menschlichen Bewegung situativ örtlich und zeitlich schätzen und/oder vorhersagen.In some embodiments, determining the direction of movement of the robot is performed based on the incongruence measure between the direction of movement of the robot and the predicted direction of movement using a deterministic model. In corresponding embodiments, relationships between movement congruence and/or human-likeness and deflection of human movement can be estimated and/or predicted in terms of location and time.

Bei einigen Ausführungsformen wird das Festlegen der Bewegungsrichtung des Roboters auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung unter Verwendung eines Modells für eine Bewegungsunsicherheit ausgeführt, die mit der prädizierten Bewegungsrichtung verknüpft ist. Bei entsprechenden Ausführungsformen kann vorteilhaft erreicht werden, dass örtliche Bereiche mit kongruenzabhängiger oder menschenähnlichkeitsabhängiger Bewegungsunsicherheit z.B. in Form von Unsicherheitsschläuchen um erwartete Pfade oder Bahnen der bewegten menschlichen Teile ermittelbar sind und somit in Steuerung, Regelung oder Aktionsplan des Roboters berücksichtigt werden können.In some embodiments, determining the direction of movement of the robot based on the incongruence measure between the direction of movement of the robot and the predicted direction of movement is performed using a motion uncertainty model associated with the predicted direction of movement. With appropriate embodiments it can advantageously be achieved that local preparation che with congruence-dependent or human-likeness-dependent movement uncertainty, e.g. in the form of uncertainty tubes around expected paths or trajectories of the moving human parts, can be determined and can therefore be taken into account in the control, regulation or action plan of the robot.

Das Berechnen der Kollisionswahrscheinlichkeit kann unter Verwendung des Modells für die Bewegungsunsicherheit ausgeführt werden.Calculating the collision probability can be carried out using the motion uncertainty model.

Gemäß einem zweiten Aspekt ist ein Computerprogramm dazu eingerichtet, einem Computersystem Instruktionen zu geben, um das oben beschriebene Verfahren auszuführen.According to a second aspect, a computer program is set up to give a computer system instructions to carry out the method described above.

Gemäß einem dritten Aspekt weist ein Computersystem ein Sensorsystem, mindestens einen Prozessor und ein Steuerungssystem auf. Das Sensorsystem ist dazu eingerichtet, eine erste Bewegungsrichtung eines menschlichen Körperteils zu erfassen. Der mindestens eine Prozessor ist dazu eingerichtet, eine prädizierte Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung zu errechnen; und auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung eine Bewegungsrichtung für einen Roboter festzulegen. Das Steuerungssystem ist dazu eingerichtet, Steuerbefehle beruhend auf der festgelegten Bewegungsrichtung an den Roboter zu senden.According to a third aspect, a computer system has a sensor system, at least one processor and a control system. The sensor system is set up to detect a first direction of movement of a human body part. The at least one processor is set up to calculate a predicted direction of movement of the human body part based on the first direction of movement; and determine a movement direction for a robot based on an incongruence measure between the movement direction of the robot and the predicted movement direction. The control system is set up to send control commands to the robot based on the specified direction of movement.

Der mindestens eine Prozessor kann weiterhin dazu eingerichtet sein, einen oder alle Verfahrensschritte auszuführen, die oben im Zusammenhang mit dem ersten Aspekt beschrieben sind.The at least one processor can further be configured to carry out one or all of the method steps described above in connection with the first aspect.

Das Sensorsystem kann einen oder mehrere Prozessor(en) des mindestens einen Prozessors umfassen.The sensor system may include one or more processors of the at least one processor.

Das Sensorsystem kann dazu eingerichtet sein, eine erste Bewegungsrichtung eines menschlichen Körperteils zu erfassen.The sensor system can be set up to detect a first direction of movement of a human body part.

Das Sensorsystem kann mindestens einen Sensor aufweisen.The sensor system can have at least one sensor.

Der mindestens eine Sensor kann dazu eingerichtet sein, einen Einflussbereich des Roboters oder einen zuvor festgelegten Koexistenzbereich zu erfassen.The at least one sensor can be set up to detect an area of influence of the robot or a previously defined coexistence area.

Der mindestens eine Sensor kann eine Kamera aufweisen oder sein, insbesondere eine Flächenkamera, eine stereoskopische (z. B. binokulare) Kamera und/oder eine 3D-Kamera.The at least one sensor can have or be a camera, in particular an area camera, a stereoscopic (e.g. binocular) camera and/or a 3D camera.

Der mindestens eine Sensor kann ein Abstandsmessgerät umfassen, beispielsweise ein laserbasiertes Abstandsmessgerät.The at least one sensor can include a distance measuring device, for example a laser-based distance measuring device.

Der mindestens eine Sensor kann ein oder alle Merkmale aufweisen, die im Zusammenhang mit dem Sensor des ersten Aspekts beschrieben sind.The at least one sensor may have any or all of the features described in connection with the sensor of the first aspect.

Das Steuerungssystem kann einen oder mehrere Prozessor(en) des mindestens einen Prozessors umfassen.The control system may include one or more processors of the at least one processor.

Das Steuerungssystem kann dazu eingerichtet sein, die Steuerbefehle an den Roboter zu übertragen, beispielsweise mittels einer kabelgebundenen oder einer kabellosen Datenübertragungseinrichtung.The control system can be set up to transmit the control commands to the robot, for example by means of a wired or wireless data transmission device.

Das Computersystem kann den Roboter umfassen.The computer system may include the robot.

Der mindestens eine Sensor kann in einer Umgebung des Roboters oder an dem Roboter angeordnet sein.The at least one sensor can be arranged in an environment of the robot or on the robot.

KURZE BESCHREIBUNG DER FIGURENBRIEF DESCRIPTION OF THE FIGURES

Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen mit Bezug auf die beigefügten Zeichnungen näher erläutert. In den Figuren zeigen in schematischer Darstellung:

  • 1: ein computerimplementiertes Verfahren gemäß einem Beispiel;
  • 2: ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel;
  • 3: ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel;
  • 4a: ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel;
  • 4b: ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel;
  • 4c: ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel;
  • 5a: einen Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung eines menschlichen Körpers gemäß einem ersten Beispiel;
  • 5b: einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem ersten Beispiel;
  • 5c: einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem ersten Beispiel;
  • 6a: einen Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung eines menschlichen Körpers gemäß einem zweiten Beispiel;
  • 6b: einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem zweiten Beispiel;
  • 6c: einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem zweiten Beispiel;
  • 7a: einen Roboter mit einer größeren Menschenähnlichkeit;
  • 7b: einen Roboter mit einer geringeren Menschenähnlichkeit;
  • 8: ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; und
  • 9: ein Computersystem gemäß einem Beispiel.
The invention is explained in more detail below using exemplary embodiments with reference to the accompanying drawings. The figures show in a schematic representation:
  • 1 : a computer-implemented method according to an example;
  • 2 : a computer-implemented method according to another example;
  • 3 : a computer-implemented method according to another example;
  • 4a : a computer-implemented method according to another example;
  • 4b : a computer-implemented method according to another example;
  • 4c : a computer-implemented method according to another example;
  • 5a : a process step for calculating an incongruence measure and a deflection of a human body according to a first example;
  • 5b : a further process step for calculating an incongruity measure and a deflection of the human body according to the first example;
  • 5c : a further process step for calculating an incongruity measure and a deflection of the human body according to the first example;
  • 6a : a process step for calculating an incongruence measure and a deflection of a human body according to a second example;
  • 6b : a further process step for calculating an incongruity measure and a deflection of the human body according to the second example;
  • 6c : a further process step for calculating an incongruity measure and a deflection of the human body according to the second example;
  • 7a : a robot with greater human resemblance;
  • 7b : a robot with less human resemblance;
  • 8th : a computer-implemented method according to another example; and
  • 9 : a computer system according to an example.

BESCHREIBUNG DER FIGURENDESCRIPTION OF THE FIGURES

1 zeigt ein computerimplementiertes Verfahren 100 zum Festlegen einer Bewegungsrichtung 104 für einen Roboter 102 gemäß einem ersten Ausführungsbeispiel. 1 shows a computer-implemented method 100 for determining a movement direction 104 for a robot 102 according to a first exemplary embodiment.

In der Ausgangssituation 110 befindet sich der Roboter 102 an einer Ist-Position 112.In the initial situation 110, the robot 102 is at an actual position 112.

Die für den Roboter 102 zu bewältigende Aufgabe besteht in einer Bewegung zu der Zielposition (Soll-Position) 114.The task to be accomplished by the robot 102 is to move to the target position (target position) 114.

Hierfür ist der Roboter 102 mit geeigneten Antriebselementen ausgestattet, insbesondere mit Elektromotoren, die als Aktuatoren für die Bewegung dienen. Bei dem dargestellten Beispiel treiben die Elektromotoren Räder zu einer Drehbewegung an, die die Bewegung vermittelt, sowie Anstellwinkel der Räder, um die Bewegungsrichtung 104 des Roboters 102 zu steuern. In anderen Beispielen weist der Roboter eine Mehrzahl von durch Gelenke verbundenen Gliedern auf, und die Elektromotoren dienen als Aktuatoren für die Winkel zwischen den Gliedern an den Gelenken, um eine Bewegungsrichtung 104 und -geschwindigkeit eines der Glieder zu steuern.For this purpose, the robot 102 is equipped with suitable drive elements, in particular with electric motors, which serve as actuators for the movement. In the example shown, the electric motors drive wheels to rotate to impart the motion, as well as angles of attack of the wheels to control the direction of movement 104 of the robot 102. In other examples, the robot has a plurality of links connected by joints, and the electric motors serve as actuators for the angles between the links at the joints to control a direction of movement 104 and speed of one of the links.

Ein Sensor 108 in Form einer binokularen Kamera 108 ist an dem Roboter 102 angebracht. In alternativen Beispielen wird anstelle der binokularen Kamera 108 eine Mehrzahl von Kameras oder zumindest ein Abstandsmesser als Sensor 108 verwendet.A sensor 108 in the form of a binocular camera 108 is attached to the robot 102. In alternative examples, instead of the binocular camera 108, a plurality of cameras or at least one distance meter is used as the sensor 108.

Die Anordnung der binokularen Kamera 108 am Roboter 102 ermöglicht, dass die binokulare Kamera 108 den Einflussbereich des Roboters 102 erfasst.The arrangement of the binocular camera 108 on the robot 102 allows the binocular camera 108 to capture the area of influence of the robot 102.

Bei dem Einflussbereich handelt es sich um denjenigen Bereich, den der Roboter 102 durch seine Bewegung erreichen kann, insbesondere in einem vorbestimmten Zeitintervall. Bei dem dargestellten Beispiel orientiert sich das vorbestimmte Zeitintervall an der Reaktionszeit eines Menschen und beträgt 2 Sekunden. In anderen Beispielen ist der Roboter 102 an mindestens einer Stelle fixiert. In solchen Beispielen kann das vorbestimmte Zeitintervall beliebig groß gewählt werden bzw. der Einflussbereich ist unabhängig von einem vorbestimmten Zeitintervall.The area of influence is the area that the robot 102 can reach through its movement, in particular in a predetermined time interval. In the example shown, the predetermined time interval is based on the reaction time of a human and is 2 seconds. In other examples, the robot 102 is fixed in at least one location. In such examples, the predetermined time interval can be chosen to be as large as desired or the area of influence is independent of a predetermined time interval.

In alternativen Ausführungsformen ist der Sensor 108 nicht am Roboter befestigt, sondern an einem Stativ befestigt oder unabhängig vom Roboter 102 beweglich, sodass der Sensor 108 den Einflussbereich des Roboters 102 oder den Bereich von der Startposition 112 zu der Soll-Position 114 erfasst. Dies lässt sich insbesondere durch Verwendung einer Vielzahl von Kameras 108 erreichen. Insbesondere lassen sich Kameras 108 verwenden, die in einer Umgebung wie einem automatisierten Produktionsstandort für andere Zwecke vorhanden sind, um Sensorik und somit Kosten des Roboters 102 gering zu halten.In alternative embodiments, the sensor 108 is not attached to the robot, but is attached to a tripod or movable independently of the robot 102, so that the sensor 108 detects the area of influence of the robot 102 or the area from the starting position 112 to the target position 114. This can be achieved in particular by using a large number of cameras 108. In particular, cameras 108 can be used that are present in an environment such as an automated production site for other purposes in order to keep sensor technology and thus the costs of the robot 102 low.

In der Ausgangssituation 110 wird die Bewegungsrichtung 104 des Roboters 102 entlang einer Trajektorie 106 geführt.In the initial situation 110, the direction of movement 104 of the robot 102 is guided along a trajectory 106.

Die Trajektorie 106 wird anhand vorbekannter Verfahren festgelegt, vorzugsweise derart, dass der Roboter 102 sich möglichst effizient zu der Soll-Position 114 bewegt. Mit anderen Worten wird diejenige Trajektorie 106 gewählt, die den Roboter 102 schnellstmöglich oder auf dem kürzesten Weg zu der Soll-Position 114 führt. In dem dargestellten Beispiel handelt es sich bei der Trajektorie 106 um eine Gerade zwischen der Ist-Position 112 und der Soll-Position 114. Insbesondere, wenn sich Hindernisse zwischen der Ist-Position 112 und der Soll-Position 114 befinden, kann die kürzeste (kollisionsfreie) Trajektorie 106 jedoch von einer Geraden abweichen. Verfahren zum Festlegen einer entsprechenden Trajektorie 106 sind aus dem Stand der Technik hinreichend bekannt und sollen hier nicht im Einzelnen wiedergegeben werden.The trajectory 106 is determined using previously known methods, preferably in such a way that the robot 102 moves to the target position 114 as efficiently as possible. In other words, the trajectory 106 is selected that leads the robot 102 to the target position 114 as quickly as possible or on the shortest path. In the example shown, the trajectory 106 is a straight line between the actual position 112 and the target position 114. In particular, if there are obstacles between the actual position 112 and the target position 114, the shortest ( collision-free) trajectory 106, however, deviates from a straight line. Methods for determining a corresponding trajectory 106 are well known from the prior art and will not be reproduced in detail here.

Bei Schritt 120 erfasst der Sensor 108 einen Menschen 122.At step 120, the sensor 108 detects a person 122.

Daraufhin wird die Bewegungsrichtung 104 des Roboters 102 abgeändert. Mit anderen Worten wird die Bewegungsrichtung 104 entsprechend einer Trajektorie 116 in Anwesenheit des Menschen 122 festgelegt, die von der Trajektorie 106 der Ausgangssituation 110 ohne den Menschen 122 abweicht.The direction of movement 104 of the robot 102 is then changed. In other words, the direction of movement becomes 104 accordingly a trajectory 116 in the presence of the person 122, which deviates from the trajectory 106 of the initial situation 110 without the person 122.

Ein Bildverarbeitungsprozessor (nicht dargestellt) verarbeitet die mit der Anwesenheit des Menschen 122 assoziierten Signale des Sensors 108 und erstellt daraus ein Modell mit Bewegungsinformation zu einem oder mehreren Körperteil(en) des Menschen 122.An image processing processor (not shown) processes the signals from the sensor 108 associated with the presence of the human 122 and uses them to create a model with movement information about one or more body parts of the human 122.

Bei der dargestellten Ausführungsform ist der Bildverarbeitungsprozessor räumlich getrennt von der Kamera 108 an dem Roboter 102 angeordnet. In alternativen Ausführungsformen bildet der Bildverarbeitungsprozessor mit dem Sensor 108 ein integriertes System. In wieder anderen Ausführungsformen ist der Bildverarbeitungsprozessor räumlich von dem Roboter 102 getrennt, und der Sensor 108 sendet Signale mit Sensordaten an den Bildverarbeitungsprozessor, bevorzugt über eine Funkverbindung.In the illustrated embodiment, the image processing processor is arranged on the robot 102 spatially separated from the camera 108. In alternative embodiments, the image processing processor forms an integrated system with the sensor 108. In yet other embodiments, the image processing processor is spatially separated from the robot 102, and the sensor 108 sends signals with sensor data to the image processing processor, preferably via a radio link.

Computerprogramme zum Erstellen des Modells mit der Bewegungsinformation zu dem menschlichen Körperteil sind aus dem Stand der Technik bekannt und sollen hier nicht im Einzelnen dargestellt werden. Beispielhaft sei hierzu Azure Kinect der Firma Microsoft genannt.Computer programs for creating the model with the movement information about the human body part are known from the prior art and will not be presented in detail here. An example of this is Azure Kinect from Microsoft.

In dem dargestellten Beispiel wird dem Modell die Bewegungsrichtung 124 des Torso des Menschen 122 entnommen. In alternativen Ausführungsformen werden die Bewegungsrichtungen mehrerer menschlicher Körperteile entnommen, und die Bewegungsrichtung 124 entspricht einer Schwerpunktbewegung der mehreren menschlichen Körperteile.In the example shown, the direction of movement 124 of the torso of the human 122 is taken from the model. In alternative embodiments, the movement directions of multiple human body parts are extracted, and the movement direction 124 corresponds to a center of gravity movement of the multiple human body parts.

Ausgehend von der Bewegungsrichtung 124 des Torso wird eine Bewegungsrichtung 126 vorhergesagt (prädiziert).Based on the direction of movement 124 of the torso, a direction of movement 126 is predicted (predicted).

In dem dargestellten Beispiel basiert die Vorhersage darauf, dass die Bewegungsrichtung 124 beibehalten wird, der Mensch 122 also eine lineare Bewegung ausführt. Somit entspricht die prädizierte (vorhergesagte) Bewegungsrichtung 126 der (aktuellen) Bewegungsrichtung 124. Alternativ kann eine der Vorhersagemethoden zur Anwendung kommen, die im Zusammenhang mit den 5a, 5b, 5c, 6a, 6b, 6c im Detail beschrieben sind.In the example shown, the prediction is based on the fact that the direction of movement 124 is maintained, i.e. the human 122 executes a linear movement. Thus, the predicted (predicted) direction of movement 126 corresponds to the (current) direction of movement 124. Alternatively, one of the prediction methods can be used that are related to the 5a , 5b , 5c , 6a , 6b , 6c are described in detail.

Ein Routenplanungsprozessor (nicht dargestellt) erhält die Information über die prädizierte Bewegungsrichtung 126, sowie die Information über die Ist-Position 112 und die Soll-Position 114 des Roboters 102. Anhand dieser Informationen bestimmt der Routenplanungsprozessor eine Trajektorie 116 von der Ist-Position 112 zu der Soll-Position 114. Die Trajektorie 116 umfasst einen mit der prädizierten Bewegungsrichtung 126 kongruenten Teil 116a und einen mit der prädizierten Bewegungsrichtung 126 inkongruenten Teil 116b.A route planning processor (not shown) receives the information about the predicted direction of movement 126, as well as the information about the actual position 112 and the target position 114 of the robot 102. Based on this information, the route planning processor determines a trajectory 116 from the actual position 112 the target position 114. The trajectory 116 includes a part 116a that is congruent with the predicted direction of movement 126 and a part 116b that is incongruent with the predicted direction of movement 126.

Bei dem Routenplanungsprozessor der dargestellten Ausführungsform handelt es sich um denselben Prozessor wie bei dem Bildverarbeitungsprozessor. Bei alternativen Ausführungsformen handelt es sich um einen weiteren Prozessor, der am Roboter 102 oder getrennt davon angeordnet ist.The route planning processor of the illustrated embodiment is the same processor as the image processing processor. Alternative embodiments involve another processor located on or separately from the robot 102.

Die Trajektorie 116 ist derart festgelegt, dass der kongruente Teil 116a parallel zu der prädizierten Bewegungsrichtung 126 ist und der inkongruente Teil 116b senkrecht zu der prädizierten Bewegungsrichtung 126 ist.The trajectory 116 is set such that the congruent part 116a is parallel to the predicted direction of movement 126 and the incongruent part 116b is perpendicular to the predicted direction of movement 126.

Parallelität und senkrechte Lage sind dabei nicht mathematisch exakt zu verstehen. Abweichungen ergeben sich beispielsweise aus den Unsicherheiten bei der Bestimmung der Bewegungsrichtung 124 durch den Bildverarbeitungsprozessor anhand der Daten des Sensors 108. Typischerweise schwankt oder rauscht die bestimmte Bewegungsrichtung 124 zeitlich aufgrund der Unsicherheiten, selbst wenn sich der tatsächliche Mensch 122 ideal geradlinig bewegt. Wünschenswerterweise bleibt das Schwanken oder Rauschen bei der Bestimmung der Trajektorie 116 unberücksichtigt, d. h., der Routenplanungsprozessor legt die Trajektorie 116 anhand einer (nach)bearbeiteten prädizierten Bewegungsrichtung fest. Dies vermeidet ruckartige, ineffiziente Bewegungen des Roboters 102. Bei der (Nach)Bearbeitung wird die prädizierte Bewegungsrichtung 126 oder bereits zuvor die bestimmte Bewegungsrichtung 124 zeitlich gemittelt und/oder geglättet. Im Ergebnis weicht der kongruente Teil 116a (der inkongruente Teil 116b) von der zu der prädizierten Bewegung 126 parallelen (senkrechten) Richtung ab, typischerweise um bis zu 8°.Parallelism and vertical position cannot be understood mathematically exactly. Deviations arise, for example, from the uncertainties in determining the direction of movement 124 by the image processing processor based on the data from the sensor 108. Typically, the specific direction of movement 124 fluctuates or noises in time due to the uncertainties, even if the actual person 122 moves in an ideal straight line. Desirably, the fluctuation or noise is not taken into account when determining the trajectory 116, i.e. that is, the route planning processor determines the trajectory 116 based on a (post-)processed predicted direction of movement. This avoids jerky, inefficient movements of the robot 102. During (post)processing, the predicted direction of movement 126 or the previously determined direction of movement 124 is time-averaged and/or smoothed. As a result, the congruent portion 116a (incongruent portion 116b) deviates from the direction parallel (perpendicular) to the predicted motion 126, typically by up to 8°.

Die Bewegungsrichtung 104 des Roboters 102 wird entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt.The direction of movement 104 of the robot 102 is determined along the congruent part 116a of the trajectory 116.

Im Ergebnis entsteht eine kongruente Bewegung 104 des Roboters 102 zu der (prädizierten) Bewegungsrichtung 124, 126 des Menschen. Somit wird die Beeinflussung der Bewegung des Menschen durch den Roboter (motorische Interferenz) minimiert. Der störende Einfluss des Roboters 102 auf den Menschen 122 wird gering gehalten. Der Mensch 122 kann effizient und ermüdungsarm arbeiten, und die oben genannten Vorteile werden erreicht. Mensch 122 und Roboter 102 arbeiten kooperativ und kollaborativ zusammen. Dabei wird die Gesamtproduktivität von Mensch 122 und Roboter 102 erhöht, selbst, wenn die Produktivität des Roboters 102 alleine reduziert ist: Er weicht von seiner effizientesten Trajektorie 106 ab, und ein längerer oder langsamerer Weg 116 des Roboters 102 wird in Kauf genommen.The result is a congruent movement 104 of the robot 102 to the (predicted) direction of movement 124, 126 of the human. This minimizes the influence of the robot on human movement (motor interference). The disruptive influence of the robot 102 on the human 122 is kept to a minimum. The human 122 can work efficiently and with little fatigue, and the above-mentioned advantages are achieved. Human 122 and Robot 102 work cooperatively and collaboratively. The total productivity of humans and robots is 122 ter 102 increases, even if the productivity of the robot 102 alone is reduced: it deviates from its most efficient trajectory 106, and a longer or slower path 116 of the robot 102 is accepted.

Bei dem dargestellten Ausführungsbeispiel wird die Bewegungsrichtung 104 des Roboters 102 stets entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt, wenn der Mensch 122 von dem Sensor 108 erfasst wird. Bei alternativen Ausführungsformen (nicht dargestellt) wird zudem aufgrund der Daten des Sensors 108 ein Blickfeld des Menschen 122 bestimmt. Bei entsprechenden Ausführungsformen wird die Bewegungsrichtung 104 des Roboters 102 nur dann entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt, wenn sich der Roboter 102 im Blickfeld des Menschen 122 befindet; andernfalls wird die Trajektorie 106 des Roboters 102 entsprechend der Ausgangssituation 110 festgelegt.In the illustrated embodiment, the direction of movement 104 of the robot 102 is always determined along the congruent part 116a of the trajectory 116 when the human 122 is detected by the sensor 108. In alternative embodiments (not shown), a human field of vision 122 is also determined based on the data from the sensor 108. In corresponding embodiments, the direction of movement 104 of the robot 102 is only determined along the congruent part 116a of the trajectory 116 when the robot 102 is in the field of vision of the human 122; Otherwise, the trajectory 106 of the robot 102 is determined according to the initial situation 110.

2 zeigt ein computerimplementiertes Verfahren 300 gemäß einem Ausführungsbeispiel, das demjenigen der 1 ähnelt. Ähnliche Elemente sind mit gleichen Bezugszeichen bezeichnet, und auf eine nochmalige Beschreibung wird verzichtet. 2 shows a computer-implemented method 300 according to an exemplary embodiment similar to that of 1 resembles. Similar elements are designated with the same reference numerals and a further description is omitted.

Der Roboter 102 der 2 weist mehrere Glieder 204a, 204b, 20,4C, 204d auf, die durch Gelenke 202a, 202b, 202c miteinander verbunden sind. Die Gelenke 202a, 202b, 202c erlauben jeweils Drehungen/Rotationen um zwei Achsen.The robot 102 the 2 has a plurality of links 204a, 204b, 20,4C, 204d, which are connected to one another by joints 202a, 202b, 202c. The joints 202a, 202b, 202c each allow rotations about two axes.

Das Endglied 204a dient als Endeffektor 204a zum Bewegen eines Werkstückes 302 und ist als Greifer mit inneren Freiheitsgraden ausgelegt. (Auf eine Darstellung der Glieder und Gelenke innerhalb des Greifers zum Implementieren der inneren Freiheitsgrade wird zugunsten der Übersichtlichkeit verzichtet.)The end member 204a serves as an end effector 204a for moving a workpiece 302 and is designed as a gripper with internal degrees of freedom. (A representation of the links and joints within the gripper to implement the internal degrees of freedom is omitted for the sake of clarity.)

Der Roboter 102 ist über das Glied 204d ortsfest fixiert. Der Einflussbereich des Roboters 102 entspricht in der dargestellten Ebene einem Kreis um das Glied 204d, mit einem Radius entsprechend der Reichweite des Endeffektors 204a.The robot 102 is fixed in place via the link 204d. The area of influence of the robot 102 in the plane shown corresponds to a circle around the limb 204d, with a radius corresponding to the range of the end effector 204a.

Innerhalb des Einflussbereiches des Roboters 102 befindet sich eine Ablagefläche 206, auf der Werkstücke 302 angeordnet sein können.Within the area of influence of the robot 102 there is a storage area 206 on which workpieces 302 can be arranged.

Die zu bewältigende Aufgabe des Roboters 102 besteht in einer Bewegung zu dem Werkstück 302 als Soll-Position 114.The task to be accomplished by the robot 102 is to move to the workpiece 302 as the target position 114.

Eine weitergehende Aufgabe des Roboters 102 besteht darin, das Werkstück 302 nach dem Erreichen mit dem Greifer 204a aufzunehmen, das Werkstück 302 nach dem Aufnehmen zu einer das Werkstück 302 weiterverarbeitenden Maschine (nicht dargestellt) zu bewegen und es dort abzulegen. Die weiterverarbeitende Maschine befindet sich in der 2 links hinter dem Roboter, d.h. auf der der Ablagefläche 206 entgegengesetzt liegenden Seite des Roboters 102. Das Bewegen des Werkstückes 302 zu der weiterverarbeitenden Maschine erfolgt dabei entsprechend dem Verfahren, das hier im Zusammenhang mit der zu bewältigenden Aufgabe beschrieben wird.A further task of the robot 102 is to pick up the workpiece 302 after reaching it with the gripper 204a, to move the workpiece 302 after picking it up to a machine (not shown) that further processes the workpiece 302 and to place it there. The processing machine is located in the 2 left behind the robot, ie on the side of the robot 102 opposite the storage surface 206. The workpiece 302 is moved to the further processing machine in accordance with the method that is described here in connection with the task to be accomplished.

Bei der Ausführungsform der 2 ist der Sensor 108 eine binokulare Kamera, deren Blickfeld der Ablagefläche 206 als einem vordefinierten Koexistenzbereich 206 entspricht. In anderen Ausführungsformen ist alternativ oder zusätzlich ein Sensor vorhanden, der den Einflussbereich des Roboters 102 erfasst.In the embodiment of the 2 the sensor 108 is a binocular camera whose field of view corresponds to the storage surface 206 as a predefined coexistence area 206. In other embodiments, a sensor is alternatively or additionally present that detects the area of influence of the robot 102.

In der Ausgangssituation 310 erfasst der Sensor 108 kein menschliches Körperteil. Der Roboter 102 führt die Bewegung zu der Soll-Position 114 als zu bewältigende Aufgabe möglichst effizient (schnell, entlang der kürzestmöglichen Bahn 106) aus, wie im Zusammenhang mit der Ausgangssituation 110 der 1 beschrieben.In the initial situation 310, the sensor 108 does not detect any human body part. The robot 102 carries out the movement to the target position 114 as the task to be completed as efficiently as possible (quickly, along the shortest possible path 106), as in connection with the initial situation 110 1 described.

Der vordefinierte Koexistenzbereich erfüllt zwei jeweils optionale Funktionen: Bei der ersten definiert das Werkstück 302 nur/genau dann eine Soll-Position 114, wenn es sich in dem Koexistenzbereich, d. h. auf der Ablagefläche 206, befindet. Bei der zweiten führt der Roboter 102 nur dann das im Zusammenhang mit den Schritten 320, 330, 340 beschriebene Verfahren aus, wenn sich sein Endeffektor 204a in dem Koexistenzbereich (d. h. über der Ablagefläche 206 bzw. im Sichtfeld des Sensors 108) befindet. Befindet sich der Endeffektor 204 außerhalb des Koexistenzbereichs, so führt der Roboter 102 ein von der menschlichen Bewegung unabhängiges Verfahren aus, beispielsweise das im Zusammenhang mit der Ausgangssituation 110, 310 beschriebene Verfahren, unabhängig davon, ob der Sensor 108 ein menschliches Körperteil erfasst.The predefined coexistence area fulfills two optional functions: In the first, the workpiece 302 only/exactly defines a target position 114 when it is in the coexistence area, i.e. H. on the storage surface 206. In the second, the robot 102 only carries out the method described in connection with steps 320, 330, 340 if its end effector 204a is in the coexistence area (i.e. above the storage surface 206 or in the field of view of the sensor 108). If the end effector 204 is outside the coexistence area, the robot 102 carries out a method that is independent of human movement, for example the method described in connection with the initial situation 110, 310, regardless of whether the sensor 108 detects a human body part.

Bei Schritt 320 erfasst der Sensor 108 einen menschlichen Arm mit der Hand 214a, dem Unterarm 214b und dem Oberarm 214c, sowie den dazwischenliegenden Gelenken 212a, 212b.At step 320, the sensor 108 detects a human arm including the hand 214a, the forearm 214b and the upper arm 214c, as well as the joints 212a, 212b therebetween.

Ein Bildverarbeitungsprozessor (nicht dargestellt) bestimmt aus den Signalen des Sensors 108 die Bewegungsrichtung 124 der menschlichen Hand 214a, entsprechend der Bestimmung der Bewegungsrichtung 124 des menschlichen Torso im Rahmen des Schrittes 120 von 1.An image processing processor (not shown) determines the direction of movement 124 of the human hand 214a from the signals from the sensor 108, corresponding to the determination of the direction of movement 124 of the human torso in step 120 of 1 .

Ausgehend von der Bewegungsrichtung 124 der Hand 214a wird eine Bewegungsrichtung 126 vorhergesagt (prädiziert), mit einer Vorhersagemethode wie im Zusammenhang mit 1 beschrieben.Starting from the direction of movement 124 of the hand 214a, a direction of movement 126 predicted (predicted), using a prediction method such as in connection with 1 described.

Ein Routenplanungsprozessor (nicht dargestellt) bestimmt auf Grundlage von Informationen über die Ist-Position 112 des Endeffektors 204a, über die Soll-Position 114 und über die prädizierte Bewegungsrichtung 126 eine Trajektorie 116 in Anwesenheit der Hand 214a, die von der Trajektorie 106 der Ausgangssituation 310 ohne den menschlichen Arm abweicht.A route planning processor (not shown) determines, based on information about the actual position 112 of the end effector 204a, about the target position 114 and about the predicted direction of movement 126, a trajectory 116 in the presence of the hand 214a, which is different from the trajectory 106 of the initial situation 310 without the human arm.

Die Trajektorie 116 umfasst einen mit der prädizierten Bewegungsrichtung 126 kongruenten Teil 116a und einen mit der prädizierten Bewegungsrichtung 126 inkongruenten Teil 116b, wie im Zusammenhang mit 1 beschrieben.The trajectory 116 includes a part 116a congruent with the predicted direction of movement 126 and a part 116b incongruent with the predicted direction of movement 126, as in connection with 1 described.

Die Bewegungsrichtung 104 des Endeffektors 204a wird entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt. Somit ist eine kongruente Bewegung erreicht, mit einer geringen motorischen Interferenz und mit den oben genannten Vorteilen.The direction of movement 104 of the end effector 204a is determined along the congruent part 116a of the trajectory 116. A congruent movement is thus achieved, with little motor interference and with the advantages mentioned above.

Optional wird dabei die Bewegungsgeschwindigkeit des Endeffektors 204a an die Geschwindigkeit der menschlichen Hand 214a angepasst. Dies verbessert die Kongruenz zwischen Mensch 122 und Roboter 102 weiter und reduziert somit die motorische Interferenz weiter, mit den oben genannten Vorteilen.Optionally, the movement speed of the end effector 204a is adapted to the speed of the human hand 214a. This further improves the congruence between human 122 and robot 102 and thus further reduces motor interference, with the advantages mentioned above.

In der Abbildung ist die Bewegungsrichtung 104 des Endeffektors 204a dabei parallel zu der Bewegungsrichtung 124 der Hand 214a. Die Bewegung 104 des Endeffektors 204a kann jedoch auch antiparallel (entlang paralleler Geraden, jedoch mit entgegengesetztem Vorzeichen der Bewegungsrichtung) zu der Bewegungsrichtung 124 der Hand 214a ausgeführt werden, wenn dies die Richtung ist, die den Endeffektor 204a der Soll-Position 114 näher bringt.In the illustration, the direction of movement 104 of the end effector 204a is parallel to the direction of movement 124 of the hand 214a. However, the movement 104 of the end effector 204a can also be carried out antiparallel (along parallel straight lines, but with the opposite sign of the direction of movement) to the direction of movement 124 of the hand 214a, if this is the direction that brings the end effector 204a closer to the target position 114.

In dem gezeigten Ausführungsbeispiel erreicht der Endeffektor 204a am Ende von Schritt 320 das Ende des kongruenten Teils 116a der Trajektorie 116, während sich die menschliche Hand 214a noch weiter mit der Bewegungsrichtung 124 bewegt. Um die Soll-Position 114 zu erreichen, verbleibt für den Endeffektor 204a der inkongruente Teil 116b der Trajektorie 116. Folglich gibt es keine mit der Bewegung 124 der menschlichen Hand 214a kongruente Bewegung für den (Endeffektor 204a des) Roboter(s) 102, die diesen der Soll-Position 114 näher bringen würde.In the embodiment shown, at the end of step 320, the end effector 204a reaches the end of the congruent part 116a of the trajectory 116 while the human hand 214a continues to move with the direction of movement 124. In order to reach the target position 114, the incongruent part 116b of the trajectory 116 remains for the end effector 204a. Consequently, there is no movement for the (end effector 204a of the) robot(s) 102 that is congruent with the movement 124 of the human hand 214a would bring this closer to the target position 114.

Wie bei Schritt 330 dargestellt, ist nach Erreichen des Endes des kongruenten Teils 116a der Trajektorie 116 eine Wartezeit für die Bewegung des Endeffektors 204a vorgesehen. Mit anderen Worten verharrt der Endeffektor 204a am Ende des kongruenten Teils 116a der Trajektorie 116 für die Dauer der Wartezeit.As shown at step 330, after reaching the end of the congruent portion 116a of the trajectory 116, a waiting time is provided for the movement of the end effector 204a. In other words, the end effector 204a remains at the end of the congruent part 116a of the trajectory 116 for the duration of the waiting time.

Bei dem dargestellten Ausführungsbeispiel endet die Wartezeit, wenn ein zuvor festgelegtes Auslöseereignis eintritt. Alternativ wird eine Wartezeit mit einer festgelegten Dauer vorgesehen, um der menschlichen Hand 214a die Zeit zu geben, die sie erfahrungsgemäß benötigt, um eine ihr zugeordnete Aufgabe zu erfüllen. In dem dargestellten Ausführungsbeispiel besteht die der Hand 214a zugeordnete Aufgabe darin, ein Werkstück 302 auf der Ablagefläche 206 abzulegen.In the illustrated embodiment, the waiting time ends when a predetermined trigger event occurs. Alternatively, a waiting time with a fixed duration is provided in order to give the human hand 214a the time that experience shows it needs to complete a task assigned to it. In the illustrated embodiment, the task assigned to the hand 214a is to place a workpiece 302 on the storage surface 206.

Bei dem dargestellten Ausführungsbeispiel sind zwei Auslöseereignisse festgelegt, und das Eintreten eines der beiden Auslöseereignisse beendet die Wartezeit. Das erste Auslöseereignis besteht darin, dass die menschliche Hand 214a den von dem Sensor 108 überwachten Koexistenzbereich verlässt und vom Sensor 108 nicht mehr darin erfasst wird. Das zweite Auslöseereignis besteht darin, dass die menschliche Hand ein Werkstück 302 freigibt, und dieses auf der Ablagefläche 206 vollständig für den Sensor 108 sichtbar wird. Bei anderen Ausführungsformen können mehr oder weniger Auslöseereignisse vordefiniert sein.In the exemplary embodiment shown, two trigger events are defined, and the occurrence of one of the two trigger events ends the waiting time. The first trigger event is that the human hand 214a leaves the coexistence area monitored by the sensor 108 and is no longer detected therein by the sensor 108. The second trigger event is that the human hand releases a workpiece 302 and this becomes completely visible to the sensor 108 on the storage surface 206. In other embodiments, more or fewer trigger events may be predefined.

Wie bei Schritt 340 dargestellt, wird die Bewegungsrichtung 104 des Endeffektors 204a nach Ende der Wartezeit (nach Eintreten des Auslöseereignisses) entlang des inkongruenten Teils 116b der Trajektorie 116 festgelegt. Die menschliche Hand 214a hat zu diesem Zeitpunkt die ihr zugeordnete Aufgabe, das Ablegen des Werkstückes 302, beendet, und ihre weitere Bewegung, d. h. ihre Rückzugbewegung 208 von der Ablagefläche 206, trägt nicht mehr zu dieser Aufgabe bei. Somit ist eine motorische Interferenz durch den Roboter 102 bei der Rückzugbewegung 208 für die Produktivität des Menschen 122 unschädlich, und die Gesamtproduktivität von Mensch 122 und Roboter 102 wird verbessert, wenn der Roboter 102 die Bewegung 104 entlang des inkongruenten Teils 116b der Trajektorie 116 nach dem Auslöseereignis (während der Rückzugbewegung 208) ausführt.As shown at step 340, the direction of movement 104 of the end effector 204a is determined after the end of the waiting time (after the trigger event occurs) along the incongruent part 116b of the trajectory 116. At this point in time, the human hand 214a has completed the task assigned to it, placing down the workpiece 302, and its further movement, i.e. H. their retreat movement 208 from the storage surface 206 no longer contributes to this task. Thus, motor interference by the robot 102 during the retreat movement 208 is harmless to the productivity of the human 122, and the overall productivity of the human 122 and the robot 102 is improved when the robot 102 supports the movement 104 along the incongruent part 116b of the trajectory 116 Trigger event (during the retreat movement 208) executes.

3 zeigt ein computerimplementiertes Verfahren 400 zum Festlegen einer Bewegungsrichtung eines Roboters 102 gemäß einem weiteren Ausführungsbeispiel. 3 shows a computer-implemented method 400 for determining a direction of movement of a robot 102 according to a further exemplary embodiment.

Der Aufbau des Roboters 102 der 3 ähnelt demjenigen des Roboters der 2.The structure of the robot 102 3 is similar to that of the robot 2 .

Das Sichtfeld der Kamera 108 ist, entsprechend der Beschreibung im Zusammenhang mit der 2, an einem zuvor festgelegten Koexistenzbereich ausgerichtet, kann jedoch auch bei diesem Ausführungsbeispiel an dem Einflussbereich des Roboters 102 ausgerichtet sein. Der Koexistenzbereich umfasst ein Werkstück 402 sowie einen Bereich um das Werkstück 402.The field of view of the camera 108 is, as described in connection with 2 , at a predetermined coexistence area richly aligned, but can also be aligned with the area of influence of the robot 102 in this exemplary embodiment. The coexistence area includes a workpiece 402 and an area around the workpiece 402.

Bei dem Werkstück 402 handelt es sich um eine faltbare Kiste 402. Der dargestellte Roboter 102 ist im Ganzen auf einer Schiene um die faltbare Kiste 402 beweglich.The workpiece 402 is a foldable box 402. The robot 102 shown is movable as a whole on a rail around the foldable box 402.

Die zu bewältigende Aufgabe des Roboters 102 besteht darin, alle Seitenteile der faltbaren Kiste 402 nach oben zu falten.The task to be accomplished by the robot 102 is to fold up all the side parts of the foldable box 402.

Gemäß der Ausgangssituation 410, bei der kein Mensch von dem Sensor 108 erfasst wird, fährt der Endeffektor 204a hierfür nacheinander die Soll-Position 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d' an bzw. die Teiltraj ektorien 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' ab. Mit anderen Worten bildet die Serie der Teiltrajektorien 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' eine Trajektorie 106, oder die Trajektorie 106 lässt sich in die Teiltrajektorien 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' unterteilen oder aus diesen zusammensetzen.According to the initial situation 410, in which no person is detected by the sensor 108, the end effector 204a successively moves to the target position 114a, 114a ', 114b, 114b', 114c, 114c', 114d, 114d' or the partial trajectory ectories 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d'. In other words, the series of partial trajectories 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' forms a trajectory 106, or the trajectory 106 can be divided into the partial trajectories 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' or composed of these.

Bei Schritt 420 erfasst der Sensor 108 einen menschlichen Arm.At step 420, sensor 108 detects a human arm.

Ausgehend von den Daten des Sensors 108 wird die Bewegungsrichtung 124 der menschlichen Hand 214a bestimmt und ihre Bewegungsrichtung 126 vorhergesagt (prädiziert), wie im Zusammenhang mit 2 beschrieben.Based on the data from the sensor 108, the direction of movement 124 of the human hand 214a is determined and its direction of movement 126 is predicted (predicted), as in connection with 2 described.

Ein Routenplanungsprozessor (nicht dargestellt) wählt unter den Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' für den Roboter 102 diejenige aus, für die ein Trajektorienabschnitt 116 von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position die höchste Kongruenz (das geringste Inkongruenzmaß) mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a aufweist.A route planning processor (not shown) selects from among the target positions 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' for the robot 102 the one for which a trajectory section 116 depends on the actual position of the end effector 204a has the highest congruence (the lowest degree of incongruity) with the predicted direction of movement 126 of the human hand 214a to the selected target position.

Genauer gesagt, wird bei dem dargestellten Ausführungsbeispiel die Auswahl nicht unter allen Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' getroffen, sondern nur unter einer Unterauswahl mit den Soll-Position 114a, 114b, 114c, 114d. Die anderen Soll-Positionen 114a', 114b', 114c', 114d' werden nur dann berücksichtigt, wenn sich der Endeffektor 204a an (oder in einer Umgebung) einer jeweils assoziierten Ausgangsposition befindet, nämlich an der Ausgangposition 114a für die Soll-Position 114a', an der Ausgangposition 114b für die Soll-Position 114b', an der Ausgangposition 114c für die Soll-Position 114c', oder an der Ausgangposition 114d für die Soll-Position 114d'.More precisely, in the exemplary embodiment shown, the selection is not made from all target positions 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d', but only from a subselection with the target positions 114a, 114b , 114c, 114d. The other target positions 114a', 114b', 114c', 114d' are only taken into account if the end effector 204a is located at (or in an environment) of a respective associated starting position, namely at the starting position 114a for the target position 114a ', at the starting position 114b for the target position 114b', at the starting position 114c for the target position 114c', or at the starting position 114d for the target position 114d'.

Anhand von optionalen Randbedingungen können weitere oder andere Soll-Positionen 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d' aus der Unterauswahl ausgeschlossen oder bei ähnlicher Kongruenz in der Auswahl bevorzugt werden.On the basis of optional boundary conditions, additional or different target positions 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d' can be excluded from the subselection or preferred in the selection if there is similar congruence.

Als optionale Randbedingung kann eingeführt werden, dass eine Kollisionswahrscheinlichkeit zwischen der menschlichen Hand 214a gemäß ihrer Bewegungsrichtung 124 und den Soll-Positionen der Unterauswahl einen kritischen Wert nicht übersteigen darf.As an optional boundary condition, it can be introduced that a collision probability between the human hand 214a according to its direction of movement 124 and the target positions of the subselection must not exceed a critical value.

Ebenfalls optional kann unter Soll-Positionen, für die die jeweiligen Trajektorienabschnitte von der Ist-Position des Endeffektors 204a zu den jeweiligen Soll-Positionen ähnliche Kongruenzen mit der Bewegungsrichtung 124 der menschlichen Hand 214a aufweisen, diejenige ausgewählt werden, die am nächsten an der Ist-Position des Endeffektors 204a gelegen ist.Also optionally, among target positions for which the respective trajectory sections from the actual position of the end effector 204a to the respective target positions have similar congruences with the direction of movement 124 of the human hand 214a, the one that is closest to the actual position can be selected. Position of the end effector 204a is located.

Ebenfalls optional kann unter Soll-Positionen, für die die jeweiligen Trajektorienabschnitte von der Ist-Position des Endeffektors 204a zu den jeweiligen Soll-Positionen ähnliche Kongruenzen mit der Bewegungsrichtung 124 der menschlichen Hand 214a aufweisen, diejenige ausgewählt werden, die die geringste Kollisionswahrscheinlichkeit mit der menschlichen Hand 214a aufweist.Also optionally, among target positions for which the respective trajectory sections from the actual position of the end effector 204a to the respective target positions have similar congruences with the direction of movement 124 of the human hand 214a, the one which has the lowest probability of collision with the human hand can be selected Hand 214a has.

In dem dargestellten Beispiel weist der Trajektorienabschnitt 116a von der Ist-Position des Endeffektors 204a zu der Soll-Position 114d eine höhere Kongruenz auf als ein Trajektorienabschnitt von der Ist-Position des Endeffektors 204a zu der Soll-Position 114a (oder zu der Soll-Position 114b, oder zu der Soll-Position 114c). Somit wird die Soll-Position 114d von dem Routenplanungsprozessor ausgewählt.In the example shown, the trajectory section 116a from the actual position of the end effector 204a to the target position 114d has a higher congruence than a trajectory section from the actual position of the end effector 204a to the target position 114a (or to the target position 114b, or to the target position 114c). Thus, the target position 114d is selected by the route planning processor.

Die Bewegungsrichtung 104 des Endeffektors 204a wird entlang einer Trajektorie 116a von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position 114d festgelegt. Die Trajektorie 116a von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position 114d wird mithilfe eines konventionellen Verfahrens bestimmt, wie beispielsweise im Zusammenhang mit der Trajektorie 106 von Schritt 110 der 1 beschrieben.The direction of movement 104 of the end effector 204a is determined along a trajectory 116a from the actual position of the end effector 204a to the selected target position 114d. The trajectory 116a from the actual position of the end effector 204a to the selected target position 114d is determined using a conventional method, such as in connection with the trajectory 106 of step 110 of the 1 described.

Schritt 430 illustriert eine Variante des im Zusammenhang mit Schritt 410, 420 beschriebenen Verfahrens. Die Variante nach Schritt 430 kann mit dem Verfahren von Schritt 410, 420 kombiniert oder alternativ dazu durchgeführt werden.Step 430 illustrates a variant of the method described in connection with steps 410, 420. The variant according to step 430 can be combined with the method of steps 410, 420 or carried out as an alternative.

Wie im Zusammenhang mit Schritt 420 beschrieben, erfasst bei Schritt 430 der Sensor 108 einen menschlichen Arm. Ausgehend von den Daten des Sensors 108 wird die Bewegungsrichtung 124 der menschlichen Hand 214a bestimmt und ihre Bewegungsrichtung 126 vorhergesagt (prädiziert).As described in connection with step 420, at step 430 the sensor 108 detects a human arm. Based on the data from the sensor 108, the direction of movement 124 of the human hand 214a is determined and its direction of movement 126 is predicted (predicted).

Bei Schritt 430 befindet sich der Endeffektor 204a an (oder in einer Umgebung) einer Ist-Position 114d, die einer der im Zusammenhang mit Schritt 410 beschriebenen Soll-Position 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' entspricht.At step 430, the end effector 204a is located at (or in a vicinity of) an actual position 114d, which is one of the target positions 114a, 114a ', 114b, 114b', 114e, 114c', 114d described in connection with step 410. 114d' corresponds.

Eine entsprechende Ist-Position des Endeffektors 204a kann sich zufällig im Rahmen des Verfahrens nach Schritt 410, 420 ergeben, und das Verfahren nach Schritt 410, 420 kann eine Prüfung auf eine entsprechende Ist-Position umfassen. Dies führt zu einer Kombination der beiden Verfahren.A corresponding actual position of the end effector 204a can arise randomly as part of the method according to step 410, 420, and the method according to step 410, 420 can include a check for a corresponding actual position. This leads to a combination of the two procedures.

Alternativ oder zusätzlich lässt sich die Trajektorie 106 von Schritt 410 in sehr viele Teiltrajektorien unterteilen bzw. es lassen sich sehr viele (Zwischen-)Soll-Positionen entlang der Trajektorie 106 von Schritt 410 einführen, um die Wahrscheinlichkeit zu erhöhen, dass sich der Endeffektor 204a an einer der (Zwischen-)Soll-Positionen befindet. Eine Größe der Umgebung der Soll-Positionen kann zudem so gewählt werden, dass sich der Endeffektor 204a stets in der Umgebung einer der Soll-Positionen befindet.Alternatively or additionally, the trajectory 106 from step 410 can be divided into a large number of sub-trajectories or a large number of (intermediate) target positions can be introduced along the trajectory 106 from step 410 in order to increase the probability that the end effector 204a is at one of the (intermediate) target positions. A size of the area surrounding the target positions can also be selected so that the end effector 204a is always in the area of one of the target positions.

Wie im Zusammenhang mit Schritt 420 beschrieben, wählt ein Routenplanungsprozessor unter den Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' für den Roboter 102 diejenige aus, für die ein Trajektorienabschnitt von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position die höchste Kongruenz (das geringste Inkongruenzmaß) mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a aufweist. Dies ist im dargestellten Ausführungsbeispiel die Soll-Position 114d'.As described in connection with step 420, a route planning processor selects from among the target positions 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' for the robot 102 the one for which a trajectory section differs from the actual Position of the end effector 204a to the selected target position has the highest congruence (the lowest degree of incongruity) with the predicted direction of movement 126 of the human hand 214a. In the exemplary embodiment shown, this is the target position 114d'.

Da es sich bei der Ist-Position 114d des Endeffektors 204a um eine der Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' handelt, entspricht jeder der bei der Auswahl in Frage kommenden Trajektorienabschnitte einer Bahnkurve zwischen einem Paar von Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d'.Since the actual position 114d of the end effector 204a is one of the target positions 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d', each of the trajectory sections that come into question in the selection corresponds to one Trajectory between a pair of target positions 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d'.

Bei diesem Ausführungsbeispiel ist für jedes Paar von Soll-Positionen 114a, 114a', 114b, 114b', 114c, 114c , 114d, 114d' eine Bahnkurve in einem Speicher hinterlegt.In this exemplary embodiment, a trajectory is stored in a memory for each pair of target positions 114a, 114a', 114b, 114b', 114c, 114c, 114d, 114d'.

Die hinterlegten Bahnkurven wurden zu einem früheren Zeitpunkt vordefiniert, und insbesondere sicherheitsbewertet.The stored trajectories were predefined at an earlier point in time and, in particular, safety-assessed.

Somit vergleicht der Routenplanungsprozessor bei der Auswahl die hinterlegten Bahnkurven mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a, um jeweils ihre Kongruenz mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a zu bestimmen und diejenige hinterlegte Bahnkurven mit der höchsten Kongruenz auszuwählen.Thus, during selection, the route planning processor compares the stored trajectories with the predicted direction of movement 126 of the human hand 214a in order to determine their congruence with the predicted direction of movement 126 of the human hand 214a and to select the stored trajectories with the highest congruence.

Das Zurückgreifen auf hinterlegte Bahnkurven erhöht die Effizienz des computerimplementierten Verfahrens, indem es vermeidet, dass Trajektorien(abschnitte) 116a wie in Schritt 420 berechnet werden müssen.Relying on stored trajectories increases the efficiency of the computer-implemented method by avoiding the need to calculate trajectories (sections) 116a as in step 420.

In dem dargestellten Schritt 430 weist (ausgehend von der Ist-Position 114d) die Bahnkurve 106d' zu der Soll-Position 114d' die größte Kongruenz mit der prädizierten Bewegung 126 der menschlichen Hand 214a auf und wird ausgewählt.In the step 430 shown, the trajectory 106d' to the target position 114d' has the greatest congruence with the predicted movement 126 of the human hand 214a (starting from the actual position 114d) and is selected.

Die Bewegungsrichtung 104 des Endeffektors 204a wird entlang der ausgewählten Bahnkurve 106d' zu der Soll-Position 114d' festgelegt. Somit ist eine kongruente Bewegung zwischen Roboter 102 und Mensch 122 erreicht, mit einer geringen motorischen Interferenz und mit den oben genannten Vorteilen.The direction of movement 104 of the end effector 204a is determined along the selected trajectory 106d' to the desired position 114d'. A congruent movement between robot 102 and human 122 is thus achieved, with little motor interference and with the advantages mentioned above.

4a, 4b und 4c illustrieren Erweiterungen und Variationen des Verfahrens. 4a , 4b and 4c illustrate extensions and variations of the procedure.

Die Abbildungen beziehen sich auf das Verfahren von 1 und schließen an dessen Schritt 120 an. Die beschriebenen Erweiterungen und Variationen lassen sich jedoch ebenfalls auf die Verfahren von 2 und 3 anwenden, ohne dass dies umfassender Erläuterungen bedarf. Ergänzende Erläuterungen werden entsprechend nur dort gegeben, wo die Anwendung auf die Verfahren von 2 und 3 dies nötig erscheinen lässt.The illustrations refer to the process of 1 and follow on from step 120. However, the extensions and variations described can also be applied to the methods of 2 and 3 apply without the need for extensive explanations. Additional explanations are only given where they apply to the procedures of 2 and 3 makes this seem necessary.

Schritt 120 von 4a, 4b, 4c entspricht Schritt 120 von 1.Step 120 of 4a , 4b , 4c corresponds to step 120 of 1 .

Bei Schritt 120 von 4a, 4b, 4c (und ebenso bei den Schritten 120, 320, 420, 430) wird zudem optional anhand der Daten des Sensors 108 ein Abstand zwischen dem Roboter 102 und dem Menschen 122 (dem menschlichen Körperteil) bestimmt. Unterschreitet dieser Abstand einen Sicherheitsabstand, so wird der Bewegungsrichtung 104 eine Komponente weg von dem Menschen 122 hinzugefügt, um den Abstand zwischen Mensch 122 und Roboter 102 zu vergrößern.At step 120 of 4a , 4b , 4c (and also in steps 120, 320, 420, 430) a distance between the robot 102 and the human 122 (the human body part) is optionally determined based on the data from the sensor 108. If this distance falls below a safety distance, a component away from the human 122 is added to the direction of movement 104 in order to increase the distance between the human 122 and the robot 102.

Der Sicherheitsabstand kann zuvor (absolut) festgelegt worden sein.The safety distance may have been previously (absolutely) determined.

Alternativ kann der Sicherheitsabstand bei jedem Verfahrensschritt (bzw. in jeder Iteration) angepasst werden, insbesondere in Abhängigkeit von einer Ablenkung eines menschlichen Körper(teil)s, wie im Zusammenhang mit 5a, 5b, 5c, 6a, 6b, 6c beschrieben.Alternatively, the safety distance can be adjusted at each method step (or in each iteration), in particular depending on a distraction of a human body (part), as in connection with 5a , 5b , 5c , 6a , 6b , 6c described.

In 4a entfernt sich der Mensch 122 bei Schritt 110' aus dem Sichtfeld des Sensors 108. Da der Sensor 108 keinen Menschen erfasst, geht das Verfahren zu Schritt 110' über, der der im Zusammenhang mit 1 beschriebenen Ausgangssituation 110 entspricht. Entsprechend gehen die Verfahren 300, 400 zur jeweiligen Ausgangssituation 310, 410 über, wenn der Sensor 108 keinen Menschen oder kein menschliches Körperteil erfasst.In 4a The human 122 moves away from the field of view of the sensor 108 in step 110 '. Since the sensor 108 does not detect a human, the method proceeds to step 110 ', which is the one in connection with 1 corresponds to the initial situation 110 described. Accordingly, the methods 300, 400 proceed to the respective initial situation 310, 410 if the sensor 108 does not detect a human or a human body part.

In 4b schlägt der Mensch 122 bei Schritt 120' eine neue Bewegungsrichtung 124' ein. Das Verfahren vollführt in Schritt 120' die gleichen Schritte wie im Zusammenhang mit Schritt 120 der 1 beschrieben, jedoch hinsichtlich des Menschen 122 mit der neuen Bewegungsrichtung 124'. Die Schritte 120, 120' werden iterativ und kontinuierlich ausgeführt.In 4b the human 122 takes a new direction of movement 124' in step 120'. The method performs the same steps in step 120 'as in connection with step 120 of 1 described, but with regard to the person 122 with the new direction of movement 124 '. Steps 120, 120' are carried out iteratively and continuously.

Entsprechend werden die Verfahren der 1, 2, 3 hinsichtlich der Schritte 120, 320, 420, 430 iterativ ausgeführt, wobei in jedem Schritt 120, 320, 420, 430 die Bewegungsrichtung des Menschen 122 bzw. des menschlichen Körperteils neu bestimmt und zur Grundlage der nachfolgenden Berechnungen gemacht wird.The procedures of the 1 , 2 , 3 carried out iteratively with regard to steps 120, 320, 420, 430, the direction of movement of the human 122 or the human body part being redetermined in each step 120, 320, 420, 430 and being made the basis for the subsequent calculations.

In 4c erreicht der Roboter 102 bei Schritt 130 das Ende des kongruenten Teils 116a der Trajektorie 116.In 4c the robot 102 reaches the end of the congruent part 116a of the trajectory 116 at step 130.

Entsprechend einigen Ausführungsformen wird die Bewegung 104 des Roboters 102 direkt im Anschluss entlang des inkongruenten Teils 116b der Trajektorie 116 geführt, sodass der Roboter 102 schnellstmöglich die Soll-Position 114 erreicht.According to some embodiments, the movement 104 of the robot 102 is then guided directly along the incongruent part 116b of the trajectory 116 so that the robot 102 reaches the target position 114 as quickly as possible.

Bei anderen Ausführungsformen wartet der Roboter 102, bis der Sensor 108, wie in 4a dargestellt, keinen Menschen 122 erfasst und führt dann einen entsprechenden Schritt 110' aus.In other embodiments, the robot 102 waits until the sensor 108, as in 4a shown, no person 122 is detected and then carries out a corresponding step 110 '.

Bei wieder anderen Ausführungsformen wird eine Wartezeit für den Roboter 102 vorgesehen, deren Dauer vordefiniert ist oder durch ein Auslöseereignis bestimmt wird, wie im Zusammenhang mit dem Verfahren 300 von 2 beschrieben. Am Ende der Wartezeit wird der Roboter 102 entlang des inkongruenten Teils 116b der Trajektorie 116 geführt.In still other embodiments, a waiting time is provided for the robot 102, the duration of which is predefined or determined by a trigger event, as in the context of the method 300 of 2 described. At the end of the waiting time, the robot 102 is guided along the incongruent part 116b of the trajectory 116.

Während der Wartezeit wird der Sensor 108 kontinuierlich betrieben. Wird aufgrund des Sensors 108 eine Änderung der Bewegungsrichtung des Menschen 122 festgestellt, wird eine neue Trajektorie 116 festgelegt wie im Zusammenhang mit Schritt 120' der 4b beschrieben, um den Roboter 102 näher an die Soll-Position 114 zu bringen.During the waiting time, the sensor 108 is operated continuously. If a change in the direction of movement of the human 122 is detected due to the sensor 108, a new trajectory 116 is determined as in connection with step 120 ' 4b described to bring the robot 102 closer to the target position 114.

Zur Quantifizierung der Kongruenz wird in allen zuvor beschriebenen Ausführungsformen ein Inkongruenzmaß verwendet. Je geringer das Inkongruenzmaß zwischen zwei Bewegungen oder Bewegungsrichtungen, desto kongruenter sind die beiden Bewegungen oder Bewegungsrichtungen.To quantify the congruence, an incongruence measure is used in all previously described embodiments. The lower the degree of incongruity between two movements or directions of movement, the more congruent the two movements or directions of movement are.

5a, 5b, 5c illustrieren ein Verfahren 500 zum Errechnen eines Inkongruenzma-ßes 514, einer Bewegungsablenkung 508 und einer korrigierten Bewegungsrichtung 506 gemäß einer ersten Ausführungsform. 5a , 5b , 5c illustrate a method 500 for calculating an incongruence measure 514, a movement deflection 508 and a corrected movement direction 506 according to a first embodiment.

Bei Schritt 510 erfasst der Sensor 108 den Menschen 122 oder ein menschliches Körperteil.At step 510, sensor 108 detects human 122 or a human body part.

Wie im Zusammenhang mit Schritt 120 von 1 beschrieben, wird auf Grundlage der Daten des Sensors 108 eine Bewegungsrichtung 124 des Menschen oder des menschlichen Körperteils bestimmt.As related to step 120 of 1 described, a direction of movement 124 of the human or the human body part is determined based on the data from the sensor 108.

Zudem wird eine Bewegungsrichtung 104 des Roboters 102 bestimmt. Dies kann auf Grundlage der Daten des Sensors 108 erfolgen. Bevorzugterweise wird die Bewegungsrichtung 104 und optional eine Position des Roboters 102 jedoch von einem Steuerungssystem des Roboters 102 bereitgestellt.In addition, a direction of movement 104 of the robot 102 is determined. This can be done based on the data from sensor 108. However, the direction of movement 104 and optionally a position of the robot 102 are preferably provided by a control system of the robot 102.

Aufgrund der Position des Roboters 102 und der Daten des Sensors 108, der den Menschen 122 erfasst, wird zudem optional ein Abstand 502 zwischen Mensch 122 und Roboter 102 bestimmt.Based on the position of the robot 102 and the data from the sensor 108 that detects the human 122, a distance 502 between the human 122 and the robot 102 is also optionally determined.

Bevorzugt werden zusätzlich zu den Bewegungsrichtungen 104, 124 von Roboter 102 und Mensch 122 (menschlichem Körperteil) auch deren jeweilige Bewegungsgeschwindigkeiten bestimmt. Somit ist die Bewegung von Roboter 102 und Mensch 122 (menschlichem Körperteil) vollständig, d. h. hinsichtlich Richtung und Geschwindigkeit, bestimmt.In addition to the movement directions 104, 124 of robot 102 and human 122 (human body part), their respective movement speeds are preferably also determined. Thus, the movement of robot 102 and human 122 (human body part) is complete, i.e. H. in terms of direction and speed.

Eine entsprechende Bestimmung der Geschwindigkeiten findet bevorzugt auch im Rahmen der Schritte 120, 320, 420, 430 der Verfahren 100, 300, 400 statt.A corresponding determination of the speeds preferably also takes place as part of steps 120, 320, 420, 430 of methods 100, 300, 400.

Bei Schritt 520 wird der Zwischenwinkel 514 zwischen den Bewegungsrichtungen 104, 124 von Roboter 102 und Mensch 122 als Inkongruenzmaß 514 bestimmt. Die Bestimmung kann von dem Bildverarbeitungsprozessor, dem Routenplanungsprozessor oder einem weiteren Prozessor durchgeführt werden.At step 520, the intermediate angle 514 between the directions of movement 104, 124 of robot 102 and human 122 is determined as incongruence measure 514. The determination can be made by the image processing processor, the route planning pro processor or another processor.

Bei einigen Ausführungsformen werden vor dem Bestimmen des Zwischenwinkels 514 auf Grundlage der Bewegungsrichtungen 104, 124 zunächst Geraden 504, 524 konstruiert, die die Bewegungsrichtungen 104, 124 enthalten. Zwischen den Geraden 504, 524 ergeben sich zwei verschiedene Zwischenwinkel, die sich zu 180° summieren. Als Inkongruenzmaß wird bei entsprechenden Ausführungsformen stets der kleinere Zwischenwinkel 514 verwendet. Bei entsprechenden Ausführungsformen hat eine gegenläufige bzw. antiparallele Bewegung 104, 124 von Roboter 102 und Mensch 122 ein minimales Inkongruenzmaß (ist maximal kongruent).In some embodiments, before determining the intermediate angle 514 based on the movement directions 104, 124, straight lines 504, 524 containing the movement directions 104, 124 are first constructed. There are two different intermediate angles between the straight lines 504, 524, which add up to 180°. In corresponding embodiments, the smaller intermediate angle 514 is always used as the incongruity measure. In corresponding embodiments, a counter-rotating or anti-parallel movement 104, 124 of robot 102 and human 122 has a minimum incongruity measure (is maximally congruent).

Bei Schritt 530 wird auf Grundlage des Inkongruenzmaßes 514 und der Bewegungsrichtung 124 des Menschen 122 (menschlichen Körperteils) eine Bewegungsablenkung 508 sowie eine um die Bewegungsablenkung 508 korrigierte Bewegungsrichtung 506 des Menschen 122 (menschlichen Körperteils) errechnet.At step 530, a movement deflection 508 and a movement direction 506 of the person 122 (human body part) corrected by the movement deflection 508 are calculated based on the incongruence measure 514 and the direction of movement 124 of the human 122 (human body part).

Die Richtung der Bewegungsablenkung 508 steht senkrecht auf der Bewegungsrichtung 124 des Menschen 122. Sie zeigt dabei von dem Roboter 102 weg (entsprechend der Positionen von Roboter 102 und Mensch 122 in 5a).The direction of movement deflection 508 is perpendicular to the direction of movement 124 of human 122. It points away from robot 102 (corresponding to the positions of robot 102 and human 122 in 5a) .

Der Betrag der Bewegungsablenkung 508 nimmt mit dem Inkongruenzmaß 514 (insbesondere monoton oder streng monoton) zu.The amount of movement deflection 508 increases with the incongruity measure 514 (in particular monotonically or strictly monotonically).

Optional nimmt der Betrag der Bewegungsablenkung 508 mit abnehmendem Abstand 502 zwischen Mensch 122 und Roboter 102 (insbesondere monoton oder streng monoton) zu.Optionally, the amount of movement deflection 508 increases as the distance 502 between human 122 and robot 102 decreases (in particular monotonically or strictly monotonically).

Optional nimmt der Betrag der Bewegungsablenkung 508 mit der Menschenähnlichkeit des Roboters 102 (insbesondere monoton oder streng monoton) zu, insbesondere für eine hinreichend kleine Menschenähnlichkeit. Überschreitet die Menschenähnlichkeit einen kritischen Wert, so nimmt der Betrag der Bewegungsablenkung 508 typischerweise zunächst ab (Uncanny Valley Effekt), um dann, wenn er einen weiteren (höheren) kritischen Wert überschreitet, wieder zuzunehmen.Optionally, the amount of movement deflection 508 increases with the human-likeness of the robot 102 (in particular monotonically or strictly monotonically), in particular for a sufficiently small human-likeness. If the human-likeness exceeds a critical value, the amount of motion deflection 508 typically initially decreases (uncanny valley effect) and then increases again when it exceeds a further (higher) critical value.

Die korrigierte Bewegungsrichtung 506 des Menschen 122 (menschlichen Körperteils) ergibt sich durch Überlagerung der Bewegungsablenkung 508 mit der Bewegung 124 des Menschen 122, beispielsweise anhand einer Vektoraddition.The corrected direction of movement 506 of the human 122 (human body part) results from superimposing the movement deflection 508 with the movement 124 of the human 122, for example using a vector addition.

6a, 6b, 6c illustrieren ein Verfahren 600 zum Errechnen eines Inkongruenzma-ßes 614, einer Bewegungsablenkung 508 und einer korrigierten Bewegungsrichtung 506 gemäß einer zweiten Ausführungsform. 6a , 6b , 6c illustrate a method 600 for calculating an incongruence measure 614, a movement deflection 508 and a corrected movement direction 506 according to a second embodiment.

Der Schritt 610 von 6a entspricht dem Schritt 510 von 5a wie oben beschrieben. Dabei werden die Bewegungsgeschwindigkeiten von Roboter 102 und Mensch 122 bestimmt, so dass die Bewegungen von Roboter 102 und Mensch 122 (menschlichem Körperteil) vollständig, d. h. hinsichtlich Richtung und Geschwindigkeit, bestimmt sind.The step 610 of 6a corresponds to step 510 of 5a as described above. The movement speeds of robot 102 and human 122 are determined, so that the movements of robot 102 and human 122 (human body part) are completely determined, ie in terms of direction and speed.

Bei Schritt 620 wird die Vektordifferenz 614 zwischen den Bewegungsrichtungen 104, 124 von Roboter 102 und Mensch 122 als Inkongruenzmaß 614 bestimmt. Mit anderen Worten wird die Vektorsumme aus der Bewegungsrichtung 104 des Roboters 102 und dem Negativen -124 der Bewegungsrichtung 124 des Menschen 122 als Inkongruenzmaß 614 bestimmt.At step 620, the vector difference 614 between the movement directions 104, 124 of robot 102 and human 122 is determined as incongruence measure 614. In other words, the vector sum of the direction of movement 104 of the robot 102 and the negative -124 of the direction of movement 124 of the human 122 is determined as the incongruity measure 614.

Optional wird zur Bestimmung des Inkongruenzmaßes 614 zudem der Betrag des Differenzvektors 614 gebildet.Optionally, the amount of the difference vector 614 is also formed to determine the incongruence measure 614.

Bei Schritt 630 wird auf Grundlage des Inkongruenzmaßes 614 und der Bewegungsrichtung 124 des Menschen 122 (menschlichen Körperteils) eine Bewegungsablenkung 508 sowie eine um die Bewegungsablenkung 508 korrigierte Bewegungsrichtung 506 des Menschen 122 (menschlichen Körperteils) errechnet.At step 630, a movement deflection 508 and a movement direction 506 of the person 122 (human body part) corrected by the movement deflection 508 are calculated based on the incongruence measure 614 and the direction of movement 124 of the human 122 (human body part).

Der Schritt 630 von 6c entspricht dem Schritt 530 von 5c wie oben beschrieben. Dabei ersetzt das Inkongruenzmaß 614 das Inkongruenzmaß 514.The step 630 of 6c corresponds to step 530 of 5c as described above. The incongruence measure 614 replaces the incongruence measure 514.

7a, 7b illustrieren die Menschenähnlichkeit anhand zweier unterschiedlicher Roboter 102. 7a , 7b illustrate the similarity to humans using two different robots 102.

Der Roboter 102 der 7a weist eine hohe Menschenähnlichkeit auf. Die Anzahl und Anordnung seiner Glieder 704a, 704b, 704c, 704d, 704e und Gelenke 702a, 702b, 702c, 702d ähnelt derjenigen bei Menschen.The robot 102 the 7a shows a high degree of human resemblance. The number and arrangement of its limbs 704a, 704b, 704c, 704d, 704e and joints 702a, 702b, 702c, 702d are similar to those in humans.

Der Roboter 102 der 7b weist eine geringe Menschenähnlichkeit auf. Die Anzahl und Anordnung seiner Glieder 704a, 704b, 704c und Gelenke 702a, 702b unterscheidet sich von derjenigen bei Menschen.The robot 102 the 7b has little resemblance to humans. The number and arrangement of its limbs 704a, 704b, 704c and joints 702a, 702b differs from that of humans.

Zur Quantifizierung der Menschenähnlichkeit werden Referenzversuche durchgeführt. Der Mensch wird angewiesen, vordefinierte Bewegungen auszuführen, einmal in Abwesenheit des Roboters, und einmal in Anwesenheit des Roboters, wobei der Roboter ebenfalls vordefinierte Referenzbewegungen ausführt. Mithilfe von Kameras werden die Bewegungen des Menschen in beiden Situationen aufgezeichnet. Aus einem Vergleich wird die Bewegungsablenkung (motorische Interferenz) des Menschen durch den Roboter bestimmt. Je größer die Bewegungsablenkung in diesem Referenzversuch, umso höher die Menschenähnlichkeit des Roboters.Reference tests are carried out to quantify human resemblance. The human is instructed to carry out predefined movements, once in the absence of the robot and once in the presence of the robot, whereby the robot also performs predefined reference movements gen. Cameras are used to record people's movements in both situations. From a comparison, the movement distraction (motor interference) of the human by the robot is determined. The greater the movement deflection in this reference test, the more human-like the robot is.

8 fasst ein computerimplentiertes Verfahren 800 zum Festlegen einer Bewegungsrichtung für einen Roboter zusammen. 8th summarizes a computer-implemented method 800 for determining a movement direction for a robot.

Bei Schritt 802 wird eine erste Bewegungsrichtung eines menschlichen Körperteils erfasst.At step 802, a first direction of movement of a human body part is detected.

Bei Schritt 804 wird eine prädizierte Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung errechnet.At step 804, a predicted direction of movement of the human body part is calculated based on the first direction of movement.

Bei Schritt 806 wird die Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung festgelegt.At step 806, the direction of movement of the robot is determined based on an incongruence measure between the direction of movement of the robot and the predicted direction of movement.

9 illustriert ein Computersystem 900 zum Durchführen der beschriebenen Verfahren. 9 illustrates a computer system 900 for performing the described methods.

Das Computersystem 900 weist ein Sensorsystem mit dem Sensor 108 auf.The computer system 900 has a sensor system with the sensor 108.

Das Sensorsystem ist über eine Datenleitung 916 zum Übertragen von Daten 902, in denen Informationen hinsichtlich der Bewegungsrichtung 124 enthalten sind, an mindestens einen Prozessor 906 gekoppelt. Bei bevorzugten Ausführungsformen handelt es sich bei dem Sensor 108 um eine Kamera, und die Daten 902 sind von dem Sensor (der Kamera) 108 erfasste Bilddaten.The sensor system is coupled to at least one processor 906 via a data line 916 for transmitting data 902 containing information regarding the direction of movement 124. In preferred embodiments, sensor 108 is a camera and data 902 is image data captured by sensor (camera) 108.

Der mindestens eine Prozessor 906 umfasst den Bildverarbeitungsprozessor und den Routenplanungsprozessor.The at least one processor 906 includes the image processing processor and the route planning processor.

Entsprechend bestimmt der mindestens eine Prozessor 906 die Bewegungsrichtung 124 des Menschen, wenn dieser von dem Sensor 108 erfasst wurde, und prädiziert die Bewegungsrichtung 126, 908.Accordingly, the at least one processor 906 determines the direction of movement 124 of the human when it has been detected by the sensor 108 and predicts the direction of movement 126, 908.

Optional bestimmt der Prozessor 906 zudem eine menschliche Ablenkung 508 und damit eine korrigierte prädizierte Bewegungsrichtung 506, wie im Zusammenhang mit 5a, 5b, 5c, 6a, 6b, 6c beschrieben.Optionally, the processor 906 also determines a human distraction 508 and thus a corrected predicted direction of movement 506, as in connection with 5a , 5b , 5c , 6a , 6b , 6c described.

Ausgehend von der prädizierten Bewegungsrichtung 126, 908 oder der korrigierten prädizierten Bewegungsrichtung 506 bestimmt der mindestens eine Prozessor 906 ein Inkongruenzmaß zu einer möglichen Bewegungsrichtung 910' des Roboters 102. Bei der möglichen Bewegungsrichtung 910' handelt es sich um eine Variable, die unter Anwendung vorbekannter Verfahren variiert wird, um eine Bewegungsrichtung 910 mit einem geringstmöglichen Inkongruenzmaß zu identifizieren.Based on the predicted direction of movement 126, 908 or the corrected predicted direction of movement 506, the at least one processor 906 determines an incongruence measure with respect to a possible direction of movement 910 'of the robot 102. The possible direction of movement 910' is a variable that is determined using previously known methods is varied in order to identify a direction of movement 910 with the lowest possible degree of incongruity.

Optional bestimmt der mindestens eine Prozessor 906 ausgehend von der möglichen Bewegungsrichtung 910' wiederum eine korrigierte prädizierte Bewegungsrichtung 506, für die wiederum ein Inkongruenzmaß zu der möglichen Bewegungsrichtung 910' bestimmt wird. Optionally, the at least one processor 906, starting from the possible direction of movement 910', in turn determines a corrected predicted direction of movement 506, for which in turn an incongruence measure to the possible direction of movement 910' is determined.

Das Verfahren wird solange iteriert, d. h. die mögliche Bewegungsrichtung 910' solange variiert, bis unter den möglichen Bewegungsrichtungen 910' für den Roboter diejenige identifiziert ist, die das geringste Inkongruenzmaß aufweist.The process is iterated for as long as H. the possible direction of movement 910' varies until the one that has the lowest degree of incongruity is identified among the possible directions of movement 910' for the robot.

Die Bewegungsrichtung 910, die mit dem geringsten Inkongruenzmaß assoziiert ist, wird mithilfe einer Datenleitung 918 an ein Steuerungssystem 912 übermittelt.The direction of movement 910 associated with the lowest level of incongruence is transmitted to a control system 912 using a data line 918.

Das Steuerungssystem 912 generiert entsprechende Steuerbefehle 914 und übermittelt sie mittels einer Datenleitung 920 an den Roboter 102.The control system 912 generates corresponding control commands 914 and transmits them to the robot 102 via a data line 920.

Ein oder mehrere Prozessoren des mindestens einen Prozessors 906 können in dem Sensorsystem oder dem Steuerungssystem 912 umfasst sein.One or more processors of the at least one processor 906 may be included in the sensor system or the control system 912.

LISTE DER BEZUGSZEICHENLIST OF REFERENCE SYMBOLS

100, 200, 300, 400, 800100, 200, 300, 400, 800
VerfahrenProceedings
110, 110', 210, 310110, 110', 210, 310
Ausgangssituationinitial situation
120, 120', 220, 320, 420, 430120, 120', 220, 320, 420, 430
Erfassen der Bewegungsrichtung des menschlichen Körperteils und Festlegen der Bewegungsrichtung des Roboters 13Detecting the direction of movement of the human body part and determining the direction of movement of the robot 13
130, 330130, 330
Wartezeitwaiting period
340340
Festlegen der Bewegungsrichtung des Roboters nach dem ersten Abschnitt entlang des verbleibenden Abschnittes der Trajektorie.Determining the direction of movement of the robot after the first section along the remaining section of the trajectory.
102102
Roboterrobot
104104
Bewegungsrichtung (Bewegung) des RobotersDirection of movement (movement) of the robot
106106
Trajektorie in Abwesenheit des MenschenTrajectory in the absence of humans
108108
Sensor, KameraSensor, camera
112112
Ist-Position des RobotersActual position of the robot
114, 114a, 114b, 114c, 114d114, 114a, 114b, 114c, 114d
Soll-Position des RobotersTarget position of the robot
116116
Trajektorie bei Erfassen des MenschenTrajectory when detecting people
116a116a
kongruenter Teilcongruent part
116b116b
inkongruenter Teilincongruent part
122122
menschlicher Körperhuman body
124, 124'124, 124'
Bewegungsrichtung (Bewegung) des MenschenDirection of movement (movement) of the person
126, 126'126, 126'
prädizierte Bewegungsrichtung (Bewegung) des Menschenpredicted direction of movement (movement) of the human being
202a, 202b, 202c202a, 202b, 202c
Gelenke des RobotersJoints of the robot
204a, 204b, 204C, 204d204a, 204b, 204C, 204d
Glieder des RobotersLimbs of the robot
206206
Ablagefläche, KoexistenzbereichStorage space, coexistence area
212a, 212b212a, 212b
menschliche Gelenkehuman joints
214a, 214b, 214c214a, 214b, 214c
Glieder des Menschenhuman limbs
302302
Werkstückworkpiece
402402
Kiste (Werkstück)box (workpiece)
502502
Abstand zwischen Mensch und RoboterDistance between humans and robots
504504
Gerade mit Bewegungsrichtung (Bewegung) des RobotersEspecially with the direction of movement (movement) of the robot
506506
prädizierte Körperrichtungpredicted body direction
508508
Bewegungsablenkung des MenschenDistraction of human movement
514514
Inkongruenzmaß (Zwischenwinkel)Incongruence measure (intermediate angle)
614614
Inkongruenzmaß (Vektordifferenz)Incongruence measure (vector difference)
702a, 702b, 702c, 702d702a, 702b, 702c, 702d
Gelenke des RobotersJoints of the robot
704a, 704b, 704c, 704d, 704e704a, 704b, 704c, 704d, 704e
Glieder des RobotersLimbs of the robot
900900
ComputersystemComputer system
902902
DatenData
906906
Prozessorprocessor
908908
prädizierte Bewegungsrichtungpredicted direction of movement
910, 910'910, 910'
Bewegungsrichtung für den RoboterDirection of movement for the robot
912912
SteuerungssystemControl system
914, 916, 918914, 916, 918
DatenleitungData line

Claims (18)

Computerimplentiertes Verfahren (100, 300, 400, 800) zum Festlegen einer Bewegungsrichtung (104) für einen Roboter (102), das Verfahren umfassend: Erfassen (802) einer ersten Bewegungsrichtung (124) eines menschlichen Körperteils (122, 214a); Errechnen (804) einer prädizierten Bewegungsrichtung (126, 506) des menschlichen Körperteils (122, 214a) auf Grundlage der ersten Bewegungsrichtung (124); und Festlegen (806) der Bewegungsrichtung (104) des Roboters (102) auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung (104) des Roboters (102) und der prädizierten Bewegungsrichtung (126, 506), wobei mit dem Roboter (102) eine Ist-Position (112) und mindestens eine Soll-Position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 11,4d') assoziiert ist, und wobei das Verfahren (100, 300, 400) weiterhin umfasst: Identifizieren eines ersten Abschnittes (116a) einer Trajektorie von der Ist-Position (112) zu der mindestens einen Soll-Position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'), wobei ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung (126, 506) und dem ersten Abschnitt (116a) der Trajektorie geringer ist als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung (126, 506) und einem verbleibenden Abschnitt (116b) der Trajektorie von der Ist-Position (112) zu der mindestens einen Soll-Position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'); und Festlegen der Bewegungsrichtung (104) des Roboters (102) entlang des ersten Abschnittes (116a) der Trajektorie.Computer-implemented method (100, 300, 400, 800) for determining a direction of movement (104) for a robot (102), the method comprising: Detecting (802) a first direction of movement (124) of a human body part (122, 214a); Calculating (804) a predicted direction of movement (126, 506) of the human body part (122, 214a) based on the first direction of movement (124); and Determining (806) the direction of movement (104) of the robot (102) based on an incongruence measure between the direction of movement (104) of the robot (102) and the predicted direction of movement (126, 506), wherein an actual position (112) and at least one target position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 11.4d') are associated with the robot (102), and where the method (100, 300, 400) further comprises: Identifying a first section (116a) of a trajectory from the actual position (112) to the at least one target position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'), wherein a Incongruence measure between the predicted direction of movement (126, 506) and the first section (116a) of the trajectory is less than an incongruence measure between the predicted direction of movement (126, 506) and a remaining section (116b) of the trajectory from the actual position (112) to the at least one target position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'); and Determining the direction of movement (104) of the robot (102) along the first section (116a) of the trajectory. Verfahren (100, 300) nach Anspruch 1, wobei der erste Abschnitt (116a) der Trajektorie parallel zu der prädizierten Bewegungsrichtung (126, 506) ist und/oder der verbleibende Abschnitt (116b) der Trajektorie senkrecht zu der prädizierten Bewegungsrichtung (126, 506) ist, oder von der parallelen bzw. senkrechten Ausrichtung um weniger als 8°, insbesondere um weniger als 6° und besonders bevorzugt um weniger als 3° abweicht.Procedure (100, 300) according to Claim 1 , wherein the first section (116a) of the trajectory is parallel to the predicted direction of movement (126, 506) and / or the remaining section (116b) of the trajectory is perpendicular to the predicted direction of movement (126, 506), or from the parallel or vertical orientation deviates by less than 8°, in particular by less than 6° and particularly preferably by less than 3°. Verfahren (400) nach Anspruch 1, wobei der erste Abschnitt (116a) der Trajektorie eine Bahnkurve von der Ist-Position (112) zu einer ersten Soll-Position (114d) der mindestens einen Soll-Position (114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d') ist, und wobei: der verbleibende Abschnitt (116b) der Trajektorie eine Bahnkurve zwischen der ersten Soll-Position (114d) und einer zweiten Soll-Position (114a, 114a', 114b, 114b', 114c, 114c', 11,4d') der mindesten einen Soll-Position (114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d') ist; und/oder ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung (126, 506) und dem ersten Abschnitt (116a) der Trajektorie geringer ist als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung (126, 506) und einer Bahnkurve von der Ist-Position (112) zu den anderen (114a, 114a', 114b, 114b', 114c, 114c', 114d') der mindestens einen Soll-Position (114a, 114a', 114b, 114b', 114c, 114c', 114d').Procedure (400). Claim 1 , wherein the first section (116a) of the trajectory has a trajectory from the actual position (112) to a first target position (114d) of the at least one target position (114a, 114a', 114b, 114b', 114c, 114c' , 114d, 114d'), and wherein: the remaining section (116b) of the trajectory is a trajectory between the first target position (114d) and a second target position (114a, 114a', 114b, 114b', 114c, 114c ', 11,4d') is the at least one target position (114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'); and/or an incongruence measure between the predicted direction of movement (126, 506) and the first section (116a) of the trajectory is less than an incongruence measure between the predicted direction of movement (126, 506) and a trajectory from the actual position (112) to the others (114a, 114a', 114b, 114b', 114c, 114c', 114d') of the at least one target position (114a, 114a', 114b, 114b', 114c, 114c', 114d'). Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche, weiterhin umfassend: Festlegen der Bewegungsrichtung (104) des Roboters (102) nach dem ersten Abschnitt (116a) der Trajektorie entlang des verbleibenden Abschnittes (116b) der Trajektorie.Method (100, 300, 400) according to one of the preceding claims, further comprising: Determining the direction of movement (104) of the robot (102) after the first section (116a) of the trajectory along the remaining section (116b) of the trajectory. Verfahren (100, 300, 400) nach Anspruch 4, weiterhin umfassend: Vorsehen einer Wartezeit nach dem ersten Abschnitt (116a) der Trajektorie, und Festlegen einer Dauer der Wartezeit anhand eines Auslöseereignisses, wobei das Auslöseereignis mit einem menschlichen Körper assoziiert ist, der das menschliche Körperteil (122, 214a) umfasst.Procedure (100, 300, 400). Claim 4 , further comprising: providing a waiting time after the first section (116a) of the trajectory, and determining a duration of the waiting time based on a triggering event, the triggering event being associated with a human body which includes the human body part (122, 214a). Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche, wobei das Erfassen der ersten Bewegungsrichtung (124') mithilfe eines Sensors (108) ausgeführt wird; der Sensor (108) einen räumlichen Nachweisbereich aufweist; und der räumliche Nachweisbereich des Sensors (108) einer Umgebung und/oder einem Einflussbereich des Roboters (102) entspricht.Method (100, 300, 400) according to one of the preceding claims, wherein the detection of the first direction of movement (124') is carried out using a sensor (108); the sensor (108) has a spatial detection area; and the spatial detection area of the sensor (108) corresponds to an environment and/or an area of influence of the robot (102). Verfahren (100, 300, 400) nach Anspruch 6, weiterhin umfassend, wenn sich kein menschliches Körperteil (122, 214a) in dem räumlichen Nachweisbereich des Sensors (108) befindet: Festlegen der Bewegungsrichtung (104) des Roboters (102) von seiner Ist-Position (112) zu einer mit dem Roboter assoziierten Soll-Position (114a, 114a', 114b, 114b', 114c, 114c, 11,4d') gemäß einer zeitlich und/oder räumlich kürzesten Verbindung.Procedure (100, 300, 400). Claim 6 , further comprising, if there is no human body part (122, 214a) in the spatial detection range of the sensor (108): determining the direction of movement (104) of the robot (102) from its actual position (112) to one associated with the robot Target position (114a, 114a', 114b, 114b', 114c, 114c, 11.4d') according to a temporally and/or spatially shortest connection. Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche, wobei das Inkongruenzmaß auf einem Zwischenwinkel (514) und/oder einer Vektordifferenz (614) basiert.Method (100, 300, 400) according to one of the preceding claims, wherein the incongruence measure is based on an intermediate angle (514) and/or a vector difference (614). Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche, weiterhin umfassend: Erfassen einer ersten Bewegungsgeschwindigkeit des menschlichen Körperteils (122, 214a); Errechnen einer prädizierten Bewegungsgeschwindigkeit des menschlichen Körperteils (122, 214a) auf Grundlage der ersten Bewegungsgeschwindigkeit; und Festlegen einer Bewegungsgeschwindigkeit des Roboters (102) entsprechend der prädizierten Bewegungsgeschwindigkeit.Method (100, 300, 400) according to one of the preceding claims, further comprising: Detecting a first movement speed of the human body part (122, 214a); Calculating a predicted movement speed of the human body part (122, 214a) based on the first movement speed; and Determining a movement speed of the robot (102) according to the predicted movement speed. Verfahren (100, 300, 400) nach Anspruch 9, wobei die prädizierte Bewegungsgeschwindigkeit der ersten Bewegungsgeschwindigkeit entspricht, oder der ersten Bewegungsgeschwindigkeit korrigiert entsprechend einer errechneten Ablenkung (508) des menschlichen Körperteils entspricht.Procedure (100, 300, 400). Claim 9 , wherein the predicted movement speed corresponds to the first movement speed, or the first movement speed corrected corresponds to a calculated deflection (508) of the human body part. Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche, wobei die prädizierte Bewegungsrichtung (126, 506) der ersten Bewegungsrichtung (126) entspricht, oder der ersten Bewegungsrichtung (126) korrigiert entsprechend einer errechneten Ablenkung (508) des menschlichen Körperteils entspricht.Method (100, 300, 400) according to one of the preceding claims, wherein the predicted direction of movement (126, 506) corresponds to the first direction of movement (126), or the first direction of movement (126) is corrected in accordance with a calculated deflection (508) of the human body part. Verfahren (100, 300, 400) nach Anspruch 10 oder 11, das weiterhin umfasst: Errechnen der Ablenkung (508) des menschlichen Körperteils, wobei das Errechnen der Ablenkung (508) des menschlichen Körperteils auf einem Inkongruenzmaß zwischen der Bewegungsrichtung (104) des Roboters (102) und der ersten Bewegungsrichtung (124) basiert.Procedure (100, 300, 400). Claim 10 or 11 , which further comprises: calculating the deflection (508) of the human body part, wherein calculating the deflection (508) of the human body part is based on an incongruence measure between the direction of movement (104) of the robot (102) and the first direction of movement (124). Verfahren (100, 300, 400) nach einem der Ansprüche 10 bis 12, wobei die errechnete Ablenkung (508) des menschlichen Körperteils (122, 214a) auf einem mit dem Roboter (102) assoziierten Parameter zu dessen Menschenähnlichkeit basiert.Method (100, 300, 400) according to one of Claims 10 until 12 , wherein the calculated deflection (508) of the human body part (122, 214a) is based on a parameter associated with the robot (102) regarding its human-likeness. Verfahren (100, 300, 400) nach einem der Ansprüche 10 bis 13, weiterhin umfassend: Berechnen einer Kollisionswahrscheinlichkeit zwischen dem Roboter (102) und dem menschlichen Körperteil (122, 214a) oder einem menschlichen Körper, der das menschliche Körperteil (122, 214a) umfasst, wobei die berechnete Kollisionswahrscheinlichkeit mit der errechneten Ablenkung (508) des menschlichen Körperteils (122, 214a) zunimmt.Method (100, 300, 400) according to one of Claims 10 until 13 , further comprising: calculating a collision probability between the robot (102) and the human body part (122, 214a) or a human body that includes the human body part (122, 214a), wherein the calculated collision is true probability increases with the calculated deflection (508) of the human body part (122, 214a). Verfahren (100, 300, 400) nach einem der Ansprüche 9 bis 14, das weiterhin umfasst: Berechnen eines Sicherheitsabstandes zwischen dem Roboter (102) und dem menschlichen Körperteil (122, 214a), wobei der berechnete Sicherheitsabstand mit der errechneten Ablenkung (508) des menschlichen Körperteils (122, 214a) zunimmt; Bestimmen eines Abstandes (502) zwischen dem Roboter (102) und dem menschlichen Körperteil (122, 214a); und falls der Abstand (502) zwischen dem Roboter (102) und dem menschlichen Körperteil (122, 124a) den Sicherheitsabstand unterschreitet: Festlegen der Bewegungsrichtung (104) des Roboters (102) mit einer Komponente weg von dem menschlichen Körperteil (122, 214a), um den Abstand (502) zwischen dem Roboter (102) und dem menschlichen Körperteil (122, 214a) zu vergrößern.Method (100, 300, 400) according to one of Claims 9 until 14 , further comprising: calculating a safety distance between the robot (102) and the human body part (122, 214a), the calculated safety distance increasing with the calculated deflection (508) of the human body part (122, 214a); determining a distance (502) between the robot (102) and the human body part (122, 214a); and if the distance (502) between the robot (102) and the human body part (122, 124a) falls below the safety distance: determining the direction of movement (104) of the robot (102) with a component away from the human body part (122, 214a) to increase the distance (502) between the robot (102) and the human body part (122, 214a). Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche, wobei das Festlegen der Bewegungsrichtung (104) des Roboters (102) auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung (104) des Roboters (102) und der prädizierten Bewegungsrichtung (126, 506) mittels eines geschlossenen Regelkreises ausgeführt wird.Method (100, 300, 400) according to one of the preceding claims, wherein determining the direction of movement (104) of the robot (102) based on the incongruence measure between the direction of movement (104) of the robot (102) and the predicted direction of movement (126, 506 ) is carried out using a closed control loop. Computerprogramm, das dazu eingerichtet ist, einem Computersystem Instruktionen zu geben, um das Verfahren (100, 300, 400) nach einem der vorhergehenden Ansprüche auszuführen.Computer program that is designed to give a computer system instructions to carry out the method (100, 300, 400) according to one of the preceding claims. Computersystem (900), aufweisend: ein Sensorsystem (108), das dazu eingerichtet ist, eine erste Bewegungsrichtung (124, 902) eines menschlichen Körperteils (122, 214a) zu erfassen; mindestens einen Prozessor (906), der dazu eingerichtet ist: eine prädizierte Bewegungsrichtung (126, 506, 908) des menschlichen Körperteils (122, 214a) auf Grundlage der ersten Bewegungsrichtung (124, 902) zu errechnen; und auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung (104, 910) des Roboters (102) und der prädizierten Bewegungsrichtung (126, 506, 908) eine Bewegungsrichtung (104, 910, 910') für einen Roboter (102) festzulegen, wobei mit dem Roboter (102) eine Ist-Position (112) und mindestens eine Soll-Position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d') assoziiert ist, und das Festlegen der Bewegungsrichtung (104, 910) umfasst: Identifizieren eines ersten Abschnittes (116a) einer Trajektorie von der Ist-Position (112) zu der mindestens einen Soll-Position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'), wobei ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung (126, 506) und dem ersten Abschnitt (116a) der Trajektorie geringer ist als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung (126, 506) und einem verbleibenden Abschnitt (116b) der Trajektorie von der Ist-Position (112) zu der mindestens einen Soll-Position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'); und Festlegen der Bewegungsrichtung (104) des Roboters (102) entlang des ersten Abschnittes (116a) der Trajektorie; und ein Steuerungssystem (912), das dazu eingerichtet ist, Steuerbefehle (914) beruhend auf der festgelegten Bewegungsrichtung (104, 910) an den Roboter (102) zu senden.Computer system (900), comprising: a sensor system (108) designed to detect a first direction of movement (124, 902) of a human body part (122, 214a); at least one processor (906) that is set up to: to calculate a predicted direction of movement (126, 506, 908) of the human body part (122, 214a) based on the first direction of movement (124, 902); and to determine a direction of movement (104, 910, 910') for a robot (102) based on an incongruence measure between the direction of movement (104, 910) of the robot (102) and the predicted direction of movement (126, 506, 908), with the robot (102) an actual position (112) and at least one target position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d') is associated, and the determination of the direction of movement (104, 910) includes: Identifying a first section (116a) of a trajectory from the actual position (112) to the at least one target position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'), wherein a Incongruence measure between the predicted direction of movement (126, 506) and the first section (116a) of the trajectory is less than an incongruence measure between the predicted direction of movement (126, 506) and a remaining section (116b) of the trajectory from the actual position (112) to the at least one target position (114, 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d'); and determining the direction of movement (104) of the robot (102) along the first section (116a) of the trajectory; and a control system (912) that is designed to send control commands (914) to the robot (102) based on the specified direction of movement (104, 910).
DE102022118439.0A 2022-07-22 2022-07-22 Method and device for human-robot interaction control Active DE102022118439B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022118439.0A DE102022118439B3 (en) 2022-07-22 2022-07-22 Method and device for human-robot interaction control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022118439.0A DE102022118439B3 (en) 2022-07-22 2022-07-22 Method and device for human-robot interaction control

Publications (1)

Publication Number Publication Date
DE102022118439B3 true DE102022118439B3 (en) 2023-10-12

Family

ID=88094423

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022118439.0A Active DE102022118439B3 (en) 2022-07-22 2022-07-22 Method and device for human-robot interaction control

Country Status (1)

Country Link
DE (1) DE102022118439B3 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112008001884T5 (en) 2007-07-17 2010-06-10 Toyota Jidosha Kabushiki Kaisha Path planning device, path planning method and moving body
US20140316570A1 (en) 2011-11-16 2014-10-23 University Of South Florida Systems and methods for communicating robot intentions to human beings
DE102018211514B4 (en) 2018-07-11 2020-06-25 Volkswagen Aktiengesellschaft Method and device for determining a collision probability of a vehicle with an object
DE102020006160A1 (en) 2020-10-07 2020-12-17 Daimler Ag Method for detecting the position of an object by means of a position detection system, method for processing an object and position detection system
DE102020128261A1 (en) 2019-11-22 2021-05-27 Fanuc Corporation State machine for dynamic route planning
DE102017113392B4 (en) 2017-06-19 2021-06-10 Sick Ag Device for the safety control of a machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112008001884T5 (en) 2007-07-17 2010-06-10 Toyota Jidosha Kabushiki Kaisha Path planning device, path planning method and moving body
US20140316570A1 (en) 2011-11-16 2014-10-23 University Of South Florida Systems and methods for communicating robot intentions to human beings
DE102017113392B4 (en) 2017-06-19 2021-06-10 Sick Ag Device for the safety control of a machine
DE102018211514B4 (en) 2018-07-11 2020-06-25 Volkswagen Aktiengesellschaft Method and device for determining a collision probability of a vehicle with an object
DE102020128261A1 (en) 2019-11-22 2021-05-27 Fanuc Corporation State machine for dynamic route planning
DE102020006160A1 (en) 2020-10-07 2020-12-17 Daimler Ag Method for detecting the position of an object by means of a position detection system, method for processing an object and position detection system

Similar Documents

Publication Publication Date Title
DE102017129665B3 (en) Collision-free motion planning with closed kinematics
EP3295267B1 (en) Floor treatment device and method for the navigation thereof, and group of floor treatment devices and method for the joint navigation of said floor treatment devices
DE102015211865B3 (en) Method for redundancy-optimized planning of operation of a mobile robot
EP2581177B1 (en) Robot control method
EP2838698B2 (en) Robot arrangement and method for controlling a robot
DE102007059480B4 (en) Method and device for pose monitoring of a manipulator
DE102008057142B4 (en) Method for computer-aided motion planning of a robot
DE102014222809B3 (en) Event-based redundancy angle configuration for articulated arm robots
DE102011079117B4 (en) Method of programming a robot
DE102019126465B4 (en) Method and device for determining trajectories for serial manipulators
DE112017002639T5 (en) Robot control device
DE102021107568A1 (en) ADAPTIVE PLANNING OF ACCESS TO RELEASE CONTAINERS
DE112017002498T5 (en) ROBOT PROCESS EVALUATION DEVICE, ROBOT PROCESS EVALUATION METHOD AND ROBOT SYSTEM
EP3443908B1 (en) Method for operating an x-ray device comprising an articulated arm and x-ray device with an articulated arm
EP2008778B1 (en) Method and device for programming an industrial robot
WO2017016648A1 (en) Method for controlling a mobile redundant robot
EP3484672A1 (en) Redundancy resolution for a redundant manipulator
DE102013012839A1 (en) robot system
EP2208584A1 (en) Method and device for controlling industrial robots
DE102022118439B3 (en) Method and device for human-robot interaction control
DE102015209773B3 (en) A method for continuously synchronizing a pose of a manipulator and an input device
EP3693137A1 (en) Method for producing a path planning module and for operating a robot, path planning module and robot
DE69207018T2 (en) Method for guiding a robot arm by defining alternative routes
DE102017204211B4 (en) Robot control and robot control method
WO2019029878A1 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final