DE102022118439B3 - Method and device for human-robot interaction control - Google Patents
Method and device for human-robot interaction control Download PDFInfo
- Publication number
- DE102022118439B3 DE102022118439B3 DE102022118439.0A DE102022118439A DE102022118439B3 DE 102022118439 B3 DE102022118439 B3 DE 102022118439B3 DE 102022118439 A DE102022118439 A DE 102022118439A DE 102022118439 B3 DE102022118439 B3 DE 102022118439B3
- Authority
- DE
- Germany
- Prior art keywords
- movement
- robot
- human body
- trajectory
- body part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000003993 interaction Effects 0.000 title description 2
- 230000033001 locomotion Effects 0.000 claims abstract description 361
- 238000001514 detection method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 4
- 239000012636 effector Substances 0.000 description 36
- 241000282412 Homo Species 0.000 description 24
- 238000012545 processing Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 9
- 210000003414 extremity Anatomy 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009257 reactivity Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Ein computerimplementiertes Verfahren zum Festlegen einer Bewegungsrichtung für einen Roboter umfasst das Erfassen einer ersten Bewegungsrichtung eines menschlichen Körperteils und das Errechnen eine prädizierten Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung. Das Verfahren umfasst weiterhin das Festlegen der Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung.A computer-implemented method for determining a movement direction for a robot includes detecting a first movement direction of a human body part and calculating a predicted movement direction of the human body part based on the first movement direction. The method further includes determining the direction of movement of the robot based on an incongruence measure between the direction of movement of the robot and the predicted direction of movement.
Description
GEBIETAREA
Die Erfindung betrifft ein Verfahren zum Steuern einer Bewegung eines Roboters, insbesondere zur Koexistenz, Kollaboration oder Kooperation des Roboters mit einem Menschen.The invention relates to a method for controlling a movement of a robot, in particular for the coexistence, collaboration or cooperation of the robot with a human.
HINTERGRUNDBACKGROUND
Ein kollaborativer Roboter dient dem Menschen als Hilfsmittel oder Unterstützungssystem bei der Handhabung von Objekten, bei der Erledigung von Aufgaben in Heimunterstützung, Unterhaltung, Service-Robotik, Medizinrobotik, Behandlung, Wartung und Produktion oder als Partner bei gemeinsamer Aufgabenbewältigung. Der kollaborative Roboter kann im beruflichen Umfeld oder in einem Privathaushalt zum Einsatz kommen.A collaborative robot serves humans as an aid or support system when handling objects, completing tasks in home support, entertainment, service robotics, medical robotics, treatment, maintenance and production, or as a partner when completing tasks together. The collaborative robot can be used in a professional environment or in a private household.
Mit dem kollaborativen Roboter verknüpft ist ein Koexistenzbereich. Dies ist ein räumlicher Bereich, in dem zumindest zeitweise sowohl der Mensch als auch der Roboter anzutreffen ist. Der Koexistenzbereich kann räumlich absolut festgelegt sein, beispielsweise als Arbeitsplatz an einem Produktionsstandort, oder räumlich relativ zu dem kollaborativen Roboter festgelegt sein, beispielsweise als ein Schwenkbereich eines sich fortbewegenden Roboterarms.Linked to the collaborative robot is a coexistence area. This is a spatial area in which both humans and robots can be found, at least at times. The coexistence area can be spatially absolutely defined, for example as a workplace at a production site, or spatially defined relative to the collaborative robot, for example as a pivoting area of a moving robot arm.
Konventionelle Koexistenz-, Kooperations- und Kollaborationsverfahren umfassen Verfahren zur Kollisionsvermeidung innerhalb des Koexistenzbereiches. Hierfür werden beispielsweise Unterbereiche im Koexistenzbereich oder im Einflussbereich des Roboters definiert, und ein Roboterverhalten für den Fall spezifiziert, dass der Mensch bzw. Teile des Menschen, wie beispielsweise ein Körperteil oder eine Extremität, in den jeweiligen Unterbereich eintritt/eintreten. Ein einfaches Beispiel ist ein Stopp bei Zutritt durch einen entsprechenden sicherheitsbewerteten überwachten Halt.Conventional coexistence, cooperation and collaboration methods include methods for avoiding collisions within the coexistence area. For this purpose, for example, subareas in the coexistence area or in the robot's area of influence are defined, and a robot behavior is specified in the event that the human or parts of the human, such as a body part or an extremity, enter/enter the respective subarea. A simple example is a stop upon access through an appropriate safety-rated monitored stop.
Entsprechende Verfahren mögen eine Koexistenz von Mensch und Roboter in dem Koexistenzbereich ermöglichen, ohne dass für den Menschen eine nennenswerte Gefahr von dem Roboter ausgeht. Für ein kooperatives oder kollaboratives Handeln von Mensch und Roboter, insbesondere für eine Aufgabenbewältigung, zu der Mensch und Roboter durch ihre jeweiligen, zeitgleichen Bewegungen innerhalb des Koexistenzbereiches beitragen, sind alternative oder verbesserte Verfahren wünschenswert.Corresponding methods may enable humans and robots to coexist in the coexistence area without the robot posing any significant danger to humans. Alternative or improved methods are desirable for cooperative or collaborative action between humans and robots, especially for task completion to which humans and robots contribute through their respective, simultaneous movements within the coexistence area.
ÜBERBLICKOVERVIEW
Es ist daher eine Aufgabe der Erfindung, die Kooperation oder Kollaboration zwischen Mensch und Roboter zu verbessern. Insbesondere soll eine zeitgleiche Bewegung des Roboters mit einem Menschen, der sich in seinem Einflussbereich oder einem Koexistenzbereich aufhält, verbessert werden, beispielsweise dahingehend, dass ein Beitrag (eine Effizienz) der zeitgleichen Bewegungen von Mensch und Roboter für eine Bewältigung einer gemeinsamen Aufgabe verbessert wird.It is therefore an object of the invention to improve the cooperation or collaboration between humans and robots. In particular, a simultaneous movement of the robot with a human who is in its area of influence or a coexistence area should be improved, for example in such a way that a contribution (efficiency) of the simultaneous movements of humans and robots to accomplishing a common task is improved.
Diese Aufgabe wird erfindungsgemäß durch ein computerimplementiertes Verfahren mit den Merkmalen des Anspruchs 1, ein Computerprogramm mit den Merkmalen des Anspruchs 18 und ein Computersystem mit den Merkmalen des Anspruchs 19 gelöst. Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen angegeben.This object is achieved according to the invention by a computer-implemented method with the features of claim 1, a computer program with the features of claim 18 and a computer system with the features of claim 19. Embodiments of the invention are specified in the dependent claims.
Gemäß einem ersten Aspekt umfasst ein computerimplementiertes Verfahren zum Festlegen einer Bewegungsrichtung für einen Roboter das Erfassen einer ersten Bewegungsrichtung eines menschlichen Körperteils und das Errechnen einer prädizierten Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung. Das Verfahren umfasst weiterhin das Festlegen der Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung.According to a first aspect, a computer-implemented method for determining a movement direction for a robot includes detecting a first movement direction of a human body part and calculating a predicted movement direction of the human body part based on the first movement direction. The method further includes determining the direction of movement of the robot based on an incongruence measure between the direction of movement of the robot and the predicted direction of movement.
Bei herkömmlichen Verfahren zur Interaktionssteuerung wird eine Beeinflussung von menschlichen Bewegungen durch eine Bewegung des Roboters nicht berücksichtigt.In conventional interaction control methods, the influence of human movements by a robot movement is not taken into account.
Aus psychologischen Untersuchungen in der wissenschaftlichen Literatur kann jedoch abgeleitet werden, dass der Mensch technologische Systeme „vermenschlicht“, ihnen also bewusst oder unbewusst menschliches Verhalten unterstellt und sein Verhalten entsprechend anpasst. Insbesondere passt der Mensch seine Bewegungen an die Bewegung des technologischen Systems an.However, from psychological studies in the scientific literature it can be deduced that people “humanize” technological systems, i.e. consciously or unconsciously assume human behavior from them and adapt their behavior accordingly. In particular, people adapt their movements to the movement of the technological system.
Im Ergebnis kann die Bewegung des technologischen Systems zu einer Ablenkung der Bewegung des Menschen gegenüber einer geplanten Bewegung des Menschen führen, die dieser ausgeführt hätte, wenn er das technologische System nicht wahrgenommen hätte. Diese Ablenkung wird auch als motorische Interferenz bezeichnet.As a result, the movement of the technological system can lead to a distraction of movement the human being's reaction to a planned movement that the human being would have carried out if he had not perceived the technological system. This distraction is also known as motor interference.
Die motorische Interferenz kann zu einer Verschlechterung der Produktivität des Menschen führen, da sie ihn bei der Ausführung der ihm zugeordneten Aufgabe ablenkt. Sie kann dazu führen, dass die Ausführung der Aufgabe von dem Menschen als besonders anstrengend oder ermüdend empfunden wird. Dadurch reduziert sich die Leistungsfähigkeit und Produktivität des Menschen weiter.The motor interference can lead to a deterioration in human productivity as it distracts him from carrying out the task assigned to him. It can lead to the person experiencing the task as particularly strenuous or tiring. This further reduces human performance and productivity.
Der Erfinder hat erkannt, dass Verfahren zur Kooperation oder Kollaboration zwischen Mensch und Roboter verbessert werden können, indem die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) berücksichtigt wird. Dies wird erfindungsgemäß erreicht, indem die Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und einer prädizierten Bewegungsrichtung des Menschen festgelegt wird. Bei einigen Ausführungsformen wird zudem die prädizierte Bewegungsrichtung des Menschen anhand des Inkongruenzmaßes errechnet.The inventor has recognized that methods for cooperation or collaboration between humans and robots can be improved by taking into account the influence/distraction of human movements by the movement of the robot (motor interference). This is achieved according to the invention by determining the direction of movement of the robot based on an incongruence measure between the direction of movement of the robot and a predicted direction of movement of the human. In some embodiments, the predicted direction of movement of the human is also calculated based on the incongruence measure.
Typischerweise ist die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) und die damit verbundene Produktivitätsverschlechterung umso größer, je größer die Inkongruenz zwischen der menschlichen Bewegung und der Bewegung des Roboters ist. Erfindungsgemäß wird die Inkongruenz anhand eines Inkongruenzmaßes quantifiziert. Ein Vorteil der Erfindung kann darin gesehen werden, ein Verfahren zur Steuerung des Roboters bereitzustellen, bei dem das Inkongruenzmaß zwischen der Bewegung des Roboters und der menschlichen Bewegung zumindest abschnittsweise minimiert wird, sodass die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) minimiert werden kann. Dadurch kann eine Gesamtleistung oder -produktivität von Mensch und Roboter verbessert werden, selbst im Falle einer möglicherweise reduzierten Leistung oder Produktivität des Roboters.Typically, the greater the incongruence between the human movement and the movement of the robot, the greater the influence/distraction of human movements by the movement of the robot (motor interference) and the associated deterioration in productivity. According to the invention, the incongruence is quantified using an incongruence measure. An advantage of the invention can be seen in providing a method for controlling the robot, in which the degree of incongruence between the movement of the robot and the human movement is minimized at least in sections, so that the human movements are influenced/distracted by the movement of the robot (motor Interference) can be minimized. This can improve overall human and robot performance or productivity, even in the event of potentially reduced robot performance or productivity.
Mit dem Roboter ist eine Ist-Position und mindestens eine Soll-Position assoziiert.An actual position and at least one target position are associated with the robot.
Das Verfahren umfasst weiterhin ein Identifizieren eines ersten Abschnittes einer Trajektorie von der Ist-Position zu der mindestens einen Soll-Position, wobei ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und dem ersten Abschnitt der Trajektorie geringer ist als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und einem verbleibenden Abschnitt der Trajektorie von der Ist-Position zu der mindestens einen Soll-Position. Das Verfahren umfasst weiterhin ein Festlegen der Bewegungsrichtung des Roboters entlang des ersten Abschnittes der Trajektorie.The method further comprises identifying a first section of a trajectory from the actual position to the at least one target position, wherein an incongruence measure between the predicted direction of movement and the first section of the trajectory is less than an incongruence measure between the predicted direction of movement and a remaining section the trajectory from the actual position to the at least one target position. The method further includes determining the direction of movement of the robot along the first section of the trajectory.
Bei entsprechenden Ausführungsformen wird zunächst eine möglichst kongruente Bewegung des Roboters mit dem Menschen in Richtung der mindestens einen Soll-Position ausgeführt, so dass eine Beeinflussung der menschlichen Bewegung und eine damit einhergehende Produktivitätsverschlechterung minimiert werden kann. Ein verbleibender Abschnitt der Bewegung des Roboters zu der Soll-Position kann auf einen späteren Zeitpunkt verschoben werden, beispielsweise, wenn sich der Mensch aus dem Einflussbereich des Roboters oder aus dem Koexistenzbereich entfernt hat und keine Beeinflussung der menschlichen Bewegung zu erwarten ist oder wenn der Mensch eine andere Bewegungsrichtung einnimmt, zu der dann beispielsweise der verbleibende Abschnitt kongruenter sein kann.In corresponding embodiments, the robot's movement is first carried out as congruently as possible with the human in the direction of the at least one target position, so that an influence on the human movement and the associated deterioration in productivity can be minimized. A remaining section of the robot's movement to the target position can be postponed to a later point in time, for example when the human has moved away from the robot's area of influence or from the coexistence area and no influence on the human movement is to be expected or when the human takes a different direction of movement, to which, for example, the remaining section can be more congruent.
Der erste Abschnitt der Trajektorie kann parallel zu der prädizierten Bewegungsrichtung sein und/oder der verbleibende Abschnitt der Trajektorie kann senkrecht zu der prädizierten Bewegungsrichtung sein. Alternativ oder zusätzlich kann der erste Abschnitt der Trajektorie von der parallelen bzw. senkrechten Ausrichtung um weniger als 8°, insbesondere um weniger als 6° und besonders bevorzugt um weniger als 4° oder weniger als 3° abweichen. Dabei kann sich die parallele bzw. senkrechte Ausrichtung auf die (parallele bzw. senkrechte) Ausrichtung relativ zur prädizierten Bewegungsrichtung beziehen.The first section of the trajectory can be parallel to the predicted direction of movement and/or the remaining section of the trajectory can be perpendicular to the predicted direction of movement. Alternatively or additionally, the first section of the trajectory can deviate from the parallel or vertical orientation by less than 8°, in particular by less than 6° and particularly preferably by less than 4° or less than 3°. The parallel or vertical orientation can refer to the (parallel or vertical) orientation relative to the predicted direction of movement.
Entsprechende Ausführungsformen können ein einfaches und effizientes Verfahren zum Festlegen der Bewegungsrichtung des Roboters bereitstellen, insbesondere, wenn der erwünschte Bewegungsablauf des Roboters vergleichsweise einfach ist oder kurzfristigen Anpassungen unterliegt und/oder nur wenige, insbesondere nur eine, z. B. jeweils aktuelle, Soll-Position umfasst.Corresponding embodiments can provide a simple and efficient method for determining the direction of movement of the robot, in particular if the desired movement sequence of the robot is comparatively simple or is subject to short-term adjustments and/or only a few, in particular only one, e.g. B. includes the current target position.
Der erste Abschnitt der Trajektorie kann eine Bahnkurve von der Ist-Position zu einer ersten Soll-Position der mindestens einen Soll-Position sein. Der verbleibende Abschnitt der Trajektorie kann eine Bahnkurve zwischen der ersten Soll-Position und einer zweiten Soll-Position der mindesten einen Soll-Position sein (z. B. kann bei derartigen Ausführungsformen die mindestens eine Soll-Position mindestens zwei Soll-Positionen umfassen); und/oder ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und dem ersten Abschnitt der Trajektorie kann geringer sein als ein Inkongruenzmaß zwischen der prädizierten Bewegungsrichtung und einer Bahnkurve von der Ist-Position zu den anderen der mindestens einen Soll-Position.The first section of the trajectory can be a trajectory from the actual position to a first target position of the at least one target position. The remaining portion of the trajectory may be a trajectory between the first desired position and a second desired position of the at least one desired position (e.g., in such embodiments, the at least one desired position may include at least two desired positions); and/or an incongruence measure between the predicted direction of movement and the first section of the trajectory may be less than an incongruence measured between the predicted direction of movement and a trajectory from the actual position to the other of the at least one target position.
Entsprechende Ausführungsformen können besonders förderlich für ein kooperatives oder kollaboratives Arbeiten von Mensch und Roboter sein, wenn Mensch und Roboter gemeinsam eine komplexe Aufgabe ausführen sollen, die aus einer Mehrzahl von Teil- oder Zwischenschritten besteht. Entsprechend kann die mindestens eine Soll-Position beispielsweise mehr als 3 oder 4 oder 10 oder 100 Soll-Positionen umfassen, welche (z. B. als Paare von Soll-Positionen) mit den Teil- oder Zwischenschritten assoziiert sein können. Die komplexe Aufgabe kann in die Soll-Positionen bzw. Teilschritte zerlegt werden, und es kann zunächst derjenige Teilschritt ausgeführt werden, der (unter den verbleibenden Teilschritten) das geringste Inkongruenzmaß mit der aktuellen (ersten) Bewegung des Menschen aufweist. Ändert der Mensch seine Bewegungsrichtung, kann eine andere Soll-Position angefahren werden, nämlich diejenige, bei der die Trajektorie von der (aktuellen) Ist-Position zu der Soll-Position (unter den verbleibenden Teilschritten) das geringste Inkongruenzmaß aufweist. Somit kann ein anderer (nächster) Teilschritt ausgeführt werden. Dadurch kann eine Reihenfolge der Teilschritte (entsprechend einem Bewegungsablauf des Roboters) erreicht werden, die ein kooperatives/kollaboratives Arbeiten von Mensch und Roboter mit einer verbesserten Gesamtproduktivität zur Folge hat. Die motorische Interferenz kann gering gehalten werden.Corresponding embodiments can be particularly beneficial for cooperative or collaborative work between humans and robots if humans and robots are to jointly carry out a complex task that consists of a plurality of partial or intermediate steps. Correspondingly, the at least one target position can comprise, for example, more than 3 or 4 or 10 or 100 target positions, which can be associated (e.g. as pairs of target positions) with the partial or intermediate steps. The complex task can be broken down into the target positions or sub-steps, and the sub-step can first be carried out that (among the remaining sub-steps) has the lowest degree of incongruence with the current (first) movement of the person. If the person changes his direction of movement, a different target position can be approached, namely the one in which the trajectory from the (current) actual position to the target position (among the remaining partial steps) has the lowest degree of incongruity. This means that another (next) sub-step can be carried out. This allows a sequence of sub-steps (corresponding to a movement sequence of the robot) to be achieved, which results in cooperative/collaborative work between humans and robots with improved overall productivity. Motor interference can be kept low.
Das Verfahren kann weiterhin ein Festlegen der Bewegungsrichtung des Roboters nach dem ersten Abschnitt der Trajektorie entlang des verbleibenden Abschnittes der Trajektorie umfassen.The method may further include determining the direction of movement of the robot after the first portion of the trajectory along the remaining portion of the trajectory.
Indem der Roboter den verbleibenden Abschnitt der Trajektorie zu einem späteren Zeitpunkt ausführt, kann sichergestellt werden, dass er die Soll-Position erreicht. Somit kann beispielsweise sichergestellt werden, dass der Roboter eine zuvor festgelegte Aufgabe erfüllt. Die Soll-Position bzw. die zuvor festgelegte Aufgabe des Roboters kann das kollaborative Arbeiten von Mensch und Roboter begünstigen und sicherstellen, dass Mensch und Roboter eine zuvor gestellte Gesamtaufgabe ausführen, indem der Roboter seinen Teil (z. B. die zuvor festgelegte Aufgabe bzw. das Anfahren der Soll-Position) abarbeitet.By having the robot execute the remaining portion of the trajectory at a later time, it can be ensured that it reaches the target position. This makes it possible, for example, to ensure that the robot completes a previously defined task. The target position or the previously defined task of the robot can promote collaborative work between humans and robots and ensure that humans and robots carry out a previously set overall task by the robot carrying out its part (e.g. the previously defined task or the approach to the target position).
Der Roboter kann einen Endeffektor aufweisen, und die Bewegungsrichtung des Roboters kann sich auf eine Bewegungsrichtung des Endeffektors beziehen.The robot may include an end effector, and the direction of movement of the robot may relate to a direction of movement of the end effector.
Das menschliche Körperteil kann eine Hand sein.The human body part can be a hand.
Das Verfahren kann weiterhin ein Vorsehen einer Wartezeit nach dem ersten Abschnitt der Trajektorie umfassen.The method may further include providing a waiting time after the first section of the trajectory.
Das Verfahren kann weiterhin ein Festlegen einer Dauer der Wartezeit anhand eines Auslöseereignisses umfassen.The method may further include setting a duration of the waiting time based on a trigger event.
Mit anderen Worten kann die Wartezeit fortgesetzt werden bis das Auslöseereignis eintritt.In other words, the waiting time can continue until the trigger event occurs.
Das Auslöseereignis kann mit einem Werkstück assoziiert sein.The trigger event can be associated with a workpiece.
Alternativ oder zusätzlich kann das Auslöseereignis mit einem menschlichen Körper assoziiert sein, der das menschliche Körperteil umfasst. Insbesondere kann das Auslöseereignis mit dem menschlichen Körperteil assoziiert sein.Alternatively or additionally, the triggering event may be associated with a human body that includes the human body part. In particular, the triggering event can be associated with the human body part.
Das Auslöseereignis kann beispielsweise eine zuvor festgelegte Bewegung des menschlichen Körperteils umfassen oder ein Nichtvorhandensein des menschlichen Körpers in einem räumlichen Nachweisbereich eines Sensors, insbesondere eines weiter unten im Detail beschriebenen Sensors zum Erfassen der ersten Bewegungsrichtung.The triggering event can, for example, include a previously determined movement of the human body part or an absence of the human body in a spatial detection area of a sensor, in particular a sensor described in detail below for detecting the first direction of movement.
Bei entsprechenden Ausführungsformen führt der Roboter den verbleibenden (d. h. zunächst inkongruenteren) Abschnitt der Trajektorie nicht sofort nach dem ersten (zunächst kongruenteren) Abschnitt der Trajektorie aus, sondern wartet zunächst ab. Nach der Wartezeit kann sich der Mensch entfernt haben oder seine Bewegungsrichtung geändert haben, sodass der verbleibende Abschnitt dann kongruenter mit der Bewegungsrichtung des Menschen ist. Somit kann die motorische Interferenz reduziert und die Kollaboration zwischen Mensch und Roboter (z. B. deren Gesamtproduktivität) verbessert werden.In corresponding embodiments, the robot does not carry out the remaining (i.e. initially more incongruent) section of the trajectory immediately after the first (initially more congruent) section of the trajectory, but instead waits. After the waiting period, the person may have moved away or changed their direction of movement, so that the remaining section is then more congruent with the direction of the person's movement. This means that motor interference can be reduced and collaboration between humans and robots (e.g. their overall productivity) can be improved.
Dabei kann die Dauer der Wartezeit gezielt anhand eines Auslöseereignisses festgelegt werden, sodass beim Ausführen des verbleibenden Abschnitts der Trajektorie nach dem Auslöseereignis die motorische Interferenz reduziert ist (z. B. weil sich die Bewegungsrichtung des Menschen bei bzw. mit dem Auslöseereignis geändert hat) oder dass eine möglicherweise resultierende Beeinflussung der Bewegung des Menschen eine für die Gesamtproduktivität von Mensch und Roboter weniger relevante Bewegung des Menschen betrifft (z. B. weil der Beitrag des Menschen zu der gemeinsamen Aufgabenbewältigung mit dem Auslöseereignis abgeschlossen ist) und sich nicht nennenswert auf die Gesamtproduktivität auswirkt.The duration of the waiting time can be specifically determined based on a trigger event, so that when executing the remaining section of the trajectory after the trigger event, the motor interference is reduced (e.g. because the direction of movement of the person has changed during or with the trigger event) or that a possible resulting influence on human movement affects a human movement that is less relevant to the overall productivity of humans and robots (e.g. because the human contribution to the joint task completion is completed with the triggering event) and does not have a significant impact on overall productivity effects.
Bei einigen Ausführungsformen wird das Erfassen der ersten Bewegungsrichtung mithilfe eines Sensors ausgeführt, wobei der Sensor einen räumlichen Nachweisbereich aufweist.In some embodiments, detecting the first direction of movement is accomplished using of a sensor, wherein the sensor has a spatial detection area.
Der räumliche Nachweisbereich des Sensors kann einer Umgebung des Roboters und/oder einem Einflussbereich des Roboters entsprechen.The spatial detection area of the sensor can correspond to an environment of the robot and/or an area of influence of the robot.
Das Verfahren kann weiterhin ein Festlegen der Bewegungsrichtung des Roboters von seiner Ist-Position zu einer mit dem Roboter assoziierten Soll-Position gemäß einer zeitlich und/oder räumlich kürzesten Verbindung umfassen, wenn sich kein menschliches Körperteil in dem räumlichen Nachweisbereich des Sensors befindet.The method may further include determining the direction of movement of the robot from its actual position to a target position associated with the robot according to a shortest connection in time and/or space when no human body part is in the spatial detection range of the sensor.
Durch das Abstimmen des räumlichen Nachweisbereichs des Sensors auf die Umgebung oder den Einflussbereich des Roboters kann sichergestellt werden, dass die (erste) menschliche Bewegungsrichtung genau dann erfasst und zur Grundlage beim Festlegen der Bewegungsrichtung des Roboters gemacht wird, wenn sich der Mensch (oder sein Körperteil) in der Umgebung oder dem Einflussbereich des Roboters befindet.By matching the spatial detection range of the sensor to the environment or the robot's area of influence, it can be ensured that the (first) human direction of movement is detected and made the basis for determining the direction of movement of the robot exactly when the human (or his body part) moves ) is in the robot's environment or area of influence.
Somit kann der Roboter, wenn der Sensor keinen Menschen bzw. kein menschliches Körperteil erfasst, mit maximaler Effizienz und Produktivität (des Roboters selbst) eine ihm zugewiesene Aufgabe erfüllen. Dies kann dadurch erreicht werden, dass die Bewegungsrichtung des Roboters anhand der zeitlich und/oder räumlich kürzesten Verbindung zwischen seiner Ist-Position und seiner Soll-Position festgelegt wird.Thus, if the sensor does not detect a human or human body part, the robot can complete a task assigned to it with maximum efficiency and productivity (of the robot itself). This can be achieved by determining the direction of movement of the robot based on the shortest connection in time and/or space between its actual position and its target position.
Erfasst der Sensor hingegen einen Menschen oder ein menschliches Körperteil, kann die Bewegungsrichtung des Roboters auf Grundlage ihrer (In)Kongruenz zu der (prädizierten) Bewegungsrichtung des Menschen festgelegt werden, um die Gesamtproduktivität von Mensch und Roboter zu maximieren, selbst wenn dabei die Produktivität des Roboters selbst reduziert sein sollte.On the other hand, if the sensor detects a human or a human body part, the direction of movement of the robot can be determined based on its (in)congruence with the (predicted) direction of movement of the human in order to maximize the overall productivity of the human and the robot, even if the productivity of the robot is compromised Robot itself should be reduced.
Das Inkongruenzmaß kann auf einem Zwischenwinkel und/oder einer Vektordifferenz basieren.The incongruence measure can be based on an intermediate angle and/or a vector difference.
Beispielsweise kann das Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung auf einem Zwischenwinkel zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung basieren. Entsprechendes kann für das Inkongruenzmaß zwischen (jeweils zwei) anderen Bewegungsrichtungen gelten.For example, the incongruence measure between the direction of movement of the robot and the predicted direction of movement can be based on an intermediate angle between the direction of movement of the robot and the predicted direction of movement. The same can apply to the incongruence measure between (two) other directions of movement.
In dieser Beschreibung kann sich der Begriff „Bewegung“ auf eine - insbesondere momentane oder aktuelle - vektorielle Geschwindigkeit beziehen. Beispielsweise kann sich eine Bewegung des Roboters oder des menschlichen Körperteils auf eine - insbesondere momentane oder aktuelle - vektorielle Geschwindigkeit des Roboters oder des menschlichen Körperteils beziehen.In this description, the term “movement” can refer to a - particularly instantaneous or current - vectorial speed. For example, a movement of the robot or the human body part can relate to a - in particular instantaneous or current - vectorial speed of the robot or the human body part.
Mit anderen Worten kann die Bewegung eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit umfassen. Beispielsweise kann die Bewegung des Roboters oder des menschlichen Körperteils eine Bewegungsrichtung des Roboters oder des menschlichen Körperteils umfassen, und die Bewegung des Roboters oder des menschlichen Körperteils kann eine Bewegungsgeschwindigkeit des Roboters oder des menschlichen Körperteils umfassen.In other words, the movement may include a direction of movement and a speed of movement. For example, the movement of the robot or the human body part may include a movement direction of the robot or the human body part, and the movement of the robot or the human body part may include a movement speed of the robot or the human body part.
Bewegung, Bewegungsrichtung und/oder Bewegungsgeschwindigkeit können sich auf die jeweils momentane/aktuelle Bewegung, Bewegungsrichtung und/oder Bewegungsgeschwindigkeit beziehen.Movement, direction of movement and/or speed of movement can refer to the current/momentary movement, direction of movement and/or speed of movement.
Das Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der Bewegungsrichtung des menschlichen Körperteils kann auf einer Vektordifferenz zwischen einer Bewegung des Roboters, die die Bewegungsrichtung des Roboters umfasst, und einer Bewegung des menschlichen Körperteils, die die Bewegungsrichtung des menschlichen Körperteils umfasst, basieren. Entsprechendes kann für das Inkongruenzmaß zwischen (jeweils zwei) anderen Bewegungsrichtungen gelten.The incongruence measure between the movement direction of the robot and the movement direction of the human body part may be based on a vector difference between a movement of the robot that includes the movement direction of the robot and a movement of the human body part that includes the movement direction of the human body part. The same can apply to the incongruence measure between (two) other directions of movement.
Das Verfahren kann weiterhin ein Erfassen einer ersten Bewegungsgeschwindigkeit des menschlichen Körperteils umfassen.The method may further comprise detecting a first movement speed of the human body part.
Das Verfahren kann weiterhin ein Errechnen einer prädizierten Bewegungsgeschwindigkeit des menschlichen Körperteils auf Grundlage der ersten Bewegungsgeschwindigkeit umfassen.The method may further include calculating a predicted movement speed of the human body part based on the first movement speed.
Das Verfahren kann weiterhin ein Festlegen einer Bewegungsgeschwindigkeit des Roboters entsprechend der prädizierten Bewegungsgeschwindigkeit umfassen.The method may further include setting a movement speed of the robot according to the predicted movement speed.
Das Anpassen der Bewegungsgeschwindigkeit des Roboters an die (prädizierte) Bewegungsgeschwindigkeit des Menschen (bzw. seines Körperteils) kann die Beeinflussung/Ablenkung der menschlichen Bewegungen durch die Bewegung des Roboters (motorische Interferenz) weiter reduzieren und die Kooperation und Kollaboration von Mensch und Roboter, beispielsweise deren Gesamtproduktivität, weiter verbessern.Adjusting the movement speed of the robot to the (predicted) movement speed of the human (or its body part) can further reduce the influence/distraction of human movements by the movement of the robot (motor interference) and improve cooperation and collaboration between humans and robots, for example further improve their overall productivity.
Die prädizierte Bewegungsgeschwindigkeit kann der ersten Bewegungsgeschwindigkeit entsprechen.The predicted movement speed can correspond to the first movement speed.
Alternativ kann die prädizierte Bewegungsgeschwindigkeit der ersten Bewegungsgeschwindigkeit entsprechen, korrigiert entsprechend einer errechneten Ablenkung des menschlichen Körperteils.Alternatively, the predicted movement speed may correspond to the first movement speed, corrected according to a calculated deflection of the human body part.
Die prädizierte Bewegungsrichtung kann der ersten Bewegungsrichtung entsprechen.The predicted direction of movement can correspond to the first direction of movement.
Alternativ kann die prädizierte Bewegungsrichtung der ersten Bewegungsrichtung entsprechen, korrigiert entsprechend einer errechneten Ablenkung des menschlichen Körperteils.Alternatively, the predicted direction of movement may correspond to the first direction of movement, corrected according to a calculated deflection of the human body part.
Bei einigen Ausführungsformen umfasst das Verfahren weiterhin ein Errechnen der Ablenkung des menschlichen Körperteils, wobei das Errechnen der Ablenkung des menschlichen Körperteils auf einem Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der ersten Bewegungsrichtung basiert.In some embodiments, the method further includes calculating the deflection of the human body part, wherein calculating the deflection of the human body part is based on an incongruence measure between the direction of movement of the robot and the first direction of movement.
Alternativ oder zusätzlich kann die errechnete Ablenkung des menschlichen Körperteils auf einem mit dem Roboter assoziierten Parameter zu dessen Menschenähnlichkeit basieren.Alternatively or additionally, the calculated deflection of the human body part can be based on a human-likeness parameter associated with the robot.
Insbesondere kann die errechnete Ablenkung des menschlichen Körperteils mit dem Inkongruenzmaß zwischen der Bewegungsrichtung des Roboters und der ersten Bewegungsrichtung zunehmen, insbesondere monoton oder streng monoton.In particular, the calculated deflection of the human body part can increase with the incongruence measure between the direction of movement of the robot and the first direction of movement, in particular monotonically or strictly monotonically.
Bei einigen Ausführungsformen kann die errechnete Ablenkung des menschlichen Körperteils mit der Menschenähnlichkeit zunehmen, insbesondere monoton oder streng monoton. Alternativ kann die errechnete Ablenkung des menschlichen Körperteils über zumindest einen vordefinierten Bereich mit zunehmender Menschenähnlichkeit abnehmen. Beispielsweise kann der zumindest eine vordefinierte Bereich dem Bereich des Uncanny Valley Effektes entsprechen, wie er aus der wissenschaftlichen Literatur bekannt ist.In some embodiments, the calculated deflection of the human body part may increase with human-likeness, particularly monotonically or strictly monotonically. Alternatively, the calculated deflection of the human body part can decrease over at least a predefined area as the human-likeness increases. For example, the at least one predefined area can correspond to the area of the uncanny valley effect, as is known from the scientific literature.
Bei einigen Ausführungsformen umfasst das Verfahren weiterhin ein Berechnen einer Kollisionswahrscheinlichkeit zwischen dem Roboter und dem menschlichen Körperteil oder zwischen dem Roboter und einem menschlichen Körper, der das menschliche Körperteil umfasst.In some embodiments, the method further includes calculating a collision probability between the robot and the human body part or between the robot and a human body that includes the human body part.
Die berechnete Kollisionswahrscheinlichkeit kann mit der errechneten Ablenkung des menschlichen Körperteils zunehmen, insbesondere monoton oder streng monoton.The calculated collision probability can increase with the calculated deflection of the human body part, in particular monotonically or strictly monotonically.
Bei einigen Ausführungsformen umfasst das Verfahren weiterhin ein Berechnen eines Sicherheitsabstandes zwischen dem Roboter und dem menschlichen Körperteil.In some embodiments, the method further includes calculating a safety distance between the robot and the human body part.
Der berechnete Sicherheitsabstand kann mit der errechneten Ablenkung des menschlichen Körperteils zunehmen.The calculated safety distance can increase with the calculated deflection of the human body part.
Das Verfahren kann zudem ein Bestimmen eines Abstandes zwischen dem Roboter und dem menschlichen Körperteil umfassen.The method may also include determining a distance between the robot and the human body part.
Das Verfahren kann zudem ein Festlegen der Bewegungsrichtung des Roboters mit einer Komponente weg von dem menschlichen Körperteil umfassen, um den Abstand zwischen dem Roboter und dem menschlichen Körperteil zu vergrößern, falls der Abstand zwischen dem Roboter und dem menschlichen Körperteil den Sicherheitsabstand unterschreitet.The method may also include setting the direction of movement of the robot with a component away from the human body part to increase the distance between the robot and the human body part if the distance between the robot and the human body part falls below the safety distance.
Entsprechende Ausführungsformen können die Sicherheit des Menschen verbessern und die Gefahr von Schäden am Roboter reduzieren.Corresponding embodiments can improve human safety and reduce the risk of damage to the robot.
Bei einigen Ausführungsformen wird das Festlegen der Bewegungsrichtung des Roboters auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung mittels eines geschlossenen Regelkreises ausgeführt.In some embodiments, determining the direction of movement of the robot based on the incongruence measure between the direction of movement of the robot and the predicted direction of movement is carried out using a closed-loop control system.
Hierdurch kann eine höhere Reaktivität und Reaktionsgeschwindigkeit des Verfahrens erreicht werden in Bezug auf die Berechnung des Inkongruenzmaßes und das Festlegen der Bewegungsrichtung des Roboters.In this way, a higher reactivity and reaction speed of the method can be achieved in relation to the calculation of the incongruence measure and the determination of the direction of movement of the robot.
Bei einigen Ausführungsformen wird das Festlegen der Bewegungsrichtung des Roboters auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung anhand eines deterministischen Modells ausgeführt. Bei entsprechenden Ausführungsformen lassen sich Zusammenhänge von Bewegungskongruenz und/oder Menschenähnlichkeit und Ablenkung der menschlichen Bewegung situativ örtlich und zeitlich schätzen und/oder vorhersagen.In some embodiments, determining the direction of movement of the robot is performed based on the incongruence measure between the direction of movement of the robot and the predicted direction of movement using a deterministic model. In corresponding embodiments, relationships between movement congruence and/or human-likeness and deflection of human movement can be estimated and/or predicted in terms of location and time.
Bei einigen Ausführungsformen wird das Festlegen der Bewegungsrichtung des Roboters auf Grundlage des Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung unter Verwendung eines Modells für eine Bewegungsunsicherheit ausgeführt, die mit der prädizierten Bewegungsrichtung verknüpft ist. Bei entsprechenden Ausführungsformen kann vorteilhaft erreicht werden, dass örtliche Bereiche mit kongruenzabhängiger oder menschenähnlichkeitsabhängiger Bewegungsunsicherheit z.B. in Form von Unsicherheitsschläuchen um erwartete Pfade oder Bahnen der bewegten menschlichen Teile ermittelbar sind und somit in Steuerung, Regelung oder Aktionsplan des Roboters berücksichtigt werden können.In some embodiments, determining the direction of movement of the robot based on the incongruence measure between the direction of movement of the robot and the predicted direction of movement is performed using a motion uncertainty model associated with the predicted direction of movement. With appropriate embodiments it can advantageously be achieved that local preparation che with congruence-dependent or human-likeness-dependent movement uncertainty, e.g. in the form of uncertainty tubes around expected paths or trajectories of the moving human parts, can be determined and can therefore be taken into account in the control, regulation or action plan of the robot.
Das Berechnen der Kollisionswahrscheinlichkeit kann unter Verwendung des Modells für die Bewegungsunsicherheit ausgeführt werden.Calculating the collision probability can be carried out using the motion uncertainty model.
Gemäß einem zweiten Aspekt ist ein Computerprogramm dazu eingerichtet, einem Computersystem Instruktionen zu geben, um das oben beschriebene Verfahren auszuführen.According to a second aspect, a computer program is set up to give a computer system instructions to carry out the method described above.
Gemäß einem dritten Aspekt weist ein Computersystem ein Sensorsystem, mindestens einen Prozessor und ein Steuerungssystem auf. Das Sensorsystem ist dazu eingerichtet, eine erste Bewegungsrichtung eines menschlichen Körperteils zu erfassen. Der mindestens eine Prozessor ist dazu eingerichtet, eine prädizierte Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung zu errechnen; und auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung eine Bewegungsrichtung für einen Roboter festzulegen. Das Steuerungssystem ist dazu eingerichtet, Steuerbefehle beruhend auf der festgelegten Bewegungsrichtung an den Roboter zu senden.According to a third aspect, a computer system has a sensor system, at least one processor and a control system. The sensor system is set up to detect a first direction of movement of a human body part. The at least one processor is set up to calculate a predicted direction of movement of the human body part based on the first direction of movement; and determine a movement direction for a robot based on an incongruence measure between the movement direction of the robot and the predicted movement direction. The control system is set up to send control commands to the robot based on the specified direction of movement.
Der mindestens eine Prozessor kann weiterhin dazu eingerichtet sein, einen oder alle Verfahrensschritte auszuführen, die oben im Zusammenhang mit dem ersten Aspekt beschrieben sind.The at least one processor can further be configured to carry out one or all of the method steps described above in connection with the first aspect.
Das Sensorsystem kann einen oder mehrere Prozessor(en) des mindestens einen Prozessors umfassen.The sensor system may include one or more processors of the at least one processor.
Das Sensorsystem kann dazu eingerichtet sein, eine erste Bewegungsrichtung eines menschlichen Körperteils zu erfassen.The sensor system can be set up to detect a first direction of movement of a human body part.
Das Sensorsystem kann mindestens einen Sensor aufweisen.The sensor system can have at least one sensor.
Der mindestens eine Sensor kann dazu eingerichtet sein, einen Einflussbereich des Roboters oder einen zuvor festgelegten Koexistenzbereich zu erfassen.The at least one sensor can be set up to detect an area of influence of the robot or a previously defined coexistence area.
Der mindestens eine Sensor kann eine Kamera aufweisen oder sein, insbesondere eine Flächenkamera, eine stereoskopische (z. B. binokulare) Kamera und/oder eine 3D-Kamera.The at least one sensor can have or be a camera, in particular an area camera, a stereoscopic (e.g. binocular) camera and/or a 3D camera.
Der mindestens eine Sensor kann ein Abstandsmessgerät umfassen, beispielsweise ein laserbasiertes Abstandsmessgerät.The at least one sensor can include a distance measuring device, for example a laser-based distance measuring device.
Der mindestens eine Sensor kann ein oder alle Merkmale aufweisen, die im Zusammenhang mit dem Sensor des ersten Aspekts beschrieben sind.The at least one sensor may have any or all of the features described in connection with the sensor of the first aspect.
Das Steuerungssystem kann einen oder mehrere Prozessor(en) des mindestens einen Prozessors umfassen.The control system may include one or more processors of the at least one processor.
Das Steuerungssystem kann dazu eingerichtet sein, die Steuerbefehle an den Roboter zu übertragen, beispielsweise mittels einer kabelgebundenen oder einer kabellosen Datenübertragungseinrichtung.The control system can be set up to transmit the control commands to the robot, for example by means of a wired or wireless data transmission device.
Das Computersystem kann den Roboter umfassen.The computer system may include the robot.
Der mindestens eine Sensor kann in einer Umgebung des Roboters oder an dem Roboter angeordnet sein.The at least one sensor can be arranged in an environment of the robot or on the robot.
KURZE BESCHREIBUNG DER FIGURENBRIEF DESCRIPTION OF THE FIGURES
Die Erfindung wird im Folgenden anhand von Ausführungsbeispielen mit Bezug auf die beigefügten Zeichnungen näher erläutert. In den Figuren zeigen in schematischer Darstellung:
-
1 : ein computerimplementiertes Verfahren gemäß einem Beispiel; -
2 : ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; -
3 : ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; -
4a : ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; -
4b : ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; -
4c : ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; -
5a : einen Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung eines menschlichen Körpers gemäß einem ersten Beispiel; -
5b : einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem ersten Beispiel; -
5c : einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem ersten Beispiel; -
6a : einen Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung eines menschlichen Körpers gemäß einem zweiten Beispiel; -
6b : einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem zweiten Beispiel; -
6c : einen weiteren Prozessschritt zum Errechnen eines Inkongruenzmaßes und einer Ablenkung des menschlichen Körpers gemäß dem zweiten Beispiel; -
7a : einen Roboter mit einer größeren Menschenähnlichkeit; -
7b : einen Roboter mit einer geringeren Menschenähnlichkeit; -
8 : ein computerimplementiertes Verfahren gemäß einem weiteren Beispiel; und -
9 : ein Computersystem gemäß einem Beispiel.
-
1 : a computer-implemented method according to an example; -
2 : a computer-implemented method according to another example; -
3 : a computer-implemented method according to another example; -
4a : a computer-implemented method according to another example; -
4b : a computer-implemented method according to another example; -
4c : a computer-implemented method according to another example; -
5a : a process step for calculating an incongruence measure and a deflection of a human body according to a first example; -
5b : a further process step for calculating an incongruity measure and a deflection of the human body according to the first example; -
5c : a further process step for calculating an incongruity measure and a deflection of the human body according to the first example; -
6a : a process step for calculating an incongruence measure and a deflection of a human body according to a second example; -
6b : a further process step for calculating an incongruity measure and a deflection of the human body according to the second example; -
6c : a further process step for calculating an incongruity measure and a deflection of the human body according to the second example; -
7a : a robot with greater human resemblance; -
7b : a robot with less human resemblance; -
8th : a computer-implemented method according to another example; and -
9 : a computer system according to an example.
BESCHREIBUNG DER FIGURENDESCRIPTION OF THE FIGURES
In der Ausgangssituation 110 befindet sich der Roboter 102 an einer Ist-Position 112.In the
Die für den Roboter 102 zu bewältigende Aufgabe besteht in einer Bewegung zu der Zielposition (Soll-Position) 114.The task to be accomplished by the
Hierfür ist der Roboter 102 mit geeigneten Antriebselementen ausgestattet, insbesondere mit Elektromotoren, die als Aktuatoren für die Bewegung dienen. Bei dem dargestellten Beispiel treiben die Elektromotoren Räder zu einer Drehbewegung an, die die Bewegung vermittelt, sowie Anstellwinkel der Räder, um die Bewegungsrichtung 104 des Roboters 102 zu steuern. In anderen Beispielen weist der Roboter eine Mehrzahl von durch Gelenke verbundenen Gliedern auf, und die Elektromotoren dienen als Aktuatoren für die Winkel zwischen den Gliedern an den Gelenken, um eine Bewegungsrichtung 104 und -geschwindigkeit eines der Glieder zu steuern.For this purpose, the
Ein Sensor 108 in Form einer binokularen Kamera 108 ist an dem Roboter 102 angebracht. In alternativen Beispielen wird anstelle der binokularen Kamera 108 eine Mehrzahl von Kameras oder zumindest ein Abstandsmesser als Sensor 108 verwendet.A
Die Anordnung der binokularen Kamera 108 am Roboter 102 ermöglicht, dass die binokulare Kamera 108 den Einflussbereich des Roboters 102 erfasst.The arrangement of the
Bei dem Einflussbereich handelt es sich um denjenigen Bereich, den der Roboter 102 durch seine Bewegung erreichen kann, insbesondere in einem vorbestimmten Zeitintervall. Bei dem dargestellten Beispiel orientiert sich das vorbestimmte Zeitintervall an der Reaktionszeit eines Menschen und beträgt 2 Sekunden. In anderen Beispielen ist der Roboter 102 an mindestens einer Stelle fixiert. In solchen Beispielen kann das vorbestimmte Zeitintervall beliebig groß gewählt werden bzw. der Einflussbereich ist unabhängig von einem vorbestimmten Zeitintervall.The area of influence is the area that the
In alternativen Ausführungsformen ist der Sensor 108 nicht am Roboter befestigt, sondern an einem Stativ befestigt oder unabhängig vom Roboter 102 beweglich, sodass der Sensor 108 den Einflussbereich des Roboters 102 oder den Bereich von der Startposition 112 zu der Soll-Position 114 erfasst. Dies lässt sich insbesondere durch Verwendung einer Vielzahl von Kameras 108 erreichen. Insbesondere lassen sich Kameras 108 verwenden, die in einer Umgebung wie einem automatisierten Produktionsstandort für andere Zwecke vorhanden sind, um Sensorik und somit Kosten des Roboters 102 gering zu halten.In alternative embodiments, the
In der Ausgangssituation 110 wird die Bewegungsrichtung 104 des Roboters 102 entlang einer Trajektorie 106 geführt.In the
Die Trajektorie 106 wird anhand vorbekannter Verfahren festgelegt, vorzugsweise derart, dass der Roboter 102 sich möglichst effizient zu der Soll-Position 114 bewegt. Mit anderen Worten wird diejenige Trajektorie 106 gewählt, die den Roboter 102 schnellstmöglich oder auf dem kürzesten Weg zu der Soll-Position 114 führt. In dem dargestellten Beispiel handelt es sich bei der Trajektorie 106 um eine Gerade zwischen der Ist-Position 112 und der Soll-Position 114. Insbesondere, wenn sich Hindernisse zwischen der Ist-Position 112 und der Soll-Position 114 befinden, kann die kürzeste (kollisionsfreie) Trajektorie 106 jedoch von einer Geraden abweichen. Verfahren zum Festlegen einer entsprechenden Trajektorie 106 sind aus dem Stand der Technik hinreichend bekannt und sollen hier nicht im Einzelnen wiedergegeben werden.The
Bei Schritt 120 erfasst der Sensor 108 einen Menschen 122.At
Daraufhin wird die Bewegungsrichtung 104 des Roboters 102 abgeändert. Mit anderen Worten wird die Bewegungsrichtung 104 entsprechend einer Trajektorie 116 in Anwesenheit des Menschen 122 festgelegt, die von der Trajektorie 106 der Ausgangssituation 110 ohne den Menschen 122 abweicht.The direction of
Ein Bildverarbeitungsprozessor (nicht dargestellt) verarbeitet die mit der Anwesenheit des Menschen 122 assoziierten Signale des Sensors 108 und erstellt daraus ein Modell mit Bewegungsinformation zu einem oder mehreren Körperteil(en) des Menschen 122.An image processing processor (not shown) processes the signals from the
Bei der dargestellten Ausführungsform ist der Bildverarbeitungsprozessor räumlich getrennt von der Kamera 108 an dem Roboter 102 angeordnet. In alternativen Ausführungsformen bildet der Bildverarbeitungsprozessor mit dem Sensor 108 ein integriertes System. In wieder anderen Ausführungsformen ist der Bildverarbeitungsprozessor räumlich von dem Roboter 102 getrennt, und der Sensor 108 sendet Signale mit Sensordaten an den Bildverarbeitungsprozessor, bevorzugt über eine Funkverbindung.In the illustrated embodiment, the image processing processor is arranged on the
Computerprogramme zum Erstellen des Modells mit der Bewegungsinformation zu dem menschlichen Körperteil sind aus dem Stand der Technik bekannt und sollen hier nicht im Einzelnen dargestellt werden. Beispielhaft sei hierzu Azure Kinect der Firma Microsoft genannt.Computer programs for creating the model with the movement information about the human body part are known from the prior art and will not be presented in detail here. An example of this is Azure Kinect from Microsoft.
In dem dargestellten Beispiel wird dem Modell die Bewegungsrichtung 124 des Torso des Menschen 122 entnommen. In alternativen Ausführungsformen werden die Bewegungsrichtungen mehrerer menschlicher Körperteile entnommen, und die Bewegungsrichtung 124 entspricht einer Schwerpunktbewegung der mehreren menschlichen Körperteile.In the example shown, the direction of
Ausgehend von der Bewegungsrichtung 124 des Torso wird eine Bewegungsrichtung 126 vorhergesagt (prädiziert).Based on the direction of
In dem dargestellten Beispiel basiert die Vorhersage darauf, dass die Bewegungsrichtung 124 beibehalten wird, der Mensch 122 also eine lineare Bewegung ausführt. Somit entspricht die prädizierte (vorhergesagte) Bewegungsrichtung 126 der (aktuellen) Bewegungsrichtung 124. Alternativ kann eine der Vorhersagemethoden zur Anwendung kommen, die im Zusammenhang mit den
Ein Routenplanungsprozessor (nicht dargestellt) erhält die Information über die prädizierte Bewegungsrichtung 126, sowie die Information über die Ist-Position 112 und die Soll-Position 114 des Roboters 102. Anhand dieser Informationen bestimmt der Routenplanungsprozessor eine Trajektorie 116 von der Ist-Position 112 zu der Soll-Position 114. Die Trajektorie 116 umfasst einen mit der prädizierten Bewegungsrichtung 126 kongruenten Teil 116a und einen mit der prädizierten Bewegungsrichtung 126 inkongruenten Teil 116b.A route planning processor (not shown) receives the information about the predicted direction of
Bei dem Routenplanungsprozessor der dargestellten Ausführungsform handelt es sich um denselben Prozessor wie bei dem Bildverarbeitungsprozessor. Bei alternativen Ausführungsformen handelt es sich um einen weiteren Prozessor, der am Roboter 102 oder getrennt davon angeordnet ist.The route planning processor of the illustrated embodiment is the same processor as the image processing processor. Alternative embodiments involve another processor located on or separately from the
Die Trajektorie 116 ist derart festgelegt, dass der kongruente Teil 116a parallel zu der prädizierten Bewegungsrichtung 126 ist und der inkongruente Teil 116b senkrecht zu der prädizierten Bewegungsrichtung 126 ist.The
Parallelität und senkrechte Lage sind dabei nicht mathematisch exakt zu verstehen. Abweichungen ergeben sich beispielsweise aus den Unsicherheiten bei der Bestimmung der Bewegungsrichtung 124 durch den Bildverarbeitungsprozessor anhand der Daten des Sensors 108. Typischerweise schwankt oder rauscht die bestimmte Bewegungsrichtung 124 zeitlich aufgrund der Unsicherheiten, selbst wenn sich der tatsächliche Mensch 122 ideal geradlinig bewegt. Wünschenswerterweise bleibt das Schwanken oder Rauschen bei der Bestimmung der Trajektorie 116 unberücksichtigt, d. h., der Routenplanungsprozessor legt die Trajektorie 116 anhand einer (nach)bearbeiteten prädizierten Bewegungsrichtung fest. Dies vermeidet ruckartige, ineffiziente Bewegungen des Roboters 102. Bei der (Nach)Bearbeitung wird die prädizierte Bewegungsrichtung 126 oder bereits zuvor die bestimmte Bewegungsrichtung 124 zeitlich gemittelt und/oder geglättet. Im Ergebnis weicht der kongruente Teil 116a (der inkongruente Teil 116b) von der zu der prädizierten Bewegung 126 parallelen (senkrechten) Richtung ab, typischerweise um bis zu 8°.Parallelism and vertical position cannot be understood mathematically exactly. Deviations arise, for example, from the uncertainties in determining the direction of
Die Bewegungsrichtung 104 des Roboters 102 wird entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt.The direction of
Im Ergebnis entsteht eine kongruente Bewegung 104 des Roboters 102 zu der (prädizierten) Bewegungsrichtung 124, 126 des Menschen. Somit wird die Beeinflussung der Bewegung des Menschen durch den Roboter (motorische Interferenz) minimiert. Der störende Einfluss des Roboters 102 auf den Menschen 122 wird gering gehalten. Der Mensch 122 kann effizient und ermüdungsarm arbeiten, und die oben genannten Vorteile werden erreicht. Mensch 122 und Roboter 102 arbeiten kooperativ und kollaborativ zusammen. Dabei wird die Gesamtproduktivität von Mensch 122 und Roboter 102 erhöht, selbst, wenn die Produktivität des Roboters 102 alleine reduziert ist: Er weicht von seiner effizientesten Trajektorie 106 ab, und ein längerer oder langsamerer Weg 116 des Roboters 102 wird in Kauf genommen.The result is a
Bei dem dargestellten Ausführungsbeispiel wird die Bewegungsrichtung 104 des Roboters 102 stets entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt, wenn der Mensch 122 von dem Sensor 108 erfasst wird. Bei alternativen Ausführungsformen (nicht dargestellt) wird zudem aufgrund der Daten des Sensors 108 ein Blickfeld des Menschen 122 bestimmt. Bei entsprechenden Ausführungsformen wird die Bewegungsrichtung 104 des Roboters 102 nur dann entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt, wenn sich der Roboter 102 im Blickfeld des Menschen 122 befindet; andernfalls wird die Trajektorie 106 des Roboters 102 entsprechend der Ausgangssituation 110 festgelegt.In the illustrated embodiment, the direction of
Der Roboter 102 der
Das Endglied 204a dient als Endeffektor 204a zum Bewegen eines Werkstückes 302 und ist als Greifer mit inneren Freiheitsgraden ausgelegt. (Auf eine Darstellung der Glieder und Gelenke innerhalb des Greifers zum Implementieren der inneren Freiheitsgrade wird zugunsten der Übersichtlichkeit verzichtet.)The
Der Roboter 102 ist über das Glied 204d ortsfest fixiert. Der Einflussbereich des Roboters 102 entspricht in der dargestellten Ebene einem Kreis um das Glied 204d, mit einem Radius entsprechend der Reichweite des Endeffektors 204a.The
Innerhalb des Einflussbereiches des Roboters 102 befindet sich eine Ablagefläche 206, auf der Werkstücke 302 angeordnet sein können.Within the area of influence of the
Die zu bewältigende Aufgabe des Roboters 102 besteht in einer Bewegung zu dem Werkstück 302 als Soll-Position 114.The task to be accomplished by the
Eine weitergehende Aufgabe des Roboters 102 besteht darin, das Werkstück 302 nach dem Erreichen mit dem Greifer 204a aufzunehmen, das Werkstück 302 nach dem Aufnehmen zu einer das Werkstück 302 weiterverarbeitenden Maschine (nicht dargestellt) zu bewegen und es dort abzulegen. Die weiterverarbeitende Maschine befindet sich in der
Bei der Ausführungsform der
In der Ausgangssituation 310 erfasst der Sensor 108 kein menschliches Körperteil. Der Roboter 102 führt die Bewegung zu der Soll-Position 114 als zu bewältigende Aufgabe möglichst effizient (schnell, entlang der kürzestmöglichen Bahn 106) aus, wie im Zusammenhang mit der Ausgangssituation 110 der
Der vordefinierte Koexistenzbereich erfüllt zwei jeweils optionale Funktionen: Bei der ersten definiert das Werkstück 302 nur/genau dann eine Soll-Position 114, wenn es sich in dem Koexistenzbereich, d. h. auf der Ablagefläche 206, befindet. Bei der zweiten führt der Roboter 102 nur dann das im Zusammenhang mit den Schritten 320, 330, 340 beschriebene Verfahren aus, wenn sich sein Endeffektor 204a in dem Koexistenzbereich (d. h. über der Ablagefläche 206 bzw. im Sichtfeld des Sensors 108) befindet. Befindet sich der Endeffektor 204 außerhalb des Koexistenzbereichs, so führt der Roboter 102 ein von der menschlichen Bewegung unabhängiges Verfahren aus, beispielsweise das im Zusammenhang mit der Ausgangssituation 110, 310 beschriebene Verfahren, unabhängig davon, ob der Sensor 108 ein menschliches Körperteil erfasst.The predefined coexistence area fulfills two optional functions: In the first, the
Bei Schritt 320 erfasst der Sensor 108 einen menschlichen Arm mit der Hand 214a, dem Unterarm 214b und dem Oberarm 214c, sowie den dazwischenliegenden Gelenken 212a, 212b.At
Ein Bildverarbeitungsprozessor (nicht dargestellt) bestimmt aus den Signalen des Sensors 108 die Bewegungsrichtung 124 der menschlichen Hand 214a, entsprechend der Bestimmung der Bewegungsrichtung 124 des menschlichen Torso im Rahmen des Schrittes 120 von
Ausgehend von der Bewegungsrichtung 124 der Hand 214a wird eine Bewegungsrichtung 126 vorhergesagt (prädiziert), mit einer Vorhersagemethode wie im Zusammenhang mit
Ein Routenplanungsprozessor (nicht dargestellt) bestimmt auf Grundlage von Informationen über die Ist-Position 112 des Endeffektors 204a, über die Soll-Position 114 und über die prädizierte Bewegungsrichtung 126 eine Trajektorie 116 in Anwesenheit der Hand 214a, die von der Trajektorie 106 der Ausgangssituation 310 ohne den menschlichen Arm abweicht.A route planning processor (not shown) determines, based on information about the
Die Trajektorie 116 umfasst einen mit der prädizierten Bewegungsrichtung 126 kongruenten Teil 116a und einen mit der prädizierten Bewegungsrichtung 126 inkongruenten Teil 116b, wie im Zusammenhang mit
Die Bewegungsrichtung 104 des Endeffektors 204a wird entlang des kongruenten Teils 116a der Trajektorie 116 festgelegt. Somit ist eine kongruente Bewegung erreicht, mit einer geringen motorischen Interferenz und mit den oben genannten Vorteilen.The direction of
Optional wird dabei die Bewegungsgeschwindigkeit des Endeffektors 204a an die Geschwindigkeit der menschlichen Hand 214a angepasst. Dies verbessert die Kongruenz zwischen Mensch 122 und Roboter 102 weiter und reduziert somit die motorische Interferenz weiter, mit den oben genannten Vorteilen.Optionally, the movement speed of the
In der Abbildung ist die Bewegungsrichtung 104 des Endeffektors 204a dabei parallel zu der Bewegungsrichtung 124 der Hand 214a. Die Bewegung 104 des Endeffektors 204a kann jedoch auch antiparallel (entlang paralleler Geraden, jedoch mit entgegengesetztem Vorzeichen der Bewegungsrichtung) zu der Bewegungsrichtung 124 der Hand 214a ausgeführt werden, wenn dies die Richtung ist, die den Endeffektor 204a der Soll-Position 114 näher bringt.In the illustration, the direction of
In dem gezeigten Ausführungsbeispiel erreicht der Endeffektor 204a am Ende von Schritt 320 das Ende des kongruenten Teils 116a der Trajektorie 116, während sich die menschliche Hand 214a noch weiter mit der Bewegungsrichtung 124 bewegt. Um die Soll-Position 114 zu erreichen, verbleibt für den Endeffektor 204a der inkongruente Teil 116b der Trajektorie 116. Folglich gibt es keine mit der Bewegung 124 der menschlichen Hand 214a kongruente Bewegung für den (Endeffektor 204a des) Roboter(s) 102, die diesen der Soll-Position 114 näher bringen würde.In the embodiment shown, at the end of
Wie bei Schritt 330 dargestellt, ist nach Erreichen des Endes des kongruenten Teils 116a der Trajektorie 116 eine Wartezeit für die Bewegung des Endeffektors 204a vorgesehen. Mit anderen Worten verharrt der Endeffektor 204a am Ende des kongruenten Teils 116a der Trajektorie 116 für die Dauer der Wartezeit.As shown at
Bei dem dargestellten Ausführungsbeispiel endet die Wartezeit, wenn ein zuvor festgelegtes Auslöseereignis eintritt. Alternativ wird eine Wartezeit mit einer festgelegten Dauer vorgesehen, um der menschlichen Hand 214a die Zeit zu geben, die sie erfahrungsgemäß benötigt, um eine ihr zugeordnete Aufgabe zu erfüllen. In dem dargestellten Ausführungsbeispiel besteht die der Hand 214a zugeordnete Aufgabe darin, ein Werkstück 302 auf der Ablagefläche 206 abzulegen.In the illustrated embodiment, the waiting time ends when a predetermined trigger event occurs. Alternatively, a waiting time with a fixed duration is provided in order to give the
Bei dem dargestellten Ausführungsbeispiel sind zwei Auslöseereignisse festgelegt, und das Eintreten eines der beiden Auslöseereignisse beendet die Wartezeit. Das erste Auslöseereignis besteht darin, dass die menschliche Hand 214a den von dem Sensor 108 überwachten Koexistenzbereich verlässt und vom Sensor 108 nicht mehr darin erfasst wird. Das zweite Auslöseereignis besteht darin, dass die menschliche Hand ein Werkstück 302 freigibt, und dieses auf der Ablagefläche 206 vollständig für den Sensor 108 sichtbar wird. Bei anderen Ausführungsformen können mehr oder weniger Auslöseereignisse vordefiniert sein.In the exemplary embodiment shown, two trigger events are defined, and the occurrence of one of the two trigger events ends the waiting time. The first trigger event is that the
Wie bei Schritt 340 dargestellt, wird die Bewegungsrichtung 104 des Endeffektors 204a nach Ende der Wartezeit (nach Eintreten des Auslöseereignisses) entlang des inkongruenten Teils 116b der Trajektorie 116 festgelegt. Die menschliche Hand 214a hat zu diesem Zeitpunkt die ihr zugeordnete Aufgabe, das Ablegen des Werkstückes 302, beendet, und ihre weitere Bewegung, d. h. ihre Rückzugbewegung 208 von der Ablagefläche 206, trägt nicht mehr zu dieser Aufgabe bei. Somit ist eine motorische Interferenz durch den Roboter 102 bei der Rückzugbewegung 208 für die Produktivität des Menschen 122 unschädlich, und die Gesamtproduktivität von Mensch 122 und Roboter 102 wird verbessert, wenn der Roboter 102 die Bewegung 104 entlang des inkongruenten Teils 116b der Trajektorie 116 nach dem Auslöseereignis (während der Rückzugbewegung 208) ausführt.As shown at
Der Aufbau des Roboters 102 der
Das Sichtfeld der Kamera 108 ist, entsprechend der Beschreibung im Zusammenhang mit der
Bei dem Werkstück 402 handelt es sich um eine faltbare Kiste 402. Der dargestellte Roboter 102 ist im Ganzen auf einer Schiene um die faltbare Kiste 402 beweglich.The
Die zu bewältigende Aufgabe des Roboters 102 besteht darin, alle Seitenteile der faltbaren Kiste 402 nach oben zu falten.The task to be accomplished by the
Gemäß der Ausgangssituation 410, bei der kein Mensch von dem Sensor 108 erfasst wird, fährt der Endeffektor 204a hierfür nacheinander die Soll-Position 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d' an bzw. die Teiltraj ektorien 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' ab. Mit anderen Worten bildet die Serie der Teiltrajektorien 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' eine Trajektorie 106, oder die Trajektorie 106 lässt sich in die Teiltrajektorien 106a, 106a', 106b, 106b', 106c, 106c', 106d, 106d' unterteilen oder aus diesen zusammensetzen.According to the
Bei Schritt 420 erfasst der Sensor 108 einen menschlichen Arm.At
Ausgehend von den Daten des Sensors 108 wird die Bewegungsrichtung 124 der menschlichen Hand 214a bestimmt und ihre Bewegungsrichtung 126 vorhergesagt (prädiziert), wie im Zusammenhang mit
Ein Routenplanungsprozessor (nicht dargestellt) wählt unter den Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' für den Roboter 102 diejenige aus, für die ein Trajektorienabschnitt 116 von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position die höchste Kongruenz (das geringste Inkongruenzmaß) mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a aufweist.A route planning processor (not shown) selects from among the
Genauer gesagt, wird bei dem dargestellten Ausführungsbeispiel die Auswahl nicht unter allen Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' getroffen, sondern nur unter einer Unterauswahl mit den Soll-Position 114a, 114b, 114c, 114d. Die anderen Soll-Positionen 114a', 114b', 114c', 114d' werden nur dann berücksichtigt, wenn sich der Endeffektor 204a an (oder in einer Umgebung) einer jeweils assoziierten Ausgangsposition befindet, nämlich an der Ausgangposition 114a für die Soll-Position 114a', an der Ausgangposition 114b für die Soll-Position 114b', an der Ausgangposition 114c für die Soll-Position 114c', oder an der Ausgangposition 114d für die Soll-Position 114d'.More precisely, in the exemplary embodiment shown, the selection is not made from all
Anhand von optionalen Randbedingungen können weitere oder andere Soll-Positionen 114a, 114a', 114b, 114b', 114c, 114c', 114d, 114d' aus der Unterauswahl ausgeschlossen oder bei ähnlicher Kongruenz in der Auswahl bevorzugt werden.On the basis of optional boundary conditions, additional or
Als optionale Randbedingung kann eingeführt werden, dass eine Kollisionswahrscheinlichkeit zwischen der menschlichen Hand 214a gemäß ihrer Bewegungsrichtung 124 und den Soll-Positionen der Unterauswahl einen kritischen Wert nicht übersteigen darf.As an optional boundary condition, it can be introduced that a collision probability between the
Ebenfalls optional kann unter Soll-Positionen, für die die jeweiligen Trajektorienabschnitte von der Ist-Position des Endeffektors 204a zu den jeweiligen Soll-Positionen ähnliche Kongruenzen mit der Bewegungsrichtung 124 der menschlichen Hand 214a aufweisen, diejenige ausgewählt werden, die am nächsten an der Ist-Position des Endeffektors 204a gelegen ist.Also optionally, among target positions for which the respective trajectory sections from the actual position of the
Ebenfalls optional kann unter Soll-Positionen, für die die jeweiligen Trajektorienabschnitte von der Ist-Position des Endeffektors 204a zu den jeweiligen Soll-Positionen ähnliche Kongruenzen mit der Bewegungsrichtung 124 der menschlichen Hand 214a aufweisen, diejenige ausgewählt werden, die die geringste Kollisionswahrscheinlichkeit mit der menschlichen Hand 214a aufweist.Also optionally, among target positions for which the respective trajectory sections from the actual position of the
In dem dargestellten Beispiel weist der Trajektorienabschnitt 116a von der Ist-Position des Endeffektors 204a zu der Soll-Position 114d eine höhere Kongruenz auf als ein Trajektorienabschnitt von der Ist-Position des Endeffektors 204a zu der Soll-Position 114a (oder zu der Soll-Position 114b, oder zu der Soll-Position 114c). Somit wird die Soll-Position 114d von dem Routenplanungsprozessor ausgewählt.In the example shown, the
Die Bewegungsrichtung 104 des Endeffektors 204a wird entlang einer Trajektorie 116a von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position 114d festgelegt. Die Trajektorie 116a von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position 114d wird mithilfe eines konventionellen Verfahrens bestimmt, wie beispielsweise im Zusammenhang mit der Trajektorie 106 von Schritt 110 der
Schritt 430 illustriert eine Variante des im Zusammenhang mit Schritt 410, 420 beschriebenen Verfahrens. Die Variante nach Schritt 430 kann mit dem Verfahren von Schritt 410, 420 kombiniert oder alternativ dazu durchgeführt werden.Step 430 illustrates a variant of the method described in connection with
Wie im Zusammenhang mit Schritt 420 beschrieben, erfasst bei Schritt 430 der Sensor 108 einen menschlichen Arm. Ausgehend von den Daten des Sensors 108 wird die Bewegungsrichtung 124 der menschlichen Hand 214a bestimmt und ihre Bewegungsrichtung 126 vorhergesagt (prädiziert).As described in connection with
Bei Schritt 430 befindet sich der Endeffektor 204a an (oder in einer Umgebung) einer Ist-Position 114d, die einer der im Zusammenhang mit Schritt 410 beschriebenen Soll-Position 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' entspricht.At
Eine entsprechende Ist-Position des Endeffektors 204a kann sich zufällig im Rahmen des Verfahrens nach Schritt 410, 420 ergeben, und das Verfahren nach Schritt 410, 420 kann eine Prüfung auf eine entsprechende Ist-Position umfassen. Dies führt zu einer Kombination der beiden Verfahren.A corresponding actual position of the
Alternativ oder zusätzlich lässt sich die Trajektorie 106 von Schritt 410 in sehr viele Teiltrajektorien unterteilen bzw. es lassen sich sehr viele (Zwischen-)Soll-Positionen entlang der Trajektorie 106 von Schritt 410 einführen, um die Wahrscheinlichkeit zu erhöhen, dass sich der Endeffektor 204a an einer der (Zwischen-)Soll-Positionen befindet. Eine Größe der Umgebung der Soll-Positionen kann zudem so gewählt werden, dass sich der Endeffektor 204a stets in der Umgebung einer der Soll-Positionen befindet.Alternatively or additionally, the
Wie im Zusammenhang mit Schritt 420 beschrieben, wählt ein Routenplanungsprozessor unter den Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' für den Roboter 102 diejenige aus, für die ein Trajektorienabschnitt von der Ist-Position des Endeffektors 204a zu der ausgewählten Soll-Position die höchste Kongruenz (das geringste Inkongruenzmaß) mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a aufweist. Dies ist im dargestellten Ausführungsbeispiel die Soll-Position 114d'.As described in connection with
Da es sich bei der Ist-Position 114d des Endeffektors 204a um eine der Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d' handelt, entspricht jeder der bei der Auswahl in Frage kommenden Trajektorienabschnitte einer Bahnkurve zwischen einem Paar von Soll-Positionen 114a, 114a', 114b, 114b', 114e, 114c', 114d, 114d'.Since the
Bei diesem Ausführungsbeispiel ist für jedes Paar von Soll-Positionen 114a, 114a', 114b, 114b', 114c, 114c , 114d, 114d' eine Bahnkurve in einem Speicher hinterlegt.In this exemplary embodiment, a trajectory is stored in a memory for each pair of
Die hinterlegten Bahnkurven wurden zu einem früheren Zeitpunkt vordefiniert, und insbesondere sicherheitsbewertet.The stored trajectories were predefined at an earlier point in time and, in particular, safety-assessed.
Somit vergleicht der Routenplanungsprozessor bei der Auswahl die hinterlegten Bahnkurven mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a, um jeweils ihre Kongruenz mit der prädizierten Bewegungsrichtung 126 der menschlichen Hand 214a zu bestimmen und diejenige hinterlegte Bahnkurven mit der höchsten Kongruenz auszuwählen.Thus, during selection, the route planning processor compares the stored trajectories with the predicted direction of
Das Zurückgreifen auf hinterlegte Bahnkurven erhöht die Effizienz des computerimplementierten Verfahrens, indem es vermeidet, dass Trajektorien(abschnitte) 116a wie in Schritt 420 berechnet werden müssen.Relying on stored trajectories increases the efficiency of the computer-implemented method by avoiding the need to calculate trajectories (sections) 116a as in
In dem dargestellten Schritt 430 weist (ausgehend von der Ist-Position 114d) die Bahnkurve 106d' zu der Soll-Position 114d' die größte Kongruenz mit der prädizierten Bewegung 126 der menschlichen Hand 214a auf und wird ausgewählt.In the
Die Bewegungsrichtung 104 des Endeffektors 204a wird entlang der ausgewählten Bahnkurve 106d' zu der Soll-Position 114d' festgelegt. Somit ist eine kongruente Bewegung zwischen Roboter 102 und Mensch 122 erreicht, mit einer geringen motorischen Interferenz und mit den oben genannten Vorteilen.The direction of
Die Abbildungen beziehen sich auf das Verfahren von
Schritt 120 von
Bei Schritt 120 von
Der Sicherheitsabstand kann zuvor (absolut) festgelegt worden sein.The safety distance may have been previously (absolutely) determined.
Alternativ kann der Sicherheitsabstand bei jedem Verfahrensschritt (bzw. in jeder Iteration) angepasst werden, insbesondere in Abhängigkeit von einer Ablenkung eines menschlichen Körper(teil)s, wie im Zusammenhang mit
In
In
Entsprechend werden die Verfahren der
In
Entsprechend einigen Ausführungsformen wird die Bewegung 104 des Roboters 102 direkt im Anschluss entlang des inkongruenten Teils 116b der Trajektorie 116 geführt, sodass der Roboter 102 schnellstmöglich die Soll-Position 114 erreicht.According to some embodiments, the
Bei anderen Ausführungsformen wartet der Roboter 102, bis der Sensor 108, wie in
Bei wieder anderen Ausführungsformen wird eine Wartezeit für den Roboter 102 vorgesehen, deren Dauer vordefiniert ist oder durch ein Auslöseereignis bestimmt wird, wie im Zusammenhang mit dem Verfahren 300 von
Während der Wartezeit wird der Sensor 108 kontinuierlich betrieben. Wird aufgrund des Sensors 108 eine Änderung der Bewegungsrichtung des Menschen 122 festgestellt, wird eine neue Trajektorie 116 festgelegt wie im Zusammenhang mit Schritt 120' der
Zur Quantifizierung der Kongruenz wird in allen zuvor beschriebenen Ausführungsformen ein Inkongruenzmaß verwendet. Je geringer das Inkongruenzmaß zwischen zwei Bewegungen oder Bewegungsrichtungen, desto kongruenter sind die beiden Bewegungen oder Bewegungsrichtungen.To quantify the congruence, an incongruence measure is used in all previously described embodiments. The lower the degree of incongruity between two movements or directions of movement, the more congruent the two movements or directions of movement are.
Bei Schritt 510 erfasst der Sensor 108 den Menschen 122 oder ein menschliches Körperteil.At
Wie im Zusammenhang mit Schritt 120 von
Zudem wird eine Bewegungsrichtung 104 des Roboters 102 bestimmt. Dies kann auf Grundlage der Daten des Sensors 108 erfolgen. Bevorzugterweise wird die Bewegungsrichtung 104 und optional eine Position des Roboters 102 jedoch von einem Steuerungssystem des Roboters 102 bereitgestellt.In addition, a direction of
Aufgrund der Position des Roboters 102 und der Daten des Sensors 108, der den Menschen 122 erfasst, wird zudem optional ein Abstand 502 zwischen Mensch 122 und Roboter 102 bestimmt.Based on the position of the
Bevorzugt werden zusätzlich zu den Bewegungsrichtungen 104, 124 von Roboter 102 und Mensch 122 (menschlichem Körperteil) auch deren jeweilige Bewegungsgeschwindigkeiten bestimmt. Somit ist die Bewegung von Roboter 102 und Mensch 122 (menschlichem Körperteil) vollständig, d. h. hinsichtlich Richtung und Geschwindigkeit, bestimmt.In addition to the
Eine entsprechende Bestimmung der Geschwindigkeiten findet bevorzugt auch im Rahmen der Schritte 120, 320, 420, 430 der Verfahren 100, 300, 400 statt.A corresponding determination of the speeds preferably also takes place as part of
Bei Schritt 520 wird der Zwischenwinkel 514 zwischen den Bewegungsrichtungen 104, 124 von Roboter 102 und Mensch 122 als Inkongruenzmaß 514 bestimmt. Die Bestimmung kann von dem Bildverarbeitungsprozessor, dem Routenplanungsprozessor oder einem weiteren Prozessor durchgeführt werden.At
Bei einigen Ausführungsformen werden vor dem Bestimmen des Zwischenwinkels 514 auf Grundlage der Bewegungsrichtungen 104, 124 zunächst Geraden 504, 524 konstruiert, die die Bewegungsrichtungen 104, 124 enthalten. Zwischen den Geraden 504, 524 ergeben sich zwei verschiedene Zwischenwinkel, die sich zu 180° summieren. Als Inkongruenzmaß wird bei entsprechenden Ausführungsformen stets der kleinere Zwischenwinkel 514 verwendet. Bei entsprechenden Ausführungsformen hat eine gegenläufige bzw. antiparallele Bewegung 104, 124 von Roboter 102 und Mensch 122 ein minimales Inkongruenzmaß (ist maximal kongruent).In some embodiments, before determining the
Bei Schritt 530 wird auf Grundlage des Inkongruenzmaßes 514 und der Bewegungsrichtung 124 des Menschen 122 (menschlichen Körperteils) eine Bewegungsablenkung 508 sowie eine um die Bewegungsablenkung 508 korrigierte Bewegungsrichtung 506 des Menschen 122 (menschlichen Körperteils) errechnet.At
Die Richtung der Bewegungsablenkung 508 steht senkrecht auf der Bewegungsrichtung 124 des Menschen 122. Sie zeigt dabei von dem Roboter 102 weg (entsprechend der Positionen von Roboter 102 und Mensch 122 in
Der Betrag der Bewegungsablenkung 508 nimmt mit dem Inkongruenzmaß 514 (insbesondere monoton oder streng monoton) zu.The amount of
Optional nimmt der Betrag der Bewegungsablenkung 508 mit abnehmendem Abstand 502 zwischen Mensch 122 und Roboter 102 (insbesondere monoton oder streng monoton) zu.Optionally, the amount of
Optional nimmt der Betrag der Bewegungsablenkung 508 mit der Menschenähnlichkeit des Roboters 102 (insbesondere monoton oder streng monoton) zu, insbesondere für eine hinreichend kleine Menschenähnlichkeit. Überschreitet die Menschenähnlichkeit einen kritischen Wert, so nimmt der Betrag der Bewegungsablenkung 508 typischerweise zunächst ab (Uncanny Valley Effekt), um dann, wenn er einen weiteren (höheren) kritischen Wert überschreitet, wieder zuzunehmen.Optionally, the amount of
Die korrigierte Bewegungsrichtung 506 des Menschen 122 (menschlichen Körperteils) ergibt sich durch Überlagerung der Bewegungsablenkung 508 mit der Bewegung 124 des Menschen 122, beispielsweise anhand einer Vektoraddition.The corrected direction of
Der Schritt 610 von
Bei Schritt 620 wird die Vektordifferenz 614 zwischen den Bewegungsrichtungen 104, 124 von Roboter 102 und Mensch 122 als Inkongruenzmaß 614 bestimmt. Mit anderen Worten wird die Vektorsumme aus der Bewegungsrichtung 104 des Roboters 102 und dem Negativen -124 der Bewegungsrichtung 124 des Menschen 122 als Inkongruenzmaß 614 bestimmt.At
Optional wird zur Bestimmung des Inkongruenzmaßes 614 zudem der Betrag des Differenzvektors 614 gebildet.Optionally, the amount of the
Bei Schritt 630 wird auf Grundlage des Inkongruenzmaßes 614 und der Bewegungsrichtung 124 des Menschen 122 (menschlichen Körperteils) eine Bewegungsablenkung 508 sowie eine um die Bewegungsablenkung 508 korrigierte Bewegungsrichtung 506 des Menschen 122 (menschlichen Körperteils) errechnet.At
Der Schritt 630 von
Der Roboter 102 der
Der Roboter 102 der
Zur Quantifizierung der Menschenähnlichkeit werden Referenzversuche durchgeführt. Der Mensch wird angewiesen, vordefinierte Bewegungen auszuführen, einmal in Abwesenheit des Roboters, und einmal in Anwesenheit des Roboters, wobei der Roboter ebenfalls vordefinierte Referenzbewegungen ausführt. Mithilfe von Kameras werden die Bewegungen des Menschen in beiden Situationen aufgezeichnet. Aus einem Vergleich wird die Bewegungsablenkung (motorische Interferenz) des Menschen durch den Roboter bestimmt. Je größer die Bewegungsablenkung in diesem Referenzversuch, umso höher die Menschenähnlichkeit des Roboters.Reference tests are carried out to quantify human resemblance. The human is instructed to carry out predefined movements, once in the absence of the robot and once in the presence of the robot, whereby the robot also performs predefined reference movements gen. Cameras are used to record people's movements in both situations. From a comparison, the movement distraction (motor interference) of the human by the robot is determined. The greater the movement deflection in this reference test, the more human-like the robot is.
Bei Schritt 802 wird eine erste Bewegungsrichtung eines menschlichen Körperteils erfasst.At
Bei Schritt 804 wird eine prädizierte Bewegungsrichtung des menschlichen Körperteils auf Grundlage der ersten Bewegungsrichtung errechnet.At
Bei Schritt 806 wird die Bewegungsrichtung des Roboters auf Grundlage eines Inkongruenzmaßes zwischen der Bewegungsrichtung des Roboters und der prädizierten Bewegungsrichtung festgelegt.At
Das Computersystem 900 weist ein Sensorsystem mit dem Sensor 108 auf.The
Das Sensorsystem ist über eine Datenleitung 916 zum Übertragen von Daten 902, in denen Informationen hinsichtlich der Bewegungsrichtung 124 enthalten sind, an mindestens einen Prozessor 906 gekoppelt. Bei bevorzugten Ausführungsformen handelt es sich bei dem Sensor 108 um eine Kamera, und die Daten 902 sind von dem Sensor (der Kamera) 108 erfasste Bilddaten.The sensor system is coupled to at least one
Der mindestens eine Prozessor 906 umfasst den Bildverarbeitungsprozessor und den Routenplanungsprozessor.The at least one
Entsprechend bestimmt der mindestens eine Prozessor 906 die Bewegungsrichtung 124 des Menschen, wenn dieser von dem Sensor 108 erfasst wurde, und prädiziert die Bewegungsrichtung 126, 908.Accordingly, the at least one
Optional bestimmt der Prozessor 906 zudem eine menschliche Ablenkung 508 und damit eine korrigierte prädizierte Bewegungsrichtung 506, wie im Zusammenhang mit
Ausgehend von der prädizierten Bewegungsrichtung 126, 908 oder der korrigierten prädizierten Bewegungsrichtung 506 bestimmt der mindestens eine Prozessor 906 ein Inkongruenzmaß zu einer möglichen Bewegungsrichtung 910' des Roboters 102. Bei der möglichen Bewegungsrichtung 910' handelt es sich um eine Variable, die unter Anwendung vorbekannter Verfahren variiert wird, um eine Bewegungsrichtung 910 mit einem geringstmöglichen Inkongruenzmaß zu identifizieren.Based on the predicted direction of
Optional bestimmt der mindestens eine Prozessor 906 ausgehend von der möglichen Bewegungsrichtung 910' wiederum eine korrigierte prädizierte Bewegungsrichtung 506, für die wiederum ein Inkongruenzmaß zu der möglichen Bewegungsrichtung 910' bestimmt wird. Optionally, the at least one
Das Verfahren wird solange iteriert, d. h. die mögliche Bewegungsrichtung 910' solange variiert, bis unter den möglichen Bewegungsrichtungen 910' für den Roboter diejenige identifiziert ist, die das geringste Inkongruenzmaß aufweist.The process is iterated for as long as H. the possible direction of movement 910' varies until the one that has the lowest degree of incongruity is identified among the possible directions of movement 910' for the robot.
Die Bewegungsrichtung 910, die mit dem geringsten Inkongruenzmaß assoziiert ist, wird mithilfe einer Datenleitung 918 an ein Steuerungssystem 912 übermittelt.The direction of
Das Steuerungssystem 912 generiert entsprechende Steuerbefehle 914 und übermittelt sie mittels einer Datenleitung 920 an den Roboter 102.The
Ein oder mehrere Prozessoren des mindestens einen Prozessors 906 können in dem Sensorsystem oder dem Steuerungssystem 912 umfasst sein.One or more processors of the at least one
LISTE DER BEZUGSZEICHENLIST OF REFERENCE SYMBOLS
- 100, 200, 300, 400, 800100, 200, 300, 400, 800
- VerfahrenProceedings
- 110, 110', 210, 310110, 110', 210, 310
- Ausgangssituationinitial situation
- 120, 120', 220, 320, 420, 430120, 120', 220, 320, 420, 430
- Erfassen der Bewegungsrichtung des menschlichen Körperteils und Festlegen der Bewegungsrichtung des Roboters 13Detecting the direction of movement of the human body part and determining the direction of movement of the robot 13
- 130, 330130, 330
- Wartezeitwaiting period
- 340340
- Festlegen der Bewegungsrichtung des Roboters nach dem ersten Abschnitt entlang des verbleibenden Abschnittes der Trajektorie.Determining the direction of movement of the robot after the first section along the remaining section of the trajectory.
- 102102
- Roboterrobot
- 104104
- Bewegungsrichtung (Bewegung) des RobotersDirection of movement (movement) of the robot
- 106106
- Trajektorie in Abwesenheit des MenschenTrajectory in the absence of humans
- 108108
- Sensor, KameraSensor, camera
- 112112
- Ist-Position des RobotersActual position of the robot
- 114, 114a, 114b, 114c, 114d114, 114a, 114b, 114c, 114d
- Soll-Position des RobotersTarget position of the robot
- 116116
- Trajektorie bei Erfassen des MenschenTrajectory when detecting people
- 116a116a
- kongruenter Teilcongruent part
- 116b116b
- inkongruenter Teilincongruent part
- 122122
- menschlicher Körperhuman body
- 124, 124'124, 124'
- Bewegungsrichtung (Bewegung) des MenschenDirection of movement (movement) of the person
- 126, 126'126, 126'
- prädizierte Bewegungsrichtung (Bewegung) des Menschenpredicted direction of movement (movement) of the human being
- 202a, 202b, 202c202a, 202b, 202c
- Gelenke des RobotersJoints of the robot
- 204a, 204b, 204C, 204d204a, 204b, 204C, 204d
- Glieder des RobotersLimbs of the robot
- 206206
- Ablagefläche, KoexistenzbereichStorage space, coexistence area
- 212a, 212b212a, 212b
- menschliche Gelenkehuman joints
- 214a, 214b, 214c214a, 214b, 214c
- Glieder des Menschenhuman limbs
- 302302
- Werkstückworkpiece
- 402402
- Kiste (Werkstück)box (workpiece)
- 502502
- Abstand zwischen Mensch und RoboterDistance between humans and robots
- 504504
- Gerade mit Bewegungsrichtung (Bewegung) des RobotersEspecially with the direction of movement (movement) of the robot
- 506506
- prädizierte Körperrichtungpredicted body direction
- 508508
- Bewegungsablenkung des MenschenDistraction of human movement
- 514514
- Inkongruenzmaß (Zwischenwinkel)Incongruence measure (intermediate angle)
- 614614
- Inkongruenzmaß (Vektordifferenz)Incongruence measure (vector difference)
- 702a, 702b, 702c, 702d702a, 702b, 702c, 702d
- Gelenke des RobotersJoints of the robot
- 704a, 704b, 704c, 704d, 704e704a, 704b, 704c, 704d, 704e
- Glieder des RobotersLimbs of the robot
- 900900
- ComputersystemComputer system
- 902902
- DatenData
- 906906
- Prozessorprocessor
- 908908
- prädizierte Bewegungsrichtungpredicted direction of movement
- 910, 910'910, 910'
- Bewegungsrichtung für den RoboterDirection of movement for the robot
- 912912
- SteuerungssystemControl system
- 914, 916, 918914, 916, 918
- DatenleitungData line
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022118439.0A DE102022118439B3 (en) | 2022-07-22 | 2022-07-22 | Method and device for human-robot interaction control |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022118439.0A DE102022118439B3 (en) | 2022-07-22 | 2022-07-22 | Method and device for human-robot interaction control |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022118439B3 true DE102022118439B3 (en) | 2023-10-12 |
Family
ID=88094423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022118439.0A Active DE102022118439B3 (en) | 2022-07-22 | 2022-07-22 | Method and device for human-robot interaction control |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022118439B3 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112008001884T5 (en) | 2007-07-17 | 2010-06-10 | Toyota Jidosha Kabushiki Kaisha | Path planning device, path planning method and moving body |
US20140316570A1 (en) | 2011-11-16 | 2014-10-23 | University Of South Florida | Systems and methods for communicating robot intentions to human beings |
DE102018211514B4 (en) | 2018-07-11 | 2020-06-25 | Volkswagen Aktiengesellschaft | Method and device for determining a collision probability of a vehicle with an object |
DE102020006160A1 (en) | 2020-10-07 | 2020-12-17 | Daimler Ag | Method for detecting the position of an object by means of a position detection system, method for processing an object and position detection system |
DE102020128261A1 (en) | 2019-11-22 | 2021-05-27 | Fanuc Corporation | State machine for dynamic route planning |
DE102017113392B4 (en) | 2017-06-19 | 2021-06-10 | Sick Ag | Device for the safety control of a machine |
-
2022
- 2022-07-22 DE DE102022118439.0A patent/DE102022118439B3/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112008001884T5 (en) | 2007-07-17 | 2010-06-10 | Toyota Jidosha Kabushiki Kaisha | Path planning device, path planning method and moving body |
US20140316570A1 (en) | 2011-11-16 | 2014-10-23 | University Of South Florida | Systems and methods for communicating robot intentions to human beings |
DE102017113392B4 (en) | 2017-06-19 | 2021-06-10 | Sick Ag | Device for the safety control of a machine |
DE102018211514B4 (en) | 2018-07-11 | 2020-06-25 | Volkswagen Aktiengesellschaft | Method and device for determining a collision probability of a vehicle with an object |
DE102020128261A1 (en) | 2019-11-22 | 2021-05-27 | Fanuc Corporation | State machine for dynamic route planning |
DE102020006160A1 (en) | 2020-10-07 | 2020-12-17 | Daimler Ag | Method for detecting the position of an object by means of a position detection system, method for processing an object and position detection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017129665B3 (en) | Collision-free motion planning with closed kinematics | |
EP3295267B1 (en) | Floor treatment device and method for the navigation thereof, and group of floor treatment devices and method for the joint navigation of said floor treatment devices | |
DE102015211865B3 (en) | Method for redundancy-optimized planning of operation of a mobile robot | |
EP2581177B1 (en) | Robot control method | |
EP2838698B2 (en) | Robot arrangement and method for controlling a robot | |
DE102007059480B4 (en) | Method and device for pose monitoring of a manipulator | |
DE102008057142B4 (en) | Method for computer-aided motion planning of a robot | |
DE102014222809B3 (en) | Event-based redundancy angle configuration for articulated arm robots | |
DE102011079117B4 (en) | Method of programming a robot | |
DE102019126465B4 (en) | Method and device for determining trajectories for serial manipulators | |
DE112017002639T5 (en) | Robot control device | |
DE102021107568A1 (en) | ADAPTIVE PLANNING OF ACCESS TO RELEASE CONTAINERS | |
DE112017002498T5 (en) | ROBOT PROCESS EVALUATION DEVICE, ROBOT PROCESS EVALUATION METHOD AND ROBOT SYSTEM | |
EP3443908B1 (en) | Method for operating an x-ray device comprising an articulated arm and x-ray device with an articulated arm | |
EP2008778B1 (en) | Method and device for programming an industrial robot | |
WO2017016648A1 (en) | Method for controlling a mobile redundant robot | |
EP3484672A1 (en) | Redundancy resolution for a redundant manipulator | |
DE102013012839A1 (en) | robot system | |
EP2208584A1 (en) | Method and device for controlling industrial robots | |
DE102022118439B3 (en) | Method and device for human-robot interaction control | |
DE102015209773B3 (en) | A method for continuously synchronizing a pose of a manipulator and an input device | |
EP3693137A1 (en) | Method for producing a path planning module and for operating a robot, path planning module and robot | |
DE69207018T2 (en) | Method for guiding a robot arm by defining alternative routes | |
DE102017204211B4 (en) | Robot control and robot control method | |
WO2019029878A1 (en) | Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |