DE10216023B4 - Method and apparatus for controlled interaction between a self-propelled robot unit and a human - Google Patents
Method and apparatus for controlled interaction between a self-propelled robot unit and a human Download PDFInfo
- Publication number
- DE10216023B4 DE10216023B4 DE2002116023 DE10216023A DE10216023B4 DE 10216023 B4 DE10216023 B4 DE 10216023B4 DE 2002116023 DE2002116023 DE 2002116023 DE 10216023 A DE10216023 A DE 10216023A DE 10216023 B4 DE10216023 B4 DE 10216023B4
- Authority
- DE
- Germany
- Prior art keywords
- person
- parts
- robot unit
- sensor system
- reference data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/027—Electromagnetic sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Abstract
Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, gekennzeichnet durch folgende Verfahrensschritte: – Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, – Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, – Gezieltes Ansteuern der Antriebsmittel der Robotereinheit zur kontrollierten Einflussnahme auf die Eigenbeweglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.Method for the controlled interaction between a self-propelled robot unit and a person, characterized by the following method steps: detecting the spatially and temporally changing position of the person or of parts of the person by spatially and temporally resolved detection of locomotion speed as well as velocity gradients or acceleration values to the kinematics of the person Person or parts of the person characterizing selected locations of the person and / or the parts of the person by means of a sensor system, wherein for sensing purposes at the selected locations of the person marking means (T) are mounted, - evaluating the dynamically detected position of the person or Sharing of the person based on a behavioral model describing the person, stored in the form of a data and / or knowledge-based database, in the person's characteristic poses and postures and movements typical of the person gungsinformationen stored as reference data, by comparison of the dynamically detected position with the stored in the database reference data, - generating control signals based on a rating criterion, - Targeted driving the drive means of the robot unit for controlled influence on the intrinsic mobility of the robot unit depending on the evaluated, dynamically recorded position of the person.
Description
Technisches GebietTechnical area
Die Erfindung bezieht sich auf ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person.The invention relates to a method and a device for the controlled interaction between a self-propelled robot unit and a person.
Stand der TechnikState of the art
Der Einsatz von Industrierobotern, vorzugsweise zu Produktionszwecken, wird bereits Jahrzehnte lang überaus erfolgreich angewandt, um Produktionsgüter in hohen Stückzahlen unter gleichbleibend hohen Produktqualitäten herzustellen. Zwar sind derartige Industrieroboter in der industriellen Fertigung weit verbreitet, doch werden sie zu Montagezwecken lediglich in Teilgebieten eingesetzt, in denen der Mensch aus Sicherheitsgründen keinen Zugang hat. So fordert beispielsweise die Sicherheitsnorm ISO 10218 eine strikte Trennung der Arbeitsräume von Mensch und Roboter, um die durch den Roboter bedingte für den Menschen bestehende Verletzungsgefahr vollständig auszuschließen. Die vorstehend zitierte Sicherheitsnorm beschränkt sich ausschließlich auf stationäre Industrieroboter, deren Aktionsradius definiert vorgegeben ist. Vergleichbare Sicherheitsnormen bzw. -richtlinien für mobile Roboter, die beispielsweise auf einer eigenfortbewegungsfähigen Plattform angebracht sind, existieren derzeit jedoch nicht. Derartige, zur Eigenfortbewegung befähigte Roboter verfügen vielmehr über automatische Abschaltmechanismen, die im Falle aktiviert werden, wenn ein externer Gegenstand, beispielsweise eine Person, einen vorgegebenen Mindestabstand zum Roboter unterschreitet. Der Bewegungsvorgang des Roboters wird unterbrochen und mögliche durch den Roboter vorgenommene Manipulationsvorgänge gestoppt.The use of industrial robots, preferably for production purposes, has been used very successfully for decades to produce high volume production goods with consistently high product quality. Although such industrial robots are widely used in industrial production, they are used for assembly purposes only in sub-areas in which humans have no access for security reasons. For example, the safety standard ISO 10218 requires a strict separation of the work spaces of humans and robots, in order to completely eliminate the risk of injury to humans caused by the robot. The above-cited safety standard is limited exclusively to stationary industrial robots, whose radius of action is defined defined. However, comparable security standards or guidelines for mobile robots, which are for example mounted on a self-propelled platform, do not currently exist. On the contrary, such robots enabled for self-locomotion have automatic shut-off mechanisms which are activated in the event that an external object, for example a person, falls below a predetermined minimum distance from the robot. The movement process of the robot is interrupted and possible manipulation operations performed by the robot are stopped.
Die derzeit am häufigsten in der industriellen Produktion im Einsatz befindlichen Industrieroboter betreffen jedoch stationäre Robotersysteme mit jeweils an die unterschiedlichen Montagebedingungen angepaßte Manipulatorarmen, die über zumeist über ein Vielzahl von Bewegungsfreiheitsgraden verfügen. Die maximale Gesamtlänge einer Roboterarmanordnung sowie deren zugänglicher Bewegungsraum definiert den durch den Roboter erreichbaren maximalen Arbeits- bzw. Aktionsbereich, der aus sicherheitstechnischen Gründen vielerorts durch einen Käfig und/oder Lichtschranken umgeben und dadurch gesichert ist.However, the industrial robots currently most frequently used in industrial production relate to stationary robot systems, each with manipulator arms adapted to the different assembly conditions, which usually have a large number of degrees of freedom of movement. The maximum overall length of a robot arm assembly and its accessible movement space defines the achievable by the robot maximum work or action area, which is surrounded for safety reasons in many places by a cage and / or photocells and thus secured.
Ist ein Industrieroboter durch einen entsprechend ausgestatteten Sicherheitskäfig umgeben, so ist es ohnehin für einen Menschen nicht möglich, in den Aktionsbereich des Roboters zu gelangen. Durch Vorsehen entsprechender Lichtschranken, die zumeist mit einem Sicherheitsabschalt-System verbunden sind, wird der Industrieroboter durch eine festgestellte Lichtschrankenunterbrechung abrupt abgeschaltet, so dass in Fällen, in denen beispielsweise ein Mensch unbeabsichtigt in den Aktionsbereich eines Roboters gelangt, von diesem nicht verletzt werden kann.If an industrial robot is surrounded by a suitably equipped safety cage, it is not possible for a human being to get into the action area of the robot anyway. By providing appropriate photocells, which are usually connected to a safety shutdown system, the industrial robot is abruptly switched off by a detected photocell interruption, so that in cases where, for example, a person inadvertently enters the action area of a robot, can not be violated by this.
Auch sind derzeit noch im experimentellen Stadium befindliche Schutzsysteme für stationäre sowie auch mobile Industrieroboter bekannt, die über sensorische Detektionssysteme verfügen, mit denen die Erfassung der Annäherung eines Objektes möglich ist. Beispielsweise werden hierzu Manipulatorarme eines Industrieroboter-Systems mit Ultraschall- oder Infrarot-Sensoren bestückt, die die Relativannäherung zu einem Objekt oder zu einem Menschen zu detektieren vermögen. Wird mit Hilfe derartiger Sensoren eine entsprechende Objektannäherung festgestellt, so wird zur Vermeidung von Kollisionen bzw. etwaiger Verletzungen die Eigenbeweglichkeit des Roboters gestoppt oder zumindest seine Fortbewegungsgeschwindigkeit stark herabgesetzt.At present, protective systems for stationary as well as mobile industrial robots that are still in experimental stage are known, which have sensory detection systems with which the detection of the approach of an object is possible. For example, this manipulator arms of an industrial robot system are equipped with ultrasonic or infrared sensors that are able to detect the relative approach to an object or to a human. If a corresponding object approximation is detected with the aid of such sensors, the inherent mobility of the robot is stopped or at least its speed of travel is greatly reduced in order to avoid collisions or possible injuries.
Schließlich sind Robotersysteme bekannt, die an ausgewiesenen Manipulatorarmbereichen über taktile Sensoren verfügen, die im Falle einer Berührung mit einem Objekt Steuersignale für ein abruptes Ausschalten des Roboters generieren.Finally, robotic systems are known which have tactile sensors on designated manipulator arm areas which, in the event of contact with an object, generate control signals for an abrupt shutdown of the robot.
Allen bekannten Schutzsystemen, die zur Vermeidung von Kollisionen zwischen den Robotern und bewegten Objekten, allen voran einem Menschen dienen, haftet der Nachteil an, dass eine Zusammenarbeit zwischen Mensch und Roboter im wirtschaftlichen Sinne nicht möglich ist. Entweder ist eine gewünschte Interaktion zwischen Mensch und Maschine aufgrund systembedingter Sicherheitsmaßnahmen überhaupt nicht möglich, wie im Falle der durch Schutzgitter sowie Lichtschranken geschützter Robotersysteme, oder die Arbeitsgeschwindigkeit der mit Schutzmechanismen ausgestatteten Industrieroboter wird zur Vermeidung von Verletzungen derart reduziert, dass eine angestrebte Interaktion rein aus wirtschaftlichen Überlegungen nicht weiter interessant erscheint.All known protection systems that serve to avoid collisions between the robots and moving objects, especially a man, has the disadvantage that cooperation between humans and robots in the economic sense is not possible. Either a desired interaction between man and machine due to systemic safety measures is not possible at all, as in the case of protected by grids and photocells robotic systems, or the operating speed of the protective robotic industrial robots is reduced to avoid injury so that a desired interaction purely from economic Considerations does not seem interesting.
So existieren derzeit aufgrund der einzuhaltenden Sicherheitsbestimmungen keine Robotersysteme, die unter industriellen Produktionsbedingungen eine unmittelbare und direkte Zusammenarbeit mit einer Person erlauben. Eine derartige Zusammenarbeit ist jedoch an vielen Produktionsstellen wünschenswert, beispielsweise um den Produktionsfluss und die Auslastung derartiger Industrieroboter-Systeme zu optimieren. Dies betrifft insbesondere Übergabevorgänge von Halbfertigprodukten von einem Menschen an eine, das Halbfertigprodukt weiter verarbeitende Robotereinheit, bei denen gegenwärtig üblicherweise das Robotersystem kurzzeitig stillgelegt und nach erfolgter Übergabe erneut aktiviert werden muss. Dies führt zu größeren Stand- und Nebenzeiten, die es gilt, aus wirtschaftlichen Überlegungen zu reduzieren bzw. vollständig zu vermeiden.Due to the safety regulations to be observed, there are currently no robot systems that permit direct and direct cooperation with a person under industrial production conditions. However, such collaboration is desirable at many manufacturing sites, for example to optimize the production flow and utilization of such industrial robot systems. In particular, this concerns handover operations of semi-finished products from a human to a robotic unit that further processes the semi-finished product, where currently the robotic system is currently used for a short time shut down and must be reactivated after handover. This leads to greater idle time and non-productive time, which must be reduced or completely avoided for economic reasons.
Aus dem Artikel „Direkte Mensch-Roboter-Kooperation”, J. Spingler, S. Thiemermann, Carl Hanser Verlag. ZWF 96/2001, S. 616–620 ist ein Verfahren zur Kooperation zwischen Mensch und Roboter zu entnehmen, bei dem die Position, Geschwindigkeit und Beschleunigung exponierter Punkte des Menschen sowie des Roboters bestimmt werden. Hierbei gilt es, jeweils den kürzesten Abstand zwischen Mensch und Roboter zu ermitteln und diesen mit zulässigen Mindestabständen zu vergleichen. Bei Unterschreiten des Mindestabstandes werden entsprechende Robotersteuersignale generiert, die zur Vermeidung von Kollisionen ein spontanes Zurückweisen des Roboters zur Folge haben.From the article "Direct Human-Robot Cooperation", J. Spingler, S. Thiemermann, Carl Hanser Verlag. ZWF 96/2001, p. 616-620, a method for cooperation between human and robot can be found in which the position, speed and acceleration of exposed points of the human and the robot are determined. Here it is important to determine the shortest distance between human and robot and to compare this with the permissible minimum distances. If the minimum distance is undershot, corresponding robot control signals are generated which, in order to avoid collisions, result in a spontaneous rejection of the robot.
In einem weiteren Artikel, „MORPHA: Intelligente antropomorphe Assistenzsysteme – Die Interaktion zwischen Mensch und mobilen Assistenzsystemen als grundlegende Variante der Mensch-Technik-Interaktion”, K. Lay, Oldenbourg Verlag, Informationstechnik und Technische Informatik 42/2000, S. 38–43, wird die Interaktion zwischen einem Menschen und einem mobilen Assistenzsystem beschrieben, beispielsweise in Form eines intelligenten Roboters, wobei der Druckschrift lediglich an ein derartiges System zu stellende Anforderungen entnehmbar sind, nicht jedoch wie die einzelnen Anforderungen technisch zu lösen sind.In another article, "MORPHA: Intelligent antropomorphic assistance systems - The interaction between humans and mobile assistance systems as basic variant of the human-technology interaction", K. Lay, Oldenbourg publishing house, information technology and technical computer science 42/2000, P. 38-43 , the interaction between a human and a mobile assistance system is described, for example in the form of an intelligent robot, wherein the document can be removed only to such a system requirements to be removed, but not how the individual requirements are technically solved.
Darstellung der ErfindungPresentation of the invention
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person anzugeben, wobei unter Bedacht auf die geltenden Sicherheitsnormen und -richtlinien eine für den Menschen gefährdungsfreie Zusammenarbeit mit der Robotereinheit möglich sein soll. Insbesondere gilt es eine direkte Zusammenarbeit zwischen einem Menschen und der Robotereinheit zu ermöglichen und gleichzeitig das Leistungspotential der Robotereinheit nicht oder nur unwesentlich zu beeinträchtigen.The invention has for its object to provide a method and an apparatus for controlled interaction between a self-propelled robot unit and a person, taking into account the applicable safety standards and guidelines should be possible for human-hazard-free cooperation with the robot unit. In particular, it is necessary to enable a direct cooperation between a human and the robot unit and at the same time not to affect the performance potential of the robot unit or only insignificantly.
Die Lösung der der Erfindung zugrundeliegenden Aufgabe ist im Anspruch 1 angegeben, in dem ein erfindungsgemäßes Verfahren beschrieben ist. Gegenstand des Anspruches 10 ist eine erfindungsgemäße Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person. Den Erfindungsgedanken vorteilhaft weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der gesamten Beschreibung unter Bezugnahme auf die Ausführungsbeispiele zu entnehmen.The solution of the problem underlying the invention is specified in
Das erfindungsgemäße Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sieht grundsätzlich folgende Verfahrensschritte vor:
Mit Hilfe eines Sensorsystems wird das unmittelbare Umfeld der Robotereinheit derart erfasst und überwacht, dass bewegte Objekte, die in einen von dem Sensorsystem erfassbaren Detektionsbereich eindringen, erfasst und lokalisiert werden. Der durch das Sensorsystem erfassbare Detektionsbereich ist vorzugsweise derart einzustellen, dass der Detektionsbereich in etwa mit dem Aktionsbereich der Robotereinheit übereinstimmt. Im Weiteren wird angenommen, dass es sich bei den bewegten Objekten um eine Person handelt, die mit der Robotereinheit in Interaktion treten wird. Das Sensorsystem erfasst somit die sich räumlich und zeitlich verändernde Position der Person oder zumindest Teile der Person. Hierbei wird nicht nur die exakte räumliche Relativlage zwischen der Person und der Robotereinheit erfasst, sondern überdies auch die der Person innewohnende Bewegungsdynamik, d. h. das Sensorsystem erfasst zusätzlich die Fortbewegungsgeschwindigkeit der gesamten Person und/oder Teile der Person sowie auch Geschwindigkeitsgradienten bzw. Beschleunigungswerte der Person oder Teile der Person. Zum Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten sind an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person Markierungsmittel angebracht, die mit Hilfe des Sensorsystems erfasst werden.The method according to the invention for the controlled interaction between an autonomous robot unit and a person fundamentally provides the following method steps:
With the aid of a sensor system, the immediate environment of the robot unit is detected and monitored in such a way that moving objects which penetrate into a detection area detectable by the sensor system are detected and localized. The detection range detectable by the sensor system is preferably to be set such that the detection range approximately coincides with the action range of the robot unit. In the following, it is assumed that the moving objects are a person who will interact with the robot unit. The sensor system thus detects the spatially and temporally changing position of the person or at least parts of the person. In this case, not only the exact spatial relative position between the person and the robot unit is detected, but also the person's inherent motion dynamics, ie the sensor system additionally detects the speed of movement of the entire person and / or parts of the person as well as speed gradients or acceleration values of the person or Parts of the person. For detecting the spatially and temporally changing position of the person or of parts of the person by spatially and temporally resolved detection of locomotion speed as well as speed gradients or acceleration values are selected to the kinematics of the person or parts of the person, selected positions of the person and / or parts the person attached marking means which are detected by means of the sensor system.
Diese mit dem Sensorsystem erfassten Informationen werden in einem zweiten Schritt unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells bewertet. Der Begriff „Verhaltensmodell” umfasst eine Vielzahl das Verhalten einer jeweiligen Person innerhalb des Aktionsbereiches der Robotereinheit beschreibende Informationen, die in Form einer daten- und/oder wissensbasierten Datenbank abgespeichert sind. Die das Verhalten der jeweiligen Person beschreibende Informationen umfasst für die Person charakteristische Posen und Lagen sowie auch für die Person typische Bewegungsinformationen, damit sind insbesondere Fortbewegungsgeschwindigkeiten bzw. Beschleunigungswerte der Person oder Teile der Person, wie Arme, Beine, Kopf etc. gemeint.These information acquired by the sensor system are evaluated in a second step on the basis of a behavioral model describing the person. The term "behavioral model" encompasses a multiplicity of information describing the behavior of a respective person within the action area of the robot unit, which information is stored in the form of a data- and / or knowledge-based database. The information describing the behavior of the respective person comprises characteristic poses and positions characteristic of the person as well as movement information typical for the person, in particular, movement speeds or acceleration values of the person or parts of the person, such as arms, legs, head, etc.
Betrachtet man an dieser Stelle das Beispiel einer Übergabe von Produkten von einer Person an eine Robotereinheit, die das jeweilige Produkt weiterverarbeitet, so hält sich die Person für diesen konkreten Übergabevorgang in einem bestimmten räumlichen Sektor in Bezug auf die Robotereinheit auf und führt für jeden einzelnen Übergabevorgang einen bestimmten Bewegungsablauf aus. Für diese Interaktion nimmt die Person eine Vielzahl erlaubter Bewegungszustände bzw. räumliche Posen ein, um erfolgreich und damit verletzungsfrei mit der Robotereinheit zusammen zu arbeiten. Liegen diese für eine erfolgreiche Interaktion mit der Robotereinheit erlaubten Bewegungszustände bzw. Posen beispielsweise in Form von Referenzdaten in einer Datenbank vor, in der wie eingangs erwähnt, zusätzliche, die Bewegungsdynamik der Person beschreibende Informationen enthalten sind, ist es möglich, die mittels des Sensorsystems aktuell erfasste Position der Person oder Teile der Person mit den vorstehend abgespeicherten Referenzdaten zu vergleichen. Mit Hilfe geeigneter Bewertungskriterien, die dem Verhaltensmodell zugrundegelegt sind, werden in einem dritten Schritt Steuersignale generiert, die die Eigenbeweglichkeit der Robotereinheit kontrolliert beeinflussen, um eine gewünschte Interaktion zwischen Mensch und Robotereinheit zu ermöglichen.Looking at the example of a transfer of products from a person to a robot unit that processes the respective product, the person for this specific transfer process in a particular spatial sector with respect to the robot unit and executes a specific sequence of movements for each individual transfer process. For this interaction, the person takes a variety of allowed movement states or spatial poses, in order to work together successfully and thus injury-free with the robot unit. If these movement states or poses permitted for a successful interaction with the robot unit are present, for example in the form of reference data in a database in which, as mentioned at the beginning, additional information describing the person's movement dynamics is contained, it is possible to update the information by means of the sensor system detected position of the person or parts of the person with the previously stored reference data to compare. By means of suitable evaluation criteria, which are based on the behavioral model, control signals are generated in a third step, which influence the proper mobility of the robot unit in order to enable a desired interaction between human and robot unit.
Die bei der Bewertung der dynamisch erfassten Position der Person oder Teile der Person unter Maßgabe eines die Person beschreibenden Verhaltensmodells zugrundeliegenden Bewertungskriterien richten sich nach Art und Umfang der jeweiligen Interaktion zwischen der Person und der Robotereinheit. Handelt es sich beispielsweise um einen Übergabevorgang eines Gegenstandes von der Person auf die Robotereinheit, so ist die genaue Erfassung der Armposition der Person sowie die Arm bewegungsgeschwindigkeit besonders relevant. Gerät beispielsweise die Person beim Übergabevorgang ins Stolpern, wodurch beispielsweise die Armbewegung ungewöhnlich ruckartig und hastig erfolgt, so wird dies vom Sensorsystem erfasst. Die hastigen Armbewegungen werden mit den abgespeicherten Referenzdaten verglichen und letztlich bewertend festgestellt, dass die Armposition sowie deren Geschwindigkeit nicht mit den erlaubten Verhaltensmustern übereinstimmen. Als Folge werden Steuersignale für die Robotereinheit generiert, durch die der Roboter veranlasst wird entsprechend zurückzuweichen oder aber der Roboter wird kurzzeitig abgeschaltet.The evaluation criteria underlying the evaluation of the dynamically recorded position of the person or parts of the person in accordance with a behavioral model describing the person depend on the type and extent of the respective interaction between the person and the robot unit. If, for example, it involves a transfer of an object from the person to the robot unit, then the exact detection of the person's arm position and the arm movement speed are particularly relevant. For example, the person stumbling during the transfer process, whereby, for example, the arm movement is unusually jerky and hasty, so this is detected by the sensor system. The hasty movements of the arms are compared with the stored reference data and, in the final analysis, determined that the arm position and its speed do not match the permitted behavioral patterns. As a result, control signals are generated for the robot unit, which causes the robot to back up accordingly or the robot is switched off for a short time.
Von entscheidender Bedeutung für eine erfolgreiche Anwendung des Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist die exakte Erfassung der Person oder Teile der Person sowohl im Hinblick auf ihrer aktuelle räumlichen Lage und Position, als auch im Hinblick ihrer aktuellen Bewegungsdynamik. Zur vereinfachten weiteren Beschreibung wird angenommen, dass die Person in ihrer Gesamtheit erfasst werden soll. Hierbei soll jedoch nicht außer Acht gelassen werden, dass es auch Fälle gibt, in denen eine Person lediglich in Teilbereichen erfasst wird, bspw. in Fällen in denen eine Person ausschließlich mit ihren Händen an einem Arbeitsplatz mit einer Robotereinheit zusammenarbeitet, so dass für eine diesbezügliche Interaktion lediglich die Hände bzw. Arme der Person, also Teile der Person, relevant sind.Critical to successful application of the method of controlled interaction between a self-propelled robotic unit and a person is the accurate detection of the person or parts of the person both in terms of their current spatial location and position, as well as their current movement dynamics. For ease of further description, it is assumed that the person should be comprehended in its entirety. Here, however, it should not be forgotten that there are cases in which a person is detected only in some areas, for example. In cases where a person works exclusively with their hands in a workplace with a robot unit, so that for a related Interaction only the hands or arms of the person, ie parts of the person are relevant.
Um die Person für die erwünschte Interaktion räumlich und in ihrer Bewegungsdynamik exakt mit Hilfe des Sensorsystems erfassen zu können, wird die Person an ausgewählten Stellen mit Markierungsmitteln versehen, die vorzugsweise in entsprechenden Bekleidungsstücken, die die Person trägt, integriert sind. Die mit den Markierungsmitteln versehenen ausgewählten Stellen sind vorzugsweise End- und/oder Gelenkbereiche von Extremitäten. So können beispielsweise geeignete Markierungsmittel in Handschuhen, Ellbogenschützer, Kopfbedeckungen, Schuhe etc. vorgesehen werden.In order to be able to detect the person for the desired interaction spatially and in terms of its dynamics of movement exactly with the aid of the sensor system, the person is provided at selected points with marking means which are preferably integrated in corresponding items of clothing which the person wears. The selected locations provided with the marking means are preferably end and / or joint areas of extremities. For example, suitable markers may be provided in gloves, elbow pads, headgear, shoes, etc.
Je nach der technischen Art und Ausbildung des verwendeten Sensorsystems sind die Markierungsmittel geeignet zu wählen. Beispielsweise eignen sich besonders auf funk, optische oder akustische Ortung basierende Sensorsysteme, auf die im weiteren im einzelnen eingegangen wird. Auch ist es möglich, eine räumlich zeitaufgelöste Positionsbestimmung einer Person mit Hilfe geeigneter Kameraaufnahmen und nachfolgender Bildauswertung vorzunehmen.Depending on the technical nature and design of the sensor system used, the marking agents are suitable to choose. By way of example, sensor systems based on radio, optical or acoustic location, which will be discussed in detail below, are particularly suitable. It is also possible to perform a spatially time-resolved position determination of a person with the help of suitable camera shots and subsequent image analysis.
Für die Durchführung des vorstehend beschriebenen Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist wenigstens ein Sensorsystem erforderlich, mit dem die aktuelle räumliche Position einer Person oder Teile der Person erfassbar ist, eine Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums Steuersignale generiert wird und schließlich eine Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln.For carrying out the above-described method for the controlled interaction between a self-propelled robot unit and a person, at least one sensor system is required, with which the current spatial position of a person or parts of the person can be detected, an evaluation unit with a reference poses of the person or parts of the person containing Database, in which the detected current spatial position compared with reference poses and based on an evaluation criterion control signals is generated and finally a control unit for controlling the proper mobility of the robot unit determining drive means.
Wie bereits vorstehend erwähnt, bildet das Kernstück der Vorrichtung das Sensorsystem zum Erfassen der jeweiligen aktuellen räumlichen Position der Person, das in seinen vielseitigen Ausgestaltungsmöglichkeiten unter Bezugnahme auf die nachstehenden Ausführungsbeispiele im einzelnen näher erläutert wird.As already mentioned above, the core of the device forms the sensor system for detecting the respective current spatial position of the person, which is explained in detail in its versatile design options with reference to the following embodiments.
Kurze Beschreibung der ErfindungBrief description of the invention
Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen exemplarisch beschrieben. Es zeigen:The invention will now be described by way of example without limitation of the general inventive idea by means of embodiments with reference to the drawings. Show it:
Wege zur Ausführung der Erfindung, gewerbliche VerwendbarkeitWays to carry out the invention, industrial usability
Die unter Bezugnahme auf die Ausführungsbeispiele gemäß der
In
Ein im Bereich der Robotereinheit R installierter Sender S sendet Funksignale aus, die von den einzelnen Transpondern T empfangen und in einer anderen Frequenz als der Sendefrequenz des Senders S zurückgesendet werden. Vorzugsweise sind mehrere Empfänger (nicht in
Äquivalent zum vorstehend betrachteten Fall zur Bestimmung der Positionskoordinaten des Transponders in einer Ebene gemäß
Zur eindeutigen Beschreibung eines Bewegungszustandes bzw. einer Pose der jeweiligen Person werden die einzelnen räumlich und zeitlich erfassten Transponderpositionen in einem vereinfachten Menschmodell gemäß der Bilddarstellung in
So sind einerseits die minimalen und maximalen Winkelwerte bzw. Beugezustände der einzelnen Gelenksbereiche sowie die maximalen Winkelgeschwindigkeiten, die die einzelnen Gelenkachsen annehmen können, im Rahmen der Menschmodell-Kinematik bekannt bzw. festgelegt. Unter Zugrundelegung dieser Informationen lässt sich somit durch Vergleichsbildung mit den aktuell erfassten Positionen und Posen einer Person abschätzen bzw. vorausberechnen, wo sich die Person auch einige Zeit nach der Messung durch das Sensorsystem aufhalten wird bzw. kann, so dass die Ortsbestimmung mit Hilfe des Sensorsystems nicht notwendigerweise kontinuierlich, sondern lediglich in kurzen Intervallen durchgeführt werden kann.Thus, on the one hand, the minimum and maximum angle values or bending states of the individual joint regions and the maximum angular velocities which the individual joint axes can assume are known or defined within the framework of the human model kinematics. On the basis of this information, it is thus possible to estimate or predict by comparing with the currently detected positions and poses of a person, where the person will or will stay for some time after the measurement by the sensor system, so that the position determination with the aid of the sensor system not necessarily continuously but only at short intervals.
Alternativ zu der vorstehend erläuterten Transpondertechnik ist es ebenso möglich, Schallsender AS an den zu ermittelnden Positionen der Kleidung der Person P anzubringen, die modulierten Schall, beispielsweise hörbaren Schall oder vorzugsweise Ultraschall aussenden. Durch die Aufnahme der Schallsignale mit einem Empfänger M, der in diesem Fall als Mikrofon ausgebildet ist, kann durch entsprechende Auswertung der Signale die Position der einzelnen Schallquellen AS und damit die Position der Person ermittelt werden. Zur Positionsbestimmung dient auch in diesem Fall das bereits vorstehende Prinzip der Triangulation.As an alternative to the transponder technique explained above, it is also possible to attach sound transmitters AS to the positions of the clothes of the person P to be determined, which emit modulated sound, for example audible sound or preferably ultrasound. By recording the sound signals with a receiver M, which is designed in this case as a microphone, the position of the individual sound sources AS and thus the position of the person can be determined by appropriate evaluation of the signals. To determine the position is used in this case, the already above principle of triangulation.
Abweichend vom Triangulationsverfahren ermöglichen Beschleunigungssensoren und/oder Kreisel, die als Trägheits-abhängige Sensoren TR bekannt sind, eine Positionserfassung im Wege der räumlichen Kopplung ausgehend von einem räumlichen Referenzpunkt (siehe
Befindet sich die mit Trägheits-abhängigen Sensoren ausgerüstete Person zum Zeitpunkt t0 in einer Ausgangslage, der sogenannten Referenzlage, so sind die Positionen der Beschleunigungssensoren und Kreisel bekannt. In jedem darauffolgenden Zeitintervall ΔT wird pro Beschleunigungssensor bzw. Kreisel ein Beschleunigungsvektor aufgenommen, der in Verbindung mit allen übrigen Beschleunigungsvektoren als Rechnungsgrundlage für eine Positionsberechnung der Person nach jedem einzelnen Zeitintervall dient.If the person equipped with inertia-dependent sensors is in a starting position, the so-called reference position, at time t 0 , the positions of the acceleration sensors and gyros are known. In each subsequent time interval .DELTA.T an acceleration vector is recorded per acceleration sensor or gyro which, in conjunction with all the other acceleration vectors, serves as the basis for calculation for a position calculation of the person after each individual time interval.
Schließlich ist es möglich, eine Positionsbestimmung einer Person bzw. Teile einer Person im Wege optischer Beobachtung mit Hilfe einer Kamera unter Einsatz der Differenzbildtechnik vorzunehmen. Bezugnehmend auf die Darstellung gemäß
Somit ist es auch mit dieser Technik möglich, Positionen und Posen einer Person, vorzugsweise Teile einer Person, zu erfassen.Thus, it is also possible with this technique to detect positions and poses of a person, preferably parts of a person.
Bedient man sich anstelle einer Aufnahmekamera K gemäß linker Bilddarstellung in
Soll mit Hilfe der vorstehend beschriebenen, rein optischen Überwachungstechnik die aktuelle Position und Pose einer ganzen Person bestimmt werden, so dienen als Farbmarkierungen ausgebildete Markiermittel, die an entsprechenden Stellen der Kleidung der Person angebracht werden können, als entsprechende, von den Kameras zu detektierende Positionsmarken.If the current position and pose of an entire person are to be determined with the aid of the above-described, purely optical monitoring technology, then marking means designed as color markings, which can be attached to the person's clothing, serve as corresponding position markers to be detected by the cameras.
Mit Hilfe des erfindungsgemäßen Verfahrens sowie Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist es möglich, einerseits ein Eintreten einer Person in den Aktionsbereich der Robotereinheit festzustellen und von Seiten der Robotereinheit auf dieses Ereignis in geeigneter Weise zu reagieren, beispielsweise durch Not-Ausschaltung oder andere Steuerungsstrategien. Insbesondere kann die Robotereinheit seine Bewegungsdynamik gezielt auf die Bewegungen der Person abstimmen und auf diese Weise ein gemeinsames Arbeiten ermöglichen.With the aid of the method according to the invention and a device for controlled interaction between a robot unit and a person, it is possible on the one hand to detect the entry of a person into the action area of the robot unit and to respond appropriately to this event on the part of the robot unit, for example by emergency Elimination or other control strategies. In particular, the robot unit can tailor its movement dynamics specifically to the movements of the person and thus enable joint work.
Nachstehend seien reihenhaft die mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung verbundenen Vorteile zusammengefasst: Schaffung einer neuartigen Möglichkeit der Zusammenarbeitung zwischen Mensch und Roboter.The following summarizes the advantages associated with the method according to the invention and the device according to the invention: Creation of a novel possibility of cooperation between human and robot.
Die Durchlaufzeit von Werkstücken längs einer Produktionsstrasse kann erhöht werden, da durch den gemeinsamen Arbeitsraum zwischen Roboter und Mensch die Transportwege kleiner werden.The throughput time of workpieces along a production line can be increased because the transport paths become smaller due to the common working space between robot and human.
Der Einsatz von mobilen Robotermanipulatoren in Produktionsbereichen, in denen auf manuelle Zuarbeit nicht verzichtet werden kann, wird durch die erfindungsgemäße Maßnahme erst ermöglicht.The use of mobile robotic manipulators in production areas in which manual input can not be dispensed with is only made possible by the measure according to the invention.
Der räumliche Platzbedarf für Robotereinheiten wird entscheidend reduziert, da keine aufwendigen Abgrenzungsmaßnahmen und Lichtschrankenanlagen erforderlich sind.
- AS
- Schallquelle
- E
- Empfänger
- K
- Kamera
- M
- Mikrophon
- P
- Person
- R
- Robotereinheit
- S
- Sender
- T
- Transponder, Markierungsmittel
- TR
- Trägheits-abhäniger Sensor
- AS
- sound source
- e
- receiver
- K
- camera
- M
- microphone
- P
- person
- R
- robot unit
- S
- transmitter
- T
- Transponder, marker
- TR
- Inertia-dependent sensor
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2002116023 DE10216023B4 (en) | 2002-04-11 | 2002-04-11 | Method and apparatus for controlled interaction between a self-propelled robot unit and a human |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2002116023 DE10216023B4 (en) | 2002-04-11 | 2002-04-11 | Method and apparatus for controlled interaction between a self-propelled robot unit and a human |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10216023A1 DE10216023A1 (en) | 2003-11-06 |
DE10216023B4 true DE10216023B4 (en) | 2013-08-14 |
Family
ID=28798376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2002116023 Expired - Fee Related DE10216023B4 (en) | 2002-04-11 | 2002-04-11 | Method and apparatus for controlled interaction between a self-propelled robot unit and a human |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10216023B4 (en) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10320343B4 (en) * | 2003-05-07 | 2008-05-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for supervised cooperation between a robot unit and a human |
DE102004030144B4 (en) * | 2004-06-22 | 2007-09-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for close range detection around a robot unit |
DE102004038906B4 (en) * | 2004-08-11 | 2007-10-25 | Sick Ag | Method for detecting moving objects in a monitoring device and monitoring device |
DE102004048563A1 (en) * | 2004-10-04 | 2006-04-13 | Benteler Automobiltechnik Gmbh | Monitoring system for an industrial robot prevents collision with objects within field of operation |
DE102005003827B4 (en) * | 2005-01-26 | 2007-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for interaction between a human and a robot unit at a robot workstation |
DE102005027522B4 (en) * | 2005-06-15 | 2013-01-17 | Peter Heiligensetzer | evaluation method |
DE102007013299A1 (en) † | 2007-03-06 | 2008-09-11 | Cedes Ag | Sensor device and system with a conveyor and a sensor device |
WO2009155946A1 (en) * | 2008-06-26 | 2009-12-30 | Abb Ag | Adaptive robot system |
DE102008041602B4 (en) * | 2008-08-27 | 2015-07-30 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Robot and method for controlling a robot |
DE102010002250B4 (en) | 2010-02-23 | 2022-01-20 | pmdtechnologies ag | surveillance system |
DE102010017857B4 (en) * | 2010-04-22 | 2019-08-08 | Sick Ag | 3D security device and method for securing and operating at least one machine |
DE102010063125A1 (en) * | 2010-12-15 | 2012-06-21 | Robert Bosch Gmbh | Method for inductive transmission of electrical energy to energy storage device of vehicle, involves interrupting transmission of energy when distance between transmission unit and radiation-sensitive component is below preset distance |
CN104428107B (en) | 2012-07-10 | 2016-06-29 | 西门子公司 | The method that robot arranges and is used for controlling robot |
DE102013001987A1 (en) * | 2013-02-06 | 2014-08-07 | Salvavidas GmbH | Method for detecting human and moving objects working in hybrid working system used for cleaning of soiled article, determines movement of human and moving object according to spatial distribution of radio frequency identification tags |
DE102014219754B4 (en) | 2013-10-01 | 2022-07-07 | Avago Technologies International Sales Pte. Ltd. | Gesture based industrial surveillance |
DE102013020596A1 (en) * | 2013-12-13 | 2015-06-18 | Daimler Ag | Workstation and method for performing at least one work step, in particular for producing a motor vehicle |
DE102014114596B4 (en) | 2014-01-28 | 2018-09-06 | Franka Emika Gmbh | Control of a robot arm |
DE202014100411U1 (en) | 2014-01-30 | 2015-05-05 | Kuka Systems Gmbh | safety device |
DE102014210594A1 (en) * | 2014-06-04 | 2015-12-17 | Robert Bosch Gmbh | Method and device for operating a production plant |
DE102016200455A1 (en) * | 2016-01-15 | 2017-07-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Safety device and method for safe operation of a robot |
DE102016202052B3 (en) * | 2016-02-11 | 2017-04-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method and arrangement for high-precision positioning of a robot-controlled interaction device by means of radar |
JP6360105B2 (en) * | 2016-06-13 | 2018-07-18 | ファナック株式会社 | Robot system |
DE102021100112A1 (en) * | 2021-01-06 | 2022-07-07 | Helmut-Schmidt-Universität Hamburg | System for supporting manual work processes in the presence of a controllable collaborative robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4115846A1 (en) * | 1991-05-15 | 1992-11-19 | Ameling Walter | Contactless spatial position measurement in robot processing chamber - acquiring images of robotic actuator with defined marking enabling calibration of imaging units in coordinate system |
DE19843602A1 (en) * | 1997-11-13 | 1999-05-20 | Werner Wolfrum | Processing unit movement detection for manufacturing process |
WO1999028761A1 (en) * | 1997-12-04 | 1999-06-10 | At&T Laboratories-Cambridge Limited | Detection system for determining positional and other information about objects |
DE19708240C2 (en) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Arrangement and method for detecting an object in a region illuminated by waves in the invisible spectral range |
-
2002
- 2002-04-11 DE DE2002116023 patent/DE10216023B4/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4115846A1 (en) * | 1991-05-15 | 1992-11-19 | Ameling Walter | Contactless spatial position measurement in robot processing chamber - acquiring images of robotic actuator with defined marking enabling calibration of imaging units in coordinate system |
DE19708240C2 (en) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Arrangement and method for detecting an object in a region illuminated by waves in the invisible spectral range |
DE19843602A1 (en) * | 1997-11-13 | 1999-05-20 | Werner Wolfrum | Processing unit movement detection for manufacturing process |
WO1999028761A1 (en) * | 1997-12-04 | 1999-06-10 | At&T Laboratories-Cambridge Limited | Detection system for determining positional and other information about objects |
Non-Patent Citations (4)
Title |
---|
LAY, K: "MORPHA: Intelligente anthropomorphe Assistenzsysteme - Die Interaktion zwischen Mensch und mobilen Assistenzsystemen als grundlegende Variante der Mensch-Technik-Interaktion", In: it + ti - Informationstechnik und Technische Informatik 42 (2000) 1, S. 38-43 * |
MITTERMAYER, Ch.; SCHWEINZER, H.: "Sensorintegration für Industrie-Robotersteuerungen", In: e&i 117.Jg. (2000). H. 11, S. 707-713 * |
SPINGLER, J.; THIEMERMANN, S.: "Direkte Mensch-Roboter-Kooperation", In: ZWF Jahrg. 96 (2001) 11-12, S.616-620 * |
TOLLE, H: "Autonomieerhöhung durch Lernen Teil II: Erlernen von Heuristiken, Planungs- und Kommunikationsgrundlagen", In: at - Automatisierungstechnik 49 (2001) 6, S. 260-270 * |
Also Published As
Publication number | Publication date |
---|---|
DE10216023A1 (en) | 2003-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10216023B4 (en) | Method and apparatus for controlled interaction between a self-propelled robot unit and a human | |
Vasic et al. | Safety issues in human-robot interactions | |
DE102017128543B4 (en) | NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT | |
Chen et al. | Human performance issues and user interface design for teleoperated robots | |
EP1521211B1 (en) | Method and apparatus for determining the position and orientation of an image receiving device | |
EP3701340B1 (en) | Monitoring device, industrial installation, method for monitoring, and computer program | |
AT513130B1 (en) | Method and system for assisting a worker in a facility for manipulating goods | |
DE102018112403B4 (en) | ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT | |
DE102013001987A1 (en) | Method for detecting human and moving objects working in hybrid working system used for cleaning of soiled article, determines movement of human and moving object according to spatial distribution of radio frequency identification tags | |
DE202014100411U1 (en) | safety device | |
DE102007059480B4 (en) | Method and device for pose monitoring of a manipulator | |
EP3552921B1 (en) | Autonomous speed planning of a mobile actor limited to a predetermined path | |
Bolano et al. | Transparent robot behavior using augmented reality in close human-robot interaction | |
DE102019112043A1 (en) | robot system | |
DE102018101162B4 (en) | Measuring system and method for extrinsic calibration | |
DE102017111886B3 (en) | Determine the movement of a machine to be protected | |
Hermann et al. | Anticipate your surroundings: Predictive collision detection between dynamic obstacles and planned robot trajectories on the GPU | |
DE102020206403A1 (en) | Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot | |
CN112706158A (en) | Industrial man-machine interaction system and method based on vision and inertial navigation positioning | |
DE102019211770B3 (en) | Process for the computer-aided recording and evaluation of a workflow in which a human worker and a robotic system interact | |
DE102020204768A1 (en) | Unmanned transfer robot system | |
Cabrera et al. | Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories | |
Wang et al. | Integrated and automated Systems for Safe Construction Sites | |
DE102018212944A1 (en) | Procedure to support collaboration between humans and robots using data glasses | |
DE102019007091A1 (en) | Robotic control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8120 | Willingness to grant licences paragraph 23 | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R082 | Change of representative | ||
R020 | Patent grant now final |
Effective date: 20131115 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |