DE10216023B4 - Method and apparatus for controlled interaction between a self-propelled robot unit and a human - Google Patents

Method and apparatus for controlled interaction between a self-propelled robot unit and a human Download PDF

Info

Publication number
DE10216023B4
DE10216023B4 DE2002116023 DE10216023A DE10216023B4 DE 10216023 B4 DE10216023 B4 DE 10216023B4 DE 2002116023 DE2002116023 DE 2002116023 DE 10216023 A DE10216023 A DE 10216023A DE 10216023 B4 DE10216023 B4 DE 10216023B4
Authority
DE
Germany
Prior art keywords
person
parts
robot unit
sensor system
reference data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE2002116023
Other languages
German (de)
Other versions
DE10216023A1 (en
Inventor
Evert Helms
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE2002116023 priority Critical patent/DE10216023B4/en
Publication of DE10216023A1 publication Critical patent/DE10216023A1/en
Application granted granted Critical
Publication of DE10216023B4 publication Critical patent/DE10216023B4/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Abstract

Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, gekennzeichnet durch folgende Verfahrensschritte: – Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, – Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, – Gezieltes Ansteuern der Antriebsmittel der Robotereinheit zur kontrollierten Einflussnahme auf die Eigenbeweglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.Method for the controlled interaction between a self-propelled robot unit and a person, characterized by the following method steps: detecting the spatially and temporally changing position of the person or of parts of the person by spatially and temporally resolved detection of locomotion speed as well as velocity gradients or acceleration values to the kinematics of the person Person or parts of the person characterizing selected locations of the person and / or the parts of the person by means of a sensor system, wherein for sensing purposes at the selected locations of the person marking means (T) are mounted, - evaluating the dynamically detected position of the person or Sharing of the person based on a behavioral model describing the person, stored in the form of a data and / or knowledge-based database, in the person's characteristic poses and postures and movements typical of the person gungsinformationen stored as reference data, by comparison of the dynamically detected position with the stored in the database reference data, - generating control signals based on a rating criterion, - Targeted driving the drive means of the robot unit for controlled influence on the intrinsic mobility of the robot unit depending on the evaluated, dynamically recorded position of the person.

Description

Technisches GebietTechnical area

Die Erfindung bezieht sich auf ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person.The invention relates to a method and a device for the controlled interaction between a self-propelled robot unit and a person.

Stand der TechnikState of the art

Der Einsatz von Industrierobotern, vorzugsweise zu Produktionszwecken, wird bereits Jahrzehnte lang überaus erfolgreich angewandt, um Produktionsgüter in hohen Stückzahlen unter gleichbleibend hohen Produktqualitäten herzustellen. Zwar sind derartige Industrieroboter in der industriellen Fertigung weit verbreitet, doch werden sie zu Montagezwecken lediglich in Teilgebieten eingesetzt, in denen der Mensch aus Sicherheitsgründen keinen Zugang hat. So fordert beispielsweise die Sicherheitsnorm ISO 10218 eine strikte Trennung der Arbeitsräume von Mensch und Roboter, um die durch den Roboter bedingte für den Menschen bestehende Verletzungsgefahr vollständig auszuschließen. Die vorstehend zitierte Sicherheitsnorm beschränkt sich ausschließlich auf stationäre Industrieroboter, deren Aktionsradius definiert vorgegeben ist. Vergleichbare Sicherheitsnormen bzw. -richtlinien für mobile Roboter, die beispielsweise auf einer eigenfortbewegungsfähigen Plattform angebracht sind, existieren derzeit jedoch nicht. Derartige, zur Eigenfortbewegung befähigte Roboter verfügen vielmehr über automatische Abschaltmechanismen, die im Falle aktiviert werden, wenn ein externer Gegenstand, beispielsweise eine Person, einen vorgegebenen Mindestabstand zum Roboter unterschreitet. Der Bewegungsvorgang des Roboters wird unterbrochen und mögliche durch den Roboter vorgenommene Manipulationsvorgänge gestoppt.The use of industrial robots, preferably for production purposes, has been used very successfully for decades to produce high volume production goods with consistently high product quality. Although such industrial robots are widely used in industrial production, they are used for assembly purposes only in sub-areas in which humans have no access for security reasons. For example, the safety standard ISO 10218 requires a strict separation of the work spaces of humans and robots, in order to completely eliminate the risk of injury to humans caused by the robot. The above-cited safety standard is limited exclusively to stationary industrial robots, whose radius of action is defined defined. However, comparable security standards or guidelines for mobile robots, which are for example mounted on a self-propelled platform, do not currently exist. On the contrary, such robots enabled for self-locomotion have automatic shut-off mechanisms which are activated in the event that an external object, for example a person, falls below a predetermined minimum distance from the robot. The movement process of the robot is interrupted and possible manipulation operations performed by the robot are stopped.

Die derzeit am häufigsten in der industriellen Produktion im Einsatz befindlichen Industrieroboter betreffen jedoch stationäre Robotersysteme mit jeweils an die unterschiedlichen Montagebedingungen angepaßte Manipulatorarmen, die über zumeist über ein Vielzahl von Bewegungsfreiheitsgraden verfügen. Die maximale Gesamtlänge einer Roboterarmanordnung sowie deren zugänglicher Bewegungsraum definiert den durch den Roboter erreichbaren maximalen Arbeits- bzw. Aktionsbereich, der aus sicherheitstechnischen Gründen vielerorts durch einen Käfig und/oder Lichtschranken umgeben und dadurch gesichert ist.However, the industrial robots currently most frequently used in industrial production relate to stationary robot systems, each with manipulator arms adapted to the different assembly conditions, which usually have a large number of degrees of freedom of movement. The maximum overall length of a robot arm assembly and its accessible movement space defines the achievable by the robot maximum work or action area, which is surrounded for safety reasons in many places by a cage and / or photocells and thus secured.

Ist ein Industrieroboter durch einen entsprechend ausgestatteten Sicherheitskäfig umgeben, so ist es ohnehin für einen Menschen nicht möglich, in den Aktionsbereich des Roboters zu gelangen. Durch Vorsehen entsprechender Lichtschranken, die zumeist mit einem Sicherheitsabschalt-System verbunden sind, wird der Industrieroboter durch eine festgestellte Lichtschrankenunterbrechung abrupt abgeschaltet, so dass in Fällen, in denen beispielsweise ein Mensch unbeabsichtigt in den Aktionsbereich eines Roboters gelangt, von diesem nicht verletzt werden kann.If an industrial robot is surrounded by a suitably equipped safety cage, it is not possible for a human being to get into the action area of the robot anyway. By providing appropriate photocells, which are usually connected to a safety shutdown system, the industrial robot is abruptly switched off by a detected photocell interruption, so that in cases where, for example, a person inadvertently enters the action area of a robot, can not be violated by this.

Auch sind derzeit noch im experimentellen Stadium befindliche Schutzsysteme für stationäre sowie auch mobile Industrieroboter bekannt, die über sensorische Detektionssysteme verfügen, mit denen die Erfassung der Annäherung eines Objektes möglich ist. Beispielsweise werden hierzu Manipulatorarme eines Industrieroboter-Systems mit Ultraschall- oder Infrarot-Sensoren bestückt, die die Relativannäherung zu einem Objekt oder zu einem Menschen zu detektieren vermögen. Wird mit Hilfe derartiger Sensoren eine entsprechende Objektannäherung festgestellt, so wird zur Vermeidung von Kollisionen bzw. etwaiger Verletzungen die Eigenbeweglichkeit des Roboters gestoppt oder zumindest seine Fortbewegungsgeschwindigkeit stark herabgesetzt.At present, protective systems for stationary as well as mobile industrial robots that are still in experimental stage are known, which have sensory detection systems with which the detection of the approach of an object is possible. For example, this manipulator arms of an industrial robot system are equipped with ultrasonic or infrared sensors that are able to detect the relative approach to an object or to a human. If a corresponding object approximation is detected with the aid of such sensors, the inherent mobility of the robot is stopped or at least its speed of travel is greatly reduced in order to avoid collisions or possible injuries.

Schließlich sind Robotersysteme bekannt, die an ausgewiesenen Manipulatorarmbereichen über taktile Sensoren verfügen, die im Falle einer Berührung mit einem Objekt Steuersignale für ein abruptes Ausschalten des Roboters generieren.Finally, robotic systems are known which have tactile sensors on designated manipulator arm areas which, in the event of contact with an object, generate control signals for an abrupt shutdown of the robot.

Allen bekannten Schutzsystemen, die zur Vermeidung von Kollisionen zwischen den Robotern und bewegten Objekten, allen voran einem Menschen dienen, haftet der Nachteil an, dass eine Zusammenarbeit zwischen Mensch und Roboter im wirtschaftlichen Sinne nicht möglich ist. Entweder ist eine gewünschte Interaktion zwischen Mensch und Maschine aufgrund systembedingter Sicherheitsmaßnahmen überhaupt nicht möglich, wie im Falle der durch Schutzgitter sowie Lichtschranken geschützter Robotersysteme, oder die Arbeitsgeschwindigkeit der mit Schutzmechanismen ausgestatteten Industrieroboter wird zur Vermeidung von Verletzungen derart reduziert, dass eine angestrebte Interaktion rein aus wirtschaftlichen Überlegungen nicht weiter interessant erscheint.All known protection systems that serve to avoid collisions between the robots and moving objects, especially a man, has the disadvantage that cooperation between humans and robots in the economic sense is not possible. Either a desired interaction between man and machine due to systemic safety measures is not possible at all, as in the case of protected by grids and photocells robotic systems, or the operating speed of the protective robotic industrial robots is reduced to avoid injury so that a desired interaction purely from economic Considerations does not seem interesting.

So existieren derzeit aufgrund der einzuhaltenden Sicherheitsbestimmungen keine Robotersysteme, die unter industriellen Produktionsbedingungen eine unmittelbare und direkte Zusammenarbeit mit einer Person erlauben. Eine derartige Zusammenarbeit ist jedoch an vielen Produktionsstellen wünschenswert, beispielsweise um den Produktionsfluss und die Auslastung derartiger Industrieroboter-Systeme zu optimieren. Dies betrifft insbesondere Übergabevorgänge von Halbfertigprodukten von einem Menschen an eine, das Halbfertigprodukt weiter verarbeitende Robotereinheit, bei denen gegenwärtig üblicherweise das Robotersystem kurzzeitig stillgelegt und nach erfolgter Übergabe erneut aktiviert werden muss. Dies führt zu größeren Stand- und Nebenzeiten, die es gilt, aus wirtschaftlichen Überlegungen zu reduzieren bzw. vollständig zu vermeiden.Due to the safety regulations to be observed, there are currently no robot systems that permit direct and direct cooperation with a person under industrial production conditions. However, such collaboration is desirable at many manufacturing sites, for example to optimize the production flow and utilization of such industrial robot systems. In particular, this concerns handover operations of semi-finished products from a human to a robotic unit that further processes the semi-finished product, where currently the robotic system is currently used for a short time shut down and must be reactivated after handover. This leads to greater idle time and non-productive time, which must be reduced or completely avoided for economic reasons.

Aus dem Artikel „Direkte Mensch-Roboter-Kooperation”, J. Spingler, S. Thiemermann, Carl Hanser Verlag. ZWF 96/2001, S. 616–620 ist ein Verfahren zur Kooperation zwischen Mensch und Roboter zu entnehmen, bei dem die Position, Geschwindigkeit und Beschleunigung exponierter Punkte des Menschen sowie des Roboters bestimmt werden. Hierbei gilt es, jeweils den kürzesten Abstand zwischen Mensch und Roboter zu ermitteln und diesen mit zulässigen Mindestabständen zu vergleichen. Bei Unterschreiten des Mindestabstandes werden entsprechende Robotersteuersignale generiert, die zur Vermeidung von Kollisionen ein spontanes Zurückweisen des Roboters zur Folge haben.From the article "Direct Human-Robot Cooperation", J. Spingler, S. Thiemermann, Carl Hanser Verlag. ZWF 96/2001, p. 616-620, a method for cooperation between human and robot can be found in which the position, speed and acceleration of exposed points of the human and the robot are determined. Here it is important to determine the shortest distance between human and robot and to compare this with the permissible minimum distances. If the minimum distance is undershot, corresponding robot control signals are generated which, in order to avoid collisions, result in a spontaneous rejection of the robot.

In einem weiteren Artikel, „MORPHA: Intelligente antropomorphe Assistenzsysteme – Die Interaktion zwischen Mensch und mobilen Assistenzsystemen als grundlegende Variante der Mensch-Technik-Interaktion”, K. Lay, Oldenbourg Verlag, Informationstechnik und Technische Informatik 42/2000, S. 38–43, wird die Interaktion zwischen einem Menschen und einem mobilen Assistenzsystem beschrieben, beispielsweise in Form eines intelligenten Roboters, wobei der Druckschrift lediglich an ein derartiges System zu stellende Anforderungen entnehmbar sind, nicht jedoch wie die einzelnen Anforderungen technisch zu lösen sind.In another article, "MORPHA: Intelligent antropomorphic assistance systems - The interaction between humans and mobile assistance systems as basic variant of the human-technology interaction", K. Lay, Oldenbourg publishing house, information technology and technical computer science 42/2000, P. 38-43 , the interaction between a human and a mobile assistance system is described, for example in the form of an intelligent robot, wherein the document can be removed only to such a system requirements to be removed, but not how the individual requirements are technically solved.

Darstellung der ErfindungPresentation of the invention

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie eine Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person anzugeben, wobei unter Bedacht auf die geltenden Sicherheitsnormen und -richtlinien eine für den Menschen gefährdungsfreie Zusammenarbeit mit der Robotereinheit möglich sein soll. Insbesondere gilt es eine direkte Zusammenarbeit zwischen einem Menschen und der Robotereinheit zu ermöglichen und gleichzeitig das Leistungspotential der Robotereinheit nicht oder nur unwesentlich zu beeinträchtigen.The invention has for its object to provide a method and an apparatus for controlled interaction between a self-propelled robot unit and a person, taking into account the applicable safety standards and guidelines should be possible for human-hazard-free cooperation with the robot unit. In particular, it is necessary to enable a direct cooperation between a human and the robot unit and at the same time not to affect the performance potential of the robot unit or only insignificantly.

Die Lösung der der Erfindung zugrundeliegenden Aufgabe ist im Anspruch 1 angegeben, in dem ein erfindungsgemäßes Verfahren beschrieben ist. Gegenstand des Anspruches 10 ist eine erfindungsgemäße Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person. Den Erfindungsgedanken vorteilhaft weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der gesamten Beschreibung unter Bezugnahme auf die Ausführungsbeispiele zu entnehmen.The solution of the problem underlying the invention is specified in claim 1, in which a method according to the invention is described. Subject matter of claim 10 is an inventive device for controlled interaction between a self-propelled robot unit and a person. The concept of the invention advantageously further features are the subject of the dependent claims and the entire description with reference to the exemplary embodiments.

Das erfindungsgemäße Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person sieht grundsätzlich folgende Verfahrensschritte vor:
Mit Hilfe eines Sensorsystems wird das unmittelbare Umfeld der Robotereinheit derart erfasst und überwacht, dass bewegte Objekte, die in einen von dem Sensorsystem erfassbaren Detektionsbereich eindringen, erfasst und lokalisiert werden. Der durch das Sensorsystem erfassbare Detektionsbereich ist vorzugsweise derart einzustellen, dass der Detektionsbereich in etwa mit dem Aktionsbereich der Robotereinheit übereinstimmt. Im Weiteren wird angenommen, dass es sich bei den bewegten Objekten um eine Person handelt, die mit der Robotereinheit in Interaktion treten wird. Das Sensorsystem erfasst somit die sich räumlich und zeitlich verändernde Position der Person oder zumindest Teile der Person. Hierbei wird nicht nur die exakte räumliche Relativlage zwischen der Person und der Robotereinheit erfasst, sondern überdies auch die der Person innewohnende Bewegungsdynamik, d. h. das Sensorsystem erfasst zusätzlich die Fortbewegungsgeschwindigkeit der gesamten Person und/oder Teile der Person sowie auch Geschwindigkeitsgradienten bzw. Beschleunigungswerte der Person oder Teile der Person. Zum Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten sind an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person Markierungsmittel angebracht, die mit Hilfe des Sensorsystems erfasst werden.
The method according to the invention for the controlled interaction between an autonomous robot unit and a person fundamentally provides the following method steps:
With the aid of a sensor system, the immediate environment of the robot unit is detected and monitored in such a way that moving objects which penetrate into a detection area detectable by the sensor system are detected and localized. The detection range detectable by the sensor system is preferably to be set such that the detection range approximately coincides with the action range of the robot unit. In the following, it is assumed that the moving objects are a person who will interact with the robot unit. The sensor system thus detects the spatially and temporally changing position of the person or at least parts of the person. In this case, not only the exact spatial relative position between the person and the robot unit is detected, but also the person's inherent motion dynamics, ie the sensor system additionally detects the speed of movement of the entire person and / or parts of the person as well as speed gradients or acceleration values of the person or Parts of the person. For detecting the spatially and temporally changing position of the person or of parts of the person by spatially and temporally resolved detection of locomotion speed as well as speed gradients or acceleration values are selected to the kinematics of the person or parts of the person, selected positions of the person and / or parts the person attached marking means which are detected by means of the sensor system.

Diese mit dem Sensorsystem erfassten Informationen werden in einem zweiten Schritt unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells bewertet. Der Begriff „Verhaltensmodell” umfasst eine Vielzahl das Verhalten einer jeweiligen Person innerhalb des Aktionsbereiches der Robotereinheit beschreibende Informationen, die in Form einer daten- und/oder wissensbasierten Datenbank abgespeichert sind. Die das Verhalten der jeweiligen Person beschreibende Informationen umfasst für die Person charakteristische Posen und Lagen sowie auch für die Person typische Bewegungsinformationen, damit sind insbesondere Fortbewegungsgeschwindigkeiten bzw. Beschleunigungswerte der Person oder Teile der Person, wie Arme, Beine, Kopf etc. gemeint.These information acquired by the sensor system are evaluated in a second step on the basis of a behavioral model describing the person. The term "behavioral model" encompasses a multiplicity of information describing the behavior of a respective person within the action area of the robot unit, which information is stored in the form of a data- and / or knowledge-based database. The information describing the behavior of the respective person comprises characteristic poses and positions characteristic of the person as well as movement information typical for the person, in particular, movement speeds or acceleration values of the person or parts of the person, such as arms, legs, head, etc.

Betrachtet man an dieser Stelle das Beispiel einer Übergabe von Produkten von einer Person an eine Robotereinheit, die das jeweilige Produkt weiterverarbeitet, so hält sich die Person für diesen konkreten Übergabevorgang in einem bestimmten räumlichen Sektor in Bezug auf die Robotereinheit auf und führt für jeden einzelnen Übergabevorgang einen bestimmten Bewegungsablauf aus. Für diese Interaktion nimmt die Person eine Vielzahl erlaubter Bewegungszustände bzw. räumliche Posen ein, um erfolgreich und damit verletzungsfrei mit der Robotereinheit zusammen zu arbeiten. Liegen diese für eine erfolgreiche Interaktion mit der Robotereinheit erlaubten Bewegungszustände bzw. Posen beispielsweise in Form von Referenzdaten in einer Datenbank vor, in der wie eingangs erwähnt, zusätzliche, die Bewegungsdynamik der Person beschreibende Informationen enthalten sind, ist es möglich, die mittels des Sensorsystems aktuell erfasste Position der Person oder Teile der Person mit den vorstehend abgespeicherten Referenzdaten zu vergleichen. Mit Hilfe geeigneter Bewertungskriterien, die dem Verhaltensmodell zugrundegelegt sind, werden in einem dritten Schritt Steuersignale generiert, die die Eigenbeweglichkeit der Robotereinheit kontrolliert beeinflussen, um eine gewünschte Interaktion zwischen Mensch und Robotereinheit zu ermöglichen.Looking at the example of a transfer of products from a person to a robot unit that processes the respective product, the person for this specific transfer process in a particular spatial sector with respect to the robot unit and executes a specific sequence of movements for each individual transfer process. For this interaction, the person takes a variety of allowed movement states or spatial poses, in order to work together successfully and thus injury-free with the robot unit. If these movement states or poses permitted for a successful interaction with the robot unit are present, for example in the form of reference data in a database in which, as mentioned at the beginning, additional information describing the person's movement dynamics is contained, it is possible to update the information by means of the sensor system detected position of the person or parts of the person with the previously stored reference data to compare. By means of suitable evaluation criteria, which are based on the behavioral model, control signals are generated in a third step, which influence the proper mobility of the robot unit in order to enable a desired interaction between human and robot unit.

Die bei der Bewertung der dynamisch erfassten Position der Person oder Teile der Person unter Maßgabe eines die Person beschreibenden Verhaltensmodells zugrundeliegenden Bewertungskriterien richten sich nach Art und Umfang der jeweiligen Interaktion zwischen der Person und der Robotereinheit. Handelt es sich beispielsweise um einen Übergabevorgang eines Gegenstandes von der Person auf die Robotereinheit, so ist die genaue Erfassung der Armposition der Person sowie die Arm bewegungsgeschwindigkeit besonders relevant. Gerät beispielsweise die Person beim Übergabevorgang ins Stolpern, wodurch beispielsweise die Armbewegung ungewöhnlich ruckartig und hastig erfolgt, so wird dies vom Sensorsystem erfasst. Die hastigen Armbewegungen werden mit den abgespeicherten Referenzdaten verglichen und letztlich bewertend festgestellt, dass die Armposition sowie deren Geschwindigkeit nicht mit den erlaubten Verhaltensmustern übereinstimmen. Als Folge werden Steuersignale für die Robotereinheit generiert, durch die der Roboter veranlasst wird entsprechend zurückzuweichen oder aber der Roboter wird kurzzeitig abgeschaltet.The evaluation criteria underlying the evaluation of the dynamically recorded position of the person or parts of the person in accordance with a behavioral model describing the person depend on the type and extent of the respective interaction between the person and the robot unit. If, for example, it involves a transfer of an object from the person to the robot unit, then the exact detection of the person's arm position and the arm movement speed are particularly relevant. For example, the person stumbling during the transfer process, whereby, for example, the arm movement is unusually jerky and hasty, so this is detected by the sensor system. The hasty movements of the arms are compared with the stored reference data and, in the final analysis, determined that the arm position and its speed do not match the permitted behavioral patterns. As a result, control signals are generated for the robot unit, which causes the robot to back up accordingly or the robot is switched off for a short time.

Von entscheidender Bedeutung für eine erfolgreiche Anwendung des Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist die exakte Erfassung der Person oder Teile der Person sowohl im Hinblick auf ihrer aktuelle räumlichen Lage und Position, als auch im Hinblick ihrer aktuellen Bewegungsdynamik. Zur vereinfachten weiteren Beschreibung wird angenommen, dass die Person in ihrer Gesamtheit erfasst werden soll. Hierbei soll jedoch nicht außer Acht gelassen werden, dass es auch Fälle gibt, in denen eine Person lediglich in Teilbereichen erfasst wird, bspw. in Fällen in denen eine Person ausschließlich mit ihren Händen an einem Arbeitsplatz mit einer Robotereinheit zusammenarbeitet, so dass für eine diesbezügliche Interaktion lediglich die Hände bzw. Arme der Person, also Teile der Person, relevant sind.Critical to successful application of the method of controlled interaction between a self-propelled robotic unit and a person is the accurate detection of the person or parts of the person both in terms of their current spatial location and position, as well as their current movement dynamics. For ease of further description, it is assumed that the person should be comprehended in its entirety. Here, however, it should not be forgotten that there are cases in which a person is detected only in some areas, for example. In cases where a person works exclusively with their hands in a workplace with a robot unit, so that for a related Interaction only the hands or arms of the person, ie parts of the person are relevant.

Um die Person für die erwünschte Interaktion räumlich und in ihrer Bewegungsdynamik exakt mit Hilfe des Sensorsystems erfassen zu können, wird die Person an ausgewählten Stellen mit Markierungsmitteln versehen, die vorzugsweise in entsprechenden Bekleidungsstücken, die die Person trägt, integriert sind. Die mit den Markierungsmitteln versehenen ausgewählten Stellen sind vorzugsweise End- und/oder Gelenkbereiche von Extremitäten. So können beispielsweise geeignete Markierungsmittel in Handschuhen, Ellbogenschützer, Kopfbedeckungen, Schuhe etc. vorgesehen werden.In order to be able to detect the person for the desired interaction spatially and in terms of its dynamics of movement exactly with the aid of the sensor system, the person is provided at selected points with marking means which are preferably integrated in corresponding items of clothing which the person wears. The selected locations provided with the marking means are preferably end and / or joint areas of extremities. For example, suitable markers may be provided in gloves, elbow pads, headgear, shoes, etc.

Je nach der technischen Art und Ausbildung des verwendeten Sensorsystems sind die Markierungsmittel geeignet zu wählen. Beispielsweise eignen sich besonders auf funk, optische oder akustische Ortung basierende Sensorsysteme, auf die im weiteren im einzelnen eingegangen wird. Auch ist es möglich, eine räumlich zeitaufgelöste Positionsbestimmung einer Person mit Hilfe geeigneter Kameraaufnahmen und nachfolgender Bildauswertung vorzunehmen.Depending on the technical nature and design of the sensor system used, the marking agents are suitable to choose. By way of example, sensor systems based on radio, optical or acoustic location, which will be discussed in detail below, are particularly suitable. It is also possible to perform a spatially time-resolved position determination of a person with the help of suitable camera shots and subsequent image analysis.

Für die Durchführung des vorstehend beschriebenen Verfahrens zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist wenigstens ein Sensorsystem erforderlich, mit dem die aktuelle räumliche Position einer Person oder Teile der Person erfassbar ist, eine Auswerteeinheit mit einer Referenzposen der Person oder Teile der Person enthaltenden Datenbank, in der die erfasste aktuelle räumliche Position mit Referenzposen verglichen und unter Zugrundelegung eines Bewertungskriteriums Steuersignale generiert wird und schließlich eine Steuereinheit zur Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln.For carrying out the above-described method for the controlled interaction between a self-propelled robot unit and a person, at least one sensor system is required, with which the current spatial position of a person or parts of the person can be detected, an evaluation unit with a reference poses of the person or parts of the person containing Database, in which the detected current spatial position compared with reference poses and based on an evaluation criterion control signals is generated and finally a control unit for controlling the proper mobility of the robot unit determining drive means.

Wie bereits vorstehend erwähnt, bildet das Kernstück der Vorrichtung das Sensorsystem zum Erfassen der jeweiligen aktuellen räumlichen Position der Person, das in seinen vielseitigen Ausgestaltungsmöglichkeiten unter Bezugnahme auf die nachstehenden Ausführungsbeispiele im einzelnen näher erläutert wird.As already mentioned above, the core of the device forms the sensor system for detecting the respective current spatial position of the person, which is explained in detail in its versatile design options with reference to the following embodiments.

Kurze Beschreibung der ErfindungBrief description of the invention

Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen exemplarisch beschrieben. Es zeigen:The invention will now be described by way of example without limitation of the general inventive idea by means of embodiments with reference to the drawings. Show it:

1 Schematisierte Darstellung zur Ermittlung der Relativlage einer Person zu einer Robotereinheit mittels funkbasierter Ortung, 1 Schematized representation for determining the relative position of a person to a robot unit by means of radio-based positioning,

2 Darstellung eines funkbasierten Sensorsystems, 2 Representation of a radio-based sensor system,

3 Schematisierte Darstellung zur Modellierung einer Person, 3 Schematized representation for modeling a person

4 Schematisierte Darstellung zur räumlichen Ortung einer Person relativ zu einer Robotereinheit mittels Schall, 4 Schematized representation of the spatial location of a person relative to a robot unit by means of sound,

5 Schematisierte Darstellung der räumlichen Ermittlung der relativen Position einer Person relativ zu einer Robotereinheit mittels Beschleunigungssensoren, 5 Schematized representation of the spatial determination of the relative position of a person relative to a robot unit by means of acceleration sensors,

6 Darstellung der Positionserfassung eines Teils einer Person mittels Differenzbildtechnik, sowie 6 Representation of the position recording of a part of a person by means of differential image technology, as well as

7 Darstellung zur Positionsermittlung mittels optischer Kameras. 7 Representation for position determination by means of optical cameras.

Wege zur Ausführung der Erfindung, gewerbliche VerwendbarkeitWays to carry out the invention, industrial usability

Die unter Bezugnahme auf die Ausführungsbeispiele gemäß der 1 bis 7 dargestellten Sensorsysteme ermöglichen eine exakte Erfassung und Lokalisierung einer Person innerhalb des Aktionsbereiches einer Robotereinheit. Je nach technischer Ausbildung des Sensorsystems ist die räumliche Detektionsreichweite des Sensorsystems individuell einzustellen, vorzugsweise an den maximalen Arbeits- bzw. Aktionsbereich der Robotereinheit anzupassen. Auf diese Weise können Bewegungsvorgänge, die außerhalb des Aktionsbereiches des Roboters stattfinden, unbeachtet bleiben. Erst wenn eine Person den Aktionsbereich betritt, wird diese vom Sensorsystem entsprechend erfasst. Hierzu gibt es eine Reihe alternativ arbeitender Sensorsysteme.With reference to the embodiments according to the 1 to 7 illustrated sensor systems allow accurate detection and localization of a person within the action area of a robot unit. Depending on the technical design of the sensor system, the spatial detection range of the sensor system must be set individually, preferably adapted to the maximum working or action range of the robot unit. In this way, motion events that take place outside the action area of the robot, unnoticed. Only when a person enters the action area, this is detected by the sensor system accordingly. There are a number of alternative sensor systems for this purpose.

In 1 ist eine schematisiert dargestellte Situation zur Erfassung der räumlichen Relativlage einer Person P in Bezug auf eine Robotereinheit R dargestellt. Zur Ermittlung der räumlichen Position und Pose der Person P sind in extra angepassten Kleidungsstücken, beispielsweise Jacke, Handschuhe oder Kopfbedeckung, als Transponder T ausgebildete Markierungsmittel an Stellen der Person, wie beispielsweise Handgelenk, Ellbogen, Schulter etc. angebracht, die für die Kinematik der Person P relevant sind.In 1 is a schematic illustrated situation for detecting the relative spatial position of a person P with respect to a robot unit R shown. To determine the spatial position and pose of the person P are in specially adapted garments, such as jacket, gloves or headgear designed as a transponder T marking means at locations of the person, such as wrist, elbow, shoulder, etc. attached, which is responsible for the kinematics of the person P are relevant.

Ein im Bereich der Robotereinheit R installierter Sender S sendet Funksignale aus, die von den einzelnen Transpondern T empfangen und in einer anderen Frequenz als der Sendefrequenz des Senders S zurückgesendet werden. Vorzugsweise sind mehrere Empfänger (nicht in 1 dargestellt) vorgesehen, die die von den Transpondern T abgesandten Signale empfangen. Schließlich werden die dabei gewonnenen Messsignale auf der Grundlage des Triangulationsverfahrens ausgewertet und die dreidimensionale Position des jeweiligen Transponders T im Raum (local positioning system) berechnet. Aufgrund der auf diese Weise gewonnenen, genauen Kenntnisse über die räumliche Lage der einzelnen Transponderpositionen kann auf die Lage der einzelnen, die Transponder T enthaltenen Kleidungsstücke und somit die Lage bzw. Pose der Person geschlossen werden.A transmitter S installed in the area of the robot unit R transmits radio signals which are received by the individual transponders T and sent back at a frequency other than the transmission frequency of the transmitter S. Preferably, multiple receivers (not in 1 shown), which receive the sent by the transponders T signals. Finally, the measurement signals obtained thereby are evaluated on the basis of the triangulation method and the three-dimensional position of the respective transponder T in the space (local positioning system) is calculated. Because of the precise knowledge of the spatial position of the individual transponder positions obtained in this way, it is possible to infer the position of the individual items of clothing contained in the transponder T and thus the position or pose of the person.

2 zeigt eine schematisierte Darstellung eines auf der Transpondertechnik beruhenden Sensorsystems. Ein an einem festen Punkt, vorzugsweise in räumlich fester Lagebeziehung zur Robotereinheit, angebrachter Sender S sendet ein Signal aus, das von einem Transponder T empfangen wird. Der Transponder T ist wie vorstehend beschrieben, an der zu detektierenden Person angebracht und empfängt das von dem Sender abgesandte Funksignal, das vom Transponder T mit einer anderen Frequenz zurückgesendet wird. Das zurückgesendete Signal wird von einem Empfänger E1 am Ort des Senders S sowie zusätzlich von einem weiteren Empfänger E2 empfangen. Durch entsprechende Laufzeitmessungen können die Signallaufzeiten t1 sowie t2 ermittelt werden, die das Funksignal vom Sender S zum Transponder T und zum Empfänger E1 bzw. E2 benötigt. Unter Zugrundelegung der Lichtgeschwindigkeit c können auf diese Weise die Positionskoordinaten des Transponders T in folgender Weise berechnet werden:

Figure 00110001
2 shows a schematic representation of a based on the transponder sensor system. A transmitter S mounted at a fixed point, preferably in a positionally fixed relationship with the robot unit, emits a signal received from a transponder T. As described above, the transponder T is attached to the person to be detected and receives the radio signal sent by the transmitter, which is sent back by the transponder T at a different frequency. The returned signal is received by a receiver E1 at the location of the transmitter S and additionally by a further receiver E2. By appropriate transit time measurements, the signal propagation times t 1 and t 2 can be determined, which requires the radio signal from the transmitter S to the transponder T and to the receiver E1 or E2. On the basis of the speed of light c, the position coordinates of the transponder T can be calculated in the following way:
Figure 00110001

Äquivalent zum vorstehend betrachteten Fall zur Bestimmung der Positionskoordinaten des Transponders in einer Ebene gemäß 2 kann die dreidimensionale Positionsbestimmung eines Transponders T im Raum mit Hilfe eines weiteren, dritten Empfängers durchgeführt werden. Eingedenk der Tatsache, dass eine Vielzahl von Transpondern T an verschiedenen Positionen der zu detektierenden Person angebracht sind, können Bewegungen und Posen der jeweiligen Person exakt ermittelt werden.Equivalent to the case considered above for determining the position coordinates of the transponder in a plane according to FIG 2 the three-dimensional position determination of a transponder T in space can be carried out with the aid of a further third receiver. Bearing in mind that a plurality of transponders T are attached to different positions of the person to be detected, movements and poses of the respective person can be accurately detected.

Zur eindeutigen Beschreibung eines Bewegungszustandes bzw. einer Pose der jeweiligen Person werden die einzelnen räumlich und zeitlich erfassten Transponderpositionen in einem vereinfachten Menschmodell gemäß der Bilddarstellung in 3 vereint. Es sei angenommen, dass die Person P u. a. am Handgelenk des linken Arms einen Transponder T (siehe rechte Bilddarstellung gemäß 3) trägt. Diese Transponderposition kann mit Hilfe des Sensorsystems exakt ermittelt werden und liegt in Weltkoordinaten vor. Durch die naturgegebene, bedingt durch die natürlichen Freiheitsgrade der einzelnen Gelenke des Menschen vorgegebene Kinematik des Menschen können bereits durch das bloße Erfassen der räumlichen Position des Transponders T sowie dessen Bewegungsgeschwindigkeit bzw. der am Transponder einwirkenden Beschleunigungen Rückschlüsse auf die übrigen Teilbereiche des Menschen im Wege der inversen Kinematik geschlossen werden. So kann das in 3 dargestellte Menschmodell in den Weltkoordinaten bzw. kartesischen Koordinaten (x, y, z) (siehe hierzu rechte Bilddarstellung in 3) in einen Konfigurationsraum transformiert werden, in dem das Menschmodell durch seine Eigenfortbewegungsgeschwindigkeit sowie durch die in den Gelenksbereichen auftretenden Winkelgeschwindigkeiten ω definiert wird. Durch die Betrachtungsweise der inversen Kinematik kann die Bestimmung der gesamten Pose eines Menschen mit einer nur geringen Anzahl von Markierungsmitteln durchgeführt werden, da sich die Lage unterschiedlicher, direkt über Gelenke zusammenhängender Körperteile nicht unabhänig voneinander änder kann.For a clear description of a state of motion or a pose of each person, the individual will be spatially and temporally recorded transponder positions in a simplified human model according to the image representation in 3 united. It is assumed that the person P, inter alia, on the wrist of the left arm, a transponder T (see right image representation according to 3 ) wearing. This transponder position can be determined exactly with the aid of the sensor system and is present in world coordinates. The inherent, given by the natural degrees of freedom of the individual joints of man kinematics of humans can already by the mere detection of the spatial position of the transponder T and its speed of movement or acting on the transponder accelerations conclusions on the remaining parts of man in the way inverse kinematics are closed. So that can be done in 3 represented human model in the world coordinates or Cartesian coordinates (x, y, z) (see right image representation in 3 ) are transformed into a configuration space in which the human model is defined by its own rate of travel as well as by the angular velocities ω occurring in the joint areas. By considering inverse kinematics, the determination of the total pose of a human with only a small number of markers can be carried out, since the position of different parts of the body directly connected by joints can not change independently of each other.

So sind einerseits die minimalen und maximalen Winkelwerte bzw. Beugezustände der einzelnen Gelenksbereiche sowie die maximalen Winkelgeschwindigkeiten, die die einzelnen Gelenkachsen annehmen können, im Rahmen der Menschmodell-Kinematik bekannt bzw. festgelegt. Unter Zugrundelegung dieser Informationen lässt sich somit durch Vergleichsbildung mit den aktuell erfassten Positionen und Posen einer Person abschätzen bzw. vorausberechnen, wo sich die Person auch einige Zeit nach der Messung durch das Sensorsystem aufhalten wird bzw. kann, so dass die Ortsbestimmung mit Hilfe des Sensorsystems nicht notwendigerweise kontinuierlich, sondern lediglich in kurzen Intervallen durchgeführt werden kann.Thus, on the one hand, the minimum and maximum angle values or bending states of the individual joint regions and the maximum angular velocities which the individual joint axes can assume are known or defined within the framework of the human model kinematics. On the basis of this information, it is thus possible to estimate or predict by comparing with the currently detected positions and poses of a person, where the person will or will stay for some time after the measurement by the sensor system, so that the position determination with the aid of the sensor system not necessarily continuously but only at short intervals.

Alternativ zu der vorstehend erläuterten Transpondertechnik ist es ebenso möglich, Schallsender AS an den zu ermittelnden Positionen der Kleidung der Person P anzubringen, die modulierten Schall, beispielsweise hörbaren Schall oder vorzugsweise Ultraschall aussenden. Durch die Aufnahme der Schallsignale mit einem Empfänger M, der in diesem Fall als Mikrofon ausgebildet ist, kann durch entsprechende Auswertung der Signale die Position der einzelnen Schallquellen AS und damit die Position der Person ermittelt werden. Zur Positionsbestimmung dient auch in diesem Fall das bereits vorstehende Prinzip der Triangulation.As an alternative to the transponder technique explained above, it is also possible to attach sound transmitters AS to the positions of the clothes of the person P to be determined, which emit modulated sound, for example audible sound or preferably ultrasound. By recording the sound signals with a receiver M, which is designed in this case as a microphone, the position of the individual sound sources AS and thus the position of the person can be determined by appropriate evaluation of the signals. To determine the position is used in this case, the already above principle of triangulation.

Abweichend vom Triangulationsverfahren ermöglichen Beschleunigungssensoren und/oder Kreisel, die als Trägheits-abhängige Sensoren TR bekannt sind, eine Positionserfassung im Wege der räumlichen Kopplung ausgehend von einem räumlichen Referenzpunkt (siehe 5). Werden derartige, Trägheits-abhängige Sensoren TR an ausgewählten Stellen der Person angebracht, so kann nach anfänglicher Referenzierung der Sensoren die Position, Orientierung und Geschwindigkeit der Sensoren relativ zu einem räumlichen Referenzpunkt ermittelt werden. Die durch die Sensoren aufgenommenen Beschleunigungswerte werden über Funk an eine Basisstation übertragen, in der die Signale entsprechend ausgewertet werden.Deviating from the triangulation method, acceleration sensors and / or gyros, which are known as inertia-dependent sensors TR, enable position detection by way of spatial coupling, starting from a spatial reference point (see FIG 5 ). If such inertia-dependent sensors TR are attached to selected locations of the person, then after initial referencing of the sensors, the position, orientation and speed of the sensors relative to a spatial reference point can be determined. The acceleration values recorded by the sensors are transmitted by radio to a base station, in which the signals are evaluated accordingly.

Befindet sich die mit Trägheits-abhängigen Sensoren ausgerüstete Person zum Zeitpunkt t0 in einer Ausgangslage, der sogenannten Referenzlage, so sind die Positionen der Beschleunigungssensoren und Kreisel bekannt. In jedem darauffolgenden Zeitintervall ΔT wird pro Beschleunigungssensor bzw. Kreisel ein Beschleunigungsvektor aufgenommen, der in Verbindung mit allen übrigen Beschleunigungsvektoren als Rechnungsgrundlage für eine Positionsberechnung der Person nach jedem einzelnen Zeitintervall dient.If the person equipped with inertia-dependent sensors is in a starting position, the so-called reference position, at time t 0 , the positions of the acceleration sensors and gyros are known. In each subsequent time interval .DELTA.T an acceleration vector is recorded per acceleration sensor or gyro which, in conjunction with all the other acceleration vectors, serves as the basis for calculation for a position calculation of the person after each individual time interval.

Schließlich ist es möglich, eine Positionsbestimmung einer Person bzw. Teile einer Person im Wege optischer Beobachtung mit Hilfe einer Kamera unter Einsatz der Differenzbildtechnik vorzunehmen. Bezugnehmend auf die Darstellung gemäß 6 wird mit Hilfe wenigstens einer Kamera ein einmaliges Referenzbild eines Arbeitsbereiches ohne Gegenwart einer Person bzw. Teile einer Person aufgenommen (siehe linke Bilddarstellung). Im weiteren werden von einer Kameraeinheit laufend Bilder vom Arbeitsbereiches aufgezeichnet, in den gemäß der mittleren Bilddarstellung in 6 die Hand einer Person hineinreicht. Diese Bilder werden mit dem ursprünglich aufgenommenen Referenzbild verglichen. Eine Differenzbildung der Pixelwerte von dem Referenzbild und dem aktuell aufgenommenen Bild ergibt eine Darstellung (siehe hierzu rechte Darstellung in 6), die Bereiche angibt, in denen eine Veränderung stattgefunden hat und im vorliegenden Fall den Bereich der Hand mit einem Werkstück der Person zeigt.Finally, it is possible to make a position determination of a person or parts of a person by means of optical observation with the help of a camera using the difference image technique. Referring to the illustration according to 6 With the aid of at least one camera, a unique reference image of a work area is recorded without the presence of a person or parts of a person (see left image representation). Furthermore, images of the work area are continuously recorded by a camera unit, in accordance with the average image representation in 6 the hand of a person extends. These pictures are compared with the originally recorded reference picture. Difference formation of the pixel values from the reference image and the currently recorded image gives a representation (see right-hand illustration in FIG 6 ), which indicates areas in which a change has taken place and in the present case shows the area of the hand with a workpiece of the person.

Somit ist es auch mit dieser Technik möglich, Positionen und Posen einer Person, vorzugsweise Teile einer Person, zu erfassen.Thus, it is also possible with this technique to detect positions and poses of a person, preferably parts of a person.

Bedient man sich anstelle einer Aufnahmekamera K gemäß linker Bilddarstellung in 7 mehrerer Aufnahmekameras K, beispielsweise zwei Kameras gemäß rechte Bilddarstellung in 7, so kann der zu überwachende Raumbereich durch entsprechende Überlagerung der Sichtbereiche der beiden Kameras lokal eingegrenzt werden.If one uses instead of a recording camera K according to the left image representation in 7 a plurality of recording cameras K, for example, two cameras according to right image representation in 7 , so the space to be monitored area can be limited locally by appropriate superposition of the viewing areas of the two cameras.

Soll mit Hilfe der vorstehend beschriebenen, rein optischen Überwachungstechnik die aktuelle Position und Pose einer ganzen Person bestimmt werden, so dienen als Farbmarkierungen ausgebildete Markiermittel, die an entsprechenden Stellen der Kleidung der Person angebracht werden können, als entsprechende, von den Kameras zu detektierende Positionsmarken.If the current position and pose of an entire person are to be determined with the aid of the above-described, purely optical monitoring technology, then marking means designed as color markings, which can be attached to the person's clothing, serve as corresponding position markers to be detected by the cameras.

Mit Hilfe des erfindungsgemäßen Verfahrens sowie Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person ist es möglich, einerseits ein Eintreten einer Person in den Aktionsbereich der Robotereinheit festzustellen und von Seiten der Robotereinheit auf dieses Ereignis in geeigneter Weise zu reagieren, beispielsweise durch Not-Ausschaltung oder andere Steuerungsstrategien. Insbesondere kann die Robotereinheit seine Bewegungsdynamik gezielt auf die Bewegungen der Person abstimmen und auf diese Weise ein gemeinsames Arbeiten ermöglichen.With the aid of the method according to the invention and a device for controlled interaction between a robot unit and a person, it is possible on the one hand to detect the entry of a person into the action area of the robot unit and to respond appropriately to this event on the part of the robot unit, for example by emergency Elimination or other control strategies. In particular, the robot unit can tailor its movement dynamics specifically to the movements of the person and thus enable joint work.

Nachstehend seien reihenhaft die mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung verbundenen Vorteile zusammengefasst: Schaffung einer neuartigen Möglichkeit der Zusammenarbeitung zwischen Mensch und Roboter.The following summarizes the advantages associated with the method according to the invention and the device according to the invention: Creation of a novel possibility of cooperation between human and robot.

Die Durchlaufzeit von Werkstücken längs einer Produktionsstrasse kann erhöht werden, da durch den gemeinsamen Arbeitsraum zwischen Roboter und Mensch die Transportwege kleiner werden.The throughput time of workpieces along a production line can be increased because the transport paths become smaller due to the common working space between robot and human.

Der Einsatz von mobilen Robotermanipulatoren in Produktionsbereichen, in denen auf manuelle Zuarbeit nicht verzichtet werden kann, wird durch die erfindungsgemäße Maßnahme erst ermöglicht.The use of mobile robotic manipulators in production areas in which manual input can not be dispensed with is only made possible by the measure according to the invention.

Der räumliche Platzbedarf für Robotereinheiten wird entscheidend reduziert, da keine aufwendigen Abgrenzungsmaßnahmen und Lichtschrankenanlagen erforderlich sind.

AS
Schallquelle
E
Empfänger
K
Kamera
M
Mikrophon
P
Person
R
Robotereinheit
S
Sender
T
Transponder, Markierungsmittel
TR
Trägheits-abhäniger Sensor
The space required for robotic units is significantly reduced because no elaborate demarcation measures and light barrier systems are required.
AS
sound source
e
receiver
K
camera
M
microphone
P
person
R
robot unit
S
transmitter
T
Transponder, marker
TR
Inertia-dependent sensor

Claims (18)

Verfahren zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, gekennzeichnet durch folgende Verfahrensschritte: – Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder Teile der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, – Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, – Gezieltes Ansteuern der Antriebsmittel der Robotereinheit zur kontrollierten Einflussnahme auf die Eigenbeweglichkeit der Robotereinheit in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.Method for the controlled interaction between a self-propelled robot unit and a person, characterized by the following method steps: - Detecting the spatially and temporally changing position of the person or parts of the person by location and time resolved detection of locomotion speed and speed gradients or acceleration values to the kinematics of the person or parts of the person characterized, selected positions of the person and / or parts of Person with the aid of a sensor system, wherein marking means (T) are mounted at the selected locations of the person for sensor-based detection, - Assessing the dynamically recorded position of the person or of parts of the person on the basis of a person describing behavioral model, which is stored in the form of a data and / or knowledge-based database, in the person's characteristic poses and positions as well as movement information typical for the person are stored as reference data, by comparison of the dynamically acquired position with the reference data stored in the database, Generating control signals on the basis of an evaluation criterion, - Targeted control of the drive means of the robot unit for the controlled influence on the intrinsic mobility of the robot unit as a function of the evaluated, dynamically detected position of the person. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Markierungsmittel (T) in von der Person (P) getragenen Bekleidungsstücken integriert werden.Method according to claim 1, characterized in that the marking means (T) are integrated in garments worn by the person (P). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder von den Teilen der Person im Wege funkbasierter, optischer oder akustischer Ortung auf der Grundlage des Triangulationsverfahrens durchgeführt wird.A method according to claim 1 or 2, characterized in that the dynamic detection of the spatial position of the person (P) or of the parts of the person by means of radio-based, optical or acoustic location is carried out on the basis of the triangulation method. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder von den Teilen der Person unter Verwendung Trägheitsabhängiger Sensoren (TR), deren Sensorsignale einer räumlichen Referenzierung unterzogen werden, durchgeführt wird.Method according to one of claims 1 to 3, characterized in that the dynamic detection of the spatial position of the person (P) or of the parts of the person using inertia-dependent sensors (TR), whose sensor signals are subjected to a spatial referencing, is performed. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das dynamische Erfassen der räumlichen Position der Person (P) oder von den Teilen der Person durch optische Bilderfassung der Person (P) oder von den Teilen der Person mit nachfolgender Bildauswertung durchgeführt wird.Method according to one of claims 1 to 5, characterized in that the dynamic detection of the spatial position of the person (P) or of the parts of the person by optical Image capture of the person (P) or of the parts of the person is carried out with subsequent image analysis. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Referenzdaten die Person (P) beschreibende Referenzposen sowie die Bewegungsdynamik der Person charakteristische Informationen, wie Fortbewegungsgeschwindigkeit und Beschleunigungen, umfasst.Method according to one of claims 1 to 5, characterized in that the reference data, the person (P) descriptive reference poses and the movement dynamics of the person characteristic information, such as locomotion speed and accelerations includes. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zur Schaffung und Hinterlegung von die Person (P) beschreibenden Referenzdaten die Person oder die Teile der Person zumindest in einer Vielzahl von die Interaktion zwischen der Robotereinheit (R) und der Person (P) repräsentierenden Positionen mit dem Sensorsystem dynamisch erfasst werden.Method according to one of claims 1 to 6, characterized in that for the creation and deposit of the person (P) descriptive reference data, the person or parts of the person at least in a variety of interaction between the robot unit (R) and the person (P ) are detected dynamically with the sensor system. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass auf der Grundlage der erfassten Referenzdaten ein die Person oder die Teile der Person charakterisierendes Verhaltensmodell gewonnen wird, das die Interaktion zwischen der Robotereinheit (R) und der Person (P) beschreibt.A method according to claim 6 or 7, characterized in that on the basis of the detected reference data, a behavioral characterizing the person or the parts of the person is obtained, which describes the interaction between the robot unit (R) and the person (P). Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass durch die Bewertung der dynamisch erfassten Position der Person (P) oder der Teile der Person die Steuersignale für die Eigenbewegung der Robotereinheit (R) dienenden Antriebseinheiten generiert werden.Method according to one of claims 1 to 8, characterized in that the control signals for the proper movement of the robot unit (R) serving drive units are generated by the evaluation of the dynamically detected position of the person (P) or parts of the person. Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einer Person, die folgende Komponenten aufweist: – Sensorsystem zum Erfassen der sich räumlich und zeitlich verändernden Position der Person oder von Teilen der Person durch Orts- und zeitaufgelöstes Erfassen von Fortbewegungsgeschwindigkeit sowie Geschwindigkeitsgradienten bzw. Beschleunigungswerten an die Kinematik der Person oder von Teilen der Person charakterisierenden, ausgewählten Stellen der Person und/oder den Teilen der Person mit Hilfe eines Sensorsystems, wobei zum sensoriellen Erfassen an den ausgewählten Stellen der Person Markierungsmittel (T) angebracht sind, – Auswerteeinheit zum Bewerten der dynamisch erfassten Position der Person oder von Teilen der Person unter Zugrundelegung eines die Person beschreibenden Verhaltensmodells, das in Form einer daten- und/oder wissensbasierten Datenbank bevorratet wird, in der für die Person charakteristische Posen und Lagen sowie für die Person typische Bewegungsinformationen als Referenzdaten abgespeichert sind, durch Vergleich der dynamisch erfassten Position mit den in der Datenbank abgespeicherten Referenzdaten, und zum Generieren von Steuersignalen unter Zugrundelegung eines Bewertungskriteriums, und – Steuereinheit zur gezielten Ansteuerung von die Eigenbeweglichkeit der Robotereinheit bestimmenden Antriebsmitteln in Abhängigkeit der bewerteten, dynamisch erfassten Position der Person.Device for the controlled interaction between a self-propelled robot unit and a person, comprising the following components: - Sensor system for detecting the spatially and temporally changing position of the person or of parts of the person by location and time-resolved detection of locomotion speed and speed gradients or acceleration values to the kinematics of the person or parts of the person characterizing selected points of the person and / or the parts of the person with the aid of a sensor system, wherein marking means (T) are mounted at the selected points of the person for the purpose of sensor-based detection, - Evaluation unit for evaluating the dynamically detected position of the person or of parts of the person on the basis of a person describing behavioral model, which is stored in the form of a data and / or knowledge-based database, in the person's characteristic poses and positions as well as for the person typical movement information is stored as reference data, by comparing the dynamically detected position with the reference data stored in the database, and generating control signals based on an evaluation criterion, and - Control unit for the targeted control of the intrinsic mobility of the robot unit determining drive means as a function of the evaluated, dynamically detected position of the person. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Markierungsmittel an der Person unmittelbar befestigt sind oder in Bekleidungsstücken der Person eingebracht sind.Apparatus according to claim 10, characterized in that the marking means are attached directly to the person or are introduced into garments of the person. Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die ausgewählten Stellen Endbereiche von Extremitäten oder Gelenkbereiche der Person sind.Apparatus according to claim 10 or 11, characterized in that the selected locations are end regions of extremities or joint regions of the person. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass die Markierungsmittel jeweils als Funk-Transponder, Schallquelle oder als Farb- oder Mustermarkierung ausgebildet sind, und dass das Sensorsystem eine Detektionseinheit vorsieht, die Funk- oder akustische Signale detektiert.Device according to one of claims 10 to 12, characterized in that the marking means are each formed as a radio transponder, sound source or as a color or pattern marking, and that the sensor system provides a detection unit which detects radio or acoustic signals. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Auswerteeinheit die detektierten Funk- oder akustischen Signale im Wege des Triangulationsverfahrens auswertet.Apparatus according to claim 13, characterized in that the evaluation unit evaluates the detected radio or acoustic signals by way of the triangulation method. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass das Sensorsystem an die Kinematik der Person oder Teile der Person charakterisierende ausgewählte Stellen an der Person Trägheits-abhängige Sensoren vorgesehen sind.Apparatus according to claim 10, characterized in that the sensor system to the kinematics of the person or parts of the person characterizing selected locations on the person inertia-dependent sensors are provided. Vorrichtung nach Anspruch 15, dadurch gekennzeichnet, dass die Trägheits-abhängigen Sensoren Beschleunigungssensoren und/oder Kreiselsensoren sind.Apparatus according to claim 15, characterized in that the inertia-dependent sensors are acceleration sensors and / or gyroscopes. Vorrichtung nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass die Auswerteeinheit die von den Trägheits-abhängigen Sensoren stammenden Sensorsignale mit einem räumlichen Referenzsystem referenziert.Apparatus according to claim 15 or 16, characterized in that the evaluation unit references the originating from the inertial-dependent sensors sensor signals with a spatial reference system. Vorrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass das Sensorsystem wenigstens eine Kameraeinheit umfasst, die die räumliche Lage der Person erfasst.Device according to one of claims 10 to 12, characterized in that the sensor system comprises at least one camera unit which detects the spatial position of the person.
DE2002116023 2002-04-11 2002-04-11 Method and apparatus for controlled interaction between a self-propelled robot unit and a human Expired - Fee Related DE10216023B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2002116023 DE10216023B4 (en) 2002-04-11 2002-04-11 Method and apparatus for controlled interaction between a self-propelled robot unit and a human

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2002116023 DE10216023B4 (en) 2002-04-11 2002-04-11 Method and apparatus for controlled interaction between a self-propelled robot unit and a human

Publications (2)

Publication Number Publication Date
DE10216023A1 DE10216023A1 (en) 2003-11-06
DE10216023B4 true DE10216023B4 (en) 2013-08-14

Family

ID=28798376

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2002116023 Expired - Fee Related DE10216023B4 (en) 2002-04-11 2002-04-11 Method and apparatus for controlled interaction between a self-propelled robot unit and a human

Country Status (1)

Country Link
DE (1) DE10216023B4 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10320343B4 (en) * 2003-05-07 2008-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for supervised cooperation between a robot unit and a human
DE102004030144B4 (en) * 2004-06-22 2007-09-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for close range detection around a robot unit
DE102004038906B4 (en) * 2004-08-11 2007-10-25 Sick Ag Method for detecting moving objects in a monitoring device and monitoring device
DE102004048563A1 (en) * 2004-10-04 2006-04-13 Benteler Automobiltechnik Gmbh Monitoring system for an industrial robot prevents collision with objects within field of operation
DE102005003827B4 (en) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for interaction between a human and a robot unit at a robot workstation
DE102005027522B4 (en) * 2005-06-15 2013-01-17 Peter Heiligensetzer evaluation method
DE102007013299A1 (en) 2007-03-06 2008-09-11 Cedes Ag Sensor device and system with a conveyor and a sensor device
WO2009155946A1 (en) * 2008-06-26 2009-12-30 Abb Ag Adaptive robot system
DE102008041602B4 (en) * 2008-08-27 2015-07-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Robot and method for controlling a robot
DE102010002250B4 (en) 2010-02-23 2022-01-20 pmdtechnologies ag surveillance system
DE102010017857B4 (en) * 2010-04-22 2019-08-08 Sick Ag 3D security device and method for securing and operating at least one machine
DE102010063125A1 (en) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Method for inductive transmission of electrical energy to energy storage device of vehicle, involves interrupting transmission of energy when distance between transmission unit and radiation-sensitive component is below preset distance
CN104428107B (en) 2012-07-10 2016-06-29 西门子公司 The method that robot arranges and is used for controlling robot
DE102013001987A1 (en) * 2013-02-06 2014-08-07 Salvavidas GmbH Method for detecting human and moving objects working in hybrid working system used for cleaning of soiled article, determines movement of human and moving object according to spatial distribution of radio frequency identification tags
DE102014219754B4 (en) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gesture based industrial surveillance
DE102013020596A1 (en) * 2013-12-13 2015-06-18 Daimler Ag Workstation and method for performing at least one work step, in particular for producing a motor vehicle
DE102014114596B4 (en) 2014-01-28 2018-09-06 Franka Emika Gmbh Control of a robot arm
DE202014100411U1 (en) 2014-01-30 2015-05-05 Kuka Systems Gmbh safety device
DE102014210594A1 (en) * 2014-06-04 2015-12-17 Robert Bosch Gmbh Method and device for operating a production plant
DE102016200455A1 (en) * 2016-01-15 2017-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Safety device and method for safe operation of a robot
DE102016202052B3 (en) * 2016-02-11 2017-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and arrangement for high-precision positioning of a robot-controlled interaction device by means of radar
JP6360105B2 (en) * 2016-06-13 2018-07-18 ファナック株式会社 Robot system
DE102021100112A1 (en) * 2021-01-06 2022-07-07 Helmut-Schmidt-Universität Hamburg System for supporting manual work processes in the presence of a controllable collaborative robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115846A1 (en) * 1991-05-15 1992-11-19 Ameling Walter Contactless spatial position measurement in robot processing chamber - acquiring images of robotic actuator with defined marking enabling calibration of imaging units in coordinate system
DE19843602A1 (en) * 1997-11-13 1999-05-20 Werner Wolfrum Processing unit movement detection for manufacturing process
WO1999028761A1 (en) * 1997-12-04 1999-06-10 At&T Laboratories-Cambridge Limited Detection system for determining positional and other information about objects
DE19708240C2 (en) * 1997-02-28 1999-10-14 Siemens Ag Arrangement and method for detecting an object in a region illuminated by waves in the invisible spectral range

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115846A1 (en) * 1991-05-15 1992-11-19 Ameling Walter Contactless spatial position measurement in robot processing chamber - acquiring images of robotic actuator with defined marking enabling calibration of imaging units in coordinate system
DE19708240C2 (en) * 1997-02-28 1999-10-14 Siemens Ag Arrangement and method for detecting an object in a region illuminated by waves in the invisible spectral range
DE19843602A1 (en) * 1997-11-13 1999-05-20 Werner Wolfrum Processing unit movement detection for manufacturing process
WO1999028761A1 (en) * 1997-12-04 1999-06-10 At&T Laboratories-Cambridge Limited Detection system for determining positional and other information about objects

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LAY, K: "MORPHA: Intelligente anthropomorphe Assistenzsysteme - Die Interaktion zwischen Mensch und mobilen Assistenzsystemen als grundlegende Variante der Mensch-Technik-Interaktion", In: it + ti - Informationstechnik und Technische Informatik 42 (2000) 1, S. 38-43 *
MITTERMAYER, Ch.; SCHWEINZER, H.: "Sensorintegration für Industrie-Robotersteuerungen", In: e&i 117.Jg. (2000). H. 11, S. 707-713 *
SPINGLER, J.; THIEMERMANN, S.: "Direkte Mensch-Roboter-Kooperation", In: ZWF Jahrg. 96 (2001) 11-12, S.616-620 *
TOLLE, H: "Autonomieerhöhung durch Lernen Teil II: Erlernen von Heuristiken, Planungs- und Kommunikationsgrundlagen", In: at - Automatisierungstechnik 49 (2001) 6, S. 260-270 *

Also Published As

Publication number Publication date
DE10216023A1 (en) 2003-11-06

Similar Documents

Publication Publication Date Title
DE10216023B4 (en) Method and apparatus for controlled interaction between a self-propelled robot unit and a human
Vasic et al. Safety issues in human-robot interactions
DE102017128543B4 (en) NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
Chen et al. Human performance issues and user interface design for teleoperated robots
EP1521211B1 (en) Method and apparatus for determining the position and orientation of an image receiving device
EP3701340B1 (en) Monitoring device, industrial installation, method for monitoring, and computer program
AT513130B1 (en) Method and system for assisting a worker in a facility for manipulating goods
DE102018112403B4 (en) ROBOTIC SYSTEM DISPLAYING INFORMATION FOR ASSISTING AN ROBOT
DE102013001987A1 (en) Method for detecting human and moving objects working in hybrid working system used for cleaning of soiled article, determines movement of human and moving object according to spatial distribution of radio frequency identification tags
DE202014100411U1 (en) safety device
DE102007059480B4 (en) Method and device for pose monitoring of a manipulator
EP3552921B1 (en) Autonomous speed planning of a mobile actor limited to a predetermined path
Bolano et al. Transparent robot behavior using augmented reality in close human-robot interaction
DE102019112043A1 (en) robot system
DE102018101162B4 (en) Measuring system and method for extrinsic calibration
DE102017111886B3 (en) Determine the movement of a machine to be protected
Hermann et al. Anticipate your surroundings: Predictive collision detection between dynamic obstacles and planned robot trajectories on the GPU
DE102020206403A1 (en) Configuring, executing and / or analyzing an application of a mobile and / or collaborative robot
CN112706158A (en) Industrial man-machine interaction system and method based on vision and inertial navigation positioning
DE102019211770B3 (en) Process for the computer-aided recording and evaluation of a workflow in which a human worker and a robotic system interact
DE102020204768A1 (en) Unmanned transfer robot system
Cabrera et al. Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories
Wang et al. Integrated and automated Systems for Safe Construction Sites
DE102018212944A1 (en) Procedure to support collaboration between humans and robots using data glasses
DE102019007091A1 (en) Robotic control device

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative
R020 Patent grant now final

Effective date: 20131115

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee