DE102019206010A1 - Verfahren und System zur Überwachung einer Roboteranordnung - Google Patents

Verfahren und System zur Überwachung einer Roboteranordnung Download PDF

Info

Publication number
DE102019206010A1
DE102019206010A1 DE102019206010.2A DE102019206010A DE102019206010A1 DE 102019206010 A1 DE102019206010 A1 DE 102019206010A1 DE 102019206010 A DE102019206010 A DE 102019206010A DE 102019206010 A1 DE102019206010 A1 DE 102019206010A1
Authority
DE
Germany
Prior art keywords
arrangement
robot
signal sources
optical signals
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019206010.2A
Other languages
English (en)
Inventor
Albrecht Hoene
Elisabeth Schärtl
Markus Wünsch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
KUKA AG
Original Assignee
KUKA Deutschland GmbH
KUKA AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Deutschland GmbH, KUKA AG filed Critical KUKA Deutschland GmbH
Priority to DE102019206010.2A priority Critical patent/DE102019206010A1/de
Priority to PCT/EP2020/058451 priority patent/WO2020216570A1/de
Priority to KR1020217037909A priority patent/KR20220002407A/ko
Priority to US17/606,284 priority patent/US20220314454A1/en
Priority to EP20716721.4A priority patent/EP3959047A1/de
Priority to CN202080040308.2A priority patent/CN113905854A/zh
Publication of DE102019206010A1 publication Critical patent/DE102019206010A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/144Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37631Means detecting object in forbidden zone
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Abstract

Ein erfindungsgemäßes Verfahren zur Überwachung einer Roboteranordnung, die wenigstens einen Roboter (10) aufweist, umfasst die Schritte:- Erfassen (S10) von optischen Signalen von mehreren Signalquellen (20) durch wenigstens einen Sensor (30-32), wobei die Signalquellen und/oder der Sensor an der Roboteranordnung positioniert sind; und- Auslösen (S50) einer Überwachungsreaktion, falls eine Abweichung einer Ist-Anordnung der erfassten optischen Signale von einer Soll-Anordnung dieser Signale einen Grenzwert übersteigt, insbesondere wenigstens eine vorgegebene Mindestanzahl von Signalen der Soll-Anordnung in der Ist-Anordnung der erfassten optischen Signale nicht vorhanden ist.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zur Überwachung einer Roboteranordnung, die wenigstens einen Roboter aufweist, sowie ein Computerprogrammprodukt zur Durchführung des Verfahrens.
  • Aus betriebsinterner Praxis ist eine Überwachung von Robotern auf die unvorhergesehene Anwesenheit von Menschen mithilfe sicherer Sensoren bekannt.
  • Aufgrund der erforderlichen Sicherheit sind diese Sensoren teuer und ihre Inbetriebnahme aufwändig.
  • Aufgabe der vorliegenden Erfindung ist es, eine Überwachung einer Roboteranordnung zu verbessern, insbesondere hierzu ein einfache(re)s und/oder kostengünstige(re)s System zur Verfügung zu stellen bzw. zu verwenden
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Ansprüche 9, 10 stellen ein System bzw. Computerprogrammprodukt zur Durchführung eines hier beschriebenen Verfahrens unter Schutz. Die Unteransprüche betreffen vorteilhafte Weiterbildungen.
  • Nach einer Ausführung der vorliegenden Erfindung weist ein Verfahren zur Überwachung einer Roboteranordnung, insbesondere auf Anwesenheit unvorhergesehener Hindernisse im Arbeitsbereich der Roboteranordnung, die Schritte auf:
    • - Erfassen von optischen Signalen von mehreren Signalquellen durch einen oder mehrere Sensoren, wobei die Signalquellen und/oder der Sensor bzw. einer oder mehrere der Sensoren an der Roboteranordnung, insbesondere dem bzw. einem oder mehreren Roboter(n) der Roboteranordnung, positioniert sind, insbesondere werden; und
    • - Auslösen einer Überwachungsreaktion, falls eine Abweichung zwischen einer Ist-Anordnung der erfassten optischen Signale und einer (prognostizierten) Soll-Anordnung dieser Signale einen ein- oder mehrdimensionalen Grenzwert übersteigt, insbesondere wenigstens eine vorgegebene Mindestanzahl von Signalen der Soll-Anordnung in der Ist-Anordnung der erfassten optischen Signale nicht vorhanden ist, wobei diese Mindestanzahl in einer Ausführung gleich eins, in einer Ausführung größer als eins und/oder kleiner als 10 ist, bzw. dies festgestellt wird.
  • Einer Ausführung der vorliegenden Erfindung liegt die Idee zugrunde, eine Soll-Anordnung der Signale, die für einen Zustand ohne unerwartete Hindernisse prognostiziert bzw. angenommen wird bzw. ist, mit einer erfassten Ist-Anordnung zu vergleichen. Sind in dieser ein bzw. wenigstens die vorgegebene Mindestanzahl der in der Soll-Anordnung vorgesehenen bzw. durch diese prognostizierten optischen Signale nicht vorhanden, so kann das daran liegen, dass
    1. a) die entsprechende(n) Signalquelle(n) fehlerhaft kein optisches Signal aussendet/aussenden,
    2. b) der bzw. die entsprechende(n) Sensor(en) das optische Signal fehlerhaft nicht erfasst/erfassen, oder insbesondere
    3. c) ein unerwartetes Hindernis den (der Soll-Anordnung zugrunde gelegten) optischen Weg zwischen Signalquelle(n) und Sensor(en) unterbricht.
  • Dadurch kann in einer Ausführung auch mit an sich nicht sicheren bzw. nicht in sicherer Technik ausgebildeten und daher kostengünstige(re)n Signalquellen und/oder Sensoren zuverlässig(er) auf ein unerwartetes Hindernis in einer Umgebung der Roboteranordnung reagiert werden, da Fehler der Signalquellen und Sensoren ebenso wie ein unerwartetes Hindernis gleichermaßen zu einer Abweichung der Ist-Anordnung der erfassten optischen Signale von deren Soll-Anordnung führen und die(selbe) Überwachungsreaktion auslösen.
  • Die Roboteranordnung weist in einer Ausführung einen oder mehrere Roboter, insbesondere einen oder mehrere stationäre Roboter und/oder einen oder mehrere mobile Roboter, auf, der bzw. die in einer Ausführung (jeweils) einen Roboterarm mit wenigstens drei, insbesondere wenigstens sechs, in einer Ausführung wenigstens sieben Gelenken, insbesondere Drehgelenken, aufweisen, sie kann insbesondere hieraus bestehen.
  • Aufgrund ihrer Arbeitsräume und -prozesse kann die vorliegende Erfindung mit besonderem Vorteil zur Überwachung solcher Roboteranordnungen verwendet werden.
  • In einer Ausführung sind eine oder mehrere der Signalquellen aktiv(emittierend)e Signalquellen, die die optischen Signale, in einer Ausführung Laserlicht und/oder sichtbares L(aserl)icht, Infrarot(laser)licht und/oder UV-L(aserl)icht, (aktiv) emittieren.
  • Hierdurch kann die Überwachung in einer Ausführung vorteilhaft insbesondere auch bei schlechte(re)n Lichtverhältnissen zuverlässig(er) durchgeführt werden.
  • Zusätzlich oder alternativ sind eine oder mehrere der Signalquellen passiv(bzw. nur reflektierend)e Signalquellen, die (jeweils), insbesondere gezielt, in einer Ausführung gerichtet und/oder (nur) zu vorgegebenen Zeiten, durch eine oder mehrere Lichtquellen mit Licht, in einer Ausführung Laserlicht und/oder sichtbarem L(aserl)icht, Infrarot(laser)licht und/oder UV-L(aser)icht, beleuchtet werden und dieses als optisches Signal reflektieren.
  • Hierdurch können diese Signalquellen in einer Ausführung kleiner ausgebildet werden und/oder eine Energieversorgung von an der Roboteranordnung positionierten Signalquellen entfallen.
  • Sowohl das (aktive) Emitieren als auch das (passive) Reflektieren wird vorliegend zur kompakteren Darstellung verallgemeinernd als Aussenden (der optischen Signale durch die (entsprechende(n)) Signalquelle(n)) bezeichnet.
  • In einer Ausführung weisen eine oder mehrere der Signalquellen (jeweils) eine oder mehrere LEDs und/oder Laserpointer auf. Hierdurch können in einer Ausführung besonders vorteilhafte optische Signale verwendet werden.
  • Zusätzlich oder alternativ sind bzw. werden in einer Ausführung in einem optischen Weg zwischen einer oder mehreren der Signalquellen und dem bzw. einem oder mehreren der Sensoren (jeweils planmäßig bzw. gezielt) ein oder mehrere (optische) Umlenkmittel, insbesondere Spiegel und/oder Prismen, angeordnet, die Licht zwischen Signalquelle und Sensor umlenken bzw. hierzu eingerichtet sind bzw. verwendet werden.
  • Hierdurch können durch diese Sensoren in einer Ausführung auch verdeckte Bereiche eingesehen werden, wie dies an sich beispielsweise von Deckenspiegeln an Supermarktkassen zur Einsicht in Einkaufswagen bekannt ist.
  • Indem die Signalquellen und/oder der bzw. die Sensoren an der Roboteranordnung, insbesondere deren Roboter(n) positioniert sind bzw. werden, kann die Roboteranordnung in einer Ausführung vorteilhaft in verschiedenen Stellungen überwacht werden.
  • Dabei sind bzw. werden in einer Ausführung Signalquellen an, insbesondere auf, der Roboteranordnung, insbesondere deren Roboter(n) positioniert.
  • Dann können in einer Ausführung der bzw. einer oder mehrere der Sensoren von der Roboteranordnung beabstandet bzw. umgebungsseitig, insbesondere -fest, positioniert sein bzw. werden und die Roboteranordnung somit sozusagen von außen beobachten.
  • Zusätzlich oder alternativ können in einer Ausführung der bzw. einer oder mehrere der Sensoren ihrerseits (ebenfalls) an der Roboteranordnung, insbesondere deren Roboter(n) positioniert sein bzw. werden, so dass sich die Roboteranordnung sozusagen selbst beobachten kann.
  • Insbesondere kann ein Sensor, der an einem Glied, zum Beispiel einer Basis, eines Roboters angeordnet ist, optische Signale von einer Signalquelle an einem anderen Glied, zum Beispiel einem Endeffektor, dieses Roboters erfassen und so Hindernisse zwischen den beiden Gliedern bzw. Basis und Endeffektor erkannt werden.
  • Zusätzlich oder alternativ sind bzw. werden in einer Ausführung der bzw. einer oder mehrere der Sensoren an der Roboteranordnung, insbesondere deren Roboter(n) positioniert.
  • Dann können in einer Ausführung, wie vorstehend beschrieben, eine oder mehrere der Signalquellen ihrerseits (ebenfalls) an der Roboteranordnung, insbesondere deren Roboter((glieder)n) positioniert sein bzw. werden, so dass sich die Roboteranordnung sozusagen selbst beobachten und auf Hindernisse zwischen seinen Gliedern reagieren kann.
  • Zusätzlich oder alternativ können dann in einer Ausführung eine oder mehrere der Signalquellen auch von der Roboteranordnung beabstandet bzw. umgebungsseitig, insbesondere -fest, fest positioniert sein bzw. werden, so dass sozusagen umgekehrt die Umgebung von der Roboteranordnung aus beobachtet werden kann.
  • Durch eine Positionierung von Signalquellen an der Roboteranordnung wird in einer Ausführung deren Betrieb gering(er) behindert. Durch eine umgebungsseitige Positionierung von Sensoren werden diese vorteilhaft durch Bewegungen der Roboteranordnung nicht dynamisch belastet. Durch eine umgebungsseitige Positionierung von Signalquellen und eine Positionierung von Sensoren an der Roboteranordnung können vorteilhaft verschiedene bzw. große Arbeitsräume mittels robotergeführter Sensoren erfindungsgemäß überwacht werden.
  • Der bzw. einer oder mehrere der Sensoren können (jeweils) eine oder mehrere Kameras und/oder eine Bildverarbeitung aufweisen. Die (Soll- bzw. Ist-Anordnung der) optischen Signale kann/können insbesondere ein oder mehrere, in einer Ausführung zwei- oder dreidimensionale, (Soll- bzw. Ist-)Bilder bzw., in einer Ausführung zwei- oder dreidimensionale, (Soll- bzw. Ist-)Abbildungen der entsprechenden Signalquellen aufweisen, insbesondere sein.
  • Hierdurch können in einer Ausführung unerwartete Hindernisse anhand der durch diese Hindernisse in solchen Bildern verdeckten Abbilder der Signalquellen bzw. in der Ist-Anordnung der erfassten optischen Signale nicht vorhandene Signale der Soll-Anordnung besonders vorteilhaft, insbesondere zuverlässig(er) und/oder einfach(er), erkannt werden.
  • Dabei kann durch eine Mindestzahl von (nur) einem in der Ist-Anordnung der erfassten optischen Signale nicht vorhandenen Signal der Soll-Anordnung eine Überwachung sehr sensitiv und/oder mit wenige(re)n Signalquellen realisiert werden, durch eine Mindestzahl von zwei oder mehr in der Ist-Anordnung der erfassten optischen Signale nicht vorhandenen Signalen der Soll-Anordnung eine Überwachung weniger störanfällig, insbesondere bei mehreren bzw. dichter positionierten Signalquellen.
  • Somit werden in einer Ausführung ein oder mehr erfasste Ist-Bilder der Signalquellen mit einem oder mehreren prognostizierten Soll-Bildern dieser Signalquellen verglichen und eine Überwachungsreaktion ausgelöst, wenn in dem bzw. den Ist-Bild(ern) die Mindestanzahl von in dem bzw. den Soll-Bildern vorhandenen bzw. -gesehenen Signalquellenabbildern fehlt.
  • In einer Ausführung ist bzw. wird die Soll-Anordnung, insbesondere also das bzw. die (Soll-)Bilder, auf Basis bzw. in Abhängigkeit von einer ermittelten Position der Signalquellen und des bzw. der Sensoren (relativ) zueinander ermittelt, insbesondere prognostiziert.
  • In einer Weiterbildung ist bzw. wird die Soll-Anordnung, insbesondere also das bzw. die Soll-Bilder, auf Basis bzw. in Abhängigkeit von einer ermittelten Stellung der Roboteranordnung, insbesondere deren Roboter, und/oder einer vorgegebenen oder ermittelten Position der Signalquellen und des Sensors (relativ) zu der Roboteranordnung ermittelt.
  • In einer Ausführung kann die Stellung der Roboteranordnung auf Basis, in einer Ausführung mittels Gelenksensoren, gemessener Gelenkstellungen der Roboteranordnung ermittelt werden.
  • Daraus kann, insbesondere durch entsprechende Vorwärtstransformation bzw. -kinematik bzw. basierend auf einem kinematischen Modell der Roboteranordnung, die Position von an der Roboteranordnung positionierten Signalquellen und/oder Sensoren ermittelt werden, in einer Ausführung basierend auf einer bekannten Position dieser an der Roboteranordnung positionierten Signalquellen bzw. Sensoren zu bzw. an, insbesondere auf, der Roboteranordnung, wobei diese Position in einer Ausführung vorgegeben ist bzw. wird, insbesondere, indem die Signalquellen bzw. Sensoren gezielt an vorgegebener Position an, insbesondere auf, der Roboteranordnung insbesondere deren Roboter(n), positioniert werden bzw. sind.
  • Zusätzlich oder alternativ kann eine Position von an der Roboteranordnung positionierten oder von dieser beabstandeten bzw. umgebungsseitigen Signalquellen und/oder eine Position des bzw. eines oder mehrerer der an der Roboteranordnung positionierten oder von dieser beabstandeten bzw. umgebungsseitigen Sensoren (relativ) zu der Roboteranordnung ermittelt werden bzw. sein, in einer Ausführung mittels Triangulation, insbesondere mithilfe der erfassten optischen Signale, oder dergleichen.
  • Zusätzlich oder alternativ ist, insbesondere wird, in einer Ausführung die Soll-Anordnung der optischen Signale, insbesondere also das bzw. die Soll-Bilder der Signalquellen, auf Basis eines kinematischen und/oder optischen Modells ermittelt, das in einer Ausführung einen Zusammenhang zwischen Stellungen der Roboteranordnung und Positionen der Signalquellen und/oder Sensor(en), insbesondere zueinander, und/oder zwischen Positionen der Signalquellen und/oder Sensor(en), insbesondere zueinander, und Soll-Anordnungen, insbesondere Soll-Bildern, ver- bzw. ermittelt.
  • Das Modell kann in einer Ausführung optische Wege zwischen den Signalquellen und dem bzw. den Sensor(en) und/oder eine Umgebung, insbesondere vorgesehene bzw. bekannte Hindernisse, der Roboteranordnung aufweisen bzw. berücksichtigen. Zusätzlich oder alternativ kann das Modell in einer Ausführung theoretisch und/oder empirisch, insbesondere mithilfe von Lernfahrten der Roboteranordnung, ermittelt, insbesondere parametriert, sein bzw. werden.
  • Ist beispielsweise die Position von an einem Roboter positionierten Signalquellen relativ zum Roboter sowie dessen Stellung bekannt und erfasst eine umgebungsseitige Kamera optische Signale dieser Signalquellen, kann hieraus mittels Triangulation auch die Position dieser Kamera relativ zum Roboter ermittelt werden. Dies gilt gleichermaßen umgekehrt für eine robotergeführte Kamera und umgebungsseitige Signalquellen. Dann kann für andere Stellungen des Roboters jeweils hierfür das Bild der Signalquellen prognostiziert werden, das die Kamera bei nicht durch unerwartete Hindernisse gestörten optischen Wegen erfassen müsste, und dieses mit dem tatsächlich erfassten Bild verglichen werden.
  • Hierdurch kann die Soll-Anordnung der optischen Signale in einer Ausführung jeweils, insbesondere in Kombination wenigstens zweier der vorgenannten Merkmale, vorteilhaft(er), insbesondere präzise(r) und/oder dynamisch bzw. aktuell, ermittelt werden.
  • In einer Ausführung sind bzw. werden eine oder mehrere der Signalquellen, in einer Weiterbildung zerstörungsfrei lösbar, insbesondere form- und/oder reibschlüssig, oder nicht zerstörungsfrei lösbar, insbesondere stoffschlüssig, auf einer Hülle befestigt, die ihrerseits, in einer Weiterbildung zerstörungsfrei lösbar, insbesondere form- und/oder reibschlüssig, oder nicht zerstörungsfrei lösbar, insbesondere stoffschlüssig, an der Roboteranordnung, insbesondere deren Roboter(n) befestigt ist bzw. wird.
  • Hierdurch können die Signalquellen in einer Ausführung vorteilhaft, insbesondere einfach(er) und/oder präzise(r) an der Roboteranordnung positioniert und/oder alternativ für verschiedene Roboter(anordnung)en verwendet werden, in einer Ausführung sozusagen in einer Art „Warnwesten“.
  • In einer Ausführung ist, insbesondere wird, die Ist-Anordnung auf Basis einer Erfassung mit ausgesendeten optischen Signalen durch den bzw. die Sensoren, insbesondere wenigstens eines Bildes, das bei aussendenden Signalquellen erfasst wird, und einer, in einer Ausführung unmittelbar, vorhergehenden oder nachfolgenden Erfassung, insbesondere derselben Szenerie, ohne ausgesendete optische Signale durch den bzw. die Sensoren, insbesondere wenigstens eines Bildes, das bei nicht aussendenden Signalquellen erfasst wird, ermittelt. Durch Subtraktion können dann die erfassten optischen Signale isoliert und so besonders gut mit der entsprechenden Soll-Anordnung vergliechen werden. Mit anderen Worten kann die Ist-Anordnung in einer Ausführung auf Basis eines Differenzbilds zwischen einem erfassten Bild mit ausgesendeten optischen Signalen und einem erfassten Bild ohne ausgesendete optische Signale ermittelt werden, insbesondere ein solches aufweisen, insbesondere sein.
  • Zusätzlich oder alternativ weisen die optischen Signale einer oder mehrerer der Signalquellen in einer Ausführung (jeweils) ein, in einer Ausführung signalquellenspezifisches, vorgegebenes zeitliches Muster auf. Dadurch können in einer Ausführung Störeinflüsse durch die Umwelt reduziert werden.
  • Zusätzlich oder alternativ senden in einer Ausführung zwei oder mehr der Signalquellen unterschiedliche, insbesondere roboter(glied)spezifische, optische Signale aus. In einer Weiterbildung weisen hierzu zwei oder mehr der Signalquellen unterschiedliche Geometrien, Helligkeiten und/oder Farben, auf. Insbesondere können in einer Weiterbildung diese Signalquellen unterschiedliche optische Codes, insbesondere QR-Codes, aufweisen. Zusätzlich oder alternativ weisen hierzu in einer Weiterbildung diese unterschiedlichen optischen Signale voneinander verschiedene vorgegebene zeitliche Muster, insbesondere Aussendezeiten auf, in einer Ausführung senden zwei oder mehr der Signalquellen in einer vorgegebenen Abfolge ihre optischen Signale aus.
  • Dadurch können in einer Ausführung Fehler und/oder Störeinflüsse durch die Umwelt (weiter) reduziert werden. So kann beispielsweise die Wahrscheinlichkeit, dass anstelle eines optischen Signals einer Signalquelle, die ein spezifisches optisches Signal aussendet, aber durch ein unvorhergesehenes Hindernis verdeckt ist, irrtümlich ein anderes optisches Signal als der Soll-Anordnung entsprechendes Signal aufgefasst wird, reduziert werden.
  • In einer Ausführung hängt die Überwachungsreaktion, insbesondere ihre Art und/oder ihr Auslösen, von einer Anzahl und/oder einem Ort nicht vorhandener Signale der Soll-Anordnung in der Ist-Anordnung ab.
  • So kann insbesondere bei Fehlen höchstens einer ersten Anzahl von Signalen, insbesondere nur eines Signals, und/oder Fehlen von Signalen nur in einem vorgegebenen (ersten) Bereich keine oder (nur) eine erste, insbesondere schwächere bzw. geringere, Überwachungsreaktion ausgelöst, insbesondere (nur) eine Warnung ausgegeben und/oder eine Geschwindigkeit der Roboteranordnung (leichter) reduziert werden, und (erst) bei Fehlen wenigstens einer größeren zweiten Anzahl von Signalen, insbesondere wenigstens zweier Signale, und/oder Fehlen von Signalen in einem vorgegebenen anderen Bereich, der größer als der erste Bereich und/oder von diesem beabstandet sein kann, eine (zweite, insbesondere stärkere bzw. größere,) Überwachungsreaktion ausgelöst, insbesondere eine Geschwindigkeit stärker reduziert, insbesondere der Roboteranordnung gestoppt, werden.
  • Zusätzlich oder alternativ hängt in einer Ausführung die Überwachungsreaktion von einer Wärmestrahlungsdetektion durch den bzw. einen oder mehrere der Sensor(en) ab. Hierdurch kann in einer Ausführung vorteilhaft zwischen Lichtquellen und Menschen unterschieden werden.
  • Die bzw. eine (Art der) Überwachungsreaktion kann in einer Ausführung eine (Ausgabe einer), insbesondere optischen, akustischen und/oder haptischen, Warnung, eine Änderung einer vorgegebenen Bewegung der Roboteranordnung, insbesondere in eine Ausweichbewegung und/oder eine Geschwindigkeitsreduzierung, insbesondere ein Stoppen, umfassen, insbesondere sein.
  • In einer Ausführung unterbricht ein robotergeführtes Bauteil, insbesondere planmäßig, einen optischen Weg zwischen wenigstens einer, insbesondere roboterseitigen, Signalquelle und dem bzw. wenigstens einem der Sensor(en).
  • Auf diese Weise kann vorteilhaft erfasst werden, ob die Roboteranordnung planmäßig ein Bauteil führt, insbesondere gegriffen hat, bzw. planmäßig kein Bauteil führt, insbesondere ein Greifer leer ist. Zusätzlich oder alternativ kann hierdurch ein robotergeführtes Bauteil beleuchtet bzw. ein fehlendes Bauteil bzw. ein leerer Greifer durch einen entsprechenden Lichtfleck in der Umgebung signalisiert werden.
  • Nach einer Ausführung der vorliegenden Erfindung ist ein System, insbesondere hard- und/oder software-, insbesondere programmtechnisch, zur Durchführung eines hier beschriebenen Verfahrens eingerichtet und/oder weist auf:
    • - einen oder mehrere Sensoren, der bzw. die zum Erfassen von optischen Signalen von mehreren Signalquellen eingerichtet sind bzw. verwendet werden, wobei die Signalquellen und/oder der bzw. einer oder mehrere der Sensor(en) an der Roboteranordnung positioniert ist/sind; und
    • - Mittel zum Auslösen einer Überwachungsreaktion, falls eine Abweichung einer Ist-Anordnung der erfassten optischen Signale von einer Soll-Anordnung dieser Signale einen Grenzwert übersteigt, insbesondere wenigstens eine vorgegebene Mindestanzahl von Signalen der Soll-Anordnung in den erfassten optischen Signalen nicht vorhanden ist.
  • In einer Ausführung weist das System bzw. sein(e) Mittel auf: Mittel zum Ermitteln der Soll-Anordnung auf Basis einer ermittelten Position der Signalquellen und des Sensors zueinander, insbesondere auf Basis einer ermittelten Stellung der Roboteranordnung und/oder einer vorgegebenen oder ermittelten Position der Signalquellen und des Sensors zu der Roboteranordnung, und/oder auf Basis eines kinematischen und/oder optischen Modells.
  • Ein Mittel im Sinne der vorliegenden Erfindung kann hard- und/oder softwaretechnisch ausgebildet sein, insbesondere eine, vorzugsweise mit einem Speicher- und/oder Bussystem daten- bzw. signalverbundene, insbesondere digitale, Verarbeitungs-, insbesondere Mikroprozessoreinheit (CPU), Graphikkarte (GPU) oder dergleichen, und/oder ein oder mehrere Programme oder Programmmodule aufweisen. Die Verarbeitungseinheit kann dazu ausgebildet sein, Befehle, die als ein in einem Speichersystem abgelegtes Programm implementiert sind, abzuarbeiten, Eingangssignale von einem Datenbus zu erfassen und/oder Ausgangssignale an einen Datenbus abzugeben. Ein Speichersystem kann ein oder mehrere, insbesondere verschiedene, Speichermedien, insbesondere optische, magnetische, Festkörper- und/oder andere nicht-flüchtige Medien aufweisen. Das Programm kann derart beschaffen sein, dass es die hier beschriebenen Verfahren verkörpert bzw. auszuführen imstande ist, sodass die Verarbeitungseinheit die Schritte solcher Verfahren ausführen kann und damit insbesondere die Roboteranordnung überwachen kann. Ein Computerprogrammprodukt kann in einer Ausführung ein, insbesondere nicht-flüchtiges, Speichermedium zum Speichern eines Programms bzw. mit einem darauf gespeicherten Programm aufweisen, insbesondere sein, wobei ein Ausführen dieses Programms ein System bzw. eine Steuerung, insbesondere einen Computer, dazu veranlasst, ein hier beschriebenes Verfahren bzw. einen oder mehrere seiner Schritte auszuführen.
  • In einer Ausführung werden ein oder mehrere, insbesondere alle, Schritte des Verfahrens vollständig oder teilweise automatisiert durchgeführt, insbesondere durch das System bzw. sein(e) Mittel.
  • In einer Ausführung weist das System die Roboteranordnung und/oder Signalquellen auf.
  • Soll- und/oder Ist-Anordnung bzw. -Bild(er) können in einer Ausführung zwei- oder dreidimensional sein, der bzw. die Sensoren entsprechend insbesondere 3D-Kameras(ysteme) aufweisen. Dadurch werden in einer Ausführung, insbesondere in Kombination mit an der Roboteranordnung positionierten und/oder passiven bzw. reflektierenden, insbesondere gezielt, in einer Ausführung zu vorgegebenen Zeiten, beleuchteten Signalquellen, mittels L(ichtl)aufzeitmessungen Distanzinformationen erhalten bzw. genutzt.
  • Hierdurch kann in einer Ausführung die Zuverlässigkeit der Überwachung (weiter) verbessert werden, beispielsweise indem Reflektionen an einem nicht vorgesehenen Hindernis nicht irrtümlich als optisches Signal einer an der Roboteranordnung positionierten Signalquelle erfasst werden. Zusätzlich oder alternativ kann hierdurch beispielsweise die Ermittlung der Position des Sensors bzw. Kamerasystems relativ zur Roboteranordnung, insbesondere durch Triangulation oder dergleichen, verbessert werden. Zusätzlich oder alternativ kann hierdurch in einer Ausführung, insbesondere bei mobilem bzw. bewegtem Sensor, jeweils dessen aktuelle Position vorteilhaft ermittelt werden.
  • Entsprechend wird in einer Ausführung die, insbesondere aktuelle, Position des bzw. eines oder mehrerer der, insbesondere mobilen, Sensoren relativ zur, insbesondere mobilen, Roboteranordnung auf Basis einer Distanz-, insbesondere L(ichtl)aufzeitmessung mittels erfasster optischer Signale ermittelt und die Soll-Anordnung, insbesondere das bzw. die Soll-Bild(er), erfasster optischer Signale dann auf Basis dieser ermittelten Position des bzw. der Sensoren zu der Roboteranordnung ermittelt.
  • Weitere Vorteile und Merkmale ergeben sich aus den Unteransprüchen und den Ausführungsbeispielen. Hierzu zeigt, teilweise schematisiert:
    • 1: ein System zur Überwachung einer Roboteranordnung nach einer Ausführung der vorliegenden Erfindung; und
    • 2: ein Verfahren zur Überwachung der Roboteranordnung nach einer Ausführung der vorliegenden Erfindung.
  • 1 zeigt ein System zur Überwachung einer Roboteranordnung nach einer Ausführung der vorliegenden Erfindung.
  • Die Roboteranordnung besteht aus einem mehrgelenkigen bzw. -achsigen Roboter 10 mit einer stationären oder mobilen Basis 11, einem darauf um eine Vertikalachse drehbaren Karussell 12 und einer daran um eine Horizontalachse drehbaren mehrgelenkigen bzw. -achsigen Roboterhand mit einer Schwinge 13, einem Arm 14 und einem Endeffektor 15.
  • An Gliedern des Roboters 10 sind Lichtquellen in Form von Laserpointern und/oder LEDs 20 positioniert, die gliedspezifische Farben und/oder Formen aufweisen und/oder in spezifischen Zeitmustern aktiviert werden können.
  • Um den Arbeitsraum des Roboters 10 sind mehrere Sensoren in Form von Kameras 30 verteilt, von denen in 1 nur einige dargestellt sind.
  • Diese erfassen optische Signale von den Lichtquellen 20 (2: Schritt S10), wobei in 1 exemplarisch ein Umlenkspiegel 200 angedeutet ist, um optische Signale mit der Kamera 30 (besser) zu erfassen.
  • Die Kameras 30 sind mit einer Überwachungseinrichtung 100 signalverbunden, welche in einer Steuerung des Roboters 10 integriert sein kann und, beispielsweise dadurch, eine Stellung des Roboters 10 bzw. entsprechende Gelenkwinkel erhält.
  • Hieraus ermittelt die Überwachungseinrichtung 100 in einem Schritt S20 (vgl. 2) mithilfe eines kinematischen Modells die jeweils aktuelle Position der auf dem Roboter positionierten Lichtquellen 20, deren Position zum bzw. auf dem Roboter beispielsweise durch Messen und/oder gezieltes entsprechendes Platzieren der Lichtquellen bekannt ist.
  • In der Überwachungseinrichtung 100 sind auch die Positionen der einzelnen Kameras 30 bekannt. Diese können beispielsweise vorab mittels Triangulation aus bekannten Positionen der Lichtquellen ermittelt worden sein.
  • Mithilfe eines optischen Modells prognostiziert die Überwachungseinrichtung 100 nun Soll-Bilder der Lichtquellen 20, wie sie von den Kameras 30 erfasst werden (müssten), sofern keine unerwarteten Hindernisse zwischen Roboter 10 und Kameras 30 den optischen Weg von den Lichtquellen zu den Kameras unvorhergesehen unterbrechen. Bekannte bzw. zugelassene Hindernisse können in dem optischen Modell berücksichtigt sein, beispielsweise mithilfe entsprechender Lernfahrten oder einer Soll-Konfiguration der Umgebung.
  • In einem Schritt S30 vergleicht die Überwachungseinrichtung diese Soll-Bilder mit den tatsächlich von den Kameras 30-32 erfassten Ist-Bildern. Dabei können in einer Ausführung jeweils Bilder mit und ohne aktive Lichtquellen voneinander subtrahiert werden, so dass die Soll- und Ist-Bilder jeweils nur die solcherart isolierten Abbilder der Lichtquellen selber aufweisen.
  • Ist wenigstens eine vorgegebene Mindestanzahl der Soll-Abbilder der Lichtquellen in einem der Ist-Bilder nicht vorhanden (S40: „Y“), löst die Überwachungseinrichtung 100 eine Überwachungsreaktion aus (S50), reduziert beispielsweise die Geschwindigkeit des Roboters 10, gegebenenfalls stoppt sie diesen. Andernfalls (S40: „N“) kehrt sie bzw. das Verfahren zu Schritt S10 zurück.
  • Zur Verdeutlichung ist in 1 eine Person H eingezeichnet, die unerwartet in den Arbeitsraum des Roboters 10 getreten ist. Man erkennt, dass diese einen optischen Weg zwischen der Kamera 32 und der dieser in 2 horizontal gegenüberliegenden Lichtquelle 20 unterbricht, so dass das Abbild dieser Lichtquelle in dem entsprechenden Soll-Bild der Kamera 32 in dem von dieser erfassten Ist-Bild nicht vorhanden ist.
  • Man erkennt, dass gleichermaßen ein Ausfall dieser Lichtquelle 20 oder dieser Kamera 32 als auch das Hindernis H zu einer Abweichung zwischen Soll- und Ist-Bild führen und die(selbe) Überwachungsreaktion auslösen, so dass weder Lichtquelle noch Kameras kostspielig in sicherer Technik ausgebildet sein müssen.
  • Zudem verdeutlicht das Ausführungsbeispiel, dass ein am Endeffektor 15 geführtes Bauteil den optischen Weg zwischen der Kamera 30 und der in 1 unteren Signalquelle 20 unterbrechen würde, die stattdessen dann (nur) das Bauteil anleuchten würde. Umgekehrt signalisiert daher ein Lichtfleck von dieser Signalquelle 20 einen bauteilfreien Endeffektor.
  • Außerdem verdeutlicht das Ausführungsbeispiel, dass beispielsweise anhand des Ist-Bilds der Kamera 32 ermittelt werden kann, ob sich ein Hindernis - wie in 1 - im Bereich der Roboterhand, des Karussells oder der Basis befindet, so dass die Überwachungsreaktion vorteilhaft hierauf abgestimmt werden kann.
  • Weiterhin verdeutlicht das Ausführungsbeispiel, dass das Soll-Bild bzw. die Soll-Anordnung auf Basis eines kinematischen und optischen Modells prognostiziert wird, das bekannte Hindernisse in der Umgebung des Roboters umfasst. Befindet sich beispielsweise die Person H planmäßig an der in 1 gezeigten Position, prognostiziert das entsprechende Modell ein Soll-Bild der Kamera 32, in dem die ihr gegenüberliegende Lichtquelle 20 planmäßig nicht vorhanden ist, so dass in diesem Fall keine Überwachungsreaktion ausgelöst wird.
  • Obwohl in der vorhergehenden Beschreibung exemplarische Ausführungen erläutert wurden, sei darauf hingewiesen, dass eine Vielzahl von Abwandlungen möglich ist.
  • So können zusätzlich oder alternativ zu LEDs bzw. Laserpointern die Signalquellen 20 auch passive Signalquellen, insbesondere Reflektoren aufweisen, insbesondere sein, die in einer Ausführung gezielt beleuchtet werden.
  • Außerdem sei darauf hingewiesen, dass es sich bei den exemplarischen Ausführungen lediglich um Beispiele handelt, die den Schutzbereich, die Anwendungen und den Aufbau in keiner Weise einschränken sollen. Vielmehr wird dem Fachmann durch die vorausgehende Beschreibung ein Leitfaden für die Umsetzung von mindestens einer exemplarischen Ausführung gegeben, wobei diverse Änderungen, insbesondere in Hinblick auf die Funktion und Anordnung der beschriebenen Bestandteile, vorgenommen werden können, ohne den Schutzbereich zu verlassen, wie er sich aus den Ansprüchen und diesen äquivalenten Merkmalskombinationen ergibt.
  • Bezugszeichenliste
  • 10
    Roboter
    11
    Basis
    12
    Karussell
    13
    Schwinge
    14
    Arm
    15
    Endeffektor
    20
    Lichtquelle (Laserpointer; LED)
    30-32
    Kamera
    100
    Überwachungseinrichtung
    200
    Umlenkspiegel
    H
    Person

Claims (10)

  1. Verfahren zur Überwachung einer Roboteranordnung, die wenigstens einen Roboter (10) aufweist, mit den Schritten: - Erfassen (S10) von optischen Signalen von mehreren Signalquellen (20) durch wenigstens einen Sensor (30-32), wobei die Signalquellen und/oder der Sensor an der Roboteranordnung positioniert sind; und - Auslösen (S50) einer Überwachungsreaktion, falls eine Abweichung einer Ist-Anordnung der erfassten optischen Signale von einer Soll-Anordnung dieser Signale einen Grenzwert übersteigt, insbesondere wenigstens eine vorgegebene Mindestanzahl von Signalen der Soll-Anordnung in der Ist-Anordnung der erfassten optischen Signale nicht vorhanden ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Soll-Anordnung auf Basis einer ermittelten Position der Signalquellen und des Sensors zueinander, insbesondere auf Basis einer ermittelten Stellung der Roboteranordnung und/oder einer vorgegebenen oder ermittelten Position der Signalquellen und des Sensors zu der Roboteranordnung, und/oder auf Basis eines kinematischen und/oder optischen Modells ermittelt ist.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens eine der Signalquellen auf einer an der Roboteranordnung befestigten Hülle befestigt ist und/oder die optischen Signale, insbesondere Laserlicht und/oder sichtbares Licht, Infrarotlicht und/oder UV-Licht, emittiert.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens eine der Signalquellen durch wenigstens eine Lichtquelle mit Licht, insbesondere Laserlicht und/oder sichtbarem Licht, Infrarotlicht und/oder UV-Licht, beleuchtet wird und dieses als optisches Signal reflektiert und/oder dass in einem optischen Weg zwischen wenigstens einer der Signalquellen und dem Sensor wenigstens ein Umlenkmittel (200) angeordnet ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optischen Signale wenigstens einer der Signalquellen ein vorgegebenes zeitliches Muster aufweisen und/oder die Ist-Anordnung auf Basis einer Erfassung mit ausgesendeten optischen Signalen und einer Erfassung ohne ausgesendete optische Signale durch den wenigstens einen Sensor ermittelt ist.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens zwei der Signalquellen unterschiedliche, insbesondere robotergliedspezifische, optische Signale aussenden, insbesondere unterschiedliche Geometrien, Helligkeiten und/oder Farben aufweisen und/oder die unterschiedlichen optischen Signale voneinander verschiedene vorgegebene zeitliche Muster aufweisen.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Überwachungsreaktion von einer Anzahl und/oder einem Ort nicht vorhandener Signale der Soll-Anordnung in der Ist-Anordnung und/oder von einer Wärmestrahlungsdetektion durch den Sensor abhängt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein robotergeführtes Bauteil einen optischen Weg zwischen wenigstens einer, insbesondere roboterseitigen, Signalquelle und dem Sensor unterbricht.
  9. System zur Überwachung einer Roboteranordnung, die wenigstens einen Roboter (10) aufweist, wobei das System zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist und/oder aufweist: - wenigstens einen Sensor (30-32) zum Erfassen von optischen Signalen von mehreren Signalquellen (20), wobei die Signalquellen und/oder der Sensor an der Roboteranordnung positioniert sind; und - Mittel (100) zum Auslösen einer Überwachungsreaktion, falls eine Abweichung einer Ist-Anordnung der erfassten optischen Signale von einer Soll-Anordnung dieser Signale einen Grenzwert übersteigt, insbesondere wenigstens eine vorgegebene Mindestanzahl von Signalen der Soll-Anordnung in den erfassten optischen Signalen nicht vorhanden ist.
  10. Computerprogrammprodukt mit einem Programmcode, der auf einem von einem Computer lesbaren Medium gespeichert ist, zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
DE102019206010.2A 2019-04-26 2019-04-26 Verfahren und System zur Überwachung einer Roboteranordnung Pending DE102019206010A1 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE102019206010.2A DE102019206010A1 (de) 2019-04-26 2019-04-26 Verfahren und System zur Überwachung einer Roboteranordnung
PCT/EP2020/058451 WO2020216570A1 (de) 2019-04-26 2020-03-26 Verfahren und system zur überwachung einer roboteranordnung
KR1020217037909A KR20220002407A (ko) 2019-04-26 2020-03-26 로봇 배열체를 모니터링하기 위한 방법 및 시스템
US17/606,284 US20220314454A1 (en) 2019-04-26 2020-03-26 Method and system for monitoring a robot arrangement
EP20716721.4A EP3959047A1 (de) 2019-04-26 2020-03-26 Verfahren und system zur überwachung einer roboteranordnung
CN202080040308.2A CN113905854A (zh) 2019-04-26 2020-03-26 用于监视机器人设备的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206010.2A DE102019206010A1 (de) 2019-04-26 2019-04-26 Verfahren und System zur Überwachung einer Roboteranordnung

Publications (1)

Publication Number Publication Date
DE102019206010A1 true DE102019206010A1 (de) 2020-10-29

Family

ID=70165982

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206010.2A Pending DE102019206010A1 (de) 2019-04-26 2019-04-26 Verfahren und System zur Überwachung einer Roboteranordnung

Country Status (6)

Country Link
US (1) US20220314454A1 (de)
EP (1) EP3959047A1 (de)
KR (1) KR20220002407A (de)
CN (1) CN113905854A (de)
DE (1) DE102019206010A1 (de)
WO (1) WO2020216570A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014100411U1 (de) * 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102015000793A1 (de) * 2015-01-23 2016-07-28 Daimler Ag Sensorvorrichtung für unterschiedliche Robotervarianten
DE102015001575A1 (de) * 2015-02-07 2016-08-11 Audi Ag Verfahren und Vorrichtung zur Visualisierung der Bewegung eines Roboters
DE102015225587A1 (de) * 2015-12-17 2017-06-22 Volkswagen Aktiengesellschaft Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit
DE102017005194B3 (de) * 2017-05-31 2018-09-13 Kuka Deutschland Gmbh Steuern einer Roboteranordnung
DE202017104603U1 (de) * 2017-08-01 2018-11-06 Sick Ag System zum Absichern einer Maschine

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6171302A (ja) * 1984-09-14 1986-04-12 Toshiba Corp ロボットハンド用近接センサ装置
US4804860A (en) * 1985-05-02 1989-02-14 Robotic Vision Systems, Inc. Robot cell safety system
DE102010050547A1 (de) * 2010-11-05 2012-05-10 Kuka Laboratories Gmbh Verfahren und Vorrichtung zur Sicherheitsüberwachung eines Roboters
US9120233B2 (en) * 2012-05-31 2015-09-01 Toyota Motor Engineering & Manufacturing North America, Inc. Non-contact optical distance and tactile sensing system and method
DE102016007520A1 (de) * 2016-06-20 2017-12-21 Kuka Roboter Gmbh Überwachung einer Roboteranordnung
DE102016114835A1 (de) * 2016-08-10 2018-02-15 Joanneum Research Forschungsgesellschaft Mbh Robotervorrichtung
FR3060182B1 (fr) * 2016-12-12 2021-09-10 Inst De Rech Tech Jules Verne Procede et dispositif de detection d’une intrusion dans l’environnement d’un robot
IT201800002494A1 (it) * 2018-02-08 2019-08-08 Omron Europe B V Dispositivo di monitoraggio per monitorare un settore limite di una zona di sicurezza.

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014100411U1 (de) * 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung
DE102015000793A1 (de) * 2015-01-23 2016-07-28 Daimler Ag Sensorvorrichtung für unterschiedliche Robotervarianten
DE102015001575A1 (de) * 2015-02-07 2016-08-11 Audi Ag Verfahren und Vorrichtung zur Visualisierung der Bewegung eines Roboters
DE102015225587A1 (de) * 2015-12-17 2017-06-22 Volkswagen Aktiengesellschaft Interaktionssystem und Verfahren zur Interaktion zwischen einer Person und mindestens einer Robotereinheit
DE102017005194B3 (de) * 2017-05-31 2018-09-13 Kuka Deutschland Gmbh Steuern einer Roboteranordnung
DE202017104603U1 (de) * 2017-08-01 2018-11-06 Sick Ag System zum Absichern einer Maschine

Also Published As

Publication number Publication date
EP3959047A1 (de) 2022-03-02
CN113905854A (zh) 2022-01-07
US20220314454A1 (en) 2022-10-06
WO2020216570A1 (de) 2020-10-29
KR20220002407A (ko) 2022-01-06

Similar Documents

Publication Publication Date Title
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102007059480B4 (de) Verfahren und Vorrichtung zur Posenüberwachung eines Manipulators
DE102010050547A1 (de) Verfahren und Vorrichtung zur Sicherheitsüberwachung eines Roboters
EP3234442B1 (de) Verfahren zur überwachung eines koordinatenmessgeräts
DE102010007025A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE102018117829B4 (de) Steuereinheit für Gelenkroboter
DE102017111886B3 (de) Bestimmen der Bewegung einer abzusichernden Maschine
EP2053538A1 (de) Absicherung eines Überwachungsbereichs und visuelle Unterstützung einer automatisierten Bearbeitung
EP3383595A1 (de) Darstellung variabler schutzfelder
EP3959046A1 (de) Verfahren und system zum betreiben eines roboters
DE10216023A1 (de) Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen
DE102018101162B4 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
DE102019211770B3 (de) Verfahren zur rechnergestützten Erfassung und Auswertung eines Arbeitsablaufs, bei dem ein menschlicher Werker und ein robotisches System wechselwirken
DE10215885A1 (de) Automatische Prozesskontrolle
EP3401702B1 (de) Sensorsystem
DE102017113392B4 (de) Vorrichtung zur Sicherheitssteuerung einer Maschine
DE102017103568C5 (de) Sensor und Verfahren zur Erfassung von Objekten
DE102019206010A1 (de) Verfahren und System zur Überwachung einer Roboteranordnung
DE202017104603U1 (de) System zum Absichern einer Maschine
DE102016221861B4 (de) Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE102017119149A1 (de) Verfahren zur berührungslosen Erfassung relativ zueinander bewegter Objekte und Sensoreinrichtung
EP2353799B1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
EP3825731B1 (de) Optoelektronischer sicherheitssensor und verfahren zur sicheren bestimmung der eigenen position
DE102019127826B4 (de) Sicherer optoelektronischer Sensor und Verfahren zum Absichern eines Überwachungsbereichs
DE102016214391B4 (de) Verfahren zum Steuern eines Betriebes eines Koordinatenmessgerätes und Koordinatenmessgerät mit Steuerung

Legal Events

Date Code Title Description
R012 Request for examination validly filed