DE102016120559B4 - Verfahren und System zur Steuerung eines Roboters - Google Patents

Verfahren und System zur Steuerung eines Roboters Download PDF

Info

Publication number
DE102016120559B4
DE102016120559B4 DE102016120559.1A DE102016120559A DE102016120559B4 DE 102016120559 B4 DE102016120559 B4 DE 102016120559B4 DE 102016120559 A DE102016120559 A DE 102016120559A DE 102016120559 B4 DE102016120559 B4 DE 102016120559B4
Authority
DE
Germany
Prior art keywords
distance
person
main body
robot
robot main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016120559.1A
Other languages
English (en)
Other versions
DE102016120559A1 (de
Inventor
Akira Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Publication of DE102016120559A1 publication Critical patent/DE102016120559A1/de
Application granted granted Critical
Publication of DE102016120559B4 publication Critical patent/DE102016120559B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/001Safety devices for guarding the human operator of punch presses or like machine tools performing an opening and closing travel
    • F16P3/003Safety devices for guarding the human operator of punch presses or like machine tools performing an opening and closing travel by application of a specific control arrangement, e.g. specific switching systems or two-hand control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/144Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/147Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using electro-magnetic technology, e.g. tags or radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/048Monitoring; Safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40264Human like, type robot arm

Abstract

Robotersteuersystem (1), aufweisend:eine Abstandsmesseinheit zum Messen eines Abstands von einer Betätigungsregion eines Roboterhauptkörpers zu einer Person (14), die sich der Region nähert;eine Informationsabrufeinheit zum Abrufen von Informationen, die notwendig sind, um eine Sicherheitskompetenzstufe der Person (14) abzurufen, die in einem Aufzeichnungsmedium gespeichert sind, das die Person (14) mit sich führt, über ein drahtlos übertragenes Signal; undeine Steuereinrichtung zum Steuern der Betätigung des Roboterhauptkörpers und zum Abrufen des Abstands und der Informationen aus der Abstandsmerkmal und der Informationsabrufeinheit, wobei die Steuereinrichtung den Abstand als kurzen Abstand, das heißt als Abstand innerhalb der Betätigungsregion, als langen Abstand, das heißt als Abstand, der länger ist als eine Betätigungsregion des Roboterhauptkörpers, und als mittleren Abstand, das heißt als Abstand zwischen dem kurzen Abstand und dem langen Abstand klassifiziert,wobei die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung betätigt, falls der Abstand ein langer Abstand ist,die Steuereinrichtung die Betätigung des Roboterhauptkörpers anhält, wenn der Abstand ein kurzer Abstand ist,die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung betätigt, wenn der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Experten angibt,die Steuereinrichtung den Roboterhauptkörper in einem verlangsamten Zustand betätigt, so dass die Person (14) Maßnahmen ergreifen kann, um ihre eigene Sicherheit zu gewährleisten, wenn der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Anfänger angibt, unddie Steuereinrichtung die Betätigung des Roboterhauptkörpers anhält, wenn der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe nicht abgerufen werden kann.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Steuern eines Roboters, und insbesondere ein Verfahren und ein System zum Steuern der Bewegung eines Arms eines industriellen Roboters.
  • In herkömmlichen Anlagen, wo Roboter und Menschen gemeinsam arbeiten, wird in einem Fall, wo eine Robotersteuerung, beispielsweise unter Verwendung eines Lichtvorhangs oder eines Lasersensors, erfasst, dass sich ein Mensch bzw. eine Person einem Roboterarm genähert hat, eine solche Steuerung durchgeführt, dass die Betätigung des Roboterarms angehalten bzw. ausgesetzt oder der Roboterarm mit einer sicheren, geringen Geschwindigkeit betätigt wird.
  • [Patentdokument 1] JP 2010 - 231 713 A
  • Jedoch wird im oben genannten Fall die Betätigung des Roboterarms jedes Mal, wenn sich der Mensch dem Roboterarm nähert, ausgesetzt oder wird die Geschwindigkeit der Betätigung des Roboterarms verringert, wodurch die Arbeitseffizienz stark verringert wird.
  • Ferner wird in der DE 10 2009 031 732 B3 ein entfernungsmessender optoelektronischer Sensor zur Überwachung eines Arbeitsbereichs offenbart, der innerhalb eines Erfassungsbereichs des Sensors und in einem ersten Abstand zu dem Sensor angeordnet ist, wobei der Sensor eine Beleuchtungseinheit mit einer Lichtquelle, um den Arbeitsbereich zumindest teilweise zu beleuchten sowie eine Objekterkennungseinheit aufweist, mittels derer unzulässige Objekte in dem Arbeitsbereich detektierbar sind. Dabei ist eine Beleuchtungssteuerung dafür ausgebildet, in einer Einschaltphase - die Beleuchtungseinheit zunächst mit einer geringeren Leistung zu aktivieren, so dass ein vorläufiger Arbeitsbereich in einem zweiten Abstand zu dem Sensor kleiner dem ersten Abstand mit höchstens einer vorgegebenen Maximallichtleistung beleuchtet wird, - mittels der Objekterkennungseinheit zu prüfen, ob in den vorläufigen Arbeitsbereich ein unzulässiger Objekteingriff erfolgt und - falls kein unzulässiger Objekteingriff erkannt wird, die Beleuchtungseinheit mit einer höheren Leistung zu aktivieren, so dass der Arbeitsbereich mit höchstens der vorgegebenen Maximalleistung beleuchtet wird.
  • Die DE 10 2005 063 217 B4 offenbart ein Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichs, sowie eine entsprechende Überwachungseinrichtung. Die Überwachungseinrichtung beinhaltet zumindest eine Bildaufnahmeeinheit, die ein dreidimensionales Abbild des Raumbereichs erzeugt, mit den Schritten:
    • - Aufnehmen und Anzeigen des dreidimensionalen Abbildes des Raumbereichs,
    • - Bestimmen einer Vielzahl von Raumpunkten in dem dreidimensionalen Abbild,
    • - Definieren einer Konfigurationsebene unter Verwendung der Raumpunkte,
    • - Erzeugen von zumindest einem veränderbaren Geometrieelement relativ zu der Konfigurationsebene, wobei das Geometrieelement in das Abbild eingeblendet wird,
    • - Erzeugen eines Datensatzes, der eine Transformation des Geometrieelements in den Raumbereich repräsentiert, und
    • - Übertragen des Datensatzes an die Überwachungseinrichtung, wobei die Überwachungseinrichtung dazu ausgebildet ist, den Raumbereich unter Verwendung des Datensatzes zu überwachen.
  • In der DE 10 2005 003 827 B4 wird eine Vorrichtung, sowie ein Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz offenbart. Dabei werden eine Vorrichtung und ein Verfahren zur Kooperation zwischen Mensch und Robotereinheit am Arbeitsplatz, an dem die Robotereinheit vorgesehen ist beschrieben. Die Erfindung zeichnet sich dadurch aus, dass eine erste Sensoreinheit S1 vorgesehen ist, die ein Annähern des Menschen an den Arbeitsplatz derart erfasst, dass bei einem Passieren des Menschen eines ersten Abstandes a1 zu einer im Bereich des Arbeitsplatzes befindlichen Referenzposition R die Sensoreinheit S1 ein Signal Si1 erzeugt, dass eine zweite Sensoreinheit S2 vorgesehen ist, die ein weiteres Annähern des Menschen an den Arbeitsplatz beim Passieren eines geringeren zweiten Abstandes a2 zur Referenzposition R erfasst und ein Signal Si2 erzeugt, und dass eine Steuereinheit vorgesehen ist, an die die Signale der Sensoreinheiten S1 und S2 übertragbar sind und die in Abhängigkeit der Sensorsignale die Robotereinheit in folgender Weise ansteuert: - bei Vorliegen des Signals Si1 wird die Robotereinheit in einen vorgebbaren Zustand, in einen so genannten sicheren Betriebshalt überführt, - ein Signalgeber generiert ein Signal SiSAFE bei Erreichen des sicheren Betriebshalts durch die Robotereinheit und überträgt das Signal SiSAFE an die Steuereinheit, - bei Vorliegen der Signale Si1 oder Si2 verbleibt die Robotereinheit in dem Zustand des sicheren Betriebshaltes, sofern zusätzlich das Signal SiSAFE vorliegt und - bei Vorliegen des Signals Si2 wird die Robotereinheit in einen so genannten Not-Aus überführt, in dem die Robotereinheit bewegungslos in ihrer momentanen Stellung verharrt, sofern das Signal Si SAFE nicht vorliegt.
  • Die DE 101 52 543 A1 betrifft Verfahren und Vorrichtungen zum Steuern wenigstens einer sicherheitsrelevanten Funktion, z. B. ein Notstopp, einer Maschine. Ein Überwachungsbereich wird von wenigstens einem orts- und zeitauflösenden Sensor überwacht, mit dem die Position, die Bewegungsrichtung und/oder die Bewegungsgeschwindigkeit einer Person erkannt wird. Eine Sicherheitsgrenze oder ein Sicherheitsbereich begrenzt einen Gefahrenbereich und definiert einen Sicherheitsabstand zur Maschine. Bei Eindringen in den Gefahrenbereich wird die sicherheitsrelevante Funktion ausgelöst. Die Lage der Sicherheitsgrenze und/oder die Ausdehnung des Sicherheitsbereichs werden in Abhängigkeit von der Position, der Bewegungsrichtung und/oder Bewegungsgeschwindigkeit situationsbedingt variabel festgelegt.
  • Des Weiteren wird in EP 2 275 990 B1 ein 3D-Sensor mit mindestens einem Bildsensor zur Erzeugung von Bilddaten eines Überwachungsbereichs sowie mit einer 3D-Auswertungseinheit offenbart, welche für die Berechnung einer Entfernungspixel aufweisenden Tiefenkarte aus den Bilddaten sowie für die Ermittlung von Zuverlässigkeitswerten für die Entfernungspixel ausgebildet ist. Dabei ist eine Lückenbewertungseinheit vorgesehen, welche dafür ausgebildet ist, Bereiche der Tiefenkarte mit Entfernungspixeln, deren Zuverlässigkeitswert ein Zuverlässigkeitskriterium nicht erfüllt, als Lücken der Tiefenkarte zu erkennen und zu bewerten, ob die Tiefenkarte Lücken größer als eine unkritische Höchstgröße aufweist.
  • Die US 2015 / 0 217 455 A1 offenbart ein Steuern eines Roboters in Gegenwart eines sich bewegenden Objekts. Hierfür sind ein Verfahren, ein System und ein oder mehrere computerlesbare Speichermedien zum Steuern eines Roboters in Gegenwart eines sich bewegenden Objekts vorgesehen. Das Verfahren umfasst das Erfassen einer Anzahl von Einzelbildern aus einem dreidimensionalen Kamerasystem und das Analysieren eines Einzelbilds, um ein verbundenes Objekt zu identifizieren. Das Einzelbild wird mit einem vorherigen Einzelbild verglichen, um ein sich bewegendes verbundenes Objekt (MCO) zu identifizieren. Befindet sich ein unerwartetes MCO im Einzelbild, wird festgestellt, ob sich das unerwartete MCO in einem aktionsfähigen Bereich befindet. In diesem Fall wird der Roboter angewiesen, eine Aktion auszuführen.
  • Es ist eine Aufgabe dieser Offenbarung ein Verfahrens und ein Systems zum Steuern eines Roboters zu schaffen, mit denen die Sicherheit eines Menschen gewährleistet werden kann, wenn sich der Mensch dem Roboter nähert, und die Verringerung der Arbeitseffizienz minimiert werden kann.
  • Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche 1 und 6 gelöst. Weitere vorteilhafte Ausführungsformen und Weiterentwicklungen sind Gegenstand der sich daran anschließenden Ansprüche.
  • In einem Robotersteuerungssystem (einer Vorrichtung) gemäß einer als Beispiel dienenden Ausführungsform misst eine Abstandsmesseinheit den Abstand von einer Betätigungsregion eines Roboterhauptkörpers zu einem Menschen, der sich der Region nähert. Eine Informationsabrufeinheit ruft über ein drahtlos übertragenes Signal Informationen ab, die notwendig sind, um eine Sicherheitskompetenzstufe abzurufen, die in einem Aufzeichnungsmedium gespeichert sind, das der Mensch mit sich führt;
  • Eine Steuereinrichtung klassifiziert Abstände als kurzen Abstand, das heißt einen Abstand innerhalb der Betätigungsregion des Roboterhauptkörpers, einen langen Abstand, das heißt einen Abstand, der länger ist als eine Bewegungsregion des Roboterhauptkörpers, und einen mittleren Abstand, das heißt einen Abstand zwischen dem kurzen Abstand und dem langen Abstand. In dem Fall, wo der Abstand ein langer Abstand ist, betätigt die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung. In dem Fall, wo der Abstand ein kurzer Abstand ist, hält die Steuereinrichtung die Betätigung des Roboterhauptkörpers an. In dem Fall, wo der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Experten anzeigt, betätigt die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung. Außerdem betätigt die Steuereinrichtung den Roboterhauptkörper in dem Fall, wo der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Anfänger anzeigt, in einem verlangsamten Zustand, so dass der Mensch Maßnahmen ergreifen kann, um seine eigene Sicherheit zu gewährleisten. Ferner hält die Steuereinrichtung in dem Fall, wo der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe nicht abgerufen werden kann, die Betätigung des Roboterhauptkörpers an.
  • Das heißt, in dem Fall, wo die Person innerhalb des Bereichs des mittleren Abstands erfasst wird, wird abhängig davon, ob es möglich ist, die Sicherheitskompetenzstufe des Menschen abzurufen oder nicht, oder abhängig vom Grad der abgerufenen Sicherheitskompetenzstufe die Betätigung des Roboterhauptkörpers ausgesetzt, der Roboterhauptkörper ohne Verlangsamung betätigt oder der Roboterhauptkörper in einem verlangsamten Zustand betätigt. Infolgedessen ist es auf die gleiche Weise möglich, sowohl die Sicherheit des Menschen zu gewährleisten, der sich im Bereich des mittleren Abstands befindet, als auch zu verhindern, dass die Betätigung des Roboterhauptkörpers ausgesetzt wird oder der Roboterhauptkörper mit geringer Geschwindigkeit betätigt wird, wodurch die Verringerung der Arbeitseffizienz minimiert wird.
  • Eine ähnliche Wirkung ist auch bei einem Verfahren zum Steuern eines Roboters gemäß einem anderen oben beschriebenen Beispiel gegeben.
  • In einem bevorzugten Beispiel für das System ist die Abstandsmesseinheit dafür ausgelegt, einen Personen-Positionskoordinatenwert abzurufen, das heißt eine Position des Menschen, zu dem der Abstand gemessen wird, und ist die Informationsabrufeinheit außerdem dafür ausgelegt, einen Medien-Positionskoordinatenwert abzurufen, das heißt eine Position des Aufzeichnungsmediums. In dem Fall, wo mehrere Personen-Positionskoordinatenwerte innerhalb eines Bereichs des mittleren Abstands abgerufen werden, bestimmt die Steuereinrichtung, ob oder ob nicht mehrere Medien-Positionskoordinatenwerte, die den Personen-Positionskoordinatenwerten entsprechen, abgerufen werden. In dem Fall, wo die Medien-Positionskoordinatenwerte abgerufen werden, die den Personen-Positionskoordinatenwerten entsprechen, und irgendeine der Sicherheitskompetenzstufen, die den Medien-Positionskoordinatenwerten entsprechen, einen Anfänger anzeigt, betätigt die Steuereinrichtung den Roboterhauptkörper im verlangsamten Zustand. Dagegen hält die Steuereinrichtung in einem Fall, wo keine Medien-Positionskoordinatenwerte abgerufen werden, die den Personen-Positionskoordinatenwerten entsprechen, die Betätigung des Roboterhauptkörpers an.
  • Das heißt, auch in einem Fall, in dem die Abstandsmesseinheit und die Informationsabrufeinheit dafür ausgelegt sind, den Personen-Positionskoordinatenwert bzw. den Medien-Positionskoordinatenwert abzurufen, unterscheidet sich das Abrufprinzip abhängig vom Verfahren. Zum Beispiel wird in dem Zustand, wo mehrere Menschen anwesend sind, auch der Fall angenommen, dass nur der Koordinatenwert des Menschen abgerufen werden kann, der sich in der Nähe des Roboters befindet. Wenn dieser Mensch das Aufzeichnungsmedium nicht mit sich führt, wird außerdem der Medien-Positionskoordinatenwert, der diesem Menschen entspricht, nicht abgerufen, obwohl der Personen-Positionskoordinatenwert abgerufen werden kann.
  • In dem Fall, wo sich mehrere Menschen im Bereich des mittleren Abstands befinden, wird der Roboterhauptkörper in einem verlangsamten Zustand betätigt, wenn die jeweiligen Koordinatenwerte der Position von Medien abgerufen werden, die den einzelnen Menschen entsprechen, und auch nur eine von deren Sicherheitskompetenzstufen einen Anfänger anzeigt, der eine niedrige Stufe hat. Dagegen wird die Betätigung des Roboterhauptkörpers angehalten, wenn nicht für jeden Menschen ein Medien-Positionskoordinatenwert abgerufen wird, was heißt, dass ein Mensch anwesend ist, der kein Aufzeichnungsmedium mit sich führt. Es ist möglich, die Sicherheit zu gewährleisten, wenn der Betätigungszustand des Roboterhauptkörpers bestimmt wird, obwohl sich mehrere Menschen im Bereich des mittleren Abstands befinden.
  • In einem anderen bevorzugten Beispiel für das System besteht die Abstandsmesseinheit aus einem Lasersensor. Wenn eine Mehrzahl von Personen-Positionskoordinatenwerten in einer Mehrzahl von Richtungen innerhalb des Bereichs des mittleren Abstands abgerufen werden, betrachtet die Steuereinrichtung die Personen-Positionskoordinatenwerte, die in den jeweiligen Richtungen vorhanden sind, als Personen-Positionskoordinatengruppen. In dem Fall, wo ein Medien-Positionskoordinatenwert, der nicht mindestens einem abgerufenen Personen-Positionskoordinatenwert aus mindestens einer der Personen-Positionskoordinatengruppen entspricht, auf einer Verlängerungslinie desselben abgerufen wird, bestimmt die Steuereinrichtung, ob oder ob nicht die Sicherheitskompetenzstufe von nur dem abgerufenen Personen-Positionskoordinatenwert abgerufen wird und ob die Sicherheitskompetenzstufe des abgerufenen Personen-Positionskoordinatenwerts hoch oder niedrig ist, und evaluiert die Sicherheitskompetenzstufe der Personen-Positionskoordinatengruppe. „Evaluieren“ bedeutet hier eine Evaluierung einschließlich einer Person, deren Sicherheitskompetenzstufe nicht abgerufen werden kann. Die Person, deren Sicherheitskompetenzstufe nicht abgerufen werden kann, wird als Person evaluiert, die eine niedrigere Sicherheitskompetenzstufe hat als an Anfänger. Die Steuereinrichtung evaluiert schließlich eine von den Personen-Positionskoordinatengruppen, welche die niedrigste Sicherheitskompetenzstufe aufweist.
  • Das heißt, in dem Fall, wo sich eine Mehrzahl von Personen innerhalb des Bereichs des mittleren Abstands befindet, wird eine Mehrzahl von Personen-Positionskoordinatenwerten in einer Mehrzahl von Richtungen unter Verwendung des Lasersensors abgerufen. Infolgedessen werden die Personen-Positionskoordinatenwerte als „Personen-Positionskoordinatengruppen“ bezeichnet. Wenn in dem Fall, wo der Lasersensor verwendet wird, eine Mehrzahl von Personen anwesend ist, die einander in der Richtung, in der das Laserlicht ausgestrahlt wird, in den Personen-Positionskoordinatengruppen überlagern, ist es außerdem möglich, den Positionskoordinatenwert der Person, die sich an einer Position befindet, die dem Lasersensor nahe ist, abzurufen. Wenn das Laserlicht zu einer Person gestrahlt wird, die sich an einer Position befindet, die von der Person entfernt ist, die sich an einer Position befindet, die nahe am Lasersensor liegt, kann es jedoch sein, dass der Personen-Positionskoordinatenwert nicht erfasst wird.
  • Im letztgenannten Fall kann jedoch der Medien-Positionskoordinatenwert abgerufen werden. Daraufhin kann ein Medien-Positionskoordinatenwert, der dem abgerufenen Personen-Positionskoordinatenwert nicht entspricht, auf einer Verlängerungslinie abgerufen werden, wie oben beschrieben. In diesem Zustand ist die Person, die sich näher am Roboterhauptkörper befindet, in größerer Gefahr. Infolgedessen kann bestimmt werden, ob oder ob nicht die Sicherheitskompetenzstufen der abgerufenen Personen-Positionskoordinatenwerte der jeweiligen Personen-Positionskoordinatengruppen abgerufen werden und ob die Sicherheitskompetenzstufen der abgerufenen Personen-Positionskoordinatenwerte hoch oder niedrig sind. Wenn der Betätigungszustand des Roboterhauptkörpers dadurch bestimmt wird, dass schließlich eine der Gruppen mit der niedrigsten Sicherheitskompetenzstufe evaluiert wird, ist es möglich, durch effiziente Verarbeitung die Sicherheit zu gewährleisten.
  • In einem weiteren bevorzugten System definiert die Steuereinrichtung eine Region, in welcher der Roboterhauptkörper innerhalb einer vorgegebenen Zeit ab der aktuellen Zeit betätigt werden soll, als Überwachungsregion und definiert eine Region, in welcher der Roboterarm innerhalb der vorgegebenen Zeit ab der aktuellen Zeit nicht betätigt werden soll, als nicht überwachte Region. In dem Fall, wo der gemessene Abstand ein mittlerer Abstand ist und zur nicht überwachten Region gehört, wird der Roboterhauptkörper ohne Verlangsamung betätigt, da die Sicherheit auch dann gewährleistet ist, wenn ein Mensch sich innerhalb des Bereichs des mittleren Abstands befindet. Infolgedessen ist es möglich, die Arbeitseffizienz weiter zu verbessern.
  • In einem weiteren, stärker bevorzugten System betätigt die Steuereinrichtung den Roboterhauptkörper auch in einem Fall ohne Verlangsamung, wo der gemessene Abstand ein kurzer Abstand ist und zur nicht überwachten Region gehört. Das heißt, in dem Fall, wo der gemessene Abstand zur nicht überwachten Region gehört, wird der Roboterhauptkörper auf die gleiche Weise wie oben angegeben ohne Verlangsamung betätigt, da die Sicherheit auch dann gewährleistet ist, wenn ein Mensch sich innerhalb des Bereichs des kurzen Abstands befindet. Infolgedessen ist es möglich, die Arbeitseffizienz noch weiter zu verbessern.
  • Für die Zeichnungen gilt:
    • 1 ist eine Ansicht, die das äußere Erscheinungsbild eines Robotersteuersystems gemäß einer ersten Ausführungsform schematisch darstellt;
    • 2 ist ein Funktionsblockschema, das den inneren Aufbau einer Robotersteuerung zeigt, wobei 2(a) ein Funktionsblockschema ist, das den inneren Aufbau der Robotersteuerung zeigt, und 2(b) ein Hardware-Blockschema ist, das ein Beispiel für den inneren Aufbau der Robotersteuerung zeigt;
    • 3 ist eine Ansicht, die ein Prinzip der Bestimmung eines Personen-Positionskoordinatenwerts unter Verwendung eines Lasersensors darstellt;
    • 4 ist ein Ablaufschema, das eine Steuerung auf Basis einer Robotersicherheitsüberwachungseinheit der Robotersteuerung zeigt;
    • 5 ist eine Ansicht, die Betriebszustände des Roboterarms zeigt, die abhängig von einem kurzen Abstand, einem mittleren Abstand, einem langen Abstand und dem Niveau einer Sicherheitskompetenzstufe bestimmt werden;
    • 6 ist eine Ansicht, welche die Betätigungsgeschwindigkeit des Roboterarms, die von der vertikalen Achse angegeben wird, auf Basis des Abstands, der von der horizontalen Achse angegeben wird, zeigt;
    • 7 ist eine Ansicht, die ein Beispiel für den Fall zeigt, in dem sich eine Mehrzahl von Personen innerhalb eines Bereichs des mittleren Abstands befindet (Teil 1);
    • 8 ist eine Ansicht, die ein Beispiel für den Fall zeigt, in dem sich eine Mehrzahl von Personen innerhalb eines Bereichs des mittleren Abstands befindet (Teil 2);
    • 9 ist eine Ansicht, die ein Beispiel zeigt, in dem eine Bewegungsregion eines Roboterarms gemäß einer zweiten Ausführungsform in eine Überwachungsregion und eine nicht überwachte Region geteilt ist;
    • 10 ist ein Ablaufschema, das eine Steuerung auf Basis einer Robotersicherheitsüberwachungseinheit einer Robotersteuerung zeigt; und
    • 11 ist ein Ablaufschema, das eine Steuerung auf Basis einer Robotersicherheitsüberwachungseinheit einer Robotersteuerung einer dritten Ausführungsform zeigt; und
  • Im Folgenden werden verschiedene Ausführungsformen eines Verfahrens und eines Systems zum Steuern der Betätigung eines Armes eines Roboters gemäß der vorliegenden Erfindung unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. Der Roboter kann ein einzelner Roboter sein, der in einer Anlage wie beispielsweise einer Produktionsanlage installiert ist.
  • (Erste Ausführungsform)
  • Im Folgenden wird eine erste Ausführungsform unter Bezugnahme auf 1 bis 8 beschrieben.
  • 1 ist eine Ansicht, die das äußere Erscheinungsbild eines Robotersteuersystems (einer Vorrichtung) 1 gemäß dieser Ausführungsform schematisch darstellt. Das System 1 ist ein Industrieroboter. Zum Beispiel beinhaltet das System 1 einen Roboterarm 2 zum Montieren, eine Robotersteuerung 3 zum Steuern des Roboterarms 2 und einen RFID-Leser 4 und einen Lasersensor 5, die mit der Robotersteuerung 3 verbunden sind.
  • Der Roboterarm 2, das heißt ein Roboterhauptkörper, ist beispielsweise als vertikaler 6-Achsen-Mehrgelenksroboter gestaltet. Der Roboterarm 2 ist auf einem Arbeitsständer 20 installiert. Auf eine ausführliche Beschreibung des allgemeinen Aufbaus des Roboterarms 2 wird hier verzichtet. Der Roboterarm 2 weist sechsachsige Arme auf, von denen jeder von einem Servomotor angetrieben wird. Eine Hand 6 zum Halten von beispielsweise einem Werkstück, das in einer Palette empfangen wird, ist am vorderen Ende des sechsten Achsenarms vorgesehen. Der Roboterarm 2 ist über ein Verbindungskabel 7 mit der Robotersteuerung 3 verbunden. Die entsprechenden Servomotoren werden von der Robotersteuerung 3 gesteuert.
  • Die Robotersteuerung 3, die einer Steuereinrichtung entspricht, beinhaltet eine Steuerschaltung 3cont, eine (nicht dargestellte) Servosteuereinheit und eine (nicht dargestellte) Leistungszufuhreinrichtung, die in einem Rahmen untergebracht sind, der in Form eines rechteckigen Kastens ausgebildet ist. Wie weiter unten beschrieben wird, beinhaltet die Steuerschaltung 3cont in einem Beispiel hauptsächlich einen Mikrocomputer. Die Steuerschaltung 3cont steuert die jeweiligen Servomotoren des Roboterarms 2 gemäß einem Betätigungsprogramm, das vorab gespeichert worden ist, einem Programmierdatensatz, der von einem nicht dargestellten Programmierhandgerät vorgegeben wird, oder gemäß verschiedener Parameter so, dass die Werkstückmontagetätigkeit vom Roboterarm 2 automatisch durchgeführt wird.
  • Der Lasersensor 5, der einer Abstandsmesseinheit entspricht, misst den Abstand und die Richtung vom Außenrand der Betätigungsregion des Roboterarms 2 bis zu einer Person 14, die sich der Region nähert, durch Abtastungslaserlicht. Ein zweidimensionaler Koordinatenwert (x, y) wird aus dem Messergebnis erhalten. Wenn Laserlicht auf die Person 14 gestrahlt wird, wird, wie in 3 gezeigt ist, an einem Abschnitt, der die Person 14 einschließt, und dahinter ein Schatten Sh gebildet. In einer Position, wo sich die Kontur des Schattens Sh von einem Bogen in eine gerade Linie wandelt, wird ein Abstand von etwa 60 cm, was der Breite eines menschlichen Körpers entspricht, erfasst. Die Position der Mitte der Breite von 60 cm wird als der Koordinatenwert (x, y) betrachtet.
  • Der RFID-Leser 4, der einer Informationsabrufeinheit entspricht, liest Informationen über die Sicherheitskompetenzstufe der Person 14, die in einem RFID-Tag 15 gespeichert sind, das beispielsweise an einer Mütze der Person 14 angebracht ist, unter Verwendung eines Funksignals, das heißt eines drahtlos gesendeten Signals. Das RFID-Tag 15 entspricht einem Aufzeichnungsmedium.
  • Außerdem ist der RFID-Leser 4 auch in der Lage, eine Richtung oder einen Abstand zum RFID-Tag 15, von dem der RFID-Leser 4 die im RFID-Tag 15 gespeicherten Informationen abgerufen hat, zu erfassen. Die Richtung wird erfasst wir folgt. Ein Funksignal, das vom RFID-Tag 15 gesendet wird, wird unter Verwendung einer rotierenden Antenne in dem Zustand, in dem eine Doppler-Verschiebung erzeugt wird, erfasst, der Unterschied von empfangenen Wellenformen wird durch die Richtung des RFID-Tag 15 erzeugt, und ein Musterabgleich mit dem empfangenen Wellenformmodell jedes Winkels, das vorab gespeichert worden ist, wird durchgeführt. Die Richtung, die von dem ähnlichsten empfangenen Wellenformmodell angegeben wird, wird als Richtung des RFID-Tag 15 festgelegt.
  • Außerdem wird der Abstand zwischen dem RFID-Leser 4 und dem RFID-Tag 15 auf Basis der Stärke der Funkwellen, beispielsweise wie folgt, berechnet, da der Abstand proportional ist zur Stärke der Funkwellen. Abstandswert=St a ¨ rke der Funkwelle x k  ( k gibt einen festen Wert an , der vorab durch Versuche festgelegt wird )
    Figure DE102016120559B4_0001
  • Wenn die Richtung und der Abstand berechnet werden, ist es möglich, die Koordinaten der Position, die von der Position (x = 0, y = 0) des RFID-Lesers 4 mit einem Abstandswert entfernt ist, bei dem Winkel der berechneten Richtung als Tag-Position (x, y) zu erhalten. Die Einzelheiten dazu sind in der veröffentlichten japanischen Patentanmeldung JP 2015 - 034 808 A offenbart.
  • Im Folgenden werden die Positionskoordinaten der Person 14, die unter Verwendung des Lasersensors 5 gemessen werden, als Personenposition (x, y) bezeichnet, was einem Personen-Positionskoordinatenwert entspricht, und die Positionskoordinaten des RFID-Tag 15, die unter Verwendung des RFID-Lesers 4 gemessen werden, werden als Tag-Position (x, y) bezeichnet, was einem Medien-Positionskoordinatenwert entspricht.
  • Wie in 2(a) gezeigt ist, wobei es sich um ein Funktionsblockschema handelt, beinhaltet die Robotersteuerung 3 funktional eine Sicherheitsabstandsüberwachungseinheit 11, eine Mittelabstands-Tag-Informationsüberwachungseinheit 12 und eine Robotersicherheitsüberwachungseinheit 13. Diese Elemente sind Funktionen, die durch Software der Steuerschaltung 3cont verwirklicht werden. Wie in 2(b) gezeigt ist, wobei es sich um ein Hardware-Blockschema handelt, beinhaltet ein Beispiel für die Steuerschaltung 3cont eine Eingabe/Ausgabe-Schnittstelle 3A zum Senden und Empfangen eines Signals nach bzw. von außen, eine CPU (zentrale Verarbeitungseinheit) 3B, die über einen Bus mit der Eingabe/Ausgabe-Schnittstelle 3A verbunden ist, einen ROM (Nur-LeseSpeicher) 3C, einen RAM (Speicher mit wahlfreiem Zugriff) 3D und einen Zeitnehmer 3E. Beim Hochfahren liest die CPU 3B ein Steuerprogramm, das vorab im ROM 3C gespeichert worden ist, in ihren Arbeitsbereich und führt das Programm anschließend aus. Aus diesem Grund fungiert der ROM 3C als nichtflüchtiges, computerlesbares Aufzeichnungsmedium. Der RAM 3D wird von der CPU 3B verwendet, um während der Verarbeitung des Programms Daten zwischenzuspeichern. Der Zeitnehmer 3E wird verwendet, um die Zeit zu messen. In dieser Ausführungsform werden die Sicherheitsabstandsüberwachungseinheit 11, die Mittelabstands-Tag-Informationsüberwachungseinheit 12 und die Robotersicherheitsüberwachungseinheit 13 funktional gemäß der Verarbeitung der CPU 3 (d.h. der Steuerschaltung 3cont, d.h. der Robotersteuerung 3) gebildet. Natürlich kann die Steuerschaltung 3cont durch Kombinieren einer digitalen Schaltung, beispielsweise einer logischen Schaltung, und einer Speichereinrichtung, ohne Verwendung der CPU gebildet werden.
  • Im Folgenden wird die Verarbeitung der Steuerschaltung 3cont unter Bezugnahme auf das in 2(a) gezeigte Funktionsblockschema beschrieben.
  • Die Sicherheitsabstandsüberwachungseinheit 11 bestimmt, ob der Abstand zu der Person 14, der vom Lasersensor 5 gemessen wird, ein langer Abstand, ein mittlerer Abstand oder ein kurzer Abstand ist, und gibt das Bestimmungsergebnis in die Robotersicherheitsüberwachungseinheit 13 ein. Die Sicherheitsabstandsüberwachungseinheit 11 entspricht auch einer Abstandsmesseinheit.
  • Hierbei sind der lange Abstand, der mittlere Abstand und der kurze Abstand definiert wie folgt.
    • Kurzer Abstand = Abstand innerhalb der Betätigungsregion des Roboterarms 2
    • Langer Abstand = Abstand, der länger ist als die Betätigungsregion des Roboterarms 2
    • Mittlerer Abstand = Abstand, der größer ist als der kurze Abstand und kleiner ist als der lange Abstand
  • Auch wenn sich die Unterteilung in diese drei Abstände auf der Basis spezifischer Werte in der Anlage ändern kann, ist der Schwellenwert, der den kurzen Abstand und den mittleren Abstand voneinander unterscheidet, beispielsweise einige hundert mm, und der Schwellenwert, der den mittleren Abstand und den langen Abstand voneinander unterscheidet, ist beispielsweise 1 bis 2 m. Ferner gibt die Region, die in 1 von einer gestrichelten Linie angegeben ist, eine Region an, in der sowohl der Roboterarm 2 als auch die Person arbeiten, d.h. ein Bild des „kurzen Abstands“.
  • Die Mittelabstands-Tag-Informationsüberwachungseinheit 12 unterscheidet Informationen zur Sicherheitskompetenzstufe der Person 14, die der RFID-Leser 4 aus dem RFID-Tag 15 gelesen hat, und gibt das Unterscheidungsergebnis in die Robotersicherheitsüberwachungseinheit 13 ein. Die Mittelabstands-Tag-Informationsüberwachungseinheit 12 entspricht auch einer Abstandsmesseinheit. Die Informationen zur Sicherheitskompetenzstufe der Person 14 werden beispielsweise als Reaktion auf die Arbeitserfahrung der Person 14 und den Grad der Arbeitskompetenz eingestellt. Zum Beispiel wird einer Person, die über eine lange Zeit Arbeitserfahrungen gesammelt hat und die einen hohen Grad an Kompetenz aufweist, eine hohe Sicherheitskompetenzstufe zugestanden und sie wird daher als „Experte“ eingestuft. Einer Person, die erst über kurze Zeit Arbeitserfahrungen gesammelt hat und die einen geringen Grad an Kompetenz aufweist, wird eine niedrige Sicherheitskompetenzstufe zugestanden und sie wird daher als „Anfänger“ eingestuft. Die Robotersicherheitsüberwachungseinheit 13 steuert die Betätigungsgeschwindigkeit des Roboterarms 2 auf Basis der Unterscheidungsergebnisse, die von der Sicherheitsabstandsüberwachungseinheit 11 und der Mittelabstands-Tag-Informationsüberwachungseinheit 12 empfangen werden, im Hinblick auf die Sicherheit.
  • Im Folgenden wird die Funktionsweise dieser Ausführungsform unter Bezugnahme auf 4 bis 8 beschrieben. 4 ist ein Ablaufschema, das eine Steuerung auf Basis einer Robotersicherheitsüberwachungseinheit 13 der Robotersteuerung 3 (d.h. der Steuerschaltung 3cont) zeigt. Das Ablaufschema wird zu jeder Abtastperiode und Steuerperiode der Robotersteuerung 3 ausgeführt. Zuerst ruft die Robotersicherheitsüberwachungseinheit 13 Abstandsinformationen über die Person 14 über die Sicherheitsabstandsüberwachungseinheit 11 ab. Dann bestimmt die Robotersicherheitsüberwachungseinheit 13, ob oder ob nicht sich die Person 14 innerhalb des Bereichs des kurzen Abstands und des mittleren Abstands befindet (S1 und S2).
  • In dem Fall, wo sich die Person 14 nicht im Bereich des kurzen Abstands und des mittleren Abstands befindet (NEIN bei S2), bedeutet dies, dass sich die Person 14 mindestens im Bereich des langen Abstands befindet. In diesem Fall wird der Roboterarm 2 mit hoher Geschwindigkeit betätigt, da sich die Person 14 in einem sicheren Abstand zum Roboterarm 2 befindet (S3). Hierbei ist „hohe Geschwindigkeit“ eine Betätigungsgeschwindigkeit des Roboterarms 2, die im Steuerprogramm vorgeschrieben ist, beispielsweise mehrere m/s. In dem Fall, wo sich die Person 14 innerhalb des Bereichs des kurzen Abstands befindet (JA bei S1), wird dagegen die Betätigung des Roboterarms 2 angehalten, um die Sicherheit der Person 14 zu gewährleisten (S9).
  • Außerdem werden in dem Fall, wo sich die Person 14 innerhalb des Bereichs des mittleren Abstands befindet (JA bei S2) die Personenposition (x, y) zur aktuellen Zeit, die unter Verwendung des Lasersensors 5 abgerufen wird, und die Tag-Position (x, y), die unter Verwendung des RFID-Lesers 4 abgerufen wird, extrahiert. Anschließend wird in Schritt S5 ein Erkennungsprozess durchgeführt wir folgt. Zum Beispiel wird ein in 7 gezeigter Zustand angenommen. Gruppen 1 bis 3 in der Figur entsprechen Personen-Positionskoordinatengruppen. In dem Zustand, in dem eine Mehrzahl von Personen anwesend ist, so dass diese einander in der Richtung überlagern, in die das Laserlicht ausgestrahlt wird, beispielsweise die Gruppen 1 und 2, ist es dem Lasersensor 5 nicht möglich, die Abstände zu den Menschen individuell zu messen.
  • Jedoch ist die Person mit dem höchsten Risiko in jeder Gruppe die Person, die sich am nächsten am Roboterarm 2 befindet, d.h. die Person, zu welcher der Abstand unter Verwendung des Lasersensors 5 gemessen werden kann. Infolgedessen wird die Person als erkannte Person betrachtet, und es wird bestimmt, ob oder ob nicht die erkannte Person in jeder Gruppe und die Tag-Position (x, y), einander vollständig überlagern. In dem Fall, der in 7 gezeigt ist, überlagern die beiden einander vollständig. Infolgedessen ist die Sicherheitskompetenzstufe jeder erkannten Person in Gruppe 1 Experte, in Gruppe 2 Anfänger und in Gruppe 3 Experte, und daher wird die Stufe dieser Gruppen als „Anfänger“ erkannt.
  • Dagegen weist in dem Fall, der in 8 gezeigt ist, die erkannte Person in Gruppe 1 kein RFID-Tag 15 auf. Infolgedessen ist es nicht möglich, die Tag-Position (x, y) abzurufen, und die Personenposition (x, y) und die Tag-Position (x, y) überlagern einander nicht vollständig. Dieser Fall wird als „kein Tag“ erkannt.
  • Anschließend wird in Schritt S6 bestimmt, ob oder ob nicht das Erkennungsergebnis von Schritt S5 „kein Tag“ ist. In dem Fall, wo das Erkennungsergebnis „kein Tag“ (JA) ist, kann angenommen werden, dass die erkannte Person in Gefahr ist, auch wenn sich die erkannte Person innerhalb des mittleren Abstands befindet, da die Sicherheitskompetenzstufe der erkannten Person unter der eines Anfängers liegt. Infolgedessen wird Schritt S9 durchgeführt, um die Betätigung des Roboterarms 2 anzuhalten.
  • In dem Fall, wo das Erkennungsergebnis von Schritt S5 nicht „kein Tag“ (NEIN) ist, wird dagegen bestimmt, ob oder ob nicht das Erkennungsergebnis ein „Anfänger“ ist (S7). In dem Fall, wo das Erkennungsergebnis „Anfänger“ (JA) ist, wird der Roboterarm 2 verlangsamt, so dass der Roboterarm 2 mit „geringer Geschwindigkeit“ betätigt wird, da die Sicherheitskompetenzstufe niedrig ist (S10). Auch wenn die erkannte Person ein Anfänger ist, kann die erkannte Person somit die Bewegung des Roboterarms 2 überprüfen und kann Zeit haben, für ihre eigene Sicherheit zu sorgen. Hierbei kann die „geinge Geschwindigkeit“ etwa 250 mm/s sein, die beispielsweise während der Durchführung einer Programmieroperation als Sicherheitsgeschwindigkeit vorgeschrieben wird.
  • Außerdem wird der Roboterarm 2 in dem Fall, in dem die erkannte Person kein „Anfänger“, d.h. ein „Experte“ ist (NEIN von S7), mit hoher Geschwindigkeit betätigt (S8). In dem Fall, wo die erkannte Person ein Experte ist, der eine hohe Sicherheitskompetenzstufe hat, ist es problemlos möglich, dass die erkannte Person für ihre eigene Sicherheit sorgt, auch wenn der Roboterarm 2 mit hoher Geschwindigkeit betätigt wird. Infolgedessen bestehen keine Sicherheitsprobleme.
  • Durch die oben geschilderte Verarbeitung wird der Betätigungszustand des Roboterarms 2 als Reaktion darauf, ob der Abstand zu der Person 14, bei der es sich um die erkannte Person handelt, innerhalb des Bereichs des kurzen Abstands, des mittleren Abstands oder des langen Abstands liegt, ob das RFID-Tag 15 vorhanden ist oder fehlt, und ob die Informationen über die Sicherheitskompetenzstufe auf Anfänger oder Experte gesetzt sind, eingestellt und klassifiziert, wie in 5 und 6 gezeigt ist. Das heißt, in dem Fall, wo der Abstand zu der Person 14 innerhalb des Bereichs des mittleren Abstands liegt und das RFID-Tag 15 fehlt, wird die Betätigung des Roboterarms 2 angehalten. Außerdem wird der Roboterarm 2 in dem Fall, wo die Informationen über die Sicherheitskompetenzstufe auf Anfänger eingestellt sind, mit geringer Geschwindigkeit betätigt. In dem Fall, wo die Informationen über die Sicherheitskompetenzstufe auf Experte eingestellt sind, wird der Roboterarm 2 mit hoher Geschwindigkeit betätigt.
  • Gemäß dieser Ausführungsform, wie oben beschrieben, misst der Lasersensor 5 den Abstand von der Betätigungsregion des Roboterarms 2 zur Perseon 14, die sich der Region nähert. Der RFID-Leser 4 ruft Informationen, um die Sicherheitskompetenzstufe abzurufen, die in dem RFID-Tag 15 gespeichert ist, das an der Person 14 angebracht ist, über ein Funkwellensignal ab. Die Robotersteuerung 3 definiert den Abstand innerhalb der Bewegungsregion des Roboterarms 2 als kurzen Abstand, definiert den Abstand, der länger ist als die Bewegungsregion des Roboterarms 2, als langen Abstand und definiert den Abstand zwischen dem kurzen Abstand und dem langen Abstand als mittleren Abstand. In dem Fall, in dem der gemessene Abstand innerhalb des Bereichs des langen Abstands liegt, wird der Roboterarm 2 mit hoher Geschwindigkeit und ohne Verlangsamung betätigt. In dem Fall, in dem der gemessene Abstand innerhalb des Bereichs des kurzen Abstands liegt, wird die Betätigung des Roboterarms 2 angehalten. Außerdem wird der Roboterarm 2 in dem Fall, wo der gemessene Abstand innerhalb des Bereichs des mittleren Abstands liegt und die Sicherheitskompetenzstufe einen Experten angibt, mit hoher Geschwindigkeit betätigt. In dem Fall, wo der gemessene Abstand innerhalb des Bereichs des mittleren Abstands liegt und die Sicherheitskompetenzstufe einen Anfänger anzeigt, wird der Roboterarm 2 verlangsamt und somit mit einer geringen Geschwindigkeit betätigt, so dass die Person Maßnahmen ergreifen kann, um ihre eigene Sicherheit zu gewährleisten. In dem Fall, in dem der gemessene Abstand innerhalb des Bereichs des mittleren Abstands liegt und die Sicherheitskompetenzstufe nicht abgerufen werden kann, wird die Betätigung des Roboterarms 2 angehalten.
  • Das heißt, in dem Fall, wo die Person 14 innerhalb des Bereichs des mittleren Abstands erfasst wird, wird abhängig davon, ob es möglich ist, die Sicherheitskompetenzstufe der Person 14 abzurufen oder nicht, oder abhängig vom Grad der abgerufenen Sicherheitskompetenzstufe die Betätigung des Roboterarms 2 ausgesetzt oder wird der Roboterarm 2 mit hoher Geschwindigkeit oder niedriger Geschwindigkeit betätigt. Infolgedessen ist es auf die gleiche Weise möglich, die Sicherheit der Person 14 zu gewährleisten, die sich im Bereich des mittleren Abstands befindet, und zu verhindern, dass die Betätigung des Roboterarms 2 ausgesetzt wird oder der Roboterarm 2 mit geringer Geschwindigkeit betätigt wird, wodurch die Verringerung der Arbeitseffizienz minimiert wird.
  • Außerdem ist der Lasersensor 5 so gestaltet, dass er die Personenposition (x, y) abruft, und ebenfalls ist der RFID-Leser 4 so gestaltet, dass er die Tag-Position (x, y) abruft. In dem Fall, in dem eine Mehrzahl von Personenpositionen (x, y) innerhalb des Bereichs des mittleren Abstands abgerufen wird, bestimmt die Robotersteuerung 3 als Reaktion auf die Personenpositionen (x, y), ob oder ob nicht eine Mehrzahl von Tag-Positionen (x, y) abgerufen wird. In dem Fall, wo die Tag-Positionen (x, y) als Reaktion auf die Personenpositionen (x, y) abgerufen werden und irgendeine der diesen entsprechenden Sicherheitskompetenzstufen einen Anfänger angibt, wird der Roboterarm 2 mit geringer Geschwindigkeit betätigt. Dagegen wird in dem Fall, in dem keine Tag-Positionen (x, y) abgerufen werden, die den Personenpositionen (x, y) entsprechen, die Betätigung des Roboterarms 2 ausgesetzt. Infolgedessen ist es möglich, die Sicherheit zu gewährleisten, wenn der Betätigungszustand des Roboterarms 2 bestimmt wird, auch wenn sich eine Mehrzahl von Personen 14 innerhalb des Bereichs des mittleren Abstands befindet und die Abstände zu allen Personen 14 und deren Positionen nicht erfasst werden können.
  • Wenn eine Mehrzahl von Personenpositionen (x, y) in einer Mehrzahl von Richtungen innerhalb des Bereichs des mittleren Abstands abgerufen wird, betrachtet die Robotersteuerung 3 die Personenpositionen, die in den jeweiligen Richtungen vorhanden sind, als Personen-Positionskoordinatengruppen, beispielsweise die Gruppen 1 bis 3, wie in 7 gezeigt ist. In dem Fall, wo eine Tag-Position (x, y), die nicht mindestens einer der abgerufenen Personenpositionen (x, y) von den Personen-Positionskoordinatengruppen entspricht, auf deren Verlängerungslinie erfasst wird, wird bestimmt, ob oder ob nicht die Sicherheitskompetenzstufe der abgerufenen Personenposition (x, y) abgerufen wird und ob die Sicherheitskompetenzstufe der abgerufenen Personenposition (x, y) hoch oder niedrig ist. Schließlich wird eine von den Gruppen 1 bis 3 evaluiert, welche die niedrigste Sicherheitskompetenzstufe aufweist.
  • Das heißt, wenn in dem Fall, wo der Lasersensor 5 verwendet wird, eine Mehrzahl von Personen anwesend ist, die einander in der Richtung, in der das Laserlicht ausgestrahlt wird, überlagern, kann der Positionskoordinatenwert der Person, die sich an einer Position befindet, die dem Lasersensor 5 nahe ist, abgerufen werden. Wenn das Laserlicht zu der Person gestrahlt wird, die sich an einer Position befindet, die von der Person entfernt ist, die sich an einer Position befindet, die nahe am Lasersensor 5 liegt, kann es jedoch sein, dass die Personenposition (x, y) nicht erfasst wird. Im letztgenannten Fall kann jedoch die Tag-Position (x, y) abgerufen werden. In diesem Zustand ist die Person 14, die sich näher am Roboterarm 2 befindet, in größerer Gefahr. Infolgedessen kann bestimmt werden, ob oder ob nicht die Sicherheitskompetenzstufen der abgerufenen Personenpositionen (x, y) abgerufen werden und ob die Sicherheitskompetenzstufen der abgerufenen Personenpositionen (x, y) hoch oder niedrig sind. Wenn der Betätigungszustand des Roboterarms 2 dadurch bestimmt wird, dass schließlich eine der Gruppen 1 bis 3, welche die niedrigste Sicherheitskompetenzstufe aufweist, evaluiert wird, ist es möglich, durch effiziente Verarbeitung die Sicherheit zu gewährleisten.
  • (Zweite Ausführungsform)
  • Die Teile der zweiten Ausführungsform, die denen der ersten Ausführungsform gleich sind, werden mit den gleichen Bezugszeichen bezeichnet und auf ihre Beschreibung wird verzichtet. Im Folgenden werden die Teile der zweiten Ausführungsform beschrieben, die sich von denen der ersten Ausführungsform unterscheiden.
  • Wie in 9 gezeigt ist, ist die Bewegungsregion des Roboterarms 2 in der zweiten Ausführungsform beispielsweise in vier Regionen unterteilt. Der Roboterarm 2 wird gemäß einem Steuerprogramm betätigt, aber die Robotersicherheitsüberwachungseinheit 13 der Robotersteuerung 3 stellt eine Region, in die der Roboterarm 2 innerhalb einer vorgegebenen Zeit ab einer Steuerungsperiode zu jedem Zeitpunkt eindringen wird, beispielsweise etwa 1 Sekunde, als „Überwachungsregion“ ein. Außerdem stellt die Robotersicherheitsüberwachungseinheit 13 der Robotersteuerung 3 eine Region, in die der Roboterarm 2 innerhalb der vorgegebenen Zeit nicht eindringen wird, als „nicht überwachte Region“ ein.
  • Wie in 10 gezeigt ist, wird die oben beschriebene Einstellung in Schritt S11 durchgeführt, wenn das Bestimmungsergebnis in Schritt S1 „NEIN“ ist. Anschließend wird in Schritt S2 eine Person 14, die sich im Bereich des mittleren Abstands befindet, nur in der „Überwachungsregion“ erfasst. In dem Fall, dass eine Person 14 in der nicht überwachten Region im Bereich des mittleren Abstands erfasst wird, ist das Bestimmungsergebnis in Schritt S2 daher „NEIN“, und der Ablauf geht zu Schritt S3 weiter.
  • Gemäß der zweiten Ausführungsform, wie oben beschrieben, definiert die Robotersteuerung 3 eine Region, in welcher der Roboterhauptkörper innerhalb einer vorgegebenen Zeit ab der aktuellen Zeit betätigt werden soll, als Überwachungsregion und definiert eine Region, in welcher der Roboterarm innerhalb der vorgegebenen Zeit ab der aktuellen Zeit nicht betätigt werden soll, als nicht überwachte Region. In dem Fall, wo der gemessene Abstand ein mittlerer Abstand ist und zur nicht überwachten Region gehört, wird der Roboterarm 2 ohne Verlangsamung betätigt, da die Sicherheit auch dann gewährleistet ist, wenn eine Person 14 sich innerhalb des Bereichs des mittleren Abstands befindet. Infolgedessen ist es möglich, die Arbeitseffizienz weiter zu verbessern.
  • (Dritte Ausführungsform)
  • In der dritten Ausführungsform wird, wie in 11 gezeigt, Schritt S11 vor Schritt S1 durchgeführt. Anschließend wird in Schritt S12 eine Person 14, die sich im Bereich des kurzen Abstands befindet, nur in der „Überwachungsregion“ erfasst. In dem Fall, dass eine Person 14 in der nicht überwachten Region im Bereich des kurzen Abstands erfasst wird, ist das Bestimmungsergebnis in Schritt S1 daher „NEIN“, und der Ablauf geht zu Schritt S2 weiter. Darüber hinaus ist der Prozess bei Schritt S2 dem der zweiten Ausführungsform gleich. Das heißt, wenn die Person in der nicht überwachten Region anwesend ist, dringt der Roboterarm 2 innerhalb einer vorgegebenen Zeit nicht in die nicht überwachte Region ein, auch wenn sich die Person innerhalb des Bereichs des kurzen Abstands befindet. Auch in diesem Fall wird der Prozess daher auf die gleiche Weise durchgeführt wie der Prozess im mittleren Abstand gemäß der zweiten Ausführungsform.
  • Gemäß der dritten Ausführungsform, wie oben beschrieben, betätigt die Robotersteuerung 3 den Roboterarm 2 auch in dem Fall, wo der gemessene Abstand ein kurzer Abstand ist und in der nicht überwachten Region liegt, mit hoher Geschwindigkeit. Infolgedessen ist es möglich, die Arbeitseffizienz noch weiter zu verbessern.
  • Die vorliegende Erfindung ist nicht auf die oben unter Bezugnahme auf die Zeichnungen beschriebenen Ausführungsformen beschränkt, sondern kann wie folgt modifiziert oder erweitert werden.
  • Der Roboterhauptkörper ist nicht auf den Roboterarm 2 beschränkt, sondern kann beispielsweise ein horizontaler 4-Achsen-Roboterarm, ein selbstfahrender Roboter oder ein menschenähnlicher Roboter sein.
  • Die Informationen zur Sicherheitskompetenzstufe müssen nicht in einem Aufzeichnungsmedium gespeichert sein. Zum Beispiel können ID-Informationen, die nötig sind, um eine Person 14 zu identifizieren, im Aufzeichnungsmedium gespeichert werden, und die Informationen zur Sicherheitskompetenzstufe, die den einzelnen ID-Informationen entsprechen, können in der Steuereinrichtung oder in einer externen Speichereinrichtung gespeichert werden, so dass die Steuereinrichtung die ID-Informationen abruft.
  • Die Abstandsmesseinheit und die Informationsabrufeinheit müssen den Personen-Positionskoordinatenwert und den Medien-Positionskoordinatenwert nicht abrufen.
  • Das Aufzeichnungsmedium ist nicht auf das RFID-Tag 15 beschränkt, sondern kann ein Medium sein, in dem Informationen gespeichert sind, die nötig sind, um die Sicherheitskompetenzstufe der Person abzurufen, wobei die Informationen durch ein drahtlos übertragenes Signal abgerufen werden können.
  • Die Abstandsmesseinheit ist nicht auf den Lasersensor 5 beschränkt, sondern kann irgendeine sein, die in der Lage ist, zumindest den Abstand von der Betätigungsregion des Roboterhauptkörpers zu einer Person, die sich der Region nähert, zu messen.
  • In der zweiten und der dritten Ausführungsform können die Anzahl der Bewegungs-Teilregionen und die vorgegebene Zeit auf Basis eines individuellen Designs geeignete geändert werden.
  • Bezugszeichenliste
  • In den Zeichnungen bezeichnen:
  • 1
    ein Robotersteuersystem,
    2
    einen Roboterarm,
    3
    eine Robotersteuereinrichtung,
    3B
    eine CPU,
    4
    einen RFID-Leser,
    5
    einen Lasersensor,
    11
    eine Sicherheitsabstandsüberwachungseinheit,
    12
    eine Mittelabstands-Tag-Informationsüberwachungseinheit,
    13
    eine Robotersicherheitsüberwachungseinheit,
    14
    eine Person und 15 ein RFID-Tag.

Claims (6)

  1. Robotersteuersystem (1), aufweisend: eine Abstandsmesseinheit zum Messen eines Abstands von einer Betätigungsregion eines Roboterhauptkörpers zu einer Person (14), die sich der Region nähert; eine Informationsabrufeinheit zum Abrufen von Informationen, die notwendig sind, um eine Sicherheitskompetenzstufe der Person (14) abzurufen, die in einem Aufzeichnungsmedium gespeichert sind, das die Person (14) mit sich führt, über ein drahtlos übertragenes Signal; und eine Steuereinrichtung zum Steuern der Betätigung des Roboterhauptkörpers und zum Abrufen des Abstands und der Informationen aus der Abstandsmerkmal und der Informationsabrufeinheit, wobei die Steuereinrichtung den Abstand als kurzen Abstand, das heißt als Abstand innerhalb der Betätigungsregion, als langen Abstand, das heißt als Abstand, der länger ist als eine Betätigungsregion des Roboterhauptkörpers, und als mittleren Abstand, das heißt als Abstand zwischen dem kurzen Abstand und dem langen Abstand klassifiziert, wobei die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung betätigt, falls der Abstand ein langer Abstand ist, die Steuereinrichtung die Betätigung des Roboterhauptkörpers anhält, wenn der Abstand ein kurzer Abstand ist, die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung betätigt, wenn der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Experten angibt, die Steuereinrichtung den Roboterhauptkörper in einem verlangsamten Zustand betätigt, so dass die Person (14) Maßnahmen ergreifen kann, um ihre eigene Sicherheit zu gewährleisten, wenn der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Anfänger angibt, und die Steuereinrichtung die Betätigung des Roboterhauptkörpers anhält, wenn der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe nicht abgerufen werden kann.
  2. Robotersteuersystem (1) nach Anspruch 1, wobei die Abstandsmesseinheit dafür ausgelegt ist, einen Personen-Positionskoordinatenwert abzurufen, bei dem es sich um eine Position der Person (14) handelt, zu welcher der Abstand gemessen wird, die Informationsabrufeinheit dafür ausgelegt ist, einen Medien-Positionskoordinatenwert abzurufen, bei dem es sich um eine Position des Aufzeichnungsmediums handelt, wobei die Steuereinrichtung in einem Fall, wo eine Mehrzahl von Personen-Positionskoordinatenwerten innerhalb des Bereichs des mittleren Abstands abgerufen werden, bestimmt, ob oder ob nicht eine Mehrzahl von Medien-Positionskoordinatenwerten, die den Personen-Positionskoordinatenwerten entsprechen, abgerufen werden, wobei die Steuereinrichtung in einem Fall, in dem die Medien-Positionskoordinatenwerte, die den Personen-Positionskoordinatenwerten entsprechen, abgerufen werden und irgendeine der Sicherheitskompetenzstufen, die den Medien-Positionskoordinatenwerten entsprechen, den Anfänger angibt, den Roboterhauptkörper im verlangsamten Zustand betätigt, und die Steuereinrichtung in einem Fall, wo keine Medien-Positionskoordinatenwerte abgerufen werden, die den Personen-Positionskoordinatenwerten entsprechen, die Betätigung des Roboterhauptkörpers anhält.
  3. Robotersteuersystem (1) nach Anspruch 2, wobei die Abstandsmesseinheit aus einem Lasersensor (5) besteht, wobei die Steuereinrichtung in einem Fall, wo eine Mehrzahl von Personen-Positionskoordinatenwerten in einer Mehrzahl von Richtungen innerhalb des Bereichs des mittleren Abstands abgerufen werden, die Personen-Positionskoordinatenwerte, die in den jeweiligen Richtungen vorhanden sind, als Personen-Positionskoordinatengruppen betrachtet, wobei die Steuereinrichtung in einem Fall, wo ein Medien-Positionskoordinatenwert, der nicht mindestens einem abgerufenen Personen-Positionskoordinatenwert aus mindestens einer der Personen-Positionskoordinatengruppen entspricht, auf einer Verlängerungslinie desselben abgerufen wird, bestimmt, ob oder ob nicht die Sicherheitskompetenzstufe von nur dem abgerufenen Personen-Positionskoordinatenwert abgerufen wird und ob die Sicherheitskompetenzstufe des abgerufenen Personen-Positionskoordinatenwerts hoch oder niedrig ist, und die Sicherheitskompetenzstufe der Personen-Positionskoordinatengruppe evaluiert, wobei die Steuereinrichtung evaluiert schließlich eine von den Personen-Positionskoordinatengruppen, welche die niedrigste Sicherheitskompetenzstufe aufweist, evaluiert.
  4. Robotersteuersystem (1) nach einem der Ansprüche 1 bis 3, wobei die Steuereinrichtung eine Region, in welcher der Roboterhauptkörper innerhalb einer vorgegebenen Zeit ab der aktuellen Zeit betätigt werden soll, als Überwachungsregion definiert und eine Region, in welcher der Roboterarm (2) innerhalb der vorgegebenen Zeit ab der aktuellen Zeit nicht betätigt werden soll, als nicht überwachte Region definiert, und die Steuereinrichtung den Roboterhauptkörper ohne Verlangsamung betätigt, wenn der Abstand ein mittlerer Abstand ist und in der nicht überwachten Region liegt.
  5. Robotersteuersystem (1) nach Anspruch 4, wobei die Steuereinrichtung den Roboterhauptkörper auch in einem Fall ohne Verlangsamung betätigt, wo der Abstand ein kurzer Abstand ist und in der nicht überwachten Region liegt.
  6. Verfahren zur Steuerung eines Roboters, umfassend: Messen eines Abstands von einer Betätigungsregion eines Roboterhauptkörpers zu einer Person (14), die sich der Region nähert; Abrufen von Informationen, die notwendig sind, um eine Sicherheitskompetenzstufe der Person (14) abzurufen, die in einem Aufzeichnungsmedium gespeichert sind, das die Person (14) mit sich führt, über ein drahtlos übertragenes Signal; und Steuern einer Betätigung des Roboterhauptkörpers und Abrufen des Abstands und der Informationen, wobei der Abstand als kurzer Abstand, das heißt als Abstand innerhalb der Betätigungsregion, als langer Abstand, das heißt als Abstand, der länger ist als eine Bewegungsregion des Roboterhauptkörpers, und als mittlerer Abstand, das heißt als Abstand zwischen dem kurzen Abstand und dem langen Abstand, klassifiziert wird, wobei der Roboterhauptkörper ohne Verlangsamung betätigt wird, falls der Abstand ein langer Abstand ist, wobei die Betätigung des Roboterhauptkörpers ausgesetzt wird, falls der Abstand ein kurzer Abstand ist, wobei der Roboterhauptkörper ohne Verlangsamung betätigt wird, falls der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Experten angibt, wobei der Roboterhauptkörper in einem verlangsamten Zustand betätigt wird, so dass die Person (14) Maßnahmen ergreifen kann, um ihre eigene Sicherheit zu gewährleisten, falls der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe einen Anfänger angibt, und die Betätigung des Roboterhauptkörpers ausgesetzt wird, falls der Abstand ein mittlerer Abstand ist und die Sicherheitskompetenzstufe nicht abgerufen werden kann.
DE102016120559.1A 2015-10-28 2016-10-27 Verfahren und System zur Steuerung eines Roboters Active DE102016120559B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015211826A JP6601155B2 (ja) 2015-10-28 2015-10-28 ロボット制御システム
JP2015-211826 2015-10-28

Publications (2)

Publication Number Publication Date
DE102016120559A1 DE102016120559A1 (de) 2017-05-04
DE102016120559B4 true DE102016120559B4 (de) 2020-10-08

Family

ID=58546128

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120559.1A Active DE102016120559B4 (de) 2015-10-28 2016-10-27 Verfahren und System zur Steuerung eines Roboters

Country Status (3)

Country Link
US (1) US10335964B2 (de)
JP (1) JP6601155B2 (de)
DE (1) DE102016120559B4 (de)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273027B1 (ko) * 2014-06-09 2021-07-05 삼성전자주식회사 위치정보를 사용하여 설정된 관심영역을 사용하여 영상데이터를 생성하는 방법 및 장치
US10422870B2 (en) * 2015-06-15 2019-09-24 Humatics Corporation High precision time of flight measurement system for industrial automation
JP6657859B2 (ja) * 2015-11-30 2020-03-04 株式会社デンソーウェーブ ロボット安全システム
JP6416980B1 (ja) * 2017-05-17 2018-10-31 ファナック株式会社 監視領域を分割した空間領域を監視する監視装置
JP6866773B2 (ja) * 2017-06-01 2021-04-28 オムロン株式会社 安全制御装置、安全制御装置の制御方法、情報処理プログラム、および記録媒体
JP7011910B2 (ja) * 2017-09-01 2022-01-27 川崎重工業株式会社 ロボットシステム
JP6568172B2 (ja) * 2017-09-22 2019-08-28 ファナック株式会社 キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
JP2019058990A (ja) * 2017-09-27 2019-04-18 ファナック株式会社 ロボットシステム
DE102017123295A1 (de) * 2017-10-06 2019-04-11 Pilz Gmbh & Co. Kg Sicherheitssystem zur Absicherung eines kooperativen Betriebs von Menschen, Robotern und Maschinen
US11614621B2 (en) * 2017-12-19 2023-03-28 Datalogic IP Tech, S.r.l. User-wearable systems and methods to collect data and provide information
DE102018200860A1 (de) * 2018-01-19 2019-07-25 Kuka Deutschland Gmbh Überwachung eines Arbeitsbereichs einer Roboteranordnung
CN108423434A (zh) * 2018-03-16 2018-08-21 惠科股份有限公司 一种移载设备及移载方法
US10503143B1 (en) * 2018-04-05 2019-12-10 Amazon Technologies, Inc. Protection system for multi-zone robotic area
JP7206638B2 (ja) * 2018-06-01 2023-01-18 セイコーエプソン株式会社 ロボット、制御装置およびロボットの制御方法
JP6859992B2 (ja) * 2018-09-28 2021-04-14 セイコーエプソン株式会社 制御方法、ロボット及びロボットシステム
JP2020049642A (ja) * 2018-09-28 2020-04-02 セイコーエプソン株式会社 制御装置、ロボットシステム、及びロボット
JP7401965B2 (ja) * 2018-09-28 2023-12-20 Idec株式会社 安全制御システム
JP6985242B2 (ja) * 2018-11-30 2021-12-22 ファナック株式会社 ロボットの監視システムおよびロボットシステム
WO2020144852A1 (ja) * 2019-01-11 2020-07-16 株式会社Fuji 制御装置、ワーク作業装置、ワーク作業システム及び制御方法
JP7310297B2 (ja) * 2019-05-22 2023-07-19 オムロン株式会社 作業ロボットおよびその制御方法
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム
WO2021033241A1 (ja) * 2019-08-19 2021-02-25 オムロン株式会社 ロボット制御システム
JP7272920B2 (ja) * 2019-09-24 2023-05-12 新明和工業株式会社 塵芥収集車
KR20210039635A (ko) * 2019-10-02 2021-04-12 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
JP2021064257A (ja) * 2019-10-16 2021-04-22 ファナック株式会社 制御装置及び制御システム
JP7400425B2 (ja) * 2019-12-10 2023-12-19 コベルコ建機株式会社 作業機械の遠隔操作支援システム
CN113703345B (zh) * 2020-05-21 2023-06-02 苏州新宁公共保税仓储有限公司 安全装置的控制方法、系统、计算设备和介质
KR102329887B1 (ko) * 2020-09-09 2021-11-22 주식회사 유진엠에스 비전과 레이더를 활용한 산업용로봇 안전시스템
CN113073850B (zh) * 2021-03-16 2022-05-31 中联重科股份有限公司 用于控制臂架速度的方法、装置、控制器及泵送机械
JP2022182072A (ja) * 2021-05-27 2022-12-08 オムロン株式会社 ロボット制御システム、情報処理装置、情報処理方法およびプログラム
JP2023045860A (ja) * 2021-09-22 2023-04-03 パナソニックIpマネジメント株式会社 監視装置及び監視方法
NL2029584B1 (en) * 2021-11-02 2023-06-01 Agxeed Holding B V Autonomous tractor and method to cultivate farmland using this tractor
NL2029583B1 (en) * 2021-11-02 2023-06-01 Agxeed Holding B V Autonomous tractor and method to cultivate farmland using this tractor
JP2023082574A (ja) * 2021-12-02 2023-06-14 東芝テック株式会社 選択装置及び情報処理システム
JP2023082577A (ja) * 2021-12-02 2023-06-14 東芝テック株式会社 通信装置
DE102022116305A1 (de) 2022-06-30 2024-01-04 Sick Ag Sicherheitssystem und Verfahren mit einem Sicherheitssystem

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
JP2010231713A (ja) * 2009-03-30 2010-10-14 National Institute Of Advanced Industrial Science & Technology 侵入検知機能付き安全位置検出装置
DE102009031732B3 (de) * 2009-07-04 2010-11-25 Sick Ag Entfernungsmessender optoelektronischer Sensor
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
DE102005063217B4 (de) * 2005-12-22 2014-05-22 Pilz Gmbh & Co. Kg Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung
JP2015034808A (ja) * 2013-07-08 2015-02-19 株式会社デンソーウェーブ 電波到来方向推定装置および電波到来方向推定システム
US20150217455A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Controlling a robot in the presence of a moving object

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11226889A (ja) * 1998-02-16 1999-08-24 Shinko Electric Co Ltd 作業装置
JP4219870B2 (ja) * 2004-08-09 2009-02-04 本田技研工業株式会社 マン・マシン作業システム
JP2006154924A (ja) * 2004-11-25 2006-06-15 Denso Wave Inc 自動化設備システム
JP4560547B2 (ja) * 2005-07-19 2010-10-13 オムロン株式会社 作業者安全管理システム
JP2007144524A (ja) * 2005-11-24 2007-06-14 Denso Wave Inc ロボットの干渉回避方法およびロボット
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
JP4508252B2 (ja) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ ロボット教示装置
WO2009155947A1 (en) * 2008-06-26 2009-12-30 Abb Ag Control system and method for control
JP5083194B2 (ja) * 2008-12-18 2012-11-28 株式会社デンソーウェーブ ロボットのキャリブレーション方法及びロボットの制御装置
JP5492512B2 (ja) * 2009-09-29 2014-05-14 株式会社ダイヘン 動物体の監視装置
US8918210B2 (en) * 2011-03-18 2014-12-23 Denso Wave Incorporated Method of detecting an inter-axis offset of 6-axis robot
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
JP5978028B2 (ja) * 2012-06-28 2016-08-24 本田技研工業株式会社 移動ロボットの制御装置
JP5549724B2 (ja) * 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
JP5482918B2 (ja) * 2013-02-08 2014-05-07 株式会社デンソーウェーブ 監視システム
JP6171466B2 (ja) * 2013-03-27 2017-08-02 株式会社デンソーウェーブ ロボットの制御装置
US9242376B2 (en) * 2013-03-28 2016-01-26 Denso Wave Incorporated Method of generating path of multiaxial robot and control apparatus for the multiaxial robot
US9984354B1 (en) * 2014-09-30 2018-05-29 Amazon Technologies, Inc. Camera time synchronization system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10152543A1 (de) * 2001-10-24 2003-05-08 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine
DE102005003827B4 (de) * 2005-01-26 2007-01-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Interaktion zwischen einem Menschen und einer Robotereinheit an einem Roboterarbeitsplatz
DE102005063217B4 (de) * 2005-12-22 2014-05-22 Pilz Gmbh & Co. Kg Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung
JP2010231713A (ja) * 2009-03-30 2010-10-14 National Institute Of Advanced Industrial Science & Technology 侵入検知機能付き安全位置検出装置
DE102009031732B3 (de) * 2009-07-04 2010-11-25 Sick Ag Entfernungsmessender optoelektronischer Sensor
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
JP2015034808A (ja) * 2013-07-08 2015-02-19 株式会社デンソーウェーブ 電波到来方向推定装置および電波到来方向推定システム
US20150217455A1 (en) * 2014-02-04 2015-08-06 Microsoft Corporation Controlling a robot in the presence of a moving object

Also Published As

Publication number Publication date
US10335964B2 (en) 2019-07-02
US20170157783A1 (en) 2017-06-08
JP6601155B2 (ja) 2019-11-06
JP2017080845A (ja) 2017-05-18
DE102016120559A1 (de) 2017-05-04

Similar Documents

Publication Publication Date Title
DE102016120559B4 (de) Verfahren und System zur Steuerung eines Roboters
DE102018121388B4 (de) Robotersystem
EP3701340B1 (de) Überwachungsvorrichtung, industrieanlage, verfahren zur überwachung sowie computerprogramm
EP2825812B1 (de) Verfahren und vorrichtung zum absichern eines gefährlichen arbeitsbereichs einer automatisiert arbeitenden maschine
DE102017112770B4 (de) Robotersystem
DE112017002498B4 (de) Robotervorgang-auswertungseinrichtung, robotervorgang-auswertungsverfahren und robotersystem
EP3150056B1 (de) Selbstfahrende landwirtschaftliche arbeitsmaschine
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
DE102015012232A1 (de) Mit Menschen kollaborierendes Robotersystem
DE102007007576A1 (de) Verfahren und Vorrichtung zum Sichern eines Arbeitsraums
DE112017002639T5 (de) Robotersteuerungsvorrichtung
EP0853299A2 (de) Verfahren und Vorrichtung zur Ansteuerung von Türanlagen in Abhängigkeit von der Anwesenheit von Personen
DE102019112043B4 (de) Robotersystem
EP3744482B1 (de) Absichern eines beweglichen maschinenteils
EP3611422A1 (de) Sensoranordnung und verfahren zum absichern eines überwachungsbereichs
DE102018003762A1 (de) Überwachungsvorrichtung zum Überwachen eines durch Aufteilen eines Überwachungsbereichs festgelegten räumlichen Bereichs
DE102010007025A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
EP3150055A1 (de) Selbstfahrende landwirtschaftliche arbeitsmaschine
DE102016222245A1 (de) Einrichtung und Verfahren zur Einwirkung auf Gegenstände
WO2016097142A1 (de) Verfahren zur überwachung eines koordinatenmessgeräts
DE102018127061B3 (de) Verfahren zum Betrieb eines Assistenzsystems eines Fahrzeuges, Vorrichtung zur Durchführung des Verfahrens und Fahrzeug
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
EP2353799B1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE102019127826B4 (de) Sicherer optoelektronischer Sensor und Verfahren zum Absichern eines Überwachungsbereichs
DE102017119149A1 (de) Verfahren zur berührungslosen Erfassung relativ zueinander bewegter Objekte und Sensoreinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final