DE102017127950B4 - Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt - Google Patents

Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt Download PDF

Info

Publication number
DE102017127950B4
DE102017127950B4 DE102017127950.4A DE102017127950A DE102017127950B4 DE 102017127950 B4 DE102017127950 B4 DE 102017127950B4 DE 102017127950 A DE102017127950 A DE 102017127950A DE 102017127950 B4 DE102017127950 B4 DE 102017127950B4
Authority
DE
Germany
Prior art keywords
robot
depth
information
zone
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017127950.4A
Other languages
English (en)
Other versions
DE102017127950A1 (de
Inventor
Tomonori Matsushima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017127950A1 publication Critical patent/DE102017127950A1/de
Application granted granted Critical
Publication of DE102017127950B4 publication Critical patent/DE102017127950B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40179Design of controller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Robotersteuerung (10), die konfiguriert ist zum Steuern eines Betriebs eines Roboters (11), wobei die Robotersteuerung umfasst:
einen Tiefenerfassungsabschnitt (13), der konfiguriert ist zum Erfassen einer Gruppe von Tiefendaten, die die Tiefen von einem vorbestimmten Abschnitt des Roboters zu einer Mehrzahl von Punkten auf einer Oberfläche eines in der Umgebung des Roboters angeordneten Objekts (20) wiedergeben, wenn sich der Roboter in einer gegebenen Stellung befindet,
einen Roboterpositionserfassungsabschnitt (14), der konfiguriert ist, um eine dreidimensionale Positionsinformation des vorbestimmten Abschnitts zu erfassen, wenn sich der Roboter in der gegebenen Stellung befindet;
einen Tiefen-Abbildungsgenerator (15), der konfiguriert ist, um Tiefen-Abbildungsinformation zu erzeugen, die dreidimensionale Positionsinformation der Mehrzahl von Punkten mit Bezug auf eine Installationsposition des Roboters als Ursprung umfasst, wobei die Gruppe von Tiefendaten und die dreidimensionale Positionsinformation des vorbestimmten Abschnitts verwendet werden; und
einen Störzonen-Einstellabschnitt (16), der konfiguriert ist, um einen durch das Objekt belegten Bereich anhand der Tiefen-Abbildungsinformation zu schätzen und den Bereich als Störzone für den Roboter vorzugeben.

Description

  • Die Erfindung betrifft eine Robotersteuerung, die die Funktion der Einstellung einer Zone (im Folgenden als Störzone bezeichnet) vorgibt, auf die ein Roboter störend einwirken kann.
  • Im Produktionsraum einer Herstellungsstätte ist, wenn ein Roboter zum Zuführen von Werkstücken zu einer Werkzeugmaschine oder zum Entfernen von fertigen Produkten nach der maschinellen Bearbeitung von der Werkzeugmaschine verwendet wird, der Roboter nahe der Werkzeugmaschine angeordnet, und eine Sicherheitsumzäunung ist auch um den Roboter herum angeordnet. In diesem Fall betreibt tatsächlich der Bediener den Roboter, beispielsweise mittels eines mit einer Robotersteuerung verbundenen Programmierhandgeräts (teach pendant), um dem Roboter einen Arbeitsvorgang einer Aufgabe beizubringen, der es z. B. nicht zulässt, dass Arme oder Hände des Roboters über die Sicherheitsumzäunung hinausreichen. Der Bediener erzeugt ein Betriebsprogramm für den Roboter über eine derartige Lehraufgabe oder Offline-Programmierung und speichert es in der Robotersteuerung.
  • Der Roboter selbst kann möglicherweise die Information von um den Roboter herum platzierten Gegenständen leider nicht erkennen, d. h. dass die Sicherheitsumzäunung oder Peripheriegeräte, wie z. B. Bandförderer, um den Roboter herum angeordnet sind. Daher kann der Roboter während einer Lehraufgabe des Bedieners oder während der Ausführung des Betriebsprogramms für den Roboter irgendein Peripheriegerät oder dergleichen aufgrund eines Bedienfehlers des Benutzers oder eines Programmfehlers stören und somit das Peripheriegerät oder den Roboter beschädigen. Als Resultat hiervon bleibt die Produktion bis zur Wiederherstellung des beschädigten Peripheriegeräts oder Roboters angehalten und die Produktivität sinkt dann signifikant.
  • Den Umständen entsprechend wird in der Robotersteuerung ein Bereich vorgegeben, in dem der Roboter arbeiten kann (im Folgenden als Betriebsbereich bezeichnet), und wenn der Roboter vom eingestellten Betriebsbereich abweicht, wird der Roboter angehalten, um ein gegenseitiges Stören des Roboters und der Peripheriegeräte zu verhindern. Ein Verfahren dieser Art (im Folgenden als Verfahren des technischen Hintergrunds Nr. 1 bezeichnet) ist z. B. in JP 2013-136 123 A offenbart.
  • Ein weiteres Verfahren wird praktiziert, bei dem am Roboter ein Sensor angebracht ist, der Hindernisse erkennt, und wenn der Sensor bei der Ausführung des Betriebsprogramms durch den Roboter ein Hindernis erkennt, bleibt der Roboter bis zur Entfernung des Hindernisses angehalten. Ein Verfahren dieser Art (im Folgenden als Verfahren des technischen Hintergrunds Nr. 2 bezeichnet) ist z. B. in JP 2003-136466 A offenbart.
  • Beim Verfahren des technischen Hintergrunds Nr. 1 kann der Bediener jedoch vorzugsweise entsprechend der Positionsinformation der Peripheriegeräte einen Betriebsbereich für den Roboter im Voraus in der Robotersteuerung eingeben. Da der Bediener im Allgemeinen eine Position des Roboters misst und sie in der Robotersteuerung speichert, ist dies in diesem Fall aufwändig. Bei der Vorgabe eines Betriebsbereichs für den Roboter wird tendenziell zur Sicherheit ein relativ großer Spielraum oder dergleichen eingestellt. Dies stellt ein Problem dar, wenn der Roboter aufgrund des Spielraums anhält, obwohl der Roboter noch weit von den Hindernissen entfernt zu sein scheint. Insbesondere wenn der Roboter eingesetzt wird, um einer Werkzeugmaschine Werkstücke zuzuführen oder Fertigprodukte nach der maschinellen Bearbeitung von der Werkzeugmaschine zu entfernen, sind Peripheriegeräte oft dicht angeordnet, sodass das oben erwähnte Problem zu Tage tritt.
  • Wenn der Bediener oder die Bedienerin die Anordnung der Peripheriegeräte ändert, kann er oder sie vorzugsweise wieder einen Betriebsbereich für den Roboter entsprechend vorgeben, und dies wird wahrscheinlich aufwändig sein.
  • Dagegen tritt beim Verfahren des technischen Hintergrunds Nr. 2, da in der Robotersteuerung kein Betriebsbereich für den Roboter im Voraus eingegeben werden kann, kein Problem wie vorangehend beschrieben auf. Da ein Sensor, der Hindernisse erkennt, vorzugsweise für jeden Roboter installiert werden kann, steigen die Kosten beim Verfahren des technischen Hintergrunds Nr. 2 jedoch enorm.
  • DE 10 2015 013 161 A1 beschreibt eine Vorrichtung zum Einstellen einer Störzone, die eine 3D-Kamera umfasst, welche von der Umgebung eines Roboters ein Kamerabild erstellt. Dem Roboter und/oder einem Hindernis wird dabei eine spezifische Farbe zugeordnet. Auf der Grundlage dieses Kamerabildes wird eine 3D-Karte erstellt. Anhand der Farbe wird bestimmt, welche Punkte dem Roboter bzw. dem Hindernis zugeordnet sind und hiervon ausgehend eine Störzone bestimmt.
  • DE 10 2014 102 943 A1 beschreibt eine Vorrichtung zum Erkennen einer Kiste, die von einem Roboter gehandhabt werden soll. Diese Vorrichtung enthält eine Punktwolkenkamera, die Bilddaten ausgibt, die zweidimensionale Farbdaten und dreidimensionale Tiefendaten umfassen. In der Punktwolke werden mehrere zweidimensionale Liniensegmente und dreidimensionale Liniensegmente identifiziert. Ausgehend von diesen Liniensegmenten werden mit Bilderkennungverfahren Kandidaten-Kisten in dem Bild identifiziert. Unter den identifizierten Kandidaten - Kisten wird anhand der Eingabekriterien die Zielkiste identifiziert.
  • EP 0 380 513 B1 beschreibt ein Steuergerät für einen Roboterarm, das eine elektronische Kamera aufweist, welche mehrere Ansichten von Objekten oder Charakteristika eines Arbeitsraums aufnimmt. Die von der Kamera generierten Bilder werden in Bereiche unterteilt, die jeweils im Wesentlichen gleichförmig sind. Hieraus wird eine Niveaulinienkarte erstellt, welche die Ränder der Objekte oder Charakteristika darstellt. Hiervon ausgehend wird ein dreidimensionales internes Modell des Arbeitsraumes erstellt, das für die Planung einer Sequenz von Arbeitsschritten des Roboterarms verwendet wird. Die Ausführung dieser Sequenz durch den Roboterarm wird unterbrochen, wenn ein Arbeitsschritt in einem festgelegten Maß von dem geplanten Arbeitsschritt abweicht.
  • US 2014/0025203 A1 beschreibt ein Kollisionsdetektionssystem, das bei einem Roboter verwendet werden kann, bei dem Bilder von Objekten aus verschiedenen Blickrichtungen aufgenommen und ausgewertet werden. Bei der Bildauswertung wird der Koordinatenraum in Würfel zerlegt und anhand einer Karte von Tiefenwerten wird bestimmt, in welchen dieser Würfel zumindest ein Teil der Oberfläche des Objekts liegt. Zur Feststellung einer Kollision zweier Objekte wird bestimmt, ob sich Würfel, in denen jeweils zumindest ein Teil der Oberfläche eines der beiden Objekte liegt, ganz oder teilweise überlappen.
  • JP 2015-062991 A beschreibt ein Verfahren zum Bestimmen eines Einlernpunkts eines Roboters. Dabei wird anhand von CAD (Computer Aided Design) - Daten in einem virtuellen Raum eine Aktion eines Roboters durchgeführt und bestimmt, ob dem Roboter ein Hindernis im Weg steht. Ist dies der Fall, wird eine Position und eine Ausrichtung des Roboters gesucht, in der dies nicht der Fall ist, und der Einlernpunkt wird entsprechend neu festgelegt.
  • JP 2014-161950 A beschreibt ein Robotersystem, bei dem die Position eines Werkstücks, zu dem ein Endeffektor bewegt werden soll, in dem Koordinatensystem des Roboters erfasst wird. Die Verlagerung des Endeffektors zu dem Werkstück hin wird auf der Grundlage einer ersten und zweiten räumlichen Beziehung zwischen dem Endeffektor und dem Werkstück bestimmt.
  • In Anbetracht der vorstehend beschriebenen Situation ist es eine Aufgabe der Lehre, eine Robotersteuerung bereitzustellen, die automatisch einen Betriebsbereich eines Roboters vorgeben kann, in dem der Roboter und Hindernisse wie Peripheriegeräte einander nicht stören.
  • Gemäß einem Aspekt ist eine Robotersteuerung konfiguriert, um einen Betrieb eines Roboters zu steuern, die aufweist: einen Tiefenerfassungsabschnitt, konfiguriert zum Erfassen einer Gruppe von Tiefendaten, die Tiefen von einem vorbestimmten Abschnitt des Roboters zu einer Mehrzahl von Punkten auf einer Oberfläche eines in einem Bereich um den Roboter herum angeordneten Objekts wiedergeben; einen Roboterpositionserfassungsabschnitt, konfiguriert zum Erfassen von dreidimensionaler Positionsinformation des vorbestimmten Abschnitts; einen Tiefen-Abbildungsgenerator, konfiguriert zum Erzeugen von Tiefen-Abbildungsinformation, die dreidimensionale Positionsinformation der Mehrzahl von Punkten in Bezug auf eine Installationsposition des Roboters als Ursprung enthält, wobei die Gruppe von Tiefendaten und die dreidimensionale Positionsinformation des vorbestimmten Abschnitts verwendet werden; und einen Störzonen-Einstellabschnitt, konfiguriert zum Schätzen eines vom Objekt belegten Bereichs aus der Tiefen-Abbildungsinformation, und um den Bereich als Störzone für den Roboter vorzugeben.
  • In Anbetracht der vorstehend beschriebenen Situation ist es möglich, automatisch einen Betriebsbereich eines Roboters festzulegen, in dem der Roboter und ein Hindernis wie ein Peripheriegerät einander nicht stören.
  • Die vorstehend beschriebenen und weitere Aufgaben, Merkmale und Vorteile der Erfindung werden anhand der detaillierten Beschreibung von den beigefügten Zeichnungen dargestellten Ausführungsformen der Offenbarung besser ersichtlich werden, die Folgendes zeigen:
    • 1 ist ein funktionelles Blockdiagramm zur Erläuterung einer Funktion einer Robotersteuerung gemäß einer Ausführungsform;
    • 2 ist ein schematisches Diagramm mit der Darstellung eines Störzonen-Einstellungsablaufs gemäß einer Ausführungsform; und
    • 3 ist ein schematisches Diagramm mit der Darstellung eines Störzonen-Einstellungsablaufs gemäß einer weiteren Ausführungsform.
  • Ausführungsformen der Erfindung werden nachstehend unter Bezugnahme auf die Zeichnungen beschrieben. In den Zeichnungen, auf die verwiesen wird, sind ähnlichen Komponenten oder funktionellen Teilen die gleichen Kennziffern zugeordnet. Um das Verständnis zu erleichtern, wurden die Maßstabsverhältnisse der Zeichnungen entsprechend geändert. Jede in den Zeichnungen dargestellte Ausführungsform ist lediglich ein Ausführungsbeispiel der Erfindung, und die Erfindung ist nicht auf die dargestellte Ausführungsform beschränkt.
  • 1 ist ein funktionelles Blockdiagramm zur Erläuterung einer Funktion einer Robotersteuerung gemäß einer Ausführungsform. Eine Robotersteuerung 10 gemäß dieser Ausführungsform ist eine Vorrichtung, die konfiguriert ist zum Steuern des Betriebs eines Roboters 11, und schließt einen Tiefenerfassungsabschnitt 13, einen Roboterpositionserfassungsabschnitt 14, einen Tiefen-Abbildungsgenerator 15 und einen Störzonen-Einstellabschnitt 16 ein.
  • Beispiele des Roboters 11 schließen beliebige Robotertypen ein, wie z. B. einen vertikalen Gelenkroboter, einen Bewegungsmechanismus-Roboter, einen Parallelverbindungsroboter und einen Direktantriebsmechanismus-Roboter.
  • Der Tiefenerfassungsabschnitt 13 ist konfiguriert zum Erfassen einer Gruppe von Tiefendaten, die die Tiefen von einem vorbestimmten Abschnitt des Roboters 11 zu einer Mehrzahl von Punkten auf einer Oberfläche eines Objekts (nicht dargestellt) wiedergeben, das in der Umgebung des Roboters 11 angeordnet ist. Das Objekt ist ein in der Umgebung des Roboters 11 angeordneter Gegenstand, z. B. ein Peripheriegerät wie ein Förderband oder eine Sicherheitsumzäunung.
  • Die Gruppe von Tiefendaten ist ein Satz von Tiefendaten für jeden der Mehrzahl von Punkten, die in einer Matrix mit Bezug auf die Oberfläche des Objekts, das in dem Bereich um den Roboter 11 herum angeordnet ist, definiert sind. Eine derartige Gruppe von Tiefendaten kann unter Verwendung eines bereits bekannten Tiefensensors erfasst werden, der eine Tiefe misst.
  • Ein derartiger Tiefensensor 12 ist vorzugsweise an dem vorbestimmten Abschnitt des Roboters 11 nur dann angebracht, wenn eine Störzone für den Roboter 11 eingestellt wird. Der vorbestimmte Abschnitt kann ein distales Ende des Roboters 11 sein, wie z. B. ein Handgelenksflansch, an dem ein Werkzeug oder eine Greifhand an einem distalen Ende eines Roboterarms abnehmbar angebracht sind.
  • Der Roboterpositionserfassungsabschnitt 14 ist konfiguriert, um dreidimensionale Positionsinformation des vorbestimmten Abschnitts des vorstehend erwähnten Roboters 11 zu erfassen. Die dreidimensionale Positionsinformation bezieht sich auf die dreidimensionale Positionsinformation des vorbestimmten Abschnitts des Roboters 11 in einem realen Raum, in dem der Roboter 11 installiert ist.
  • Falls der Roboter 11 beispielsweise ein Gelenkroboter ist, schließt jedes Gelenk des Gelenkroboters eine durch einen Servomotor (nicht dargestellt) angetriebene Antriebswelle zur Rotation der Roboterarme ein. Der Roboterpositionserfassungsabschnitt 14 kann die Rotationsposition (Winkel) jeder Antriebswelle des Roboters 11 von einem Positionsdetektor wie z. B. einem Impulscodierer lesen, der in der Antriebswelle angeordnet ist, und er kann die Position des distalen Endes jedes Roboterarms aus diesen Drehwinkeln und den bekannten vorgegebenen Abmessungen des Roboterarms erfassen.
  • Die so erfasste Positionsinformation des vorbestimmten Abschnitts des Roboters 11, z. B. die Positionsinformation des distalen Endes des Roboterarms, ist die in einem Koordinatensystem definierte dreidimensionale Positionsinformation (im Folgenden als „Roboter-Koordinatensystem“ bezeichnet), das die Installationsposition des Roboters 11 als Ursprung hat. Wenn der Roboter 11 in einem Herstellungsbetrieb installiert wird, ist die vorstehend erwähnte Installationsposition eine Position eines Abschnitts, in dem der Roboter 11 auf dem Hallenboden befestigt ist.
  • Der Tiefen-Abbildungsgenerator 15 ist konfiguriert, um Tiefen-Abbildungsinformation unter Verwendung der Gruppe von Tiefendaten und der dreidimensionalen Information des Roboters 11 entsprechend der Beschreibung weiter oben zu erzeugen. Die Tiefen-Abbildungsinformation schließt dreidimensionale Positionsinformation einer Mehrzahl von Punkten ein, die in einer Matrix auf der Oberfläche des oben erwähnten Objekts definiert sind. Die dreidimensionale Positionsinformation wird erhalten durch Umwandlung von Tiefendaten an jeder Stelle der Oberfläche des durch den Tiefensensor 12 erfassten Objekts in eine dreidimensionale Position mit Bezug auf die Installationsposition des Roboters 11 als Ursprung. Anders ausgedrückt werden die Tiefendaten an jeder Stelle auf der Oberfläche des Objekts, die in einem Koordinatensystem (im Folgenden als „Sensor-Koordinatensystem“ bezeichnet) mit dem Tiefensensor 12 als Ursprung definiert sind, durch Koordinatentransformation in dreidimensionale Positionsinformation umgewandelt, die in dem Roboter-Koordinatensystem definiert ist.
  • Der Störzonen-Einstellabschnitt 16 ist konfiguriert, um die Tiefen-Abbildungsinformation zu erhalten, den durch das in der Umgebung des Roboters 11 angeordnete Objekt belegten Bereich aus der Tiefen-Abbildungsinformation zu gewinnen und diesen Bereich als Störzone für den Roboter 11 vorzugeben. Der Störzonen-Einstellabschnitt 16 kann einen anderen Bereich als den so gewonnenen Bereich als betriebsfähigen Bereich für den Roboter 11 vorgeben.
  • Die Robotersteuerung 10 gemäß dieser Ausführungsform schließt vorzugsweise ferner z. B. einen Speicher 17 und einen Befehlsteil 18 ein.
  • Der Speicher 17 speichert die wie vorstehend beschriebene, vorgegebene Störzone, ein Betriebsprogramm für den Roboter 11 und Information (im Folgenden bezeichnet als „Sensor-Anbringungspositionsinformation“) über die Position am Roboter 11, an der der Tiefensensor 12 angebracht ist.
  • Der Befehlsteil 18 kann zum Tiefenerfassungsabschnitt 13 oder zum Roboter 11 einen Startbefehl ausgeben, um mit dem Einstellen der Störzone für den Roboter 11 zu beginnen. Weiter ist der Befehlsteil 18 konfiguriert, um basierend auf dem Betriebsprogramm für den Roboter 11 unter Berücksichtigung der vorgegebenen Störzone einen Betriebsbefehl zu dem Roboter 11 zu senden.
  • Ist der Roboter 11 beispielsweise ein Gelenkroboter, ist die Robotersteuerung 10 konfiguriert, um eine Regelung eines Servomotors (nicht dargestellt) zum Antreiben jeder Welle des Gelenkroboters durchzuführen, um die Arme des Gelenkroboters zu betreiben.
  • Der Befehlsteil 18 erzeugt einen Befehl zum Betrieb des Roboters 11 entsprechend dem vorgefertigten Betriebsprogramm und gibt ihn zum Servomotor aus. Alternativ dazu gibt der Befehlsteil 18 zum Servomotor einen Betriebsbefehl von einem Programmierhandgerät aus, das mit der Robotersteuerung 10 verbunden ist. Wenn in diesem Fall ein Positionsbefehlswert ausgegeben wird, der es dem Roboter 11 ermöglichen kann, in die vorgegebene Störzone einzutreten, gibt der Befehlsteil 18 einen Befehl aus, um den Servomotor anzuhalten oder zu verlangsamen.
  • Die Robotersteuerung 10 kann aus einem Computersystem, das z. B. einen Speicher, eine CPU (einen Hauptprozessor) einschließt, und einen Kommunikationsteil bestehen, die jeweils über einen Bus miteinander verbunden sind. Der Speicher kann z. B. ein ROM (Festwertspeicher) oder ein RAM (Direktzugriffsspeicher) sein. Weiter können die Funktionen und Vorgänge des Tiefenerfassungsabschnitts 13, des Roboterpositionserfassungsabschnitts 14, des Tiefen-Abbildungsgenerators 15 und des Störzonen-Einstellabschnitts 16 der Robotersteuerung 10 durch Ausführen des im ROM gespeicherten Programms durch die CPU erreicht werden.
  • 2 ist ein Diagramm, das schematisch eine Ausführungsform eines Störzonen-Einstellungsablaufs zur Ausführung durch die Robotersteuerung 10 darstellt. Man beachte, dass bei dieser Ausführungsform zu Beginn der Vorgabe der Störzone für den Roboter 11 der Tiefensensor 12 am distalen Ende des Roboters 11 angebracht ist.
  • Wenn die Einstellung der Störzone begonnen hat, erfasst in Schritt 11 der Tiefenerfassungsabschnitt 13 durch den Tiefensensor 12 die Gruppe der Tiefendaten aus der Mehrzahl von Punkten auf der Oberfläche des in der Umgebung des Roboters 11 angeordneten Objekts.
  • Die Gruppe von Tiefendaten ist ein Satz von Tiefendaten für jeden in einer Matrix auf der Oberfläche des Objekts definierten Punkt, und sie kann als Bild (sogenanntes Tiefenbild) 31 erfasst werden, das beispielsweise in 2 wiedergegeben ist. Die Z-Richtung des Tiefenbilds 31 (eine Richtung senkrecht zur Zeichnung) gibt die Tiefe an, und Punkte, die das Tiefenbild 31 bilden, sind in Abhängigkeit von ihrer Tiefe in verschiedenen Schattierungen angezeigt. Man beachte, dass 2 zum leichteren Verständnis schematisch die Punkte, die das Tiefenbild 31 bilden, durch weiße, schwarze, gepunktete und gestrichelte Kreise angibt. Beispielsweise ist die Tiefe in weißen Kreisen geringer als in schwarzen Kreisen.
  • Weiter erfasst bei diesem Schritt 11 der Roboterpositionserfassungsabschnitt 14 die Positionsinformation des Roboters 11. Die zu diesem Zeitpunkt erfasste Positionsinformation des Roboters 11 ist die Positionsinformation des distalen Endes des Roboters 11, an dem der Tiefensensor 12 angebracht ist. Diese Positionsinformation des distalen Endes wird in einem Zustand erfasst, in dem der Roboter 11 angehalten ist.
  • Bei Schritt 12 erzeugt der Tiefen-Abbildungsgenerator 15 Tiefen-Abbildungsinformation unter Verwendung der Gruppe von Tiefendaten und der entsprechend der vorstehenden Beschreibung erfassten Positionsinformation des Roboters 11. Insbesondere erzeugt der Tiefen-Abbildungsgenerator 15 die Tiefen-Abbildungsinformation durch Umwandeln der Tiefendaten an jeder Stelle auf der Oberfläche des im Sensor-Koordinatensystem definierten Objekts mittels Koordinatentransformation in im Roboter-Koordinatensystem definierte dreidimensionale Positionsinformation. Die Tiefen-Abbildungsinformation wird vorzugsweise als Tiefenbild ähnlich der Gruppe von Tiefendaten erfasst. In einem in 2 dargestellten Tiefenbild 32 sind die Punkte, die das Tiefenbild 32 bilden, zum leichteren Verständnis schematisch angegeben. Beispielsweise ist die Tiefe in weißen Kreisen geringer als in schwarzen Kreisen.
  • Beim Erzeugen der Tiefen-Abbildungsinformation entsprechend der vorstehenden Beschreibung werden vorzugsweise die Information (im Folgenden als „Sensor-Anbringungspositionsinformation“ bezeichnet), die sich auf die Position bezieht, an der der Tiefensensor 12 am distalen Ende des Roboters 11 angebracht ist, und die SollAbmessungen des Tiefensensors 12 berücksichtigt. Wenn der Tiefensensor 12 mit einer bestimmten äußeren Form an der Außenseite des distalen Endes des Roboters 11 angebracht ist, kann ein Referenzpunkt beim Messen einer Tiefe durch den Tiefensensor 12 möglicherweise nicht mit der bei Schritt 11 erfassten Position des distalen Endes des Roboters 11 übereinstimmen. Daher wird die relative Position zwischen dem Mess-Referenzpunkt des Tiefensensors 12 und dem distalen Ende des Roboters 11 vorzugsweise aus der Sensor-Anbringungspositionsinformation erhalten, und die Tiefen-Abbildungsinformation wird entsprechend der Beschreibung weiter oben unter Berücksichtigung dieser relativen Position sowie der Gruppe von Tiefendaten und der Positionsinformation des Roboters 11 erzeugt. Die Sensor-Anbringungspositionsinformation ist ein bekannter Wert und kann daher im Speicher 17 der Robotersteuerung 10 vorgespeichert werden. Der Tiefen-Abbildungsgenerator 15 liest sie vorzugsweise aus dem Speicher 17 aus, um sie zum Erzeugen der Tiefen-Abbildungsinformation zu verwenden.
  • Bei Schritt 13 gibt der Störzonen-Einstellabschnitt 16 die Störzone für den Roboter 11 basierend auf der Tiefen-Abbildungsinformation vor. Zu diesem Zeitpunkt wird der durch das in der Umgebung des Roboters 11 angeordnete Objekt belegte Bereich aus der Tiefen-Abbildungsinformation abgerufen und als Störzone für den Roboter 11 vorgegeben.
  • Bei diesem Schritt 13 wird die Form des in der Umgebung des Roboters 11 angeordneten Objekts vorzugsweise aus der Tiefen-Abbildungsinformation geschätzt; diese Form wird in eine vereinfachte Form umgewandelt, und der durch die vereinfachte Form belegte Bereich wird als Störzone für den Roboter 11 vorgegeben. Beispielsweise wird eine in 2 dargestellte zylindrische Störzone 33 eingestellt. Selbstverständlich ist die Form der Störzone 33 nicht auf eine derartige zylindrische Form beschränkt.
  • Durch den vorstehend erwähnten Verarbeitungsablauf wird die Einstellung der Störzone beendet. Die Information der vorgegebenen Störzone wird im Speicher 17 der Robotersteuerung 10 gespeichert. Die gespeicherte Störzoneninformation wird verwendet, um den Bewegungsbereich des Roboters 11 bei der Ausführung des Betriebsprogramms oder der Lehraufgabe für den Roboter 11 einzuschränken.
  • Gemäß der Robotersteuerung 10 einer Ausführungsform entsprechend der Beschreibung weiter oben werden die folgenden Effekte erzielt.
  • Der Tiefensensor 12 kann an einem vorbestimmten Abschnitt des Roboters 11 angebracht werden, z. B. am distalen Ende des Roboterarms, wie z. B. einem Handgelenksflansch, und die Gruppe der Tiefendaten kann vom Tiefensensor 12 an der Oberfläche des in der Umgebung des Roboters 11 angeordneten Objekts 20 erfasst werden. Weiter kann die Tiefen-Abbildungsinformation erzeugt werden durch Umwandlung der vom Tiefensensor 12 erfassten Gruppe von Tiefendaten in dreidimensionale Positionsinformation über die Installationsposition des Roboters 11 als Ursprung, basierend auf der dreidimensionalen Positionsinformation des vorbestimmten Abschnitts des Roboters 11, an der der Tiefensensor 12 angebracht ist. Die Störzone für den Roboter 11 kann basierend auf dieser Tiefen-Abbildungsinformation eingestellt werden. Somit ist es möglich, automatisch den Bewegungsbereich des Roboters 11 einzustellen, in dem der Roboter 11 und ein Hindernis wie z. B. ein Peripheriegerät einander nicht stören.
  • Da die erzeugte Tiefen-Abbildungsinformation eine dreidimensionale Information ist, die bei Betrachtung vom Roboter 11 der Form eines tatsächlichen Objekts wie z. B. eines Peripheriegeräts entspricht, kann die Form der aus derartiger Tiefen-Abbildungsinformation vorgegebenen Störzone vom Bediener leicht vorhergesehen werden. Demzufolge wird der Lernvorgang des Roboters erleichtert.
  • Wenn die Position des Peripheriegeräts geändert wird, kann die Störzone durch erneutes Ausführen des Programms der Störzonen-Einstellsequenz zurückgesetzt werden, sodass der Arbeitsaufwand des Bedieners reduziert werden kann.
  • Da der Tiefensensor 12 nur beim Zurücksetzen der Störzone eingesetzt wird, ist dafür ein einziger Tiefensensor 12 ausreichend. Somit kann der Tiefensensor 12 wiederholt verwendet werden, und die Kosten lassen sich deshalb reduzieren.
  • Die vorstehend erwähnte Störzonen-Einstellsequenz durch die Robotersteuerung 10 gemäß einer Ausführungsform wird ausgeführt, während der Roboter 11 in einer Stellung angehalten ist. Falls das Objekt, das den Roboter 11 stören kann, jedoch in einem weiten Bereich um den Roboter 11 herum vorliegt, ist es schwierig, den durch ein derartiges Objekt belegten Bereich mittels einer nur einmaligen Störzonen-Einstellsequenz vorzugeben. Falls die Form des in der Umgebung des Roboters 11 angeordneten Objekts weiter eine Kombination komplexer Formen ist, wird es ebenfalls schwierig, die Störzone mittels einer nur einmaligen Störzonen-Einstellsequenz vorzugeben. In derartigen Fällen wird die vorstehend erwähnte Störzonen-Einstellsequenz vorzugsweise mehrmals wiederholt ausgeführt.
  • 3 ist ein Diagramm, das schematisch ein Beispiel darstellt, wobei die Störzonen-Einstellsequenz mehrmals wiederholt ausgeführt wird.
  • Zunächst hält die Robotersteuerung 10 den Roboter 11 in einer Roboterstellung an (im Folgenden als „erste Stellung“ bezeichnet), die durch durchgehende Linien in 3 angegeben ist. Anschließend erfasst die Robotersteuerung 10 über den Tiefensensor 12, der am distalen Ende des in der ersten Stellung angeordneten Roboters 11 angebracht ist, eine Gruppe von Tiefendaten (z. B. ein Tiefenbild 31A) vom Tiefensensor 12 in Bezug auf eine Mehrzahl von Punkten auf der Oberfläche des Objekts 20. Weiter erzeugt die Robotersteuerung 10 Tiefen-Abbildungsinformation (z. B. ein Tiefenbild 32A) an der ersten Stellung unter Verwendung der Information des Tiefenbilds 31A, der Positionsinformation des distalen Endes des Roboters 11 an der ersten Stellung und der Sensor-Anbringungspositionsinformation.
  • Nach dem Erzeugen der Tiefen-Abbildungsinformation an der ersten Stellung bewegt die Robotersteuerung 10 den Roboter 11 und hält ihn an einer anderen Roboterstellung an (im Folgenden als „zweite Stellung“ bezeichnet), die in 3 durch doppelt gepunktete Linien angezeigt ist. Anschließend erfasst die Robotersteuerung 10 über den Tiefensensor 12, der am distalen Ende des in der zweiten Stellung angeordneten Roboters 11 angebracht ist, eine Gruppe von Tiefendaten (z. B. ein Tiefenbild 31B) vom Tiefensensor 12 in Bezug auf eine Mehrzahl von Punkten auf der Oberfläche des Objekts 20. Weiter erzeugt die Robotersteuerung 10 Tiefen-Abbildungsinformation (z. B. ein Tiefenbild 32B) an der zweiten Stellung unter Verwendung der Information des Tiefenbilds 31B, der Positionsinformation des distalen Endes des Roboters 11 an der zweiten Stellung und der Sensor-Anbringungspositionsinformation.
  • Weiter überlagert der Tiefen-Abbildungsgenerator 15 die Information der Tiefenbilder 32A und 32B, die für die jeweiligen Positionen des Roboters 11, erzeugt wurden, und erzeugt ein Tiefenbild 34, das das gesamte Objekt 20 einschließt, das über einen weiten Bereich vorliegt. Selbstverständlich ist die Anzahl der Vorgänge zur Änderung der Stellung des Roboters 11 nicht auf zweimal beschränkt. Danach gibt der Störzonen-Einstellabschnitt 16 basierend auf dem erzeugten Tiefenbild 34 einen Bereich als Störzone für den Roboter 11 vor.
  • Durch den vorstehend erwähnten Vorgang ist es möglich, den durch das Objekt, das über einen weiten Bereich vorliegt, belegten Bereich als Störzone vorzugeben. Insbesondere ist es nicht notwendig, eine Mehrzahl von Tiefensensoren um das Objekt 20 herum zu installieren. Daher ist es möglich, die Position des Hindernisses einzustellen, indem nur ein einziger Tiefensensor 12 am Roboter 11 angebracht wird, wobei die Stellung des Roboters 11 geändert und die für die jeweiligen Stellungen erzeugte Tiefen-Abbildungsinformation in eine einzelne Tiefen-Abbildungsinformation integriert wird.
  • Während die Erfindung vorstehend mit Bezug auf typische Ausführungsformen beschrieben wurde, versteht es sich für Fachleute auf diesem Gebiet, dass bei jeder der vorstehend beschriebenen Ausführungsformen Änderungen und verschiedene weitere Abänderungen, Auslassungen und Hinzufügungen vorgenommen werden können, ohne vom Schutzumfang der Erfindung abzuweichen.
  • Um das Ziel der Erfindung zu erreichen, können die folgenden Aspekte der Erfindung und ihre Wirkungen bereitgestellt werden.
  • Gemäß einem ersten Aspekt umfasst die Robotersteuerung 10, die konfiguriert ist, um den Betrieb des Roboters 11 zu steuern, beispielsweise den Tiefenerfassungsabschnitt 13, der konfiguriert ist zum Erfassen einer Gruppe von Tiefendaten, die Tiefen von einem vorbestimmten Abschnitt des Roboters 11 in Bezug auf eine Mehrzahl von Punkten auf der Oberfläche des um den Roboter 11 herum angeordneten Objekts 20 wiedergeben; sowie einen Roboterpositionserfassungsabschnitt 14, der konfiguriert ist zum Erfassen von dreidimensionaler Positionsinformation des vorbestimmten Abschnitts des Roboters 11; einen Tiefen-Abbildungsgenerator 15, der konfiguriert ist zum Erzeugen von Tiefen-Abbildungsinformation einschließlich dreidimensionaler Positionsinformation aus der Mehrzahl von Punkten mit Bezug auf eine Installationsposition des Roboters als Ursprung, wobei die Gruppe von Tiefendaten und die dreidimensionale Positionsinformation des vorbestimmten Abschnitts verwendet werden; und den Störzonen-Einstellabschnitt 16, der konfiguriert ist zum Schätzen des vom Objekt 20 belegten Bereichs aus der Tiefen-Abbildungsinformation und zur Einstellung dieses Bereichs als Störzone für den Roboter 11.
  • Gemäß dem ersten Aspekt ist es möglich, automatisch einen Bewegungsbereich eines Roboters vorzugeben, in dem der Roboter und ein Hindernis wie ein Peripheriegerät einander nicht stören.
  • Gemäß einem zweiten Aspekt ist der Störzonen-Einstellabschnitt 16 konfiguriert, um die Form des Objekts 20 aus der Tiefen-Abbildungsinformation zu schätzen, diese Form in eine vereinfachte Form umzuwandeln und den durch die vereinfachte Form belegten Bereich als Störzone für den Roboter 11 vorzugeben.
  • Da gemäß dem zweiten Aspekt die Form des als Störzone für den Roboter 11 vorzugebenden Objekts 20 in eine vereinfachte Form umgewandelt wird, kann die im Speicher gespeicherte Datenmenge reduziert werden. Weiter kann die Verarbeitungsgeschwindigkeit, mit der der Roboter 11 basierend auf der Störzone betrieben wird, zusammen mit einer Verringerung der Störgeräusche verbessert werden.
  • Gemäß einem dritten Aspekt schließt die Robotersteuerung 10 gemäß dem ersten oder zweiten Aspekt weiter den Tiefensensor 12 ein, der am vorbestimmten Abschnitt des Roboters 11 abnehmbar angebracht ist und die Tiefe misst.
  • Gemäß dem dritten Aspekt kann bei der Anbringung des Tiefensensors 12 am Roboter 11 eine Störzonen-Einstellsequenz nur dann ausgeführt werden, wenn eine Störzone für den Roboter 11 vorgegeben ist.
  • Gemäß einem vierten Aspekt ist die Robotersteuerung 10 gemäß dem dritten Aspekt konfiguriert, um jedes Mal, wenn die Robotersteuerung 10 den Roboter 11 betreibt, um die Stellung des Roboters 11, an dem der Tiefensensor 12 angebracht ist, zu ändern, die Tiefen-Abbildungsinformation zu erzeugen, wobei der Störzonen-Einstellabschnitt 16 konfiguriert ist, um aus der für jede Stellung des Roboters 11 erzeugten Tiefen-Abbildungsinformation eine Reichweite der Störzone für den Roboter 11 vorzugeben.
  • Gemäß dem vierten Aspekt kann der durch das Objekt 20, das über einen weiten Bereich vorliegt, belegte Bereich als Störzone für den Roboter 11 vorgegeben werden.

Claims (5)

  1. Robotersteuerung (10), die konfiguriert ist zum Steuern eines Betriebs eines Roboters (11), wobei die Robotersteuerung umfasst: einen Tiefenerfassungsabschnitt (13), der konfiguriert ist zum Erfassen einer Gruppe von Tiefendaten, die die Tiefen von einem vorbestimmten Abschnitt des Roboters zu einer Mehrzahl von Punkten auf einer Oberfläche eines in der Umgebung des Roboters angeordneten Objekts (20) wiedergeben, wenn sich der Roboter in einer gegebenen Stellung befindet, einen Roboterpositionserfassungsabschnitt (14), der konfiguriert ist, um eine dreidimensionale Positionsinformation des vorbestimmten Abschnitts zu erfassen, wenn sich der Roboter in der gegebenen Stellung befindet; einen Tiefen-Abbildungsgenerator (15), der konfiguriert ist, um Tiefen-Abbildungsinformation zu erzeugen, die dreidimensionale Positionsinformation der Mehrzahl von Punkten mit Bezug auf eine Installationsposition des Roboters als Ursprung umfasst, wobei die Gruppe von Tiefendaten und die dreidimensionale Positionsinformation des vorbestimmten Abschnitts verwendet werden; und einen Störzonen-Einstellabschnitt (16), der konfiguriert ist, um einen durch das Objekt belegten Bereich anhand der Tiefen-Abbildungsinformation zu schätzen und den Bereich als Störzone für den Roboter vorzugeben.
  2. Robotersteuerung nach Anspruch 1, wobei der Störzonen-Einstellabschnitt konfiguriert ist zum: Schätzen einer Form des Objekts aus der Tiefen-Abbildungsinformation; Umwandeln der Form in eine vereinfachte Form; und Vorgeben eines durch die vereinfachte Form belegten Bereichs als Störzone für den Roboter.
  3. Robotersteuerung nach Anspruch 1 oder 2, ferner umfassend einen Tiefensensor (12), der an dem vorbestimmten Abschnitt abnehmbar angebracht und zum Messen der Tiefe konfiguriert ist.
  4. Robotersteuerung nach Anspruch 3, welche weiterhin einen Sensoranbringungspositionserfassungsabschnitt aufweist, der dafür konfiguriert ist, Sensoranbringungspositionsinformation zu erfassen, welche eine Position des Tiefensensors relativ zu dem vorbestimmten Abschnitt darstellt, wobei der Tiefen-Abbildungsgenerator die Tiefen-Abbildungsinformation unter weiterer Verwendung der Sensoranbringungspositionsinformation erzeugt.
  5. Robotersteuerung nach Anspruch 3, wobei die Robotersteuerung konfiguriert ist, um die Tiefen-Abbildungsinformation jedes Mal zu erzeugen, wenn die Robotersteuerung den Roboter betreibt, um eine Stellung des Roboters, an dem der Tiefensensor angebracht ist, zu ändern, und wobei der Störzonen-Einstellabschnitt konfiguriert ist, um ausgehend von der für jede Stellung des Roboters erzeugten Tiefen-Abbildungsinformation einen Bereich der Störzone einzustellen.
DE102017127950.4A 2016-12-01 2017-11-27 Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt Active DE102017127950B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016234240A JP6420296B2 (ja) 2016-12-01 2016-12-01 ロボットの干渉領域を自動で設定するロボット制御装置
JP2016-234240 2016-12-01

Publications (2)

Publication Number Publication Date
DE102017127950A1 DE102017127950A1 (de) 2018-06-07
DE102017127950B4 true DE102017127950B4 (de) 2019-11-07

Family

ID=62164106

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017127950.4A Active DE102017127950B4 (de) 2016-12-01 2017-11-27 Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt

Country Status (4)

Country Link
US (1) US10481571B2 (de)
JP (1) JP6420296B2 (de)
CN (1) CN108127661B (de)
DE (1) DE102017127950B4 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018176386A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 情報処理装置及びプログラム
CN110604518A (zh) * 2019-10-30 2019-12-24 浙江智玲机器人科技有限公司 扫地机器人及扫地机器人的控制方法
JP7484254B2 (ja) * 2020-03-13 2024-05-16 オムロン株式会社 干渉判定装置、方法、及びプログラム
DE112021003715T5 (de) * 2020-07-13 2023-05-11 Fanuc Corporation Detektionsvorrichtung und Detektionsverfahren
JP7468289B2 (ja) 2020-10-16 2024-04-16 オムロン株式会社 制御装置、ロボット、制御方法、プログラム
US20230364795A1 (en) 2020-10-26 2023-11-16 Omron Corporation Control device, robot, control method, and program
JP7494719B2 (ja) 2020-12-09 2024-06-04 オムロン株式会社 制御装置、制御方法、プログラム
US20230196495A1 (en) * 2021-12-22 2023-06-22 Datalogic Ip Tech S.R.L. System and method for verifying positional and spatial information using depth sensors
US11717974B1 (en) * 2022-06-10 2023-08-08 Sanctuary Cognitive Systems Corporation Haptic photogrammetry in robots and methods for operating the same
WO2024004746A1 (ja) * 2022-07-01 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 システム及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0380513A1 (de) * 1987-08-28 1990-08-08 Europ Vision Syst Centre Adaptives steuerungsgerät mit bildverarbeitung.
JP2003136466A (ja) * 2001-10-25 2003-05-14 Murata Mach Ltd 産業用ロボットの制御装置
JP2013136123A (ja) * 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd ロボット動作教示支援装置及び方法
US20140025203A1 (en) * 2012-07-20 2014-01-23 Seiko Epson Corporation Collision detection system, collision detection data generator, and robot
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP2015062991A (ja) * 2013-08-28 2015-04-09 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
DE102014102943A1 (de) * 2014-02-13 2015-08-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102015013161A1 (de) * 2014-10-17 2016-04-21 Fanuc Corporation Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3859371B2 (ja) * 1998-09-25 2006-12-20 松下電工株式会社 ピッキング装置
JP2012243138A (ja) 2011-05-20 2012-12-10 Seiko Epson Corp 衝突検出システム、ロボットシステム、衝突検出方法及びプログラム
CN102528811B (zh) 2011-12-19 2014-06-18 上海交通大学 托克马克腔内的机械臂定位与避障系统
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
DE102013018638A1 (de) 2013-11-06 2015-05-07 Daimler Ag Verfahren zum Übenwachen eines Arbeitsbereichs
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US10173324B2 (en) * 2015-11-16 2019-01-08 Abb Schweiz Ag Facilitating robot positioning
US9855661B2 (en) * 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
US9990535B2 (en) * 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
CN106054900B (zh) 2016-08-08 2018-11-09 电子科技大学 基于深度摄像头的机器人临时避障方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0380513A1 (de) * 1987-08-28 1990-08-08 Europ Vision Syst Centre Adaptives steuerungsgerät mit bildverarbeitung.
JP2003136466A (ja) * 2001-10-25 2003-05-14 Murata Mach Ltd 産業用ロボットの制御装置
JP2013136123A (ja) * 2011-12-28 2013-07-11 Kawasaki Heavy Ind Ltd ロボット動作教示支援装置及び方法
US20140025203A1 (en) * 2012-07-20 2014-01-23 Seiko Epson Corporation Collision detection system, collision detection data generator, and robot
JP2014161950A (ja) * 2013-02-25 2014-09-08 Dainippon Screen Mfg Co Ltd ロボットシステム、ロボット制御方法、ロボット較正方法
JP2015062991A (ja) * 2013-08-28 2015-04-09 キヤノン株式会社 座標系校正方法、ロボットシステム、プログラム及び記録媒体
DE102014102943A1 (de) * 2014-02-13 2015-08-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102015013161A1 (de) * 2014-10-17 2016-04-21 Fanuc Corporation Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters

Also Published As

Publication number Publication date
CN108127661B (zh) 2019-09-10
US20180157230A1 (en) 2018-06-07
CN108127661A (zh) 2018-06-08
JP2018089728A (ja) 2018-06-14
JP6420296B2 (ja) 2018-11-07
US10481571B2 (en) 2019-11-19
DE102017127950A1 (de) 2018-06-07

Similar Documents

Publication Publication Date Title
DE102017127950B4 (de) Robotersteuerung, die automatisch eine störzone für einen roboter vorgibt
DE102018124712B4 (de) Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102016115987B4 (de) Koordinatensystemeinstellungsverfahren, Koordinatensystemeinstellungsvorrichtung und Robotersystem mit Koordinatensystemeinstellungsvorrichtung
DE102017128652B4 (de) Robotersystem mit einer mehrzahl von robotern, robotersteuerung und robotersteuerverfahren
DE102006007623B4 (de) Roboter mit einer Steuereinheit zum Steuern einer Bewegung zwischen einer Anfangspose und einer Endpose
DE102010023736B4 (de) Robotersystem mit Problemerkennungsfunktion
DE112013003388B4 (de) Kollisionsprüfvorrichtung und Numeriksteuervorrichtung
DE102017128757A1 (de) Schleifvorrichtung
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102014015364A1 (de) Befestigungsvorrichtung, robotersystem und befestigungsverfahren zum befestigen mehrerer befestigungsteile
DE102020100803B4 (de) Folgeroboter und Roboterarbeitssystem
DE102019212452A1 (de) Interferenzvermeidungsvorrichtung und Robotersystem
DE102019118637B4 (de) Automatische pfadgenerierungsvorrichtung
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
DE102014117346B4 (de) Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur
EP2952988A1 (de) Verfahren zur Berechnung einer optimierten Trajektorie
DE102018117829A1 (de) Steuereinheit für Gelenkroboter
DE102010007025A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE102020208830A1 (de) Schussbehandlungsvorrichtung und Schussbehandlungsverfahren
DE102015104582A1 (de) Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens
EP3221094A1 (de) Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs
DE102018114445B4 (de) Vorrichtung und Verfahren zur Einschätzung einer Position des Schwerpunkts eines Roboters
EP2216697B1 (de) Werkzeugmaschine und Verfahren zur Vermeidung einer Kollision bei einer Werkzeugmaschine
DE102017116788B4 (de) Roboter-Steuerungsvorrichtung und Verfahren zur Steuerung derselben

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final