DE102018129292B4 - Handprogrammiergerät und Robotersteuersystem - Google Patents

Handprogrammiergerät und Robotersteuersystem Download PDF

Info

Publication number
DE102018129292B4
DE102018129292B4 DE102018129292.9A DE102018129292A DE102018129292B4 DE 102018129292 B4 DE102018129292 B4 DE 102018129292B4 DE 102018129292 A DE102018129292 A DE 102018129292A DE 102018129292 B4 DE102018129292 B4 DE 102018129292B4
Authority
DE
Germany
Prior art keywords
camera
image
robot
workpiece
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102018129292.9A
Other languages
English (en)
Other versions
DE102018129292A1 (de
Inventor
Norimitsu Uemura
Masaaki Uematsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018129292A1 publication Critical patent/DE102018129292A1/de
Application granted granted Critical
Publication of DE102018129292B4 publication Critical patent/DE102018129292B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24162Biometric sensor, fingerprint as user access password
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36167Use camera of handheld device, pda, pendant, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39001Robot, manipulator control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Resistance Welding (AREA)

Abstract

Handprogrammiergerät (1) zum Anlernen eines Roboters, umfassend:eine Bedienungseinheit (10), die an einer ersten Fläche des Handprogrammiergeräts (1) angeordnet ist, um eine Eingabeoperation vorzunehmen;eine Anzeigeeinheit (20), die an der ersten Fläche angeordnet ist; undeine Kamera (30), die an einer zu der ersten Fläche entgegengesetzten zweiten Fläche des Handprogrammiergeräts (1) angeordnet ist, wobeiein Bild, das durch die Kamera aufgenommen wird, auf der Anzeigeeinheit (20) dargestellt wird, wobei das Handprogrammiergerät (1) ferner umfasst:eine Bildverarbeitungseinheit (11), die so ausgebildet ist, dass sie eine Position eines Teils eines Werkstücks, der durch die Kamera (30) als aufgenommenes Bild aufgenommen wurde, in einem Formmodell des Werkstücks auf Basis von Informationen hinsichtlich von Bearbeitungsstellen des Roboters an dem Werkstück und Informationen hinsichtlich des Formmodells des Werkstücks identifiziert, in dem aufgenommenen Bild Informationen hinsichtlich einer Bearbeitungsstelle, die sich in der Nähe einer in dem aufgenommenen Bild enthaltenen Bearbeitungsstelle befindet und außerhalb eines Bildausschnitts des aufgenommenen Bilds liegt, anzeigt, und in dem aufgenommenen Bild Informationen hinsichtlich einer Abweichung zwischen der Position einer tatsächlichen Bearbeitungsstellenspur, die in dem aufgenommenen Bild enthalten ist, und der Position einer Zielbearbeitungsstelle, die der tatsächlichen Bearbeitungsstellenspur entspricht, anzeigt.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Die vorliegende Erfindung betrifft ein Handprogrammiergerät für einen Roboter und ein Robotersteuersystem.
  • In der Verwendungsumgebung von Industrierobotern ist als Maßnahme im Hinblick auf Abweichungen bei Bearbeitungspositionen und Betriebspfaden der Roboter von vorab offline erzeugten Positionen durch Fehlern bei Einspannvorrichtungen und Werkstücken, Abweichungen bei der Positionsbeziehung zwischen einer Fertigungsstraße und einem Roboter, und dergleichen eine Korrekturtätigkeit an Produktionsstandorten unter Verwendung von Handprogrammiergeräten erforderlich. Als Technologie zur Verringerung der Belastungen für Betreiber bei der Tätigkeit des Anlernbetriebs ist eine Technologie bekannt, bei der ein Betriebsbefehl in einem Koordinatensystem des Körpers des Betreibers in einen Betriebsbefehl in einem Koordinatensystem zur Einstellung des Betriebs eines Roboters umgewandelt wird, bekannt (zum Beispiel die Japanische Patentoffenlegungsschrift (Kokai) JP 2009 ­ 119 579 A).
  • US 2015/0352718 A1 offenbart eine ein Programmierhandgerät benutzende Mehrfachroboter-Steuerungsvorrichtung und ein Steuerungsverfahren hierfür.
  • US 2002/0049510 A1 offenbart ein Fernarbeitsunterstützungssystem mit einer Fotografiervorrichtung zum Fotografieren einer Arbeitszielmaschine.
  • WO 2017/141475 A1 offenbart eine Technologie, mit der auf einfache und kostengünstige Weise eine bearbeitete Stelle an einem Karosseriebauteil ermittelt werden kann.
  • JP 2017-037434 A offenbart eine Markierungsverarbeitungseinheit, wobei ein Fernkommunikationssystem konfiguriert ist, ein von einem Bedienterminal fotografiertes Bild sowohl auf dem Bedienterminal als auch auf einem Anweisungsterminal anzuzeigen.
  • JP 2012-223859 A offenbart ein Schweiß-Robotersystem und eine tragbare Lehrbetriebs-Vorrichtung.
  • JP 2001-121458 A offenbart eine Robotersteuerungsvorrichtung zum Steuern eines Roboterkörpers, die durch Verbinden eines Programmierhandgeräts zum Durchführen eines manuellen Betriebs oder dergleichen mit einem Steuerungskörper über ein Datenübertragungskabel gebildet wird.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Doch an Standorten von Fertigungsstraßen werden Roboter manchmal in einer unbeleuchteten dunklen Umgebung verwendet. An einem solchen Standort muss ein Betreiber einen Korrekturbefehl unter Verwendung eines Handprogrammiergeräts ausgeben, während er eine visuelle Überprüfung einer Bearbeitungsposition oder eines Betriebspfads des Roboters vornimmt, was den Betreiber stark belastet und eine lange Bearbeitungszeit erforderlich macht. Zudem kann sich zum Beispiel die Bearbeitungsposition, abhängig von dem Werkstück, in einem Bereich befinden, den der Betreiber nicht visuell überprüfen kann, ohne hineinzublicken. In einem solchen Fall stellt das Ausgeben eines Korrekturbefehls unter Verwendung des Handprogrammiergeräts, während die Bearbeitungsposition visuell überprüft wird, eine starke Belastung für den Betreiber dar. In diesen Fällen wird auch eine Verringerung der Belastung durch die Tätigkeit der visuellen Überprüfung der Bearbeitungsposition und der Ausgabe des Korrekturbefehls gewünscht, um die Betriebsleistungsfähigkeit zu verbessern.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, die Belastung eines Betreibers bei der Tätigkeit zur Überprüfung und Korrektur von Bearbeitungspunkten zu verringern.
  • Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind in den abhängigen Patentansprüchen beschrieben.
  • Ein Gesichtspunkt der vorliegenden Offenbarung ist ein Handprogrammiergerät zum Anlernen eines Roboters. Das Handprogrammiergerät weist eine Bedienungseinheit, die an einer ersten Fläche des Handprogrammiergeräts angeordnet ist, um eine Eingabeoperation vorzunehmen; eine Anzeigeeinheit, die an der ersten Fläche angeordnet ist; und eine Kamera, die an einer zu der ersten Fläche entgegengesetzten zweiten Fläche des Handprogrammiergeräts angeordnet ist, auf. Bei diesem Aufbau wird ein Bild, das durch die Kamera aufgenommen wird, auf der Anzeigeeinheit dargestellt.
  • Ein anderer Gesichtspunkt der vorliegenden Offenbarung ist ein Robotersteuersystem, das das oben beschriebene Handprogrammiergerät, eine Robotersteuervorrichtung, die an das Handprogrammiergerät angeschlossen ist, und einen Roboter, der an die Robotersteuervorrichtung angeschlossen ist, aufweist. Der Roboter wird unter Steuerung durch die Robotersteuervorrichtung betrieben.
  • Figurenliste
  • Die Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung einer Ausführungsform in Verbindung mit den beiliegenden Zeichnungen offensichtlicher werden. In den Zeichnungen
    • ist 1 eine Vorderansicht eines Handprogrammiergeräts nach einer Ausführungsform;
    • ist 2 ein schematisches Diagramm des von einer Seite her gesehenen Handprogrammiergeräts von 1;
    • ist 3 ein Blockdiagramm, des den gesamten Aufbau eines Robotersteuersystems zeigt;
    • ist 4 eine Zeichnung, die ein Beispiel für den Hardwareaufbau des Handprogrammiergeräts von 1 zeigt;
    • ist 5 ein Ablaufdiagramm, das den Betrieb zum Korrigieren einer Punktschweißstelle zeigt;
    • ist 6 eine Zeichnung, die ein erstes Beispiel für ein Bild zum Unterstützen eines Betreibers bei einer Schweißstellenüberprüfungs- und Korrekturtätigkeit zeigt;
    • ist 7 eine Zeichnung, die ein zweites Beispiel für ein Bild zur Unterstützung des Betreibers bei der Schweißstellenüberprüfungs- und Korrekturtätigkeit zeigt;
    • ist 8 eine Zeichnung, die ein Beispiel für den Aufbau eines Handprogrammiergeräts mit einer Kamera an seiner Vorderfläche zeigt; und
    • ist 9 eine Referenzzeichnung, die den Aufbau eines Handprogrammiergeräts zeigt, an dem eine Kamera-Schnittstelle eingerichtet ist, woran eine externe Kamera angebracht ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Unter Bezugnahme auf die beiliegenden Zeichnungen wird nachstehend eine Ausführungsform der vorliegenden Offenbarung ausführlich beschrieben werden. In allen Zeichnungen sind entsprechende Komponenten mit gleichen Bezugszeichen bezeichnet. Zur Erleichterung des Verständnisses sind die Maßstäbe der Zeichnungen passend abgeändert. Die Ausführungsform, die in den Zeichnungen gezeigt ist, ist lediglich ein Beispiel für die Ausführung der vorliegenden Erfindung, und die vorliegende Erfindung ist nicht auf die Ausführungsform beschränkt.
  • 1 ist eine Vorderansicht eines Handprogrammiergeräts 1 nach dieser Ausführungsform. Wie in 1 gezeigt weist das Handprogrammiergerät 1 eine Bedienungseinheit 10, an der ein Betreiber verschiedene Arten von Eingabeoperationen vornimmt, und eine Flüssigkristallanzeige (LCD) 20 zum Darstellen von Grafiken auf. Der Betreiber kann durch Betätigen der Bedienungseinheit 10 verschiedene Arten von Eingabeoperationen wie etwa das Bestimmen eines Lernpunkts vornehmen. Wenn die Oberfläche mit der Bedienungseinheit 10 und der LCD 20 als Vorderfläche definiert wird, weist das Handprogrammiergerät 1 nach dieser Ausführungsform an einer Rückfläche eine Kamera 30 auf. Die Kamera 30 kann so ausgebildet sein, dass sie eine Beleuchtungsfunktion zum Beleuchten eines Objekts und eine Zoomfunktion aufweist.
  • 2 ist ein schematisches Diagramm des von einer Seite her gesehenen Handprogrammiergeräts 1 und zeigt die Position der an der Rückfläche angeordneten Kamera 30. Wie in 2 gezeigt kann die Kamera 30 ein Objekt S an der Seite der Rückfläche des Handprogrammiergeräts 1 abbilden. Ein durch die Kamera 30 aufgenommenes Bild wird an der LCD 20 dargestellt. Die Kamera 30 ist an der Rückfläche des Handprogrammiergeräts 1 an einer oberen Position angeordnet. Da die Bedienungseinheit 10 an der Vorderfläche des Handprogrammiergeräts 1 in einem unteren Abschnitt angeordnet ist, blockiert die Hand des Betreibers das Sichtfeld der Kamera 30 nicht, wenn der Betreiber verschiedene Arten von Eingabeoperationen vornimmt, während er das Handprogrammiergerät 1 mit der Hand hält. Da die Kamera direkt hinter der LCD 20 angeordnet ist, stimmt das Sichtfeld der Kamera 30 beinahe mit dem Sichtfeld des Betreibers überein, wodurch die Bequemlichkeit für den Betreiber verbessert wird.
  • Das Handprogrammiergerät 1 wird typischerweise zum Beispiel für die Tätigkeit einer Korrektur der Schweißstelle eines Punktschweißroboters an einer Kraftfahrzeugfertigungsstraße verwendet. Da der Punktschweißroboter an der Kraftfahrzeugfertigungsstraße gewöhnlich in einer unbeleuchteten dunklen Umgebung verwendet wird, muss der Betreiber die Tätigkeit der Korrektur der Schweißstelle des Punktschweißroboters in der dunklen Umgebung vornehmen. Herkömmlich überprüft der Betreiber bei der Tätigkeit der Korrektur der Schweißstelle des Punktschweißroboters in einer solchen Umgebung eine Schweißstelle direkt und visuell, und gibt er einen Korrekturbefehl ein. Im Gegensatz dazu gestattet die Verwendung des Handprogrammiergeräts 1 nach dieser Ausführungsform dem Betreiber, eine Schweißstelle eines Werkstücks und ihre Umgebung als leicht zu erkennendes Bild an der LCD 20 darzustellen und dadurch an dem Bild zu überprüfen, ob die Schweißstelle korrekt ist oder nicht. Daher kann der Betreiber die Schweißstelle unter einer verringerten Belastung verlässlicher überprüfen und korrigieren. Das Punktschweißen wird häufig in einem Bereich eines Werkstücks vorgenommen, an den der Kopf einer Person nur schwer gelangt. Doch nach dieser Ausführungsform kann der Betreiber das Handprogrammiergerät selbst in einem solchen Fall in die Nähe des Bereichs, an den der Kopf einer Person nur schwer gelangt, bringen, während er das Handprogrammiergerät 1 mit der Hand hält. Daher werden das Bild der Schweißstelle und ihrer Umgebung an dem Handprogrammiergerät 1 dargestellt und kann der Betreiber die Schweißstelle dadurch verlässlich überprüfen.
  • 3 ist ein Blockdiagram, das den gesamten Aufbau eines Robotersteuersystems 100 zeigt, welches den Punktschweißroboter und dergleichen an der oben beschriebenen Fertigungsstraße steuert. Wie in 3 gezeigt sind in dem Robotersteuersystem 100 ein Roboter 10 und das Handprogrammiergerät 1 an eine Robotersteuervorrichtung 50 angeschlossen. In der Robotersteuervorrichtung 50 sind verschiedene Arten von Daten einschließlich eines Roboterprogramms zum Steuern des Betriebs des Roboters 70, Werkstückformdaten, und dergleichen in einer Speichervorrichtung gespeichert. Der Roboter 70 wird durch Ausführen des Roboterprogramms gesteuert. Verschiedene Arten von Handlungslehrdaten wie etwa eine Schweißstellenposition und dergleichen, die von dem Handprogrammiergerät 1 eingegeben werden, werden an die Robotersteuervorrichtung 50 gesendet und in der Steuerung des Roboters 70 widergespiegelt. Die Robotersteuervorrichtung 50 kann durch einen Computer gebildet sein, der eine CPU, Speichervorrichtungen wie einen ROM, einen RAM, und eine Festplatte, eine Kommunikations-Schnittstelle, und dergleichen aufweist.
  • 4 ist eine Zeichnung, die ein Beispiel für den Hardwareaufbau des Handprogrammiergeräts 1 zeigt. Wie in 4 gezeigt umfasst das Handprogrammiergerät 1 eine CPU 11, einen ROM 12, einen RAM 13, einen Flash-Speicher 14, einen PCMCIA-Socket 15 auf Basis von PCMCIA(Personal Computer Memory Card International Association)-Standards zum Einsetzen einer IC-Karte 15a, eine Flüssigkristallanzeige(LCD)-Schnittstelle 16, eine Touchpanel-Schnittstelle 17, eine Kommunikations-Schnittstelle 18 zum Anschluss an die Robotersteuervorrichtung 50, und eine Bedienungseinheits-Schnittstelle 19, die jeweils durch einen Bus 21 verbunden sind. Das Handprogrammiergerät 1 umfasst ferner die LCD 20, die an die LCD-Schnittstelle 16 angeschlossen ist, ein Touchpanel 20a, das an einer Anzeigefläche der LCD 20 angebracht ist und an die Touchpanel-Schnittstelle 17 angeschlossen ist, und die Bedienungseinheit 10, die an die Bedienungseinheits-Schnittstelle 19 angeschlossen ist.
  • Darüber hinaus ist in dem Handprogrammiergerät 1 dieser Ausführungsform eine Kamera-Schnittstelle 31 an den Bus 21 angeschlossen. Die Kamera 30 ist an die Kamera-Schnittstelle 31 angeschlossen. Die Kamera 30 umfasst eine Kamerasteuereinheit 32, eine Bildaufnahmelinse 33 mit einer Zoomfunktion, einen Bildsensor 34 und eine Beleuchtungsvorrichtung 35 (z.B. eine LED-Leuchte). Die Bildaufnahmelinse 33 und der Bildsensor 34 sind an die Kamerasteuereinheit 32 angeschlossen und werden durch die Kamerasteuereinheit 32 gesteuert. Die Kamerasteuereinheit 32 steuert den Betrieb der Bildaufnahmelinse 33 und des Bildsensors 34 so, dass verschiedene Arten von Tätigkeiten wie etwa eine Autofokussierung, ein Zoomen, eine Echtzeitvideoaufnahme und eine statische Bildaufnahme durchgeführt werden. Bei dieser Ausführung werden verschiedene Arten von Betriebsbefehlen (Betätigung der Kamera 30, Aufnehmen eines statischen Bilds, Zoomen, und dergleichen), die durch eine Betätigung durch den Betreiber an der Bedienungseinheit 10 für die Kamera 30 eingegeben werden, über die CPU 11 in die Kamerasteuereinheit 32 eingegeben und dadurch die Tätigkeiten, die den Betriebsfehlen entsprechen, ausgeführt.
  • Als nächstes wird unter Bezugnahme auf 5 ein Beispiel für den Ablauf einer Tätigkeit zur Korrektur einer Punktschweißstelle, wenn ein Schweißroboter als Roboter 70 in dem Robotersteuersystem 100 verwendet wird, beschrieben werden. 5 ist ein Ablaufdiagramm, das den Ablauf der Tätigkeit zur Korrektur der Punktschweißstelle zeigt. Wenn beispielsweise eine Kraftfahrzeugfertigungsstraße als Beispiel herangezogen wird, ist es dann, wenn sich ein neues Automodell auf der Fertigungsstraße befindet, aufgrund von Fehlern verschiedener Einspannvorrichtungen und Werkstücken und der Positionsbeziehung zwischen der Fertigungsstraße und dem Roboter nötig, Lehrkorrekturen an Schweißstellen und Lagen vorzunehmen. Wenn ein Motor oder ein Untersetzungsgetriebe ausgetauscht wird, ist es aufgrund einer Abweichung des Ursprungspunkts des Roboters ebenfalls nötig, Lehrkorrekturen an Schweißstellen und Lagen vorzunehmen. In solchen Fällen wird die Schweißstellenkorrekturtätigkeit von 5 durchgeführt.
  • Zuerst wird in Schritt S1 ein Programm, das Daten im Hinblick auf Schweißstellen und einen Betriebspfad, der auf Basis von Werkstückmodelldaten und dergleichen durch eine Simulation erzeugt wird, enthält, in die Robotersteuervorrichtung 50 geladen. Der Roboter 70 kann dadurch gemäß dem geladenen Programm betrieben werden. Als nächstes betreibt der Betreiber den Roboter 70 durch eine Bedienung an dem Handprogrammiergerät 1 mit einer äußerst geringen Geschwindigkeit und bewegt eine Punktschweißzange an die Position einer Schweißstelle. Der Betreiber überprüft, ob die Schweißstelle und die Lage der Punktschweißzange vor dem Schließen korrekt sind oder nicht. Falls nötigt reguliert der Betreiber die Position der Schweißstelle und die Lage unter Verwendung des Handprogrammiergeräts 1 (Schritt S2). In diesem Fall nimmt der Betreiber durch die Kamera 30 des Handprogrammiergeräts 1 ein Bild der Umgebung der Spitze der Punktschweißzange auf, und wird das Bild an der LCD 20 dargestellt, um die Überprüfung durchzuführen. Der Betreiber stellt wie erforderlich unter Verwendung der Zoomfunktion der Kamera 30 ein vergrößertes Bild der Umgebung der Spitze der Punktschweißzange dar oder nimmt unter Verwendung der Beleuchtungsfunktion ein helles Bild auf, wodurch der Betreiber die Schweißstelle und die Lage der Punktschweißzange mittels des leicht zu überprüfenden Bilds überprüfen kann. Was eine Schweißstelle in einem Bereich, den der Betreiber nicht visuell überprüfen kann, ohne hineinzublicken, betrifft, bringt der Betreiber das Handprogrammiergerät 1 in die Nähe der Schweißstelle, während er das Handprogrammiergerät 1 mit der Hand hält, und stellt er ein Bild des Schweißpunkts und seiner Umgebung an der LCD 20 dar. Dadurch ist es möglich, die Belastung für den Betreiber zu verringern.
  • Wenn die Überprüfung und Korrektur der Schweißstelle abgeschlossen ist, wird die Punktschweißzange geschlossen und wird ein Versuchsschweißen (Punktschweißen) durchgeführt (Schritt S3). Als nächstes wird das Werkstück (der Fahrzeugaufbau) aus der Fertigungsstraße entnommen, um die Qualität des Punkts zu überprüfen (Überprüfung hinsichtlich eines Abweichungsausmaßes und dergleichen) (Schritt S4). Wenn bei der Qualität ein Problem besteht (NEIN in Schritt S5) werden die Schritte ab der Schweißstellenkorrektur (Schritt S2) wiederholt. Wenn bei der Qualität kein Problem besteht (JA in Schritt S5), wird dieser Prozess beendet.
  • Durch den oben beschriebenen Schweißstellenkorrekturprozess unter Verwendung des Handprogrammiergeräts 1 kann der Betreiber die Schweißstelle und die Lage überprüfen und korrigieren, während er das leicht zu erkennende Bild, das an der LCD 20 dargestellt wird, betrachtet. Daher ist es möglich, die Belastung für den Betreiber bei der Schweißstellenkorrektur zu verringern, was eine Steigerung der Betriebsleistungsfähigkeit und eine Verringerung der Betriebszeit gestattet.
  • Als nächstes werden Informationen (nachstehend auch als Unterstützungsinformationen bezeichnet), die an der LCD 20 angezeigt werden sollen, um den Betreiber zu unterstützen, wenn der Betreiber die Schweißstelle und die Lage überprüft, beschrieben werden.
  • Ein erstes Beispiel für die Unterstützungsinformationen ist eine Orientierungsinformation, die angezeigt wird, wenn der Betreiber die Überprüfungs- und Korrekturschritte für einen Schweißpunkt (eine Schweißstelle) abgeschlossen hat, um eine andere Schweißstelle anzugeben, die sich in der Nähe der Schweißstelle befindet und als nächstes behandelt werden soll. Als ein Beispiel für die Orientierungshilfe wird ein Icon (ein Pfeil oder dergleichen), das die Richtung der Schweißstelle, die als nächstes behandelt werden soll, angibt (zum Beispiel eine Richtung, in die die Kamera 30 als nächstes gerichtet wird), angeführt. Zur Verwirklichung dieser Funktion wurden ein Roboterprogramm, das Schweißstellen und einen Betriebspfad des Roboters 70 enthält, und Werkstück(Fahrzeugaufbau)modelldaten vorab zum Beispiel in dem RAM 13 gespeichert. Beispielweise wird dann, wenn der Betreiber einen Betriebsmodus zur Darstellung der Unterstützungsinformationen bestimmt, indem er an der Bedienungseinheit 10 eine vorherbestimmte Betätigung vornimmt, ein zweidimensionales Bild eines Teils eines Werkstücks (eines Fahrzeugaufbaus), der durch die Kamera 30 aufgenommen und an der LCD 20 dargestellt wird, mit den Werkstück (Fahrzeugaufbau)modelldaten, die in dem Handprogrammiergerät 1 gespeichert sind, verglichen. Die Position des Anzeigebilds wird in einem Werkstückmodell identifiziert, und dadurch die Position einer Schweißstelle identifiziert. Als Bildverarbeitung zum Vergleichen des durch die Kamera 30 aufgenommenen zweidimensionalen Bilds mit den Werkstückmodelldaten und zum Identifizieren der Position des zweidimensionalen Bilds in dem Werkstückmodell kann eine auf diesem technischen Gebiet allgemein bekannte Bildvergleichstechnologie, bei der Merkmale (Kanten, Konturen, und dergleichen) aus jedem aus dem zweidimensionalen Bild und den Werkstückmodelldaten extrahiert werden, um den Vergleich durchzuführen, verwendet werden. Die Position der identifizierten Schweißstelle kann unter Verwendung eines Icons oder dergleichen auf eine überlagernde Weise in dem Anzeigebild dargestellt werden. Wenn der Betreiber zum Beispiel durch eine Berührungstätigkeit an dem Anzeigebild eine Schweißstelle, deren Korrektur abgeschlossen wurde, bestimmt, wird eine nicht korrigierte Schweißstelle, die der Schweißstelle am nächsten liegt (zum Beispiel eine nicht korrigierte Schweißstelle, die außerhalb eines Bildausschnitts (Frame) des Anzeigebilds liegt), als Schweißstelle, die als nächstes bearbeitet werden soll, identifiziert. In dem gegenwärtig dargestellten Bild wird eine Information zur Bestimmung der Position der nächsten Schweißstelle auf eine überlagernde Weise zum Beispiel als Pfeilicon dargestellt.
  • 6 zeigt ein Beispiel für die Anzeige einer Orientierungsinformation. In 6 ist eine Schweißstelle SP an einem Werkstück W eine Schweißstelle, deren Korrekturtätigkeit abgeschlossen ist. Wenn ein Benutzer die Schweißstelle SP durch eine Berührungstätigkeit als Schweißstelle, deren Korrekturtätigkeit abgeschlossen ist, bestimmt, wird ein Pfeilicon K, das die Richtung eines Schweißpunkts, der als nächstes bearbeitet werden soll (eines Schweißpunkts außerhalb eines Bildausschnitts des Anzeigebilds von 6) auf eine überlagernde Weise dargestellt. Dieser Betrieb wird durch ein Bildverarbeitungsprogramm, das durch die CPU 11 des Handprogrammiergeräts 1 ausgeführt wird, verwirklicht.
  • Als zweites Beispiel für die Unterstützungsinformationen wird eine Information hinsichtlich eines Abweichungsausmaßes zwischen einer tatsächlichen Punktschweißspurposition und einer Bezugspunktschweißposition (Zielbearbeitungsstelle) auf eine überlagernde Weise in einem Bild dargestellt. Zur Umsetzung dieser Funktion wurden wie im Fall des oben beschriebenen ersten Beispiels das Roboterprogramm, das die Schweißstellen und den Betriebspfad des Roboters 70 enthält, und die Werkstück(Fahrzeugaufbau)modelldaten vorab zum Beispiel in dem RAM 13 des Handprogrammiergeräts 1 gespeichert. Wenn ein Betreiber durch Vornehmen einer vorherbestimmten Betätigung an der Bedienungseinheit 10 diesen Betriebsmodus bestimmt, wird ein zweidimensionales Bild eines Teils eines Werkstücks (eines Fahrzeugaufbaus), der durch die Kamera 30 aufgenommen wird und an der LCD 20 dargestellt wird, mit den Werkstück(Fahrzeugaufbau)modelldaten, die in dem Handprogrammiergerät 1 gespeichert sind, verglichen. Die Position des Anzeigebilds wird in einem Werkstückmodell identifiziert und dadurch die Position einer Schweißstelle in dem Anzeigebild identifiziert. Darüber hinaus wird durch Analysieren des Anzeigebilds die Position der tatsächlichen Punktschweißspur identifiziert. Eine Information hinsichtlich des Abweichungsausmaßes zwischen der tatsächlichen Punktschweißspurposition (in 7 durch das Bezugszeichen 301 angegeben) und der Referenzpunktposition (in 7 durch das Bezugszeichen angegeben) wird auf eine überlagernde Weise an dem Anzeigebild dargestellt (in Figur „ABWEICHUNGSAUSMASS = 1 mm“). 7 ist ein Beispiel für eine Anzeigebildschirmdarstellung bei dem obigen Betrieb. In 7 gibt das Bezugszeichen 301 die tatsächliche Punktschweißposition an, und gibt das Bezugszeichen 401 ein Icon an, das an der eigentlichen Punktschweißposition dargestellt wird. Eine Information 410 hinsichtlich der Abweichung zwischen der tatsächlichen Punktschweißposition und der eigentlichen Punktschweißposition 401 wird auf eine überlagernde Weise an dem Anzeigebild dargestellt. Das wie oben beschriebene Anzeigen des Bilds zur Unterstützung der Tätigkeit zur Überprüfung und Korrektur der Schweißposition durch den Betreiber gestattet eine weitere Verbesserung der Effizienz der Schweißstellenkorrekturtätigkeit. Der obige Betrieb kann durch ein Bildverarbeitungsprogramm, das durch die CPU 11 des Handprogrammiergeräts 1 ausgeführt wird, verwirklicht werden.
  • Im Vorhergehenden wurde eine Ausführungsform der vorliegenden Erfindung beschrieben, doch ist für Fachleute offensichtlich, dass die vorliegende Erfindung verschiedenartig verbessert oder abgewandelt werden kann, ohne von dem Umfang der nachstehend beschriebenen Ansprüche abzuweichen.
  • Das Handprogrammiergerät 1 nach der obigen Ausführungsform weist die Kamera an seiner Rückfläche auf, doch ist vorstellbar, dass zusätzlich zu der Kamera 30 an der Rückfläche auch eine Kamera an der Vorderfläche bereitgestellt werden kann. 8 ist eine Vorderansicht eines Handprogrammiergeräts 1A, das zusätzlich zu der Kamera 30 an der Rückfläche eine Kamera 130 an der Vorderfläche aufweist. Die Kamera 130 an der Vorderfläche kann zum Beispiel für eine Gesichtsauthentifizierung eines Betreibers verwendet werden. Dieser Aufbau kann die Sicherheitsleistung verbessern. Als Gesichtsauthentifizierungsprozess kann zum Beispiel eine allgemeine Technik auf diesem Gebiet, bei der Merkmale (eine Kontur, die Positionsbeziehung von Augen und der Nase, und dergleichen) in einem Bild des Gesichts des Betreibers unter Bildern, die durch die Kamera 130 aufgenommen wurden, mit einer Bilddatenbank verglichen werden, um eine Person zu identifizieren, verwendet werden. Dieser Gesichtsauthentifizierungsprozess kann als Programm ausgebildet sein, das durch die CPU 11 des Handprogrammiergeräts 1 ausgeführt wird.
  • Zur Lösung der Aufgabe dieser Offenbarung können die folgenden verschiedenen Gesichtspunkte und ihre Wirkungen bereitgestellt werden. In der folgenden Beschreibung der Gesichtspunkte entsprechen Zahlen in Klammern den Bezugszeichen der Zeichnungen der vorliegenden Offenbarung.
  • Zum Beispiel beinhaltet ein erster Gesichtspunkt der vorliegenden Offenbarung ein Handprogrammiergerät (1) zum Anlernen eines Roboters. Das Handprogrammiergerät (1) weist eine Bedienungseinheit (10), die an einer ersten Fläche des Handprogrammiergeräts angeordnet ist, um eine Eingabeoperation vorzunehmen, eine Anzeigeeinheit (20), die an der ersten Fläche angeordnet, ist, und eine Kamera (30) auf, die an einer zu der ersten Fläche entgegengesetzten zweiten Fläche des Handprogrammiergeräts (1) angeordnet ist. Ein Bild, das durch die Kamera (30) aufgenommen wird, wird an der Anzeigeeinheit (20) dargestellt.
  • Nach dem ersten Gesichtspunkt kann die Belastung eines Betreibers bei der Tätigkeit der Überprüfung und Korrektur von Bearbeitungspunkten verringert werden.
  • Nach einem zweiten Gesichtspunkt der vorliegenden Offenbarung ist bei dem Handprogrammiergerät des ersten Gesichtspunkts die Bedienungseinheit (10) in einem Betriebszustand des Handprogrammiergeräts (1) an einer unteren Seite der ersten Fläche angeordnet und die Kamera (30) ist in dem Betriebszustand an einer oberen Seite der zweiten Fläche angeordnet.
  • Nach einem dritten Gesichtspunkt der vorliegenden Offenbarung weist die Kamera (30) bei dem Handprogrammiergerät des ersten oder zweiten Gesichtspunkts eine Zoomfunktion auf.
  • Nach einem vierten Gesichtspunkt der vorliegenden Offenbarung weist die Kamera (30) bei einem aus dem ersten bis dritten Gesichtspunkt eine Beleuchtungsfunktion auf.
  • Nach einem fünften Gesichtspunkt der vorliegenden Offenbarung weist das Handprogrammiergerät nach einem aus dem ersten bis vierten Gesichtspunkt ferner eine der ersten Fläche zugeordnete Kamera (130) (Erste-Oberfläche-Kamera), die an der ersten Fläche angeordnet ist. Die der ersten Fläche zugeordnete Kamera (130) wird für eine Gesichtsauthentifizierung des Betreibers verwendet.
  • Nach einem sechsten Gesichtspunkt der vorliegenden Offenbarung weist das Handprogrammiergerät des fünften Gesichtspunkts ferner eine Gesichtsauthentifizierungsverarbeitungseinheit (11) auf, die so ausgebildet ist, dass sie auf Basis eines Bilds, das durch die der ersten Seite zugeordnete Kamera (130) aufgenommen wird, einen Gesichtsauthentifizierungsprozess durchführt.
  • Nach einem siebenten Gesichtspunkt der vorliegenden Offenbarung weist das Handprogrammiergerät (1) nach einem aus dem ersten bis sechsten Gesichtspunkt ferner eine Bildverarbeitungseinheit (11) auf, die so ausgebildet ist, dass sie eine Position eines Teils eines Werkstücks, der durch die Kamera (30) als aufgenommenes Bild aufgenommen wurde, in einem Formmodell des Werkstücks auf Basis von Informationen hinsichtlich von Bearbeitungsstellen des Roboters an dem Werkstück und Informationen hinsichtlich des Formmodells des Werkstücks identifiziert, und in dem aufgenommenen Bild Informationen hinsichtlich einer Bearbeitungsstelle, die sich in der Nähe einer in dem aufgenommenen Bild enthaltenen Bearbeitungsstelle befindet und außerhalb eines Bildausschnitts (Frame) des aufgenommenen Bilds liegt, anzeigt.
  • Nach einem achten Gesichtspunkt der vorliegenden Offenbarung weist das Handprogrammiergerät (1) nach einem aus dem ersten bis sechsten Gesichtspunkt ferner eine Bildverarbeitungseinheit (11) auf, die so ausgebildet ist, dass sie eine Position eines Teils eines Werkstücks, der durch die Kamera (30) als aufgenommenes Bild aufgenommen wurde, in einem Formmodell des Werkstücks auf Basis von Informationen hinsichtlich von Bearbeitungsstellen des Roboters an dem Werkstück und Informationen hinsichtlich des Formmodells des Werkstücks identifiziert, und in dem aufgenommenen Bild Informationen hinsichtlich der Abweichung zwischen der Position einer tatsächlichen Bearbeitungsstellenspur, die in dem aufgenommenen Bild enthalten ist, und der Position einer Zielbearbeitungsstelle, die der tatsächlichen Bearbeitungsstellenspur entspricht, anzeigt.
  • Ein neunter Gesichtspunkt der vorliegenden Offenbarung ist ein Robotersteuersystem (100), das das Handprogrammiergerät (1) nach einem aus dem ersten bis achten Gesichtspunkt, eine Robotersteuervorrichtung (50), die an das Handprogrammiergerät (1) angeschlossen ist, und einen Roboter (70) aufweist, der an die Robotersteuervorrichtung (50) angeschlossen ist. Der Roboter (70) wird unter Steuerung durch die Robotersteuervorrichtung (50) betrieben.
  • Als nächstes wird ein Aufbaubeispiel für ein Handprogrammiergerät, das eine Kamera-Schnittstelle zum Anschluss einer externen Kamera aufweist, als Referenzbeispiel beschrieben werden, obwohl das Handprogrammiergerät nicht die vorliegende Erfindung verkörpert. 9 ist eine Vorderansicht, die den Aufbau eines Handprogrammiergeräts 1B zeigt. Wie in 9 gezeigt weist das Handprogrammiergerät 1B eine Kamera-Schnittstelle 231 auf. An die Kamera-Schnittstelle 231 ist eine externe Kamera 250 angeschlossen. Die externe Kamera 251 ist so ausgebildet, dass sie an einer Rückflächenseite des Handprogrammiergeräts 1B zum Beispiel ein Videobild aufnimmt. Durch diese Ausführung können die gleichen Wirkungen wie bei der obigen Ausführungsform erzielt werden.

Claims (7)

  1. Handprogrammiergerät (1) zum Anlernen eines Roboters, umfassend: eine Bedienungseinheit (10), die an einer ersten Fläche des Handprogrammiergeräts (1) angeordnet ist, um eine Eingabeoperation vorzunehmen; eine Anzeigeeinheit (20), die an der ersten Fläche angeordnet ist; und eine Kamera (30), die an einer zu der ersten Fläche entgegengesetzten zweiten Fläche des Handprogrammiergeräts (1) angeordnet ist, wobei ein Bild, das durch die Kamera aufgenommen wird, auf der Anzeigeeinheit (20) dargestellt wird, wobei das Handprogrammiergerät (1) ferner umfasst: eine Bildverarbeitungseinheit (11), die so ausgebildet ist, dass sie eine Position eines Teils eines Werkstücks, der durch die Kamera (30) als aufgenommenes Bild aufgenommen wurde, in einem Formmodell des Werkstücks auf Basis von Informationen hinsichtlich von Bearbeitungsstellen des Roboters an dem Werkstück und Informationen hinsichtlich des Formmodells des Werkstücks identifiziert, in dem aufgenommenen Bild Informationen hinsichtlich einer Bearbeitungsstelle, die sich in der Nähe einer in dem aufgenommenen Bild enthaltenen Bearbeitungsstelle befindet und außerhalb eines Bildausschnitts des aufgenommenen Bilds liegt, anzeigt, und in dem aufgenommenen Bild Informationen hinsichtlich einer Abweichung zwischen der Position einer tatsächlichen Bearbeitungsstellenspur, die in dem aufgenommenen Bild enthalten ist, und der Position einer Zielbearbeitungsstelle, die der tatsächlichen Bearbeitungsstellenspur entspricht, anzeigt.
  2. Handprogrammiergerät (1) nach Anspruch 1, wobei die Bedienungseinheit (10) in einem Betriebszustand des Handprogrammiergeräts (1) an einer unteren Seite der ersten Fläche angeordnet ist, und die Kamera (30) in dem Betriebszustand an einer oberen Seite der zweiten Fläche angeordnet ist.
  3. Handprogrammiergerät (1) nach Anspruch 1 oder 2, wobei die Kamera (30) eine Zoomfunktion aufweist.
  4. Handprogrammiergerät (1) nach einem der Ansprüche 1 bis 3, wobei die Kamera (30) eine Beleuchtungsfunktion aufweist.
  5. Handprogrammiergerät (1) nach einem der Ansprüche 1 bis 4, ferner umfassend eine der ersten Fläche zugeordneten Kamera (130), die an der ersten Fläche angeordnet ist.
  6. Handprogrammiergerät (1) nach Anspruch 5, ferner umfassend eine Gesichtsauthentifizierungsverarbeitungseinheit (11), die so ausgebildet ist, dass sie auf Basis eines Bilds, das durch die der ersten Fläche zugeordnete Kamera (130) aufgenommen wird, einen Gesichtsauthentifizierungsprozess durchführt.
  7. Robotersteuersystem (100), umfassend: das Handprogrammiergerät (1) nach einem der Ansprüche 1 bis 6; eine Robotersteuervorrichtung (50), die an das Handprogrammiergerät (1) angeschlossen ist; und einen Roboter (70), der an die Robotersteuervorrichtung (50) angeschlossen ist, wobei der Roboter (70) unter Steuerung durch die Robotersteuervorrichtung (50) betrieben wird.
DE102018129292.9A 2017-11-28 2018-11-21 Handprogrammiergerät und Robotersteuersystem Active DE102018129292B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017227509A JP6669714B2 (ja) 2017-11-28 2017-11-28 教示操作盤およびロボット制御システム
JP2017-227509 2017-11-28

Publications (2)

Publication Number Publication Date
DE102018129292A1 DE102018129292A1 (de) 2019-05-29
DE102018129292B4 true DE102018129292B4 (de) 2022-04-28

Family

ID=66442559

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018129292.9A Active DE102018129292B4 (de) 2017-11-28 2018-11-21 Handprogrammiergerät und Robotersteuersystem

Country Status (4)

Country Link
US (1) US10766135B2 (de)
JP (1) JP6669714B2 (de)
CN (1) CN109834697B (de)
DE (1) DE102018129292B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190126490A1 (en) * 2017-10-26 2019-05-02 Ca, Inc. Command and control interface for collaborative robotics
JP1623072S (de) * 2018-01-16 2019-01-28
JP7441047B2 (ja) * 2020-01-10 2024-02-29 三菱重工業株式会社 経路生成装置、制御装置、検査システム、経路生成方法およびプログラム
TWI757108B (zh) * 2021-03-03 2022-03-01 所羅門股份有限公司 操作路徑產生方法及系統
CN113414482B (zh) * 2021-06-15 2023-05-16 中国第一汽车股份有限公司 一种检测机器人点焊电极位置补偿功能的装置和方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121458A (ja) 1999-10-22 2001-05-08 Denso Corp ロボットコントローラ
US20020049510A1 (en) 2000-10-25 2002-04-25 Takahiro Oda Remote work supporting system
JP2009119579A (ja) 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法
JP2012223859A (ja) 2011-04-20 2012-11-15 Daihen Corp 溶接ロボットシステム及び可搬式教示操作装置
US20150352718A1 (en) 2013-02-12 2015-12-10 Ajinextek Co., Ltd. Controller for multiple robot using wireless teaching pendant and method for controlling thereof
JP2017037434A (ja) 2015-08-07 2017-02-16 シャープ株式会社 マーク処理装置、プログラム
WO2017141475A1 (ja) 2016-02-16 2017-08-24 トヨタ車体株式会社 車体部品の施工部位判定システム及び施工部位判定方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064759A (en) * 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
JP2010025615A (ja) * 2008-07-16 2010-02-04 Central Motor Co Ltd 自動スポット溶接検査システム
JP5813931B2 (ja) * 2010-07-15 2015-11-17 ユタカ電機株式会社 教示データの修正システム
JP5067768B2 (ja) * 2010-08-04 2012-11-07 株式会社スプリング プログラム作成支援システム、及び、そのコンピュータプログラム
JP5729404B2 (ja) * 2013-02-21 2015-06-03 株式会社安川電機 ティーチングシステムおよびティーチング方法
CN104635651A (zh) * 2013-11-13 2015-05-20 沈阳新松机器人自动化股份有限公司 一种多功能编程示教盒
US10032008B2 (en) * 2014-02-23 2018-07-24 Qualcomm Incorporated Trust broker authentication method for mobile devices
US20150242605A1 (en) * 2014-02-23 2015-08-27 Qualcomm Incorporated Continuous authentication with a mobile device
JP6420229B2 (ja) * 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2018012188A (ja) * 2016-06-03 2018-01-25 ファナック アメリカ コーポレイション 複数のロボットによる動的レーザタッチセンシング及び動的ユーザ座標系
WO2018050307A1 (en) * 2016-09-13 2018-03-22 Abb Schweiz Ag Method of programming an industrial robot
US10556347B2 (en) * 2016-11-01 2020-02-11 Brachium, Inc. Vision guided robot path programming
JP6549644B2 (ja) * 2017-06-27 2019-07-24 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法
EP3492214B1 (de) * 2017-12-01 2020-09-23 Shanghai Evertec Robot Technology Co., Ltd. Verfahren zu automatischen fahrzeugkarosserieschweisspunktinspektion und -steuerung

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001121458A (ja) 1999-10-22 2001-05-08 Denso Corp ロボットコントローラ
US20020049510A1 (en) 2000-10-25 2002-04-25 Takahiro Oda Remote work supporting system
JP2009119579A (ja) 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法
JP2012223859A (ja) 2011-04-20 2012-11-15 Daihen Corp 溶接ロボットシステム及び可搬式教示操作装置
US20150352718A1 (en) 2013-02-12 2015-12-10 Ajinextek Co., Ltd. Controller for multiple robot using wireless teaching pendant and method for controlling thereof
JP2017037434A (ja) 2015-08-07 2017-02-16 シャープ株式会社 マーク処理装置、プログラム
WO2017141475A1 (ja) 2016-02-16 2017-08-24 トヨタ車体株式会社 車体部品の施工部位判定システム及び施工部位判定方法

Also Published As

Publication number Publication date
DE102018129292A1 (de) 2019-05-29
US10766135B2 (en) 2020-09-08
US20190160655A1 (en) 2019-05-30
JP6669714B2 (ja) 2020-03-18
CN109834697B (zh) 2021-01-19
CN109834697A (zh) 2019-06-04
JP2019093535A (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
DE102018129292B4 (de) Handprogrammiergerät und Robotersteuersystem
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE102018009815B4 (de) Bildgebungsvorrichtung umfassend einen Sichtsensor zum Erfassen des Bildes eines Werkstücks
DE112010000794B4 (de) Verfahren zum Steuern eines Roboterwerkzeuges
DE102018009025B4 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102019006800A1 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
EP2418555B1 (de) Verfahren zur Offline-Programmierung eines NC-gesteuerten Manipulators
DE102017011251B4 (de) Robotersteuerung mit Funktion, die ein Lernen vereinfacht, und Robotersteuerverfahren
DE102017211641B4 (de) Roboter-Schwerpunktanzeigevorrichtung, Roboter-Steuerungsvorrichtung und Roboter-Simulationsvorrichtung
DE102014117346B4 (de) Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur
DE102006039356A1 (de) Verfahren zum Steuern eines Karosserierohbau-Laserschweißsystems und Karosserierohbau-Laserschweißsystem
EP3324362B1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
DE102014219831A1 (de) Anzeigevorrichtung
DE102019114070A1 (de) Robotersystem zum montieren von komponenten und steuerverfahren dafür
DE102018106812A1 (de) Interaktives Greifsystem
DE112021004399T5 (de) Roboterprogrammiervorrichtung und Roboterprogrammierverfahren
EP3584041A1 (de) Verfahren zum verbinden von bauteilen
EP1302828A2 (de) Verfahren und Programmsteuersystem zur Steuerung einer Beschichtungsanlage
DE102016103055A1 (de) Verfahren zum Bearbeiten eines Werkstücks
DE102018004326B4 (de) Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks
EP3168701A1 (de) Verfahren zur darstellung der bearbeitung in einer werkzeugmaschine
DE102019006748A1 (de) Roboterlehrvorrichtung, roboterlehrverfahren und verfahren zumspeichern einer betriebsanweisung
DE112021007154T5 (de) Vorrichtung zur einstellung von sicherheitsparametern, lehrvorrichtung und -verfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final