DE102015000587B4 - Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks - Google Patents

Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks Download PDF

Info

Publication number
DE102015000587B4
DE102015000587B4 DE102015000587.1A DE102015000587A DE102015000587B4 DE 102015000587 B4 DE102015000587 B4 DE 102015000587B4 DE 102015000587 A DE102015000587 A DE 102015000587A DE 102015000587 B4 DE102015000587 B4 DE 102015000587B4
Authority
DE
Germany
Prior art keywords
image
image capture
target portion
capture device
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015000587.1A
Other languages
English (en)
Other versions
DE102015000587A1 (de
Inventor
Hiroyuki Atohira
Yoshiharu Nagatsuka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102015000587A1 publication Critical patent/DE102015000587A1/de
Application granted granted Critical
Publication of DE102015000587B4 publication Critical patent/DE102015000587B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39397Map image error directly to robot movement, position with relation to world, base not needed, image based visual servoing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

Roboterprogrammiervorrichtung (10) zum Erstellen eines Roboterprogramms, das einem Roboter (100) gelehrt werden soll, der dazu verwendet wird, ein Werkstück (60) zu bearbeiten, das in einem Arbeitsraum angeordnet ist, wobei die Roboterprogrammiervorrichtung (10) Folgendes umfasst:eine virtuelle Raumerzeugungseinheit (12), die eingerichtet ist, um eine virtuellen Raum zu erzeugen, der den Arbeitsraum in drei Dimensionen wiedergibt;eine Zielabschnittsbezeichnungseinheit (14), die eingerichtet ist, um eine Zielabschnitt (X) zu bezeichnen, dessen Bild von einem Bilderfassungsgerät (50) aufgenommen werden soll, auf einem Modell des Werkstücks (60), das in dem virtuellen Raum angeordnet ist;eine Positionsbestimmungseinheit (20), die eingerichtet ist, um:- mindestens eine Position des Bilderfassungsgeräts (50) zum Aufnehmen des Bilds des Zielabschnitts (X) durch das Bilderfassungsgerät (50) in dem virtuellen Raum zu bestimmen, und- die mindestens eine Position des Bilderfassungsgeräts (50) zu bestimmen, in der das Bilderfassungsgerät (50) eine vorher bestimmte Positionsbeziehung in Bezug auf den Zielabschnitt (X) hat;eine Positionsspeichereinheit (22), die eingerichtet ist, um die mindestens eine Position des Bilderfassungsgeräts (50) zu speichern, die von der Positionsbestimmungseinheit (20) bestimmt wurde;eine Bilderfassungsprogrammerstellungseinheit (24), die eingerichtet ist, um ein Bilderfassungsprogramm zu erstellen, das dem Roboter (100) gelehrt werden soll, so dass das Bilderfassungsgerät (50) das Bild des Zielabschnitts (X) gemäß der mindestens einen Position des Bilderfassungsgeräts (50) aufnimmt, die in der Positionsspeichereinheit (22) gespeichert wurde; undeine Bearbeitungsprogrammerstellungseinheit (26), die eingerichtet ist, um ein Bearbeitungsprogramm zum Bearbeiten des Werkstücks (60) auf der Basis einer Form des Zielabschnitts (X) zu erstellen, die durch Simulieren des Bilderfassungsprogramms in dem virtuellen Raum erhalten wurde,wobei das Bilderfassungsprogramm einen Lehrinhalt zum Lehren des Bilderfassungsgeräts (50) umfasst, das so fixiert ist, dass es eine vorher bestimmte Positionsbeziehung, die von der Positionsbestimmungseinheit (20) bestimmt wurde, in Bezug auf das Werkstück (60) hat, das an einer vorher bestimmten Position fixiert ist, so dass das Bilderfassungsgerät (50) das Bild des Zielabschnitts (X) des Werkstücks aufnimmt.

Description

  • Allgemeiner Stand der Technik
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms, das einem Roboter gelehrt werden soll, der zum Bearbeiten eines Werkstücks verwendet wird.
  • Beschreibung des Standes der Technik
  • Es ist eine Struktur für ein Robotersystem, das zum Bearbeiten eines Werkstücks verwendet wird, bekannt, die mit einem Bilderfassungsgerät zum Aufnehmen eines Bilds eines Abschnitts des Werkstücks, das verarbeitet werden soll, versehen ist. Da sich die Formen von Werkstücken abhängig von individuellen Formen unterscheiden, wird ein Werkstückbearbeitungsprogramm korrigiert, in dem ein Bild eines zu bearbeitenden Abschnitts unter Verwendung eines Bilderfassungsgeräts aufgenommen und das erhaltene Bild verarbeitet wird. JP H06-328 385 A , JP 2002-086 376 A , JP 2003-191 194 A , JP 2007-160 486 A und JP 2009-303 013 A offenbaren verschiedene Techniken zum Bestimmen einer Position und einer Stellung eines optischen Sensors, um ein Zielobjekt zu erkennen.
  • JP H06-328 385 A offenbart ein Stellungskontrollverfahren zum Kontrollieren einer Stellung eines optischen Sensors, so dass eine Position eines zu schweißenden Zielabschnitts erkannt werden kann. In dieser Technik wird die Stellung des optischen Sensors in jedem Abtastzyklus kontrolliert, so dass ein Erkennungsziel stets in der Mitte eines Sichtfelds des optischen Sensors angeordnet ist, selbst wenn sich ein Werkzeug bewegt.
  • JP 2002-086 376 A offenbart ein Führungsverfahren zum Führen eines optischen Sensors, der an einer Spitze einer Hand eines Manipulators angebracht ist, zu einem zu erkennenden Zielobjekt. In dieser Technik wird eine Position zum Führen des Sensors auf der Basis einer ungefähren Position des Zielobjekts und einer Entfernung zwischen einer vorher bestimmten Position zum Führen des Sensors und dem Zielobjekt bestimmt.
  • JP 2003-191 194 A offenbart das Korrigieren der Position zum Führen eines optischen Sensors in der in JP2002-086 376 A offenbarten Technik gemäß einem bezeichneten Versatz, um ein Hindernis zu vermeiden, das um die Position zum Führen des optischen Sensors herum positioniert ist.
  • JP 2007-160 486 A offenbart eine Offline-Programmiervorrichtung, die zum automatischen Erstellen eines Messprogramms zum Aufnehmen eines Bilds eines Bezugspunkts eines Werkstücks unter Verwendung eines optischen Sensors konfiguriert ist.
  • JP 2009-303 013 A offenbart ein Bilderfassungsrichtungsbestimmungsprogramm zum Bestimmen einer Bildaufnahmerichtung eines Bilderfassungsgeräts, das dazu konfiguriert ist, ein Bild eines Umgebungszielobjekts aufzunehmen, um eine aktuelle Position eines beweglichen Roboters zu schätzen, der dazu konfiguriert ist, sich zu einem vorher bestimmten Zielpunkt zu bewegen.
  • In den herkömmlichen Techniken ist es erforderlich, eine Position des Bilderfassungsgeräts zu bestimmen, das dazu verwendet wird, ein Bild des aufzunehmenden Zielabschnitts aufzunehmen. Die Bestimmung der Position des Bilderfassungsgeräts benötigt gewöhnlich jedoch viel Zeit und Arbeit, wodurch die Arbeitseffizienz verringert wird. Folglich bestand Bedarf daran, die Position eines Bilderfassungsgeräts effizient innerhalb eines kurzen Zeitraums zu bestimmen, wenn das Bilderfassungsgerät ein Bild eines Zielabschnitts aufnimmt.
  • Die Druckschrift US 6 330 495 B1 offenbart eine Anzeigeverarbeitungsvorrichtung mit einer Anwendungsentscheidungseinrichtung, die verwendet wird, um ein Lernen einer Lernanwendung entsprechend einem Robotermodell aus einer Vielzahl von angezeigten Robotermodellen zu beginnen, das ausgewiesen wird, indem eine Koordinateneingabevorrichtung verwendet wird, um einen Lernvorgang auf der Grundlage des ausgewiesenen Robotermodells zu ermöglichen.
  • Die Druckschrift DE 10 2012 110 508 A1 offenbart ein Verfahren und eine Vorrichtung zur Anzeige von dreidimensionalen Daten einer Bearbeitungsstation, umfassend ein tragbares Programmiergerät, das mit 3D-Bearbeitungsstationsdaten versehen ist, die ein Modell einer Maschine und dazugehörige Komponenten in einer Bearbeitungsstation darstellen. Das tragbare Programmiergerät weist ein Display auf, das eine visuelle 3D-Darstellung der Bearbeitungsstationsdaten erzeugt. Das Programmiergerät kann von einem Benutzer zum Manipulieren der visuellen Darstellung bedient werden, um den Betrachtungspunkt eines Benutzers zu ändern und eine Bewegung der Maschine mit dazugehörigen Prozessinformationen darzustellen.
  • Die Druckschrift DE 103 49 361 A offenbart eine Verfahren zum genauen Positionieren zumindest eines Teils eines Handhabungsgeräts, in einem Zielpunkt, wobei eine Position des zu positionierenden Teils des Handhabungsgeräts mittels eines Inertialmesssystems bestimmt wird, und wobei im Referenzpunkt das zumindest in der Nähe des zu positionierenden Teils an dem Handhabungsgerät befindliche Inertialmesssystem während der Bewegung durch den Referenzpunkt kalibriert wird und während der Bewegung aus einer Abweichung der Position des Inertialmesssystems vom Zielpunkt eine Korrektur für die Bewegung des Handhabungsgeräts aufgrund der Kalibrierung am Referenzpunkt bestimmt und während der Bewegung auf diese angewendet wird.
  • Die Druckschrift DE 101 36 691 A1 offenbart ein Verfahren zum Kompensieren der Position eines Roboters unter Verwendung eines Laser-Messinstruments durch Bilden eines Ursprungskoordinatensystems; durch Strahlen von Laserstrahlen auf Reflektoren und durch Berechnen von Abständen zu den Reflektoren; durch Umwandeln des Ursprungskoordinatensystems zu einem gebildeten Koordinatensystem; durch Erzeugen von Koordinaten zu einem Ende einer unteren Spitze einer Schweißpistole; durch Berechnen einer Position und einer Stellung des Roboters; durch Belehren des Roboters über vier oder mehrere Stellungen; durch Hochladen von Positionskoordinaten des Roboters und von Roboter-Lehrprogrammdaten zu einem Hauptcomputer; durch Bestimmen, ob ein Fehler zwischen CAD-Daten und durch eine Simulation modellierten Daten kleiner als ein vorbestimmter Wert ist; durch Überarbeiten der Daten, wenn sie es nicht sind, oder durch Beenden einer Kompensation von Positionen der Schweißpistole, des Roboters und der Vorrichtungen, wenn sie es sind; und durch Herunterladen des Roboter-Lehrprogramms zu einer Robotersteuerung.
  • Kurzdarstellung der Erfindung
  • Gemäß der Erfindung wird eine Vorrichtung gemäß dem unabhängigen Anspruch bereitgestellt. Entwicklungen sind in den abhängigen Ansprüchen dargelegt.
  • Gemäß einem ersten Beispiel wird vorzugsweise eine Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms, das einem Roboter gelehrt werden soll, der dazu verwendet wird, ein Werkstück zu bearbeiten, das in einem Arbeitsraum angeordnet ist, bereitgestellt, wobei die Roboterprogrammiervorrichtung Folgendes umfasst: eine virtuelle Raumerzeugungseinheit zum Erzeugen eines virtuellen Raums, der den Arbeitsraum in drei Dimensionen wiedergibt; eine Zielabschnittsbezeichnungseinheit zum Bezeichnen eines Zielabschnitts, dessen Bild von einem Bilderfassungsgerät aufgenommen werden soll, auf einem Modell des Werkstücks, das in dem virtuellen Raum angeordnet ist; eine Positionsbestimmungseinheit zum Bestimmen mindestens einer Position des Bilderfassungsgeräts zum Aufnehmen des Bilds des Zielabschnitts durch das Bilderfassungsgerät in dem virtuellen Raum; eine Positionsspeichereinheit zum Speichern der mindestens einen Position des Bilderfassungsgeräts, die von der Positionsbestimmungseinheit bestimmt wurde; und eine Bilderfassungsprogrammerstellungseinheit zum Erstellen eines Bilderfassungsprogramms, das dem Roboter gelehrt werden soll, so dass das Bilderfassungsgerät das Bild des Zielabschnitts gemäß der mindestens einen Position des Bilderfassungsgeräts aufnimmt, die in der Positionsspeichereinheit gespeichert ist.
  • Gemäß einem zweiten Beispiel ist die Positionsbestimmungseinheit in der Roboterprogrammiervorrichtung gemäß dem ersten Beispiel vorzugsweise dazu konfiguriert, die mindestens eine Position des Bilderfassungsgeräts zu bestimmen, in der das Bilderfassungsgerät eine vorher bestimmte Positionsbeziehung in Bezug auf den Zielabschnitt hat.
  • Gemäß einem dritten Beispiel beinhaltet die Positionsbestimmungseinheit in der Roboterprogrammiervorrichtung gemäß dem zweiten Beispiel vorzugsweise eine Sichtfeldbezeichnungseinheit zum Bezeichnen eines Bereichs eines Sichtfelds des Bilderfassungsgeräts und ist dazu konfiguriert, die mindestens eine Position des Bilderfassungsgeräts, in der ein vollständiges Bild des Zielabschnitts aufgenommen werden kann, auf der Basis der vorher bestimmten Positionsbeziehung zwischen dem Bilderfassungsgerät und dem Zielabschnitt und des Bereichs des Sichtfelds zu bestimmen.
  • Gemäß einem vierten Beispiel beinhaltet die Roboterprogrammiervorrichtung des dritten Beispiels vorzugsweise weiterhin eine Beurteilungseinheit zum Beurteilen, ob das vollständige Bild des Zielabschnitts aufgenommen werden kann oder nicht, wenn das Bilderfassungsgerät in einer Position angeordnet ist, die von der Positionsbestimmungseinheit bestimmt wurde, und wobei die Positionsbestimmungseinheit dazu konfiguriert ist, eine zusätzliche Position des Bilderfassungsgeräts zu bestimmen, die sich von der einen Position unterscheidet, wenn die Beurteilungseinheit beurteilt, dass das vollständige Bild des Zielabschnitts nicht aufgenommen werden kann.
  • Gemäß einem fünften Beispiel ist die Positionsbestimmungseinheit in der Roboterprogrammiervorrichtung des vierten Beispieils vorzugsweise dazu konfiguriert, wenn mehrere Positionen des Bilderfassungsgeräts bestimmt werden, die mehreren Positionen des Bilderfassungsgeräts so zu bestimmen, dass das Bilderfassungsgerät in den jeweiligen Positionen, die aneinander angrenzen, Bereiche von Sichtfeldern hat, um sie einander über einen vorher bestimmten Bereich zu überlagern.
  • Gemäß einem sechsten Beispiel wird die vorher bestimmte Positionsbeziehung zwischen dem Bilderfassungsgerät und dem Zielabschnitt in einer Roboterprogrammiervorrichtung gemäß einem des zweiten bis fünften Beispiels vorzugsweise durch eine Entfernung zwischen dem Bilderfassungsgerät und dem Zielabschnitt bezeichnet.
  • Gemäß einem siebten Beispiel ist die Entfernung zwischen dem Bilderfassungsgerät und dem Zielabschnitt in der Roboterprogrammiervorrichtung gemäß dem sechsten Beispiel vorzugsweise eine Entfernung entlang einer Richtung, die senkrecht zu einer Fläche des Werkstücks ist, die den Zielabschnitt beinhaltet.
  • Gemäß einem achten Beispiel beinhaltet die Roboterprogrammiervorrichtung gemäß einem des ersten bis siebten Beispiels vorzugsweise weiterhin eine Bearbeitungsprogrammerstellungseinheit zum Erstellen eines Bearbeitungsprogramms zum Bearbeiten des Werkstücks auf der Basis einer Form des Zielabschnitts, die durch Simulieren des Bilderfassungsprogramms in dem virtuellen Raum erhalten wurde.
  • Gemäß einem neunten Beispiel beinhaltet die Roboterprogrammiervorrichtung gemäß einem des ersten bis achten Beispiels vorzugsweise weiterhin eine Bearbeitungsprogrammerstellungseinheit zum Erstellen eines Bearbeitungsprogramms zum Bearbeiten des Werkstücks auf der Basis eines Bilds des Zielabschnitts, das durch Ausführen des Bilderfassungsprogramms erhalten wurde.
  • Gemäß einem zehnten Beispiel ist der Zielabschnitt in der Roboterprogrammiervorrichtung gemäß einem des ersten bis neunten Beispiels vorzugsweise ein Punkt, eine Linie oder eine Ebene auf der Fläche des Werkstücks.
  • Gemäß einem elften Beispiel beinhaltet das Bilderfassungsprogramm in der Roboterprogrammiervorrichtung gemäß einem des ersten bis zehnten Beispiels vorzugsweise einen Lehrinhalt für den Roboter, der eine Position und eine Stellung von mindestens einem von dem Bilderfassungsgerät und dem Werkstück steuert.
  • Gemäß einem zwölften Beispiel beinhaltet das Bilderfassungsgerät in der Roboterprogrammiervorrichtung gemäß einem des ersten bis zehnten Beispiels vorzugsweise einen Lehrinhalt zum Lehren des Bilderfassungsgeräts, das so fixiert ist, dass es eine vorher bestimmte Positionsbeziehung, die von der Positionsbestimmungseinheit bestimmt wurde, in Bezug auf das Werkstück, das an einer vorher bestimmten Position fixiert ist, hat, so dass das Bilderfassungsgerät das Bild des Zielabschnitts des Werkstücks aufnimmt.
  • Diese und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden angesichts der ausführlichen Beschreibung von Ausführungsbeispielen der Erfindung, wie in den Zeichnungen dargestellt, offensichtlicher werden.
  • Figurenliste
    • 1 ist ein schematisches Diagramm, das einen Roboter, ein Werkstück und ein Bilderfassungsgerät, das an dem Roboter angebracht ist, darstellt, die in einem Arbeitsraum angeordnet sind;
    • 2 ist ein Funktionsblockdiagramm einer Roboterprogrammiervorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 3 ist ein Diagramm, das eine beispielhafte Anzeige eines Roboters, eines Bilderfassungsgeräts und eines Werkstücks darstellt, die in einem virtuellen Raum angeordnet sind;
    • 4A ist eine perspektivische Ansicht, die ein Beispiel eines Zielabschnitts des Werkstücks darstellt;
    • 4B ist eine perspektivische Ansicht, die ein anderes Beispiel des Zielabschnitts des Werkstücks darstellt;
    • 4C ist eine perspektivische Ansicht, die ein anderes Beispiel des Zielabschnitts des Werkstücks darstellt;
    • 5 ist ein konzeptionelles Diagramm, das ein Sichtfeld des Bilderfassungsgeräts darstellt;
    • 6A ist eine Veranschaulichung, die ein Beispiel einer Positionsbeziehung zwischen einer Sichtfeldregion des Bilderfassungsgeräts und dem Zielabschnitt darstellt;
    • 6B ist eine Veranschaulichung, die das Beispiel der Positionsbeziehung zwischen der Sichtfeldregion des Bilderfassungsgeräts und dem Zielabschnitt darstellt;
    • 7A ist eine Veranschaulichung, die ein anderes Beispiel der Positionsbeziehung zwischen der Sichtfeldregion des Bilderfassungsgeräts und dem Zielabschnitt darstellt;
    • 7B ist eine Veranschaulichung, die das Beispiel der Positionsbeziehung zwischen der Sichtfeldregion des Bilderfassungsgeräts und dem Zielabschnitt darstellt;
    • 8A ist ein Diagramm, das eine Überlagerungsregion darstellt, in der Sichtfeldregionen von Bilderfassungsgeräten, die in mehreren Positionen angeordnet sind, einander überlagern;
    • 8B ist ein Diagramm, das die Überlagerungsregion darstellt, in der die Sichtfeldregionen der Bilderfassungsgeräte, die in den mehreren Positionen angeordnet sind, einander überlagern;
    • 9A ist ein Diagramm zum Veranschaulichen eines Bestimmungsverfahrens zum Bestimmen von Positionen von mehreren Bilderfassungsgeräten gemäß einer Überlagerungsbedingung;
    • 9B ist ein Diagramm zum Veranschaulichen eines Bestimmungsverfahrens zum Bestimmen der Positionen der mehreren Bilderfassungsgeräte gemäß einer anderen Überlagerungsbedingung;
    • 10 ist ein Ablaufdiagramm, das einen Bearbeitungsablauf darstellt, der von der Roboterprogrammiervorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung ausgeführt wird;
    • 11 ist ein schematisches Diagramm, das einen Roboter, ein Bilderfassungsgerät und ein Werkstück darstellt, die in einem Arbeitsraum angeordnet sind;
    • 12 ist ein schematisches Diagramm, das einen Roboter, ein Bilderfassungsgerät und ein Werkstück darstellt, die in einem Arbeitsraum angeordnet sind;
    • 13 ist ein schematisches Diagramm, das einen Roboter, ein Bilderfassungsgerät und ein Werkstück darstellt, die in einem Arbeitsraum angeordnet sind; und
    • 14 ist ein schematisches Diagramm, das einen Roboter, ein Bilderfassungsgerät und ein Werkstück darstellt, die in einem Arbeitsraum angeordnet sind.
  • Ausführliche Beschreibung der Erfindung
  • Ausführungsbeispiele der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. Zum besseren Verständnis der vorliegenden Erfindung variiert der Maßstab von Bestandselementen der in den Zeichnungen dargestellten Ausführungsformen nach Bedarf.
  • 1 ist ein schematisches Diagramm, das einen Roboter 100, ein Werkstück 60 und ein Bilderfassungsgerät 50, das an dem Roboter 100 angebracht ist, darstellt, die in einem Arbeitsraum angeordnet sind. Der Roboter 100 beinhaltet ein Bearbeitungswerkzeug 104, das an einem Handgelenk 106 an einer Spitze eines Arms 102 angebracht ist. Der Roboter 100 wird gemäß einem Steuerprogramm betrieben, das von einem Steuergerät 110 gelehrt wurde, und ist dazu konfiguriert, eine Position und eine Stellung davon nach Bedarf ändern zu können. Das Steuergerät 110 beinhaltet ein Eingabemittel, wie eine Tastatur und eine Maus, und eine Speichereinheit zum Speichern verschiedener Daten und Programme. Darüber hinaus kann das Steuergerät 110 außerdem eine Anzeigeeinheit, wie ein LCD, beinhalten.
  • Das Bilderfassungsgerät 50 ist nahe dem Handgelenk 106 fixiert. Das Bilderfassungsgerät 50 ist beispielsweise ein optischer Sensor, der ein Bilderfassungselement beinhaltet, wie ein CCD. Das Bilderfassungsgerät 50 ist dazu eingerichtet, seine Position und seine Stellung in Verbindung mit der Bewegung des Roboters 100 zu ändern.
  • Das Werkstück 60 ist an einer Spannvorrichtung, wie einer Werkbank, die nahe dem Roboter 100 angeordnet ist, fixiert. Das Werkstück 60 ist beispielsweise ein im Wesentlichen plattenförmiges Element, das durch Zerspanen einer Fläche davon gebildet wird. Das in der Zeichnung dargestellte Werkstück 60 hat einen unteren Abschnitt 60a, der an der Spannvorrichtung 70 fixiert ist, und einen oberen Abschnitt 60b, der auf einer Seite hervorragt, die entgegengesetzt zu einer Fläche des unteren Abschnitts 60b in Kontakt mit der Spannvorrichtung 70 ist. Das Werkstück 60 ist innerhalb eines Bewegungsbereichs des Bearbeitungswerkzeugs 104 angeordnet, das an dem Handgelenk 106 des Roboters 100 angebracht ist, um beispielsweise eine Entgratungsverarbeitung auszuführen.
  • Das Bilderfassungsgerät 50 ist beispielsweise dazu verwendet, ein Bild eines Bearbeitungsabschnitts des Werkstücks 60 aufzunehmen, der von dem Bearbeitungswerkzeug 104 bearbeitet werden soll. Alternativ dazu kann das Bilderfassungsgerät 50 dazu verwendet werden, eine Position eines Lochs, das in dem Werkstück 60 ausgebildet ist, genau zu erkennen.
  • Gemäß der vorliegenden Ausführungsform wird der Roboter 100 gemäß einem Bilderfassungsprogramm gesteuert, um das Bilderfassungsgerät 50 in einer vorher bestimmten Position in Bezug auf einen Zielabschnitts des Werkstücks 60, dessen Bild aufgenommen werden soll, zu positionieren. Das Bilderfassungsprogramm wird von einer Roboterprogrammiervorrichtung 10 erstellt. Die Roboterprogrammiervorrichtung 10 kann in die Robotersteuervorrichtung 110 eingebunden sein oder kann getrennt von der Robotersteuervorrichtung 110 bereitgestellt werden.
  • 2 ist ein Funktionsblockdiagramm der Roboterprogrammiervorrichtung 110 gemäß einer Ausführungsform der vorliegenden Erfindung. Wie in der Zeichnung dargestellt, beinhaltet die Roboterprogrammiervorrichtung 10 eine virtuelle Raumerzeugungseinheit 12, eine Zielabschnittsbezeichnungseinheit 14, eine Sichtfeldbezeichnungseinheit 16, eine Beurteilungseinheit 18, eine Positionsbestimmungseinheit 20, eine Positionsspeichereinheit 22, eine Bilderfassungsprogrammerstellungseinheit 24 und eine Bearbeitungsprogrammerstellungseinheit 26.
  • Die virtuelle Raumerzeugungseinheit 12 hat eine Funktion zum Erzeugen eines virtuellen Raums, der einen Arbeitsraum in drei Dimensionen wiedergibt, beispielsweise wie in 1 dargestellt. Die virtuelle Raumerzeugungseinheit 12 ist dazu konfiguriert, ein Robotermodell (hierin im Folgenden einfach als „Roboter“ bezeichnet) 100, ein Bearbeitungswerkzeugmodell (hierin im Folgenden einfach als „Bearbeitungswerkzeug“ bezeichnet) 104, ein Bilderfassungsgerätemodell (hierin im Folgenden einfach als „Bilderfassungsgerät“ bezeichnet) 50 bzw. ein Werkstückmodell (hierin im Folgenden einfach als „Werkstück“ bezeichnet) 60 in dem virtuellen Raum gemäß einem vorher bestimmten Modell mit dreidimensionaler Form anzuordnen. Der von der virtuellen Raumerzeugungseinheit 12 erzeugte virtuelle Raum und die jeweiligen Modelle der Elemente, die in dem virtuellen Raum angeordnet sind, werden auf einer Anzeigeeinheit, wie einer LCD, die nicht gezeigt ist, angezeigt.
  • 3 stellt eine beispielhafte Anzeige dar, die den Roboter 100, das Bilderfassungsgerät 50 und das Werkstück 60 zeigt, die in dem virtuellen Raum angeordnet sind. Wenn nur die Absicht des Bestimmens einer Position des Bilderfassungsgeräts 50 in Bezug auf das Werkstück 60 in einem Bilderfassungsschritt berücksichtigt wird, werden der Roboter 100 und das Bearbeitungswerkzeug 104 möglicherweise nicht angezeigt. Elemente, bei denen es sich nicht um das Werkstück 60 handelt, können in vereinfachten Modellen anstelle der Modelle in dreidimensionaler Form angezeigt werden. Wenn beispielsweise das Bilderfassungsgerät 50 in dem virtuellen Raum angezeigt wird, können auch beliebige andere vereinfachte Modelle verwendet werden, solange die Position und eine Sichtlinienrichtung des Bilderfassungsgeräts 50 optisch erkannt werden können.
  • Die Zielabschnittsbezeichnungseinheit 14 hat eine Funktion zum Bezeichnen eines Zielabschnitts X, dessen Bild von dem Bilderfassungsgerät 50 aufgenommen werden soll, auf dem Werkstück 60 (siehe 3), das in dem virtuellen Raum angeordnet ist. Der Zielabschnitt X ist beispielsweise ein Punkt, eine Linie oder eine Ebene auf einer Fläche des Werkstücks 60. Ein Bediener kann den Zielabschnitt X beispielsweise durch Verwenden eines willkürlichen Eingabemittels bezeichnen, während er den virtuellen Raum, der auf der Anzeigeeinheit angezeigt wird, prüft.
  • Die 4A bis 4C sind perspektivische Diagramme, die Beispiele des Zielabschnitts X des Werkstücks 60 darstellen. 4 zeigt einen Zielabschnitt X1, der entlang einer Kante des oberen Abschnitts 60b des Werkstücks 60 durch dicke Linien definiert ist. Der Zielabschnitt X1 hat eine im Wesentlichen geschlossene Form, die einen Startpunkt Y1 und einen Endpunkt Y2 beinhaltet, die aneinander angrenzen. 4B zeigt einen Zielabschnitt X2, der an einer Ecke des oberen Abschnitts 60b des Werkstücks 60 durch einen schwarzen Punkt definiert ist. 4C zeigt einen Zielabschnitt X3, der an einer oberen Fläche des oberen Abschnitts 60b des Werkstücks 60 definiert ist, wobei der Zielabschnitt X3 durch Schraffierung angezeigt ist. Im Beispiel von 4C ist eine gesamte obere Fläche des Werkstücks 60 als der Zielabschnitt X bezeichnet. Der Zielabschnitt X kann jedoch über einen Teil der oberen Fläche bezeichnet sein.
  • Die Sichtfeldbezeichnungseinheit 16 hat eine Funktion zum Bezeichnen einer Sichtfeldregion VA des Bilderfassungsgeräts 50. 5 ist ein konzeptionelles Diagramm, das ein Sichtfeld V des Bilderfassungsgeräts 50 darstellt. Wie in 5 dargestellt, ist das Sichtfeld V in dem virtuellen Raum beispielsweise als ein Modell mit viereckiger Pyramidenform definiert, dessen Mittelachsenlinie eine Sichtlinie VO des Bilderfassungsgeräts 50 ist. Anstelle des viereckigen Pyramidenmodells kann ein Modell mit konischer oder zylindrischer Form verwendet werden. Die Sichtfeldregion VA zeigt einen Bereich des Sichtfelds V auf einer Ebene an, die beispielsweise durch eine Höhe H des Sichtfelds von dem Bilderfassungsgerät 50 entfernt ist und sich senkrecht zu der Sichtlinie VO erstreckt. Eine Größe der Sichtfeldregion VA wird beispielsweise durch Bezeichnen einer Größe einer ersten Seite S1 und einer Größe einer zweiten Seite S2, die sich in einer Richtung erstreckt, die senkrecht zu der ersten Seite S1 ist, bestimmt. Alternativ dazu kann eine Information, die eine Brennweite des Bilderfassungsgeräts 50, eine Größe (die Anzahl von Pixeln) eines aufzunehmenden Bilds und die Höhe H des Sichtfelds beinhaltet, eingegeben werden, um die Größe der Sichtfeldregion VA aus der Information zu berechnen.
  • Die Positionsbestimmungseinheit 20 hat eine Funktion zum Bestimmen einer Position des Bilderfassungsgeräts 50 zum Aufnehmen eines Bilds des Zielabschnitts X des Werkstücks 60 durch das Bilderfassungsgerät 50. Wenn beispielsweise eine durchgehende Linie als der Zielabschnitt X bezeichnet wird (siehe 4A), wird die Position des Bilderfassungsgeräts 50 so bestimmt, dass die Sichtfeldregion VA des Bilderfassungsgeräts 50 mit der oberen Fläche des oberen Abschnitts 60b des Werkstücks 60 bündig ist und eine Mitte der Sichtfeldregion VA mit dem Startpunkt des Zielabschnitts X (Bezugszeichen „Y1“ in 4A) zusammenfällt. Insbesondere bezieht die Positionsbestimmungseinheit 20 eine normale Linienrichtung in Bezug auf die Fläche des Werkstücks 60, die den Zielabschnitt X beinhaltet, aus einer Information zur Form des Werkstücks 60 und bestimmt eine Position, die durch die Höhe H des Sichtfelds von dem Startpunkt des Zielabschnitts X in der bezogenen normalen Linienrichtung entfernt ist, als die Position des Bilderfassungsgeräts.
  • Wenn der Zielabschnitt X ein Punkt ist (siehe 4B), wird die Position des Bilderfassungsgeräts 50 beispielsweise derart bestimmt, dass die Mitte der Sichtfeldregion VA mit dem Zielabschnitt X zusammenfällt. Wenn der Zielabschnitt X eine Ebene ist (siehe 4C), wird die Position des Bilderfassungsgeräts 50 beispielsweise derart bestimmt, dass die Mitte der Sichtfeldregion VA mit einer Mitte des Zielabschnitts X zusammenfällt. Auf diese Art und Weise ist die Positionsbestimmungseinheit 20 dazu konfiguriert, die Position des Bilderfassungsgeräts 50 in Bezug auf den Zielabschnitt X durch Bezeichnen der Entfernung zwischen dem Zielabschnitt X und dem Bilderfassungsgerät 50 bestimmen zu können.
  • Die Beurteilungseinheit 18 hat eine Funktion zum Beurteilen, ob das Bilderfassungsgerät 50 ein vollständiges Bild des Zielabschnitts X aufnehmen kann oder nicht, auf der Basis der Sichtfeldregion VA, die von der Sichtfeldbezeichnungseinheit 16 bezeichnet wurde, und der Position des Bilderfassungsgeräts 50, die von der Positionsbestimmungseinheit 20 bestimmt wurde. Wenn beispielsweise der Zielabschnitt des Werkstücks 60 eine Linie oder eine Ebene ist, wird der Zielabschnitt zu diesem Zweck in eine Gruppe von Punkten umgewandelt und die Beurteilungseinheit 18 führt die obige Beurteilungsverarbeitung auf der Basis dessen aus, ob jeder Punkt, der dem Zielabschnitt X entspricht, in dem Bereich der Sichtfeldregion VA enthalten ist oder nicht.
  • Die 6A und 6B sind Diagramme, die ein Beispiel einer Positionsbeziehung zwischen der Sichtfeldregion VA des Bilderfassungsgeräts 50 und dem Zielabschnitt X darstellen. Die 6A und 6B zeigen den Fall, in dem die Kante des Werkstücks 60 als der Zielabschnitt X bezeichnet ist, wie in 4A dargestellt. Das Bilderfassungsgerät 50 ist in einer derartigen Position angeordnet, dass die Mitte der Sichtfeldregion VA des Bilderfassungsgeräts 50 mit dem Startpunkt Y1 des Zielabschnitts X zusammenfällt, und dass das Bilderfassungsgerät 50 durch die Höhe H des Sichtfelds V von dem Startpunkt Y1 in der normalen Linienrichtung in Bezug auf die Fläche des Werkstücks 60 entfernt ist.
  • Wie aus 6B zu erkennen ist, ist der Zielabschnitt X von vier Seiten einer rechteckigen Form, die durch dicke Linien angezeigt wird, vollkommen in dem Bereich der Sichtfeldregion VA enthalten. Anders ausgedrückt, die Beurteilungseinheit 18 beurteilt, dass das Bilderfassungsgerät 50, das in dieser Position angeordnet ist, ein vollständiges Bild des Zielabschnitts X aufnehmen kann. Dementsprechend schließt die Positionsbestimmungseinheit 20 in diesem Fall einen Schritt des Bestimmens der Position des Bilderfassungsgeräts 50 ab und gibt die Position des Bilderfassungsgeräts 50, die zu diesem Zeitpunkt bestimmt wird, an die Positionsspeichereinheit 22 aus.
  • Die 7A und 7B sind Diagramme, die eine Positionsbeziehung zwischen der Sichtfeldregion VA des Bilderfassungsgeräts 50 und dem Zielabschnitt X darstellen. In diesem Fall, wie in 7B dargestellt, ist nur ein Teil des Zielabschnitts X in dem Bereich der Sichtfeldregion VA enthalten. Dementsprechend beurteilt die Beurteilungseinheit 18, dass das Bilderfassungsgerät 50 kein vollständiges Bild des Zielabschnitts X aufnehmen kann. In diesem Fall bestimmt die Positionsbestimmungseinheit 20 eine oder mehrere zusätzliche Positionen des Bilderfassungsgeräts 50. Anders ausgedrückt, das Bilderfassungsgerät 50 nimmt während eines Bilderfassungsschritts Bilder des Zielabschnitts X aus mehreren unterschiedlichen Positionen auf.
  • Die eine oder die mehreren zusätzlichen Positionen des Bilderfassungsgeräts 50 zum Aufnehmen von Bildern des Zielabschnitts X werden nacheinander von der Positionsbestimmungseinheit 20 beispielsweise gemäß einer Größe einer Überlagerungsregion Z bestimmt, in der die Sichtfeldregionen VA einander überlagern. Die 8A und 8B sind Diagramme, die die Überlagerungsregion Z der Sichtfeldregionen VA der Bilderfassungsgeräte 50, die in mehreren Positionen angeordnet sind, darstellen. Die 8A und 8B stellen ein Bilderfassungsgerät 501, das ein erstes Sichtfeld V1 aufweist und in einer ersten Position angeordnet ist, bzw. ein Bilderfassungsgerät 502, das ein zweites Sichtfeld V2 aufweist und in einer zweiten Position angeordnet ist, dar. Die Zeichnungen stellen außerdem eine Überlagerungsregion Z dar, in der eine Sichtfeldregion VA1 des ersten Sichtfelds V1 und eine Sichtfeldregion VA2 des zweiten Sichtfelds V2 einander überlagern.
  • Die Überlagerungsregion Z kann beispielsweise derart eingestellt sein, dass mindestens eine Größe Z1 in einer ersten Richtung und eine Größe Z2 in einer zweiten Richtung, die senkrecht zu der ersten Richtung ist, kleiner als ein vorher bestimmter Grenzwert ist, oder alternativ dazu derart, dass eine Region der Überlagerungsregion Z kleiner als ein vorher bestimmter Grenzwert wird. Anders ausgedrückt die Positionsbestimmungseinheit 20 bestimmt nacheinander eine oder mehrere zusätzliche Positionen des Bilderfassungsgeräts 50, die eine vorher bestimmte Überlagerungsbedingung erfüllt bzw. erfüllen, während die Größen Z1 und Z2 oder die Region der Überlagerungsregion Z mit einem entsprechenden Grenzwert verglichen werden.
  • Die 9A und 9B sind Diagramme zum Veranschaulichen eines Bestimmungsverfahrens zum Bestimmen der Positionen von mehreren Bilderfassungsgeräten 50 gemäß Überlagerungsbedingungen. In 9A sind eine Sichtfeldregion VA1 des Bilderfassungsgeräts 50, das in einer ersten Position angeordnet ist, und eine Sichtfeldregion VA2 des Bilderfassungsgeräts 50, das in einer zweiten Position angeordnet ist, jeweils durch unterbrochene Linien angezeigt. Die Überlagerungsregion Z, in der diese Sichtfeldregionen VA1 und VA2 einander überlagern, ist durch Schraffierung angezeigt.
  • Eine Mitte VC1 der ersten Sichtfeldregion VA fällt mit dem Startpunkt des Zielabschnitts X (Bezugszeichen „Y1“ von 4A) zusammen. Darüber hinaus ist eine Mitte VC2 der zweiten Sichtfeldregion VA1 auf einer Linie des Zielabschnitts X positioniert. Die Positionsbestimmungseinheit 20 berechnet eine Größe oder eine Region der Überlagerungsregion Z unter der Annahme, dass das Bilderfassungsgerät 50 sich von der Position, die der ersten Sichtfeldregion VA1 entspricht, zu der Position, die der zweiten Sichtfeldregion VA2 entspricht, bewegt, während die Mitte der Sichtfeldregion auf der Linie des Zielabschnitts X bleibt. Auf diese Weise kann beispielsweise eine Position, deren Größe Z2 der Überlagerungsregion Z kleiner als ein vorher bestimmter Grenzwert ist, d. h. eine Position, die der Sichtfeldregion VA2 entspricht, berechnet werden.
  • In 9B sind die Sichtfeldregion VA2 des Bilderfassungsgeräts 50, das in der zweiten Position angeordnet ist, und eine Sichtfeldregion VA3 des Bilderfassungsgeräts 50, das in einer dritten Position angeordnet ist, jeweils durch unterbrochene Linien angezeigt. Eine Mitte VC3 der Sichtfeldregion VA3 ist auf der Linie des Zielabschnitts X positioniert. Die Positionsbestimmungseinheit 20 berechnet eine Größe oder eine Region der Überlagerungsregion Z unter der Annahme, dass das Bilderfassungsgerät 50 derart bewegt wird, dass die Mitte der Sichtfeldregion sich entlang der Linie des Zielabschnitts X bewegt. Dann entspricht die Sichtfeldregion VA3 einer Position, in der beispielsweise die Größe Z1 der Überlagerungsregion kleiner als ein vorher bestimmter Grenzwert ist.
  • Die Positionsbestimmungseinheit 20 wiederholt den Positionsbestimmungsschritt, der unter Bezugnahme auf die 9A und 9B beschrieben wurde, um mehrere Positionen des Bilderfassungsgeräts 50 zu bestimmen, in denen das vollständige Bild des Zielabschnitts X aufgenommen werden kann. Dann werden die jeweiligen Positionen des Bilderfassungsgeräts 50 von der Positionsbestimmungseinheit 20 an die Positionsspeichereinheit 22 ausgegeben und darin gespeichert.
  • Die Bilderfassungsprogrammerstellungseinheit 24 hat eine Funktion zum Erstellen eines Bilderfassungsprogramms, das dem Roboter 100 gelehrt wird, gemäß Positionsinformationen des Bilderfassungsgeräts 50, die in der Positionsspeichereinheit 22 gespeichert sind. Anders ausgedrückt, das Bilderfassungsprogramm beinhaltet einen Lehrinhalt zum Positionieren des Bilderfassungsgeräts 50 in einer Position, in der das Bild des Zielabschnitts X aufgenommen werden kann, und zum Ausführen des Aufnehmens des Bilds des Zielabschnitts X.
  • Die Bearbeitungsprogrammerstellungseinheit 26 hat eine Funktion zum Erstellen eines Bearbeitungsprogramms zum Bearbeiten des Werkstücks 60. Die Bearbeitungsprogrammerstellungseinheit 26 erstellt ein Bearbeitungsprogramm zum Bearbeiten des Zielabschnitts X auf der Basis der Position des Zielabschnitts X, die infolge einer Simulation des Bilderfassungsprogramms in dem virtuellen Raum erhalten wurde. Alternativ dazu führt die Bearbeitungsprogrammerstellungseinheit 26 das Bilderfassungsprogramm in einem tatsächlichen Arbeitsraum aus und verarbeitet dann ein Bild des Zielabschnitts X, das infolge der Ausführung erhalten wurde, um ein Bearbeitungsprogramm zu erstellen. Das Bearbeitungsprogramm beinhaltet Inhalt zum Positionieren des Bearbeitungswerkzeugs 104 in einer Position, die dem Zielabschnitt X entspricht, und zum Ausführen der Bearbeitung.
  • 10 ist ein Ablaufdiagramm, das einen Bearbeitungsablauf darstellt, der von der Roboterprogrammiervorrichtung 10 gemäß einer Ausführungsform ausgeführt wird. Der Einfachheit der Beschreibung halber wird jeder Schritt in einer sequenziellen Reihenfolge beschrieben. Der Fachmann würde jedoch verstehen, dass die Reihenfolge der Schritte nicht auf die Reihenfolge in der Beschreibung eingeschränkt sein soll, und würde ebenfalls verstehen, dass einige der Schritte gleichzeitig parallel ausgeführt werden können.
  • Zunächst erzeugt eine virtuelle Raumerzeugungseinheit 12 in Schritt S1 einen virtuellen Raum. Darüber hinaus werden die Modelle der jeweiligen Elemente, die mindestens das dreidimensionale Modell des Werkstücks 60 beinhalten, in dem virtuellen Raum angeordnet (siehe 3).
  • In Schritt S2 bezeichnet die Zielabschnittsbezeichnungseinheit 14 den Zielabschnitt X, dessen Bild von dem Bilderfassungsgerät 50 aufgenommen werden soll, auf dem Modell des Werkstücks 60 in dem virtuellen Raum. Zu diesem Zeitpunkt wird der Zielabschnitt X beispielsweise in einem Werkstückkoordinatensystem, das für das Werkstück 60 definiert ist, bezeichnet. Als Nächstes wird in Schritt S3 eine Position des Zielabschnitts X in einem Bezugskoordinatensystem auf der Basis einer Positionsbeziehung zwischen dem Werkstückkoordinatensystem und dem Bezugskoordinatensystem und einer Position des Zielabschnitts X in dem Werkstückkoordinatensystem berechnet.
  • Des Weiteren bezeichnet die Sichtfeldbezeichnungseinheit 16 in Schritt S4 die Sichtfeldregion VA des Bilderfassungsgeräts 50. In Schritt S5 wird eine Positionsbeziehung zwischen dem Bilderfassungsgerät 50 und dem Zielabschnitt X bezeichnet. In den Schritten S4 und S5 bezeichnete Informationen werden beispielsweise von einem Bediener eingegeben und bei einer Berechnung verwendet, die von der Positionsbestimmungseinheit 20 ausgeführt wird. In einer alternativen Ausführungsform können die Sichtfeldregion VA und die Positionsbeziehung zwischen dem Bilderfassungsgerät 50 und dem Zielabschnitt X automatisch auf der Basis von Informationen, die spezifisch für das Bilderfassungsgerät 50 sind, beispielsweise Informationen wie Brennweite, eine Größe eines aufzunehmenden Bilds und eine Höhe des Sichtfelds, berechnet werden.
  • Als Nächstes bestimmt die Positionsbestimmungseinheit 20 in Schritt S6 eine Position des Bilderfassungsgeräts 50 zum Aufnehmen eines Bilds des Zielabschnitts X auf der Basis der Position des Zielabschnitts X, die in Schritt S3 berechnet wurde, der Sichtfeldregion VA, die in Schritt S4 bezeichnet wurde, und der Positionsbeziehung zwischen dem Bilderfassungsgerät 50 und dem Zielabschnitt X, die in Schritt S5 bezeichnet wurde.
  • Als Nächstes beurteilt die Beurteilungseinheit 18 in Schritt S7, ob ein vollständiges Bild des Zielabschnitts X von dem Bilderfassungsgerät 50, das in der in Schritt S6 bestimmten Position angeordnet ist, aufgenommen werden kann oder nicht.
  • Wenn in Schritt S7 bestimmt wird, dass das vollständige Bild des Zielabschnitts X nicht aufgenommen werden kann, fährt die Verarbeitung mit Schritt S8 fort, in dem die Positionsbestimmungseinheit 20 eine Position des Bilderfassungsgeräts 50 bestimmt, in der ein nächster Bilderfassungsschritt ausgeführt werden soll. Eine zusätzliche Position des Bilderfassungsgeräts 50, die in Schritt S8 bestimmt wird, ist beispielsweise eine Position, die einer vorher bestimmten Überlagerungsbedingung in Bezug auf die Sichtfeldregion VA des Bilderfassungsgeräts 50 in der letzten Position, wie oben beschrieben, genügt. Schritt S7 und der anschließende Schritt S8 werden wiederholt, bis in Schritt S7 beurteilt wird, dass das vollständige Bild des Zielabschnitts X aufgenommen werden kann.
  • Wenn andererseits in Schritt S7 beurteilt wird, dass das vollständige Bild des Zielabschnitts X aufgenommen werden kann, fährt die Verarbeitung mit Schritt S9 fort. In Schritt S9 speichert die Positionsspeichereinheit 22 die Position des Bilderfassungsgeräts 50, die in Schritt S6 und, sofern zutreffend, in Schritt S8 bestimmt wurde.
  • Als Nächstes erstellt die Bilderfassungsprogrammerstellungseinheit 24 in Schritt S10 ein Bilderfassungsprogramm für den Roboter 100 auf der Basis der Position des Bilderfassungsgeräts 50, die in Schritt S9 gespeichert wurde. Das erstellte Bilderfassungsprogramm wird an das Steuergerät 110 (1) zum Steuern des Roboters 100 gesendet. Wenn, wie beispielsweise in 1 dargestellt, das Bilderfassungsgerät 50 nahe dem Handgelenk 106 des Roboters 100 fixiert ist, positioniert der Roboter 100 das Bilderfassungsgerät 50 in einer Position, die von dem Bilderfassungsprogramm gelehrt wird.
  • Die 11 bis 14 sind schematische Diagramme, die einen Roboter 110, ein Bilderfassungsgerät 50 und ein Werkstück 60 darstellen, die in Arbeitsräumen in einer anderen beispielhaften Konfiguration angeordnet sind. Gemäß der in 11 dargestellten beispielhaften Konfiguration ist das Bilderfassungsgerät 50 an einer Spannvorrichtung 72 fixiert und das Werkstück 60 ist durch eine Spannvorrichtung 74 an dem Handgelenk 106 des Roboters 100 fixiert. In diesem Fall positioniert der Roboter 100 das Werkstück 60 in einer Position, die von dem Bilderfassungsprogramm gelehrt wurde, wodurch die Positionsbeziehung zwischen dem Werkstück 60 und dem Bilderfassungsgerät 50 erzielt wird, in der das Bild des Zielabschnitts X von dem Bilderfassungsgerät 50 aufgenommen werden kann.
  • Gemäß einer in 12 dargestellten beispielhaften Konfiguration ist das Bilderfassungsgerät 50 an dem Handgelenk 106 des Roboters 100 fixiert und das Werkstück 60 ist durch die Spannvorrichtung 74 an einem beweglichen Gerät 76 fixiert. Das bewegliche Gerät 76 ist ein willkürliches bewegliches Mittel, bei dem es sich nicht um den Roboter handelt und das mit einer beweglichen Mechanismuseinheit versehen ist, wie einer Kugelgewindespindel, die von beispielsweise einem oder zwei oder mehr Elektromotoren angetrieben wird. Das bewegliche Gerät 76 ist dazu eingerichtet, die Position und/oder die Stellung des Werkstücks 60 zu ändern. Alternativ dazu, obwohl nicht in der Zeichnung dargestellt, kann das Werkstück 60 an dem Handgelenkt 106 des Roboters fixiert sein und das Bilderfassungsgerät 50 kann an einem derartigen beweglichen Element fixiert sein. In beiden Fällen wird der Roboter 100 gemäß dem Lehrinhalt des Bilderfassungsprogramms gesteuert, wodurch die Positionsbeziehung zwischen dem Werkstück 60 und dem Bilderfassungsgerät erzielt wird, in der das Bilderfassungsgerät 50 das Bild des Zielabschnitts X des Werkstücks 60 aufnehmen kann.
  • Gemäß einer in 13 dargestellten beispielhaften Konfiguration sind das Bilderfassungsgerät 50 und das Werkstück 60 jeweils an Handgelenken 106 verschiedener Roboter 100 fixiert. In diesem Fall wird analog zu den anderen Beispielen mindestens einer der Roboter 100 gemäß dem Lehrinhalt des Bilderfassungsprogramms gesteuert, wodurch die Positionsbeziehung zwischen dem Werkstück 60 und dem Bilderfassungsgerät 50 erzielt wird, in der das Bilderfassungsgerät 50 das Bild des Zielabschnitts X des Werkstücks 60 aufnehmen kann.
  • Gemäß einer in 14 dargestellten beispielhaften Konfiguration ist das Bilderfassungsgerät 50 an der Spannvorrichtung 72 fixiert und das Werkstück 60 ist an der Spannvorrichtung 70 fixiert. In diesem Fall wird die Positionsbeziehung zwischen dem Bilderfassungsgerät 50 und dem Werkstück 60 aus einer Position des Bilderfassungsgeräts 50 zum Zeitpunkt der Bildaufnahme, die von der Positionsbestimmungseinheit 20 bestimmt wurde, erhalten. Auf der Basis der erhaltenen Positionsbeziehung kann eine Position oder eine Stellung der Spannvorrichtung 72, an der das Bilderfassungsgerät 50 fixiert ist, justiert werden. Dann wird das Bilderfassungsgerät 50 gemäß dem Bilderfassungsprogramm gestartet, um das Bild des Zielabschnitts X des Werkstücks 60 aufzunehmen.
  • Wirkung der Erfindung
  • Gemäß der Roboterprogrammiervorrichtung, die die obige Konfiguration beinhaltet, wird die Position des Bilderfassungsgeräts, wenn ein Bild des Zielabschnitts aufgenommen wird, in dem virtuellen Raum bestimmt und ein Bilderfassungsprogramm wird gemäß dem Ergebnis erstellt. Der Roboter führt den Bilderfassungsschritt gemäß dem gelehrten Bilderfassungsprogramm aus. Dementsprechend kann der Bediener die Position des Bilderfassungsgeräts zum Bilderfassungsschritt leicht bestimmen und kann folglich den Bilderfassungsschritt effizient ausführen.

Claims (9)

  1. Roboterprogrammiervorrichtung (10) zum Erstellen eines Roboterprogramms, das einem Roboter (100) gelehrt werden soll, der dazu verwendet wird, ein Werkstück (60) zu bearbeiten, das in einem Arbeitsraum angeordnet ist, wobei die Roboterprogrammiervorrichtung (10) Folgendes umfasst: eine virtuelle Raumerzeugungseinheit (12), die eingerichtet ist, um eine virtuellen Raum zu erzeugen, der den Arbeitsraum in drei Dimensionen wiedergibt; eine Zielabschnittsbezeichnungseinheit (14), die eingerichtet ist, um eine Zielabschnitt (X) zu bezeichnen, dessen Bild von einem Bilderfassungsgerät (50) aufgenommen werden soll, auf einem Modell des Werkstücks (60), das in dem virtuellen Raum angeordnet ist; eine Positionsbestimmungseinheit (20), die eingerichtet ist, um: - mindestens eine Position des Bilderfassungsgeräts (50) zum Aufnehmen des Bilds des Zielabschnitts (X) durch das Bilderfassungsgerät (50) in dem virtuellen Raum zu bestimmen, und - die mindestens eine Position des Bilderfassungsgeräts (50) zu bestimmen, in der das Bilderfassungsgerät (50) eine vorher bestimmte Positionsbeziehung in Bezug auf den Zielabschnitt (X) hat; eine Positionsspeichereinheit (22), die eingerichtet ist, um die mindestens eine Position des Bilderfassungsgeräts (50) zu speichern, die von der Positionsbestimmungseinheit (20) bestimmt wurde; eine Bilderfassungsprogrammerstellungseinheit (24), die eingerichtet ist, um ein Bilderfassungsprogramm zu erstellen, das dem Roboter (100) gelehrt werden soll, so dass das Bilderfassungsgerät (50) das Bild des Zielabschnitts (X) gemäß der mindestens einen Position des Bilderfassungsgeräts (50) aufnimmt, die in der Positionsspeichereinheit (22) gespeichert wurde; und eine Bearbeitungsprogrammerstellungseinheit (26), die eingerichtet ist, um ein Bearbeitungsprogramm zum Bearbeiten des Werkstücks (60) auf der Basis einer Form des Zielabschnitts (X) zu erstellen, die durch Simulieren des Bilderfassungsprogramms in dem virtuellen Raum erhalten wurde, wobei das Bilderfassungsprogramm einen Lehrinhalt zum Lehren des Bilderfassungsgeräts (50) umfasst, das so fixiert ist, dass es eine vorher bestimmte Positionsbeziehung, die von der Positionsbestimmungseinheit (20) bestimmt wurde, in Bezug auf das Werkstück (60) hat, das an einer vorher bestimmten Position fixiert ist, so dass das Bilderfassungsgerät (50) das Bild des Zielabschnitts (X) des Werkstücks aufnimmt.
  2. Roboterprogrammiervorrichtung (10) nach Anspruch 1 wobei die Positionsbestimmungseinheit (20) eine Sichtfeldbezeichnungseinheit (16) umfasst und die eingerichtet ist, um: - einen Bereich (VA) eines Sichtfelds des Bilderfassungsgeräts (50) zu bezeichnet, und - die mindestens eine Position des Bilderfassungsgeräts (50), in der ein vollständiges Bild des Zielabschnitts (X) aufgenommen werden kann, auf der Basis der vorher bestimmten Positionsbeziehung zwischen dem Bilderfassungsgerät (50) und dem Zielabschnitt (X) und dem Bereich (VA) des Sichtfelds zu bestimmen.
  3. Roboterprogrammiervorrichtung (10) nach Anspruch 2, die weiterhin eine Beurteilungseinheit (18) umfasst, die eingerichtet ist, um zu beurteilen, ob das vollständige Bild des Zielabschnitts (X) aufgenommen werden kann oder nicht, wenn das Bilderfassungsgerät (50) in einer Position angeordnet ist, die von der Positionsbestimmungseinheit (20) bestimmt wurde, und wobei die Positionsbestimmungseinheit (20) dazu eingerichtet ist, eine zusätzliche Position des Bilderfassungsgeräts (50) zu bestimmen, die sich von der einen Position unterscheidet, wenn die Beurteilungseinheit (18) beurteilt, dass das vollständige Bild des Zielabschnitts (X) nicht aufgenommen werden kann.
  4. Roboterprogrammiervorrichtung (10) nach Anspruch 3, wobei die Positionsbestimmungseinheit (20) dazu eingerichtet ist, wenn mehrere Positionen des Bilderfassungsgeräts (50) bestimmt werden, die mehreren Positionen des Bilderfassungsgeräts (50) so zu bestimmen, dass das Bilderfassungsgerät (50) in den jeweiligen Positionen, die aneinander angrenzen, Bereiche (VA) von Sichtfeldern hat, um sie einander über einen vorher bestimmten Bereich zu überlagern.
  5. Roboterprogrammiervorrichtung (10) nach einem der Ansprüche 1 bis 4, wobei die vorher bestimmte Positionsbeziehung zwischen dem Bilderfassungsgerät (50) und dem Zielabschnitt (X) durch eine Entfernung zwischen dem Bilderfassungsgerät (50) und dem Zielabschnitt (X) bezeichnet wird.
  6. Roboterprogrammiervorrichtung (10) nach Anspruch 5, wobei die Entfernung zwischen dem Bilderfassungsgerät (60) und dem Zielabschnitt (X) eine Entfernung entlang einer Richtung ist, die senkrecht zu einer Fläche des Werkstücks (60) ist, die den Zielabschnitt (X) beinhaltet.
  7. Roboterprogrammiervorrichtung (10) nach einem der Ansprüche 1 bis 6, die weiterhin eine Bearbeitungsprogrammerstellungseinheit (26) umfasst, die eingerichtet ist, um ein Bearbeitungsprogramm zum Bearbeiten des Werkstücks (60) auf der Basis eines Bilds des Zielabschnitts (X) zu erstellen, das durch Ausführen des Bilderfassungsprogramms erhalten wurde.
  8. Roboterprogrammiervorrichtung (10) nach einem der Ansprüche 1 bis 7, wobei der Zielabschnitt (X) ein Punkt (X2), eine Linie (X1) oder eine Ebene (X3) auf der Fläche des Werkstücks (60) ist.
  9. Roboterprogrammiervorrichtung (10) nach einem der Ansprüche 1 bis 8, wobei das Bilderfassungsprogramm einen Lehrinhalt für den Roboter (100), der eine Position und eine Stellung von mindestens einem von dem Bilderfassungsgerät (50) und dem Werkstück (60) steuert, beinhaltet.
DE102015000587.1A 2014-01-24 2015-01-16 Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks Active DE102015000587B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-011419 2014-01-24
JP2014011419A JP5850958B2 (ja) 2014-01-24 2014-01-24 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置

Publications (2)

Publication Number Publication Date
DE102015000587A1 DE102015000587A1 (de) 2015-07-30
DE102015000587B4 true DE102015000587B4 (de) 2018-09-27

Family

ID=53523035

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015000587.1A Active DE102015000587B4 (de) 2014-01-24 2015-01-16 Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks

Country Status (4)

Country Link
US (1) US9352467B2 (de)
JP (1) JP5850958B2 (de)
CN (1) CN104802186B (de)
DE (1) DE102015000587B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020104362A1 (de) 2020-02-19 2021-08-19 Franka Emika Gmbh Bahnplanung für einen Robotermanipulator mittels Kamerabild

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015119806A1 (de) * 2015-11-16 2017-05-18 Grob-Werke Gmbh & Co. Kg Verfahren zur Darstellung der Bearbeitung in einer Werkzeugmaschine
JP6370821B2 (ja) 2016-02-12 2018-08-08 ファナック株式会社 ロボットプログラムの教示を行うロボットプログラミング装置
JP6348141B2 (ja) * 2016-04-28 2018-06-27 ファナック株式会社 付加軸の状態が含まれる動作プログラムを表示するロボットの制御装置
JP6815924B2 (ja) * 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
JP6571723B2 (ja) 2017-07-11 2019-09-04 ファナック株式会社 動作プログラムを生成するプログラミング装置、及びプログラム生成方法
DE102017011252A1 (de) * 2017-12-06 2019-06-06 Kuka Deutschland Gmbh Verfahren und System zur Bauteilbearbeitung durch Roboter
DE102018113122A1 (de) * 2018-06-01 2019-12-05 Mack Rides Gmbh & Co Kg Verfahren zum Facettieren sowie Vorrichtung für ein solches Verfahren
JP7233858B2 (ja) * 2018-06-13 2023-03-07 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
DE102018124671B4 (de) * 2018-10-06 2020-11-26 Bystronic Laser Ag Verfahren und Vorrichtung zur Erstellung eines Robotersteuerprogramms
JP7376268B2 (ja) * 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
JP2021146437A (ja) * 2020-03-18 2021-09-27 株式会社東芝 制御装置、検査システム、制御方法、プログラム、及び記憶媒体
US20220402143A1 (en) * 2021-06-18 2022-12-22 Doosan Robotics Inc. Apparatus and method for capturing image using robot
JPWO2023007621A1 (de) * 2021-07-28 2023-02-02
WO2023171687A1 (ja) * 2022-03-08 2023-09-14 京セラ株式会社 ロボット制御装置及びロボット制御方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06328385A (ja) 1993-05-20 1994-11-29 Fanuc Ltd 産業用ロボットの視覚センサの姿勢制御方法
US6330495B1 (en) 1997-10-27 2001-12-11 Honda Giken Kogyo Kabushiki Kaisha Off-line teaching method and apparatus for the same
JP2002086376A (ja) 2000-09-13 2002-03-26 Yaskawa Electric Corp 視覚センサの誘導方法
DE10136691A1 (de) 2000-09-29 2002-04-11 Hyundai Motor Co Ltd Verfahren zum Kompensieren einer Position eines Roboters unter Verwendung eines Laser-Meßinstruments
JP2003191194A (ja) 2001-12-20 2003-07-08 Yaskawa Electric Corp 視覚センサの誘導方法
DE10349361A1 (de) 2003-10-23 2005-05-25 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Positionieren eines Handhabungsgeräts
JP2007160486A (ja) 2005-12-16 2007-06-28 Fanuc Ltd オフラインプログラミング装置
JP2009303013A (ja) 2008-06-16 2009-12-24 Fujitsu Ltd 撮像方向決定プログラム
DE102012110508A1 (de) 2011-11-04 2013-05-08 Fanuc Robotics America Corp. Roboter Einstellvorrichtung mit 3-D Display

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3655083B2 (ja) * 1998-02-25 2005-06-02 富士通株式会社 ロボットの位置決めを行うインタフェース装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP4779226B2 (ja) * 2001-04-25 2011-09-28 ソニー株式会社 ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP3905073B2 (ja) * 2003-10-31 2007-04-18 ファナック株式会社 アーク溶接ロボット
JP3732494B2 (ja) * 2003-10-31 2006-01-05 ファナック株式会社 シミュレーション装置
JP2006048244A (ja) * 2004-08-02 2006-02-16 Fanuc Ltd 加工プログラム作成装置
JP4266946B2 (ja) * 2005-03-17 2009-05-27 ファナック株式会社 オフライン教示装置
JP2006326176A (ja) * 2005-05-30 2006-12-07 Mitsubishi Electric Corp 指紋照合装置
KR20080024476A (ko) * 2005-06-14 2008-03-18 고쿠리쓰다이가쿠호진 덴키쓰신다이가쿠 위치 검출 장치, 위치 검출 방법, 위치 검출 프로그램 및복합 현실 제공 시스템
US8108092B2 (en) * 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP2007334678A (ja) * 2006-06-15 2007-12-27 Fanuc Ltd ロボットシミュレーション装置
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
EP2224303B1 (de) * 2009-02-27 2011-01-19 Honda Research Institute Europe GmbH Roboter mit automatischer Auswahl von aufgabenspezifischen Darstellungen zur Imitationserlernung
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
JP2011185650A (ja) * 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
FI20106090A0 (fi) * 2010-10-21 2010-10-21 Zenrobotics Oy Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä
JP2012135821A (ja) * 2010-12-24 2012-07-19 Seiko Epson Corp ロボットシミュレーション装置、ロボットシミュレーション方法、及びロボットシミュレーションプログラム
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP6222898B2 (ja) * 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置
CN110279427B (zh) * 2012-12-10 2024-01-16 直观外科手术操作公司 图像采集装置和可操纵装置活动臂受控运动过程中的碰撞避免

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06328385A (ja) 1993-05-20 1994-11-29 Fanuc Ltd 産業用ロボットの視覚センサの姿勢制御方法
US6330495B1 (en) 1997-10-27 2001-12-11 Honda Giken Kogyo Kabushiki Kaisha Off-line teaching method and apparatus for the same
JP2002086376A (ja) 2000-09-13 2002-03-26 Yaskawa Electric Corp 視覚センサの誘導方法
DE10136691A1 (de) 2000-09-29 2002-04-11 Hyundai Motor Co Ltd Verfahren zum Kompensieren einer Position eines Roboters unter Verwendung eines Laser-Meßinstruments
JP2003191194A (ja) 2001-12-20 2003-07-08 Yaskawa Electric Corp 視覚センサの誘導方法
DE10349361A1 (de) 2003-10-23 2005-05-25 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Positionieren eines Handhabungsgeräts
JP2007160486A (ja) 2005-12-16 2007-06-28 Fanuc Ltd オフラインプログラミング装置
JP2009303013A (ja) 2008-06-16 2009-12-24 Fujitsu Ltd 撮像方向決定プログラム
DE102012110508A1 (de) 2011-11-04 2013-05-08 Fanuc Robotics America Corp. Roboter Einstellvorrichtung mit 3-D Display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020104362A1 (de) 2020-02-19 2021-08-19 Franka Emika Gmbh Bahnplanung für einen Robotermanipulator mittels Kamerabild
DE102020104362B4 (de) 2020-02-19 2022-04-14 Franka Emika Gmbh Bahnplanung für einen Robotermanipulator mittels Kamerabild

Also Published As

Publication number Publication date
CN104802186B (zh) 2016-12-07
JP5850958B2 (ja) 2016-02-03
CN104802186A (zh) 2015-07-29
JP2015136781A (ja) 2015-07-30
DE102015000587A1 (de) 2015-07-30
US9352467B2 (en) 2016-05-31
US20150209963A1 (en) 2015-07-30

Similar Documents

Publication Publication Date Title
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102015208584B4 (de) Greifvorrichtung und Greifverfahren
DE102018213985B4 (de) Robotersystem
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102015000589B4 (de) Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
DE102018001026B4 (de) Robotersystem mit einer lernenden Steuerungsfunktion und lernendes Steuerungsverfahren
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
EP3108311B1 (de) Verfahren, bearbeitungsmaschine und computerprogrammprodukt zum bildbasierten platzieren von werkstückbearbeitungsvorgängen
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE112010000794B4 (de) Verfahren zum Steuern eines Roboterwerkzeuges
DE602005003147T2 (de) Messsystem
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE102014117346B4 (de) Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur
DE102019001038B4 (de) Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102020110252B4 (de) Vibrationsanzeigeeinrichtung, Betriebsprogrammerstellungseinrichtung und System
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
DE102018007287B4 (de) Roboter-Controller zum Durchführen einer Kalibrierung, Messsystem und Kalibrierverfahren
DE102022130652A1 (de) Anlernen eines roboters durch vorführen mit visualservoing
DE102022202563B3 (de) Planen einer Bahn eines Roboters
DE112017007903B4 (de) Haltepositions- und Orientierungslehreinrichtung, Haltepositions- und Orientierungslehrverfahren und Robotersystem
EP1915239B1 (de) Verfahren zum erzeugen eines umgebungsbildes
DE102005040714B4 (de) Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final