DE112021007545T5 - Simulationsvorrichtung - Google Patents

Simulationsvorrichtung Download PDF

Info

Publication number
DE112021007545T5
DE112021007545T5 DE112021007545.4T DE112021007545T DE112021007545T5 DE 112021007545 T5 DE112021007545 T5 DE 112021007545T5 DE 112021007545 T DE112021007545 T DE 112021007545T DE 112021007545 T5 DE112021007545 T5 DE 112021007545T5
Authority
DE
Germany
Prior art keywords
visual sensor
sensor model
model
unit
measurement point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021007545.4T
Other languages
English (en)
Inventor
Hiroyuki Yoneyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE112021007545T5 publication Critical patent/DE112021007545T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system

Abstract

Bereitgestellt wird eine Simulationsvorrichtung, die in der Lage ist, die Position eines visuellen Sensormodells effizient anzupassen. Die Simulationsvorrichtung weist auf: eine Einheit zur Erzeugung eines virtuellen Raums, die einen virtuellen Raum erzeugt, der einen Arbeitsraum dreidimensional darstellt; eine Messzielmodell-Anordnungseinheit, die in dem virtuellen Raum ein Messzielmodell anordnet, das dreidimensional ein Messziel darstellt; eine Messabschnitt-Vorgabeeinheit, die einen Messabschnitt in dem Messzielmodell vorgibt; eine Einheit zur Anordnung eines visuellen Sensormodells, die das visuelle Sensormodell, das einen visuellen Sensor, der das Messobjekt abbildet, dreidimensional darstellt, an einer beliebigen visuellen Sensormodellposition anordnet; und eine Positionsbestimmungseinheit, welche die Position des visuellen Sensormodells, die in einer Bildgröße des visuellen Sensormodells enthalten ist, als eine Anordnungsposition des visuellen Sensormodells basierend auf einer Position des Messpunkts bestimmt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Simulationsvorrichtung.
  • TECHNISCHER HINTERGRUND
  • Im Stand der Technik wurde eine Technik zum Simulieren einer Bedienung zum Durchführen einer Bedienung an einem Messobjektmodell durch ein Robotermodell vorgeschlagen (vgl. zum Beispiel Patentdokument 1). Eine Simulationsvorrichtung, die in Patentdokument 1 offenbart wird, ordnet ein Robotermodell eines Roboters, ein visuelles Sensormodell eines visuellen Sensors und ein Messobjektmodell in einem virtuellen Raum an, in dem ein Arbeitsraum dreidimensional dargestellt wird, vermisst unter Verwendung des visuellen Sensormodells das Messobjektmodell und simuliert eine Bedienung zum Durchführen einer Bedienung an dem Messobjektmodell unter Verwendung des Robotermodells.
  • Liste der Bezugnahmen
  • Patentdokument
  • Patentdokument 1: Nicht geprüfte japanische Patentanmeldung, Veröffentlichungs-Nr. 2008-21092
  • OFFENBARUNG DER ERFINDUNG
  • Durch die Erfindung zu lösende Probleme
  • Bei der aus dem Stand der Technik bekannten Technologie wird ein Messobjektmodell von einem visuellen Sensormodell in einem virtuellen Raum vermessen und es kann eine Simulation durchgeführt werden, bei der ein Robotermodell eine Bedienung an dem Messobjektmodell durchführt. Der Bediener muss jedoch eine geeignete Position des visuellen Sensormodells bestimmen, während er ein Bild betrachtet, das durch die Abbildung des Messobjektmodells mithilfe des visuellen Sensormodells erhalten wird. Die Einstellung der Position des visuellen Sensormodells ist daher zeit- und arbeitsaufwendig.
  • Daher besteht Bedarf an einer Simulationsvorrichtung, die in der Lage ist, die Position eines visuellen Sensormodells effizient anzupassen.
  • Mittel zur Lösung der Probleme
  • Eine Simulationsvorrichtung gemäß einem Aspekt der vorliegenden Offenbarung weist auf: eine Einheit zur Erzeugung eines virtuellen Raums, die einen virtuellen Raum erzeugt, der einen Arbeitsraum dreidimensional darstellt; eine Messobjektmodell-Anordnungseinheit, die ein Messobjektmodell, das ein Messobjekt darstellt, dreidimensional in dem virtuellen Raum anordnet; eine Messpunktkennzeichnungseinheit bzw. Messpunktvorgabeeinheit, die einen Messpunkt im Messobjektmodell kennzeichnet bzw. vorgibt; eine Einheit zur Anordnung eines visuellen Sensormodells, die ein visuelles Sensormodell, das einen visuellen Sensor, der das Messobjekt abbildet, dreidimensional darstellt, an einer beliebigen visuellen Sensormodellposition anordnet; und eine Positionsbestimmungseinheit, die die Position des visuellen Sensormodells, die in einer Bildgröße des visuellen Sensormodells beinhaltet ist, als eine Anordnungsposition des visuellen Sensormodells basierend auf einer Position des Messpunkts bestimmt.
  • Eine Simulationsvorrichtung gemäß einem weiteren Aspekt der vorliegenden Offenbarung weist eine Steuerungseinheit auf, die konfiguriert ist zu Durchführung: des Kennzeichnens bzw. Vorgebens eines Messpunktes in einem Messobjektmodell, das dreidimensional ein Objekt in einem virtuellen Raum darstellt, der einen Arbeitsraum dreidimensional darstellt; des Empfangens einer Eingabebedienung zum Anordnen eines visuellen Sensormodells, das einen visuellen Sensor zum dreidimensionalen Abbilden des Messobjekts an einer beliebigen Position des visuellen Sensormodells darstellt; und des Empfangens einer Eingabebedienung zum Bestimmen der Position des visuellen Sensormodells, die in einer Bildgröße des visuellen Sensormodells beinhaltet ist, als eine Anordnungsposition des visuellen Sensormodells.
  • Wirkungen der Erfindung
  • Erfindungsgemäß ist es möglich, die Position eines visuellen Sensormodells effizient anzupassen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
    • 1 ist ein Blockdiagramm, das die Konfiguration einer Simulationsvorrichtung gemäß der vorliegenden Ausführungsform zeigt;
    • 2 ist eine Darstellung, die ein Robotermodell, ein visuelles Sensormodell und ein Messobjektmodell in einem virtuellen Raum gemäß einer ersten Ausführungsform zeigt;
    • 3 ist eine Darstellung, die den Ablauf der Bestimmung eines Messpunktes zeigt;
    • 4 ist eine Darstellung, die die Verarbeitung der Anordnung eines visuellen Sensormodells zeigt;
    • 5 ist eine Darstellung, die den Prozess der Bestimmung der Körperlage des visuellen Sensormodells zeigt;
    • 6 ist eine Darstellung, die die Umwandlung einer dreidimensionalen Position eines Messpunktes in eine zweidimensionale Position zeigt;
    • 7 ist eine Darstellung, die die Umwandlung einer dreidimensionalen Position eines Messpunktes in eine zweidimensionale Position zeigt;
    • 8 ist eine Darstellung, die die Verarbeitung der Bestimmung einer Position des visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells zeigt;
    • 9 ist eine Darstellung, die die Verarbeitung der Bestimmung einer Position des visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells zeigt;
    • 10 zeigt ein Beispiel, bei dem ein visuelles Sensormodell an einem Robotermodell angebracht ist;
    • 11 ist eine Darstellung, die ein Robotermodell, ein visuelles Sensormodell und ein Messobjektmodell in einem virtuellen Raum gemäß einer zweiten Ausführungsform zeigt;
    • 12 ist eine Darstellung, die den Ablauf der Bestimmung eines Messpunktes zeigt;
    • 13 ist eine Darstellung, die die Verarbeitung der Anordnung eines visuellen Sensormodells zeigt;
    • 14 ist eine Darstellung, die den Prozess der Bestimmung der Körperlage des visuellen Sensormodells zeigt;
    • 15 ist eine Darstellung, die die Umwandlung einer dreidimensionalen Position eines Messpunkts in eine zweidimensionale Position zeigt;
    • 16 ist eine Darstellung, die die Umwandlung einer dreidimensionalen Position eines Messpunkts in eine zweidimensionale Position zeigt;
    • 17 ist eine Darstellung, die die Verarbeitung der Bestimmung der Position eines visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells zeigt;
    • 18 ist eine Darstellung, die die Verarbeitung der Bestimmung der Position eines visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells zeigt;
    • 19 ist eine Darstellung, die ein Beispiel zeigt, bei dem ein visuelles Sensormodell an einem Robotermodell angebracht ist; und
    • 20 ist ein Ablaufdiagramm, das die Verarbeitung der Simulationsvorrichtung gemäß der vorliegenden Ausführungsform zeigt.
  • BEVORZUGTER MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Nachfolgend wird ein Beispiel einer Ausführungsform der vorliegenden Erfindung beschrieben. 1 ist ein Blockdiagramm, das eine Konfiguration einer Simulationsvorrichtung 1 gemäß der vorliegenden Ausführungsform zeigt. Wie in 1 dargestellt, weist die Simulationsvorrichtung 1 eine Steuerungseinheit 11, eine Speichereinheit 12, eine Anzeigeeinheit 13 und eine Bedieneinheit 14 auf.
  • Die Steuerungseinheit 11 ist ein Prozessor, zum Beispiel eine CPU (Central Processing Unit), und verwirklicht verschiedene Funktionen, indem sie in der Speichereinheit 12 gespeicherte Programme ausführt.
  • Bei der Speichereinheit 12 handelt es sich um eine Speichervorrichtung wie ROM (Read Only Memory) zum Speichern eines Betriebssystems (OS), von Anwendungsprogrammen usw., RAM (Random Access Memory), ein Festplattenlaufwerk zum Speichern verschiedener anderer Informationen oder eine SSD (Solid State Drive) .
  • Die Anzeigeeinheit 13 weist eine Flüssigkristallanzeige (LCD), eine Kathodenstrahlröhre (CRT) und dergleichen auf und zeigt verschiedene Bilder an. Die Bedieneinheit 14 weist eine Maus, eine Tastatur und dergleichen auf und empfängt verschiedene Eingaben.
  • Die Steuerungseinheit 11 weist eine Einheit zur Erzeugung eines virtuellen Raums 111, eine Messobjektmodell-Anordnungseinheit 112, eine Robotermodell-Anordnungseinheit 113, eine Messpunktkennzeichnungseinheit 114, eine Einheit zur Anordnung eines visuellen Sensormodells 115, eine Abbildungsbereichskennzeichnungseinheit 116, eine Sensorlagekennzeichnungseinheit 117, eine Abstandskennzeichnungseinheit 118, eine Positionskonvertierungseinheit 119, eine Positionsbestimmungseinheit 120, eine Roboterhaltungs-Berechnungseinheit 121 und eine Simulationsausführungseinheit 122 auf.
  • Die Einheit zur Erzeugung eines virtuellen Raums 111 erzeugt einen virtuellen Raum, der einen Arbeitsraum dreidimensional darstellt. Die Messobjektmodell-Anordnungseinheit 112 ordnet oder ein Messobjektmodell, das das Messobjekt darstellt, dreidimensional in dem virtuellen Raum an bzw. platziert es.
  • Die Robotermodell-Anordnungseinheit 113 ordnet ein Robotermodell, das einen Roboter dreidimensional darstellt, im virtuellen Raum ab bzw. platziert es. Die Messpunktkennzeichnungseinheit 114 kennzeichnet oder spezifiziert einen oder mehrere Messpunkte im Messobjektmodell. Die Messpunktkennzeichnungseinheit 114 kennzeichnet einen oder mehrere beliebige Messpunkte in dem Messobjektmodell, zum Beispiel gemäß einer Bedienung der Bedieneinheit 14.
  • Die Einheit zur Anordnung eines visuellen Sensormodells 115 ordnet ein visuelles Sensormodell, das einen visuellen Sensor, der ein Messobjekt abbildet, dreidimensional darstellt, an einer beliebigen Position des visuellen Sensormodells an bzw. platziert es. Die Einheit zur Anordnung eines visuellen Sensormodells 115 kann die visuelle Sensormodellposition des visuellen Sensormodells zu einer beliebigen Position ändern, zum Beispiel gemäß einer Bedienung der Bedieneinheit 14.
  • Die Abbildungsbereichskennzeichnungseinheit 116 kennzeichnet oder spezifiziert zum Beispiel einen Bereich, in dem ein Messpunkt durch das visuelle Sensormodell innerhalb der Bildgröße des visuellen Sensormodells gemäß einer Bedienung der Bedieneinheit 14 abgebildet wird. Die Sensorlagekennzeichnungseinheit 117 kennzeichnet oder spezifiziert zum Beispiel eine Position, wenn das visuelle Sensormodell über dem Messpunkt angeordnet ist, gemäß einer Bedienung der Bedieneinheit 14. Die Abstandskennzeichnungseinheit 118 kennzeichnet oder spezifiziert beispielsweise einen Abstand zwischen dem visuellen Sensormodell und dem Messpunkt gemäß einer Bedienung der Bedieneinheit 14.
  • Die Positionskonvertierungseinheit 119 konvertiert die dreidimensionale Position des Messpunktes in der Position des visuellen Sensormodells in eine zweidimensionale Position, wenn der Messpunkt durch das visuelle Sensormodell abgebildet wird. Die Positionsbestimmungseinheit 120 bestimmt die Position des visuellen Sensormodells, die in der Bildgröße des visuellen Sensormodells beinhaltet ist, auf Grundlage der Position des Messpunkts als Anordnungsposition des visuellen Sensormodells.
  • Wenn das visuelle Sensormodell mit dem Robotermodell verknüpft ist, berechnet die Roboterhaltungs-Berechnungseinheit 121 die Position des Robotermodells an der Position des visuellen Sensormodells.
  • Die Simulationsausführungseinheit 122 verwendet das Robotermodell, das visuelle Sensormodell und das Messobjektmodell, um eine Simulation auszuführen, bei der das Robotermodell auf Grundlage des Bedienprogramms eine Bedienung an dem Messobjektmodell durchführt.
  • [Erste Ausführungsform]
  • 2 bis 10 sind Darstellungen, die die Verarbeitung der Simulationsvorrichtung 1 gemäß der ersten Ausführungsform zeigen. 2 ist eine Darstellung, die ein Robotermodell R1, ein visuelles Sensormodell V1 und ein Messobjektmodell W1 in einem virtuellen Raum gemäß der ersten Ausführungsform zeigt.
  • Wie in 2 gezeigt, erstellt die Einheit zur Erzeugung eines virtuellen Raums 111 einen virtuellen Raum, der einen Arbeitsraum dreidimensional darstellt. Dann ordnet die Messobjektmodell-Anordnungseinheit 112 das Messobjektmodell W1, das das Messobjekt darstellt, dreidimensional in dem virtuellen Raum an. Beim Messobjektmodell W1 kann es sich zum Beispiel eine Vielzahl von Werkstücken handeln, die in einem Kasten untergebracht sind. Das Referenzkoordinatensystem K stellt ein Koordinatensystem dar, das im virtuellen Raum als Referenz dient.
  • Ferner ordnet die Robotermodell-Anordnungseinheit 113 das Robotermodell R1, das den Roboter darstellt, dreidimensional im virtuellen Raum an. Das Robotermodell-Koordinatensystem CR1 stellt ein Koordinatensystem des Robotermodells R1 dar. Das Robotermodell R1 kann zum Beispiel ein Mehrgelenkroboter sein.
  • 3 ist eine Darstellung, das die Verarbeitung zum Kennzeichnen eines Messpunktes M1 zeigt. Wie in 3 gezeigt, kennzeichnet die Messpunktkennzeichnungseinheit 114 einen Messpunkt M1 in dem Messobjektmodell W1. In dem in 3 gezeigten Beispiel kennzeichnet die Messpunktkennzeichnungseinheit 114 die obere Fläche des Messobjektmodells W1 als Messpunkt M1.
  • Handelt es sich bei dem Messobjektmodell W1 beispielsweise um ein Werkstück, kennzeichnet die Messpunktkennzeichnungseinheit 114 den Messpunkt M1, indem sie das gesamte Werkstück oder einen Teil des Werkstücks mit einem rechteckigen Quader umgibt. Wenn das Messobjektmodell W1 ein Korb oder ein Behälter ist, kennzeichnet die Messpunktkennzeichnungseinheit 114 den Messpunkt M1, indem sie die obere Fläche des Messobjektmodells W1 auswählt.
  • 4 ist ein Diagramm, das die Verarbeitung der Anordnung des visuellen Sensormodells V1 zeigt. Wie in 4 gezeigt, ordnet die Einheit zur Anordnung eines visuellen Sensormodells 115 das visuelle Sensormodell V1 an einer oder mehreren beliebigen Positionen des visuellen Sensormodells über dem Messpunkt M1 an.
  • Die Abstandskennzeichnungseinheit 118 kennzeichnet einen Abstand D1 zwischen dem visuellen Sensormodell V1 und dem Messpunkt M1. Die Abstandskennzeichnungseinheit 118 kennzeichnet den Abstand D1 beispielsweise durch Kennzeichnen eines festen Abstands oder durch Kennzeichnen eines Abstandsbereichs gemäß einer Bedienung der Bedieneinheit 14.
  • 5 ist eine Darstellung, die die Verarbeitung der Bestimmung der Lage des visuellen Sensormodells V1 zeigt. Wie in 5 gezeigt, kennzeichnet die Sensorlagekennzeichnungseinheit 117 eine Position, wenn das visuelle Sensormodell V1 über dem Messpunkt M1 angeordnet ist.
  • Konkret kennzeichnet die Sensorlagekennzeichnungseinheit 117 den Winkel θ1 um das visuelle Sensormodell-Koordinatensystem CV1 basierend auf oder bezüglich der Lage in der die optische Achse des visuellen Sensormodells V1 senkrecht zur Bezugsebene des virtuellen Raums (zum Beispiel der XY-Ebene des virtuellen Raums) ist (d. h. die Lage des visuellen Sensormodells V1 in 4). Die Verarbeitung zur Kennzeichnung der Lage des visuellen Sensormodells V1 kann entfallen, wenn es nicht notwendig ist, die Lage des visuellen Sensormodells V1 zu kennzeichnen.
  • 6 und 7 sind Darstellungen, die die Verarbeitung zum Konvertieren der dreidimensionalen Position P1 des Messpunkts M1 in die zweidimensionale Position P11 zeigen. Wie in 6 und 7 gezeigt, wird die dreidimensionale Position P1 des Messpunkts M1 als Koordinaten (X1, Y1, Z1) im Referenzkoordinatensystem K im virtuellen Raum dargestellt.
  • Dann konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position P1 (X1, Y1, Z1) des Messpunkts M1 an der visuellen Sensormodellposition des visuellen Sensormodells V1 in die zweidimensionale Position P11 (X11, Y11), wenn der Messpunkt M1 durch das visuelle Sensormodell V1 abgebildet wird.
  • Insbesondere konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position P1 des Messpunkts in die zweidimensionale Position P11, wenn der Messpunkt durch das visuelle Sensormodell V1 abgebildet wird, wobei die Abbildungsbedingungen einschließlich der Position des visuellen Sensormodells des visuellen Sensormodells V1, der Brennweite des Objektivs des visuellen Sensormodells V1, der Länge pro Pixel des Abbildungselements des visuellen Sensormodells V1 und der Mittenposition des Objektivs des visuellen Sensormodells V1 verwendet werden. Die Abbildungsbedingungen können auch andere Bedingungen bezüglich des visuellen Sensormodells V1 beinhalten.
  • Wenn die visuelle Sensormodellposition des visuellen Sensormodells V1 durch die Einheit zur Anordnung eines visuellen Sensormodells 115 in eine beliebige Position geändert wird, konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position P1 (X1, Y1, Z1) des Messpunkts an der geänderten visuellen Sensormodellposition in die zweidimensionale Position P11 (X11, Y11).
  • Das bedeutet, die Simulationsvorrichtung 1 wiederholt die Konvertierung der dreidimensionalen Position P1 in die zweidimensionale Position P11 durch die Positionskonvertierungseinheit 119, während sie die Position des visuellen Sensormodells ändert, das von der Einheit zur Anordnung eines visuellen Sensormodells 115 als Reaktion auf eine vom Benutzer an der Bedieneinheit 14 vorgenommene Eingabe angeordnet wurde.
  • Wie in 6 und 7 gezeigt, bestimmt die Positionsbestimmungseinheit 120 ferner, ob die umgewandelte zweidimensionale Position P11 in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet ist. In dem in 6 dargestellten Beispiel bestimmt die Positionsbestimmungseinheit 120, dass die umgewandelte zweidimensionale Position P11 nicht in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet ist. Andererseits bestimmt die Positionsbestimmungseinheit 120 in dem in 7 gezeigten Beispiel, dass die umgewandelte zweidimensionale Position P11 in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet ist.
  • 8 und 9 sind Diagramme, die das eine Verarbeitung zur Bestimmung der Position des visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells V1 zeigen. Wie in den 8 und 9 gezeigt, konvertiert die Positionskonvertierungseinheit 119 an der visuellen Sensormodellposition des visuellen Sensormodells V1 die dreidimensionalen Positionen P1 (X1, Y1, Z1), P2 (X2, Y2, Z2) und P3 (X3, Y3, Z3) des Messpunkts M1 in zweidimensionale Positionen P11 (X11, Y11), P21 (X21, Y21) bzw. P31 (X31, Y31).
  • In den in den 8 und 9 gezeigten Beispielen konvertiert die Positionskonvertierungseinheit 119 die drei dreidimensionalen Positionen P1, P2 und P3 in zweidimensionale Positionen P11, P21 bzw. P31, aber die Anzahl der dreidimensionalen Positionen ist nicht darauf beschränkt.
  • Die Positionsbestimmungseinheit 120 bestimmt, ob die konvertierten zweidimensionalen Positionen P11, P21 und P31 in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet sind. In dem in 8 gezeigten Beispiel bestimmt die Positionsbestimmungseinheit 120, dass alle konvertierten zweidimensionalen Positionen P11, P21 und P31 in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet sind.
  • Dann bestimmt die Positionsbestimmungseinheit 120 die Position des visuellen Sensormodells, bei der alle zweidimensionalen Positionen P11, P21 und P31 in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet sind, als die Anordnungsposition des visuellen Sensormodells V1.
  • Dabei bestimmt die Positionsbestimmungseinheit 120 bei mehreren Positionen des visuellen Sensormodells, bei denen alle zweidimensionalen Positionen P11, P21 und P31 in der Bildgröße A1 des visuellen Sensormodells V1 beinhaltet sind, eine Position, an der der Messpunkt M1 im Bild des visuellen Sensormodells V1 am größten erscheint, als Anordnungsposition des visuellen Sensormodells V1.
  • Wie in 9 gezeigt, kennzeichnet die Abbildungsbereichskennzeichnungseinheit 116 einen Abbildungsbereich A2, in dem der Messpunkt M1 durch das visuelle Sensormodell V1 innerhalb der Bildgröße A1 des visuellen Sensormodells V1 abgebildet wird. Wenn der Messpunkt M1 so abgebildet wird, dass er in dem Abbildungsbereich A2 beinhaltet ist, der schmaler als die Bildgröße A1 des visuellen Sensormodells V1 ist, bestimmt die Positionsbestimmungseinheit 120 die Position des visuellen Sensormodells, in der alle zweidimensionalen Positionen P11, P21 und P31 in dem Abbildungsbereich A2 des visuellen Sensormodells V1 enthalten sind, als die Anordnungsposition des visuellen Sensormodells V1.
  • 10 zeigt ein Beispiel, bei dem das visuelle Sensormodell V1 an dem Robotermodell R1 angebracht ist. Wenn das visuelle Sensormodell V1 an der Spitze des Arms des Robotermodells R1 angebracht ist, berechnet die Roboterhaltungs-Berechnungseinheit 121, wie in 10 gezeigt, die Position des Robotermodells R1 an der Anordnungsposition des visuellen Sensormodells V1.
  • Dann führt die Simulationsausführungseinheit 122 unter Verwendung des Robotermodells R1, des visuellen Sensormodells V1 und des eingangs beschriebenen Messobjektmodells W1 eine Simulation aus, bei der das Robotermodell R1 auf Grundlage des Bedienprogramms eine Bedienung an dem Messobjektmodell W1 durchführt.
  • [Zweite Ausführungsform]
  • 11 bis 19 sind Darstellungen, die die Verarbeitung der Simulationsvorrichtung 1 gemäß einer zweiten Ausführungsform zeigen. Die zweite Ausführungsform unterscheidet sich von der ersten Ausführungsform dadurch, dass ein Messpunkt M2 eines Messobjektmodells W2 eine dreidimensionale Form hat.
  • 11 ist eine Darstellung, die ein Robotermodell R2, ein visuelles Sensormodell V2 und ein Messobjektmodell W2 in einem virtuellen Raum gemäß der zweiten Ausführungsform zeigt. Wie in 11 gezeigt, erstellt die Einheit zur Erzeugung eines virtuellen Raums 111 einen virtuellen Raum, der einen Arbeitsraum dreidimensional darstellt. Dann ordnet die Messobjektmodell-Anordnungseinheit 112 das Messobjektmodell W2, das das Messobjekt darstellt, dreidimensional in dem virtuellen Raum an. Das Messobjektmodell W2 kann zum Beispiel ein Werkstück sein, das eine dreidimensionale Form wie eine Vielzahl von rechtwinkligen Quadern und Zylindern aufweist. Das Referenzkoordinatensystem K stellt ein Koordinatensystem dar, das im virtuellen Raum als Referenz dient.
  • Ferner ordnet die Robotermodell-Anordnungseinheit 113 das Robotermodell R2, das den Roboter darstellt, dreidimensional im virtuellen Raum an. Das Robotermodell-Koordinatensystem CR2 stellt ein Koordinatensystem des Robotermodells R2 dar. Das Robotermodell R2 kann zum Beispiel ein Mehrgelenkroboter sein.
  • 12 ist eine Darstellung, die die Verarbeitung zum Kennzeichnen eines Messpunktes M2 zeigt. Wie in 12 gezeigt, bestimmt die Messpunktkennzeichnungseinheit 114 einen Messpunkt M2 in dem Messobjektmodell W2. In dem in 12 dargestellten Beispiel kennzeichnet die Messpunktkennzeichnungseinheit 114 das gesamte Messobjektmodell W2 oder einen Teil davon als Messpunkt M2.
  • Die Messpunktkennzeichnungseinheit 114 kennzeichnet den Messpunkt M2, indem sie beispielsweise das gesamte Messobjektmodell W2 oder einen Teil davon mit einem rechteckigen Quader umgibt.
  • 13 ist ein Diagramm, das die Verarbeitung zum Anordnen des visuellen Sensormodells V2 zeigt. Wie in 13 gezeigt, ordnet die Einheit zur Anordnung eines visuellen Sensormodells 115 das visuelle Sensormodell V2 an einer oder mehreren beliebigen Positionen des visuellen Sensormodells über dem Messpunkt M2 an.
  • Die Abstandskennzeichnungseinheit 118 kennzeichnet einen Abstand D2 zwischen dem visuellen Sensormodell V2 und dem Messpunkt M2. Die Abstandskennzeichnungseinheit 118 kennzeichnet zum Beispiel einen festen Abstand oder kennzeichnet eine Spanne von Abständen gemäß einer Bedienung der Bedieneinheit 14, wodurch der Abstand D2 gekennzeichnet wird.
  • 14 ist ein Diagramm, das die Verarbeitung der Kennzeichnung der Lage des visuellen Sensormodells V2 zeigt. Wie in 14 gezeigt, bestimmt die Sensorlagekennzeichnungseinheit 117 eine Position, wenn das visuelle Sensormodell V2 über dem Messpunkt M2 angeordnet ist.
  • Konkret kennzeichnet die Sensorlagekennzeichnungseinheit 117 den Winkel θ2 um das visuelle Sensormodell-Koordinatensystem CV2 basierend auf der Position, in der die optische Achse des visuellen Sensormodells V2 senkrecht zur Bezugsebene des virtuellen Raums (zum Beispiel der XY-Ebene des virtuellen Raums) steht (d. h. die Position des visuellen Sensormodells V2 in 13). Die Verarbeitung der Kennzeichnung der Lage des visuellen Sensormodells V2 kann entfallen, wenn es nicht notwendig ist, die Lage des visuellen Sensormodells V2 zu bestimmen.
  • 15 und 16 sind Diagramme, die die Verarbeitung der Konvertierung der dreidimensionalen Position P4 des Messpunkts M2 in eine zweidimensionale Position P41 zeigen. Wie in 15 und 16 gezeigt, wird die dreidimensionale Position P4 des Messpunkts M2 im Referenzkoordinatensystem K im virtuellen Raum als Koordinaten (X4, Y4, Z4) dargestellt.
  • Dann konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position P4 (X4, Y4, Z4) des Messpunktes M2 an der visuellen Sensormodellposition des visuellen Sensormodells V2 in die zweidimensionale Position P41 (X41, Y41), wenn der Messpunkt M1 durch das visuelle Sensormodell V1 abgebildet wird.
  • Konkret konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position P4 des Messpunkts in die zweidimensionale Position P41, wenn der Messpunkt durch das visuelle Sensormodell V2 abgebildet wird, wobei die Abbildungsbedingungen einschließlich der Position des visuellen Sensormodells des visuellen Sensormodells V2, der Brennweite des Objektivs des visuellen Sensormodells V2, der Länge pro Pixel des Abbildungselements des visuellen Sensormodells V2 und der Mittenposition des Objektivs des visuellen Sensormodells V2 verwendet werden. Die Abbildungsbedingungen können auch andere Bedingungen in Bezug auf das visuelle Sensormodell V2 umfassen.
  • Wenn die visuelle Sensormodellposition des visuellen Sensormodells V2 durch die Einheit zur Anordnung eines visuellen Sensormodells 115 in eine beliebige Position geändert wird, konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position P4 (X4, Y4, Z4) des Messpunkts in die zweidimensionale Position P41 (X41, Y41) an der geänderten visuellen Sensormodellposition.
  • Das bedeutet, dass die Simulationsvorrichtung 1 das Konvertieren der dreidimensionalen Position P4 in die zweidimensionale Position P41 durch die Positionskonvertierungseinheit 119 wiederholt, während sie die Position des visuellen Sensormodells ändert, das von der Einheit zur Anordnung eines visuellen Sensormodells 115 als Reaktion auf eine vom Benutzer an der Bedieneinheit 14 durchgeführte Eingabe angeordnet wird.
  • Wie in 15 und 16 gezeigt, bestimmt die Positionsbestimmungseinheit 120 ferner, ob die konvertierte zweidimensionale Position P41 in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet ist. In dem in 15 gezeigten Beispiel bestimmt die Positionsbestimmungseinheit 120, dass die konvertierte zweidimensionale Position P41 nicht in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet ist. In dem in 16 gezeigten Beispiel bestimmt die Positionsbestimmungseinheit 120 hingegen, dass die konvertierte zweidimensionale Position P41 in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet ist.
  • 17 und 18 sind Diagramme, die die Verarbeitung zum Bestimmen der Position des visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells V2 zeigen. Wie in 17 und 18 gezeigt, konvertiert die Positionskonvertierungseinheit 119 an der visuellen Sensormodellposition des visuellen Sensormodells V2 die dreidimensionalen Positionen P4 (X4, Y4, Z4), P5 (X5, Y5, Z5) und P6 (X6, Y6, Z6) des Messpunkts M2 in zweidimensionale Positionen P41 (X41, Y41), P51 (X51, Y51) bzw. P61 (X61, Y61).
  • In den in den 17 und 18 gezeigten Beispielen konvertiert die Positionskonvertierungseinheit 119 die drei dreidimensionalen Positionen P4, P5 und P6 in zweidimensionale Positionen P41, P51 bzw. P61, die Anzahl der dreidimensionalen Positionen ist jedoch nicht darauf beschränkt.
  • Die Positionsbestimmungseinheit 120 bestimmt, ob die konvertierten zweidimensionalen Positionen P41, P51 und P61 in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet sind. In dem in 17 gezeigten Beispiel ermittelt die Positionsbestimmungseinheit 120, dass alle konvertierten zweidimensionalen Positionen P41, P51 und P61 in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet sind.
  • Dann bestimmt die Positionsbestimmungseinheit 120 die Position des visuellen Sensormodells, bei der alle zweidimensionalen Positionen P41, P51 und P61 in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet sind, als die Anordnungsposition des visuellen Sensormodells V2.
  • Dabei bestimmt die Positionsbestimmungseinheit 120 bei einer Vielzahl von Positionen des visuellen Sensormodells, bei denen alle zweidimensionalen Positionen P41, P51 und P61 in der Bildgröße A3 des visuellen Sensormodells V2 beinhaltet sind, eine Position, bei der der Messpunkt M2 im Bild des visuellen Sensormodells V2 am größten erscheint, als Anordnungsposition des visuellen Sensormodells V2.
  • Wie in 18 zu sehen ist, kennzeichnet die Abbildungsbereichskennzeichnungseinheit 116 ferner einen Abbildungsbereich A4, in dem der Messpunkt M2 durch das visuelle Sensormodell V2 innerhalb der Bildgröße A3 des visuellen Sensormodells V2 abgebildet wird.
  • Wenn der Messpunkt M2 so abgebildet wird, dass er in dem Abbildungsbereich A4, der schmaler als die Bildgröße A3 des visuellen Sensormodells V2 ist, beinhaltet ist, bestimmt die Positionsbestimmungseinheit 120 die Position des visuellen Sensormodells, in der alle zweidimensionalen Positionen P41, P51 und P61 in dem Abbildungsbereich A4 des visuellen Sensormodells V2 beinhaltet sind, als die Anordnungsposition des visuellen Sensormodells V2.
  • 19 ist eine Darstellung, die ein Beispiel zeigt, in dem das visuelle Sensormodell V2 an dem Robotermodell R2 angebracht ist. Wie in 19 gezeigt, berechnet die Roboterhaltungs-Berechnungseinheit 121, wenn das visuelle Sensormodell V2 an der Spitze des Arms des Robotermodells R2 angebracht ist, die Haltung des Robotermodells R2 an der Anordnungsposition des visuellen Sensormodells V2.
  • Dann führt die Simulationsausführungseinheit 122 unter Verwendung des Robotermodells R2, des visuellen Sensormodells V2 und des eingangs beschriebenen Messobjektmodells W2 eine Simulation aus, bei der das Robotermodell R2 auf Grundlage des Bedienprogramms eine Bedienung an dem Messobjektmodell W2 durchführt.
  • [Ablauf der Verarbeitung]
  • 20 ist ein Ablaufdiagramm, das den Verarbeitungsfluss der Simulationsvorrichtung 1 zeigt, der der ersten und zweiten Ausführungsform gemeinsam ist. In Schritt S1 erzeugt die Einheit zur Erzeugung eines virtuellen Raums 111 einen virtuellen Raum, der einen Arbeitsraum dreidimensional darstellt.
  • In Schritt S2 ordnet die Messobjektmodell-Anordnungseinheit 112 ein Messobjektmodell an, das das Messobjekt dreidimensional im virtuellen Raum darstellt. Die Robotermodell-Anordnungseinheit 113 ordnet ein Robotermodell, das einen Roboter dreidimensional darstellt, im virtuellen Raum an.
  • In Schritt S3 kennzeichnet die Messpunktkennzeichnungseinheit 114 einen oder mehrere Messpunkte im Messobjektmodell. Die Einheit zur Anordnung eines visuellen Sensormodells 115 ordnet ein visuelles Sensormodell, das einen visuellen Sensor zum Abbilden eines Messobjekts dreidimensional darstellt, an einer oder mehreren beliebigen Positionen des visuellen Sensormodells oberhalb des Messpunkts an.
  • In Schritt S4 konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position des Messpunkts an der Position des visuellen Sensormodells in eine zweidimensionale Position, wenn der Messpunkt durch das visuelle Sensormodell abgebildet wird.
  • In Schritt S5 bestimmt die Positionsbestimmungseinheit 120 die Position des visuellen Sensormodells, bei der alle zweidimensionalen Positionen in der Bildgröße des visuellen Sensormodells beinhaltet sind, als die Anordnungsposition des visuellen Sensormodells.
  • [Andere Ausführungsformen]
  • Ferner kann die Simulationsvorrichtung 1 gemäß einer anderen Ausführungsform eine Steuerungseinheit 11 aufweisen, die gemäß der Bedienung durch einen Bediener die nachstehenden Funktionen ausführt. Anders gesagt kennzeichnet die Steuerungseinheit 11 einen oder mehrere Messpunkte in einem Messobjektmodell, das ein Messobjekt dreidimensional in einem virtuellen Raum darstellt, der einen Arbeitsraum dreidimensional darstellt.
  • Als nächstes empfängt die Steuerungseinheit 11 eine Eingabebedienung zur Anordnung eines visuellen Sensormodells, das einen visuellen Sensor zur dreidimensionalen Abbildung eines Messobjekts an einer oder mehreren beliebigen Positionen des visuellen Sensormodells oberhalb des Messpunkts angeordnet darstellt.
  • Ferner empfängt die Steuerungseinheit 11 eine Eingabebedienung zur Bestimmung der Position des visuellen Sensormodells, die in der Bildgröße des visuellen Sensormodells beinhaltet ist, als die Anordnungsposition des visuellen Sensormodells. Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 gemäß der anderen Ausführungsform möglich, die in der ersten und zweiten Ausführungsform beschriebene Verarbeitung durchzuführen.
  • Gemäß der oben beschriebenen Ausführungsform weist die Simulationsvorrichtung 1 auf: die Einheit zur Erzeugung eines virtuellen Raums 111 zum Erzeugen eines virtuellen Raums, der einen Arbeitsraum dreidimensional darstellt; die Messobjektmodell-Anordnungseinheit 112 zum Anordnen eines Messobjektmodells, das ein Messobjekt dreidimensional in dem virtuellen Raum darstellt; die Messpunktkennzeichnungseinheit 114 zum Kennzeichnen eines Messpunkts in dem Messobjektmodell; die Einheit zur Anordnung eines visuellen Sensormodells 115, die ein visuelles Sensormodell, das einen visuellen Sensor, der das Messobjekt abbildet, dreidimensional darstellt, an einer beliebigen visuellen Sensormodellposition anordnet; und die Positionsbestimmungseinheit, die die Position des visuellen Sensormodells, die in einer Bildgröße des visuellen Sensormodells beinhaltet ist, als eine Anordnungsposition des visuellen Sensormodells basierend auf einer Position des Messpunkts bestimmt.
  • Mit einer solchen Konfiguration ist es der Simulationsvorrichtung 1 möglich, die Position des visuellen Sensormodells automatisch zu bestimmen, den Arbeits- und Zeitaufwand zum Einstellen der Position des visuellen Sensormodells zu verringern und die Position des visuellen Sensormodells effizient anzupassen.
  • Außerdem beinhaltet die Simulationsvorrichtung 1 die Positionskonvertierungseinheit 119, die die dreidimensionale Position des Messpunkts in die zweidimensionale Position konvertiert, wenn der Messpunkt durch das visuelle Sensormodell in der visuellen Sensormodellposition abgebildet wird, und die Positionsbestimmungseinheit 120 bestimmt die visuelle Sensormodellposition, in der alle zweidimensionalen Positionen in der Bildgröße des visuellen Sensormodells enthalten sind, als die Anordnungsposition des visuellen Sensormodells. Mit einer solchen Konfiguration ist es der Simulationsvorrichtung 1 möglich, die Position des visuellen Sensormodells, an der der Messpunkt zweckmäßig abgebildet werden kann, automatisch als Anordnungsposition des visuellen Sensormodells zu bestimmen.
  • Darüber hinaus weist die Simulationsvorrichtung 1 ferner die Robotermodell-Anordnungseinheit 113 zum Anordnen eines Robotermodells auf, die einen Roboter dreidimensional in einem virtuellen Raum darstellt und die Roboterhaltungs-Berechnungseinheit 121 zum Berechnen einer Position des Robotermodells an einer Anordnungsposition des visuellen Sensormodells, wenn das visuelle Sensormodell an dem Robotermodell angebracht ist, auf. Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 möglich, die Haltung des Robotermodells unter Verwendung der Position des visuellen Sensormodells zu berechnen, an der der Messpunkt zweckmäßig abgebildet werden kann.
  • Die Simulationsvorrichtung 1 weist ferner die Abbildungsbereichskennzeichnungseinheit 116 zum Kennzeichnen eines Abbildungsbereichs, in dem ein Messpunkt durch das visuelle Sensormodell innerhalb der Bildgröße des visuellen Sensormodells abgebildet wird. Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 möglich, einen gewünschten Abbildungsbereich zu bestimmen und einen Messpunkt entsprechend abzubilden.
  • Die Simulationsvorrichtung 1 weist ferner die Sensorlagekennzeichnungseinheit 117 zur Bestimmung einer Position auf, wenn das visuelle Sensormodell über dem Messpunkt angeordnet ist. Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 möglich, die Lage eines gewünschten visuellen Sensormodells zu bestimmen und einen Messpunkt entsprechend abzubilden.
  • Die Simulationsvorrichtung 1 weist ferner die Abstandskennzeichnungseinheit 118 zum Bestimmen eines Abstands zwischen dem visuellen Sensormodell und dem Messpunkt. Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 möglich, einen Abstand zwischen einem gewünschten visuellen Sensormodell und einem Messpunkt zu bestimmen und den Messpunkt entsprechend abzubilden.
  • Die Sensorlagekennzeichnungseinheit 117 bestimmt einen Winkel um das Koordinatensystem des visuellen Sensormodells basierend auf der Position, in der die optische Achse des visuellen Sensormodells senkrecht zur Bezugsebene des virtuellen Raums wird. Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 möglich, einen Messpunkt zweckmäßig abzubilden, indem ein Winkel eines gewünschten visuellen Sensormodells bezeichnet wird.
  • Wenn es eine Vielzahl von Positionen des visuellen Sensormodells gibt, bei denen alle zweidimensionalen Positionen in der Bildgröße des visuellen Sensormodells enthalten sind, bestimmt die Positionsbestimmungseinheit 120 eine Position, bei der der Messpunkt im Bild des visuellen Sensormodells am größten erscheint, als Anordnungsposition des visuellen Sensormodells. Mit einer solchen Konfiguration ist es möglich, dass die Simulationsvorrichtung 1 automatisch die zweckmäßigste Position des visuellen Sensormodells als Anordnungsposition des visuellen Sensormodells bestimmt.
  • Ferner konvertiert die Positionskonvertierungseinheit 119 die dreidimensionale Position des Messpunkts in eine zweidimensionale Position, wenn der Messpunkt durch das visuelle Sensormodell abgebildet wird, wobei Abbildungsbedingungen verwendet werden, die die Position des visuellen Sensormodells des visuellen Sensormodells, die Brennweite der Linse des visuellen Sensormodells, die Länge pro Pixel des Abbildungselements des visuellen Sensormodells und die Mittenposition der Linse des visuellen Sensormodells einschließen. Mit einer solchen Konfiguration ist es der Simulationsvorrichtung 1 möglich, die dreidimensionale Position des Messpunkts in eine zweidimensionale Position umzuwandeln.
  • Darüber hinaus kennzeichnet die Steuerungseinheit 11 einen oder mehrere Messpunkte in einem Messobjektmodell, das ein Messobjekt dreidimensional in einem virtuellen Raum darstellt, der einen Arbeitsraum dreidimensional darstellt. Als nächstes empfängt die Steuerungseinheit 11 eine Eingabebedienung zum Anordnen eines visuellen Sensormodells, das einen visuellen Sensor zum dreidimensionalen Abbilden eines Messobjekts darstellt, an einer oder mehreren beliebigen visuellen Sensormodellpositionen über dem Messpunkt. Ferner empfängt die Steuerungseinheit 11 eine Eingabebedienung zum Bestimmen der Position des visuellen Sensormodells, die in der Bildgröße des visuellen Sensormodells beinhaltet ist, als die Anordnungsposition des visuellen Sensormodells.
  • Mit einer solchen Konfiguration ist es für die Simulationsvorrichtung 1 möglich, die Position des visuellen Sensormodells automatisch zu bestimmen, den Arbeits- und Zeitaufwand für die Einstellung der Position des visuellen Sensormodells zu reduzieren und die Position des visuellen Sensormodells effizient einzustellen.
  • Obwohl Ausführungsformen der vorliegenden Erfindung oben beschrieben wurden, kann der Roboter 1 durch Hardware, Software oder eine Kombination davon implementiert werden. Das von dem Roboter 1 durchgeführte Steuerungsverfahren kann ebenfalls durch Hardware, Software oder eine Kombination davon implementiert werden. Hier bedeutet „durch Software implementiert“, dass es durch einen Computer verwirklicht wird, der ein Programm liest und ausführt.
  • Das Programm kann auf verschiedenen Arten von nicht-übertragbaren computerlesbaren Medien (nicht-übertragbare computerlesbare Medien) gespeichert und einem Computer bereitgestellt werden. Zu den nicht-übertragbaren computerlesbaren Medien gehören verschiedene Arten von materiellen Speichermedien. Beispiele für nicht-übertragbare computerlesbare Medien sind magnetische Aufzeichnungsmedien (zum Beispiel Festplattenlaufwerke), magneto-optische Aufzeichnungsmedien (zum Beispiel magneto-optische Platten), CD-ROM (Read Only Memory), CD-R, CD-R/W, Halbleiterspeicher (zum Beispiel Mask-ROM, PROM (Programmable ROM), EPROM (Erasable PROM), Flash-ROM und RAM (Random Access Memory).
  • Obgleich die oben beschriebenen Ausführungsformen bevorzugte Ausführungsformen der vorliegenden Erfindung sind, ist der Schutzumfang der vorliegenden Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt, und es können verschiedene Modifizierungen vorgenommen werden, ohne vom Kern der vorliegenden Erfindung abzuweichen.
  • BEZUGSZEICHENLISTE
  • 1
    Simulationsvorrichtung
    11
    Steuerungseinheit
    12
    Speichereinheit
    13
    Anzeigeeinheit
    14
    Bedieneinheit
    111
    Einheit zur Erzeugung eines virtuellen Raums
    112
    Messobjektmodell-Anordnungseinheit
    113
    Robotermodell-Anordnungseinheit
    114
    Messpositionskennzeichnungseinheit
    115
    Einheit zur Anordnung eines visuellen Sensormodells
    116
    Abbildungsbereichskennzeichnungseinheit
    117
    Sensorlagekennzeichnungseinheit
    118
    Abstandskennzeichnungseinheit
    119
    Positionskonvertierungseinheit
    120
    Positionsbestimmungseinheit
    121
    Roboterhaltungs-Berechnungseinheit
    122
    Simulationsausführungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 200821092 [0003]

Claims (10)

  1. Simulationsvorrichtung, aufweisend: eine Einheit zur Erzeugung eines virtuellen Raums, die einen virtuellen Raum erzeugt, der einen Arbeitsraum dreidimensional darstellt; eine Messobjektmodell-Anordnungseinheit, die ein Messobjektmodell, das ein Messobjekt darstellt, dreidimensional in dem virtuellen Raum anordnet; eine Messpunktkennzeichnungseinheit, die einen Messpunkt in dem Messobjektmodell kennzeichnet bzw. vorgibt; eine Einheit zur Anordnung eines visuellen Sensormodells, die ein visuelles Sensormodell, das einen visuellen Sensor, der das Messobjekt abbildet, dreidimensional darstellt, an einer beliebigen visuellen Sensormodellposition anordnet; und eine Positionsbestimmungseinheit, welche die Position des visuellen Sensormodells, die in einer Bildgröße des visuellen Sensormodells enthalten ist, als eine Anordnungsposition des visuellen Sensormodells basierend auf einer Position des Messpunkts bestimmt.
  2. Simulationsvorrichtung nach Anspruch 1, ferner aufweisend eine Positionskonvertierungseinheit, die eine dreidimensionale Position des Messpunkts in der Position des visuellen Sensormodells in eine zweidimensionale Position konvertiert, wenn der Messpunkt durch das visuelle Sensormodell abgebildet wird, wobei die Positionsbestimmungseinheit die Position des visuellen Sensormodells, bei der alle zweidimensionalen Positionen in einer Bildgröße des visuellen Sensormodells enthalten sind, als eine Anordnungsposition des visuellen Sensormodells bestimmt.
  3. Simulationsvorrichtung nach Anspruch 1 oder 2, ferner aufweisend: eine Robotermodell-Anordnungseinheit, die ein Robotermodell, das einen Roboter dreidimensional darstellt, in dem virtuellen Raum anordnet; und eine Roboterhaltungs-Berechnungseinheit, die eine Haltung des Robotermodells an einer Anordnungsposition des virtuellen Sensormodells berechnet, wenn das visuelle Sensormodell an dem Robotermodell angebracht ist.
  4. Simulationsvorrichtung nach einem der Ansprüche 1 bis 3, ferner aufweisend eine Abbildungsbereichskennzeichnungseinheit, die einen Abbildungsbereich kennzeichnet bzw. vorgibt, in dem der Messpunkt durch das visuelle Sensormodell innerhalb der Bildgröße des visuellen Sensormodells abgebildet wird.
  5. Simulationsvorrichtung nach einem der Ansprüche 1 bis 4, ferner aufweisend eine Sensorlagekennzeichnungseinheit, die eine Position kennzeichnet bzw. vorgibt, wenn das visuelle Sensormodell über dem Messpunkt angeordnet ist.
  6. Simulationsvorrichtung nach einem der Ansprüche 1 bis 5, ferner aufweisend eine Abstandskennzeichnungseinheit, die einen Abstand zwischen dem visuellen Sensormodell und dem Messpunkt kennzeichnet bzw. vorgibt.
  7. Simulationsvorrichtung nach Anspruch 5, wobei die Sensorlagekennzeichnungseinheit einen Winkel um ein Koordinatensystem des visuellen Sensormodells basierend auf einer Position kennzeichnet bzw. vorgibt, in der eine optische Achse des visuellen Sensormodells senkrecht zu einer Bezugsebene des virtuellen Raums ist.
  8. Simulationsvorrichtung nach Anspruch 2, wobei die Positionsbestimmungseinheit eine Position, an der der Messpunkt im Bild des visuellen Sensormodells am größten erscheint, als Anordnungsposition des visuellen Sensormodells bestimmt, wenn es eine Vielzahl von Positionen des visuellen Sensormodells gibt, in denen alle zweidimensionalen Positionen in der Bildgröße des visuellen Sensormodells enthalten sind.
  9. Simulationsvorrichtung nach Anspruch 2, wobei die Positionskonvertierungseinheit eine dreidimensionale Position des Messpunkts in eine zweidimensionale Position konvertiert, wenn ein Messpunkt durch das visuelle Sensormodell abgebildet wird, wobei Abbildungsbedingungen verwendet werden, die eine visuelle Sensormodellposition des visuellen Sensormodells, eine Brennweite einer Linse des visuellen Sensormodells, eine Länge pro Pixel eines Abbildungselements des visuellen Sensormodells und eine Mittenposition der Linse des visuellen Sensormodells umfassen.
  10. Simulationsvorrichtung, aufweisend eine Steuerungseinheit, die konfiguriert ist zur Durchführung: des Kennzeichnens bzw. Vorgebens eines Messpunktes in einem Messobjektmodell, das dreidimensional ein Objekt in einem virtuellen Raum darstellt, der einen Arbeitsraum dreidimensional darstellt; des Empfangens einer Eingabebedienung zum Anordnen eines visuellen Sensormodells, das einen visuellen Sensor zum dreidimensionalen Abbilden des Messobjekts an einer beliebigen Position des visuellen Sensormodells darstellt; und des Empfangens einer Eingabebedienung zum Bestimmen der Position des visuellen Sensormodells, die in einer Bildgröße des visuellen Sensormodells enthalten ist, als eine Anordnungsposition des visuellen Sensormodells.
DE112021007545.4T 2021-07-28 2021-07-28 Simulationsvorrichtung Pending DE112021007545T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/027920 WO2023007621A1 (ja) 2021-07-28 2021-07-28 シミュレーション装置

Publications (1)

Publication Number Publication Date
DE112021007545T5 true DE112021007545T5 (de) 2024-02-22

Family

ID=85087661

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021007545.4T Pending DE112021007545T5 (de) 2021-07-28 2021-07-28 Simulationsvorrichtung

Country Status (5)

Country Link
JP (1) JPWO2023007621A1 (de)
CN (1) CN117279749A (de)
DE (1) DE112021007545T5 (de)
TW (1) TW202305749A (de)
WO (1) WO2023007621A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021092A (ja) 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3732494B2 (ja) * 2003-10-31 2006-01-05 ファナック株式会社 シミュレーション装置
JP2006010312A (ja) * 2004-06-21 2006-01-12 Constec Engi Co 撮像装置
JP5365443B2 (ja) * 2009-09-17 2013-12-11 富士通株式会社 シミュレーション装置,シミュレーション方法およびシミュレーションプログラム
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021092A (ja) 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置

Also Published As

Publication number Publication date
CN117279749A (zh) 2023-12-22
WO2023007621A1 (ja) 2023-02-02
TW202305749A (zh) 2023-02-01
JPWO2023007621A1 (de) 2023-02-02

Similar Documents

Publication Publication Date Title
US7696991B2 (en) Method and apparatus for analyzing twinned crystal
DE102014212304B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE102018109774A1 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
DE102015002760A1 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
CH709322B1 (de) System, Verfahren und Computer zur verbesserten automatisierten visuellen Inspektion eines physischen Guts.
DE69819064T2 (de) Messungsunterstützungssystem
DE102018207414A1 (de) Bildverarbeitungssystem
EP2325725A1 (de) Verfahren zum reduzieren eines effekts auf virtuelle objekte
DE102020118635A1 (de) 3D-Datenerzeugungsvorrichtung und Robotersteuersystem
DE102019118342A1 (de) Objektprüfvorrichtung, Objektprüfsystem, und Verfahren zum Einstellen der Prüfposition
DE102017207517A1 (de) Endoskopisches System und Verfahren zum Steuern desselben
DE102019124810A1 (de) Bildverarbeitungsgerät und Bildverarbeitungsverfahren
DE102018207962A1 (de) Mischrealitätssimulationsvorrichtung und Mischrealitätssimulationsprogramm
DE112021007545T5 (de) Simulationsvorrichtung
DE102015110656A1 (de) Verfahren und Vorrichtung zum Quantifizieren von Freimaßtoleranzen und der Prozessfähigkeit unabhängig von Bezugspunkten
DE102020002382A1 (de) Werkzeugmaschinen-steuervorrichtung und werkzeugmaschine
DE102019219479A1 (de) System und verfahren zur zyklusdauermessung in wiederholten aktivitätssequenzen
DE112023000151T5 (de) Inspektionsunterstützungssystem, inspektionsunterstützungsverfahren und inspektionsunterstützungsprogramm
DE102019004668A1 (de) Offline-lehrvorrichtung, messungs-regel- bzw. -steuervorrichtung, entsprechende verfahren und computerprogrammprodukt
DE112021002550T5 (de) Anzeigevorrichtung für Industriemaschine
DE112021000595T5 (de) Bildverarbeitungssystem
WO2008098826A1 (de) Verfahren zum ermitteln von messstellen