DE102015106936A1 - Anordnungsevaluierungsvorrichtung zur Evaluierung einer Anordungsposition eines Bereichssensors - Google Patents

Anordnungsevaluierungsvorrichtung zur Evaluierung einer Anordungsposition eines Bereichssensors Download PDF

Info

Publication number
DE102015106936A1
DE102015106936A1 DE102015106936.9A DE102015106936A DE102015106936A1 DE 102015106936 A1 DE102015106936 A1 DE 102015106936A1 DE 102015106936 A DE102015106936 A DE 102015106936A DE 102015106936 A1 DE102015106936 A1 DE 102015106936A1
Authority
DE
Germany
Prior art keywords
arrangement
model
sensor
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015106936.9A
Other languages
English (en)
Other versions
DE102015106936B4 (de
Inventor
Tatsuya Oumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102015106936A1 publication Critical patent/DE102015106936A1/de
Application granted granted Critical
Publication of DE102015106936B4 publication Critical patent/DE102015106936B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

Eine Anordnungsevaluierungsvorrichtung eines Bereichssensors umfasst eine Artikelanordnungseinheit, die ein Artikelmodell anordnet, eine Sensoranordnungseinheit, die ein Sensormodell anordnet, eine erste Ebenengruppen-Erzeugungseinheit, die eine Mehrzahl von ersten Ebenen mit Teilungslinien erzeugt, die durch Teilen einer virtuellen Ebene erlangt werden, eine zweite Ebenengruppen-Erzeugungseinheit, die eine Mehrzahl von zweiten Ebenen durch Grenzflächen aus Streifenmusterlicht erzeugt, das von dem Projektormodell projiziert wird, eine Schnittlinien-Berechnungseinheit, die Schnittlinien zwischen den ersten Ebenen und den zweiten Ebenen berechnet, und eine Schnittpunktanzahl-Berechnungseinheit, die die Anzahl von Schnittpunkten zwischen den Schnittlinien und der Fläche des Artikelmodells zählt.

Description

  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Anordnungsevaluierungsvorrichtung eines Bereichssensors, die eine Anordnungsposition des Bereichssensors mithilfe von Simulation evaluiert.
  • 2. Beschreibung des Standes der Technik
  • Ein Bereichssensor (ein Bereichsscanner) wird verwendet, wenn eine Vielzahl von Positionsinformationen über Artikel in einem dreidimensionalen Raum erfasst wird. Eine Vorrichtung ist bekannt, bei der durch Verwenden eines Bereichssensors Positionsinformationen über in einem -dreidimensionalen Raum gestapelte Artikel erfasst werden, wobei die Positionen und Stellungen der Artikel auf Grundlage der Positionsinformationen erkannt und die erkannten Artikel von einem Roboter entnommen werden (siehe beispielsweise die japanische Offenlegungsschrift Nr. 2013-101045 ). In der japanischen Offenlegungsschrift Nr. 2013-101045 wird offenbart, dass ein Bereichssensor zwei Kameras und einen Projektor aufweist.
  • Da jedoch die Position eines Bereichssensors in einem dreidimensionalen Raum herkömmlicherweise auf Grundlage von Erfahrung und dergleichen eines Arbeiters bestimmt wird, ist es schwierig, den Bereichssensor an einer optimalen Position anzuordnen.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Bei einem Aspekt der vorliegenden Erfindung handelt es sich um eine Anordnungsevaluierungsvorrichtung eines Bereichssensors, die mithilfe von Simulation eine Anordnungsposition eines Bereichssensors evaluiert, der ein Paar Kameras und einen Projektor zum Projizieren von Streifenmusterlicht aufweist, und zu der zählen: eine Artikelanordnungseinheit, die ein Artikelmodell anordnet, das einer Mehrzahl von gestapelten Artikeln in einem vorgegebenen Gebiet in einem dreidimensionalen virtuellen Raum entspricht; eine Sensoranordnungseinheit, die ein Sensormodell, bei dem es sich um ein Sensormodell handelt, das dem Bereichssensor entspricht, und ein Paar Kameramodelle, das dem Paar Kameras entspricht, sowie ein Projektormodell aufweist, das dem Projektor entspricht, in einem virtuellen Raum derart anordnet, dass das vorgegebene Gebiet in einem Messbereich enthalten ist; eine erste Ebenengruppen-Erzeugungseinheit, die eine Mehrzahl von ersten Ebenen erzeugt, zu der eine Mehrzahl von Teilungslinien, die durch Teilen einer virtuellen Ebene in regelmäßigen Abständen in dem vorgegebenen Gebiet gegenüber dem Paar Kameramodelle erlangt werden, sowie eine Kamerasichtlinie zählen, die sich von dem Paar Kameramodelle aus in Richtung auf die entsprechenden Teilungslinien erstreckt; eine zweite Ebenengruppen-Erzeugungseinheit, die eine Mehrzahl von zweiten Ebenen durch Grenzflächen aus Streifenmusterlicht erzeugt, wenn angenommen wird, dass das Streifenmusterlicht von dem Projektormodell auf die virtuelle Ebene projiziert wurde; eine Schnittlinien-Berechnungseinheit, die eine Mehrzahl von Schnittlinien berechnet, an denen sich die Mehrzahl erster Ebenen und die Mehrzahl zweiter Ebenen schneiden, sowie eine Schnittpunktanzahl-Berechnungseinheit, die eine Anzahl von Schnittpunkten zwischen der Mehrzahl von Schnittlinien und einer Fläche des Artikelmodells zählt, die dem Paar Kameramodelle gegenüberliegt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die Aufgabe, die Merkmale sowie die Vorteile der vorliegenden Erfindung werden aus einer den begleitenden Zeichnungen zugehörigen Beschreibung der folgenden Ausführungsformen sowie durch die begleitenden Zeichnungen näher ersichtlich:
  • 1 ist ein Schaubild, das Simulationsmodelle veranschaulicht, die in einer Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß einer ersten Ausführungsform der vorliegenden Erfindung verwendet werden;
  • 2 ist ein Blockschaubild, das eine Konfiguration einer Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß einer ersten Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 3A und 3B sind Schaubilder zum Erläutern einer Verarbeitung in einer Artikelanordnungseinheit aus 2;
  • 4A und 4B sind Schaubilder, die ein Beispiel für eine Anordnung eines Sensormodells zeigen;
  • 5 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer ersten Ebenengruppen-Erzeugungseinheit aus 2;
  • 6 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer zweiten Ebenengruppen-Erzeugungseinheit aus 2;
  • 7A und 7B sind Schaubilder zur Erläuterung einer Verarbeitung in einer Schnittlinien-Berechnungseinheit aus 2;
  • 8 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer Schnittpunktanzahl-Berechnungseinheit aus 2;
  • 9 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer Schnittpunktanzahl-Berechnungseinheit aus 2;
  • 10A und 10B sind Schaubilder zur Erläuterung einer Verarbeitung in einer Schnittpunktanzahl-Berechnungseinheit aus 2;
  • 11 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung zeigt, die von einer arithmetischen Berechnungseinheit aus 2 ausgeführt wird;
  • 12 ist ein Blockschaubild, das eine Konfiguration einer Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß einer zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 13 ist ein Schaubild, das einen Anordnungsbereich eines Bereichssensors gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt, und
  • 14 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung zeigt, die von einer arithmetischen Berechnungseinheit aus 12 ausgeführt wird.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • (Erste Ausführungsform)
  • Nachfolgend wird hier mit Bezug auf 1 bis 11 eine erste Ausführungsform der vorliegenden Erfindung beschrieben. Die Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß der ersten Ausführungsform evaluiert die Angemessenheit einer Anordnungsposition eines Bereichssensors in einem dreidimensionalen Raum mithilfe von Simulation. Der Bereichssensor wird verwendet, um die Positionsinformationen über gestapelte Artikel zu erfassen, wenn die Artikel von einem Roboter entnommen werden.
  • 1 veranschaulicht schematisch eine gesamte Konfiguration von Simulationsmodellen, die mithilfe einer Anordnungsevaluierungsvorrichtung einer Simulation unterzogen werden. Wie in 1 veranschaulicht, beinhalten die Simulationsmodelle ein Robotermodell 1, das durch Modellieren eines Roboters 9 erlangt wird, ein Artikelmodell 2, das durch Modellieren von Artikeln 20 (Arbeit) erlangt wird, ein Behälterereinheitmodell 3, das durch Modellieren einer Behälterereinheit 30 erlangt wird, und ein Sensormodell 4, das durch Modellieren eines Bereichssensors 40 erlangt wird. Die Formen dieser Simulationsmodelle (des Robotermodells 1, des Artikelmodells 2, des Behältereinheitmodells 3 und des Sensormodells 4) sind in einem virtuellen Raum mit einem Koordinatensystem aus drei orthogonalen Achsen (die Achsen XYZ) definiert. Anders ausgedrückt: Die Simulationsmodelle sind dreidimensionale Modelle in einem virtuellen Raum und sind mit vorgegebenen Ausrichtungen in vorgegebenen Positionen in dem virtuellen Raum angeordnet.
  • Der Roboter 9 ist ein Gelenkroboter und weist eine Greifeinheit 9a auf, die in der Lage ist, einen Artikel an einem vorderen Endabschnitt eines Arms zu greifen. Die Behältereinheit 30 ist beispielsweise ein Behälter mit einer offenen Oberseite und weist ein unteres Wandteil 30a auf, das sich auf der X- und Y-Ebene erstreckt, und ein Seitenwandteil 30b, das sich vertikal von einem Umfangsrand des unteren Wandteils 30a aus entlang der Richtung der Z-Achse erstreckt. Die Artikel 20 sind in der Behältereinheit 30 gestapelt und aufgenommen und weisen dieselbe rechteckige Parallelepiped-Form auf.
  • Der Bereichssensor 40 ist ein Entfernungssensor mit zwei Kameras 41 und einem Projektor 42, wobei die Kameras 41 und der Projektor 42 als ein Kameramodell 5 und entsprechend ein Projektormodell 6 modelliert wurden. Bei der Kamera 41 handelt es sich um eine digitale Videokamera oder eine digitale Stehbildkamera mit einem bildgebenden Element wie beispielsweise einem CCD-Sensor (charge coupled device sensor) und einem CMOS-Sensor (complementary metal oxide semiconductor sensor) und sie ist oberhalb der Behältereinheit 30 angeordnet, um ein Bild der Flächen der Artikel 20 aufzunehmen. Der Projektor 42 ist oberhalb der Behältereinheit 30 angeordnet, um Streifenmusterlicht in das Sichtfeld der zwei Kameras 41 zu projizieren. Eine Mehrzahl von Messpunkten wird auf den Flächen der Artikel 20 auf Grundlage des Musterlichts festgelegt, -und dreidimensionale Positionsinformationen über die Messpunkte, d. h., ein X-Koordinatenwert, ein Y-Koordinatenwert und ein Z-Koordinatenwert, werden von den zwei Kameras 41 erfasst.
  • 2 ist ein Blockschaubild, das eine Konfiguration einer Anordnungsevaluierungsvorrichtung 100 gemäß der ersten Ausführungsform der vorliegenden Erfindung veranschaulicht. Wie in 2 veranschaulicht, zählen zu der Anordnungsevaluierungsvorrichtung 100 eine Eingabeeinheit 101, eine Ausgabeeinheit 102 und eine arithmetische Berechnungseinheit 10. Die Eingabeeinheit 101 gibt verschiedene Befehle für eine Simulation ein und wird mithilfe einer Tastatur und dergleichen konfiguriert. Die Ausgabeeinheit 102 zeigt ein Simulationsergebnis an und wird mithilfe einer Anzeige und dergleichen konfiguriert. Die arithmetische Berechnungseinheit 10 wird von einem Computer konfiguriert, zu dem eine arithmetische Verarbeitungsvorrichtung mit einer CPU (central processing unit, Zentraleinheit), einem ROM (read only memory, Nur-Lese-Speicher), einem RAM (random access memory, Direktzugriffsspeicher), andere periphere Schaltungen und dergleichen zählen, und weist eine Artikelanordnungseinheit 11, eine Sensoranordnungseinheit 12, eine Hindernisanordnungseinheit 13, eine erste Ebenengruppen-Erzeugungseinheit 14, eine zweite Ebenengruppen-Erzeugungseinheit 15, eine Schnittlinien-Berechnungseinheit 16, eine Schnittpunktanzahl-Berechnungseinheit 17 sowie eine Anordnungsevaluierungseinheit 18 als funktionelle Elemente auf.
  • Die Artikelanordnungseinheit 11 ordnet eine Mehrzahl von Artikelmodellen 2 in einem gestapelten Zustand in dem Behältereinheitmodell 3 an. 3A und 3B sind Schaubilder zur Erläuterung einer Verarbeitung in der Artikelanordnungseinheit 11.
  • Als Erstes ordnet die Artikelanordnungseinheit 11 ein oder eine Mehrzahl von dreidimensionalen Artikelmodellen 2, die von einem Benutzer erstellt wurden und eine vorgegebene Form aufweisen, mithilfe der Eingabeeinheit 101 in einem virtuellen Raum an, wobei die Schwerkraft ignoriert wird, wie in 3A veranschaulicht. Als Nächstes wendet die Artikelanordnungseinheit 11 Schwerkraft auf die Artikelmodelle 2 an, um die Artikelmodelle 2 in das Behältereinheitmodell 3 fallenzulassen, wie in 3B veranschaulicht. Zu diesem Zeitpunkt werden die Positionen der Artikelmodelle 2 an einem Interferenzpunkt (Punkt a in 3B) zwischen dem Artikelmodell 2 und dem Behältereinheitmodell 3 und einem Interferenzpunkt (Punkt b in 3B) zwischen dem Artikelmodell 2 und einem anderen Artikelmodell 2 derart festgehalten, dass die Positionen und Ausrichtungen der Artikelmodelle 2 in einem gestapelten Zustand bestimmt sind.
  • Wie in 1 gezeigt, ordnet die Sensoranordnungseinheit 12 das Sensormodell 4 (das Kameramodell 5 und das Projektormodell 6) oberhalb des Behältereinheitmodells 3 an. Ein Messbereich des Sensormodells 4 ändert sich als Reaktion auf die Position des Sensormodells 4 in Bezug auf die gestapelten Artikelmodelle 2. Der Messbereich enthält bevorzugt alle Gebiete des Behältereinheitmodells 3 und wird als ein erforderlicher Messbereich bezeichnet. Bei der vorliegenden Ausführungsform ist das Sensormodell 4 derart angeordnet, dass der erforderliche Messbereich in die Sichtfelder von zwei Kameramodellen 5 und den Projektionsbereich des Projektormodells 6 fällt. Anders ausgedrückt: Das Sensormodell 4 ist derart angeordnet, dass alle der Gebiete des Behältereinheitmodells 3 in dem Messbereich enthalten sind. Auf diese Weise ist es möglich, die Positionen all der Artikelmodelle 2 zu messen, die in dem Behältereinheitmodell 3 angeordnet sind.
  • 4A und 4B sind Schaubilder, die ein Beispiel für die Anordnung des Sensormodells 4 veranschaulichen. Insbesondere veranschaulicht 4A eine perspektivische Ansicht, und 4B veranschaulicht eine Draufsicht. In 4A und 4B ist das Projektormodell 6 oberhalb der Mitte des Behältereinheitmodells 3 angeordnet, und ein Paar Kameramodelle 5 ist symmetrisch an beiden Seiten des Projektormodells 6 angeordnet, wobei das Projektormodell 6 und das Paar Kameramodelle 5 auf einer geraden Linie parallel zu der X-Achse angeordnet sind. Wie in 4A veranschaulicht enthält, wenn eine virtuelle Ebene 7 parallel zu den XY-Ebenen derart definiert ist, dass sie alle die Gebiete des Behältereinheitmodells 3 enthält, der Projektionsbereich des Projektormodells 6 auf der virtuellen Ebene 7 alle die XY-Gebiete in dem Behältereinheitmodell 3 und stimmt mit den Sichtbereichen der Kameramodelle 5 überein. Wenn des Weiteren der erforderliche Messbereich in den Sichtfeldern der zwei Kameramodelle 5 und dem Projektionsbereich des Projektormodells 6 enthalten ist, stimmen der Sichtbereich und der Projektionsbereich möglicherweise nicht miteinander überein, oder Teile von ihnen können einander überlappen. Die virtuelle Ebene 7 ist beispielsweise in der Nähe der oberen Fläche des obersten Artikelmodells 2 festgelegt, das in dem Behältereinheitmodell 3 (siehe 8) angeordnet ist. Die virtuelle Ebene 7 kann auch an der unteren Fläche des Behältereinheitmodells 3 oder auf einer vorgegebenen Höhe ab der unteren Fläche parallel zu der XY-Ebene festgelegt sein.
  • Die Hindernisanordnungseinheit 13 ordnet ein Hindernismodell an, das durch Modellieren eines Hindernisses erlangt wird, welches eine Positionsmessung durch den Bereichssensor 40 verhindert. Anders ausgedrückt: Wenn ein Hindernis zwischen dem Bereichssensor 40 und dem Bereichssensor 40 gegenüberliegenden Artikel 20 vorhanden ist, ist die Positionsmessung durch den Bereichssensor 40 nicht möglich. In Anbetracht dieses Punkts wird das Hindernismodell angeordnet. In 1 entsprechen das Robotermodell 1 und das Behältereinheitmodell 3 dem Hindernismodell.
  • Die erste Ebenengruppen-Erzeugungseinheit 14 erzeugt eine Mehrzahl von ersten Ebenen zum Teilen des Sichtbereichs in regelmäßigen Abständen auf Grundlage der Anordnungspositionen der Kameramodelle 5. 5 ist ein Schaubild zur Erläuterung einer Verarbeitung in der ersten Ebenengruppen-Erzeugungseinheit 14. Wie in 5 veranschaulicht, teilt die erste Ebenengruppen-Erzeugungseinheit 14 als Erstes die virtuelle Ebene 7, die dem Paar Kameramodelle 5 gegenüberliegt, in regelmäßigen Abständen in einem vorgegebenen Abstand ΔY parallel zu einer geraden Linie 32, die Brennpunkte des Paars Kameramodelle 5 miteinander verbindet, und legt eine Mehrzahl von Teilungslinien 33 parallel zu der X-Achse fest. Zu diesem Zeitpunkt wird eine Mehrzahl von Ebenen, die durch die gerade Linie 32 und die Teilungslinien 33 erlangt werden, jeweils als erste Ebenen 31 definiert, und eine Mehrzahl von ersten Ebenen 31 wird als eine erste Ebenengruppe bezeichnet. Jede erste Ebene 31 enthält eine Kamerasichtlinie, die sich von dem Paar Kameramodelle 5 aus in Richtung jeder Teilungslinie 33 erstreckt.
  • Die zweite Ebenengruppen-Erzeugungseinheit 15 erzeugt zweite Ebenen 34 auf Grundlage der Anordnungsposition des Projektormodells 6. 6 ist ein Schaubild zur Erläuterung einer Verarbeitung in der zweiten Ebenengruppen-Erzeugungseinheit 15. Wie in 6 veranschaulicht, werden die zweiten Ebenen 34, wenn angenommen wird, dass Streifenmusterlicht von dem Projektormodell 6 auf die virtuelle Ebene 7 projiziert wurde, entlang einer Grenzfläche des Musterlichts erzeugt. Eine Mehrzahl von erzeugten zweiten Ebenen 34 wird als eine zweite Ebenengruppe bezeichnet. Das Musterlicht erzeugt abwechselnd Muster mit Licht und Schatten in einer vorgegebenen Breite auf der virtuellen Ebene 7 entlang der X-Achse. Die Licht- und Schatten-Muster sind durch Grenzlinien 35 definiert, an denen sich die zweiten Ebenen 34 und die virtuelle Ebene 7 schneiden, und ein Abstand ΔX zwischen den Grenzlinien 35 ist gleich und in etwa gleich dem Abstand ΔY zwischen den Teilungslinien 33 der ersten Ebenen 31.
  • Die Schnittlinien-Berechnungseinheit 16 berechnet eine Mehrzahl von Schnittlinien, an denen sich die Mehrzahl von ersten Ebenen 31 und die Mehrzahl von zweiten Ebenen 34 schneiden. 7A und 7B sind Schaubilder zur Erläuterung einer Verarbeitung in der Schnittlinien-Berechnungseinheit 16, wobei insbesondere 7A eine perspektivische Ansicht der ersten Ebene 31 und der zweiten Ebene 34 veranschaulicht und 7B eine Draufsicht veranschaulicht. Wie in 7A veranschaulicht, schneiden sich die erste Ebene 31 und die zweite Ebene 34 orthogonal oder beinahe orthogonal, und eine Schnittlinie 36, an der sich die erste Ebene 31 und die zweite Ebene 34 schneiden, erstreckt sich von dem Lichtprojektionsteil des Projektormodells 6 aus. Wie in 7B veranschaulicht, schneiden sich die Teilungslinie 33 eines Endabschnitts der ersten Ebene 31 und die Grenzlinie 35 eines Endabschnitts der zweiten Ebene 34 in einer Gitterform, und die Schnittlinie 36 verläuft durch einen Schnittpunkt 37 der Teilungslinie 33 mit der Grenzlinie 35.
  • Die Schnittpunktanzahl-Berechnungseinheit 17 zählt die Anzahl von Schnittpunkten, an denen sich die Schnittlinie 36 und Flächen 2a der Artikelmodelle 2 schneiden. Der Schnittpunkt entspricht einem Messpunkt der Oberfläche des Artikels für den Bereichssensor 40, und zahlreiche Messpunkte werden erlangt, da die Anzahl der Schnittpunkte groß ist. 8, 9, 10A und 10B sind Schaubilder zur Erläuterung einer Verarbeitung in der Schnittpunktanzahl-Berechnungseinheit 17. Wie in 8 veranschaulicht, erlangt die Schnittpunktanzahl-Berechnungseinheit 17 als Erstes einen Schnittpunkt (einen Messpunkt) 38 zwischen der Fläche 2a des Artikelmodells 2 und der Schnittlinie 36, die dem Sensormodell 4 gegenüberliegt. In 8 erstreckt sich die Schnittlinie 36, indem sie durch die virtuelle Ebene 7 verläuft, und der Schnittpunkt 38 befindet sich unterhalb der virtuellen Ebene 7.
  • Das „dem Sensormodell 4 gegenüberliegt” weist auf den Fall hin, in dem ein anderes Artikelmodell 2, das Behältereinheitmodell 3 und das Robotermodell 1 nicht auf Liniensegmenten 39 vorhanden sind, die durch Verbinden des Schnittpunkts 38 mit dem Brennpunkt jedes Kameramodells 5 mithilfe einer geraden Linie erlangt werden, wie in 9 gezeigt. Anders ausgedrückt: Wenn das andere Artikelmodell 2 und dergleichen auf den Liniensegmenten 39 vorhanden sind, ist die Kamera 41, da die Kamerasichtlinie von dem Kameramodell 5 zu dem Schnittpunkt 38 blockiert ist, nicht in der Lage, die Position des Schnittpunkts 38 zu erkennen. Folglich liegt in diesem Fall die Fläche 2a des Artikelmodells 2 nicht dem Sensormodell 4 gegenüber, und die Schnittpunktanzahl-Berechnungseinheit 17 zählt den Schnittpunkt 38 nicht. Anders ausgedrückt: Ein tatsächlicher Schnittpunkt 38 ist nur auf der Fläche 2a des Artikelmodells 2 vorhanden, durch die die Kamerasichtlinie (das Liniensegment 39), die an dem Kameramodell 5 beginnt, anfänglich verläuft. Die Schnittpunktanzahl-Berechnungseinheit 17 berechnet dreidimensionale Koordinatenwerte (XYZ-Koordinatenwerte) einer Mehrzahl von Schnittpunkten 38, die auf diese Weise erlangt wurden.
  • Anschließend berechnet die Schnittpunktanzahl-Berechnungseinheit 17, wie in 10A veranschaulicht, auf Grundlage der Formen und Ausrichtungen der Artikelmodelle 2 einen Normalvektor 45, der an dem Schnittpunkt 38 senkrecht zu der Fläche 2a des Artikelmodells 2 und von der Fläche 2a aus nach außen (zur Seite des Sensormodells 4 hin) gerichtet ist. Darüber hinaus wird, wie in 10B veranschaulicht, entschieden, dass, wenn Winkel θ1 und θ2 zwischen dem Normalvektor 45 und jedem Liniensegment 39 größer als ein Winkel θa sind, was zuvor bestimmt wird. Der θa ist ein Schwellenwert zum Ermitteln eines tatsächlichen Schnittpunkts und ist als ein Wert (zum Beispiel 40° bis 50°) kleiner als 90° festgelegt. Anders ausgedrückt: Wenn die Winkel θ1 und θ2 übermäßig groß sind, ist die Kamera 41 nicht in der Lage, die Position einer Artikeloberfläche genau zu erkennen. Folglich setzt, wenn mindestens einer der Winkel θ1 und θ2 größer als der θa ist, obwohl die Flächen 2a der Artikelmodelle 2 dem Sensormodell 4 gegenüberliegen, die Schnittpunktanzahl-Berechnungseinheit 17 die Schnittpunkte 38 auf den Flächen 2a nicht als tatsächliche Schnittpunkte 38 und zählt die Schnittpunkte 38 nicht.
  • Die Anordnungsevaluierungseinheit 18 evaluiert die Angemessenheit der Anordnungsposition des Sensormodells 4 auf Grundlage der Anzahl von Schnittpunkten 38, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt werden. Wenn zum Beispiel die Anzahl gezählter Schnittpunkte 38 gleich oder größer einer vorgegebenen Anzahl ist, die zuvor bestimmt wird, wird ermittelt, da der Bereichssensor 40 zahlreiche dreidimensionale Punkte der Artikelflächen messen kann, dass die Anordnungsposition des Sensormodells 4 angemessen ist. Die Anordnungsevaluierungseinheit 18 gibt ein Ergebnis der Ermittlung an die Ausgabeeinheit 102 aus. Auf diese Weise kann ein Arbeiter eine optimale Anordnungsposition des Bereichssensors 40 bestimmen. Des Weiteren kann die Anordnungsevaluierungseinheit 18 auch die dreidimensionalen Koordinatenwerte der Schnittpunkte 38, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt werden, an die Ausgabeeinheit 102 ausgeben. Auf diese Weise kann ein Benutzer die Positionsinformationen über Artikelflächen, die der Bereichssensor 40 mithilfe von Simulation erlangt, im Voraus schätzen.
  • 11 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung veranschaulicht, die von der arithmetischen Berechnungseinheit 10 der Anordnungsevaluierungsvorrichtung 100 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Die von dem Ablaufplan gezeigte Verarbeitung wird beispielsweise gestartet, wenn ein Simulationsstartbefehl über die Eingabeeinheit 101 eingegeben wird.
  • Bei Schritt S1 werden mithilfe der Verarbeitung in der Artikelanordnungseinheit 11 die Sensoranordnungseinheit 12 und die Hindernisanordnungseinheit 13, die Simulationsmodelle (das Robotermodell 1, das Artikelmodell 2, das Behältereinheitmodell 3 und das Sensormodell 4) in einem dreidimensionalen virtuellen Raum angeordnet. Bei Schritt S2 wird mithilfe der Verarbeitung in der ersten Ebenengruppen-Erzeugungseinheit 14 die Mehrzahl von ersten Ebenen 31 (die erste Ebenengruppe) auf Grundlage der Anordnungsposition des Kameramodells 5 erzeugt, wie in 5 veranschaulicht. Bei Schritt S3 wird mithilfe der Verarbeitung in der zweiten Ebenengruppen-Erzeugungseinheit 15 die Mehrzahl von zweiten Ebenen 34 (die zweite Ebenengruppe) auf Grundlage der Anordnungsposition des Projektormodells 6 erzeugt, wie in 6 veranschaulicht. Bei Schritt S4 wird mithilfe der Verarbeitung in der Schnittlinien-Berechnungseinheit 16 die Mehrzahl von Schnittlinien 36 berechnet, an denen sich die Mehrzahl von ersten Ebenen 31 und die Mehrzahl von zweiten Ebenen 34 schneiden, wie in 7A veranschaulicht.
  • Bei Schritt S5 wird mithilfe der Verarbeitung in der Schnittpunktanzahl-Berechnungseinheit 17 die Anzahl von Schnittpunkten 38 zwischen den Schnittlinien 36 und den Flächen 2a der dem Sensormodell 4 gegenüberliegenden Artikelmodelle 2 gezählt, und dreidimensionale Koordinatenwerte der Schnittpunkte 38 werden berechnet, wie in 8 veranschaulicht. In diesem Fall werden, wie in 10A und 10B veranschaulicht, die Liniensegmente (die Kamerasichtlinien) 39, die durch Verbinden der Kameramodelle 5 mit den Schnittpunkten 38 erlangt werden, und die Winkel θ1 und θ2 des auf die Flächen 2a der Artikelmodelle 2 bezogenen Normalvektors 45 berechnet, und wenn die Winkel θ1 und θ2 größer als der vorgegebene Winkel θa sind, werden die Schnittpunkte 38 nicht gezählt. Bei Schritt S6 wird mithilfe der Verarbeitung in der Anordnungsevaluierungseinheit 18 die Angemessenheit der Anordnungsposition des Sensormodells 4 auf Grundlage der Anzahl gezählter Schnittpunkte 38 evaluiert und die Prozedur beendet.
  • Gemäß der ersten Ausführungsform der vorliegenden Erfindung ist es möglich, die folgenden Aktionen und Wirkungen zu erreichen.
    • (1) Zu der Anordnungsevaluierungsvorrichtung 100 eines Bereichssensors zählen die Artikelanordnungseinheit 11, die die Artikelmodelle 2 in dem vorgegebenen Gebiet (in dem Behältereinheitmodell 3) des -dreidimensionalen virtuellen Raums anordnet; die Sensoranordnungseinheit 12, die das Sensormodell 4, das ein Paar Kameramodelle 5 und das Projektormodell 6 aufweist, in dem virtuellen Raum derart anordnet, dass das vorgegebene Gebiet in dem Messbereich enthalten ist; die erste Ebenengruppen-Erzeugungseinheit 14, die die Mehrzahl von ersten Ebenen 31 erzeugt, zu der die Mehrzahl von Teilungslinien 33, die durch Teilen der virtuellen Ebene 7 in regelmäßigen Abständen in dem vorgegebenen Gebiet erlangt wird, das dem Paar Kameramodelle 5 gegenüberliegt, und die gerade Linie 32 zählen, die die Brennpunkte des Paars Kameramodelle 5 miteinander verbindet; die zweite Ebenengruppen-Erzeugungseinheit 15, die die Mehrzahl von zweiten Ebenen 34 mithilfe von Grenzflächen aus Streifenmusterlicht erzeugt, wenn angenommen wird, dass das Musterlicht von dem Projektormodell 6 auf die virtuelle Ebene 7 projiziert wurde; die Schnittlinien-Berechnungseinheit 16, die die Mehrzahl von Schnittlinien 36 zwischen der Mehrzahl von ersten Ebenen 31 und der Mehrzahl von zweiten Ebenen 34 berechnet, und die Schnittpunktanzahl-Berechnungseinheit 17, die die Anzahl der Schnittpunkte 38 zwischen der Mehrzahl von Schnittlinien 36 und den Flächen 2a der Artikelmodelle 2 berechnet, die dem Paar Kameramodelle 5 gegenüberliegen. Die Anzahl der Schnittpunkte 38 entspricht der Anzahl von Messpunkten des Bereichssensors 40, und daher ist es möglich, eine optimale Anordnungsposition des Bereichssensors 40 zu erhalten.
    • (2) Die Schnittpunktanzahl-Berechnungseinheit 17 zählt als einen tatsächlichen Schnittpunkt einen Schnittpunkt 38, an dem die Winkel θ1 und θ2 zwischen den geraden Linien (den Liniensegmenten 39), die die Schnittpunkte 38 auf den Flächen 2a der Artikelmodelle 2 mit dem Paar Kameramodelle 5 verbinden, und dem Normalvektor 45 von dem Schnittpunkt 38 auf den Flächen 2a der Artikelmodelle 2 gleich oder kleiner als der vorgegebene Winkel θa sind. Demzufolge sind Positionen auf den Artikelflächen, die von dem Bereichssensor 40 nicht genau messbar sind, nicht in der Anzahl der Schnittpunkte 38 enthalten, und die Angemessenheit der Anordnungsposition des Bereichssensors 40 kann zuverlässig mithilfe von Simulation evaluiert werden.
    • (3) Da die Anordnungsevaluierungsvorrichtung 100 ferner die Hindernisanordnungseinheit 13 aufweist, die ein Hindernismodell anordnet, zu dem das Behältereinheitmodell 3 zählt, und die Schnittpunktanzahl-Berechnungseinheit 17 die Anzahl von Schnittpunkten 38 berechnet, an denen sich kein Hindernismodell zwischen den Kameramodellen 5 und den Schnittpunkten 38 befindet, werden, wenn die Kamerasichtlinien von den Kameramodellen 5 zu den Schnittpunkten 38 durch das Behältereinheitmodell 3 blockiert sind, die Schnittpunkte 38 nicht gezählt, und die Angemessenheit der Anordnungsposition des Bereichssensors 40 kann mithilfe von Simulation genau evaluiert werden.
    • (4) Die Anordnungsevaluierungsvorrichtung 100 weist ferner die Anordnungevaluierungseinheit 18 auf, die die Anordnungsposition des Bereichssensors 40 auf Grundlage der Anzahl der Schnittpunkte 38 evaluiert, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt werden. In diesem Fall wird die Evaluierung der Anordnungsposition des Bereichssensors 40 unabhängig von dem Urteil eines Benutzers ausgeführt, sodass es möglich ist, auf einfache Weise eine optimale Anordnungsposition des Bereichssensors 40 zu erhalten.
  • In diesem Fall ist es ausreichend, wenn die Anordnungsevaluierungseinheit 18 die Anzahl von Schnittpunkten 38 addiert, die in Bezug auf entsprechende Anordnungsmuster gezählt werden, und die Anordnungsposition des Bereichssensors 40 auf Grundlage des Summenwertes evaluiert. Zum Beispiel erfolgt, da der Summenwert groß ist, eine Beurteilung, dass die Anordnung des Bereichssensors 40 angemessen ist. Wie vorstehend beschrieben, wird die Anzahl der Schnittpunkte 38 bezogen auf eine Mehrzahl von Anordnungsmustern der Artikelmodelle 2 erlangt, und die Anordnungsposition des Bereichssensors 40 wird auf Grundlage des Summenwertes der Anzahl der Schnittpunkte 38 evaluiert, sodass es möglich ist, die Anordnungsposition des Bereichssensors 40 in Bezug auf die gestapelten Artikel 20 zuverlässig zu evaluieren.
  • (Zweite Ausführungsform)
  • Nachfolgend wird mit Bezug auf 12 bis 14 eine zweite Ausführungsform der vorliegenden Erfindung beschrieben. Bei der zweiten Ausführungsform wird automatisch eine optimale Anordnungsposition des Bereichssensors 40 erlangt. 12 ist ein Blockschaubild, das eine Konfiguration der Anordnungsevaluierungsvorrichtung 100 eines Bereichssensors gemäß der zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht. Des Weiteren werden dieselben Bezugszeichen zum Bezeichnen derselben Elemente wie in 2 verwendet, und ein Unterschied zu 2 wird größtenteils nachfolgend beschrieben.
  • Wie in 12 veranschaulicht, weist die arithmetische Berechnungseinheit 10 eine Sensoranordnungsbereichs-Bestimmungseinheit 19 auf, die einen anordenbaren Bereich (einen Anordnungsbereich AB (arrangement range, AR)) des Bereichssensors 40 bestimmt, zusätzlich zu der vorstehend erwähnten Artikelanordnungseinheit 11, der Sensoranordnungseinheit 12, der Hindernisanordnungseinheit 13, der ersten Ebenengruppen-Erzeugungseinheit 14, der zweiten Ebenengruppen-Erzeugungseinheit 15, der Schnittlinien-Berechnungseinheit 16, der Schnittpunktanzahl-Berechnungseinheit 17 und der Anordnungsevaluierungseinheit 18.
  • 13 ist ein Schaubild, das den Anordnungsbereich AB des Bereichssensors 40 veranschaulicht. Der Anordnungsbereich AB ist ein Anordnungsbereich des Bereichssensors 40, der in der Lage ist, Flächenpositionen der Artikel 20 zu messen und der zum Beispiel von einem Benutzer durch ein Bedienen der Eingabeeinheit 101 in einem dreidimensionalen virtuellen Raum oberhalb der Behältereinheit 30 bestimmt werden kann. Die Sensoranordnungseinheit 12 ändert die Anordnungsposition des Sensormodells 4 in dem bestimmten Anordnungsbereich AB. Zum Beispiel bewegt die Sensoranordnungseinheit 12 die Gesamtheit oder einen Teil (das Kameramodell 5 und das Projektormodell 6) des Sensormodells 4 von einer in 13 veranschaulichten Referenzposition um einen vorgegebenen Betrag in eine Pfeilrichtung in 13 oder ändert einen Neigungswinkel des Sensormodells 4 um einen vorgegebenen Betrag, wodurch die Anordnungsposition des Sensormodells 4 geändert wird.
  • 14 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung veranschaulicht, die von der arithmetischen Berechnungseinheit 10 der Anordnungsevaluierungsvorrichtung 100 gemäß der zweiten Ausführungsform ausgeführt wird. Des Weiteren werden dieselben Bezugszeichen zum Bezeichnen derselben Elemente verwendet, die dieselbe Verarbeitung wie in 11 ausführen, und ein Unterschied zu 11 wird größtenteils nachfolgend beschrieben. Bei Schritt S11 wird mithilfe der Verarbeitung in der Sensoranordnungsbereichs-Bestimmungseinheit 19 der Anordnungsbereich AB des Sensormodells 4 bestimmt. Bei Schritt S12 wird mithilfe der Verarbeitung in der Sensoranordnungseinheit 12 die Position oder Ausrichtung des Sensormodells 4, d. h. die Anordnung des Sensormodells 4 in dem bestimmten Anordnungsbereich AB, geändert.
  • Bei Schritt S5 wird auf Grundlage der geänderten Position oder Ausrichtung des Sensormodells 4, die Anzahl von Schnittpunkten 38 gezählt. Danach wird bei Schritt S13 ermittelt, ob das Sensormodell 4 bereits in allen anordenbaren Positionen des Sensormodells 4 in dem Anordnungsbereich AB angeordnet wurde, d. h., dass alle die anordenbaren Positionen des Sensormodells 4 ausgewählt wurden. Wenn Schritt S13 negativ ist, kehrt die Prozedur zu Schritt S12 zurück, und die Anordnung des Sensormodells 4 wird in eine nicht ausgewählte Position oder Ausrichtung des Sensormodells 4 geändert. Wenn Schritt S13 positiv ist, schreitet die Prozedur fort zu Schritt S14, und mithilfe der Verarbeitung in der Anordnungsevaluierungseinheit 18 wird die Anordnungsposition des Sensormodells 4 ausgewählt, bei der die Anzahl von Schnittpunkten 38 maximal ist, und wird an die Ausgabeeinheit 102 ausgegeben. Auf diese Weise ist es möglich, eine optimale Anordnungsposition des Bereichssensors 40 zu erhalten.
  • Wie vorstehend beschrieben, ordnet bei der zweiten Ausführungsform die Sensoranordnungseinheit 12 das Sensormodell 4 mithilfe einer Mehrzahl von Anordnungsmustern an, die Schnittpunktanzahl-Berechnungseinheit 17 zählt die Anzahl von Schnittpunkten 38 mit Bezug auf entsprechende Anordnungsmuster, und die Anordnungsevaluierungseinheit 18 gibt ein Anordnungsmuster des Sensormodells 4 aus, in dem die Anzahl der Schnittpunkte 38 maximal ist. Auf diese Weise ist es möglich, automatisch eine optimale Anordnungsposition 40 des Bereichssensors zu erhalten, und eine optimale Positionsmessung von Artikelflächen mithilfe des Bereichssensors 40 wird möglich. Darüber hinaus weist die Anordnungsevaluierungsvorrichtung 100 ferner die Sensoranordnungsbereichs-Bestimmungseinheit 19 auf, die den Anordnungsbereich AB des Sensormodells 4 bestimmt, und die Sensoranordnungseinheit 12 ändert die Anordnungsmuster des Sensormodells 4 in dem von der Sensoranordnungsbereichs-Bestimmungseinheit 19 bestimmten Anordnungsbereich, sodass es möglich ist, auf einfache und optimale Weise die Anordnungsmuster des Sensormodells 4 zu ändern.
  • Des Weiteren werden bei der ersten Ausführungsform und der zweiten Ausführungsform mithilfe der Verarbeitung in der Artikelanordnungseinheit 11 die Artikelmodelle 2 in dem dreidimensionalen virtuellen Raum gestapelt und angeordnet. Allerdings gibt es, wenn die Artikel 20 gestapelt und angeordnet werden, keine Regelmäßigkeit der Positionen oder Ausrichtungen der Artikel 20, und es werden verschiedene Anordnungsmuster in Betracht gezogen. In diesem Zusammenhang kann die Artikelanordnungseinheit 11 derart konfiguriert sein, dass sie die Artikelmodelle 2 mithilfe einer Mehrzahl von Anordnungsmustern anordnet, und die Schnittpunktanzahl-Berechnungseinheit 17 kann derart konfiguriert sein, dass sie die Anzahl von Schnittpunkten mit Bezug auf entsprechende Anordnungsmuster zählt. In dem Fall einer Anordnung der Artikelmodelle 2 mithilfe der Mehrzahl von Anordnungsmustern ist es ausreichend, wenn die Positionen und Ausrichtungen der Artikelmodelle 2 aus 3A mithilfe der Bedienung der Eingabeeinheit 101 durch den Benutzer geändert werden. Die Artikelanordnungseinheit 11 kann automatisch die Anordnungsmuster der Artikelmodelle 2 aus 3A nach vorgegebenen Regeln ändern.
  • Bei den Ausführungsformen ist die Anordnungsevaluierungseinheit 18 derart konfiguriert, dass sie ermittelt, ob die Anordnungsposition des Sensormodells 4 auf Grundlage der Anzahl der Schnittpunkte 38 angemessen ist, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt wird, und das Ermittlungsergebnis an die Ausgabeeinheit 102 ausgibt. Anders ausgedrückt: Die Anordnungsevaluierungseinheit 18 ist derart konfiguriert, dass sie die Anordnungsposition des Sensormodells 4 evaluiert. Allerdings kann die Anordnungsevaluierungseinheit 18 entfallen, und die Anzahl der Schnittpunkte 38, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt wird, die dafür konfiguriert sein kann, in der vorliegenden Form an die Ausgabeeinheit 102 ausgegeben zu werden.
  • Gemäß der vorliegenden Erfindung wird durch Verwenden eines Sensormodells, das einem Bereichssensor entspricht, und eines Artikelmodells, das gestapelten Artikeln entspricht, eine Simulation ausgeführt, um die Anzahl von Schnittpunkten von Artikelmodellflächen zu zählen, die Messpunkten des Bereichssensors entsprechen, und daher ist es möglich, eine optimale Anordnungsposition des Bereichssensors mithilfe von Simulation zu erhalten.
  • Die vorstehende Beschreibung ist lediglich ein Beispiel, und die vorliegende Erfindung ist nicht auf die zuvor erwähnten Ausführungsformen und Modifikationen beschränkt, sofern sie die Merkmale der vorliegenden Erfindung nicht beeinträchtigen. Zu Elementen der Ausführungsformen und der Modifikationen zählen Elemente, die ersetzt werden können und offensichtlich ersetzt werden, wobei gleichzeitig die Kennzeichnung der vorliegenden Erfindung beibehalten wird. Anders ausgedrückt: Andere Ausführungsformen, die als in den technischen Bereich der vorliegenden Erfindung fallend angesehen werden, sind in den Schutzbereich der vorliegenden Erfindung einbezogen. Darüber hinaus können die vorstehend genannten Ausführungsformen sowie eine oder mehrere der Modifikationen auch beliebig kombiniert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2013-101045 [0002, 0002]

Claims (7)

  1. Anordnungsevaluierungsvorrichtung (100) eines Bereichssensors, die mithilfe von Simulation eine Anordnungsposition eines Bereichssensors (40) evaluiert, der ein Paar Kameras (41) und einen Projektor (42) zum Projizieren eines Streifenmusterlichts aufweist, die umfasst: eine Artikelanordnungseinheit (11), die ein Artikelmodell (2) anordnet, das einer Mehrzahl von gestapelten Artikeln (20) in einem vorgegebenen Gebiet in einem dreidimensionalen virtuellen Raum entspricht; eine Sensoranordnungseinheit (12), die ein Sensormodell (4), das ein Sensormodell ist, das dem Bereichssensor entspricht, und ein Paar Kameramodelle (5), die dem Paar Kameras entsprechen, sowie ein Projektormodell (6) aufweist, das dem Projektor entspricht, derart in dem virtuellen Raum anordnet, dass das vorgegebene Gebiet in einem Messbereich enthalten ist; eine erste Ebenengruppen-Erzeugungseinheit (14), die eine Mehrzahl von ersten Ebenen (31) erzeugt, zu der eine Mehrzahl von Teilungslinien (33), die durch Teilen einer virtuellen Ebene (7) in gleichmäßigen Abständen in dem vorgegebenen Gebiet gegenüber dem Paar Kameramodelle erlangt werden, sowie eine Kamerasichtlinie zählen, die sich von dem Paar Kameramodelle aus in Richtung auf die entsprechenden Teilungslinien erstreckt; eine zweite Ebenengruppen-Erzeugungseinheit (15), die eine Mehrzahl von zweiten Ebenen (34) durch Grenzflächen aus Streifenmusterlicht erzeugt, wenn davon ausgegangen wird, dass das Streifenmusterlicht von dem Projektormodell auf die virtuelle Ebene projiziert wurde; eine Schnittlinien-Berechnungseinheit (16), die eine Mehrzahl von Schnittlinien (36) berechnet, an denen sich die Mehrzahl erster Ebenen und die Mehrzahl zweiter Ebenen schneiden, und eine Schnittpunktanzahl-Berechnungseinheit (17), die eine Anzahl von Schnittpunkten (38) zwischen der Mehrzahl von Schnittlinien und einer Fläche des Artikelmodells berechnet, die dem Paar Kameramodelle gegenüberliegt.
  2. Anordnungsevaluierungsvorrichtung eines Bereichssensors nach Anspruch 1, wobei die Schnittpunktanzahl-Berechnungseinheit eine Anzahl von Schnittpunkten zählt, an denen ein Winkel zwischen einer geraden Linie (39), die den Schnittpunkt auf der Fläche des Artikelmodells mit dem Paar Kameramodelle verbindet, und einer Normalen, bezogen auf die Oberfläche des Artikelmodells, die durch den Schnittpunkt verläuft, gleich oder kleiner einem vorgegebenen Winkel ist.
  3. Anordnungsevaluierungsvorrichtung eines Bereichssensors nach Anspruch 1 oder 2, die ferner umfasst: eine Hindernisanordnungseinheit (13), die ein Hindernismodell anordnet, zu dem ein Behältereinheitmodell (3) zählt, das einer Behältereinheit (30) zum Aufnehmen der Artikel entspricht, wobei die Schnittpunktanzahl-Berechnungseinheit eine Anzahl von Schnittpunkten zählt, an denen das Hindernismodell zwischen den Kameramodellen und den Schnittpunkten nicht vorhanden ist.
  4. Anordnungsevaluierungsvorrichtung eines Bereichssensors nach einem der Ansprüche 1 bis 3, die ferner umfasst: eine Anordnungsevaluierungseinheit (18), die eine Anordnungsposition des Sensormodells auf Grundlage der Anzahl der Schnittpunkte evaluiert, die von der Schnittpunktanzahl-Berechnungseinheit gezählt werden.
  5. Anordnungsevaluierungsvorrichtung eines Bereichssensors nach Anspruch 4, wobei die Artikelanordnungseinheit das Artikelmodell mithilfe einer Mehrzahl von Anordnungsmustern anordnet, die Schnittpunktanzahl-Berechnungseinheit die Anzahl der Schnittpunkte in Bezug auf entsprechende Anordnungsmuster zählt, und die Anordnungsevaluierungseinheit die Anordnungsposition des Sensormodells auf Grundlage eines Summenwertes evaluiert, der durch Addieren der Anzahl von Schnittpunkten erlangt wird, die bezogen auf die entsprechenden Anordnungsmuster gezählt werden.
  6. Anordnungsevaluierungsvorrichtung eines Bereichssensors nach Anspruch 4 oder 5, wobei die Sensoranordnungseinheit das Sensormodell mithilfe der Mehrzahl von Anordnungsmustern anordnet, die Schnittpunktanzahl-Berechnungseinheit die Anzahl der Schnittpunkte bezogen auf die entsprechenden Anordnungsmuster zählt, und die Anordnungsevaluierungseinheit ein Anordnungsmuster des Sensormodells ausgibt, in dem die Anzahl der Schnittpunkte maximal ist.
  7. Anordnungsevaluierungsvorrichtung eines Bereichssensors nach Anspruch 6, die ferner umfasst: eine Sensoranordnungsbereichs-Bestimmungseinheit (19), die einen Anordnungsbereich des Sensormodells bestimmt, wobei die Sensoranordnungseinheit das Anordnungsmuster des Sensormodells in einem Anordnungsbereich ändert, der durch die Sensoranordnungsbereichs-Bestimmungseinheit bestimmt wird.
DE102015106936.9A 2014-05-12 2015-05-05 Anordnungsevaluierungsvorrichtung zur Evaluierung einer Anordungsposition eines Bereichssensors Active DE102015106936B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-098802 2014-05-12
JP2014098802A JP5829306B2 (ja) 2014-05-12 2014-05-12 レンジセンサの配置位置評価装置

Publications (2)

Publication Number Publication Date
DE102015106936A1 true DE102015106936A1 (de) 2015-11-12
DE102015106936B4 DE102015106936B4 (de) 2020-12-17

Family

ID=54336725

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015106936.9A Active DE102015106936B4 (de) 2014-05-12 2015-05-05 Anordnungsevaluierungsvorrichtung zur Evaluierung einer Anordungsposition eines Bereichssensors

Country Status (4)

Country Link
US (1) US9470515B2 (de)
JP (1) JP5829306B2 (de)
CN (1) CN105091760B (de)
DE (1) DE102015106936B4 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011718A1 (de) 2016-09-30 2018-04-05 Michael Pauly Verfahren und Vorrichtung zum Bestimmen einer statischen Größe eines Objekts
CN111633633A (zh) * 2018-10-30 2020-09-08 牧今科技 具有自动化物体检测机构的机器人系统及其操作方法
DE102019001038B4 (de) 2018-02-19 2022-04-21 Fanuc Corporation Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
US11780101B2 (en) 2018-10-30 2023-10-10 Mujin, Inc. Automated package registration systems, devices, and methods

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
FR3032364B1 (fr) * 2015-02-11 2017-01-27 Solystic Installation pour la separation et l'individualisation d'objets postaux heterogenes avec un systeme de vision a sources laser
US10488192B2 (en) 2015-05-10 2019-11-26 Magik Eye Inc. Distance sensor projecting parallel patterns
EP3260999B1 (de) * 2016-06-24 2021-08-04 Sick Ag System zum simulieren von sensoren
KR102595391B1 (ko) 2016-12-07 2023-10-31 매직 아이 인코포레이티드 조정 가능한 초점 이미징 센서를 포함한 거리 센서
JP6785687B2 (ja) * 2017-03-03 2020-11-18 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6846949B2 (ja) 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144157A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2018144155A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6846950B2 (ja) 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN106909149B (zh) * 2017-03-14 2020-09-22 深圳蓝因机器人科技有限公司 一种深度摄像头避障的方法及装置
EP3654638A4 (de) * 2017-07-14 2020-11-11 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
EP3692396A4 (de) 2017-10-08 2021-07-21 Magik Eye Inc. Distanzmessung unter verwendung eines längsrastermusters
US10885761B2 (en) 2017-10-08 2021-01-05 Magik Eye Inc. Calibrating a sensor system including multiple movable sensors
US10679076B2 (en) * 2017-10-22 2020-06-09 Magik Eye Inc. Adjusting the projection system of a distance sensor to optimize a beam layout
WO2019182881A1 (en) 2018-03-20 2019-09-26 Magik Eye Inc. Distance measurement using projection patterns of varying densities
JP7354133B2 (ja) 2018-03-20 2023-10-02 マジック アイ インコーポレイテッド 三次元深度検知及び二次元撮像のためのカメラ露出調節
CN112513565B (zh) 2018-06-06 2023-02-10 魔眼公司 使用高密度投影图案的距离测量
US11475584B2 (en) 2018-08-07 2022-10-18 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
WO2020150131A1 (en) 2019-01-20 2020-07-23 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
WO2020197813A1 (en) 2019-03-25 2020-10-01 Magik Eye Inc. Distance measurement using high density projection patterns
WO2020231747A1 (en) 2019-05-12 2020-11-19 Magik Eye Inc. Mapping three-dimensional depth map data onto two-dimensional images
JP7376268B2 (ja) * 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
JP7346133B2 (ja) * 2019-07-29 2023-09-19 株式会社キーエンス ロボット設定装置及びロボット設定方法
WO2021113135A1 (en) 2019-12-01 2021-06-10 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
EP4094181A4 (de) 2019-12-29 2024-04-03 Magik Eye Inc. Zuordnung dreidimensionaler koordinaten zu zweidimensionalen merkmalspunkten
JP2023510738A (ja) 2020-01-05 2023-03-15 マジック アイ インコーポレイテッド 3次元カメラの座標系を2次元カメラの入射位置に移動させる方法
CN111324945B (zh) 2020-01-20 2023-09-26 阿波罗智能技术(北京)有限公司 传感器方案确定方法、装置、设备及存储介质
JP7467268B2 (ja) 2020-07-30 2024-04-15 グローリー株式会社 計数装置、計数システム、計数方法、およびプログラム
WO2024129708A1 (en) * 2022-12-13 2024-06-20 Schlumberger Technology Corporation Quantification of sensor coverage using synthetic modeling and uses of the quantification

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2692603B2 (ja) 1994-07-13 1997-12-17 村田機械株式会社 三次元計測方法
DE19800441C2 (de) 1997-01-20 2002-10-31 Domotec Systemtechnik Gmbh Vorrichtung zum Ermitteln des Auftreffpunktes von Wurfpfeilen auf einer Zielscheibe
JP3930482B2 (ja) * 2004-01-19 2007-06-13 ファナック株式会社 3次元視覚センサ
EP1777485A4 (de) 2004-08-03 2012-09-19 Techno Dream 21 Co Ltd Verfahren und vorrichtung zur messung dreidimensionaler formen
JP4153528B2 (ja) 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP4238256B2 (ja) 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP4784555B2 (ja) 2007-05-25 2011-10-05 トヨタ自動車株式会社 形状評価方法、形状評価装置および三次元検査装置
JP5496033B2 (ja) 2010-09-17 2014-05-21 三菱重工業株式会社 欠陥寸法測定装置、欠陥寸法測定方法、及びプログラム
US9182221B2 (en) 2011-06-13 2015-11-10 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP6092530B2 (ja) * 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
JP5469216B2 (ja) 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016011718B4 (de) 2016-09-30 2022-12-15 Michael Pauly Verfahren und Vorrichtung zum Bestimmen einer statischen Größe eines Objekts
DE102016011718A1 (de) 2016-09-30 2018-04-05 Michael Pauly Verfahren und Vorrichtung zum Bestimmen einer statischen Größe eines Objekts
DE102019001038B4 (de) 2018-02-19 2022-04-21 Fanuc Corporation Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
US11446822B2 (en) 2018-02-19 2022-09-20 Fanuc Corporation Simulation device that simulates operation of robot
US11501445B2 (en) 2018-10-30 2022-11-15 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same
US11288810B2 (en) 2018-10-30 2022-03-29 Mujin, Inc. Robotic system with automated package registration mechanism and methods of operating the same
US11189033B2 (en) 2018-10-30 2021-11-30 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US11176674B2 (en) 2018-10-30 2021-11-16 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
US11062457B2 (en) 2018-10-30 2021-07-13 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
CN111633633A (zh) * 2018-10-30 2020-09-08 牧今科技 具有自动化物体检测机构的机器人系统及其操作方法
US11636605B2 (en) 2018-10-30 2023-04-25 Mujin, Inc. Robotic system with automated package registration mechanism and minimum viable region detection
DE112019000217B4 (de) 2018-10-30 2023-09-14 Mujin, Inc. Ein Robotersystem mit automatisiertem Paketregistrierungsmechanismus und Leitung zur automatischen Erkennung
US11780101B2 (en) 2018-10-30 2023-10-10 Mujin, Inc. Automated package registration systems, devices, and methods
US11797926B2 (en) 2018-10-30 2023-10-24 Mujin, Inc. Robotic system with automated object detection mechanism and methods of operating the same
US11961042B2 (en) 2018-10-30 2024-04-16 Mujin, Inc. Robotic system with automated package registration mechanism and auto-detection pipeline
US12002007B2 (en) 2018-10-30 2024-06-04 Mujin, Inc. Robotic system with automated package scan and registration mechanism and methods of operating the same

Also Published As

Publication number Publication date
US9470515B2 (en) 2016-10-18
JP5829306B2 (ja) 2015-12-09
US20150323321A1 (en) 2015-11-12
CN105091760B (zh) 2017-01-18
JP2015215259A (ja) 2015-12-03
CN105091760A (zh) 2015-11-25
DE102015106936B4 (de) 2020-12-17

Similar Documents

Publication Publication Date Title
DE102015106936B4 (de) Anordnungsevaluierungsvorrichtung zur Evaluierung einer Anordungsposition eines Bereichssensors
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE102016011653B4 (de) Robotersystem mit Kamera zum Aufnehmen eines Bildes einer Zielmarke
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE112013003338B4 (de) Größenmessvorrichtung und Größenmessverfahren
DE602006000627T2 (de) Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung
DE102014212304B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE112011104727B4 (de) Leiterplatteninspektionsvorrichtung, Leiterplatteninspektionssystem und Verfahren zur Anzeige eines Bildschirms zum Prüfen eines Leiterplatteninspektionsergebnisses
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
DE19618283A1 (de) Bildaufnahmevorrichtung und Verfahren für die dreidimensionale berührungsfreie Messung
DE102013021917A1 (de) Robotersystemanzeigevorrichtung
WO2017059992A1 (de) Sensorvorrichtung sowie roboteranordnung mit der sensorvorrichtung
DE112015000132T5 (de) Kalibrierungssystem, Arbeitsmaschine und Kalibrierungsverfahren
DE102016014384B4 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102005037841B4 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE102019001038A1 (de) Simulationsvorrichtung, die den Arbeitsablauf eines Roboters simuliert
DE102021103726A1 (de) Messparameter-Optimierungsverfahren und -Vorrichtung sowie Computersteuerprogramm
DE102005037837A1 (de) Verfahren und Vorrichtung zur Erstellung eines Messplans zur Vermessung eines 3D-Messobjekts
DE102019001036A1 (de) Objektüberwachungsvorrichtung, die einen Sensor verwendet
DE10016963C2 (de) Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE102017201827A1 (de) Verfahren zur Korrektur von Abweichungen in einem Herstellungsprozess eines Gegenstands
DE102019006314A1 (de) Dreidimensionale-Geometrie-Messvorrichtung und Dreidimensionale-Geometrie-Messverfahren
DE19581950B4 (de) Automatisches Formberechnungsverfahren und Vorrichtung für eine Konturformmessmaschine
DE112021005353T5 (de) Bildverarbeitungssystem und Bildverarbeitungsverfahren

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: HASELTINE LAKE KEMPNER LLP, DE

Representative=s name: HL KEMPNER PATENTANWALT, RECHTSANWALT, SOLICIT, DE

Representative=s name: HASELTINE LAKE LLP, DE

R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01B0011000000

Ipc: G01B0011250000

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: HL KEMPNER PATENTANWAELTE, SOLICITORS (ENGLAND, DE

Representative=s name: HL KEMPNER PATENTANWALT, RECHTSANWALT, SOLICIT, DE

R020 Patent grant now final