-
1. Gebiet der Erfindung
-
Die vorliegende Erfindung betrifft eine Anordnungsevaluierungsvorrichtung eines Bereichssensors, die eine Anordnungsposition des Bereichssensors mithilfe von Simulation evaluiert.
-
2. Beschreibung des Standes der Technik
-
Ein Bereichssensor (ein Bereichsscanner) wird verwendet, wenn eine Vielzahl von Positionsinformationen über Artikel in einem dreidimensionalen Raum erfasst wird. Eine Vorrichtung ist bekannt, bei der durch Verwenden eines Bereichssensors Positionsinformationen über in einem -dreidimensionalen Raum gestapelte Artikel erfasst werden, wobei die Positionen und Stellungen der Artikel auf Grundlage der Positionsinformationen erkannt und die erkannten Artikel von einem Roboter entnommen werden (siehe beispielsweise die
japanische Offenlegungsschrift Nr. 2013-101045 ). In der
japanischen Offenlegungsschrift Nr. 2013-101045 wird offenbart, dass ein Bereichssensor zwei Kameras und einen Projektor aufweist.
-
Da jedoch die Position eines Bereichssensors in einem dreidimensionalen Raum herkömmlicherweise auf Grundlage von Erfahrung und dergleichen eines Arbeiters bestimmt wird, ist es schwierig, den Bereichssensor an einer optimalen Position anzuordnen.
-
KURZDARSTELLUNG DER ERFINDUNG
-
Bei einem Aspekt der vorliegenden Erfindung handelt es sich um eine Anordnungsevaluierungsvorrichtung eines Bereichssensors, die mithilfe von Simulation eine Anordnungsposition eines Bereichssensors evaluiert, der ein Paar Kameras und einen Projektor zum Projizieren von Streifenmusterlicht aufweist, und zu der zählen: eine Artikelanordnungseinheit, die ein Artikelmodell anordnet, das einer Mehrzahl von gestapelten Artikeln in einem vorgegebenen Gebiet in einem dreidimensionalen virtuellen Raum entspricht; eine Sensoranordnungseinheit, die ein Sensormodell, bei dem es sich um ein Sensormodell handelt, das dem Bereichssensor entspricht, und ein Paar Kameramodelle, das dem Paar Kameras entspricht, sowie ein Projektormodell aufweist, das dem Projektor entspricht, in einem virtuellen Raum derart anordnet, dass das vorgegebene Gebiet in einem Messbereich enthalten ist; eine erste Ebenengruppen-Erzeugungseinheit, die eine Mehrzahl von ersten Ebenen erzeugt, zu der eine Mehrzahl von Teilungslinien, die durch Teilen einer virtuellen Ebene in regelmäßigen Abständen in dem vorgegebenen Gebiet gegenüber dem Paar Kameramodelle erlangt werden, sowie eine Kamerasichtlinie zählen, die sich von dem Paar Kameramodelle aus in Richtung auf die entsprechenden Teilungslinien erstreckt; eine zweite Ebenengruppen-Erzeugungseinheit, die eine Mehrzahl von zweiten Ebenen durch Grenzflächen aus Streifenmusterlicht erzeugt, wenn angenommen wird, dass das Streifenmusterlicht von dem Projektormodell auf die virtuelle Ebene projiziert wurde; eine Schnittlinien-Berechnungseinheit, die eine Mehrzahl von Schnittlinien berechnet, an denen sich die Mehrzahl erster Ebenen und die Mehrzahl zweiter Ebenen schneiden, sowie eine Schnittpunktanzahl-Berechnungseinheit, die eine Anzahl von Schnittpunkten zwischen der Mehrzahl von Schnittlinien und einer Fläche des Artikelmodells zählt, die dem Paar Kameramodelle gegenüberliegt.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
Die Aufgabe, die Merkmale sowie die Vorteile der vorliegenden Erfindung werden aus einer den begleitenden Zeichnungen zugehörigen Beschreibung der folgenden Ausführungsformen sowie durch die begleitenden Zeichnungen näher ersichtlich:
-
1 ist ein Schaubild, das Simulationsmodelle veranschaulicht, die in einer Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß einer ersten Ausführungsform der vorliegenden Erfindung verwendet werden;
-
2 ist ein Blockschaubild, das eine Konfiguration einer Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß einer ersten Ausführungsform der vorliegenden Erfindung veranschaulicht;
-
3A und 3B sind Schaubilder zum Erläutern einer Verarbeitung in einer Artikelanordnungseinheit aus 2;
-
4A und 4B sind Schaubilder, die ein Beispiel für eine Anordnung eines Sensormodells zeigen;
-
5 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer ersten Ebenengruppen-Erzeugungseinheit aus 2;
-
6 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer zweiten Ebenengruppen-Erzeugungseinheit aus 2;
-
7A und 7B sind Schaubilder zur Erläuterung einer Verarbeitung in einer Schnittlinien-Berechnungseinheit aus 2;
-
8 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer Schnittpunktanzahl-Berechnungseinheit aus 2;
-
9 ist ein Schaubild zur Erläuterung einer Verarbeitung in einer Schnittpunktanzahl-Berechnungseinheit aus 2;
-
10A und 10B sind Schaubilder zur Erläuterung einer Verarbeitung in einer Schnittpunktanzahl-Berechnungseinheit aus 2;
-
11 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung zeigt, die von einer arithmetischen Berechnungseinheit aus 2 ausgeführt wird;
-
12 ist ein Blockschaubild, das eine Konfiguration einer Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß einer zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht;
-
13 ist ein Schaubild, das einen Anordnungsbereich eines Bereichssensors gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt, und
-
14 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung zeigt, die von einer arithmetischen Berechnungseinheit aus 12 ausgeführt wird.
-
AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
-
(Erste Ausführungsform)
-
Nachfolgend wird hier mit Bezug auf 1 bis 11 eine erste Ausführungsform der vorliegenden Erfindung beschrieben. Die Anordnungsevaluierungsvorrichtung eines Bereichssensors gemäß der ersten Ausführungsform evaluiert die Angemessenheit einer Anordnungsposition eines Bereichssensors in einem dreidimensionalen Raum mithilfe von Simulation. Der Bereichssensor wird verwendet, um die Positionsinformationen über gestapelte Artikel zu erfassen, wenn die Artikel von einem Roboter entnommen werden.
-
1 veranschaulicht schematisch eine gesamte Konfiguration von Simulationsmodellen, die mithilfe einer Anordnungsevaluierungsvorrichtung einer Simulation unterzogen werden. Wie in 1 veranschaulicht, beinhalten die Simulationsmodelle ein Robotermodell 1, das durch Modellieren eines Roboters 9 erlangt wird, ein Artikelmodell 2, das durch Modellieren von Artikeln 20 (Arbeit) erlangt wird, ein Behälterereinheitmodell 3, das durch Modellieren einer Behälterereinheit 30 erlangt wird, und ein Sensormodell 4, das durch Modellieren eines Bereichssensors 40 erlangt wird. Die Formen dieser Simulationsmodelle (des Robotermodells 1, des Artikelmodells 2, des Behältereinheitmodells 3 und des Sensormodells 4) sind in einem virtuellen Raum mit einem Koordinatensystem aus drei orthogonalen Achsen (die Achsen XYZ) definiert. Anders ausgedrückt: Die Simulationsmodelle sind dreidimensionale Modelle in einem virtuellen Raum und sind mit vorgegebenen Ausrichtungen in vorgegebenen Positionen in dem virtuellen Raum angeordnet.
-
Der Roboter 9 ist ein Gelenkroboter und weist eine Greifeinheit 9a auf, die in der Lage ist, einen Artikel an einem vorderen Endabschnitt eines Arms zu greifen. Die Behältereinheit 30 ist beispielsweise ein Behälter mit einer offenen Oberseite und weist ein unteres Wandteil 30a auf, das sich auf der X- und Y-Ebene erstreckt, und ein Seitenwandteil 30b, das sich vertikal von einem Umfangsrand des unteren Wandteils 30a aus entlang der Richtung der Z-Achse erstreckt. Die Artikel 20 sind in der Behältereinheit 30 gestapelt und aufgenommen und weisen dieselbe rechteckige Parallelepiped-Form auf.
-
Der Bereichssensor 40 ist ein Entfernungssensor mit zwei Kameras 41 und einem Projektor 42, wobei die Kameras 41 und der Projektor 42 als ein Kameramodell 5 und entsprechend ein Projektormodell 6 modelliert wurden. Bei der Kamera 41 handelt es sich um eine digitale Videokamera oder eine digitale Stehbildkamera mit einem bildgebenden Element wie beispielsweise einem CCD-Sensor (charge coupled device sensor) und einem CMOS-Sensor (complementary metal oxide semiconductor sensor) und sie ist oberhalb der Behältereinheit 30 angeordnet, um ein Bild der Flächen der Artikel 20 aufzunehmen. Der Projektor 42 ist oberhalb der Behältereinheit 30 angeordnet, um Streifenmusterlicht in das Sichtfeld der zwei Kameras 41 zu projizieren. Eine Mehrzahl von Messpunkten wird auf den Flächen der Artikel 20 auf Grundlage des Musterlichts festgelegt, -und dreidimensionale Positionsinformationen über die Messpunkte, d. h., ein X-Koordinatenwert, ein Y-Koordinatenwert und ein Z-Koordinatenwert, werden von den zwei Kameras 41 erfasst.
-
2 ist ein Blockschaubild, das eine Konfiguration einer Anordnungsevaluierungsvorrichtung 100 gemäß der ersten Ausführungsform der vorliegenden Erfindung veranschaulicht. Wie in 2 veranschaulicht, zählen zu der Anordnungsevaluierungsvorrichtung 100 eine Eingabeeinheit 101, eine Ausgabeeinheit 102 und eine arithmetische Berechnungseinheit 10. Die Eingabeeinheit 101 gibt verschiedene Befehle für eine Simulation ein und wird mithilfe einer Tastatur und dergleichen konfiguriert. Die Ausgabeeinheit 102 zeigt ein Simulationsergebnis an und wird mithilfe einer Anzeige und dergleichen konfiguriert. Die arithmetische Berechnungseinheit 10 wird von einem Computer konfiguriert, zu dem eine arithmetische Verarbeitungsvorrichtung mit einer CPU (central processing unit, Zentraleinheit), einem ROM (read only memory, Nur-Lese-Speicher), einem RAM (random access memory, Direktzugriffsspeicher), andere periphere Schaltungen und dergleichen zählen, und weist eine Artikelanordnungseinheit 11, eine Sensoranordnungseinheit 12, eine Hindernisanordnungseinheit 13, eine erste Ebenengruppen-Erzeugungseinheit 14, eine zweite Ebenengruppen-Erzeugungseinheit 15, eine Schnittlinien-Berechnungseinheit 16, eine Schnittpunktanzahl-Berechnungseinheit 17 sowie eine Anordnungsevaluierungseinheit 18 als funktionelle Elemente auf.
-
Die Artikelanordnungseinheit 11 ordnet eine Mehrzahl von Artikelmodellen 2 in einem gestapelten Zustand in dem Behältereinheitmodell 3 an. 3A und 3B sind Schaubilder zur Erläuterung einer Verarbeitung in der Artikelanordnungseinheit 11.
-
Als Erstes ordnet die Artikelanordnungseinheit 11 ein oder eine Mehrzahl von dreidimensionalen Artikelmodellen 2, die von einem Benutzer erstellt wurden und eine vorgegebene Form aufweisen, mithilfe der Eingabeeinheit 101 in einem virtuellen Raum an, wobei die Schwerkraft ignoriert wird, wie in 3A veranschaulicht. Als Nächstes wendet die Artikelanordnungseinheit 11 Schwerkraft auf die Artikelmodelle 2 an, um die Artikelmodelle 2 in das Behältereinheitmodell 3 fallenzulassen, wie in 3B veranschaulicht. Zu diesem Zeitpunkt werden die Positionen der Artikelmodelle 2 an einem Interferenzpunkt (Punkt a in 3B) zwischen dem Artikelmodell 2 und dem Behältereinheitmodell 3 und einem Interferenzpunkt (Punkt b in 3B) zwischen dem Artikelmodell 2 und einem anderen Artikelmodell 2 derart festgehalten, dass die Positionen und Ausrichtungen der Artikelmodelle 2 in einem gestapelten Zustand bestimmt sind.
-
Wie in 1 gezeigt, ordnet die Sensoranordnungseinheit 12 das Sensormodell 4 (das Kameramodell 5 und das Projektormodell 6) oberhalb des Behältereinheitmodells 3 an. Ein Messbereich des Sensormodells 4 ändert sich als Reaktion auf die Position des Sensormodells 4 in Bezug auf die gestapelten Artikelmodelle 2. Der Messbereich enthält bevorzugt alle Gebiete des Behältereinheitmodells 3 und wird als ein erforderlicher Messbereich bezeichnet. Bei der vorliegenden Ausführungsform ist das Sensormodell 4 derart angeordnet, dass der erforderliche Messbereich in die Sichtfelder von zwei Kameramodellen 5 und den Projektionsbereich des Projektormodells 6 fällt. Anders ausgedrückt: Das Sensormodell 4 ist derart angeordnet, dass alle der Gebiete des Behältereinheitmodells 3 in dem Messbereich enthalten sind. Auf diese Weise ist es möglich, die Positionen all der Artikelmodelle 2 zu messen, die in dem Behältereinheitmodell 3 angeordnet sind.
-
4A und 4B sind Schaubilder, die ein Beispiel für die Anordnung des Sensormodells 4 veranschaulichen. Insbesondere veranschaulicht 4A eine perspektivische Ansicht, und 4B veranschaulicht eine Draufsicht. In 4A und 4B ist das Projektormodell 6 oberhalb der Mitte des Behältereinheitmodells 3 angeordnet, und ein Paar Kameramodelle 5 ist symmetrisch an beiden Seiten des Projektormodells 6 angeordnet, wobei das Projektormodell 6 und das Paar Kameramodelle 5 auf einer geraden Linie parallel zu der X-Achse angeordnet sind. Wie in 4A veranschaulicht enthält, wenn eine virtuelle Ebene 7 parallel zu den XY-Ebenen derart definiert ist, dass sie alle die Gebiete des Behältereinheitmodells 3 enthält, der Projektionsbereich des Projektormodells 6 auf der virtuellen Ebene 7 alle die XY-Gebiete in dem Behältereinheitmodell 3 und stimmt mit den Sichtbereichen der Kameramodelle 5 überein. Wenn des Weiteren der erforderliche Messbereich in den Sichtfeldern der zwei Kameramodelle 5 und dem Projektionsbereich des Projektormodells 6 enthalten ist, stimmen der Sichtbereich und der Projektionsbereich möglicherweise nicht miteinander überein, oder Teile von ihnen können einander überlappen. Die virtuelle Ebene 7 ist beispielsweise in der Nähe der oberen Fläche des obersten Artikelmodells 2 festgelegt, das in dem Behältereinheitmodell 3 (siehe 8) angeordnet ist. Die virtuelle Ebene 7 kann auch an der unteren Fläche des Behältereinheitmodells 3 oder auf einer vorgegebenen Höhe ab der unteren Fläche parallel zu der XY-Ebene festgelegt sein.
-
Die Hindernisanordnungseinheit 13 ordnet ein Hindernismodell an, das durch Modellieren eines Hindernisses erlangt wird, welches eine Positionsmessung durch den Bereichssensor 40 verhindert. Anders ausgedrückt: Wenn ein Hindernis zwischen dem Bereichssensor 40 und dem Bereichssensor 40 gegenüberliegenden Artikel 20 vorhanden ist, ist die Positionsmessung durch den Bereichssensor 40 nicht möglich. In Anbetracht dieses Punkts wird das Hindernismodell angeordnet. In 1 entsprechen das Robotermodell 1 und das Behältereinheitmodell 3 dem Hindernismodell.
-
Die erste Ebenengruppen-Erzeugungseinheit 14 erzeugt eine Mehrzahl von ersten Ebenen zum Teilen des Sichtbereichs in regelmäßigen Abständen auf Grundlage der Anordnungspositionen der Kameramodelle 5. 5 ist ein Schaubild zur Erläuterung einer Verarbeitung in der ersten Ebenengruppen-Erzeugungseinheit 14. Wie in 5 veranschaulicht, teilt die erste Ebenengruppen-Erzeugungseinheit 14 als Erstes die virtuelle Ebene 7, die dem Paar Kameramodelle 5 gegenüberliegt, in regelmäßigen Abständen in einem vorgegebenen Abstand ΔY parallel zu einer geraden Linie 32, die Brennpunkte des Paars Kameramodelle 5 miteinander verbindet, und legt eine Mehrzahl von Teilungslinien 33 parallel zu der X-Achse fest. Zu diesem Zeitpunkt wird eine Mehrzahl von Ebenen, die durch die gerade Linie 32 und die Teilungslinien 33 erlangt werden, jeweils als erste Ebenen 31 definiert, und eine Mehrzahl von ersten Ebenen 31 wird als eine erste Ebenengruppe bezeichnet. Jede erste Ebene 31 enthält eine Kamerasichtlinie, die sich von dem Paar Kameramodelle 5 aus in Richtung jeder Teilungslinie 33 erstreckt.
-
Die zweite Ebenengruppen-Erzeugungseinheit 15 erzeugt zweite Ebenen 34 auf Grundlage der Anordnungsposition des Projektormodells 6. 6 ist ein Schaubild zur Erläuterung einer Verarbeitung in der zweiten Ebenengruppen-Erzeugungseinheit 15. Wie in 6 veranschaulicht, werden die zweiten Ebenen 34, wenn angenommen wird, dass Streifenmusterlicht von dem Projektormodell 6 auf die virtuelle Ebene 7 projiziert wurde, entlang einer Grenzfläche des Musterlichts erzeugt. Eine Mehrzahl von erzeugten zweiten Ebenen 34 wird als eine zweite Ebenengruppe bezeichnet. Das Musterlicht erzeugt abwechselnd Muster mit Licht und Schatten in einer vorgegebenen Breite auf der virtuellen Ebene 7 entlang der X-Achse. Die Licht- und Schatten-Muster sind durch Grenzlinien 35 definiert, an denen sich die zweiten Ebenen 34 und die virtuelle Ebene 7 schneiden, und ein Abstand ΔX zwischen den Grenzlinien 35 ist gleich und in etwa gleich dem Abstand ΔY zwischen den Teilungslinien 33 der ersten Ebenen 31.
-
Die Schnittlinien-Berechnungseinheit 16 berechnet eine Mehrzahl von Schnittlinien, an denen sich die Mehrzahl von ersten Ebenen 31 und die Mehrzahl von zweiten Ebenen 34 schneiden. 7A und 7B sind Schaubilder zur Erläuterung einer Verarbeitung in der Schnittlinien-Berechnungseinheit 16, wobei insbesondere 7A eine perspektivische Ansicht der ersten Ebene 31 und der zweiten Ebene 34 veranschaulicht und 7B eine Draufsicht veranschaulicht. Wie in 7A veranschaulicht, schneiden sich die erste Ebene 31 und die zweite Ebene 34 orthogonal oder beinahe orthogonal, und eine Schnittlinie 36, an der sich die erste Ebene 31 und die zweite Ebene 34 schneiden, erstreckt sich von dem Lichtprojektionsteil des Projektormodells 6 aus. Wie in 7B veranschaulicht, schneiden sich die Teilungslinie 33 eines Endabschnitts der ersten Ebene 31 und die Grenzlinie 35 eines Endabschnitts der zweiten Ebene 34 in einer Gitterform, und die Schnittlinie 36 verläuft durch einen Schnittpunkt 37 der Teilungslinie 33 mit der Grenzlinie 35.
-
Die Schnittpunktanzahl-Berechnungseinheit 17 zählt die Anzahl von Schnittpunkten, an denen sich die Schnittlinie 36 und Flächen 2a der Artikelmodelle 2 schneiden. Der Schnittpunkt entspricht einem Messpunkt der Oberfläche des Artikels für den Bereichssensor 40, und zahlreiche Messpunkte werden erlangt, da die Anzahl der Schnittpunkte groß ist. 8, 9, 10A und 10B sind Schaubilder zur Erläuterung einer Verarbeitung in der Schnittpunktanzahl-Berechnungseinheit 17. Wie in 8 veranschaulicht, erlangt die Schnittpunktanzahl-Berechnungseinheit 17 als Erstes einen Schnittpunkt (einen Messpunkt) 38 zwischen der Fläche 2a des Artikelmodells 2 und der Schnittlinie 36, die dem Sensormodell 4 gegenüberliegt. In 8 erstreckt sich die Schnittlinie 36, indem sie durch die virtuelle Ebene 7 verläuft, und der Schnittpunkt 38 befindet sich unterhalb der virtuellen Ebene 7.
-
Das „dem Sensormodell 4 gegenüberliegt” weist auf den Fall hin, in dem ein anderes Artikelmodell 2, das Behältereinheitmodell 3 und das Robotermodell 1 nicht auf Liniensegmenten 39 vorhanden sind, die durch Verbinden des Schnittpunkts 38 mit dem Brennpunkt jedes Kameramodells 5 mithilfe einer geraden Linie erlangt werden, wie in 9 gezeigt. Anders ausgedrückt: Wenn das andere Artikelmodell 2 und dergleichen auf den Liniensegmenten 39 vorhanden sind, ist die Kamera 41, da die Kamerasichtlinie von dem Kameramodell 5 zu dem Schnittpunkt 38 blockiert ist, nicht in der Lage, die Position des Schnittpunkts 38 zu erkennen. Folglich liegt in diesem Fall die Fläche 2a des Artikelmodells 2 nicht dem Sensormodell 4 gegenüber, und die Schnittpunktanzahl-Berechnungseinheit 17 zählt den Schnittpunkt 38 nicht. Anders ausgedrückt: Ein tatsächlicher Schnittpunkt 38 ist nur auf der Fläche 2a des Artikelmodells 2 vorhanden, durch die die Kamerasichtlinie (das Liniensegment 39), die an dem Kameramodell 5 beginnt, anfänglich verläuft. Die Schnittpunktanzahl-Berechnungseinheit 17 berechnet dreidimensionale Koordinatenwerte (XYZ-Koordinatenwerte) einer Mehrzahl von Schnittpunkten 38, die auf diese Weise erlangt wurden.
-
Anschließend berechnet die Schnittpunktanzahl-Berechnungseinheit 17, wie in 10A veranschaulicht, auf Grundlage der Formen und Ausrichtungen der Artikelmodelle 2 einen Normalvektor 45, der an dem Schnittpunkt 38 senkrecht zu der Fläche 2a des Artikelmodells 2 und von der Fläche 2a aus nach außen (zur Seite des Sensormodells 4 hin) gerichtet ist. Darüber hinaus wird, wie in 10B veranschaulicht, entschieden, dass, wenn Winkel θ1 und θ2 zwischen dem Normalvektor 45 und jedem Liniensegment 39 größer als ein Winkel θa sind, was zuvor bestimmt wird. Der θa ist ein Schwellenwert zum Ermitteln eines tatsächlichen Schnittpunkts und ist als ein Wert (zum Beispiel 40° bis 50°) kleiner als 90° festgelegt. Anders ausgedrückt: Wenn die Winkel θ1 und θ2 übermäßig groß sind, ist die Kamera 41 nicht in der Lage, die Position einer Artikeloberfläche genau zu erkennen. Folglich setzt, wenn mindestens einer der Winkel θ1 und θ2 größer als der θa ist, obwohl die Flächen 2a der Artikelmodelle 2 dem Sensormodell 4 gegenüberliegen, die Schnittpunktanzahl-Berechnungseinheit 17 die Schnittpunkte 38 auf den Flächen 2a nicht als tatsächliche Schnittpunkte 38 und zählt die Schnittpunkte 38 nicht.
-
Die Anordnungsevaluierungseinheit 18 evaluiert die Angemessenheit der Anordnungsposition des Sensormodells 4 auf Grundlage der Anzahl von Schnittpunkten 38, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt werden. Wenn zum Beispiel die Anzahl gezählter Schnittpunkte 38 gleich oder größer einer vorgegebenen Anzahl ist, die zuvor bestimmt wird, wird ermittelt, da der Bereichssensor 40 zahlreiche dreidimensionale Punkte der Artikelflächen messen kann, dass die Anordnungsposition des Sensormodells 4 angemessen ist. Die Anordnungsevaluierungseinheit 18 gibt ein Ergebnis der Ermittlung an die Ausgabeeinheit 102 aus. Auf diese Weise kann ein Arbeiter eine optimale Anordnungsposition des Bereichssensors 40 bestimmen. Des Weiteren kann die Anordnungsevaluierungseinheit 18 auch die dreidimensionalen Koordinatenwerte der Schnittpunkte 38, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt werden, an die Ausgabeeinheit 102 ausgeben. Auf diese Weise kann ein Benutzer die Positionsinformationen über Artikelflächen, die der Bereichssensor 40 mithilfe von Simulation erlangt, im Voraus schätzen.
-
11 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung veranschaulicht, die von der arithmetischen Berechnungseinheit 10 der Anordnungsevaluierungsvorrichtung 100 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Die von dem Ablaufplan gezeigte Verarbeitung wird beispielsweise gestartet, wenn ein Simulationsstartbefehl über die Eingabeeinheit 101 eingegeben wird.
-
Bei Schritt S1 werden mithilfe der Verarbeitung in der Artikelanordnungseinheit 11 die Sensoranordnungseinheit 12 und die Hindernisanordnungseinheit 13, die Simulationsmodelle (das Robotermodell 1, das Artikelmodell 2, das Behältereinheitmodell 3 und das Sensormodell 4) in einem dreidimensionalen virtuellen Raum angeordnet. Bei Schritt S2 wird mithilfe der Verarbeitung in der ersten Ebenengruppen-Erzeugungseinheit 14 die Mehrzahl von ersten Ebenen 31 (die erste Ebenengruppe) auf Grundlage der Anordnungsposition des Kameramodells 5 erzeugt, wie in 5 veranschaulicht. Bei Schritt S3 wird mithilfe der Verarbeitung in der zweiten Ebenengruppen-Erzeugungseinheit 15 die Mehrzahl von zweiten Ebenen 34 (die zweite Ebenengruppe) auf Grundlage der Anordnungsposition des Projektormodells 6 erzeugt, wie in 6 veranschaulicht. Bei Schritt S4 wird mithilfe der Verarbeitung in der Schnittlinien-Berechnungseinheit 16 die Mehrzahl von Schnittlinien 36 berechnet, an denen sich die Mehrzahl von ersten Ebenen 31 und die Mehrzahl von zweiten Ebenen 34 schneiden, wie in 7A veranschaulicht.
-
Bei Schritt S5 wird mithilfe der Verarbeitung in der Schnittpunktanzahl-Berechnungseinheit 17 die Anzahl von Schnittpunkten 38 zwischen den Schnittlinien 36 und den Flächen 2a der dem Sensormodell 4 gegenüberliegenden Artikelmodelle 2 gezählt, und dreidimensionale Koordinatenwerte der Schnittpunkte 38 werden berechnet, wie in 8 veranschaulicht. In diesem Fall werden, wie in 10A und 10B veranschaulicht, die Liniensegmente (die Kamerasichtlinien) 39, die durch Verbinden der Kameramodelle 5 mit den Schnittpunkten 38 erlangt werden, und die Winkel θ1 und θ2 des auf die Flächen 2a der Artikelmodelle 2 bezogenen Normalvektors 45 berechnet, und wenn die Winkel θ1 und θ2 größer als der vorgegebene Winkel θa sind, werden die Schnittpunkte 38 nicht gezählt. Bei Schritt S6 wird mithilfe der Verarbeitung in der Anordnungsevaluierungseinheit 18 die Angemessenheit der Anordnungsposition des Sensormodells 4 auf Grundlage der Anzahl gezählter Schnittpunkte 38 evaluiert und die Prozedur beendet.
-
Gemäß der ersten Ausführungsform der vorliegenden Erfindung ist es möglich, die folgenden Aktionen und Wirkungen zu erreichen.
- (1) Zu der Anordnungsevaluierungsvorrichtung 100 eines Bereichssensors zählen die Artikelanordnungseinheit 11, die die Artikelmodelle 2 in dem vorgegebenen Gebiet (in dem Behältereinheitmodell 3) des -dreidimensionalen virtuellen Raums anordnet; die Sensoranordnungseinheit 12, die das Sensormodell 4, das ein Paar Kameramodelle 5 und das Projektormodell 6 aufweist, in dem virtuellen Raum derart anordnet, dass das vorgegebene Gebiet in dem Messbereich enthalten ist; die erste Ebenengruppen-Erzeugungseinheit 14, die die Mehrzahl von ersten Ebenen 31 erzeugt, zu der die Mehrzahl von Teilungslinien 33, die durch Teilen der virtuellen Ebene 7 in regelmäßigen Abständen in dem vorgegebenen Gebiet erlangt wird, das dem Paar Kameramodelle 5 gegenüberliegt, und die gerade Linie 32 zählen, die die Brennpunkte des Paars Kameramodelle 5 miteinander verbindet; die zweite Ebenengruppen-Erzeugungseinheit 15, die die Mehrzahl von zweiten Ebenen 34 mithilfe von Grenzflächen aus Streifenmusterlicht erzeugt, wenn angenommen wird, dass das Musterlicht von dem Projektormodell 6 auf die virtuelle Ebene 7 projiziert wurde; die Schnittlinien-Berechnungseinheit 16, die die Mehrzahl von Schnittlinien 36 zwischen der Mehrzahl von ersten Ebenen 31 und der Mehrzahl von zweiten Ebenen 34 berechnet, und die Schnittpunktanzahl-Berechnungseinheit 17, die die Anzahl der Schnittpunkte 38 zwischen der Mehrzahl von Schnittlinien 36 und den Flächen 2a der Artikelmodelle 2 berechnet, die dem Paar Kameramodelle 5 gegenüberliegen. Die Anzahl der Schnittpunkte 38 entspricht der Anzahl von Messpunkten des Bereichssensors 40, und daher ist es möglich, eine optimale Anordnungsposition des Bereichssensors 40 zu erhalten.
- (2) Die Schnittpunktanzahl-Berechnungseinheit 17 zählt als einen tatsächlichen Schnittpunkt einen Schnittpunkt 38, an dem die Winkel θ1 und θ2 zwischen den geraden Linien (den Liniensegmenten 39), die die Schnittpunkte 38 auf den Flächen 2a der Artikelmodelle 2 mit dem Paar Kameramodelle 5 verbinden, und dem Normalvektor 45 von dem Schnittpunkt 38 auf den Flächen 2a der Artikelmodelle 2 gleich oder kleiner als der vorgegebene Winkel θa sind. Demzufolge sind Positionen auf den Artikelflächen, die von dem Bereichssensor 40 nicht genau messbar sind, nicht in der Anzahl der Schnittpunkte 38 enthalten, und die Angemessenheit der Anordnungsposition des Bereichssensors 40 kann zuverlässig mithilfe von Simulation evaluiert werden.
- (3) Da die Anordnungsevaluierungsvorrichtung 100 ferner die Hindernisanordnungseinheit 13 aufweist, die ein Hindernismodell anordnet, zu dem das Behältereinheitmodell 3 zählt, und die Schnittpunktanzahl-Berechnungseinheit 17 die Anzahl von Schnittpunkten 38 berechnet, an denen sich kein Hindernismodell zwischen den Kameramodellen 5 und den Schnittpunkten 38 befindet, werden, wenn die Kamerasichtlinien von den Kameramodellen 5 zu den Schnittpunkten 38 durch das Behältereinheitmodell 3 blockiert sind, die Schnittpunkte 38 nicht gezählt, und die Angemessenheit der Anordnungsposition des Bereichssensors 40 kann mithilfe von Simulation genau evaluiert werden.
- (4) Die Anordnungsevaluierungsvorrichtung 100 weist ferner die Anordnungevaluierungseinheit 18 auf, die die Anordnungsposition des Bereichssensors 40 auf Grundlage der Anzahl der Schnittpunkte 38 evaluiert, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt werden. In diesem Fall wird die Evaluierung der Anordnungsposition des Bereichssensors 40 unabhängig von dem Urteil eines Benutzers ausgeführt, sodass es möglich ist, auf einfache Weise eine optimale Anordnungsposition des Bereichssensors 40 zu erhalten.
-
In diesem Fall ist es ausreichend, wenn die Anordnungsevaluierungseinheit 18 die Anzahl von Schnittpunkten 38 addiert, die in Bezug auf entsprechende Anordnungsmuster gezählt werden, und die Anordnungsposition des Bereichssensors 40 auf Grundlage des Summenwertes evaluiert. Zum Beispiel erfolgt, da der Summenwert groß ist, eine Beurteilung, dass die Anordnung des Bereichssensors 40 angemessen ist. Wie vorstehend beschrieben, wird die Anzahl der Schnittpunkte 38 bezogen auf eine Mehrzahl von Anordnungsmustern der Artikelmodelle 2 erlangt, und die Anordnungsposition des Bereichssensors 40 wird auf Grundlage des Summenwertes der Anzahl der Schnittpunkte 38 evaluiert, sodass es möglich ist, die Anordnungsposition des Bereichssensors 40 in Bezug auf die gestapelten Artikel 20 zuverlässig zu evaluieren.
-
(Zweite Ausführungsform)
-
Nachfolgend wird mit Bezug auf 12 bis 14 eine zweite Ausführungsform der vorliegenden Erfindung beschrieben. Bei der zweiten Ausführungsform wird automatisch eine optimale Anordnungsposition des Bereichssensors 40 erlangt. 12 ist ein Blockschaubild, das eine Konfiguration der Anordnungsevaluierungsvorrichtung 100 eines Bereichssensors gemäß der zweiten Ausführungsform der vorliegenden Erfindung veranschaulicht. Des Weiteren werden dieselben Bezugszeichen zum Bezeichnen derselben Elemente wie in 2 verwendet, und ein Unterschied zu 2 wird größtenteils nachfolgend beschrieben.
-
Wie in 12 veranschaulicht, weist die arithmetische Berechnungseinheit 10 eine Sensoranordnungsbereichs-Bestimmungseinheit 19 auf, die einen anordenbaren Bereich (einen Anordnungsbereich AB (arrangement range, AR)) des Bereichssensors 40 bestimmt, zusätzlich zu der vorstehend erwähnten Artikelanordnungseinheit 11, der Sensoranordnungseinheit 12, der Hindernisanordnungseinheit 13, der ersten Ebenengruppen-Erzeugungseinheit 14, der zweiten Ebenengruppen-Erzeugungseinheit 15, der Schnittlinien-Berechnungseinheit 16, der Schnittpunktanzahl-Berechnungseinheit 17 und der Anordnungsevaluierungseinheit 18.
-
13 ist ein Schaubild, das den Anordnungsbereich AB des Bereichssensors 40 veranschaulicht. Der Anordnungsbereich AB ist ein Anordnungsbereich des Bereichssensors 40, der in der Lage ist, Flächenpositionen der Artikel 20 zu messen und der zum Beispiel von einem Benutzer durch ein Bedienen der Eingabeeinheit 101 in einem dreidimensionalen virtuellen Raum oberhalb der Behältereinheit 30 bestimmt werden kann. Die Sensoranordnungseinheit 12 ändert die Anordnungsposition des Sensormodells 4 in dem bestimmten Anordnungsbereich AB. Zum Beispiel bewegt die Sensoranordnungseinheit 12 die Gesamtheit oder einen Teil (das Kameramodell 5 und das Projektormodell 6) des Sensormodells 4 von einer in 13 veranschaulichten Referenzposition um einen vorgegebenen Betrag in eine Pfeilrichtung in 13 oder ändert einen Neigungswinkel des Sensormodells 4 um einen vorgegebenen Betrag, wodurch die Anordnungsposition des Sensormodells 4 geändert wird.
-
14 ist ein Ablaufplan, der ein Beispiel einer Verarbeitung veranschaulicht, die von der arithmetischen Berechnungseinheit 10 der Anordnungsevaluierungsvorrichtung 100 gemäß der zweiten Ausführungsform ausgeführt wird. Des Weiteren werden dieselben Bezugszeichen zum Bezeichnen derselben Elemente verwendet, die dieselbe Verarbeitung wie in 11 ausführen, und ein Unterschied zu 11 wird größtenteils nachfolgend beschrieben. Bei Schritt S11 wird mithilfe der Verarbeitung in der Sensoranordnungsbereichs-Bestimmungseinheit 19 der Anordnungsbereich AB des Sensormodells 4 bestimmt. Bei Schritt S12 wird mithilfe der Verarbeitung in der Sensoranordnungseinheit 12 die Position oder Ausrichtung des Sensormodells 4, d. h. die Anordnung des Sensormodells 4 in dem bestimmten Anordnungsbereich AB, geändert.
-
Bei Schritt S5 wird auf Grundlage der geänderten Position oder Ausrichtung des Sensormodells 4, die Anzahl von Schnittpunkten 38 gezählt. Danach wird bei Schritt S13 ermittelt, ob das Sensormodell 4 bereits in allen anordenbaren Positionen des Sensormodells 4 in dem Anordnungsbereich AB angeordnet wurde, d. h., dass alle die anordenbaren Positionen des Sensormodells 4 ausgewählt wurden. Wenn Schritt S13 negativ ist, kehrt die Prozedur zu Schritt S12 zurück, und die Anordnung des Sensormodells 4 wird in eine nicht ausgewählte Position oder Ausrichtung des Sensormodells 4 geändert. Wenn Schritt S13 positiv ist, schreitet die Prozedur fort zu Schritt S14, und mithilfe der Verarbeitung in der Anordnungsevaluierungseinheit 18 wird die Anordnungsposition des Sensormodells 4 ausgewählt, bei der die Anzahl von Schnittpunkten 38 maximal ist, und wird an die Ausgabeeinheit 102 ausgegeben. Auf diese Weise ist es möglich, eine optimale Anordnungsposition des Bereichssensors 40 zu erhalten.
-
Wie vorstehend beschrieben, ordnet bei der zweiten Ausführungsform die Sensoranordnungseinheit 12 das Sensormodell 4 mithilfe einer Mehrzahl von Anordnungsmustern an, die Schnittpunktanzahl-Berechnungseinheit 17 zählt die Anzahl von Schnittpunkten 38 mit Bezug auf entsprechende Anordnungsmuster, und die Anordnungsevaluierungseinheit 18 gibt ein Anordnungsmuster des Sensormodells 4 aus, in dem die Anzahl der Schnittpunkte 38 maximal ist. Auf diese Weise ist es möglich, automatisch eine optimale Anordnungsposition 40 des Bereichssensors zu erhalten, und eine optimale Positionsmessung von Artikelflächen mithilfe des Bereichssensors 40 wird möglich. Darüber hinaus weist die Anordnungsevaluierungsvorrichtung 100 ferner die Sensoranordnungsbereichs-Bestimmungseinheit 19 auf, die den Anordnungsbereich AB des Sensormodells 4 bestimmt, und die Sensoranordnungseinheit 12 ändert die Anordnungsmuster des Sensormodells 4 in dem von der Sensoranordnungsbereichs-Bestimmungseinheit 19 bestimmten Anordnungsbereich, sodass es möglich ist, auf einfache und optimale Weise die Anordnungsmuster des Sensormodells 4 zu ändern.
-
Des Weiteren werden bei der ersten Ausführungsform und der zweiten Ausführungsform mithilfe der Verarbeitung in der Artikelanordnungseinheit 11 die Artikelmodelle 2 in dem dreidimensionalen virtuellen Raum gestapelt und angeordnet. Allerdings gibt es, wenn die Artikel 20 gestapelt und angeordnet werden, keine Regelmäßigkeit der Positionen oder Ausrichtungen der Artikel 20, und es werden verschiedene Anordnungsmuster in Betracht gezogen. In diesem Zusammenhang kann die Artikelanordnungseinheit 11 derart konfiguriert sein, dass sie die Artikelmodelle 2 mithilfe einer Mehrzahl von Anordnungsmustern anordnet, und die Schnittpunktanzahl-Berechnungseinheit 17 kann derart konfiguriert sein, dass sie die Anzahl von Schnittpunkten mit Bezug auf entsprechende Anordnungsmuster zählt. In dem Fall einer Anordnung der Artikelmodelle 2 mithilfe der Mehrzahl von Anordnungsmustern ist es ausreichend, wenn die Positionen und Ausrichtungen der Artikelmodelle 2 aus 3A mithilfe der Bedienung der Eingabeeinheit 101 durch den Benutzer geändert werden. Die Artikelanordnungseinheit 11 kann automatisch die Anordnungsmuster der Artikelmodelle 2 aus 3A nach vorgegebenen Regeln ändern.
-
Bei den Ausführungsformen ist die Anordnungsevaluierungseinheit 18 derart konfiguriert, dass sie ermittelt, ob die Anordnungsposition des Sensormodells 4 auf Grundlage der Anzahl der Schnittpunkte 38 angemessen ist, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt wird, und das Ermittlungsergebnis an die Ausgabeeinheit 102 ausgibt. Anders ausgedrückt: Die Anordnungsevaluierungseinheit 18 ist derart konfiguriert, dass sie die Anordnungsposition des Sensormodells 4 evaluiert. Allerdings kann die Anordnungsevaluierungseinheit 18 entfallen, und die Anzahl der Schnittpunkte 38, die von der Schnittpunktanzahl-Berechnungseinheit 17 gezählt wird, die dafür konfiguriert sein kann, in der vorliegenden Form an die Ausgabeeinheit 102 ausgegeben zu werden.
-
Gemäß der vorliegenden Erfindung wird durch Verwenden eines Sensormodells, das einem Bereichssensor entspricht, und eines Artikelmodells, das gestapelten Artikeln entspricht, eine Simulation ausgeführt, um die Anzahl von Schnittpunkten von Artikelmodellflächen zu zählen, die Messpunkten des Bereichssensors entsprechen, und daher ist es möglich, eine optimale Anordnungsposition des Bereichssensors mithilfe von Simulation zu erhalten.
-
Die vorstehende Beschreibung ist lediglich ein Beispiel, und die vorliegende Erfindung ist nicht auf die zuvor erwähnten Ausführungsformen und Modifikationen beschränkt, sofern sie die Merkmale der vorliegenden Erfindung nicht beeinträchtigen. Zu Elementen der Ausführungsformen und der Modifikationen zählen Elemente, die ersetzt werden können und offensichtlich ersetzt werden, wobei gleichzeitig die Kennzeichnung der vorliegenden Erfindung beibehalten wird. Anders ausgedrückt: Andere Ausführungsformen, die als in den technischen Bereich der vorliegenden Erfindung fallend angesehen werden, sind in den Schutzbereich der vorliegenden Erfindung einbezogen. Darüber hinaus können die vorstehend genannten Ausführungsformen sowie eine oder mehrere der Modifikationen auch beliebig kombiniert werden.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 2013-101045 [0002, 0002]