DE212018000178U1 - Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor - Google Patents
Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor Download PDFInfo
- Publication number
- DE212018000178U1 DE212018000178U1 DE212018000178.2U DE212018000178U DE212018000178U1 DE 212018000178 U1 DE212018000178 U1 DE 212018000178U1 DE 212018000178 U DE212018000178 U DE 212018000178U DE 212018000178 U1 DE212018000178 U1 DE 212018000178U1
- Authority
- DE
- Germany
- Prior art keywords
- color image
- image sensor
- image data
- recognition system
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000000034 method Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40298—Manipulator on vehicle, wheels, mobile
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Objekterkennungssystem aufweisend:- eine Steuervorrichtung (9,3),- eine Basis (11), deren Position und Orientierung im Raum bekannt ist, derart, dass Basiskoordinatenwerte, welche die Position und Orientierung der Basis (11) im Raum kennzeichnen, in der Steuervorrichtung (9) gespeichert sind,- eine Bewegungsvorrichtung (2a), die ein Grundgestell (2.1), mehrere Gelenke (4) und einen über die mehreren Gelenke (4) an dem Grundgestell (2.1) verstellbar gelagerten Halter (6a) aufweist, wobei die mehreren Gelenke (4) durch die Steuervorrichtung (9,3) automatisch verstellbar sind, um den Halter (6a) im Raum zu bewegen, wobei das Grundgestell (2.1) an einer vorbestimmten Position und Orientierung auf der Basis (11) befestigt ist und die Position und Orientierung des Grundgestells (2.1) auf der Basis (11) durch Grundkoordinatenwerte bestimmt ist, die in der Steuervorrichtung (9,3) gespeichert sind,- einen 3D-Bildsensor (13) zur Erfassung von 3D-Bilddaten, der bezüglich der Basis derart angeordnet ist, dass die Position und Orientierung des 3D-Bildsensors (13) relativ zur Basis (11) durch 3D-Bildsensorkoordinatenwerte bestimmt ist, die in der Steuervorrichtung (9,3) gespeichert sind, und- einen 2D-Farbbildsensor (14) zur Erfassung von 2D-Farbbilddaten, welcher an dem Halter (6a) der Bewegungsvorrichtung (2a) befestigt ist, und welcher durch die Bewegungsvorrichtung (2a) im Raum bewegbar ist, derart, dass aus den Gelenkstellungen der Gelenke (4) der Bewegungsvorrichtung (2a) die jeweilige momentane Position und Orientierung des 2D-Farbbildsensors (14) im Raum eindeutig bestimmbar und als 2D-Farbbildsensorkoordinatenwerte in der Steuervorrichtung (9,3) speicherbar sind, wobei- das Objekterkennungssystem eine Auswerteinrichtung (9a) aufweist, die ausgebildet ist, die in einer Aufnahmepose der Bewegungsvorrichtung (2a) von dem 2D-Farbbildsensor (14) erfassten 2D-Farbbilddaten mit den in dieser Aufnahmepose erfassten 2D-Farbbildsensorkoordinatenwerte zugeordnet als ein 2D-Farbbilddatensatz zu speichern und die ausgebildet ist, den gespeicherten 2D-Farbbilddatensatz mit den zugeordneten 2D-Farbbildsensorkoordinatenwerten aufzurufen, um sie durch einen Vergleich mit den 3D-Bilddaten für eine Objekterkennung auszuwerten.
Description
- Die Erfindung betrifft ein Objekterkennungssystem.
- Aus der
DE 10 2015 100 983 A1 ist ein Verfahren zur Lokalisierung von Greifpunkten von Objekten bekannt, bei dem die Objekte mittels eines 3D-Sensors abgetastet werden, die Objekte mittels zumindest einer ersten Beleuchtungseinheit beleuchtet werden, während die Objekte mittels einer Kamera erfasst werden, wobei die Relativposition des 3D-Sensors, der ersten Beleuchtungseinheit und der Kamera zueinander bekannt sind und der 3D-Sensor, die erste Beleuchtungseinheit und die Kamera zueinander ortsfest angeordnet sind. Dabei werden aus einem von der Kamera erzeugten zweidimensionalen Bild die Begrenzung der Objekte ermittelt, aus erfasster Abstandsinformation des 3D-Sensors und dem zweidimensionalen Bild wird eine räumliche Position ermittelt und die Greifpunkte für die Objekte werden aus den Begrenzungen und der räumlichen Position der Objekte bestimmt. - Aufgabe der Erfindung ist es, ein kostengünstiges und dabei zuverlässiges Objekterkennungssystem zu schaffen.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Objekterkennungssystem aufweisend:
- - eine Steuervorrichtung,
- - eine Basis, deren Position und Orientierung im Raum bekannt ist, derart, dass Basiskoordinatenwerte, welche die Position und Orientierung der Basis im Raum kennzeichnen, in der Steuervorrichtung gespeichert sind,
- - eine Bewegungsvorrichtung, die ein Grundgestell, mehrere Gelenke und einen über die mehreren Gelenke an dem Grundgestell verstellbar gelagerten Halter aufweist, wobei die mehreren Gelenke durch die Steuervorrichtung automatisch verstellbar sind, um den Halter im Raum zu bewegen, wobei das Grundgestell an einer vorbestimmten Position und Orientierung auf der Basis befestigt ist und die Position und Orientierung des Grundgestells auf der Basis durch Grundkoordinatenwerte bestimmt ist, die in der Steuervorrichtung gespeichert sind,
- - einen 3D-Bildsensor zur Erfassung von 3D-Bilddaten, der bezüglich der Basis derart angeordnet ist, dass die Position und Orientierung des 3D-Bildsensors relativ zur Basis durch 3D-Bildsensorkoordinatenwerte bestimmt ist, die in der Steuervorrichtung gespeichert sind, und
- - einen 2D-Farbbildsensor zur Erfassung von 2D-Farbbilddaten, welcher an dem Halter der Bewegungsvorrichtung befestigt ist, und welcher durch die Bewegungsvorrichtung im Raum bewegbar ist, derart, dass aus den Gelenkstellungen der Gelenke der Bewegungsvorrichtung die jeweilige momentane Position und Orientierung des 2D-Farbbildsensors im Raum eindeutig bestimmbar und als 2D-Farbbildsensorkoordinatenwerte in der Steuervorrichtung speicherbar sind, wobei
- - das Objekterkennungssystem eine Auswerteinrichtung aufweist, die ausgebildet ist, die in einer Aufnahmepose der Bewegungsvorrichtung von dem 2D-Farbbildsensor erfassten 2D-Farbbilddaten mit den in dieser Aufnahmepose erfassten 2D-Farbbildsensorkoordinatenwerte zugeordnet als ein 2D-Farbbilddatensatz zu speichern und die ausgebildet ist, den gespeicherten 2D-Farbbilddatensatz mit den zugeordneten 2D-Farbbildsensorkoordinatenwerten aufzurufen, um sie durch einen Vergleich mit den 3D-Bilddaten für eine Objekterkennung auszuwerten.
- Um ein Objekt in einer komplexen und/oder großen Umgebung zu detektieren und zu lokalisieren, werden üblicherweise nur Ausschnitte der Umgebung aufgenommen und analysiert. Es können dabei zwei getrennte Techniken eingesetzt werden. Dazu zählt entweder eine 2D-Objektdetektion oder eine 3D-Objektdetektion. Es gibt auch Sensoren, die Tiefen- und Farbinformation gleichzeitig liefern, nur ist die Auflösung des Farbsensors begrenzt und oft nicht hochauflösend genug.
- Erfindungsgemäß wird eine Lösung zur Objektdetektion und Objektlokalisierung in einer komplexen Umgebung mittels einem hochauflösenden, insbesondere mobilen 2D-Farbsensor und einem 3D-Sensor vorgeschlagen. Der 3D-Sensor kann ein statischer 3D-Sensor sein. Insoweit kann der 3D-Sensor beispielsweise an der Basis ortsfest angeordnet sein. Alternativ kann der 3D-Sensor ein dynamischer 3D-Sensor sein, der beispielsweise an einer zusätzlichen Kinematik verstellbar bezüglich der Basis angeordnet sein kann.
- Die Vorteile können sein, eine schnelle Detektion der Objekte in 2D-Bildern, eine präzise Lageerkennung der Objekte durch 3D-Daten, eine Aufnahme einer komplexen Szene und/oder eine Kostenminimierung durch Flexibilität aufgrund zweier Sensoren. Der 2D-Farbsensor kann beispielsweise durch bekannte, kostengünstige Mobiltelefon-Kameras realisiert werden und schnell eingesetzt werden. Der 3D-Sensor kann dagegen durch ein hochwertiges System realisiert werden.
- Eine Aufnahme der Umgebung kann dadurch erfolgen, dass der 2D-Sensor beispielsweise durch einen Roboterarm bewegt wird, um die Umgebung aus mehreren Blickrichtungen aufnehmen zu können. Es kann eine mobile Plattform vorgesehen sein, wobei während sich die Plattform in der Umgebung bewegt, die 2D-Aufnahmen erfasst, abgelegt und zusammengeführt werden, so dass es einem Gesamtbild der Umgebung entspricht. Dazu können bekannte Verfahren zum Zusammenfügen (sog. „Stitching“) verwendet werden. Bei jeder 2D-Aufnahme können durch einen 3D-Sensor 3D-Daten generiert werden, die den 2D-Aufnahmen entsprechen. Ergänzend kann nachdem alle nötigen Aufnahmen gemacht sind, der 2D-Sensor wird abgelegt werden.
- Eine Objektdetektion und Objektlokalisierung kann zuerst eine schnelle Objektdetektion im 2D-Gesamtbild durchgeführt werden, z.B. mit Hilfe von bekannten Algorithmen des „Deep Learning“. Als Ergebnis erhält man einen räumlichen Hüllkörper („Bounding-Box“), der das Objekt grob lokalisiert. Mit Hilfe von bekannten Transformationen der 2D-Sensordaten zu den 3D-Sensordaten („2D-3D Mapping“) können 2D-Koordinaten der Hüllkörper in 3D-Koordinaten umgerechnet werden. Anschließend wird ein 3D-Auschnitt geladen, der dieser 3D-Information entspricht. Gleichzeitig kann ein 3D-Modell (CAD oder Punktwolke) des gesuchten Objekts aufgerufen werden. Eine präzise 3D-Objektlageerkennung wird durchgeführt („Surface Matching-Methode“). Nach der Berechnung der Objektlage können die Greifpunkte ermittelt werden. Abschließend können die Positionen beispielsweise der mobilen Plattform und des Roboterarms errechnet werden, die das Greifen des gefunden Objekts durchführen.
- Die Steuervorrichtung kann ausgebildet sein, während einer Erfassung von 2D-Farbbilddaten durch den 2D-Farbbildsensor gleichzeitig eine Erfassung von 3D-Bilddaten durch den 3D-Bildsensor durchzuführen.
- Die Auswerteinrichtung kann eingerichtet sein, ein gesuchtes Objekt in dem 2D-Farbbilddatensatz ausfindig zu machen, einen Bildausschnitt aus dem 2D-Farbbilddatensatz zu selektieren, der das ausfindig gemachte Objekt enthält und den aus dem 2D-Farbbilddatensatz selektierten Bildausschnitt in den von dem 3D-Bildsensor erfassten 3D-Bilddaten wiederzufinden, um daraus die räumliche Position und Orientierung des gesuchten Objekts zu bestimmen.
- Die Auswerteinrichtung kann eingerichtet sein, ein gesuchtes Objekt in den 3D-Bilddaten ausfindig zu machen, einen Bildausschnitt aus den 3D-Bilddaten zu selektieren, der das ausfindig gemachte Objekt enthält und den aus den 3D-Bilddaten selektierten Bildausschnitt in den von dem 2D-Farbbildsensor erfassten 2D-Farbbilddatensatz wiederzufinden, um das gesuchte Objekt anhand der 2D-Farbbilddaten zu verifizieren.
- Die Auswerteinrichtung kann eingerichtet sein, das gesuchte Objekt in den 2D-Farbbilddaten anhand der Farbe und/oder anhand der Textur des Objekts zu verifizieren.
- Die Auswerteinrichtung kann eingerichtet sein, ein gesuchtes Objekt in dem 2D-Farbbilddatensatz ausfindig zu machen und eingerichtet ist, einen dreidimensionalen Hüllkörper einer geometrischen Grundform, insbesondere einer Kugel, eines Quaders oder eines Kreiszylinders zu erzeugen, der durch seine räumliche Lage gekennzeichnet ist, welche das gesuchte Objekt enthält.
- Die Auswerteinrichtung kann eingerichtet sein, aus den gespeicherten 3D-Bilddaten einen Auszug einer 3D-Bilddatenuntermenge zu erzeugen, die innerhalb des dreidimensionalen Hüllkörpers der geometrischen Grundform liegt.
- Die Auswerteinrichtung kann eingerichtet sein, innerhalb der 3D-Bilddatenuntermenge eine Identifikation des gesuchten Objekts durchzuführen und Geometriedaten, Positionsdaten und Orientierungsdaten des identifizierten Objekts zu erzeugen.
- Die Auswerteinrichtung kann eingerichtet sein, aus den Geometriedaten, Positionsdaten und Orientierungsdaten des identifizierten Objekts geeignete Greifflächen oder Greiflinien oder Greifpunkte zu ermitteln, an denen das reale Objekt mittels des Greifers des Roboterarms gegriffen werden kann.
- Die Steuervorrichtung kann eingerichtet sein, die Gelenke des Roboterarms derart zu bewegen, dass der Greifer des Roboterarms derart positioniert ist, dass der Greifer das Objekt an den ermittelten Greifflächen oder Greiflinien oder Greifpunkten gegriffen werden kann, um anschließend das reale Objekt durch Bewegen des Roboterarms handhaben zu können.
- Die Auswerteinrichtung kann eingerichtet sein, das gesuchte Objekt in den 3D-Bilddaten wiederzufinden oder in den 3D-Bilddaten ausfindig zu machen, indem Geometriedaten des Objekts, insbesondere Geometriedaten des Objekts, die aus einem CAD-System entnommen sind, zur Auswertung herangezogen werden.
- Die Auswerteinrichtung kann eingerichtet sein, den 2D-Farbbilddaten zusätzlich zu den 2D-Farbbildsensorkoordinatenwerten des Weiteren einen Zeitwert in dem 2D-Farbbilddatensatz zuzuordnen, welcher Zeitwert den Zeitpunkt wiedergibt, zu welchem der 2D-Farbbildsensor die 2D-Farbbilddaten in der Aufnahmepose erfasst hat.
- Die Bewegungsvorrichtung kann ein Schwenkneigekopf sein, der ein erstes Gelenk in der Bauart eines Schwenkgelenks aufweist und ein zweites Gelenk in der Bauart eines Neigegelenks aufweist, wobei das Schwenkgelenk ausgebildet ist, den Halter bezüglich des Grundgestells um eine vertikale Achse zu schwenken und das Neigegelenk ausgebildet ist, den Halter bezüglich des Grundgestells um eine horizontale Achse zu neigen, um den an dem Halter befestigten 2D-Farbbildsensor im Raum schwenken und neigen zu können.
- Eine weitere Bewegungsvorrichtung kann auch ein Schwenkneigekopf sein, der ein erstes Gelenk in der Bauart eines Schwenkgelenks aufweist und ein zweites Gelenk in der Bauart eines Neigegelenks aufweist, wobei das Schwenkgelenk ausgebildet ist, einen weiteren Halter bezüglich des Grundgestells um eine vertikale Achse zu schwenken und das Neigegelenk ausgebildet ist, den weiteren Halter bezüglich des Grundgestells um eine horizontale Achse zu neigen, um den an dem weiteren Halter befestigten 3D-Bildsensor im Raum schwenken und neigen zu können.
- Die Bewegungsvorrichtung kann ein Roboterarm sein, der mehrere Glieder und wenigstens drei, die Glieder gegeneinander verstellbar verbindende Gelenke aufweist, die von einer Robotersteuerung automatisch verstellbar sind, um den mit einem der Glieder des Roboterarms fest verbundenen Halter oder Greifer des Roboterarms bezüglich des Grundgestells des Roboterarms im Raum verstellen zu können, damit der an dem Halter oder Greifer befestigte 2D-Farbbildsensor oder der an dem weiteren Halter oder Greifer befestigte 3D-Sensor im Raum bewegt werden kann.
- Der Roboterarm kann einen Greifer aufweisen, der ausgebildet ist, den 2D-Farbbildsensor zu ergreifen, ihn aus einer Halterung zu entnehmen und durch Verstellen der Gelenke des Roboterarms im Raum zu bewegen, wobei der 2D-Farbbildsensor während des Bewegens des 2D-Farbbildsensors mittels des Roboterarms 2D-Farbbilddaten erfasst.
- Der Greifer kann ausgebildet sein, den 2D-Farbbildsensor in der Halterung abzulegen.
- Die Basis kann ein Tragboden einer mobilen Plattform sein, auf welcher der Roboterarm mit seinem Grundgestell befestigt ist.
- Die Halterung für den 2D-Farbbildsensor kann an der mobilen Plattform befestigt sein und die Halterung kann dabei ausgebildet sein, den 2D-Farbbildsensor in seinem ungenutzten Zustand an der mobilen Plattform aufzubewahren.
- Der 3D-Bildsensor kann an der mobilen Plattform befestigt sein.
- Der 3D-Bildsensor kann eine Tiefenbildkamera sein, insbesondere eine Tiefenbildkamera, die ein 2D-Bild in Form einer 2D-Pixelmatrix erfasst, wobei jedem Pixel eine Information über die Entfernung eines dem betreffenden Pixel entsprechenden Punktes auf dem erfassten Objekt von einem Kamerabezugspunkt zugeordnet ist.
- Der 2D-Farbbildsensor kann einen hochauflösenden Kamerachip aufweisen, dessen Auflösung mindestens 1920 mal 1080 Bildpunkte beträgt.
- Ein konkretes Ausführungsbeispiel der Erfindung ist in der nachfolgenden Figurenbeschreibung unter Bezugnahme auf die beigefügte Figur näher erläutert. Konkrete Merkmale dieses exemplarischen Ausführungsbeispiels können unabhängig davon, in welchem konkreten Zusammenhang sie erwähnt sind, gegebenenfalls auch einzeln oder auch in anderen Kombinationen betrachtet, allgemeine Merkmale der Erfindung darstellen.
- Es zeigt die:
- Figur eine schematische Darstellung einer mobilen Plattform, die eine Basis aufweist, auf der ein Roboterarm befestigt ist, der einen Greifer aufweist, welcher einen 2D-Farbbildsensor trägt, wobei an der mobilen Plattform außerdem ein 3D-Bildsensor befestigt ist.
- Die Figur zeigt eine beispielhafte Anwendungsszene für ein erfindungsgemäßes Objekterkennungssystem. Das Objekterkennungssystem umfasst einen Roboter
1 , der einen Roboterarm2 und eine Robotersteuerung3 aufweist. Der Roboterarm2 umfasst im Falle des vorliegenden Ausführungsbeispiels mehrere, nacheinander angeordnete und mittels Gelenke4 drehbar miteinander verbundene Glieder5 . An einem distalen Endglied weist der Roboterarm2 einen im Raum bewegbaren Greifer6 auf. In einem Regal7 sind beispielhaft drei Objekte8.1 ,8.2 ,8.3 unterschiedlicher Gestalt abgelegt und stehen zum automatisierten Herausnehmen durch den Roboterarm2 bzw. durch den Greifer6 bereit. - Das Objekterkennungssystem weist auf:
- - Eine Steuervorrichtung
9 , die mit der Robotersteuerung3 über eine Kommunikationsverbindung10 steuerungstechnisch verbunden sein kann. Alternativ können die Steuervorrichtung9 und die Robotersteuerung3 in einer gemeinsamen Steuervorrichtung zusammengefasst sein bzw. durch eine einzige Steuervorrichtung realisiert sein. Die Steuervorrichtung9 kann gegebenenfalls auch außerhalb der mobilen Plattform12 angeordnet sein. - - Eine Basis
11 , deren Position und Orientierung im Raum bekannt ist, derart, dass Basiskoordinatenwerte, welche die Position und Orientierung der Basis11 im Raum kennzeichnen, in der Steuervorrichtung9 gespeichert sind, - - eine Bewegungsvorrichtung
2a , die im Falle des vorliegenden Ausführungsbeispiels durch den Roboterarm2 gebildet wird, der ein Grundgestell2.1 , mehrere Gelenke4 und einen über die mehreren Gelenke4 an dem Grundgestell2.1 verstellbar gelagerten Halter6a , im Falle des vorliegenden Ausführungsbeispiels den Greifer6 , aufweist, wobei die mehreren Gelenke4 durch die Robotersteuerung3 automatisch verstellbar sind, um den Halter6a , d.h. den Greifer6 , im Raum zu bewegen, wobei das Grundgestell2.1 an einer vorbestimmten Position und Orientierung auf der Basis11 befestigt ist und die Position und Orientierung des Grundgestells2.1 auf der Basis11 durch Grundkoordinatenwerte bestimmt ist, die in der Robotersteuerung3 oder in der Steuervorrichtung9 gespeichert sind. - - Einen 3D-Bildsensor
13 zur Erfassung von 3D-Bilddaten, der bezüglich der Basis11 derart angeordnet ist, dass die Position und Orientierung des 3D-Bildsensors 13 relativ zur Basis11 durch 3D-Bildsensorkoordinatenwerte bestimmt ist, die in der Robotersteuerung3 oder in der Steuervorrichtung9 gespeichert sind, und - - einen 2D-Farbbildsensor
14 zur Erfassung von 2D-Farbbilddaten, welcher an dem Halter6a , d.h. an dem Greifer6 der Bewegungsvorrichtung2a bzw. des Roboterarms2 befestigt ist, und welcher durch den Roboterarm2 im Raum bewegbar ist, derart, dass aus den Gelenkstellungen der Gelenke4 die jeweilige momentane Position und Orientierung des 2D-Farbbildsensors14 im Raum eindeutig bestimmbar und als 2D-Farbbildsensorkoordinatenwerte in der Steuervorrichtung9 speicherbar sind, wobei - - das Objekterkennungssystem eine Auswerteinrichtung
9a aufweist, die ausgebildet ist, die in einer Aufnahmepose der Bewegungsvorrichtung2a von dem 2D-Farbbildsensor14 erfassten 2D-Farbbilddaten mit den in dieser Aufnahmepose erfassten 2D-Farbbildsensorkoordinatenwerte zugeordnet als ein 2D-Farbbilddatensatz zu speichern und die ausgebildet ist, den gespeicherten 2D-Farbbilddatensatz mit den zugeordneten 2D-Farbbildsensorkoordinatenwerten aufzurufen, um sie durch einen Vergleich mit den 3D-Bilddaten für eine Objekterkennung auszuwerten. - Die Steuervorrichtung
9 ist im Falle des vorliegenden Ausführungsbeispiels ausgebildet, während einer Erfassung von 2D-Farbbilddaten durch den 2D-Farbbildsensor14 gleichzeitig eine Erfassung von 3D-Bilddaten durch den 3D-Bildsensor13 durchzuführen. - Die Bewegungsvorrichtung
2a ist im Falle des vorliegenden Ausführungsbeispiels also ein Roboterarm2 , der mehrere Glieder5 und wenigstens drei, die Glieder5 gegeneinander verstellbar verbindende Gelenke4 aufweist, die von der Robotersteuerung3 automatisch verstellbar sind, um den mit einem der Glieder5 des Roboterarms2 fest verbundenen Halter6a , also den Greifer6 , bezüglich des Grundgestells2.1 des Roboterarms2 im Raum verstellen zu können, damit der an dem Halter6a befestigte 2D-Farbbildsensor14 im Raum bewegt werden kann. - Bei dem Roboterarm
2 wird der Halter6a also durch den Greifer6 gebildet, der ausgebildet ist, den 2D-Farbbildsensor14 zu ergreifen, ihn aus einer Halterung15 zu entnehmen und durch Verstellen der Gelenke4 des Roboterarms2 im Raum zu bewegen, wobei der 2D-Farbbildsensor14 während des Bewegens des 2D-Farbbildsensors14 mittels des Roboterarms2 2D -Farbbilddaten erfasst. - Der Greifer
6 ist außerdem ausgebildet, den 2D-Farbbildsensor14 in der Halterung15 ablegen zu können. Die Halterung15 für den 2D-Farbbildsensor14 ist im Falle des vorliegenden Ausführungsbeispiels an der mobilen Plattform12 befestigt und die Halterung15 ausgebildet ist, den 2D-Farbbildsensor14 in seinem ungenutzten Zustand an der mobilen Plattform12 aufzubewahren. - Die Basis
11 wird im Falle des vorliegenden Ausführungsbeispiels von einem Tragboden11a der mobilen Plattform12 gebildet, auf welcher der Roboterarm2 mit seinem Grundgestell2.1 befestigt ist. - Der 3D-Bildsensor
13 ist, wie dargestellt, an der mobilen Plattform12 im Falle des vorliegenden Ausführungsbeispiels starr befestigt und zwar mittels einer Befestigungsvorrichtung16 . - Der 3D-Bildsensor
13 kann eine Tiefenbildkamera sein, insbesondere eine Tiefenbildkamera sein, die ein 2D-Bild in Form einer 2D-Pixelmatrix erfasst, wobei jedem Pixel eine Information über die Entfernung eines dem betreffenden Pixel entsprechenden Punktes auf dem erfassten Objekt8.1 ,8.2 ,8.3 von einem Kamerabezugspunkt zugeordnet ist. - Der 2D-Farbbildsensor kann einen hochauflösenden Kamerachip aufweisen, dessen Auflösung mindestens 1920 mal 1080 Bildpunkte beträgt.
- Die Auswerteinrichtung
9a kann eingerichtet sein, ein gesuchtes Objekt8.1 ,8.2 ,8.3 in dem 2D-Farbbilddatensatz ausfindig zu machen, einen Bildausschnitt aus dem 2D-Farbbilddatensatz zu selektieren, der das ausfindig gemachte Objekt8.1 ,8.2 ,8.3 enthält und den aus dem 2D-Farbbilddatensatz selektierten Bildausschnitt in den von dem 3D-Bildsensor 13 erfassten 3D-Bilddaten wiederzufinden, um daraus die räumliche Position und Orientierung des gesuchten Objekts8.1 ,8.2 ,8.3 zu bestimmen. - Die Auswerteinrichtung
9a kann eingerichtet sein, ein gesuchtes Objekt8.1 ,8.2 ,8.3 in den 3D-Bilddaten ausfindig zu machen, einen Bildausschnitt aus den 3D-Bilddaten zu selektieren, der das ausfindig gemachte Objekt8.1 ,8.2 ,8.3 enthält und den aus den 3D-Bilddaten selektierten Bildausschnitt in den von dem 2D-Farbbildsensor erfassten 2D-Farbbilddatensatz wiederzufinden, um das gesuchte Objekt8.1 ,8.2 ,8.3 anhand der 2D-Farbbilddaten zu verifizieren. - Die Auswerteinrichtung
9a kann eingerichtet sein, das gesuchte Objekt8.1 ,8.2 ,8.3 in den 2D-Farbbilddaten anhand der Farbe und/oder anhand der Textur des Objekts8.1 ,8.2 ,8.3 zu verifizieren. - Die Auswerteinrichtung
9a kann eingerichtet sein, ein gesuchtes Objekt8.1 ,8.2 ,8.3 in dem 2D-Farbbilddatensatz ausfindig zu machen und eingerichtet sein, einen dreidimensionalen Hüllkörper einer geometrischen Grundform, insbesondere einer Kugel, eines Quaders oder eines Kreiszylinders zu erzeugen, der durch seine räumliche Lage gekennzeichnet ist, welche das gesuchte Objekt8.1 ,8.2 ,8.3 enthält. - Die Auswerteinrichtung
9a kann eingerichtet sein, aus den gespeicherten 3D-Bilddaten einen Auszug einer 3D-Bilddatenuntermenge zu erzeugen, die innerhalb des dreidimensionalen Hüllkörpers der geometrischen Grundform liegt. - Die Auswerteinrichtung
9a kann eingerichtet sein, innerhalb der 3D-Bilddatenuntermenge eine Identifikation des gesuchten Objekts8.1 ,8.2 ,8.3 durchzuführen und Geometriedaten, Positionsdaten und Orientierungsdaten des identifizierten Objekts8.1 ,8.2 ,8.3 zu erzeugen. - Die Auswerteinrichtung
9a kann eingerichtet sein, aus den Geometriedaten, Positionsdaten und Orientierungsdaten des identifizierten Objekts8.1 ,8.2 ,8.3 geeignete Greifflächen oder Greiflinien oder Greifpunkte zu ermitteln, an denen das reale Objekt8.1 ,8.2 ,8.3 mittels des Greifers6 des Roboterarms2 gegriffen werden kann. - Die Steuervorrichtung
9 kann eingerichtet sein, die Gelenke4 des Roboterarms2 derart zu bewegen, dass der Greifer6 des Roboterarms2 derart positioniert ist, dass der Greifer6 das Objekt8.1 ,8.2 ,8.3 an den ermittelten Greifflächen oder Greiflinien oder Greifpunkten greifen kann, um das reale Objekt8.1 ,8.2 ,8.3 durch Bewegen des Roboterarms2 handhaben zu können. - Die Auswerteinrichtung
9a kann eingerichtet sein, das gesuchte Objekt8.1 ,8.2 ,8.3 in den 3D-Bilddaten wiederzufinden oder in den 3D-Bilddaten ausfindig zu machen, indem Geometriedaten des Objekts8.1 ,8.2 ,8.3 , insbesondere Geometriedaten des Objekts8.1 ,8.2 ,8.3 , die aus einem CAD-System entnommen sind, zur Auswertung herangezogen werden. - Die Auswerteinrichtung
9a kann außerdem eingerichtet sein, den 2D-Farbbilddaten zusätzlich zu den 2D-Farbbildsensorkoordinatenwerten des Weiteren einen Zeitwert in dem 2D-Farbbilddatensatz zuzuordnen, welcher Zeitwert den Zeitpunkt wiedergibt, zu welchem der 2D-Farbbildsensor14 die 2D-Farbbilddaten in der Aufnahmepose erfasst hat. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102015100983 A1 [0002]
Claims (21)
- Objekterkennungssystem aufweisend: - eine Steuervorrichtung (9,3), - eine Basis (11), deren Position und Orientierung im Raum bekannt ist, derart, dass Basiskoordinatenwerte, welche die Position und Orientierung der Basis (11) im Raum kennzeichnen, in der Steuervorrichtung (9) gespeichert sind, - eine Bewegungsvorrichtung (2a), die ein Grundgestell (2.1), mehrere Gelenke (4) und einen über die mehreren Gelenke (4) an dem Grundgestell (2.1) verstellbar gelagerten Halter (6a) aufweist, wobei die mehreren Gelenke (4) durch die Steuervorrichtung (9,3) automatisch verstellbar sind, um den Halter (6a) im Raum zu bewegen, wobei das Grundgestell (2.1) an einer vorbestimmten Position und Orientierung auf der Basis (11) befestigt ist und die Position und Orientierung des Grundgestells (2.1) auf der Basis (11) durch Grundkoordinatenwerte bestimmt ist, die in der Steuervorrichtung (9,3) gespeichert sind, - einen 3D-Bildsensor (13) zur Erfassung von 3D-Bilddaten, der bezüglich der Basis derart angeordnet ist, dass die Position und Orientierung des 3D-Bildsensors (13) relativ zur Basis (11) durch 3D-Bildsensorkoordinatenwerte bestimmt ist, die in der Steuervorrichtung (9,3) gespeichert sind, und - einen 2D-Farbbildsensor (14) zur Erfassung von 2D-Farbbilddaten, welcher an dem Halter (6a) der Bewegungsvorrichtung (2a) befestigt ist, und welcher durch die Bewegungsvorrichtung (2a) im Raum bewegbar ist, derart, dass aus den Gelenkstellungen der Gelenke (4) der Bewegungsvorrichtung (2a) die jeweilige momentane Position und Orientierung des 2D-Farbbildsensors (14) im Raum eindeutig bestimmbar und als 2D-Farbbildsensorkoordinatenwerte in der Steuervorrichtung (9,3) speicherbar sind, wobei - das Objekterkennungssystem eine Auswerteinrichtung (9a) aufweist, die ausgebildet ist, die in einer Aufnahmepose der Bewegungsvorrichtung (2a) von dem 2D-Farbbildsensor (14) erfassten 2D-Farbbilddaten mit den in dieser Aufnahmepose erfassten 2D-Farbbildsensorkoordinatenwerte zugeordnet als ein 2D-Farbbilddatensatz zu speichern und die ausgebildet ist, den gespeicherten 2D-Farbbilddatensatz mit den zugeordneten 2D-Farbbildsensorkoordinatenwerten aufzurufen, um sie durch einen Vergleich mit den 3D-Bilddaten für eine Objekterkennung auszuwerten.
- Objekterkennungssystem nach
Anspruch 1 , dadurch gekennzeichnet, dass die Steuervorrichtung (9,3) ausgebildet ist, während einer Erfassung von 2D-Farbbilddaten durch den 2D-Farbbildsensor gleichzeitig eine Erfassung von 3D-Bilddaten durch den 3D-Bildsensor (13) durchzuführen. - Objekterkennungssystem nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, ein gesuchtes Objekt (8.1, 8.2, 8.3) in dem 2D-Farbbilddatensatz ausfindig zu machen, einen Bildausschnitt aus dem 2D-Farbbilddatensatz zu selektieren, der das ausfindig gemachte Objekt (8.1, 8.2, 8.3) enthält und den aus dem 2D-Farbbilddatensatz selektierten Bildausschnitt in den von dem 3D-Bildsensor (13) erfassten 3D-Bilddaten wiederzufinden, um daraus die räumliche Position und Orientierung des gesuchten Objekts (8.1, 8.2, 8.3) zu bestimmen. - Objekterkennungssystem nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, ein gesuchtes Objekt (8.1, 8.2, 8.3) in den 3D-Bilddaten ausfindig zu machen, einen Bildausschnitt aus den 3D-Bilddaten zu selektieren, der das ausfindig gemachte Objekt (8.1, 8.2, 8.3) enthält und den aus den 3D-Bilddaten selektierten Bildausschnitt in den von dem 2D-Farbbildsensor (14) erfassten 2D-Farbbilddatensatz wiederzufinden, um das gesuchte Objekt (8.1, 8.2, 8.3) anhand der 2D-Farbbilddaten zu verifizieren. - Objekterkennungssystem nach
Anspruch 4 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, das gesuchte Objekt (8.1, 8.2, 8.3) in den 2D-Farbbilddaten anhand der Farbe und/oder anhand der Textur des Objekts (8.1, 8.2, 8.3) zu verifizieren. - Objekterkennungssystem nach einem der
Ansprüche 1 bis5 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, ein gesuchtes Objekt (8.1, 8.2, 8.3) in dem 2D-Farbbilddatensatz ausfindig zu machen und eingerichtet ist, einen dreidimensionalen Hüllkörper einer geometrischen Grundform, insbesondere einer Kugel, eines Quaders oder eines Kreiszylinders zu erzeugen, der durch seine räumliche Lage gekennzeichnet ist, welche das gesuchte Objekt (8.1, 8.2, 8.3) enthält. - Objekterkennungssystem nach
Anspruch 6 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, aus den gespeicherten 3D-Bilddaten einen Auszug einer 3D-Bilddatenuntermenge zu erzeugen, die innerhalb des dreidimensionalen Hüllkörpers der geometrischen Grundform liegt. - Objekterkennungssystem nach
Anspruch 7 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, innerhalb der 3D-Bilddatenuntermenge eine Identifikation des gesuchten Objekts (8.1, 8.2, 8.3) durchzuführen und Geometriedaten, Positionsdaten und Orientierungsdaten des identifizierten Objekts (8.1, 8.2, 8.3) zu erzeugen. - Objekterkennungssystem nach
Anspruch 8 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, aus den Geometriedaten, Positionsdaten und Orientierungsdaten des identifizierten Objekts (8.1, 8.2, 8.3) geeignete Greifflächen oder Greiflinien oder Greifpunkte zu ermitteln, an denen das reale Objekt (8.1, 8.2, 8.3) mittels eines Greifers (6) eines Roboterarms (2) gegriffen werden kann. - Objekterkennungssystem nach einem der
Ansprüche 1 bis9 , dadurch gekennzeichnet, dass die Steuervorrichtung (9, 3) eingerichtet ist, die Gelenke (4) des Roboterarms (2) derart zu bewegen, dass der Greifer (6) des Roboterarms (2) derart positioniert ist, dass der Greifer (6) das Objekt (8.1, 8.2, 8.3) an den ermittelten Greifflächen oder Greiflinien oder Greifpunkten greifen kann, um anschließend das reale Objekt (8.1, 8.2, 8.3) durch Bewegen des Roboterarms (2) handhaben zu können. - Objekterkennungssystem nach einem der
Ansprüche 1 bis10 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, das gesuchte Objekt (8.1, 8.2, 8.3) in den 3D-Bilddaten wiederzufinden oder in den 3D-Bilddaten ausfindig zu machen, indem Geometriedaten des Objekts, insbesondere Geometriedaten des Objekts (8.1, 8.2, 8.3), die aus einem CAD-System entnommen sind, zur Auswertung herangezogen werden. - Objekterkennungssystem nach einem der
Ansprüche 1 bis11 , dadurch gekennzeichnet, dass die Auswerteinrichtung (9a) eingerichtet ist, den 2D-Farbbilddaten zusätzlich zu den 2D-Farbbildsensorkoordinatenwerten des Weiteren einen Zeitwert in dem 2D-Farbbilddatensatz zuzuordnen, welcher Zeitwert den Zeitpunkt wiedergibt, zu welchem der 2D-Farbbildsensor (14) die 2D-Farbbilddaten in der Aufnahmepose erfasst hat. - Objekterkennungssystem nach einem der
Ansprüche 1 bis12 , dadurch gekennzeichnet, dass die Bewegungsvorrichtung (2a) ein Schwenkneigekopf ist, der ein erstes Gelenk in der Bauart eines Schwenkgelenks aufweist und ein zweites Gelenk in der Bauart eines Neigegelenks aufweist, wobei das Schwenkgelenk ausgebildet ist, den Halter (6a) bezüglich des Grundgestells (2.1) um eine vertikale Achse zu schwenken und das Neigegelenk ausgebildet ist, den Halter (6a) bezüglich des Grundgestells (2.1) um eine horizontale Achse zu neigen, um den an dem Halter (6a) befestigten 2D-Farbbildsensor (14) im Raum schwenken und neigen zu können. - Objekterkennungssystem nach einem der
Ansprüche 1 bis13 , dadurch gekennzeichnet, dass die Bewegungsvorrichtung (2a) ein Roboterarm (2) ist, der mehrere Glieder (5) und wenigstens drei, die Glieder (5) gegeneinander verstellbar verbindende Gelenke (4) aufweist, die von einer Robotersteuerung (3) automatisch verstellbar sind, um den mit einem der Glieder (5) des Roboterarms (2) fest verbundenen Halter (6a), insbesondere einen Greifer (6) des Roboterarms (2) bezüglich des Grundgestells des Roboterarms (2) im Raum verstellen zu können, damit der an dem Halter (6a) oder Greifer (6) befestigte 2D-Farbbildsensor (14) im Raum bewegt werden kann. - Objekterkennungssystem nach
Anspruch 14 , dadurch gekennzeichnet, dass der Roboterarm (2) einen Greifer (6) aufweist, der ausgebildet ist, den 2D-Farbbildsensor (14) zu ergreifen, ihn aus einer Halterung (15) zu entnehmen und durch Verstellen der Gelenke (4) des Roboterarms (2) im Raum zu bewegen, wobei der 2D-Farbbildsensor (14) während des Bewegens des 2D-Farbbildsensors (14) mittels des Roboterarms (2) 2D-Farbbilddaten erfasst. - Objekterkennungssystem nach
Anspruch 15 , dadurch gekennzeichnet, dass der Greifer (6) ausgebildet ist, den 2D-Farbbildsensor (14) in der Halterung (15) abzulegen. - Objekterkennungssystem nach einem der
Ansprüche 14 bis16 , dadurch gekennzeichnet, dass die Basis (11) ein Tragboden (11a) einer mobilen Plattform (12) ist, auf welcher der Roboterarm (2) mit seinem Grundgestell (2.1) befestigt ist. - Objekterkennungssystem nach 17, dadurch gekennzeichnet, dass die Halterung (15) für den 2D-Farbbildsensor (14) an der mobilen Plattform (12) befestigt ist und die Halterung (15) ausgebildet ist, den 2D-Farbbildsensor (14) in seinem ungenutzten Zustand an der mobilen Plattform (12) aufzubewahren.
- Objekterkennungssystem nach
Anspruch 17 oder18 , dadurch gekennzeichnet, dass der 3D-Bildsensor (13) an der mobilen Plattform (12) befestigt ist. - Objekterkennungssystem nach einem der
Ansprüche 1 bis19 , dadurch gekennzeichnet, dass der 3D-Bildsensor (13) eine Tiefenbildkamera ist, insbesondere eine Tiefenbildkamera ist, die ein 2D-Bild in Form einer 2D-Pixelmatrix erfasst, wobei jedem Pixel eine Information über die Entfernung eines dem betreffenden Pixel entsprechenden Punktes auf dem erfassten Objekt (8.1, 8.2, 8.3) von einem Kamerabezugspunkt zugeordnet ist. - Objekterkennungssystem nach einem der
Ansprüche 1 bis20 , dadurch gekennzeichnet, dass der 2D-Farbbildsensor (14) einen hochauflösenden Kamerachip aufweist, dessen Auflösung mindestens 1920 mal 1080 Bildpunkte beträgt.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202017001227.8U DE202017001227U1 (de) | 2017-03-07 | 2017-03-07 | Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor |
DE202017001227.8 | 2017-03-07 | ||
PCT/EP2018/055487 WO2018162491A1 (de) | 2017-03-07 | 2018-03-06 | Objekterkennungssystem mit einem 2d-farbbildsensor und einem 3d-bildsensor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE212018000178U1 true DE212018000178U1 (de) | 2019-10-22 |
Family
ID=61599149
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202017001227.8U Active DE202017001227U1 (de) | 2017-03-07 | 2017-03-07 | Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor |
DE212018000178.2U Active DE212018000178U1 (de) | 2017-03-07 | 2018-03-06 | Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202017001227.8U Active DE202017001227U1 (de) | 2017-03-07 | 2017-03-07 | Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor |
Country Status (2)
Country | Link |
---|---|
DE (2) | DE202017001227U1 (de) |
WO (1) | WO2018162491A1 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019206444A1 (de) * | 2019-05-06 | 2020-11-12 | Kuka Deutschland Gmbh | Maschinelles Lernen einer Objekterkennung mithilfe einer robotergeführten Kamera |
DE102020117318A1 (de) | 2020-07-01 | 2022-01-05 | Broetje-Automation Gmbh | Verfahren zur Desinfektion einer Bearbeitungsumgebung |
DE102020129743A1 (de) | 2020-11-11 | 2022-05-12 | Carl Zeiss Ag | Vorrichtung und verfahren zur vermessung, inspektion oder bearbeitung von objekten |
DE102020214301A1 (de) | 2020-11-13 | 2022-05-19 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und verfahren zum steuern eines roboters zum aufnehmen eines objekts in verschiedenen lagen |
DE102021202328A1 (de) | 2021-03-10 | 2022-09-15 | Psa Automobiles Sa | Führerloses Prüffahrzeug |
DE102021207568A1 (de) | 2021-07-15 | 2023-01-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Überwachung von definierten optischen Mustern mittels Objekterkennung und neuronaler Netzwerken |
DE102022127511B4 (de) | 2021-11-05 | 2024-04-18 | Hitachi High-Tech Corporation | Mobiles robotersystem |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10884426B2 (en) | 2016-09-06 | 2021-01-05 | Advanced Intelligent Systems Inc. | Mobile work station for transporting a plurality of articles |
CA3090827C (en) | 2018-02-15 | 2021-01-19 | Advanced Intelligent Systems Inc. | Apparatus for supporting an article during transport |
US10745219B2 (en) | 2018-09-28 | 2020-08-18 | Advanced Intelligent Systems Inc. | Manipulator apparatus, methods, and systems with at least one cable |
US10751888B2 (en) | 2018-10-04 | 2020-08-25 | Advanced Intelligent Systems Inc. | Manipulator apparatus for operating on articles |
US10966374B2 (en) | 2018-10-29 | 2021-04-06 | Advanced Intelligent Systems Inc. | Method and apparatus for performing pruning operations using an autonomous vehicle |
US10645882B1 (en) | 2018-10-29 | 2020-05-12 | Advanced Intelligent Systems Inc. | Method and apparatus for performing pruning operations using an autonomous vehicle |
US10676279B1 (en) | 2018-11-20 | 2020-06-09 | Advanced Intelligent Systems Inc. | Systems, methods, and storage units for article transport and storage |
DE102019115929A1 (de) * | 2019-06-12 | 2020-12-17 | Oculus Optikgeräte GmbH | Verfahren zum Überprüfen von Augen und Sehprüfsystem |
CN112906427A (zh) * | 2019-11-19 | 2021-06-04 | 黄建龙 | 基于视觉检测的物体分类方法和装置 |
CN112975943B (zh) * | 2019-12-13 | 2022-06-28 | 广东弓叶科技有限公司 | 判断机器人夹爪最佳抓取高度的处理方法及系统 |
DE102020117173A1 (de) | 2020-06-30 | 2021-12-30 | Audi Aktiengesellschaft | Modular aufgebaute, mobile Roboterplattform zur Handhabung, Bearbeitung oder Montage von Werkstücken |
DE102021108974B4 (de) | 2021-04-12 | 2022-10-27 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur Greifpunktbestimmung, Verfahren zur Greifpunktbestimmung und Logistikroboter |
CN114029951B (zh) * | 2021-11-10 | 2022-05-10 | 盐城工学院 | 基于深度相机的机器人自主识别智能抓取方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009269110A (ja) * | 2008-05-02 | 2009-11-19 | Olympus Corp | 組立装置 |
JP5854815B2 (ja) * | 2011-12-20 | 2016-02-09 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
US9227323B1 (en) * | 2013-03-15 | 2016-01-05 | Google Inc. | Methods and systems for recognizing machine-readable information on three-dimensional objects |
DE102013214694B4 (de) * | 2013-07-26 | 2015-02-12 | Roche Pvt Gmbh | Verfahren zum Handhaben eines Gegenstands und Vorrichtung zum Handhaben von Gegenständen |
DE102015100983A1 (de) * | 2015-01-23 | 2016-07-28 | Sick Ag | Verfahren zur Lokalisierung von Greifpunkten von Objekten |
-
2017
- 2017-03-07 DE DE202017001227.8U patent/DE202017001227U1/de active Active
-
2018
- 2018-03-06 DE DE212018000178.2U patent/DE212018000178U1/de active Active
- 2018-03-06 WO PCT/EP2018/055487 patent/WO2018162491A1/de active Application Filing
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019206444A1 (de) * | 2019-05-06 | 2020-11-12 | Kuka Deutschland Gmbh | Maschinelles Lernen einer Objekterkennung mithilfe einer robotergeführten Kamera |
DE102020117318A1 (de) | 2020-07-01 | 2022-01-05 | Broetje-Automation Gmbh | Verfahren zur Desinfektion einer Bearbeitungsumgebung |
DE102020129743A1 (de) | 2020-11-11 | 2022-05-12 | Carl Zeiss Ag | Vorrichtung und verfahren zur vermessung, inspektion oder bearbeitung von objekten |
DE102020214301A1 (de) | 2020-11-13 | 2022-05-19 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und verfahren zum steuern eines roboters zum aufnehmen eines objekts in verschiedenen lagen |
US11964400B2 (en) | 2020-11-13 | 2024-04-23 | Robert Bosch Gmbh | Device and method for controlling a robot to pick up an object in various positions |
DE102021202328A1 (de) | 2021-03-10 | 2022-09-15 | Psa Automobiles Sa | Führerloses Prüffahrzeug |
DE102021207568A1 (de) | 2021-07-15 | 2023-01-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Überwachung von definierten optischen Mustern mittels Objekterkennung und neuronaler Netzwerken |
DE102022127511B4 (de) | 2021-11-05 | 2024-04-18 | Hitachi High-Tech Corporation | Mobiles robotersystem |
Also Published As
Publication number | Publication date |
---|---|
DE202017001227U1 (de) | 2018-06-08 |
WO2018162491A1 (de) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE212018000178U1 (de) | Objekterkennungssystem mit einem 2D-Farbbildsensor und einem 3D-Bildsensor | |
DE102015101710B4 (de) | Verfahren zum Kalibrieren eines beweglichen Greiforgans unter Verwendung einer entfernten Digitalkamera | |
DE102016103799B4 (de) | Bildverarbeitungssystem zum Trainieren eines Montagesystems durch virtuelle Montage von Objekten | |
DE112011101730B4 (de) | System und Verfahren zur robusten Kalibrierung zwischen einem Bildverarbeitungssystem und einem Roboter | |
DE102018104759A1 (de) | Verfahren und Vorrichtung zum selbsttätigen Verbinden eines Aufladeanschlusses mit einer Aufladeanschlussaufnahme eines Fahrzeugs, insbesondere eines Landfahrzeugs | |
DE102018129143B4 (de) | Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon | |
DE102017128543B4 (de) | Störbereich-einstellvorrichtung für einen mobilen roboter | |
DE102016122678B4 (de) | Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem | |
DE102015000587B4 (de) | Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks | |
DE102015111080B4 (de) | Robotervorrichtung mit maschinellem Sehen | |
DE102013018222A1 (de) | Objektaufnahmevorrichtung und Verfahren zum Aufnehmen eines Objekts | |
DE102014016072A1 (de) | Vorrichtung und Verfahren zum Aufheben eines willkürlich aufgestapelten Gegenstands mittels eines Roboters | |
EP1910999B1 (de) | Verfahren und anordnung zur bestimmung der relativen lage eines ersten objektes bezüglich eines zweiten objektes, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium | |
DE102018009815A9 (de) | Bildgebungsvorrichtung umfassend einen Sichtsensor zum Erfassen des Bildes eines Werkstücks | |
DE102009012590A1 (de) | Vorrichtung zum Ermitteln der Stellung eines Roboterarms mit Kamera zur Durchführung von Aufnahmen | |
DE102015000589A1 (de) | Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem | |
DE102021103726B4 (de) | Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm | |
DE102019124810A1 (de) | Bildverarbeitungsgerät und Bildverarbeitungsverfahren | |
DE202013000050U1 (de) | Vorrichtung zur Erfassung einer Oberfläche eines Kraftfahrzeugs | |
EP3048456B1 (de) | Verfahren zur lokalisierung von greifpunkten von objekten | |
EP1915239B1 (de) | Verfahren zum erzeugen eines umgebungsbildes | |
WO2018108867A1 (de) | Mobiler manipulator und verfahren zum steuern eines mobilen manipulators | |
DE102015214857A1 (de) | Verfahren und System zum Erstellen eines dreidimensionalen Modells einer Produktionsumgebung | |
DE102016112596A1 (de) | Verfahren und Vorrichtung zum automatischen Ansetzen von Melkbechern an Zitzen eines milchgebenden Tieres | |
DE102014100538B4 (de) | Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R150 | Utility model maintained after payment of first maintenance fee after three years | ||
R163 | Identified publications notified | ||
R151 | Utility model maintained after payment of second maintenance fee after six years |