DE102015219660A1 - Verfahren und System zur Ermittlung von Daten für ein Objekt - Google Patents

Verfahren und System zur Ermittlung von Daten für ein Objekt Download PDF

Info

Publication number
DE102015219660A1
DE102015219660A1 DE102015219660.7A DE102015219660A DE102015219660A1 DE 102015219660 A1 DE102015219660 A1 DE 102015219660A1 DE 102015219660 A DE102015219660 A DE 102015219660A DE 102015219660 A1 DE102015219660 A1 DE 102015219660A1
Authority
DE
Germany
Prior art keywords
data
information
geometry
sensor data
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015219660.7A
Other languages
English (en)
Inventor
Christian Patron
Matthias Schindler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102015219660.7A priority Critical patent/DE102015219660A1/de
Publication of DE102015219660A1 publication Critical patent/DE102015219660A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird ein Verfahren (300) zur Ermittlung von Daten bezüglich eines Objektes (106) in einem Raum beschrieben. Das Verfahren (300) umfasst das Erfassen (301) von Geometrie-Sensordaten (112), die Geometrie-Information (202) bezüglich ein oder mehrerer Objekte (106) in einem Raum anzeigen. Das Verfahren (300) umfasst weiter das Erfassen (302) von Zusatz-Sensordaten (113), die Zusatz-Information (203) bezüglich ein oder mehrerer Objekte (106) in dem Raum anzeigen. Außerdem umfasst das Verfahren (300) das Ermitteln (303) von ersten assoziierten Daten bezüglich eines ersten Objektes (106) in dem Raum, auf Basis der Geometrie-Sensordaten (112) und auf Basis der Zusatz-Sensordaten (113). Desweiteren umfasst das Verfahren (300) das Identifizieren (304) eines Datensatzes (114) für das erste Objekt, auf Basis der ersten assoziierten Daten.

Description

  • Die Erfindung betrifft ein Verfahren und ein entsprechendes System zur automatischen Ermittlung eines 3-dimensionalen Modells eines Raumes, der ein oder mehrere Objekte umfasst. Das Verfahren und das System können insbesondere für die Erstellung einer Inventur der Objekte in einem Raum verwendet werden.
  • Derzeit werden Verfahren zur Digitalisierung von Strukturen in einem Raum verwendet, um Geometrieinformationen über unterschiedliche Objekte in dem Raum zu ermitteln. Insbesondere kann ein Laserscanner verwendet werden, um eine Vielzahl von Punkten in einem 3-dimensionalen (3D) Raum zu erzeugen, wobei die Punkte Reflexionspunkte eines Laserstrahles des Laserscanners anzeigen. Die Punkte können dann unterschiedlichen Objekten zugeordnet werden, so dass ein 3D Modell von unterschiedlichen Objekten in einem Raum entsteht.
  • Die über eine derartige Digitalisierung ermittelten Informationen beschränken sich auf Geometrieinformationen für unterschiedliche Objekte in einem digitalisierten Raum. Das vorliegende Dokument befasst sich mit der technischen Aufgabe, ein Verfahren und ein entsprechendes System bereitzustellen, die es ermöglichen, in automatischer und präziser Weise umfassende Information über Objekte in einem Raum zu ermitteln, z.B. um eine automatische und zuverlässige Inventur von Objekten in einem Raum zu ermöglichen.
  • Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben.
  • Gemäß einem Aspekt wird ein Verfahren zur Ermittlung von Daten bezüglich eines Objektes in einem Raum beschrieben. Der Raum kann z.B. ein Lager zur Lagerung von unterschiedlichen Objekten oder eine Produktionshalle zur Verarbeitung von unterschiedlichen Objekten umfassen. Die ein oder mehreren Objekte in dem Raum können jeweils einem Objekt-Typ aus einer Vielzahl von unterschiedlichen Objekt-Typen entsprechen. Beispielhafte Objekt-Typen sind ein bestimmter Schrauben-Typ, ein bestimmter Reifen-Typ, ein bestimmter Bauteil-Typ, etc. Die Objekte eines bestimmten Objekt-Typs weisen typischerweise substantiell die gleichen Eigenschaften auf, insbesondere im Rahmen einer vordefinierten Toleranz.
  • Das Verfahren umfasst das Erfassen von Geometrie-Sensordaten, die Geometrie-Information bezüglich ein oder mehrerer Objekte in einem Raum anzeigen. Die Geometrie-Sensordaten können von einem Geometrie-Sensor, insbesondere von einem Laserscanner, erfasst werden. Die Geometrie-Sensordaten können somit Messpunkte von einem Laserscanner umfassen. Die Geometrie-Information kann z.B. umfassen: Information bezüglich einer räumlichen Ausdehnung eines Objektes; Information bezüglich einer Form eines Objektes; Information bezüglich einer Position eines Objektes; Information bezüglich einer Entfernung eines Objektes von dem Geometrie-Sensor und/oder Information bezüglich einer räumlichen Ausrichtung eines Objektes. Die Geometrie-Information ermöglicht es somit, ein oder mehrere Objekte in einem Raum zu detektieren und die Geometrie der ein oder mehreren Objekte zu beschreiben. Andererseits ermöglicht es die Geometrie-Information allein typischerweise nicht, den Objekt-Typ eines erfassten Objektes mit ausreichender Zuverlässigkeit zu ermitteln.
  • Das Verfahren umfasst weiter das Erfassen von Zusatz-Sensordaten, die Zusatz-Information bezüglich ein oder mehrerer Objekte in dem Raum anzeigen. Die Zusatz-Sensordaten können durch einen Zusatz-Sensor, insbesondere durch eine Bildkamera, ermittelt werden. Die Zusatz-Sensordaten können somit insbesondere Bilddaten von einer Bildkamera umfassen. Die Zusatz-Information kann insbesondere einen maschinenlesbaren Code und/oder einen Schriftzug bzw. eine Zeichenfolge umfassen. Die Zusatz-Information kann z.B. durch einen Bildanalysealgorithmus aus erfassten Bilddaten ermittelt werden.
  • Außerdem umfasst das Verfahren das Ermitteln von ersten assoziierten Daten bezüglich eines ersten Objektes in dem Raum. Die ersten assoziierten Daten können auf Basis der Geometrie-Sensordaten und auf Basis der Zusatz-Sensordaten ermittelt werden. Insbesondere kann auf Basis der Geometrie-Sensordaten ein erstes Objekt in dem Raum detektiert werden. Es kann dann die für das erste Objekt relevante Geometrie-Information aus den Geometrie-Sensordaten extrahiert werden. Daraufhin kann aus den Zusatz-Sensordaten die Zusatz-Information extrahiert werden, die für das erste Objekt relevant ist. Aus der relevanten Geometrie-Information und aus der relevanten Zusatz-Information können dann die ersten assoziierten Daten für das erste Objekt ermittelt werden.
  • Das Ermitteln von ersten assoziierten Daten bezüglich des ersten Objektes kann das Ermitteln von Positionsdaten für das erste Objekt auf Basis der Geometrie-Sensordaten umfassen. Die Positionsdaten können z.B. eine Position des ersten Objektes relativ zu dem Geometrie-Sensor anzeigen. Insbesondere können die Positionsdaten anzeigen, in welchem Erfassungsbereich des Geometrie-Sensors sich das erste Objekt befindet.
  • Es kann dann auf Basis der Positionsdaten des ersten Objektes, die Zusatz-Information für das erste Objekt aus den Zusatz-Sensordaten identifiziert werden. Insbesondere kann der Zusatz-Sensor eingerichtet sein, für unterschiedliche Erfassungsbereiche des Raumes unterschiedliche Zusatz-Sensordaten zu erfassen. Die Positionsdaten des ersten Objekts können einen ersten Erfassungsbereich des Zusatz-Sensors anzeigen (wobei der erste Erfassungsbereich des Zusatz-Sensors mit dem Erfassungsbereich des Geometrie-Sensors korreliert, in dem sich das erste Objekt befindet). Die Zusatz-Information für das erste Objekt kann dann auf Basis der Zusatz-Sensordaten für den ersten Erfassungsbereich ermittelt werden. So kann eine zuverlässige Zuweisung von Zusatz-Information zu einem bestimmten Objekt erfolgen.
  • Das Verfahren umfasst weiter das Identifizieren eines Datensatzes für das erste Objekt, auf Basis der ersten assoziierten Daten. Der Datensatz kann z.B. Information anzeigen, in Bezug auf: eine räumliche Ausdehnung des ersten Objektes, eine Masse bzw. ein Gewicht des ersten Objektes, eine Form des ersten Objektes, und/oder eine Lagerhaltung des ersten Objektes. Insbesondere kann der Datensatz für das erste Objekt Information umfassen, die zumindest teilweise über die Geometrie-Information und die Zusatz-Information für das erste Objekt hinausgeht. Mit anderen Worten kann der Datensatz Information über das erste Objekt enthalten, die nicht direkt aus den Geometrie-Sensordaten und/oder den Zusatz-Sensordaten ermittelt werden kann.
  • Es können für eine Vielzahl von unterschiedlichen Objekt-Typen unterschiedliche Datensätze auf einer Speichereinheit gespeichert werden. Auf Basis der ersten assoziierten Daten kann in zuverlässiger Weise der Datensatz ermittelt werden, der dem Objekt-Typ des ersten Objekts entspricht. Somit können in effizienter Weise erweiterte Daten für ein Objekt in einem Raum ermittelt werden. Insbesondere kann durch das beschriebene Verfahren in zuverlässiger und automatischer Weise der Objekt-Typ für unterschiedliche Objekte in einem Raum ermittelt werden, was insbesondere eine verbesserte Inventur der Objekte in dem Raum ermöglicht.
  • Wie bereits oben dargelegt kann die Zusatz-Information einen maschinenlesbaren Code und/oder einen Schriftzug umfassen, der auf einer Oberfläche des ersten Objekts angeordnet ist. Der maschinenlesbare Code und/oder der Schriftzug können einen Identifikator des Datensatzes für das erste Objekt anzeigen, so dass eine zuverlässige Identifikation des Datensatzes über den Identifikator ermöglicht wird.
  • Alternativ oder ergänzend kann eine (maschinenangelernte) Zuweisungsfunktion bereitgestellt werden, die eingerichtet ist, assoziierte Daten bezüglich eines Objektes einem Identifikator für einen Datensatz zuzuweisen. Insbesondere können die assoziierten Daten einen Wert eines Merkmalsvektors für ein Objekt anzeigen, wobei der Wert des Merkmalsvektors das Objekt anhand von unterschiedlichen Merkmalen beschreibt. Der Wert eines Merkmalsvektors kann auf Basis der Geometrie-Information und der Zusatz-Information ermittelt werden. Die Zuweisungsfunktion kann dann dem Wert des Merkmalsvektors einen Identifikator für einen Datensatz zuweisen. Beispielhafte Zuweisungsfunktionen sind neuronale Netze, Support Vektor Machines, Klassifikatoren, etc. Der Datensatz für das erste Objekt (d.h. für den Objekt-Typ des ersten Objekts) kann somit in zuverlässiger Weise mittels der Zuweisungsfunktion identifiziert werden.
  • Wie bereits oben dargelegt können auf Basis der Geometrie-Sensordaten Positionsdaten für das erste Objekt ermittelt werden. Die Erfassung der Zusatz-Sensordaten für das erste Objekt kann in Abhängigkeit von den Positionsdaten angepasst werden. Insbesondere können ein oder mehrere Erfassungs-Parameter (z.B. ein Zoom und/oder ein Brennpunkt) des Zusatz-Sensors zur Erfassung der Zusatz-Sensordaten für das erste Objekt in Abhängigkeit von den Positionsdaten angepasst werden. So kann die Zuverlässigkeit für die Ermittlung von Daten für ein Objekt weiter erhöht werden.
  • Das Verfahren kann das Ermitteln eines 3-dimensionalen Modells des Raumes umfassen, in dem sich das erste Objekt befindet. Das 3-dimensionale (3D) Modell kann insbesondere auf Basis der Geometrie-Information ermittelt werden. Das 3D Modell kann die Anordnung und die räumliche Ausdehnung von ein oder mehreren Objekten in dem Raum anzeigen. Der gespeicherte Datensatz für das erste Objekt (bzw. für den Objekt-Typ des ersten Objekts) kann ein 3-dimensionales Modell des ersten Objektes (bzw. des Objekt-Typs des ersten Objekts) umfassen. Das 3-dimensionale Modell des ersten Objektes kann dann für das 3-dimensionale Modell des Raumes verwendet werden. So kann die Genauigkeit eines 3D Modells eines Raumes substantiell erhöht werden
  • Gemäß einem weiteren Aspekt wird eine Vorrichtung und insbesondere ein softwaregesteuertes System beschrieben, die eingerichtet sind, das in diesem Dokument beschriebene Verfahren auszuführen.
  • Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einer Auswerteeinheit) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
  • Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.
  • Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.
  • Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
  • 1 ein beispielhaftes System zur Ermittlung von Daten über zumindest ein Objekt in einem Raum;
  • 2 beispielhafte Daten, die für ein Objekt ermittelt werden können: und
  • 3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung von Daten für ein Objekt.
  • Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der technischen Aufgabe, in automatischer und präziser Weise Daten über ein oder mehrere Objekte in einem Raum zu ermitteln. Insbesondere soll in automatischer Weise ein Modell eines Raumes und der darin enthalten Objekte erstellt werden. Ein derartiges Modell kann z.B. dazu verwendet werden, zu jedem beliebigen Zeitpunkt in Echtzeit eine Inventur der Objekte in einem Raum zu erstellen. So können Kosten bei der Lagerhaltung und/oder bei der Produktion reduziert werden.
  • 1 zeigt ein Blockdiagramm eines beispielhaften Systems 100 zur Ermittlung von Daten bezüglich ein oder mehrerer Objekte 106. In dem dargestellten Beispiel sind die Objekte 106 auf einem Förderband 105 positioniert, das die Objekte 106 unter einem Geometrie-Sensor 102 und unter einem Zusatz-Sensor 103 vorbeiführt. Das Förderband 105 kann z.B. einem Fließband in einer Fertigungshalle entsprechen und die Objekte 106 können z.B. Objekte sein, die in ein Herstellungserzeugnis (z.B. in ein Fahrzeug) auf dem Fließband eingebaut werden. So kann durch das System 100 in Echtzeit ermittelt werden, welche Objekte in das Herstellungserzeugnis eingebaut werden.
  • Der Geometrie-Sensor 102 ist eingerichtet, Geometrie-Sensordaten 112 bezüglich ein oder mehrerer Objekte 106 in einem Erfassungsbereich 122 des Geometrie-Sensors 102 zu erfassen. Der Geometrie-Sensor 102 kann z.B. einen Laserscanner umfassen. Die Geometrie-Sensordaten 112 können Geometrie-Information über die Form, die Größe, die Position im Raum, etc. eines Objektes 106 umfassen. Auf Basis der Geometrie-Sensordaten 112 kann z.B. ermittelt werden, welche räumliche Ausbreitung ein Objekt 106 hat und/oder an welcher Position im Raum sich ein Objekt 106 befindet.
  • Der Zusatz-Sensor 103 ist eingerichtet, Zusatz-Sensordaten 113 bezüglich der Objekte 106 in einem Erfassungsbereich 123 des Zusatz-Sensors 123 zu erfassen. Beispielsweise kann der Zusatz-Sensor 103 eine Bildkamera umfassen, die eingerichtet ist, Bilddaten bezüglich der Objekte 106 im Erfassungsbereich 123 als Zusatz-Sensordaten 113 bereitzustellen. Die Bilddaten können Zusatz-Information, wie z.B. Farbinformationen, Texturinformationen, optische Codes (z.B. Strichcodes und/oder QR-Codes), etc., bezüglich eines Objektes 106 umfassen.
  • Die Geometrie-Sensordaten 112 und die Zusatz-Sensordaten 113 können an eine Auswerteeinheit 101 (die z.B. einen Prozessor umfasst) geleitet werden. Die Auswerteeinheit 101 ist eingerichtet, die Geometrie-Sensordaten 112 mit entsprechenden Zusatz-Sensordaten 113 zu assoziieren. Insbesondere kann die Auswerteeinheit 101 eingerichtet sein, Teile der Geometrie-Sensordaten 112 und Teile der Zusatz-Sensordaten 113 jeweils einem bestimmten Objekt 106 zuzuordnen. Mit anderen Worten, es können aus den Geometrie-Sensordaten 112 und den Zusatz-Sensordaten 113 aggregierte Daten für ein bestimmtes Objekt 106 ermittelt werden. Zu diesem Zweck kann z.B. ein Erfassungswinkel der Geometrie-Sensordaten 112 und der Zusatz-Sensordaten 113 herangezogen werden. Beispielsweise können Geometrie-Sensordaten 112 und Zusatz-Sensordaten 113, die mit entsprechenden Erfassungswinkeln von dem Geometrie-Sensor 102 und von dem Zusatz-Sensor 103 erfasst wurden, einen gleichen Objekt 106 zugewiesen werden.
  • Die aggregierten Daten eines Objektes 106 können Werte für eine Vielzahl von Merkmalen umfassen. Beispielhafte Merkmale sind ein oder mehrere der folgenden Merkmale:
    • • eine räumliche Ausdehnung eines Objektes 106 (z.B. Abmessungen und/oder eine Form eines Objektes 106). Diese Information kann insbesondere auf Basis der Geometrie-Sensordaten 112 gewonnen werden.
    • • eine Position des Objektes 106 und/oder eine Orientierung des Objektes 106 im Raum. Diese Information kann insbesondere auf Basis der Geometrie-Sensordaten 112 gewonnen werden.
    • • die Oberflächenbeschaffenheit (z.B. Farbe, Textur, etc.) des Objektes 106. Diese Information kann insbesondere auf Basis der Zusatz-Sensordaten 113 gewonnen werden.
    • • ein maschinenlesbarer Code und/oder ein Schriftzug auf dem Objekt 106. Diese Information kann insbesondere auf Basis der Zusatz-Sensordaten 113 gewonnen werden.
  • Die Auswerteeinheit 101 kann die aggregierten Daten für ein Objekt 106 dazu verwenden, auf einer Speichereinheit 104 einen vorgespeicherten Datensatz 114 für dieses Objekt 106 zu ermitteln. Insbesondere kann auf einer Speichereinheit 104 eine Vielzahl von Datensätzen 114 für eine entsprechende Vielzahl von unterschiedlichen Objekt-Typen gespeichert sein. Die aggregierten Daten für ein detektiertes Objekt 106 können den Objekt-Typ dieses Objektes 106 anzeigen (z.B. einen bestimmten Bauteil-Typ), und die Auswerteeinheit 101 kann den Datensatz 114 für diesen Objekt-Typ ermitteln.
  • Beispielsweise kann eine Maschinen-erlernte Zuweisungsfunktion, insbesondere ein neuronales Netzwerk, eine Support Vector Machine und/oder ein Klassifikator, dazu verwendet werden, einen Wert eines Merkmalsvektors für ein Objekt 106, der die Werte der einzelnen Merkmale des Objekt 106 umfasst, einem bestimmten Datensatz 114 zuzuweisen. Der Wert des Merkmalsvektors für ein Objekt 106 kann aus den aggregierten Daten diese Objektes 106 ermittelt werden. Alternativ oder ergänzend kann z.B. die Auswertung eines maschinenlesbaren Codes auf der Oberfläche eines Objektes 106 dazu verwendet werden, den Datensatz 114 für diese Objekt 106 zu identifizieren.
  • Der Datensatz 114 für das Objekt 106 kann eine Vielzahl von gespeicherten Informationen bezüglich des Objektes 106 umfassen. Beispielhafte gespeicherte Informationen betreffen ein oder mehrere von:
    • • ein tatsächliches bzw. verifiziertes Modell für die räumliche Ausdehnung und die äußere Erscheinungsform des Objektes 106;
    • • das Gewicht des Objektes 106; und/oder
    • • Information über die Lagerhaltung von Objekten des gleichen Objekt-Typs.
  • Somit können durch die Kombination von Geometrie-Sensordaten 112 und Zusatz-Sensordaten 113 Objekte 106 in einem Raum in präziser und zuverlässiger Weise identifiziert werden. Dies ermöglicht es, ein umfassendes Modell der Objekte 106 in einem Raum zu ermitteln.
  • 2 veranschaulicht die stufenweise Aggregation von Daten bezüglich eines Objektes 106. Auf Basis der Geometrie-Sensordaten 112 können Geometrie-Informationen 202 (z.B. die Konturen) eines Objekts 106 ermittelt werden, so dass ein Geometrie-Modell 212 des Objekts 106 bereitgestellt werden kann. Dieses Geometrie-Modell 212 ist typischer nicht ausreichend, um das Objekt 106 (bzw. den Objekt-Typ eines Objektes 106) mit einer ausreichend hohen Zuverlässigkeit zu identifizieren. Auf Basis der Zusatz-Sensordaten 113 können Zusatz-Informationen 203 über ein Objekt 106 bereitgestellt werden. Die Zusatz-Informationen 203 umfassen z.B. einen maschinenlesbaren Code und/oder eine Farbe einer Oberfläche des Objekts 206. Aus den Geometrie-Informationen 202 und den Zusatz-Informationen 203 ergibt sich ein aggregiertes Modell 213 des Objekts 106.
  • Anhand des aggregierten Modells 213 eines Objekts 106 (d.h. anhand der aus den Geometrie-Informationen 202 und den Zusatz-Informationen 203 aggregierten Daten) kann ein Datensatz 114 für das Objekt 106 identifiziert werden, wobei der Datensatz 114 gespeicherte Informationen 204 über das Objekt 106 umfasst. In dem dargestellten Beispiel umfassen die gespeicherten Informationen Information über die Farbe einer Seite des Objekts 106, die nicht durch den Zusatz-Sensor 103 erfasst werden kann. Insgesamt ergibt sich so ein komplettiertes Modell 214 des Objekts 106, wobei das komplettierte Modell 214 ggf. direkt aus dem Datensatz 114 entnommen werden kann (als gespeicherte Information 204).
  • Zur automatisierten Inventur von Gegenständen (d.h. Objekten) 106 in realen (Produktions-)Strukturen kann somit die Kombination von Geometrieerfassung in 3D (d.h. von Geometrie-Sensordaten 112) mit der Auswertung weiterer Informationen (d.h. mit Zusatz-Sensordaten 113) wie beispielweise Codes eingesetzt werden. Desweiteren kann eine Aufzeichnung der korrespondierenden Farben von Gegenständen 106 aus der realen Struktur erfolgen, und bei der automatisierten Inventur berücksichtigt werden.
  • Zu diesem Zweck kann ein Digitalisierungs-Scanner 102 (d.h. ein Gerät, das der Geometrieerfassung bzw. der Digitalisierung der Realität dient) zur Bestimmung von Entfernungen (durch laufzeitbasierte, Triangulations-, Trilaterations-, photogrammetrische oder ähnliche kontaktlose bzw. taktile Messverfahren) verwendet werden. Der Scanner 102 kann ggf. weitere optische Einrichtungen aufweisen.
  • Desweiteren kann ein Zusatz-Sensor 103 dazu verwendet werden, Zusatz-Sensordaten 113 bereitzustellen. Auf Basis der Zusatz-Sensordaten 113 kann detektiert werden, ob ein Gegenstand 106 einen Code 203 aufweist. Ein detektierter Code 203 kann ausgewertet werden, um einen gespeicherten Datensatz 114 für den Gegenstand 106 zu identifizieren.
  • Ggf. kann in einem, dem Scannen nachgelagerten, Prozess eine Überprüfung der detektierten Information erfolgen. Insbesondere kann überprüft werden, ob sich aus den Geometrie-Sensordaten 112 und aus den Zusatz-Sensordaten 113 und der erfolgten Zusammenfassung von aggregierten Daten ein konsistentes 3D-Modell der Objekte 103 in einem Raum ergibt.
  • Die integrierte Erkennung und Auswertung von Zusatz-Informationsträgern wie z.B. (1D, 2D, 3D, ...)-Codes kann somit in Echtzeit respektive echtzeitnah erfolgen. Dabei können Verfahren verwendet werden, die die optischen Einrichtungen, die ggf. bereits zur Erfassung der Geometrie verwendet werden, zumindest teilweise nutzen. Mit anderen Worten, der Geometrie-Sensor 102 und der Zusatz-Sensor 103 können ggf. gemeinsame Sensor-Komponenten aufweisen (insbesondere gemeinsame optische Komponenten). Zur Erfassung von Zusatz-Sensordaten 113 (insbesondere von Codes) können folgende Verfahren verwendet werden: optische Verfahren; kontaktlose Verfahren; kontaktbasiert / Nahfeld-Verfahren (z. B. Nahfeld-Kommunikation); und/oder Verfahren zur Erkennung von optischen Codes und/oder Verfahren zur Erkennung von Informationen, die über mechanische oder elektromagnetische Wellen bereitgestellt werden.
  • Besonders bei optischen Sensor-Verfahren ist die direkte Kombination aus einem Distanzmessgerät 102 und einer optischer Erfassung von Zusatz-Sensordaten vorteilhaft. Zur optimalen optischen Erfassung können beide Sensoren 102, 103 wie folgt zusammenarbeiten: Die Distanzmessung kann für einen direkten Punkt bzw. für einen Bereich die jeweilige Distanz des Punktes bzw. des Bereichs von dem Sensor 102 anzeigen. Daraufhin kann eine integrierte Bild-Erfassungseinheit einen Zoom bzw. Fokus derart ausrichten, dass der o. g. ermittelte Punkt bzw. Bereich optimal fokussiert wird.
  • Mit anderen Worten, die Zusatz-Sensordaten 113 können ggf. in Abhängigkeit von den Geometrie-Sensordaten 112 erfasst werden. Insbesondere können ein oder mehrere Erfassungs-Parameter eines Zusatz-Sensors 103 in Abhängigkeit von den Geometire-Sensordaten 112 für ein Objekt 106 angepasst werden. So kann die Qualität der erfassten Zusatz-Sensordaten 113 erhöht werden.
  • Die Auswerteeinheit 101 kann als Teil eines der Sensoren 102, 103 und/oder als separate Recheneinheit (z.B. als Server) bereitgestellt werden.
  • Das beschriebene Verfahren erlaubt es somit in integrierter Weise, ein Geometriemodell (optional mit Farbe) sowie weitere Informationen zu Objekten 106, die geometrisch (teil-)vermessen werden, zu detektieren und auszuwerten. Zur letztgenannten Auswertung können Verfahren der Zeichen- bzw. Schrifterkennung, und/oder der Bilderkennung verwendet werden. Alternativ können die Erkennung und vollständige Auswertung von Codes zeitlich separiert erfolgen, so dass während des Scanprozesses zur Geometrieerfassung lediglich die Detektion von Codes und ähnlicher Informationsträger erfolgt und nur ein Teil der dort enthaltenen bzw. bereitgestellten Information (z. B. in einem (im Kontext eindeutigen) Identifikator / Schlüssel) in Echtzeit extrahiert, dechiffriert und/oder ausgewertet und zur Geometrie referenziert wird. Die weitere Auswertung des zu einem Schlüssel gehörigen Wertes (ggf. ein Wertevektor, Container, ...) kann nachgelagert geschehen.
  • Beispielsweise kann in Echtzeit auf Basis der Zusatz-Sensordaten 113 (und der Geometrie-Sensordaten 112) detektiert werden, dass ein Objekt 106 einen Code aufweist. Die Auswertung des damit identifizierten Datensatzes 114 kann ggf. zu einem späteren Zeitpunkt erfolgen.
  • 3 zeigt ein Ablaufdiagramm eines beispielhaften Verfahrens 300 zur Ermittlung von Daten bezüglich eines Objektes 106 in einem Raum (z.B. in einem Lager oder in einer Produktionshalle). Das Verfahren 300 umfasst das Erfassen 301 von Geometrie-Sensordaten 112, die Geometrie-Information 202 bezüglich ein oder mehrerer Objekte 106 in dem Raum anzeigen. Außerdem umfasst das Verfahren 300 das Erfassen 302 von Zusatz-Sensordaten 113, die Zusatz-Information 203 bezüglich ein oder mehrerer Objekte 106 in dem Raum anzeigen. Dabei umfasst die Zusatz-Information 203 Information über ein Objekt 106, die über die Geometrie (d.h. die räumliche Ausdehnung, die Form, die räumliche Orientierung, die Position, etc.) des Objektes hinausgeht. Insbesondere kann die Zusatz-Information 203 einen maschinenlesbaren Code und/oder einen Schriftzug (etwa eine Folge von Schriftzeichen) umfassen.
  • Außerdem umfasst das Verfahren 300 das Ermitteln 303 von ersten assoziierten Daten bezüglich eines ersten Objektes 106 in dem Raum. Dabei werden die ersten assoziierten Daten auf Basis der Geometrie-Sensordaten 112 und auf Basis der Zusatz-Sensordaten 113 ermittelt. Insbesondere kann zu diesem Zweck die Zusatz-Information 203 für das erste Objekt der Geometrie-Information 202 für das erste Objekt 106 zugewiesen werden (z.B. aufgrund der Position des ersten Objekts und/oder auf Basis des Erfassungsbereichs, in dem die Geometrie-Sensordaten 112 und die Zusatz-Sensordaten 113 erfasst wurden).
  • Außerdem umfasst das Verfahren 300 das Identifizieren 304 eines Datensatzes 114 für das erste Objekt, auf Basis der ersten assoziierten Daten. Insbesondere kann der Datensatz 114 für das erste Objekt auf Basis eines detektierten maschinenlesbaren Codes bzw. Schriftzugs identifiziert werden. Alternativ oder ergänzend kann eine (Maschinen-angelernte) Zuweisungsfunktion verwendet werden.
  • Durch das in diesem Dokument beschriebene Verfahren 300 lassen sich Geometrieinformationen (ggf. inkl. der Farbinformation) durch weitere Informationen in Bezug auf reale Objekte 106 erweitern. Das entstehende digitale Modell repräsentiert die Realität geometrisch sehr präzise. Darüber hinaus ermöglicht ein so erstelltes Modell eine digitale Inventarisierung der Objekte 106 in einem Raum. Diese Information lässt sich vielfältig weiterverarbeiten bzw. nutzen.
  • Die Referenzierung eines Objektes 106 und der jeweils dazugehörigen weiteren Informationen, wie z. B. Masse, Preis, Haltbarkeit, Füllstand, Geometrie bzw. Soll-Geometriemodell, etc., kann mit dem beschriebenen Verfahren 300 effizient und zügig erfolgen. Dabei weist eine Registrierung der Informationen zueinander typischerweise ein hohe Genauigkeit auf. Wird beispielsweise die Sollgeometrie eines Objektes 106 in Form eines konstruierten (CAD-)Modells über einen Internet-Link oder durch Verschlüsselung in einem detektierten Code selbst bereitgestellt, kann in einem zweiten Schritt die gemessene Geometrie (manuell und/oder automatisch) im Gesamtmodell durch die korrespondiere Konstruktion aus dem Datensatz 114 ersetzt werden. So bieten sich z.B. Möglichkeiten zu einem ((teil) automatisierten) Vergleich von Soll- und Ist-Geometrien eines Objektes 106, der positiven und negativen Kollisionsüberprüfung, und/oder der automatisierten Modellmodifikation.
  • Die beschriebene Anreicherung eines Geometriemodells der Realität ist insbesondere im Bereich der Produktion vorteilhaft. Die integrierte Inventarisierung erlaubt z.B.: ein Tracking von Materialflüssen und eine Analyse von Lagerbeständen; einen Abgleich von Soll- vs. Ist-Geometrien für Objekte 106 und/oder einen Abgleich von Soll- vs. Ist-Prozessabläufen; eine Transparenz in der Logistik; Information zu Ressourcen (z. B. Maschinen, Anlagen), Waren etc. in einem digitalen Modell; und/oder eine präzise Planungsgrundlage.
  • Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.

Claims (12)

  1. Verfahren (300) zur Ermittlung von Daten bezüglich eines Objektes (106) in einem Raum, wobei das Verfahren (300) umfasst, – Erfassen (301) von Geometrie-Sensordaten (112), die Geometrie-Information (202) bezüglich ein oder mehrerer Objekte (106) in einem Raum anzeigen; – Erfassen (302) von Zusatz-Sensordaten (113), die Zusatz-Information (203) bezüglich ein oder mehrerer Objekte (106) in dem Raum anzeigen; – Ermitteln (303) von ersten assoziierten Daten bezüglich eines ersten Objektes (106) in dem Raum, auf Basis der Geometrie-Sensordaten (112) und auf Basis der Zusatz-Sensordaten (113); und – Identifizieren (304) eines Datensatzes (114) für das erste Objekt, auf Basis der ersten assoziierten Daten.
  2. Verfahren (300) gemäß Anspruch 1, wobei – die Zusatz-Information einen maschinenlesbaren Code und/oder einen Schriftzug umfasst; und – der maschinenlesbare Code und/oder der Schriftzug einen Identifikator des Datensatzes (114) für das erste Objekt (106) anzeigen.
  3. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei das Ermitteln (303) von ersten assoziierten Daten bezüglich eines ersten Objektes (106) umfasst, – Ermitteln von Positionsdaten für das erste Objekt auf Basis der Geometrie-Sensordaten (112); und – Identifizieren, auf Basis der Positionsdaten, der Zusatz-Information (203) für das erste Objekt aus den Zusatz-Sensordaten (113).
  4. Verfahren (300) gemäß Anspruch 3, wobei – die Zusatz-Sensordaten (113) durch einen Zusatz-Sensor (103) erfasst werden, der eingerichtet ist, für unterschiedliche Erfassungsbereiche des Raumes unterschiedliche Zusatz-Sensordaten (113) zu erfassen; – die Positionsdaten des ersten Objekts einen ersten Erfassungsbereich anzeigen; und – die Zusatz-Information (203) für das erste Objekt auf Basis der Zusatz-Sensordaten (113) für den ersten Erfassungsbereich ermittelt werden.
  5. Verfahren (300) gemäß Anspruch 4, wobei ein oder mehrere Erfassungs-Parameter des Zusatz-Sensors (103) zur Erfassung der Zusatz-Sensordaten (113) für das erste Objekt (106) in Abhängigkeit von den Positionsdaten angepasst werden.
  6. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei – die Geometrie-Sensordaten (112) Messpunkte von einem Laserscanner (101) umfassen; und/oder – die Zusatz-Sensordaten (113) Bilddaten von einer Bildkamera (103) umfassen.
  7. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei die Geometrie-Information (202) ein oder mehrere umfasst von: Information bezüglich einer räumlichen Ausdehnung eines Objektes (106); Information bezüglich einer Form eines Objektes (106); Information bezüglich einer Position eines Objektes (106); Information bezüglich einer Entfernung eines Objektes (106) von einem Geometrie-Sensor (102) und/oder Information bezüglich einer räumlichen Ausrichtung eines Objektes (106).
  8. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei – das Verfahren (300) umfasst, Ermitteln einer Zuweisungsfunktion, die eingerichtet ist, assoziierte Daten bezüglich eines Objektes (106) einem Identifikator für einen Datensatz (114) zuzuweisen; und – der Datensatz (114) für das erste Objekt (106) mittels der Zuweisungsfunktion identifiziert wird.
  9. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei – das Verfahren (300) umfasst, Ermitteln eines 3-dimensionalen Modells des Raumes, in dem sich das erste Objekt (106) befindet, auf Basis der Geometrie-Information (202); – der Datensatz (114) für das erste Objekt (106) ein 3-dimensionales Modell des ersten Objektes (106) umfasst; und – das Verfahren (300) umfasst, Verwenden des 3-dimensionalen Modells des ersten Objektes (106) für das 3-dimensionale Modell des Raumes.
  10. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei – der Datensatz (114) für das erste Objekt (106) auf einer Speichereinheit (104) gespeichert ist; – der Datensatz (114) für das erste Objekt (106) aus einer Vielzahl von unterschiedlichen Datensätzen (114) für eine entsprechende Vielzahl von unterschiedlichen Objekt-Typen identifiziert wird; und/oder – der Datensatz (114) Information in Bezug auf ein oder mehrere anzeigt von: eine räumliche Ausdehnung des ersten Objektes (106), eine Masse bzw. ein Gewicht des ersten Objektes (106), eine Form des ersten Objektes (106), und/oder eine Lagerhaltung des ersten Objektes (106).
  11. Vorrichtung, eingerichtet zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 10.
  12. Software-Programm, eingerichtet um auf einem Prozessor ausgeführt zu werden, dadurch gekennzeichnet, dass mittels der Ausführung ein Verfahren nach einem der Ansprüche 1 bis 10 bewirkt wird.
DE102015219660.7A 2015-10-12 2015-10-12 Verfahren und System zur Ermittlung von Daten für ein Objekt Pending DE102015219660A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015219660.7A DE102015219660A1 (de) 2015-10-12 2015-10-12 Verfahren und System zur Ermittlung von Daten für ein Objekt

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015219660.7A DE102015219660A1 (de) 2015-10-12 2015-10-12 Verfahren und System zur Ermittlung von Daten für ein Objekt

Publications (1)

Publication Number Publication Date
DE102015219660A1 true DE102015219660A1 (de) 2017-04-13

Family

ID=58405483

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015219660.7A Pending DE102015219660A1 (de) 2015-10-12 2015-10-12 Verfahren und System zur Ermittlung von Daten für ein Objekt

Country Status (1)

Country Link
DE (1) DE102015219660A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211072A1 (de) * 2017-05-18 2018-11-22 Ssi Schäfer Automation Gmbh (At) Vorrichtung und verfahren zum steuern eines materialflusses an einem materialfluss-knotenpunkt
EP3853759A4 (de) * 2018-09-20 2021-12-08 Dematic Corp. Verfahren und vorrichtung zur steuerung des flusses von gegenständen in einem materialhandhabungssystem

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012010126A1 (de) * 2012-05-23 2012-12-13 Daimler Ag Gepäckraumladeassistenzsystem für ein Kraftfahrzeug

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012010126A1 (de) * 2012-05-23 2012-12-13 Daimler Ag Gepäckraumladeassistenzsystem für ein Kraftfahrzeug

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018211072A1 (de) * 2017-05-18 2018-11-22 Ssi Schäfer Automation Gmbh (At) Vorrichtung und verfahren zum steuern eines materialflusses an einem materialfluss-knotenpunkt
US11321548B2 (en) 2017-05-18 2022-05-03 Ssi Schäfer Automation Gmbh (At) Device and method for controlling a material flow at a material flow nod point
EP3853759A4 (de) * 2018-09-20 2021-12-08 Dematic Corp. Verfahren und vorrichtung zur steuerung des flusses von gegenständen in einem materialhandhabungssystem
US11492200B2 (en) 2018-09-20 2022-11-08 Dematic Corp. Method and apparatus for controlling flow of objects in a material handling system

Similar Documents

Publication Publication Date Title
DE102008041524B4 (de) Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen
DE102014016069B4 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
DE102018215826A1 (de) Robotersystem und Werkstückgreifverfahren
DE112014004190T5 (de) Positurschätzverfahren und Roboter
EP2824525B1 (de) Verfahren und Einrichtung zur Bestimmung der Position von Betriebsmitteln einer industriellen Automatisierungsanordnung
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102009051826A1 (de) Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
EP4072808B1 (de) Computergestütztes verfahren und einrichtung zur prüfung einer sichtbetonqualität
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
EP3274654A1 (de) Verfahren und vorrichtung zum bestimmen von dimensionellen eigenschaften eines messobjekts
DE102016008406A1 (de) Bildmessvorrichtung, Steuerprogramm dieser Vorrichtung und nicht temporäres Aufzeichnungsmedium, auf welchem das Steuerprogramm aufgezeichnet ist
DE102015219660A1 (de) Verfahren und System zur Ermittlung von Daten für ein Objekt
DE102018006764B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
DE102015114715A1 (de) Verfahren zur Messung von Merkmalen an Werkstücken
DE102019202076A1 (de) Gabelstapler und system mit gabelstapler zur identifikation einer ware
JP5403180B1 (ja) 画像評価方法、画像評価装置及び画像評価プログラム
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
EP3543901B1 (de) Vorrichtung und verfahren zur robusten ermittlung der position, ausrichtung, identität und ausgewählter zustandsinformationen von objekten
DE102016123194A1 (de) Messvorrichtung, Messverfahren und Produktfertigungsverfagren
EP3316224B1 (de) Verfahren zum bestimmen eines entgelts für ein versenden einer sendung
DE112023000151T5 (de) Inspektionsunterstützungssystem, inspektionsunterstützungsverfahren und inspektionsunterstützungsprogramm
DE102020134191B4 (de) Verfahren zur Identifikation eines Bauteils
DE102020126519A1 (de) Steuereinheit, steuerverfahren mit hilfe der steuereinheit und steuersystem
EP1756748B1 (de) Verfahren zur klassifizierung eines objekts mit einer stereokamera

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed