DE102015014415A1 - Verfahren zur Erkennung bewegter Objekte - Google Patents
Verfahren zur Erkennung bewegter Objekte Download PDFInfo
- Publication number
- DE102015014415A1 DE102015014415A1 DE102015014415.4A DE102015014415A DE102015014415A1 DE 102015014415 A1 DE102015014415 A1 DE 102015014415A1 DE 102015014415 A DE102015014415 A DE 102015014415A DE 102015014415 A1 DE102015014415 A1 DE 102015014415A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- image
- classified
- camera
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
Die Erfindung betrifft ein Verfahren zur Erkennung von bewegten Objekten in einer Umgebung, vorzugsweise einer Produktionshalle, bei welchem von einer 3D-Kamera ein 3D-Bild einer, die Objekte umfassende Szene erstellt wird, wobei die 3D-Kamera eine 3D-Punktwolke exportiert. Bei einem sehr einfachen und schnellen Verfahren wird in einer Produktionssteuerung ein reales Bild der gleichen Szene erstellt, bei welchem die Objekte durch ein Convolutional Neural Network klassifiziert werden und mittels der klassifizierten Objekte dieselben Objekte in der 3D-Punktwolke extrahiert und vermessen werden.
Description
- Die Erfindung betrifft ein Verfahren zur Erkennung von bewegten Objekten in einer Umgebung, vorzugsweise einer Produktionshalle, bei welchem von einer 3D-Kamera ein 3D-Bild einer, die Objekte umfassenden Szene erstellt wird, wobei die 3D-Kamera eine 3D-Punktwolke exportiert.
- Aus der
DE 10 2013 216 833 A1 sind eine 3D-Kamera und ein Verfahren zum Betreiben einer solchen bekannt, bei welchem ein Erfassungsbereich mit wenigstens einem Solltiefenbild gespeichert wird. Dabei wird das mindestens eine Tiefenbild für den mindestens einen Erfassungsbereich erfasst und jeweils ein Zustandswert für jeden Erfassungsbereich in Abhängigkeit eines Vergleichs des erfassten Tiefenbildes mit dem Solltiefenbild bestimmt und ausgegeben. Durch die Analyse der 3D-Kamera können Zustandsgrößen in einer Fertigung überwacht werden, wobei die komplexen 3D-Daten auf applikationsrelevante, vorzugsweise binäre Zustandswerte reduziert werden können. Der Sollzustand stellt dabei eine eingelernte 3D-Punktwolke dar. Eine solche einfach nur auf einer 3D-Kamera basierende Auswertung der Fertigung erfordert einen hohen Rechenaufwand und ist daher sehr komplex und zeitaufwendig. - Aufgabe der Erfindung ist es, ein Verfahren zur Ermittlung bewegter Objekte anzugeben, welches einfach und schnell durchführbar ist.
- Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche. Weitere Merkmale, Anwendungsmöglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung, sowie der Erläuterung von Ausführungsbeispielen der Erfindung, die in den Figuren dargestellt sind.
- Die Aufgabe ist mit einem Verfahren dadurch gelöst, dass in einer Produktionssteuerung ein reales Bild der gleichen Szene erstellt wird, bei welchem die Objekte durch ein Convolutional Neural Network klassifiziert werden und mittels der klassifizierten Objekte dieselben Objekte in der 3D-Punktwolke extrahiert und vermessen werden. Der Abgleich zwischen dem realen und dem digitalen Bild erlaubt eine schnellere Auswertung der realen mit der virtuellen Welt.
- Vorteilhafterweise wird das reale Bild von einem Standard-Kamerasystem aufgenommen.
- In einer Ausgestaltung werden der 3D-Sensor und das Standard-Kamerasystem in einem gemeinsamen Koordinatensystem kalibriert. Durch die Anordnung im selben Weltkoordinatensystem kann man in dem digitalen 3D-Bild die Objekte sehr schnell finden, extrahieren und vermessen. Die metrische Information über die sich bewegenden Objekte lassen sich somit sehr schnell mit der digitalen Welt abgleichen, wodurch ein permanenter und persistenter Zustand zwischen Realität und digitaler Welt erreicht wird.
- In einer Ausführungsform erzeugt das Standard-Kamerasystem ein reales n Bit-Grauwertbild. Ein solches Grauwertbild lässt eine deutliche Erkennung der einzelnen Objekte in der Produktionshalle zu, wodurch diese zuverlässig durch das Convolutional Neural Network ausgewertet werden können.
- In einer Weiterbildung weisen das digitale Bild und das reale Bild die gleiche Perspektive auf die gleiche Szene in der Produktionshalle auf. Dadurch wird sichergestellt, dass man auch wirklich die in dem Augenblick der Aufnahme sich durch die Produktionshalle bewegenden Objekte vergleichen kann.
- In einer Variante sind die zur Produktionssteuerung erfassten Objekte Bestandteil eines fahrerlosen Transportsystems.
- Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der – gegebenenfalls unter Bezug auf die Zeichnung – zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Beschriebene und/oder bildlich dargestellte Merkmale können für sich oder in beliebiger, sinnvoller Kombination den Gegenstand der Erfindung bilden, gegebenenfalls auch unabhängig von den Ansprüchen, und können insbesondere zusätzlich auch Gegenstand einer oder mehrerer separater Anmeldung/en sein. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen.
- In einer Produktionshalle wird ein fahrerloses Transportsystem (FTS) verwendet, welches zur Produktion notwendige Bauteile an einen vorgegebenen Produktionsstandort bringt.
- Um die einzelnen Wagen des fahrerlosen Transportsystems zu überwachen, sind ein 3D-Scanner und ein Standard-Kamerasystem so in der Produktionshalle angeordnet, dass diese dieselbe Szene in der Produktionshalle erfassen.
- Der 3D-Scanner stellt einen Sensor zum Vermessen der vorliegenden Szene in der Produktionshalle dar und kann zweidimensional oder auch dreidimensional, wie der Velodyne Laserscanner, ausgebildet sein. Es sind aber auch Bild- oder Radar-Scanner verwendbar. Vorteilhafterweise wird ein Faro-Laserscanner zum Vermessen der Szene in der Produktionshalle eingesetzt. Dieser Faro-Laserscanner exportiert eine 3D-Punktwolke. Gleichzeitig wird dieselbe Szene in der Produktionshalle mit dem Standard-Kamerasystem aufgenommen, das ein normales Bild von der Szene, beispielsweise ein 16-Bit-Grauwertbild, ausgibt.
- Durch die Kalibrierung des 3D-Scanners und des Standard-Kamerasystems in demselben Koordinatensystem sind alle Berechnungen in beiden Systemen gleich, wodurch die, in dem realen Bild des Kamerasystems bestimmten Wagen des Transportsystems in der 3D-Punktwolke des 3D-Scanners identifiziert werden können.
- Zunächst werden in dem realen Bild, das von dem Standard-Kamerasystem aufgenommen wurde, durch das Convolutional Neural Network Wagen des fahrerlosen Transportsystems klassifiziert. Anschließend werden diese klassifizierten Wagen in der 3D-Punktwolke identifiziert, extrahiert und vermessen. Anschließend werden die metrischen Informationen, die aus der Szene bestimmt wurden, sehr schnell mit der digitalen Welt, dem digitalen Abbild der Produktionshalle, abgeglichen und so ein permanenter und persisenter Zustand zwischen Realität und digitaler Welt erreicht.
- In einer Alternative kann auf den 3D-Scanner verzichtet werden. Gleiche Temperaturen vorausgesetzt, kann ein Abgleich der Wagen ausgelassen werden und die Größeninformation der Wagen aus Computerdaten entnommen werden. D. h. mit dem Standard-Kamerasystem wird ein reales Bild gemacht, welches durch das Convolutional Neural Network die Wagen klassifiziert. Mittels einer Datenbasis wird jeder Wagen mit seinen CAD-Informationen abgeglichen.
- Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102013216833 A1 [0002]
Claims (6)
- Verfahren zur Erkennung von bewegten Objekten in einer Umgebung, vorzugsweise einer Produktionshalle, bei welchem von einer 3D-Kamera ein 3D-Bild einer, die Objekte umfassenden Szene erstellt wird, wobei die 3D-Kamera eine 3D-Punktwolke exportiert, dadurch gekennzeichnet, dass in einer Produktionssteuerung ein reales Bild der gleichen Szene erstellt wird, bei welchem die Objekte durch ein Convolutional Neural Network klassifiziert werden und mittels der klassifizierten Objekte dieselben Objekte in der 3D-Punktwolke extrahiert und vermessen werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das reale Bild von einem Standard-Kamerasystem aufgenommen wird.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die 3D-Kamera und das Standard-Kamerasystem in einem gemeinsamen Koordinatensystem kalibriert werden.
- Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Standard-Kamerasystem ein reales n Bit-Grauwertbild erzeugt.
- Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das digitale Bild und das reale Bild die gleiche Perspektive auf die gleiche Szene haben.
- Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zur Produktionssteuerung erfassten Objekte Bestandteil eines fahrerlosen Transportsystems sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015014415.4A DE102015014415A1 (de) | 2015-11-07 | 2015-11-07 | Verfahren zur Erkennung bewegter Objekte |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015014415.4A DE102015014415A1 (de) | 2015-11-07 | 2015-11-07 | Verfahren zur Erkennung bewegter Objekte |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015014415A1 true DE102015014415A1 (de) | 2016-05-12 |
Family
ID=55803059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015014415.4A Withdrawn DE102015014415A1 (de) | 2015-11-07 | 2015-11-07 | Verfahren zur Erkennung bewegter Objekte |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015014415A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122707A (zh) * | 2017-03-17 | 2017-09-01 | 山东大学 | 基于外貌特征紧凑表示的视频行人再识别方法及系统 |
EP4047512A1 (de) | 2021-02-17 | 2022-08-24 | vR production (DUKTUS) gmbh | Verfahren zur verfolgung von objekten in einem produktionsprozess |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013216833A1 (de) | 2013-08-23 | 2015-02-26 | Ifm Electronic Gmbh | 3D-Kamera |
-
2015
- 2015-11-07 DE DE102015014415.4A patent/DE102015014415A1/de not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013216833A1 (de) | 2013-08-23 | 2015-02-26 | Ifm Electronic Gmbh | 3D-Kamera |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122707A (zh) * | 2017-03-17 | 2017-09-01 | 山东大学 | 基于外貌特征紧凑表示的视频行人再识别方法及系统 |
EP4047512A1 (de) | 2021-02-17 | 2022-08-24 | vR production (DUKTUS) gmbh | Verfahren zur verfolgung von objekten in einem produktionsprozess |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011117585B4 (de) | Systeme und Verfahren zum Verfolgen von Objekten | |
DE102015205244B3 (de) | Verfahren zum Bereitstellen von Hinderniskarten für Fahrzeuge | |
DE102015209857A1 (de) | Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem | |
DE102012216386A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs | |
DE102013200409A1 (de) | Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung | |
DE102013019804A1 (de) | Verfahren zur Ermittlung einer Bewegung eines Objekts | |
DE102021116703A1 (de) | Verfahren und System zur Vorhersage einer Trajektorie eines Zielfahrzeugs in einer Umgebung eines Fahrzeugs | |
DE102014200279A1 (de) | Verfahren und Vorrichtung zum Detektieren von Objekten in einem Umfeld eines Fahrzeugs | |
DE102017207442A1 (de) | Verfahren und Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges | |
AT518940A1 (de) | Verfahren und Vorrichtung zum Messen eines Abstands zwischen einem ersten Fahrzeug und einem zweiten, dem ersten Fahrzeug unmittelbar vorausfahrenden, Fahrzeug | |
DE102018212779A1 (de) | Verfahren und System zum Bestimmen und Anzeigen einer Watsituation | |
DE102018204451A1 (de) | Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems | |
DE102013002889A1 (de) | Verfahren und Vorrichtung zur Modellierung eines Fahrbahnrandes und Fahrzeug mit einer solchen Vorrichtung | |
DE102015014415A1 (de) | Verfahren zur Erkennung bewegter Objekte | |
DE102014003152A1 (de) | Verfahren und Vorrichtung zum Bestimmen zumindest eines Objektparameters eines Verkehrsmittels | |
DE102013021840A1 (de) | Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug | |
DE102016008744A1 (de) | Bildmessapparat, Regel- bzw. Steuerprogramm eines derartigen Apparats und nicht-flüchtiges Aufzeichnungsmedium, auf welchem das Regel- bzw. Steuerprogramm aufgezeichnet is | |
DE102016215932A1 (de) | Verfahren und Vorrichtung zum Betreiben wenigstens eines teil- oder hochautomatisierten Fahrzeugs | |
EP3659113B1 (de) | Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten | |
DE102013018751A1 (de) | Verfahren zur Bestimmung einer Bewegungsrichtung eines Fußgängers | |
DE102014009522A1 (de) | Verfahren zur Erfassung einer Umgebung eines Fahrzeugs | |
EP3663800B1 (de) | Verfahren zur objekterfassung mit einer 3d-kamera | |
DE102015008539A1 (de) | Verfahren zur Fusion mehrerer Informationsquellen zur Objektdetektion und Verfahren zum Betrieb einer Fahrerassistenzvorrichtung | |
WO2020074417A1 (de) | Verfahren zur bestimmung der wertigkeit von radarmesswerten zur bestimmung eines belegungszustands eines stellplatzes | |
DE102016215501A1 (de) | Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |