DE102015014415A1 - Verfahren zur Erkennung bewegter Objekte - Google Patents

Verfahren zur Erkennung bewegter Objekte Download PDF

Info

Publication number
DE102015014415A1
DE102015014415A1 DE102015014415.4A DE102015014415A DE102015014415A1 DE 102015014415 A1 DE102015014415 A1 DE 102015014415A1 DE 102015014415 A DE102015014415 A DE 102015014415A DE 102015014415 A1 DE102015014415 A1 DE 102015014415A1
Authority
DE
Germany
Prior art keywords
objects
image
classified
camera
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015014415.4A
Other languages
English (en)
Inventor
Anton Feldmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102015014415.4A priority Critical patent/DE102015014415A1/de
Publication of DE102015014415A1 publication Critical patent/DE102015014415A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

Die Erfindung betrifft ein Verfahren zur Erkennung von bewegten Objekten in einer Umgebung, vorzugsweise einer Produktionshalle, bei welchem von einer 3D-Kamera ein 3D-Bild einer, die Objekte umfassende Szene erstellt wird, wobei die 3D-Kamera eine 3D-Punktwolke exportiert. Bei einem sehr einfachen und schnellen Verfahren wird in einer Produktionssteuerung ein reales Bild der gleichen Szene erstellt, bei welchem die Objekte durch ein Convolutional Neural Network klassifiziert werden und mittels der klassifizierten Objekte dieselben Objekte in der 3D-Punktwolke extrahiert und vermessen werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung von bewegten Objekten in einer Umgebung, vorzugsweise einer Produktionshalle, bei welchem von einer 3D-Kamera ein 3D-Bild einer, die Objekte umfassenden Szene erstellt wird, wobei die 3D-Kamera eine 3D-Punktwolke exportiert.
  • Aus der DE 10 2013 216 833 A1 sind eine 3D-Kamera und ein Verfahren zum Betreiben einer solchen bekannt, bei welchem ein Erfassungsbereich mit wenigstens einem Solltiefenbild gespeichert wird. Dabei wird das mindestens eine Tiefenbild für den mindestens einen Erfassungsbereich erfasst und jeweils ein Zustandswert für jeden Erfassungsbereich in Abhängigkeit eines Vergleichs des erfassten Tiefenbildes mit dem Solltiefenbild bestimmt und ausgegeben. Durch die Analyse der 3D-Kamera können Zustandsgrößen in einer Fertigung überwacht werden, wobei die komplexen 3D-Daten auf applikationsrelevante, vorzugsweise binäre Zustandswerte reduziert werden können. Der Sollzustand stellt dabei eine eingelernte 3D-Punktwolke dar. Eine solche einfach nur auf einer 3D-Kamera basierende Auswertung der Fertigung erfordert einen hohen Rechenaufwand und ist daher sehr komplex und zeitaufwendig.
  • Aufgabe der Erfindung ist es, ein Verfahren zur Ermittlung bewegter Objekte anzugeben, welches einfach und schnell durchführbar ist.
  • Die Erfindung ergibt sich aus den Merkmalen der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen und Ausgestaltungen sind Gegenstand der abhängigen Ansprüche. Weitere Merkmale, Anwendungsmöglichkeiten und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung, sowie der Erläuterung von Ausführungsbeispielen der Erfindung, die in den Figuren dargestellt sind.
  • Die Aufgabe ist mit einem Verfahren dadurch gelöst, dass in einer Produktionssteuerung ein reales Bild der gleichen Szene erstellt wird, bei welchem die Objekte durch ein Convolutional Neural Network klassifiziert werden und mittels der klassifizierten Objekte dieselben Objekte in der 3D-Punktwolke extrahiert und vermessen werden. Der Abgleich zwischen dem realen und dem digitalen Bild erlaubt eine schnellere Auswertung der realen mit der virtuellen Welt.
  • Vorteilhafterweise wird das reale Bild von einem Standard-Kamerasystem aufgenommen.
  • In einer Ausgestaltung werden der 3D-Sensor und das Standard-Kamerasystem in einem gemeinsamen Koordinatensystem kalibriert. Durch die Anordnung im selben Weltkoordinatensystem kann man in dem digitalen 3D-Bild die Objekte sehr schnell finden, extrahieren und vermessen. Die metrische Information über die sich bewegenden Objekte lassen sich somit sehr schnell mit der digitalen Welt abgleichen, wodurch ein permanenter und persistenter Zustand zwischen Realität und digitaler Welt erreicht wird.
  • In einer Ausführungsform erzeugt das Standard-Kamerasystem ein reales n Bit-Grauwertbild. Ein solches Grauwertbild lässt eine deutliche Erkennung der einzelnen Objekte in der Produktionshalle zu, wodurch diese zuverlässig durch das Convolutional Neural Network ausgewertet werden können.
  • In einer Weiterbildung weisen das digitale Bild und das reale Bild die gleiche Perspektive auf die gleiche Szene in der Produktionshalle auf. Dadurch wird sichergestellt, dass man auch wirklich die in dem Augenblick der Aufnahme sich durch die Produktionshalle bewegenden Objekte vergleichen kann.
  • In einer Variante sind die zur Produktionssteuerung erfassten Objekte Bestandteil eines fahrerlosen Transportsystems.
  • Weitere Vorteile, Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der – gegebenenfalls unter Bezug auf die Zeichnung – zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Beschriebene und/oder bildlich dargestellte Merkmale können für sich oder in beliebiger, sinnvoller Kombination den Gegenstand der Erfindung bilden, gegebenenfalls auch unabhängig von den Ansprüchen, und können insbesondere zusätzlich auch Gegenstand einer oder mehrerer separater Anmeldung/en sein. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen.
  • In einer Produktionshalle wird ein fahrerloses Transportsystem (FTS) verwendet, welches zur Produktion notwendige Bauteile an einen vorgegebenen Produktionsstandort bringt.
  • Um die einzelnen Wagen des fahrerlosen Transportsystems zu überwachen, sind ein 3D-Scanner und ein Standard-Kamerasystem so in der Produktionshalle angeordnet, dass diese dieselbe Szene in der Produktionshalle erfassen.
  • Der 3D-Scanner stellt einen Sensor zum Vermessen der vorliegenden Szene in der Produktionshalle dar und kann zweidimensional oder auch dreidimensional, wie der Velodyne Laserscanner, ausgebildet sein. Es sind aber auch Bild- oder Radar-Scanner verwendbar. Vorteilhafterweise wird ein Faro-Laserscanner zum Vermessen der Szene in der Produktionshalle eingesetzt. Dieser Faro-Laserscanner exportiert eine 3D-Punktwolke. Gleichzeitig wird dieselbe Szene in der Produktionshalle mit dem Standard-Kamerasystem aufgenommen, das ein normales Bild von der Szene, beispielsweise ein 16-Bit-Grauwertbild, ausgibt.
  • Durch die Kalibrierung des 3D-Scanners und des Standard-Kamerasystems in demselben Koordinatensystem sind alle Berechnungen in beiden Systemen gleich, wodurch die, in dem realen Bild des Kamerasystems bestimmten Wagen des Transportsystems in der 3D-Punktwolke des 3D-Scanners identifiziert werden können.
  • Zunächst werden in dem realen Bild, das von dem Standard-Kamerasystem aufgenommen wurde, durch das Convolutional Neural Network Wagen des fahrerlosen Transportsystems klassifiziert. Anschließend werden diese klassifizierten Wagen in der 3D-Punktwolke identifiziert, extrahiert und vermessen. Anschließend werden die metrischen Informationen, die aus der Szene bestimmt wurden, sehr schnell mit der digitalen Welt, dem digitalen Abbild der Produktionshalle, abgeglichen und so ein permanenter und persisenter Zustand zwischen Realität und digitaler Welt erreicht.
  • In einer Alternative kann auf den 3D-Scanner verzichtet werden. Gleiche Temperaturen vorausgesetzt, kann ein Abgleich der Wagen ausgelassen werden und die Größeninformation der Wagen aus Computerdaten entnommen werden. D. h. mit dem Standard-Kamerasystem wird ein reales Bild gemacht, welches durch das Convolutional Neural Network die Wagen klassifiziert. Mittels einer Datenbasis wird jeder Wagen mit seinen CAD-Informationen abgeglichen.
  • Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen wirklich nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterungen in der Beschreibung, definiert wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102013216833 A1 [0002]

Claims (6)

  1. Verfahren zur Erkennung von bewegten Objekten in einer Umgebung, vorzugsweise einer Produktionshalle, bei welchem von einer 3D-Kamera ein 3D-Bild einer, die Objekte umfassenden Szene erstellt wird, wobei die 3D-Kamera eine 3D-Punktwolke exportiert, dadurch gekennzeichnet, dass in einer Produktionssteuerung ein reales Bild der gleichen Szene erstellt wird, bei welchem die Objekte durch ein Convolutional Neural Network klassifiziert werden und mittels der klassifizierten Objekte dieselben Objekte in der 3D-Punktwolke extrahiert und vermessen werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das reale Bild von einem Standard-Kamerasystem aufgenommen wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die 3D-Kamera und das Standard-Kamerasystem in einem gemeinsamen Koordinatensystem kalibriert werden.
  4. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Standard-Kamerasystem ein reales n Bit-Grauwertbild erzeugt.
  5. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das digitale Bild und das reale Bild die gleiche Perspektive auf die gleiche Szene haben.
  6. Verfahren nach mindestens einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zur Produktionssteuerung erfassten Objekte Bestandteil eines fahrerlosen Transportsystems sind.
DE102015014415.4A 2015-11-07 2015-11-07 Verfahren zur Erkennung bewegter Objekte Withdrawn DE102015014415A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015014415.4A DE102015014415A1 (de) 2015-11-07 2015-11-07 Verfahren zur Erkennung bewegter Objekte

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015014415.4A DE102015014415A1 (de) 2015-11-07 2015-11-07 Verfahren zur Erkennung bewegter Objekte

Publications (1)

Publication Number Publication Date
DE102015014415A1 true DE102015014415A1 (de) 2016-05-12

Family

ID=55803059

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015014415.4A Withdrawn DE102015014415A1 (de) 2015-11-07 2015-11-07 Verfahren zur Erkennung bewegter Objekte

Country Status (1)

Country Link
DE (1) DE102015014415A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122707A (zh) * 2017-03-17 2017-09-01 山东大学 基于外貌特征紧凑表示的视频行人再识别方法及系统
EP4047512A1 (de) 2021-02-17 2022-08-24 vR production (DUKTUS) gmbh Verfahren zur verfolgung von objekten in einem produktionsprozess

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013216833A1 (de) 2013-08-23 2015-02-26 Ifm Electronic Gmbh 3D-Kamera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013216833A1 (de) 2013-08-23 2015-02-26 Ifm Electronic Gmbh 3D-Kamera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107122707A (zh) * 2017-03-17 2017-09-01 山东大学 基于外貌特征紧凑表示的视频行人再识别方法及系统
EP4047512A1 (de) 2021-02-17 2022-08-24 vR production (DUKTUS) gmbh Verfahren zur verfolgung von objekten in einem produktionsprozess

Similar Documents

Publication Publication Date Title
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102015205244B3 (de) Verfahren zum Bereitstellen von Hinderniskarten für Fahrzeuge
DE102015209857A1 (de) Autonomes Notbremssystem und Verfahren zum Erkennen von Fußgängern in diesem
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102013200409A1 (de) Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung
DE102013019804A1 (de) Verfahren zur Ermittlung einer Bewegung eines Objekts
DE102021116703A1 (de) Verfahren und System zur Vorhersage einer Trajektorie eines Zielfahrzeugs in einer Umgebung eines Fahrzeugs
DE102014200279A1 (de) Verfahren und Vorrichtung zum Detektieren von Objekten in einem Umfeld eines Fahrzeugs
DE102017207442A1 (de) Verfahren und Vorrichtung zum Klassifizieren von Objekten im Umfeld eines Kraftfahrzeuges
AT518940A1 (de) Verfahren und Vorrichtung zum Messen eines Abstands zwischen einem ersten Fahrzeug und einem zweiten, dem ersten Fahrzeug unmittelbar vorausfahrenden, Fahrzeug
DE102018212779A1 (de) Verfahren und System zum Bestimmen und Anzeigen einer Watsituation
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102013002889A1 (de) Verfahren und Vorrichtung zur Modellierung eines Fahrbahnrandes und Fahrzeug mit einer solchen Vorrichtung
DE102015014415A1 (de) Verfahren zur Erkennung bewegter Objekte
DE102014003152A1 (de) Verfahren und Vorrichtung zum Bestimmen zumindest eines Objektparameters eines Verkehrsmittels
DE102013021840A1 (de) Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102016008744A1 (de) Bildmessapparat, Regel- bzw. Steuerprogramm eines derartigen Apparats und nicht-flüchtiges Aufzeichnungsmedium, auf welchem das Regel- bzw. Steuerprogramm aufgezeichnet is
DE102016215932A1 (de) Verfahren und Vorrichtung zum Betreiben wenigstens eines teil- oder hochautomatisierten Fahrzeugs
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
DE102013018751A1 (de) Verfahren zur Bestimmung einer Bewegungsrichtung eines Fußgängers
DE102014009522A1 (de) Verfahren zur Erfassung einer Umgebung eines Fahrzeugs
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
DE102015008539A1 (de) Verfahren zur Fusion mehrerer Informationsquellen zur Objektdetektion und Verfahren zum Betrieb einer Fahrerassistenzvorrichtung
WO2020074417A1 (de) Verfahren zur bestimmung der wertigkeit von radarmesswerten zur bestimmung eines belegungszustands eines stellplatzes
DE102016215501A1 (de) Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee