DE102013216833A1 - 3D-Kamera - Google Patents

3D-Kamera Download PDF

Info

Publication number
DE102013216833A1
DE102013216833A1 DE102013216833.0A DE102013216833A DE102013216833A1 DE 102013216833 A1 DE102013216833 A1 DE 102013216833A1 DE 102013216833 A DE102013216833 A DE 102013216833A DE 102013216833 A1 DE102013216833 A1 DE 102013216833A1
Authority
DE
Germany
Prior art keywords
camera
depth image
roi1
stb
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013216833.0A
Other languages
English (en)
Inventor
Michael Paintner
Volker Frey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
IFM Electronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH filed Critical IFM Electronic GmbH
Priority to DE102013216833.0A priority Critical patent/DE102013216833A1/de
Publication of DE102013216833A1 publication Critical patent/DE102013216833A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Abstract

3D-Kamera und Verfahren zum Betreiben einer solchen, bei der in einer Initialisierungsphase innerhalb eines Sichtbereichs (10) der 3D-Kamera (1) mindestens ein Erfassungsbereich (ROI1, 2, 3) definiert und für diesen mindestens einen Erfassungsbereich (ROI1, 2, 3) wenigstens ein Soll-Tiefenbild (STB) gespeichert wird,
mit den Schritten:
a) Erfassen eines Tiefenbilds (ETB) für den mindestens einen Erfassungsbereich (ROI1, 2, 3),
b) Bestimmung und Ausgabe jeweils eines Zustandswertes (ZW) für jeden Erfassungsbereich (ROI1, 2, 3) in Abhängigkeit eines Vergleichs des erfassten Tiefenbilds (ETB) mit dem Soll-Tiefenbild (STB).

Description

  • Die Erfindung betrifft eine 3D-Kamera und ein Verfahren zum Betreiben einer solchen nach Gattung der unabhängigen Ansprüche.
  • Mit 3D-Kamera sind insbesondere Lichtlaufzeitkameras bzw. entsprechende System umfasst, die Entfernungen direkt aus der Lichtlaufzeit ermitteln. Insbesondere sind auch alle 3D-Kamerasysteme umfasst, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen EP 1 777 747 , US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ‚ifm electronic gmbh’ als O3D-Kamera vertrieben werden. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Aufgabe der Erfindung ist es, Überwachungsfunktionen von 3D-Kameras zu vereinfachen.
  • Die Aufgabe wird in vorteilhafter Weise durch die erfindungsgemäße 3D-Kamera und das Verfahren zum Betreiben einer solchen 3D-Kamera entsprechend der unabhängigen Ansprüche gelöst.
  • Vorteilhaft ist ein Verfahren zum Betreiben einer 3D-Kamera vorgesehen, bei dem in einer Initialisierungsphase innerhalb eines Sichtbereichs der 3D-Kamera mindestens ein Erfassungsbereich definiert und für diesen mindestens einen Erfassungsbereich wenigstens ein Soll-Tiefenbild gespeichert wird,
    mit den Schritten:
    • a) Erfassen eines Tiefenbilds für den mindestens einen Erfassungsbereich,
    • b) Bestimmung und Ausgabe jeweils eines Zustandswertes für jeden Erfassungsbereich in Abhängigkeit eines Vergleichs des erfassten Tiefenbilds mit dem Soll-Tiefenbild.
  • Dieses Vorgehen hat den Vorteil, dass über eine 3D-Kamera Zustandsgrößen beispielsweise einer Fertigung überwacht werden können und für die weitere Anwendung die komplexen 3D-Daten auf applikationsrelevante vorzugsweise binäre Zustandswerte reduziert werden können.
  • Ferner ist es nützlich zur Bestimmung des Zustandswerts eine Differenz zwischen Tiefenbild und Soll-Tiefenbild zu ermitteln und mit einem Grenzwert zu vergleichen. Durch einen solchen Vergleich mit einer im Fertigungsprozess noch akzeptierten Toleranz, lassen sich die Zustandswerte einfach auf eine binäre Größe reduzieren.
  • In einer weiteren Ausgestaltung ist es vorgesehen, das für verschiedene Erfassungszeitintervalle verschiedene Erfassungsbereiche definiert und/oder verschiedene Soll-Tiefenbilder gespeichert werden. Durch dieses Vorgehen ist es möglich, auch komplexe Produktionsszenarien zu überwachen.
  • Insbesondere ist es vorteilhaft, in der Initialisierungsphase für einen jeweiligen Erfassungsbereich mehrere Soll-Tiefenbilder zu speichern. So ist es möglich, verschiedene Szenarien als zulässig zu akzeptieren. So können beispielsweise mehrere Roboterarmpositionen als tolerierbar hinterlegt werden. Auch ist es denkbar, in einer Zustandsliste auszugeben, welche der tolerierten Sollzustände erreicht wurde.
  • Insofern ist es von Vorteil ein Erreichen- oder Nichterreichen eines oder mehrerer Soll-Tiefenbilder in Form einer Zustandsliste auszugeben.
  • Besonders nützlich ist es, die Zustandswerte oder Zustandsliste als Schaltsignale für eine speicherprogrammierbare Steuerung (SPS) auszugeben.
  • Ebenso vorteilhaft ist es, ein 3D-Kamera zur Durchführung eines der vorgenannten Verfahren auszubilden.
  • Vorzugsweise weist die 3D-Kamera eine grafische Eingabeeinheit GUI zur Eingabe von Parametern und Definition von Erfassungsbereichen auf.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
  • Es zeigen:
  • 1 eine Überwachungssituation mit drei Erfassungsbereichen,
  • 2 eine Draufsicht auf die Überwachungssituation gemäß 1,
  • 3 Tiefenbilder der Überwachungssituation gemäß 1,
  • 4 Tiefenbilder im fehlerfreien Fall,
  • 5 Tiefenbilder in einem Fehlerfall,
  • 6 Tiefenbilder bei einem räumlichen Versatz des Messobjekts,
  • 7 Tiefenbilder gemäß 6 mit einer betragsmäßigen Auswertung.
  • Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • In Fertigungsprozessen werden Automatisierungs-/Maschinenzustände häufig mittels einer 3D-Kamera erfasst. Der Kerngedanke der Erfindung ist es nun, eine 3D-Kamera derart auszugestalten, dass das Sichtfeld der 3D-Kamera flexibel durch den Anwender in sogenannte Region of Interests „ROI“ bzw. Erfassungsbereiche einteilen lässt. Für jeden Erfassungsbereich ROI werden ein oder mehrere Sollzustände, vorzugsweise bei der Installation oder in einer Initialisierungsphase, eingelernt. Das Einlernen erfolgt bevorzugt auf Basis einer im Erfassungsbereich ROI erfassten 3D-Punktewolke. Die Kamera erkennt in jeder Messung je Erfassungsbereich, ob der Sollzustand, d.h. die eingelernte 3D-Punktewolke erreicht ist oder nicht. Die Ergebnisse können in einer Zustandsliste über ein Bussystem nach außen gegeben werden und beispielsweise durch eine Steuerungseinheit, z.B. einer SPS, weiterverarbeitet werden.
  • Ein solches Vorgehen hat den Vorteil, dass Systemzustände unabhängig vom Objekt bzw. Target sowie Art und Komplexität der Szenerie allein durch die erfasste 3D-Punktewolke generisch erkannt werden können.
  • Ferner ist es möglich, auch komplexe Systemzustände zu erkennen, wie z.B. die Position eines Objektes im 3D-Raum, welche durch andere Sensorik beispielsweise Positionssensoren oft nicht erfasst werden können.
  • Insbesondere ist es von Vorteil, dass eine Vielzahl unterschiedlicher Automatisierungsvorgänge durch eine einzige generische Lösung überwacht werden können. Besonders vorteilhaft ist es, dass Systemzustände, die eine größere Anzahl von Sensoren und insbesondere Positionssensoren erfordern, allesamt durch eine erfindungsgemäße 3D-Kamera ersetzt werden können. Dies führt zu geringen Rüstkosten und geringen Verdrahtungsaufwand bei gleichzeitiger einfachen Installation und Anwendung der erfindungsgemäßen 3D-Kamera.
  • Die 3D-Kamera ist derart ausgestaltet, dass ein Benutzer das Sichtfeld der 3D-Kamera flexibel in Erfassungsbereich bzw. Region of Interest ROI einteilen kann. Vorzugsweise können diese Eingabebereiche und ggf. zusätzliche Parameter über ein grafisches Eingabeinterface GUI und/oder über externe Geräte vorgegeben werden.
  • Innerhalb jedem Erfassungsbereich werden der Kamera ein oder mehrere Soll-Systemzustände vorzugsweise bei der Installation bzw. in einer Initialisierungsphase eingelernt. In diesem so genannten Teaching werden die Objekte oder Maschinenelemente, Roboterarme etc. auf die gewünschte Sollposition gebracht und die Position als Solltiefenbild in der 3D-Kamera hinterlegt bzw. gespeichert.
  • Bei Bedarf können für den Erfassungsbereich mehrere für die Applikation erlaubte Sollpositionen bzw. Solltiefenbilder hinterlegt werden.
  • Ebenso ist es denkbar, Solltiefenbilder nur für bestimmte Applikations-Zeitfenster/Frames zu hinterlegen. Die 3D-Kamera wäre dann mit der Produktionssteuerung zu synchronisieren, so dass bestimmten Produktionsschritten korrespondierende Solltiefenbilder zugeordnet werden können.
  • Ferner kann für jedes Applikationszeitfenster der oder die Erfassungsbereiche der 3D-Kamera geändert und der jeweiligen Applikation angepasst werden.
  • Die 3D-Kamera erkennt, ob und wann der eingelernte Systemzustand erreicht ist und erkennt ferner, ob und wann es Abweichungen zu dem eingelernten Systemzustand gibt. Diese Information wird z.B. als ja/nein-Information bzw. Flag-Signal oder 1/0-Bitsignal für jeden Erfassungsbereich nach außen gegeben.
  • Das Erreichen eines gewünschten bzw. im Vorfeld festgelegten Systemzustands basiert auf die Erkennung, ob eine eingelernte 3D-Punktewolke bzw. Solltiefenbild erreicht ist oder ob es Abweichungen gibt.
  • Diese Erkennung kann beispielsweise durch eine Korrelationsanalyse des erfassten Tiefenbilds mit dem Solltiefenbild oder beispielsweise durch ein 3D-Matching-Algorithmus von gemessener Punktewolke vs. eingelernter Punktewolke erfolgen.
  • Die Ergebnisse dieser Überprüfung können beispielsweise als Zustandsliste ausgeben werden, auf deren Basis der Anwender mit einfachen Skriptbefehlen, beispielsweise mit der Skriptsprache Codesys, komplexe Steuerungsaufgaben lösen kann. Ausgehend von diesen Zustandslisten aus denen erkenntlich ist, ob und wann in einer Raumzone bzw. Erfassungsbereich ein eingelernter Zustand erreicht ist oder nicht, besteht die Möglichkeit, diese Zustände bzw. Zustandswerte logisch miteinander zu verknüpfen.
  • Mit dem erfindungsgemäßen Vorgehen können sowohl statische als auch dynamisch Vorgänge überwacht werden, da die Systemzustände mit jeder Messung, also mit jedem Tiefenbild, erfasst werden. Die zeitliche Auflösung wird naturgemäß durch die Bildwiederholfrequenz begrenzt.
  • 1 in Seitenansicht und 2 in Draufsicht zeigen eine möglichen Überwachungssituation, bei der sich im Sichtbereich 10 einer 3D-Kamera 1 drei Objekte 40.1, 2, 3 in einem unterschiedlichen Fertigungszustand jeweils in einem separaten Erfassungsbereichen ROI_1, 2, 3 der 3D-Kamera 1 befinden.
  • Es kann sich hierbei um eine Fertigungslinie oder ggf. sogar einem Fließband handeln, bei dem die gefertigten Objekte 40 in bestimmten Fertigungsschritten eindeutige und reproduzierbare Raumpositionen einnehmen.
  • 3 zeigt die 3D-Punktewolken bzw. Solltiefenbilder STB, die in einer Initialisierungsphase für die drei Erfassungsbereiche ROI_1, 2, 3 als Sollgröße bzw. als Sollzustand hinterlegt sind.
  • In 4 sind beispielhaft Tiefenbilder für den dritten Erfassungsbereich ROI_3 dargestellt.
  • In der linken Darstellung der 4 ist das hinterlegt Solltiefenbild STB gezeigt. Während der Produktionsüberwachung wird dann vorzugsweise zu einem festvorgegebenen Zeitpunkt ein Tiefenbild ETB des aktuellen Fertigungszustands aufgenommen. Im vorliegenden Fall ist das erfasste Tiefenbild ETB identisch mit dem hinterlegten Tiefenbild STB, so dass die Differenz DTW aus beiden Tiefenbildern eine Null-Ebene bildet.
  • In 5 wurde der letzte Produktionsschritt fehlerhaft durchgeführt, so dass die Differenz aus Soll-STB und erfassten Tiefenbild ETB ungleich Null ist. Zur einfachen Auswertung und zur Generierung eines Zustandswerts ZW ist es vorgesehen, diese „Raumdifferenz“ vorzugsweise auf einen Gut-/Schlecht-Wert bzw. Zustandswert ZW also auf ein 1-bit-Signal zu reduzieren. Hierzu können beispielsweise die Differenzen alle Tiefenbildpunkte summiert und mit einem tolerierten Grenzwert verglichen werden: DW = ΣSTB – ETB < GW ZW = 0 wenn DW < GW ZW = 1 wenn DW ≥ GW
  • Im dargestellten Fall weicht das Objekt 40.3 im dritten Erfassungsbereich ROI_3 erheblich vom Sollzustand STB ab, so dass der tolerierte Grenzwert GW überschritten und für diesen Erfassungsbereich ein Zustandswert ZW von Eins ausgegeben wird.
  • Selbstverständlich sind auch andere Algorithmen zur Bestimmung einer Abweichung denkbar, insbesondere können auch Korrelations-Algorithmen Verwendung finden. Auch kann die Zustandsliste der jeweiligen Anwendung angepasst werden. So ist es auch denkbar, alternativ oder auch zusätzlich nicht nur einen binären Gut-/Schlechtwert, sondern die Differenz absolut auszugeben.
  • 6 zeigt eine Situation, bei der das erfasste Objekt zwar keine Fertigungsmängel aufweist sich jedoch nicht auf der eingelernten Position befindet. Wie dem Differenzbild DTB zu entnehmen ist, führen Positionsverschiebungen zu erheblichen Änderungen im Differenzbild DTB. Das erfindungsgemäße Vorgehen ist somit sehr sensitiv im Hinblick auf Positionen. Diese Eigenschaft kann insbesondere in Fertigungsanwendungen ausgenutzt werden, in denen es auf eine exakte Positionierung der Fertigungsobjekte ankommt.
  • Wie dem Differenzbild ferner zu entnehmen ist, kann eine einfache Summierung der Differenzen zu einem kritischen Ergebnis führen. Im dargestellten Fall summieren sich alle Differenzen zu Null. Insofern ist es, wie in 7 gezeigt, günstiger die betragsmäßige Summe mit einem Grenzwert zu vergleichen. DW = Σ|STB – ETB| < GW
  • Selbstverständlich können auch hier alternative Algorithmen verwendet werden. Insbesondere können die Differenzen auch quadriert werden.
  • Im dargestellten Beispiel sind die Werkstücke in den unterschiedlichen Fertigungsstufen an unterschiedlichen räumlichen Positionen angeordnet. Ebenso ist es möglich, ein lokal fixiertes Werkstück, beispielsweise ein Werkstück, das in einer Fräsmaschine bearbeitet wird, zu überwachen, indem zeitlich sequentiell einzelne Fertigungsstufen mit den hinterlegten Sollzuständen verglichen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 1777747 [0002]
    • US 6587186 [0002]
    • DE 19704496 [0002]

Claims (8)

  1. Verfahren zum Betreiben einer 3D-Kamera (1), bei dem in einer Initialisierungsphase innerhalb eines Sichtbereichs (10) der 3D-Kamera (1) mindestens ein Erfassungsbereich (ROI1, 2, 3) definiert und für diesen mindestens einen Erfassungsbereich (ROI1, 2, 3) wenigstens ein Soll-Tiefenbild (STB) gespeichert wird, mit den Schritten: a) Erfassen eines Tiefenbilds (ETB) für den mindestens einen Erfassungsbereich (ROI1, 2, 3), b) Bestimmung und Ausgabe jeweils eines Zustandswertes (ZW) für jeden Erfassungsbereich (ROI1, 2, 3) in Abhängigkeit eines Vergleichs des erfassten Tiefenbilds (ETB) mit dem Soll-Tiefenbild (STB).
  2. Verfahren nach Anspruch 1, bei dem zur Bestimmung des Zustandswerts (ZW) eine Differenz zwischen Tiefenbilds (ETB) und Soll-Tiefenbild (STB) gebildet und mit einem Grenzwert verglichen wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem für verschiedene Erfassungszeitintervalle verschiedene Erfassungsbereiche (ROI1, 2, 3) definiert und/oder verschiedene Soll-Tiefenbilder (STB) gespeichert werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in der Initialisierungsphase für einen jeweiligen Erfassungsbereich (ROI1, 2, 3) mehrere Soll-Tiefenbilder (STB) gespeichert werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem ein Erreichen- oder Nichterreichen eines oder mehrerer Soll-Tiefenbilder (STB) in Form einer Zustandsliste ausgeben wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Zustandswerte oder Zustandsliste als Schaltsignale für eine speicherprogrammierbare Steuerung (SPS) ausgeben werden.
  7. 3D-Kamera, die zur Durchführung eines der Verfahren nach einem der vorhergehenden Ansprüche ausgebildet ist.
  8. 3D-Kamera, mit einer grafischen Eingabeeinheit (GUI) zur Eingabe von Parametern und Definition von Erfassungsbereichen (ROI_1, 2, 3).
DE102013216833.0A 2013-08-23 2013-08-23 3D-Kamera Pending DE102013216833A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013216833.0A DE102013216833A1 (de) 2013-08-23 2013-08-23 3D-Kamera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013216833.0A DE102013216833A1 (de) 2013-08-23 2013-08-23 3D-Kamera

Publications (1)

Publication Number Publication Date
DE102013216833A1 true DE102013216833A1 (de) 2015-02-26

Family

ID=52446817

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013216833.0A Pending DE102013216833A1 (de) 2013-08-23 2013-08-23 3D-Kamera

Country Status (1)

Country Link
DE (1) DE102013216833A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015014415A1 (de) 2015-11-07 2016-05-12 Daimler Ag Verfahren zur Erkennung bewegter Objekte

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015014415A1 (de) 2015-11-07 2016-05-12 Daimler Ag Verfahren zur Erkennung bewegter Objekte

Similar Documents

Publication Publication Date Title
EP1797534B1 (de) Verfahren für die erfassung einer optischen struktur
DE102016112800B4 (de) Geführte prüfung einer eingebauten komponente unter verwendung eines mobilen prüfgeräts
DE102014209137A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
EP2025991B1 (de) Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
EP3271787A1 (de) Online-kalibrierungsprüfung während des betreibens eines autonomen fahrzeugs
DE102016200386B4 (de) Verfahren zum Steuern eines Manipulatorsystems
EP2275989A1 (de) Stereoskopische 3D-Kamera
EP3788552A1 (de) Verfahren und vorrichtung zum ermitteln eines tiefeninformationsbilds aus einem eingangsbild
EP3586090B1 (de) Verfahren zum kalibrieren eines sensorsystems
EP1575808B1 (de) Bildgeber
DE102017129609A1 (de) Erkennen von Veränderungen in einem Erfassungsbereich
DE102020206006A1 (de) Verfahren zum Kalibrieren und/oder Justieren und Steuereinheit für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung
WO2011107381A1 (de) Verfahren und vorrichtung zum überprüfen einer elektronischen einrichtung
DE102009026091A1 (de) Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
DE102013216833A1 (de) 3D-Kamera
DE102012105401B3 (de) 3D-Kamera und Verfahren zur Bestimmung des diffusen Remissionsvermögens von Objekten
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
DE202012102541U1 (de) 3D-Kamera
EP3728995A1 (de) Verfahren zum bestimmen von entfernungsinformation aus einer abbildung eines raumbereichs
DE102015101190A1 (de) Verfahren zum Bestimmen eines Bildtiefenwerts abhängig von einem Bildbereich, Kamerasystem und Kraftfahrzeug
DE102018117274A1 (de) Sichere Kamera und Verfahren zur sicheren Aufnahme und Auswertung von Bilddaten
DE102019201633A1 (de) Kalibrierung eines Sensors für ein Fahrzeug basierend auf objektseitigen und bildseitigen Identifikationsindizes eines Referenzobjektes
EP3097511A1 (de) Verfahren zur erkennung einer bewegungsbahn mindestens eines bewegten objektes innerhalb eines erfassungsbereiches, verfahren zur gestikerkennung unter einsatz eines derartigen erkennungsverfahrens sowie vorrichtung zur durchführung eines derartigen erkennungsverfahrens
DE102013210591A1 (de) Bewegungserkennung eines fahrzeugs mittels mehrerer kameras
DE102018222526A1 (de) Verfahren und Steuergerät zur Detektion eines Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: IFM ELECTRONIC GMBH, 45128 ESSEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE

R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009460000

Ipc: G06V0030180000

R016 Response to examination communication