DE102013201912A1 - Gekoppelte Entfernungs- und Intensitätsabbildung für die Bewegungsschätzung - Google Patents

Gekoppelte Entfernungs- und Intensitätsabbildung für die Bewegungsschätzung Download PDF

Info

Publication number
DE102013201912A1
DE102013201912A1 DE102013201912A DE102013201912A DE102013201912A1 DE 102013201912 A1 DE102013201912 A1 DE 102013201912A1 DE 102013201912 A DE102013201912 A DE 102013201912A DE 102013201912 A DE102013201912 A DE 102013201912A DE 102013201912 A1 DE102013201912 A1 DE 102013201912A1
Authority
DE
Germany
Prior art keywords
intensity
image
range
imager
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102013201912A
Other languages
English (en)
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013201912A1 publication Critical patent/DE102013201912A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

Ein Verfahren und ein System können einen gekoppelten Entfernungsbildwandler und Intensitätsbildwandler zum Erhalten einer Folge wenigstens zweier automatisch ausgerichteter Bilder betreiben, wobei jedes automatisch ausgerichtete Bild gleichzeitig erfasste Entfernungsdaten und Intensitätsdaten hinsichtlich einer abgebildeten Szene enthält. Die ausgerichteten Entfernungs- und Intensitätsdaten werden analysiert, um eine geschätzte Bewegung eines Elements eines abgebildeten Objekts der abgebildeten Szene zu liefern oder zu erzeugen.

Description

  • Die vorliegende Erfindung bezieht sich auf die Bestimmung von Orten und Relativgeschwindigkeiten von Objekten.
  • HINTERGRUND DER ERFINDUNG
  • Ein Fahrzeug kann mit einem System oder mit einer Vorrichtung zum semiautonomen oder autonomen Steuern des Fahrzeugs ausgestattet sein, um eine Relativposition auf einer Straße aufrechtzuerhalten und um eine Kollision mit Objekten oder Strukturen zu vermeiden. Ein solches System kann die Verwendung verschiedener Sensoren zum Detektieren der Orte von Strukturen oder Objekten wie etwa Rändern der Straße und anderen Objekten umfassen. Zum Beispiel können verschiedene Sensoren zum Detektieren von Abständen zu Objekten und einer Verteilung der Intensität der Strahlung, die von den Objekten reflektiert wird, betrieben werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein gekoppelter Entfernungsbildwandler und Intensitätsbildwandler kann zum Erhalten einer Folge wenigstens zweier automatisch ausgerichteter Bilder betrieben werden, wobei jedes automatisch ausgerichtete Bild gleichzeitig erfasste Entfernungsdaten und Intensitätsdaten hinsichtlich einer abgebildeten Szene enthält. Die ausgerichteten Entfernungs- und Intensitätsdaten können analysiert werden, um eine geschätzte Bewegung eines Elements eines abgebildeten Objekts der abgebildeten Szene zu liefern oder zu erzeugen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Der als die Erfindung angesehene Gegenstand ist besonders in dem abschließenden Abschnitt der Patentschrift dargelegt und eindeutig beansprucht. Allerdings kann die Erfindung sowohl hinsichtlich der Organisation als auch des Betriebsverfahrens zusammen mit ihren Aufgaben, Merkmalen und Vorteilen am besten mit Bezug auf die folgende ausführliche Beschreibung zusammen mit den beigefügten Zeichnungen verstanden werden, in denen:
  • 1 eine schematische Darstellung eines Systems mit einem gekoppelten Entfernungsbildwandler und Intensitätsbildwandler in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist;
  • 2 schematisch ein Fahrzeug zeigt, das ein System mit einem gekoppelten Entfernungsbildwandler und Intensitätsbildwandler in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung enthält;
  • 3 ein Ablaufplan eines Verfahrens für den Betrieb einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist;
  • 4 die koordinierte Erfassung von Pixeln eines Entfernungs- und Intensitätsbilds in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung darstellt; und
  • 5 ein Ablaufplan eines Verfahrens für die Bewegungsschätzung in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist.
  • Es ist klar, dass in den Figuren gezeigte Elemente zur Einfachheit und Klarheit der Darstellung nicht notwendig maßstabsgerecht sind. Zum Beispiel können die Dimensionen einiger der Elemente relativ zu anderen Elementen zur Klarheit überhöht sein. Ferner können Bezugszeichen, wo dies für geeignet gehalten wird, zur Angabe einander entsprechender oder analoger Elemente unter den Figuren wiederholt sein.
  • AUSFÜHRLICHE BESCHREIBUNG DER VORLIEGENDEN ERFINDUNG
  • In der folgenden ausführlichen Beschreibung sind zahlreiche spezifische Einzelheiten dargelegt, um ein gründliches Verständnis der Erfindung zu schaffen. Allerdings versteht der Fachmann auf dem Gebiet, dass die vorliegende Erfindung ohne diese spezifischen Einzelheiten verwirklicht werden kann. In anderen Fällen sind gut bekannte Verfahren, Prozeduren und Komponenten nicht ausführlich beschrieben worden, um die vorliegende Erfindung nicht zu verdecken.
  • Sofern nicht spezifisch etwas anderes angegeben ist, wie es aus den folgenden Diskussionen hervorgeht, ist klar, dass sich die Nutzung von Begriffen wie etwa ”Verarbeiten”, ”mittels Computer Verarbeiten”, ”Speichern”, ”Bestimmen”, ”Auswerten”, ”Berechnen”, ”Bereitstellen”, ”Übertragen” oder dergleichen überall in den spezifischen Diskussionen auf die Aktion und/oder auf Prozesse eines Computers oder Computersystems oder einer ähnlichen elektronischen Computervorrichtung bezieht, die Daten, die als physikalische, wie etwa elektronische, Größen innerhalb der Register und/oder Speicher des Computersystems dargestellt sind, in andere Daten manipuliert und/oder umwandelt, die ähnlich als physikalische Größen innerhalb der Speicher, Register oder anderer solcher Informationsablage-, Informationsübertragungs- oder Informationsanzeigevorrichtungen des Computersystems dargestellt sind.
  • In Übereinstimmung mit einer Ausführungsform der Erfindung kann ein System einen Entfernungsbildwandler und einen Intensitätsbildwandler enthalten, die optisch gekoppelt sind und auf gekoppelte Weise betrieben werden. Zum Beispiel können ein gekoppelter Entfernungsbildwandler und Intensitätsbildwandler in ein System zum Steuern des autonomen Fahrens eines Fahrzeugs integriert oder ihm zugeordnet sein. (In einigen Ausführungsformen braucht kein System zum Steuern des autonomen Fahrens verwendet zu werden.) Eine solche Kopplung kann als eine enge Kopplung bezeichnet werden, da es eine physikalische Kopplung (z. B. eine mechanische – beide sind aneinander befestigt, eine optische – die durch beide erzeugten Bilder weisen eine konstante Beziehung zueinander auf, und eine elektronische – ein einzelner Satz von Elektronik betreibt beide) der Entfernungs- und der Intensitätsbildwandlervorrichtung gibt. Zum Beispiel können sowohl der Entfernungsbildwandler als auch der Intensitätsbildwandler eine Optik, die ankommende Strahlung auf Detektoren sowohl des Entfernungs- als auch des Intensitätsbildwandlers fokussiert, gemeinsam nutzen. Zum Beispiel kann die ankommende Strahlung über einen Strahlteiler gehen, der einen Teil der ankommenden Strahlung zu einem Detektor des Entfernungsbildwandlers und einen Teil zu einem Detektor des Intensitätsbildwandlers lenkt. Ähnlich kann die Bilderfassung sowohl in dem Entfernungs- als auch in dem Intensitätsbildwandler synchronisiert (z. B. durch ein gemeinsames Auslösesignal initiiert) werden. Auf diese Weise kann es zwischen einem Entfernungsbild, das über den Entfernungsbildwandler erfasst wird, und einem Intensitätsbild, das über den Intensitätsbildwandler erfasst wird, eine automatisch bekannte (z. B. ohne Bildanalyse der erfassten Bilder) zeitliche und räumliche Beziehung (oder Ausrichtung) geben. Diese automatisch bekannte zeitliche und räumliche Beziehung kann als automatische Ausrichtung bezeichnet werden.
  • Somit können die Bilddaten von beiden Bildwandlern zu einem einzelnen automatisch ausgerichteten Bild kombiniert werden. Die Entfernungs- und Intensitätsdaten können, z. B. durch Integration zu einer einzelnen Datenstruktur, tatsächlich kombiniert werden oder können als ein einzelner Datensatz behandelt werden, indem bekannte Korrelationen zwischen Pixeln des Entfernungs- und Intensitätsbilds genutzt werden. Somit kann der synchronisierte Betrieb des Entfernungsbildwandlers und des Intensitätsbildwandlers ermöglichen, dass ein automatisch ausgerichtetes Bild erhalten wird. Der zweimal oder mehrmals wiederholte synchronisierte Betrieb kann ermöglichen, dass eine Folge wenigstens zweier automatisch ausgerichteter Bilder erhalten wird.
  • Eine Analyse des automatisch ausgerichteten Bilds kann dreidimensionale Ortsinformationen eines abgebildeten Objekts liefern oder erzeugen. Eine Analyse aufeinanderfolgend erfasster Bilder kann (z. B. über Anwendung einer Lichtflusstechnik) Informationen hinsichtlich der Bewegung eines abgebildeten Objekts relativ zu einer Plattform (z. B. einem Fahrzeug), der der Entfernungs- und der Intensitätsbildwandler zugeordnet sind (z. B. an der sie angebracht, getragen oder befestigt sind), liefern.
  • Eine automatische Ausrichtung kann durch eine bekannte zeitliche und räumliche Beziehung ermöglicht werden, die sich aus der physikalischen Kopplung des Entfernungs- und des Intensitätsbildwandlers ergibt. Andererseits können die Bildwandler in Abwesenheit einer solchen physikalischen Kopplung (z. B. wie in einigen Systemen des Standes der Technik) lose gekoppelt sein. Zum Beispiel wären bei lose koppelnden Systemen des Standes der Technik ein Entfernungsbildwandler und ein Intensitätsbildwandler auf ein einzelnes Objekt gerichtet, wobei aber jeder Bildwandler getrennte Abbildungsoptiken aufweisen würde und bei der Bilderfassung durch ein getrenntes Auslösesignal ausgelöst wird. Somit würde die Bilderfassung nur näherungsweise durch einen gemeinsamen Takt synchronisiert. In einem solchen System des Standes der Technik könnten Objekte in erfassten Bildern für die Anwendung von Bildverarbeitungstechniken ausgerichtet werden. Die Anwendung solcher Bildverarbeitungstechniken könnte (insbesondere z. B. dann, wenn eine abgebildete Szene überhäuft ist) eine Ungenauigkeit in die Ausrichtung einführen. Eine solche Anwendung von Bildverarbeitungstechniken könnte zeitaufwendiger sein als die automatische Ausrichtung, die sich aus der physikalischen Kopplung von Entfernungs- und Intensitätsbildwandler in Übereinstimmung mit einer Ausführungsform der Erfindung ergibt.
  • 1 ist eine schematische Darstellung eines Systems mit einem gekoppelten Entfernungsbildwandler und Intensitätsbildwandler in Übereinstimmung mit einer Ausführungsform der Erfindung. Die gekoppelte Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 kann z. B. in ein System für autonomes Fahren eines Fahrzeugs integriert sein. Die gekoppelte Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 kann einen Controller 12 enthalten. Der Controller 12 kann eine oder mehrere Controllervorrichtungen zum Steuern einer oder mehrerer Komponenten einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 enthalten. Der Controller 12 kann so arbeiten, wie es durch eine enthaltene Schaltungsanordnung bestimmt ist, kann in Übereinstimmung mit programmierten Anweisungen arbeiten oder kann in Übereinstimmung mit einer Kombination der Obigen arbeiten.
  • Der Controller 12 kann in einen Prozessor 32 integriert sein oder mit ihm kommunizieren oder kann unabhängig von einem Prozessor 32 arbeiten. Der Prozessor 32 kann z. B. in ein System für autonomes Fahren eines Fahrzeugs integriert sein oder kann ein getrennter Prozessor sein. Der Prozessor 32 kann mehrere miteinander kommunizierende Verarbeitungsvorrichtungen enthalten. Der Prozessor 32 kann in Übereinstimmung mit programmierten Anweisungen arbeiten.
  • Der Prozessor 32 kann mit einer Datenablagevorrichtung 34 kommunizieren oder ihr zugeordnet sein. Der Prozessor 32 kann z. B. eine Zentraleinheit (CPU), einen Chip oder irgendeine geeignete Computer- oder Rechenvorrichtung enthalten. Der Prozessor 32 kann mehrere Prozessoren enthalten und kann Universalprozessoren und/oder dedizierte Prozessoren wie etwa Graphikverarbeitungschips enthalten. Der Prozessor 32 kann Code oder Anweisungen, die z. B. im Speicher 36 oder in der Datenablagevorrichtung 34 gespeichert sind, ausführen, um Ausführungsformen der vorliegenden Erfindung auszuführen.
  • Der Speicher 36 kann z. B. ein Schreib-Lese-Speicher (RAM), ein Nur-Lese-Speicher (ROM), ein dynamischer RAM (DRAM), ein synchroner DRAM (SD-RAM), ein Speicherchip mit doppelter Datenrate (DDR-Speicherchip), ein Flash-Speicher, ein flüchtiger Speicher, ein nichtflüchtiger Speicher, ein Cache-Speicher, ein Puffer, eine Kurzzeitspeichereinheit, eine Langzeitspeichereinheit oder andere geeignete Speichereinheiten oder Ablageeinheiten sein oder enthalten. Der Speicher 36 kann mehrere Speichereinheiten sein oder enthalten.
  • Die Datenablagevorrichtung 34 kann z. B. ein Festplattenlaufwerk, ein Diskettenlaufwerk, ein Compact-Disc-Laufwerk (CD-Laufwerk), ein CD-Recordable-Laufwerk (CD-R-Laufwerk), eine Universal-Serial-Bus-Vorrichtung (USB-Vorrichtung) oder eine andere geeignete Wechsel- oder Festablageeinheit sein oder enthalten und kann mehrere oder eine Kombination solcher Einheiten enthalten. Zum Beispiel kann die Datenablagevorrichtung 34 zum Speichern von Programmanweisungen für den Betrieb des Prozessors 32 oder des Controllers 12 betrieben werden, kann sie zum Speichern von Daten, die durch eine gekoppelte Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 erfasst werden, verwendet werden oder kann sie zum Speichern von Daten oder Parametern, die während des Betriebs des Prozessors 32 oder Controllers 12 genutzt oder erzeugt werden können, verwendet werden. Der Prozessor 32 kann mit der Speichervorrichtung 36 kommunizieren oder ihr zugeordnet sein. Die Speichervorrichtung 36 kann eine oder mehrere flüchtige oder nichtflüchtige Speichervorrichtungen enthalten, in denen während des Betriebs des Prozessors 32 oder des Controllers 12 Daten gespeichert werden können oder aus denen während ihres Betriebs Daten gelesen werden können.
  • Der Controller 12 kann z. B. den Betrieb von Komponenten der gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 wie etwa eines Modulators 14, eines Entfernungsbildwandlerdetektors 28 und eines Intensitätsbildwandlerdetektors 30 steuern. Das Steuern des Betriebs des Modulators 14, des Entfernungsbildwandlerdetektors 28 und des Intensitätsbildwandlerdetektors 30 kann die Erfassung eines automatisch ausgerichteten Entfernungs-Intensitäts-Bilds ermöglichen.
  • Der Controller 12 kann einen Lichtemitter steuern, der eine Lichtquelle 16 enthält, deren Betrieb durch den Modulator 14 gesteuert wird. Die Lichtquelle 16 kann z. B. eine Laserdiode oder eine Lichtemitterdiode (LED) enthalten, die Strahlung mit einer bekannten Wellenlänge (oder mit einem Satz oder Bereich von Wellenlängen) emittieren kann. Die Lichtquelle 16 kann mehrere gleiche oder unterschiedliche Lichtquellen enthalten. Der Modulator 14 kann die Lichtquelle 16 zum Emittieren von Lichtimpulsen (die sich hier auf irgendeine geeignete elektromagnetische Strahlung wie etwa Infrarotstrahlung oder Strahlung im nahen Infrarot und nicht notwendig auf sichtbare Strahlung beziehen) oder zum Emittieren von Licht mit einem vorgegebenen zeitlich veränderlichen Muster wie etwa einem Intensitätsmuster oder einem veränderlichen Wellenlängenmuster steuern.
  • Die emittierte Strahlung kann durch eine Emitteroptik 18 auf eine Szene gelenkt werden. Die Emitteroptik 18 kann z. B. eine oder mehrere Linsen, Spiegel, Prismen, Blenden oder andere optische Bauelemente enthalten, um wenigstens einen Teil des Lichts, das durch die Lichtquelle 16 emittiert wird, in Form eines Lichtbündels, Lichtfächers oder Lichtkegels in Richtung der Szene umzulenken. Die Emitteroptik 18 kann z. B. feststehende Komponenten enthalten oder kann eine oder mehrere bewegliche Komponenten enthalten. Die beweglichen Komponenten können z. B. durch den Controller 12 zum Abtasten eines Lichtbündels über die Szene, um mehrere Gebiete der Szene zu beleuchten, gesteuert werden. Die Szene kann ein Objekt 20 enthalten. Von der Lichtquelle 16 emittiertes Licht kann durch verschiedene Punkte auf dem Objekt 20 in Richtung der Sammeloptik 24 reflektiert werden.
  • Ähnlich kann Licht von einer Umgebungsquelle 22 (z. B. direktes oder reflektiertes natürliches Licht von der Sonne oder von dem Himmel oder künstliche Umgebungsbeleuchtung wie etwa von Straßenlaternen oder von Fahrzeugscheinwerfern oder von einer stationären oder intermittierenden Lichtquelle, die der gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 zugeordnet ist) von dem Objekt 20 in Richtung der Sammeloptik 24 reflektiert werden. Das Licht von der Umgebungsquelle 22 kann z. B. mehrfarbig (z. B. im Wesentlichen weiß) sein. Somit kann das Spektrum von Licht, das von der Umgebungsquelle 22 ausgeht und von dem Objekt 20 reflektiert wird, in Übereinstimmung mit einer Oberflächenfarbe des Objekts 20 gefärbt sein.
  • Licht, das auf die Sammeloptik 24 einfällt, kann fokussiert und in Richtung des Strahlteilers 26 gelenkt werden. Die Sammeloptik 24 kann z. B. eine oder mehrere Linsen, Spiegel, Prismen, Blenden oder andere optische Komponenten enthalten, um wenigstens einen Teil des Lichts, das von einer Szene wie etwa einer Szene, die das Objekt 20 enthält, einfällt, in Richtung des Strahlteilers 26 zu lenken.
  • Der Strahlteiler 26 kann einen Teil des einfallenden Lichts in Richtung des Entfernungsbildwandlerdetektors 28 und einen Teil in Richtung des Intensitätsbildwandlerdetektors 30 lenken. Der Strahlteiler 26 kann z. B. einen selektiven Spiegel oder ein selektives Filter enthalten, der bzw. das Licht in dem Spektralbereich von Licht, das von der Lichtquelle 16 emittiert wird, in Richtung des Entfernungsbildwandlerdetektors 28 lenkt. Als ein anderes Beispiel kann Licht unter Verwendung eines anderen Typs einer Strahlteilungstechnik, die nicht notwendig spektral selektiv ist, zwischen dem Entfernungsbildwandlerdetektor 28 und dem Intensitätsbildwandlerdetektor 30 aufgeteilt werden. Der Strahlteiler 26 kann z. B. eine teilreflektierende oder -durchlässige Oberfläche wie etwa einen teilversilberten Spiegel, ein teilversilbertes Prisma, ein teilversilbertes Filter oder eine andere ähnlich Komponente enthalten.
  • Wegen der Fokussierung der Sammeloptik 24 kann ein Bild der Szene, das ein Bild des Objekts 20 enthält, gleichzeitig sowohl auf den Entfernungsbildwandlerdetektor 28 als auch auf den Intensitätsbildwandlerdetektor 30 abgebildet werden. Der Controller 12 kann dann den Entfernungsbildwandlerdetektor 28 und den Intensitätsbildwandlerdetektor 30 zum gleichzeitigen Erfassen von Entfernungs- und Intensitätsbildern betreiben.
  • Der Controller 12 kann z. B. Entfernungsbildwandlerpixel 29 des Entfernungsbildwandlerdetektors 28 zum Detektieren von einfallendem Licht in einer mit der Emission von Licht durch die Lichtquelle 16 synchronisierten Weise steuern. Zum Beispiel kann die Elektronik oder Schaltungsanordnung, die den Entfernungsbildwandlerpixeln 29 zugeordnet oder in sie integriert ist, zum Messen einer Flugzeit eines Lichtimpulses von der Lichtquelle 16 zu einem Entfernungsbildwandlerpixel 29 konfiguriert sein. Auf diese Weise kann eine Entfernung (z. B. ein Abstand) zu jedem abgebildeten Punkt (z. B. zu den abgebildeten Punkten 21) des Objekts 20 von der gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 berechnet werden. Eine zweidimensionale Anordnung 25 berechneter Entfernungen von Punkten oder ein Entfernungsbild kann z. B. im Speicher 36 oder in einer Datenablagevorrichtung 32 gesichert werden. Der Entfernungsbildwandlerdetektor 28 kann z. B. eine Photomischvorrichtungs-Flugzeitkamera (PMD-Flugzeitkamera) des durch PMD Technologies hergestellten Typs enthalten.
  • Gleichzeitig oder im Wesentlichen gleichzeitig mit der Erfassung eines Entfernungsbilds kann der Controller 12 den Intensitätsbildwandlerdetektor 30 zum Erfassen eines Intensitätsbilds der abgebildeten Szene einschließlich des Objekts 20 steuern. Die Intensitätsbildwandlerpixel 31 des Intensitätsbildwandlerdetektors 30 können z. B. Anordnungen von Detektoren mit ladungsgekoppelten Vorrichtungen (CCD-Detektoren) oder Komplementär-Metalloxid-Halbleiterdetektoren (CMOS-Detektoren) oder andere Arten von Bildwandlern enthalten. Jeder Detektor kann ein Signal erzeugen, das die Intensität von Strahlung angibt, die auf diesen Detektor auffällt, und somit die Helligkeit eines entsprechenden Pixels eines resultierenden Bilds bestimmt. Eine solche Anordnung von Detektoren kann einen Farbtrennungsmechanismus (z. B. eine Anordnung von Farbfiltern) enthalten, um ein Farbbild zu erzeugen. Die Detektoranordnung kann z. B. ein Dreifarb-Rot-Grün-Blau-Bild (Dreifarb-RGB-Bild) erzeugen. Somit können die abgebildeten Objekte durch ihre Oberflächenfarben sowie durch ihre Positionen voneinander unterschieden werden. Ein erfasstes Bild kann z. B. im Speicher 36 oder auf der Datenablagevorrichtung 32 gesichert werden.
  • Im Ergebnis der gemeinsamen Nutzung der Optik und der Synchronisation der Bilderfassung werden das erfasste Entfernungs- und Intensitätsbild automatisch ausgerichtet. Somit kann Strahlung, die von einem Element eines abgebildeten Objekts reflektiert wird, das unter einer bekannten Winkelposition relativ zu einer optischen Achse der Sammeloptik 24 ist, immer auf dasselbe Paar eines Entfernungsbildwandlerpixels 29 und eines entsprechenden Intensitätsbildwandlerpixels 31 fokussiert werden. Es kann ein Abbild, eine Tabelle, eine Funktionsbeziehung oder eine andere Entsprechung, die jedes Entfernungsbildwandlerpixel 29 mit seinem entsprechenden Intensitätsbildwandlerpixel 31 korreliert, konstruiert werden. Eine solche Entsprechung kann z. B. während einer Kalibrierungsprozedur, die an einem System während der Herstellung oder Wartung einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 oder an einem Prototyp einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 während einer Entwurfs- oder Entwicklungsphase einer Produktlinie ausgeführt wird, gemessen oder konstruiert werden.
  • Die erfassten Entfernungsbilder und Intensitätsbilder können zu einem einzelnen Entfernungs-Intensitäts-Bild kombiniert werden. Somit kann jeder Punkt (z. B. jedes Pixel) des Entfernungs-Intensitäts-Bilds durch vier Werte charakterisiert werden, die einen entsprechenden Punkt oder ein entsprechendes Gebiet des abgebildeten Objekts 20 charakterisieren: eine Entfernung zu dem Punkt des Objekts (ein Wert) und eine Intensität des reflektierten Lichts in jedem RGB-Farbkanal (drei Werte). Es können andere Typen von Intensitätsdaten (z. B. unter Verwendung eines alternativen Satzes von Farbkanälen oder eines monochromatischen Bilds) verwendet werden. Es können andere Anzahlen von Werten verwendet werden.
  • Die Differenzen zwischen Bildern, die zu aufeinanderfolgenden Zeitpunkten erzeugt werden, können analysiert werden, um eine Bewegung oder eine geschätzte Bewegung jedes abgebildeten Objekts (oder Punkts des Objekts) relativ zu der gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 zu liefern oder zu erzeugen. Die resultierende Bewegung kann z. B. als eine Grundlage verwendet werden, um ein Fahrzeug in der Weise zu steuern, dass eine Kollision mit dem abgebildeten Objekt vermieden wird.
  • 2 zeigt schematisch ein Fahrzeug, das ein System mit einem gekoppelten Entfernungsbildwandler und Intensitätsbildwandler in Übereinstimmung mit einer Ausführungsform der Erfindung enthält.
  • Ein Fahrzeug oder Trägerfahrzeug 50 (z. B. ein LKW, ein SUV, ein Bus, ein PKW, ein motorisierter Wagen oder ein anderes Fahrzeug) kann eine gekoppelte Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 enthalten. Die gekoppelte Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung 10 kann mit einem oder mit mehreren automatischen Fahrzeugsteuersystemen, Anwendungen für autonomes Fahren oder automatisierten Fahrzeugsteuersystemen 90 zusammenarbeiten oder getrennt von ihnen arbeiten. Das automatisierte Fahrzeugsteuersystem 90 kann z. B. ein automatisiertes Lenksystem oder ein automatisiertes Bremssystem sein. Automatisierte Fahrzeugsteuersysteme 90 können z. B. vollständig oder teilweise die Lenkung oder Bremsung des Fahrzeugs steuern oder die Lenksteuereingabe des Fahrers (z. B. des Betreibers des Fahrzeugs 50) über das Lenkrad 82 oder die Bremssteuerung 24 (z. B. ein Bremspedal oder eine Handbremse) ändern oder verringern, wenn sie eingerückt sind.
  • Bei dem Fahrzeug 50 können einer oder mehrere Sensoren befestigt oder ihm zugeordnet sein. In einer Ausführungsform der vorliegenden Erfindung kann das Fahrzeug 50 eine oder mehrere Vorrichtungen oder Sensoren zum Messen der Fahrzeuglenkungseingabe, der Fahrzeuglenkungsbedingungen, der Fahrzeuglenkungsparameter, der Fahrzeugdynamik, der Fahrereingabe oder anderer fahrzeugbezogener Bedingungen oder Messwerte enthalten. Die Fahrzeugdynamik-Messvorrichtungen können einen oder mehrere Lenkwinkelsensoren (die z. B. mit dem Lenkrad 82 oder mit einer anderen Komponente des Lenkungssystems verbunden sind) enthalten. Außerdem können die Fahrzeugdynamik-Messvorrichtungen einen Beschleunigungsmesser, einen Tachometer, einen Raddrehzahlsensor, eine Inertialmesseinheit (IMU), Gangschaltungs-Positionssensoren, einen Gaspedal-Positionssensor, einen Bremspedal-Positionssensor oder andere oder unterschiedliche Vorrichtungen enthalten.
  • Die Fahrzeugdynamik-Messvorrichtungen können Fahrereingabe- oder Fahrzeugdynamikparameter einschließlich der Querbeschleunigung (z. B. der Winkelbeschleunigung oder der Zentripetalbeschleunigung), der Längsbeschleunigung, der Vertikalbeschleunigung, des Lenkdrehmoments, der Lenkrichtung, des Lenkradeinschlagwinkels, der Gierrate, der Quer- und Längsgeschwindigkeit, der Raddrehgeschwindigkeit und -beschleunigung und anderer Fahrzeugdynamikeigenschaften des Fahrzeugs 50 messen. Außerdem können die eine oder die mehreren Fahrzeugdynamik-Messvorrichtungen vertikale Kräfte auf jeden von wenigstens einem der Reifen des Fahrzeugs 50 messen. Die gemessenen Fahrzeugdynamik-, Fahrzeugbedingungs-, Lenkungsmesswert-, Lenkungsbedingungs- oder Fahrereingabeinformationen können z. B. über einen Drahtverbindungs-Netzbus (z. B. einen Controller-Area-Network-Bus (CAN-Bus), einen Flexray-Bus, ein Ethernet-Kabel) oder über eine drahtlose Verbindung an das automatisierte Fahrzeugsteuersystem 90 gesendet oder übertragen werden. Die gemessenen Fahrzeugdynamik-, Fahrzeugbedingungs- oder Fahrereingabe-Informationsdaten können von dem automatisierten Fahrzeugsteuersystem 90 oder von einem anderen System verwendet werden, um ein gegenwärtiges Risiko oder eine gegenwärtige Wahrscheinlichkeit einer Kollision zu bestimmen und um einen gewünschten Betrieb des Fahrzeugs 50 in der Weise berechnen, dass die Möglichkeit oder Wahrscheinlichkeit einer Kollision minimiert wird. Obwohl hier bestimmte Fahrzeugdynamik-Messvorrichtungen und ein automatisiertes Fahrzeugsteuersystem diskutiert sind, können andere Typen solcher Systeme verwendet werden. Außerdem braucht eine gekoppelte Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung, wie sie hier offenbart ist, nicht mit einem automatisierten Fahrzeugsteuersystem verwendet zu werden.
  • In einer Ausführungsform der vorliegenden Erfindung kann das automatisierte Fahrzeugsteuersystem 90 eine an dem Armaturenbrett des Fahrzeugs, im Fahrgastraum 40 (oder im Führerhaus) oder im Laderaum 60 (z. B. einem Kofferraum) angebrachte Computervorrichtung enthalten oder darin enthalten sein. In alternativen Ausführungsformen kann sich das automatisierte Fahrzeugsteuersystem 90 in einem anderen Teil des Fahrzeugs 50 befinden, kann es sich in mehreren Teilen des Fahrzeugs 50 befinden oder kann sich seine gesamte Funktionalität oder ein Teil davon fern (z. B. in einem fernen Server oder in einer tragbaren Computervorrichtung wie etwa einem Mobiltelefon) befinden. Die gesamte Funktionalität einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung und eines automatisierten Fahrzeugsteuersystems oder ein Teil davon kann durch dieselbe(n) Vorrichtung(en), z. B. durch den Controller 12, durch den Prozessor 32, durch den Speicher 36 und/oder durch die Datenablage 34 oder durch andere Vorrichtungen, ausgeführt werden.
  • Obwohl verschiedene Sensoren und Eingaben diskutiert sind, kann in einigen Ausführungsformen nur ein Teilmengentyp (z. B. ein Typ) eines Sensors oder einer Eingabe verwendet sein.
  • 3 ist ein Ablaufplan eines Beispiels eines Verfahrens für den Betrieb einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung in Übereinstimmung mit einer Ausführungsform der Erfindung. Das Betriebsverfahren 100 des gekoppelten Entfernungsbildwandlers und Intensitätsbildwandlers kann durch einen Prozessor oder Controller implementiert werden, der einer gekoppelten Entfernungsbildwandler- und Intensitätsbildwandlervorrichtung [engl.: ”intensity device”], z. B. eines Fahrzeugs, zugeordnet ist. Das Betriebsverfahren 100 des gekoppelten Entfernungsbildwandlers und Intensitätsbildwandlers kann z. B. periodisch, z. B. in vorgegebenen Zeitintervallen oder in Zeitintervallen, die in Übereinstimmung mit erfassten Bedingungen (z. B. Fahrzeuggeschwindigkeit, Straßenkrümmung oder Umweltbedingungen) bestimmt werden, ausgeführt werden.
  • In Bezug auf diesen Ablaufplan und in Bezug auf alle Ablaufpläne, auf die hier Bezug genommen wird, ist festzustellen, dass die Unterteilung des dargestellten Verfahrens in getrennte Betriebe, die durch getrennte Blöcke angegeben sind, nur zur Zweckmäßigkeit und Klarheit gewählt worden ist. Das dargestellte Verfahren könnte mit äquivalenten Ergebnissen auf alternative Weise unterteilt werden. Alle solche alternativen Unterteilungen des Verfahrens in Betriebe sind als im Umfang von Ausführungsformen der Erfindung liegend anzusehen. Sofern nicht etwas anderes angegeben ist, sind die Blöcke und die dargestellten Betriebe ähnlich in einer Reihenfolge gezeigt, die nur zur Zweckmäßigkeit und Klarheit ausgewählt worden ist. Sofern nicht etwas anderes angegeben ist, könnten die dargestellten Betriebe des dargestellten Verfahrens mit äquivalenten Ergebnissen in einer alternativen Reihenfolge oder gleichzeitig ausgeführt werden. Alle solchen Umordnungen von Blöcken des Ablaufplans und der entsprechenden Betriebe sind als im Umfang von Ausführungsformen der Erfindung liegend anzusehen.
  • Bei der Ausführung des Betriebsverfahrens 100 des gekoppelten Entfernungsbildwandlers und Intensitätsbildwandlers kann auf ein Auslösesignal gewartet werden (Block 100). Ein Auslösesignal kann z. B. in vorgegebenen Intervallen durch einen Controller erzeugt und/oder gesendet werden. Die Intervalle, in denen aufeinanderfolgende Auslösesignale erzeugt werden, können in Übereinstimmung mit Anforderungen (z. B. eines Systems für autonomes Fahren eines Fahrzeugs, z. B., um ein Objekt rechzeitig zu detektieren, um eine Kollision zwischen dem Fahrzeug und dem Objekt zu vermeiden, oder um Unterschiede zwischen aufeinanderfolgend erfassten Bildern zu minimieren), in Übereinstimmung mit Fähigkeiten des Systems (z. B. mit einer Zeit, die zum Erfassen und Auslesen von Entfernungs- und Intensitätsdaten erforderlich ist) oder in Übereinstimmung mit einer Kombination der obigen oder irgendwelcher anderen Faktoren bestimmt werden.
  • Wenn ein Auslösesignal detektiert wird, kann ein Intensitätsbild oder können Intensitätsdaten erfasst werden (Block 120). Zum Beispiel kann eine CCD-Ausleseschaltung betrieben werden, um Auslesungen der in jedem CCD-Pixel einer CCD-Anordnung angesammelten Ladungen zu erhalten. Die Auslesungen können in eines oder in mehrere Intensitätsbildwandler der abgebildeten Szene umgesetzt werden. Zum Beispiel können die Auslesungen in eine RGB-Darstellung der abgebildeten Szene umgesetzt werden.
  • Außerdem können bei Detektierung eines Auslösesignals ein Entfernungsbild oder Entfernungsdaten erfasst werden (Block 130). Das Entfernungsbild oder die Entfernungsdaten können gleichzeitig oder im Wesentlichen gleichzeitig mit der Erfassung des Intensitätsbilds oder der Intensitätsdaten erfasst werden. Das Auslösesignal kann z. B. veranlassen, dass ein Modulator des Entfernungsbildwandlers eine Lichtquelle zum Emittieren eines Lichtimpulses steuert. Gleichzeitig kann eine Ausleseschaltung betrieben werden, um eine Flugzeit zwischen der Emission und der Detektierung des Impulses durch jedes Pixel des Bildwandlers zu erhalten. Eine durch die Ausleseschaltung erzeugte Spannung kann z. B. eine Flugzeit des Impulses von der Lichtquelle des Entfernungsbildwandlers bis zu einem Punkt eines abgebildeten Objekts und zurück zu dem Detektor des Entfernungsbildwandlers angeben und in diese umgesetzt werden. Die Flugzeit kann mit der Lichtgeschwindigkeit multipliziert werden, um eine Hin- und Rückflugstrecke zwischen dem Entfernungsbildwandler und dem Punkt, von dem der Impuls reflektiert wurde, zu liefern oder zu erzeugen. Die Hin- und Rückflugstrecke kann durch zwei dividiert werden, um eine Entfernung des abgebildeten Punkts zu liefern oder zu erzeugen.
  • 4 veranschaulicht die koordinierte Erfassung von Pixeln eines Entfernungs- und Intensitätsbilds in Übereinstimmung mit einer Ausführungs- form der Erfindung. Zwei Messzyklen, ein Messzyklus 170a und ein Messzyklus 170b, können zwei aufeinanderfolgende, gleichzeitige oder im Wesentlichen gleichzeitige Messungen eines einzelnen Entfernungsbildwandlerpixels und eines einzelnen Intensitätsbildwandlerpixels oder gleichzeitige oder im Wesentlichen gleichzeitige Messungen verschiedener Pixel repräsentieren. Durch ein Auftastsignal 176, das einen gesendeten Strahlungsimpuls angibt, wird. ein gesendetes Signal 172 ausgelöst. Das gesendete Signal 172 kann integriert werden, um ein integriertes gesendetes Signal 180 (mit der Signalspannung 51) zu liefern oder zu erzeugen. Falls Strahlung des gesendeten Impulses von einem Objektelement zu der Sammeloptik des Systems zurück reflektiert wird, kann von einem Pixel des Entfernungsbildwandlerdetektors ein Empfangssignal 174a oder 174b empfangen werden. Die gemessene Zeitverzögerung tD1 oder tD2 des Empfangssignals kann mit einem Abstand zu dem Objektelement von dem System in Beziehung gesetzt werden. Die Integration des durch das Auftastsignal 178 ausgelösten Empfangssignals kann ein integriertes Empfangssignal 182a oder 182b (mit Signalspannungen s2a bzw. s2b) liefern oder erzeugen. Somit kann die Maximalspannung des integrierten Empfangssignals 182a oder 182b proportional zu der gemessenen Zeitverzögerung tD1 oder tD2 des Empfangssignals sein. Somit kann eine Flugzeit oder äquivalent eine gemessene Entfernung, die während des Messzyklus 170a gemessen wird, aus einer berechneten Differenz zwischen der Signalspannung s1 und der Signalspannung s2a bestimmt werden. Ähnlich kann eine gemessene Entfernung, die während des Messzyklus 170b gemessen wird, aus einer berechneten Differenz zwischen der Signalspannung s1 und der Signalspannung s2b bestimmt werden.
  • Die Messung eines integrierten Intensitätssignals 186a oder 186b kann durch das Auftastsignal 184 aufgetastet werden. Die Intensitätssignalspannungen i1 und i2 können eine Intensität von Umgebungslicht angeben, das durch ein Element des abgebildeten Objekts reflektiert und auf den Detektor des Intensitätsbildwandlers abgebildet wird. Die integrierten Intensitätssignale 186a und 186b können einen Helligkeitsmesswert (z. B., um ein Graustufenbild zu erzeugen) repräsentieren oder können einen Messwert der Intensität eines bestimmten Farbsignals (z. B. eines RGB-Abbildungssystems) repräsentieren. In einigen Ausführungsformen können mehrere integrierte Intensitätssignale 186a oder 186b gemessen werden. Zum Beispiel können Rot, Grün und Blau; oder irgendeine andere Kombination von Intensitätssignalen 186a oder 186b gemessen werden.
  • Der Pixelabstand in dem Detektor des Intensitätsbildwandlers kann sich von dem Pixelabstand in dem Detektor des Entfernungsbildwandlers unterscheiden. Somit können sich die Auflösungen der resultierenden Intensitätsursprungsbilder und der resultierenden Entfernungsursprungsbilder unterscheiden. Zum Beispiel kann das Auslesen des Entfernungsbilds zeitaufwendiger als das Auslesen des Intensitätsbilds sein. Außerdem kann die Schaltungsanordnung zum Auslesen des Entfernungsbilds komplexer als die Schaltungsanordnung zum Auslesen des Intensitätsbilds sein. Somit kann die Auflösung des Entfernungsbilds niedriger (weiter beabstandete Pixel) als die Auflösung des Intensitätsbilds sein. In einigen Ausführungsformen kann es andere Unterschiede zwischen den verwendeten Systemen geben und können die hier erwähnten Unterschiede alle oder teilweise umgekehrt sein.
  • Wieder anhand von 3 kann das Bild mit der niedrigeren Auflösung, z. B. das Entfernungsbild, neu skaliert werden, um dieselbe Auflösung wie das Bild mit der höheren Auflösung, z. B. das Intensitätsbild, zu liefern oder zu erzeugen (Block 140). Zum Beispiel kann auf die Pixel des Entfernungsbilds eine Interpolationstechnik angewendet werden, um an Zwischenpositionen (zwischen vorhandenen Entfernungsmesswerten), die Pixeln des Intensitätswerts entsprechen, interpolierte Entfernungen zu berechnen. Im Ergebnis der Neuskalierung entspricht jedes Pixel des Intensitätsbilds, das einen Punkt auf dem abgebildeten Objekt repräsentiert, einem Pixel des Entfernungsbilds, das eine Entfernung dieses Punkts des abgebildeten Objekts repräsentiert. Falls beide Bilder die gleiche Auflösung haben, kann eine Neuskalierung wirkungslos sein (wobei das neu skalierte Bild gleich dem Bild vor der Neuskalierung ist). In diesem Fall kann der bei Block 140 angegebene Betrieb weggelassen werden.
  • Nach irgendeiner Neuskalierung des Bilds mit der niedrigeren Auflösung können die zwei Bilder zu einem automatisch ausgerichteten Bild kombiniert werden (Block 150). Jedes Pixel des automatisch ausgerichteten Bilds kann z. B. durch eine Entfernung und durch einen intensitätsbezogenen Wert (z. B. durch eine Graustufe oder RGB) oder durch intensitätsbezogene Werte (z. B. durch einen Rot-, einen Blau- und einen Grünwert) charakterisiert sein.
  • Es kann eine Folge aufeinanderfolgend erfasster automatisch ausgerichteter Bilder erhalten und analysiert werden, um eine Bewegung oder eine geschätzte Bewegung eines abgebildeten Objekts zu liefern, zu erzeugen oder zu bestimmen. Zum Beispiel kann eine Analyse der Bewegung des Objekts von einem System für autonomes Fahren verwendet werden, um den Betrieb eines Fahrzeugs in der Weise zu steuern, dass eine Kollision mit dem Objekt vermieden wird. Als ein weiteres Beispiel kann eine Fahrerunterstützungsanwendung einen Fahrer des Fahrzeugs vor einer möglichen Kollision mit dem Objekt warnen, was ermöglicht, dass der Fahrer die Steuerung des Fahrzeugs in der Weise einstellt, dass die Kollision verhindert wird.
  • Die Kombination aus Intensitätsinformationen (oder Farbinformationen) und Entfernungsinformationen in dem automatisch ausgerichteten Bild kann die Analyse von Daten, um Geschwindigkeiten von Bewegungen abgebildeter Objekte eindeutig zu bestimmen, beschleunigen. Zum Beispiel kann die Analyse der Intensitäts- oder Farbinformationen ein abgebildetes Objekt in aufeinanderfolgend erfassten Bildern zu identifizieren ermöglichen. Die Analyse der entsprechend aufeinanderfolgend erfassten Entfernungsinformationen kann eine Änderung der Entfernung des Objekts liefern oder erzeugen. Ähnlich kann die Kenntnis einer Entfernung jedes Elements eines Bildobjekts die eindeutige Umsetzung von Strecken in dem Bild in Querabstände zwischen Objekten oder zwischen Elementen von Objekten ermöglichen. Die geschätzten Abstände und Geschwindigkeiten können z. B. beim Steuern genutzt werden.
  • 5 ist ein Ablaufplan eines Verfahrens für die Bewegungsschätzung in Übereinstimmung mit einer Ausführungsform der Erfindung.
  • Zum Beispiel können zwei Rahmen (wobei jeder dreidimensionale Daten enthält, die von automatisch ausgerichteten Entfernungs- und Intensitätsbildern hergeleitet wurden) aufeinanderfolgend erfasst werden. Der zuvor erfasste Rahmen kann als ein Schablonenbild T(u) bezeichnet werden und ein neu erfasster Rahmen kann als ein Eingangsbild I(u) bezeichnet werden, wobei sich u = (u, v) auf Bildzeilen- und Bildspaltenkoordinaten eines Pixels beziehen.
  • Die Schätzung einer Geschwindigkeit eines Objekts (oder eines Elements eines Objekts) kann als Berechnen einer dreidimensionalen Verlagerung p = (U, V, W) eines kontinuierlichen Gebiets einer Oberfläche des Objekts in dieser Reihenfolge entlang der X-, der Y- und der Z-Achse beschrieben werden. Die Z-Achse beschreibt einen Abstand (eine Entfernung) des Gebiets und X und Y beschreiben seitliche Abstände (in Bezug auf eine optische Achse der Sammeloptik des Systems). Die richtige Herleitung der Bewegung aus dem Paar von Rahmen kann das automatische Bestimmen, welches Gebiet oder welcher Ausschnitt des Eingangsbilds einem gegebenen Ausschnitt des Schablonenbilds entspricht (z. B. Bilder desselben Objektelements, aber verlagert, repräsentiert), enthalten. Das Bewegungsschätzverfahren 200 kann für jeden Ausschnitt (für jedes lokale Gebiet) des Eingangsbilds ausgeführt werden (Block 210).
  • Auf der Grundlage der dreidimensionalen Informationen in den Bildern können Gradienten ∂uZ und ∂uZ berechnet werden (Block 220). Ähnlich kann eine Verlagerung in der Zeit ΔtZ die Entfernung (durch Z quantifiziert) des Ausschnitts zwischen dem Schablonenbild und dem Eingangsbild berechnet werden (Block 230).
  • Die berechneten Gradienten und die berechnete Verlagerung der Entfernung können verwendet werden, um eine Entfernungsflussebene zu definieren oder zu erzeugen (Block 240). Zum Beispiel kann die Tiefe eines Punkts a in einem Ausschnitt als Entfernungsflussebene ausgedrückt werden, wobei sie in homogener Form (eine Funktion der Zeit) ausgedrückt werden kann als: Z(X, Y, t) = Z0(t) + ∂XZ·X(t) + ∂YZ·Y(t)
  • Dies kann differenziert werden, um einen Ausdruck der Entfernungsflussebene in homogener Form (in Pixelkoordinaten ausgedrückt) zu liefern oder zu erzeugen:
    Figure 00240001
    oder als
  • Figure 00240002
  • Die Entfernungsflussebene kann die Geschwindigkeiten in der Weise einschränken, dass die Ergebnisse selbstkonsistent sind. Die Einschränkung kann ausgedrückt werden als:
    Figure 00240003
  • Eine in Übereinstimmung mit der Entfernungsflussebene eingeschränkte Lichtflusstechnik kann angewendet werden, um einen optimalen Satz von Verlagerungen (oder Geschwindigkeiten) p = (U, V, W) zu ermitteln. (Zu Beginn des Prozesses können die Werte von p z. B. auf 0 oder auf einen Wert, der eine Bewegung eines zuvor analysierten benachbarten Ausschnitts beschreibt, initialisiert werden.) Die Flussschätzung kann z. B. eine Warp-Funktion R(u, p) liefern oder erzeugen, die eine Bewegung von Bildelementen zwischen T und I in der Weise beschreibt, dass I(R(u, p)) so eng wie möglich an T(u) angepasst ist. Die Differenz zwischen I(R(u, p)) und T(u) kann durch die Kostenfunktion quantifiziert werden,
    Figure 00240004
    wobei Δp eine Änderung von p gegenüber einem zuvor berechneten oder initialisierten Wert ist.
  • Unter Verwendung einer iterativen Technik (z. B. zyklisches Durchlaufen oder Wiederholen von Sätzen von Betrieben wie etwa der Blöcke 250 bis 280) kann ein optimaler Satz von Verlagerungen ermittelt werden.
  • Die Bewegung kann optimiert werden (Block 250). Zum Beispiel kann eine Darstellung der kleinsten Quadrate gelöst werden, um einen Optimalwert von Δp* zu liefern oder zu erzeugen, der die Kostenfunktion optimiert:
    Figure 00250001
  • Zum Beispiel kann ein Lucas-Kanade-Verfahren angewendet werden.
  • Der Wert des optimierten Bewegungsinkrements Δp* kann mit einem Schwellenwert ε verglichen werden (Block 260). Falls der Wert des optimierten Bewegungsinkrements Δp* ausreichend klein und kleiner als der Schwellenwert ε ist, kann das Verfahren als konvergiert betrachtet werden und kann die Ausführung des Bewegungsschätzverfahrens 200 für das gegenwärtig ausgewählte Gebiet des Rahmens beendet werden (Block 290). Das Bewegungsschätzverfahren 200 kann für ein anderes Gebiet (z. B. für ein benachbartes Gebiet) des Eingangsbilds wiederholt werden (wobei von dem durch den Block 210 beschriebenen Betrieb begonnen wird).
  • Falls der Wert des optimierten Bewegungsinkrements Δp* größer als der Schwellenwert ε ist, können die vorhergehenden Werte der Bewegung p durch Inkrementieren um Δp* geändert werden (Block 270): p + Δp* → p
  • Die geänderte Bewegung p kann in die Entfernungsflussebene projiziert werden (Block 280). Auf diese Weise kann die geänderte Bewegung durch die Einschränkungsbedingung eingeschränkt werden.
  • Daraufhin kann der Bewegungsoptimierungsprozess für eine weitere Iteration (zurückkehrend zu Block 250) wiederholt werden, bis der iterative Prozess abgeschlossen ist. Der iterative Prozess kann z. B. abgeschlossen werden, wenn das berechnete Bewegungsinkrement klein ist (Δp* < ε, Block 260) oder wenn ein anderes Kriterium erfüllt ist (z. B., wenn die Anzahl der Iterationen größer als die maximal zulässige Anzahl von Iterationen ist). Somit kann die Berechnung eine Bewegung oder eine geschätzte Bewegung eines Elements eines abgebildeten Objekts der abgebildeten Szene liefern.
  • Die für jeden Ausschnitt des Bilds berechnete Bewegung kann (z. B. durch Dividieren durch ein Zeitintervall zwischen Rahmen) in eine Geschwindigkeit jedes Elements in dem Bild umgesetzt werden. Zum Beispiel kann eine Geschwindigkeit eines Elements eines abgebildeten Objekts verwendet werden, um eine Zeitdauer zu einer oder bis zu einer Kollision eines Fahrzeugs (in das z. B. das System eingebaut ist, mit dem abgebildeten Objekt (wobei keine Änderung angenommen wird) zu berechnen. Im Ergebnis der berechneten Zeit bis zur Kollision kann ein Fahrer eines Fahrzeugs vor der Möglichkeit der Kollision gewarnt werden. Zum Beispiel kann eine hörbare Warnung erzeugt werden. Als ein anderes Beispiel kann eine Geschwindigkeit eines Elements von einer automatisierten Kollisionsvermeidungsvorrichtung oder -anwendung genutzt werden, um ein Fahrzeug in der Weise zu manövrieren, dass eine Kollision mit dem Objekt vermieden wird.
  • Ausführungsformen der vorliegenden Erfindung können Vorrichtungen zum Ausführen der hier beschriebenen Betriebe enthalten. Diese Vorrichtungen können speziell für die gewünschten Zwecke konstruiert sein oder können Computer oder Prozessoren umfassen, die durch ein in den Computern gespeichertes Computerprogramm selektiv aktiviert oder rekonfiguriert werden. Solche Computerprogramme können in einem computerlesbaren oder prozessorlesbaren nichtflüchtigen Ablagemedium, auf irgendeinen Plattentyp einschließlich Disketten, optischer Platten, CD-ROMs, magnetooptischer Platten, Nur-Lese-Speicher (ROMs), Schreib-Lese-Speicher (RAMs), elektrisch programmierbarer Nur-Lese-Speicher (EPROMs), elektrisch löschbarer und programmierbarer Nur-Lese-Speicher (EEPROMs), magnetischer oder optischer Karten oder in irgendeinem anderen für das Speichern elektrischer Anweisungen geeigneten Medientyp gespeichert sein. Es wird gewürdigt werden, dass eine Vielzahl von Programmiersprachen verwendet werden können, um die wie hier beschriebenen Lehren der Erfindung zu implementieren. Ausführungsformen der Erfindung können einen Artikel wie etwa ein durch einen nichtflüchtigen Computer oder Prozessor lesbares nichtflüchtiges Ablagemedium wie etwa z. B. einen Speicher, ein Plattenlaufwerk oder einen USB-Flash-Speicher, der Anweisungen, z. B. durch einen Computer ausführbare Anweisungen, die, wenn sie durch einen Prozessor oder Controller ausgeführt werden, veranlassen, dass der Prozessor oder Controller hier offenbarte Verfahren ausführt, codiert, enthält oder speichert, enthalten. Die Anweisungen können veranlassen, dass der Prozessor oder der Controller Prozesse ausführt, die hier offenbarte Verfahren ausführen.
  • Es sind hier unterschiedliche Ausführungsformen offenbart. Merkmale bestimmter Ausführungsformen können mit Merkmalen anderer Ausführungsformen kombiniert werden; somit können bestimmte Ausführungsformen Kombinationen von Merkmalen mehrerer Ausführungsformen sein. Die vorstehende Beschreibung der Ausführungsformen der Erfindung ist zur Veranschaulichung und Beschreibung dargestellt worden. Sie soll nicht erschöpfend sein oder die Erfindung auf die genau offenbarte Form beschränken. Der Fachmann auf dem Gebiet wird würdigen, dass im Licht der obigen Lehre viele Änderungen, Veränderungen, Ersetzungen, Abwandlungen und Äquivalente möglich sind. Somit sollen die beigefügten Ansprüche selbstverständlich alle solchen Änderungen und Abwandlungen, wie sie im wahren Erfindungsgedanken liegen, enthalten.

Claims (10)

  1. Verfahren, das umfasst: Betreiben eines gekoppelten Entfernungsbildwandlers und Intensitätsbildwandlers zum Erhalten einer Folge wenigstens zweier automatisch ausgerichteter Bilder, wobei jedes automatisch ausgerichtete Bild gleichzeitig erfasste Entfernungsdaten und Intensitätsdaten hinsichtlich einer abgebildeten Szene enthält; und Analysieren der ausgerichteten Entfernungs- und Intensitätsdaten, um eine geschätzte Bewegung eines Elements eines abgebildeten Objekts der abgebildeten Szene zu liefern.
  2. Verfahren nach Anspruch 1, das das Neuskalieren von Pixeln der erfassten Entfernungsdaten in der Weise, dass sie zu den Pixeln der erfassten Intensitätsdaten passen, umfasst.
  3. Verfahren nach Anspruch 1, wobei das Erhalten jedes der automatisch ausgerichteten Bilder das Kombinieren eines Pixels von Entfernungsdaten mit einem entsprechenden Pixel von Intensitätsdaten, um ein Pixel des automatisch ausgerichteten Bilds zu bilden, umfasst.
  4. Verfahren nach Anspruch 1, wobei das Analysieren der ausgerichteten Entfernungs- und Intensitätsdaten das Ermitteln einer Entfernungsflussebene zum Einschränken der geschätzten Bewegung umfasst.
  5. Verfahren nach Anspruch 1, wobei das Analysieren der ausgerichteten Entfernungs- und Intensitätsdaten das Anwenden einer Lichtflusstechnik oder das Anwenden einer iterativen Technik umfasst.
  6. System, das umfasst: eine Sammeloptik zum Sammeln von Licht von einer Szene und zum Fokussieren des gesammelten Lichts; einen Intensitätsbildwandlerdetektor; einen Entfernungsbildwandlerdetektor; einen Strahlteiler, um Licht, das durch die Sammeloptik gesammelt wird, in der Weise zu teilen, dass ein Teil des gesammelten Lichts auf den Intensitätsbildwandlerdetektor fokussiert wird und ein anderer Teil des gesammelten Lichts auf den Entfernungsbildwandlerdetektor fokussiert wird; und einen Controller zum Steuern des Intensitätsbildwandlerdetektors, um ein Intensitätsbild der Szene zu erfassen, und zum gleichzeitigen Steuern des Entfernungsbildwandlerdetektors, um ein Entfernungsbild zu erfassen, zum Kombinieren des erfassten Intensitäts- und Entfernungsbilds zu einem automatisch ausgerichteten Bild und zum Analysieren einer Folge aufeinanderfolgend erfasster automatisch ausgerichteter Bilder, um eine geschätzte Bewegung eines Elements eines abgebildeten Objekts in der Szene zu berechnen.
  7. System nach Anspruch 6, wobei der Controller zum Messen einer Flugzeit zwischen der Emission eines Lichtimpulses, der durch einen Emitter in Richtung der Szene emittiert wird, bis zur Detektierung des Impulses durch ein Detektierelement des Entfernungsbildwandlerdetektors, wenn er durch ein Element des Objekts reflektiert worden ist, und zum Berechnen einer Entfernung zu dem Element auf der Grundlage der gemessenen Flugzeit konfiguriert ist.
  8. System nach Anspruch 7, wobei durch einen einzelnen Auslöser der Intensitätsbildwandlerdetektor steuerbar ist, um ein Intensitätsbild zu erfassen, und der Entfernungsbildwandlerdetektor steuerbar ist, um ein Entfernungsbild zu erfassen.
  9. System nach Anspruch 7, wobei der Controller zum Berechnen der geschätzten Bewegung durch Berechnen eines Lichtflusses zwischen aufeinanderfolgend erfassten automatisch ausgerichteten Bildern konfiguriert ist.
  10. System nach Anspruch 7, das in ein Fahrzeug integriert ist.
DE102013201912A 2012-02-10 2013-02-06 Gekoppelte Entfernungs- und Intensitätsabbildung für die Bewegungsschätzung Withdrawn DE102013201912A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/370,685 2012-02-10
US13/370,685 US9069075B2 (en) 2012-02-10 2012-02-10 Coupled range and intensity imaging for motion estimation

Publications (1)

Publication Number Publication Date
DE102013201912A1 true DE102013201912A1 (de) 2013-08-14

Family

ID=48868456

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013201912A Withdrawn DE102013201912A1 (de) 2012-02-10 2013-02-06 Gekoppelte Entfernungs- und Intensitätsabbildung für die Bewegungsschätzung

Country Status (3)

Country Link
US (1) US9069075B2 (de)
CN (1) CN103245951B (de)
DE (1) DE102013201912A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10116883B2 (en) * 2013-08-29 2018-10-30 Texas Instruments Incorporated System and methods for depth imaging using conventional CCD image sensors
US9354052B2 (en) * 2014-01-24 2016-05-31 Raytheon Company Shared-aperture electro-optic imaging and ranging sensor
US9952323B2 (en) 2014-04-07 2018-04-24 Samsung Electronics Co., Ltd. High resolution, high frame rate, low power image sensor
JP6278464B2 (ja) * 2014-09-19 2018-02-14 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置および制御方法
ES2930748T3 (es) * 2015-05-18 2022-12-21 Terabee S A S Dispositivo y método para iluminación uniforme de campo lejano con LED
WO2016189495A1 (en) 2015-05-27 2016-12-01 Van Dyke, Marc Alerting predicted accidents between driverless cars
US10031522B2 (en) 2015-05-27 2018-07-24 Dov Moran Alerting predicted accidents between driverless cars
US10397546B2 (en) * 2015-09-30 2019-08-27 Microsoft Technology Licensing, Llc Range imaging
US10394237B2 (en) 2016-09-08 2019-08-27 Ford Global Technologies, Llc Perceiving roadway conditions from fused sensor data
EP3367130A1 (de) * 2017-02-22 2018-08-29 STMicroelectronics (Research & Development) Limited Integration einer tiefenkartenvorrichtung zur adaptiven beleuchtungssteuerung
US10558844B2 (en) * 2017-12-18 2020-02-11 Datalogic Ip Tech S.R.L. Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
WO2022170325A1 (en) * 2021-02-02 2022-08-11 Ringo Ai, Inc. Nonlinearity correction and range fitting for stereoscopy through illumination and approaches to using the same for noncontact color determination

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1522487A (en) 1974-08-29 1978-08-23 Sony Corp Solid state colour television cameras
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
DE102004018813A1 (de) * 2004-04-19 2006-02-23 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und/oder Verfolgung von Objekten
EP1797523A4 (de) * 2004-08-23 2009-07-22 Sarnoff Corp Verfahren und vorrichtung zur herstellung eines kondensierten bildes
US7262710B2 (en) * 2004-09-22 2007-08-28 Nissan Motor Co., Ltd. Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
US20060111841A1 (en) * 2004-11-19 2006-05-25 Jiun-Yuan Tseng Method and apparatus for obstacle avoidance with camera vision
US7130745B2 (en) * 2005-02-10 2006-10-31 Toyota Technical Center Usa, Inc. Vehicle collision warning system
JP2007216722A (ja) * 2006-02-14 2007-08-30 Takata Corp 対象物検出システム、作動装置制御システム、車両
US7375803B1 (en) 2006-05-18 2008-05-20 Canesta, Inc. RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging
DE102006031580A1 (de) * 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
US7639874B2 (en) * 2006-08-03 2009-12-29 Tandent Vision Science, Inc. Methods for discriminating moving objects in motion image sequences
US20080059069A1 (en) * 2006-08-30 2008-03-06 Trutna William R System and method for detecting an object in the path of a vehicle
CN101652627A (zh) * 2007-01-14 2010-02-17 微软国际控股私有有限公司 一种用于成像的方法、设备和系统
EP2040220B1 (de) * 2007-09-24 2014-07-02 Delphi Technologies, Inc. Verfahren zur Hinderniserkennung
CN100565244C (zh) * 2007-10-31 2009-12-02 北京航空航天大学 多模多目标精密跟踪装置和方法
US8095313B1 (en) * 2008-06-23 2012-01-10 The United States Of America As Represented By The Secretary Of The Navy Method for determining collision risk for collision avoidance systems
WO2010068499A1 (en) * 2008-11-25 2010-06-17 Tetravue, Inc. Systems and methods of high resolution three-dimensional imaging
US8564657B2 (en) * 2009-05-29 2013-10-22 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3D warping techniques and a proper object motion detection
US8400511B2 (en) * 2009-12-04 2013-03-19 Lockheed Martin Corporation Optical detection and ranging sensor system for sense and avoid, and related methods
TWI540312B (zh) * 2010-06-15 2016-07-01 原相科技股份有限公司 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems

Also Published As

Publication number Publication date
US9069075B2 (en) 2015-06-30
US20130211657A1 (en) 2013-08-15
CN103245951A (zh) 2013-08-14
CN103245951B (zh) 2016-12-07

Similar Documents

Publication Publication Date Title
DE102013201912A1 (de) Gekoppelte Entfernungs- und Intensitätsabbildung für die Bewegungsschätzung
US11249173B2 (en) System and method for enhancing image resolution
EP3183721B1 (de) Verfahren und achsenzähl-vorrichtung zur berührungslosen achsenzählung eines fahrzeugs sowie achsenzählsystem für den strassenverkehr
DE102013017500B3 (de) Verfahren und Vorrichtung zum optischen Abtasten und Vermessen einer Szene
DE112017001112T5 (de) Verfahren und Vorrichtung für eine aktiv gepulste 4D-Kamera zur Bildaufnahme und -analyse
AT412028B (de) Einrichtung zur aufnahme eines objektraumes
DE102017107903A1 (de) 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
EP2289044B1 (de) Bilddatenvisualisierung
US20230194719A1 (en) Method for Measuring a Distance Between an Object and an Optical Sensor, Control Device for Carrying Out Such a Method, Distance Measuring Apparatus Comprising Such a Control Device, and Motor Vehicle Comprising Such a Distance Measuring Apparatus
DE102013100327A1 (de) Fahrzeugfahrtumgebungserkennungsvorrichtung
DE112018002249T5 (de) Festkörper-bildgebungsvorrichtung und elektronische einrichtung
DE112018002395T5 (de) Optischer sensor und elektronische vorrichtung
EP1953568A1 (de) Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
DE112020002567T5 (de) Bilderkennungsvorrichtung und bilderkennungsverfahren
DE102009055626A1 (de) Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts
DE102009045600A1 (de) Kamerasystem
DE102020129096A1 (de) Erzeugung dreidimensionaler punktwolken mittels einer polarimetrischen kamera in einem mit einem fahrassistenzsystem ausgestatteten fahrzeug
DE102018108936A1 (de) Formmesssystem und Formmessverfahren
EP1460454A2 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102005055347A1 (de) Fahrerassistenzsystem
DE10248416B4 (de) Vorrichtung und Verfahren zur Bestimmung einer Relativbewegung eines Fahrzeugs
DE112018004292T5 (de) Vorrichtung und verfahren
DE112020003848T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, und informationsverarbeitungsprogramm
DE102010055865A1 (de) Kameravorrichtung für einen Kraftwagen
DE102017117212A1 (de) System und Verfahren zur Stereotriangulation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee