DE112020001131T5 - Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät - Google Patents

Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät Download PDF

Info

Publication number
DE112020001131T5
DE112020001131T5 DE112020001131.3T DE112020001131T DE112020001131T5 DE 112020001131 T5 DE112020001131 T5 DE 112020001131T5 DE 112020001131 T DE112020001131 T DE 112020001131T DE 112020001131 T5 DE112020001131 T5 DE 112020001131T5
Authority
DE
Germany
Prior art keywords
photodiode
lidar
sensor
lidar sensor
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020001131.3T
Other languages
English (en)
Inventor
Ricardo Ferreira
Stefan Hadrath
Peter Hoehmann
Herbert Kaestle
Florian Kolb
Norbert Magg
Jiye Park
Tobias Schmidt
Martin Schnarrenberger
Norbert Haas
Helmut Horn
Bernhard Siessegger
Guido Angenendt
Charles Braquet
Gerhard Maierbacher
Oliver Neitzke
Sergey Khrushchev
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leddartech Holdings Inc
Original Assignee
Osram GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osram GmbH filed Critical Osram GmbH
Publication of DE112020001131T5 publication Critical patent/DE112020001131T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die vorliegende Offenbarung bezieht sich auf verschiedene Ausführungsformen einer optischen Komponente (5100) für ein LIDAR-Sensorsystem (10). Die optische Komponente (5100) enthält eine erste Fotodiode (5110), die ein LIDAR-Sensorpixel in einer ersten Halbleiterstruktur implementiert und so konfiguriert ist, dass sie empfangenes Licht in einem ersten Wellenlängenbereich absorbiert, eine zweite Fotodiode (5120), die ein Kamerasensorpixel in einer zweiten Halbleiterstruktur über der ersten Halbleiterstruktur implementiert und so konfiguriert ist, dass sie empfangenes Licht in einem zweiten Wellenlängenbereich absorbiert, und eine Verbindungsschicht (5114) (z.B. zwischen der ersten Halbleiterstruktur und der zweiten Halbleiterstruktur angeordnet), die eine elektrisch leitende Struktur enthält, die so konfiguriert ist, dass sie die zweite Fotodiode (5120) elektrisch kontaktiert. Das empfangene Licht des zweiten Wellenlängenbereichs weist eine kürzere Wellenlänge als das empfangene Licht des ersten Wellenlängenbereichs auf.

Description

  • HINTERGRUND
  • TECHNISCHES GEBIET
  • Das technische Gebiet der vorliegenden Offenbarung bezieht sich im Allgemeinen auf LIDAR (Light Detection and Ranging)-Systeme und -Verfahren, die Lichterkennungs- und Entfernungsmesstechnik verwenden. Diese Offenbarung konzentriert sich auf Komponenten für LIDAR-Sensorsysteme, LIDAR-Sensorsysteme, LIDAR-Sensorgeräte und auf Verfahren für LIDAR-Sensorsysteme oder LIDAR-Sensorgeräte.
  • HINTERGRUNDINFORMATIONEN
  • Es gibt zahlreiche Studien und Marktprognosen, die voraussagen, dass sich die Mobilität und der Transport der Zukunft von Fahrzeugen, die von einem menschlichen Bediener beaufsichtigt werden, zu Fahrzeugen mit einem zunehmenden Grad an Autonomie hin zu vollständig autonomen, selbstfahrenden Fahrzeugen verlagern wird. Diese Verlagerung wird jedoch keine abrupte Veränderung sein, sondern eher ein schrittweiser Übergang mit unterschiedlichen Autonomiegraden, die zum Beispiel von SAE International (Society of Automotive Engineers) in SAE J3016 zwischendurch definiert wurden. Darüber hinaus wird dieser Übergang nicht auf einfache lineare Weise erfolgen, indem von einer Ebene zur nächsten übergegangen wird, während alle vorherigen Ebenen überflüssig werden. Stattdessen wird erwartet, dass diese Ebenen mit unterschiedlichem Ausmaß an Autonomie über längere Zeiträume koexistieren werden und dass viele Fahrzeuge und ihre jeweiligen Sensorsysteme in der Lage sein werden, mehr als eine dieser Ebenen zu unterstützen.
  • Abhängig von verschiedenen Faktoren kann ein menschlicher Bediener z.B. aktiv zwischen verschiedenen SAE-Stufen wechseln, abhängig von den Fähigkeiten des Fahrzeugs, oder das Betriebssystem des Fahrzeugs kann einen solchen Wechsel anfordern oder einleiten, typischerweise mit einer rechtzeitigen Information und Annahmezeitdauer für mögliche menschliche Bediener der Fahrzeuge. Zu diesen Faktoren können interne Faktoren wie individuelle Präferenzen, das Niveau der Fahrerfahrung oder der biologische Zustand eines menschlichen Fahrers und externe Faktoren wie eine Änderung der Umweltbedingungen wie Wetter, Verkehrsdichte oder unerwartete Verkehrskomplexitäten gehören.
  • Es ist wichtig zu beachten, dass das oben beschriebene Zukunftsszenario keine theoretische, weit entfernte Eventualität ist. Vielmehr ist bereits heute eine Vielzahl sogenannter ADAS (Advanced Driver Assistance Systems)-Systeme in modernen Fahrzeugen implementiert, die deutlich Merkmale einer autonomen Fahrzeugsteuerung aufweisen. Heutige ADAS-Systeme können beispielsweise so konfiguriert werden, dass sie einen menschlichen Bediener in gefährlichen Situationen warnen (z.B. Spurhalteassistent), aber in bestimmten Fahrsituationen sind einige ADAS-Systeme in der Lage, die Kontrolle zu übernehmen und Fahrzeuglenkvorgänge ohne aktive Auswahl oder Intervention durch einen menschlichen Bediener durchzuführen. Beispiele hierfür sind Komfortsituationen wie der adaptive Tempomat, aber auch Gefahrensituationen wie im Falle von Spurhalteassistenten und Notbremsassistenten.
  • Die oben beschriebenen Szenarien erfordern alle Fahrzeuge und Transportsysteme mit einer enorm gesteigerten Fähigkeit, ihre Umgebung wahrzunehmen, zu interpretieren und auf sie zu reagieren. Daher ist es nicht überraschend, dass Umweltfernerkundungssysteme das Herzstück der zukünftigen Mobilität sein werden.
  • Da der moderne Verkehr aufgrund einer großen Anzahl heterogener Verkehrsteilnehmer, wechselnder Umgebungen oder unzureichend oder gar nicht kartierter Umgebungen und aufgrund schneller, zusammenhängender Dynamiken äußerst komplex sein kann, müssen solche Sensorsysteme in der Lage sein, ein breites Spektrum unterschiedlicher Aufgaben abzudecken, die mit hoher Genauigkeit und Zuverlässigkeit ausgeführt werden müssen. Es stellt sich heraus, dass es nicht ein einziges, allem genügendes Sensorsystem gibt, das alle für teilautonome oder vollständig autonome Fahrzeuge relevanten Anforderungen erfüllen kann. Stattdessen erfordert die zukünftige Mobilität unterschiedliche Sensortechnologien und Konzepte mit unterschiedlichen Vor- und Nachteilen. Unterschiede zwischen den Sensorsystemen können sich auf den Wahrnehmungsbereich, das vertikale und horizontale Sichtfeld (FOV), die räumliche und zeitliche Auflösung, die Geschwindigkeit der Datenerfassung usw. beziehen. Daher können Sensorfusion und Dateninterpretation, möglicherweise unterstützt durch Verfahrens des tiefen neuronalen Lernens (Deep Neuronal Learning, DNL) und andere Verfahren der Neuronalen Prozessoreinheiten (Neural Processor Units, NFU) für komplexere Aufgaben, wie die Beurteilung einer Verkehrssituation und die Generierung abgeleiteter Fahrzeugsteuerungsfunktionen, notwendig sein, um mit solchen Komplexitäten fertig zu werden. Darüber hinaus kann das Fahren und Lenken von autonomen Fahrzeugen eine Reihe ethischer Regeln und allgemein akzeptierter Verkehrsregeln erfordern.
  • Unter diesen Erfassungssystemen werden voraussichtlich LIDAR-Erfassungssysteme eine wichtige Rolle spielen, ebenso wie kamerabasierte Systeme, möglicherweise unterstützt durch Radar- und Ultraschallsysteme. Im Hinblick auf eine bestimmte Wahrnehmungsaufgabe können diese Systeme mehr oder weniger unabhängig voneinander arbeiten.
  • Um das Wahrnehmungsniveau (z.B. in Bezug auf Genauigkeit und Reichweite) zu erhöhen, können jedoch Signale und Daten, die von verschiedenen Sensorsystemen erfasst werden, in sogenannten Sensorfusionssystemen zusammengeführt werden. Die Zusammenführung von Sensordaten ist nicht nur notwendig, um die Messergebnisse zu verfeinern und zu konsolidieren, sondern auch, um das Vertrauen in die Sensorergebnisse zu erhöhen, indem mögliche Inkonsistenzen und Widersprüche aufgelöst und ein gewisses Maß an Redundanz geschaffen wird. Auch unbeabsichtigte Störsignale und absichtliche gegnerische Angriffe können in diesem Zusammenhang eine Rolle spielen.
  • Für eine genaue und zuverlässige Wahrnehmung der Umgebung eines Fahrzeugs können nicht nur fahrzeuginterne Sensorsysteme und Messdaten berücksichtigt werden, sondern auch Daten und Informationen aus fahrzeugexternen Quellen. Solche fahrzeugexternen Quellen können mit anderen Verkehrsteilnehmern wie vorausfahrenden und entgegenkommenden Fahrzeugen, Fußgängern und Radfahrern verbundene Sensorsysteme sein, aber auch Sensorsysteme, die an Straßeninfrastrukturelementen wie Ampeln, Ampeln, Brücken, Elementen von Straßenbaustellen und zentralen Verkehrsüberwachungsstrukturen angebracht sind. Darüber hinaus können Daten und Informationen aus weit entfernten Quellen wie Verkehrsteleoperatoren und Satelliten von globalen Positionierungssystemen (z.B. GPS) stammen.
  • Daher wird die künftige Mobilität neben den Erfassungs- und Wahrnehmungsfähigkeiten auch stark von der Fähigkeit abhängen, mit einem breiten Spektrum von Kommunikationspartnern zu kommunizieren. Die Kommunikation kann unilateral oder bilateral erfolgen und verschiedene drahtlose Übertragungstechnologien wie WLAN, Bluetooth und Kommunikation auf der Grundlage von Funkfrequenzen und visuellen oder nicht-visuellen Lichtsignalen umfassen. Es ist zu beachten, dass einige Erfassungssysteme, z.B. LIDAR-Erfassungssysteme, sowohl für Erfassungsals auch für Kommunikationsaufgaben eingesetzt werden können, was sie für zukünftige Mobilitätskonzepte besonders interessant macht. Die Datensicherheit und die eindeutige Identifizierung von Kommunikationspartnern sind Beispiele dafür, dass lichtbasierte Technologien im Vergleich zu anderen drahtlosen Kommunikationstechnologien inhärente Vorteile haben. Die Kommunikation muss unter Umständen verschlüsselt und manipulationssicher sein.
  • Aus der obigen Beschreibung wird auch deutlich, dass die zukünftige Mobilität große Datenmengen bewältigen können muss, da pro Fahrstunde mehrere Dutzend Gigabyte anfallen können. Dies bedeutet, dass autonome Fahrsysteme Daten mit sehr hoher Geschwindigkeit erfassen, sammeln und speichern müssen, wobei in der Regel Echtzeitbedingungen eingehalten werden müssen. Darüber hinaus müssen zukünftige Fahrzeuge in der Lage sein, diese Daten zu interpretieren, d.h., innerhalb kurzer Zeit eine Art kontextuelle Bedeutung abzuleiten, um erforderliche Fahrmanöver zu planen und auszuführen. Dies erfordert komplexe Softwarelösungen, die sich fortschrittlicher Algorithmen bedienen. Es wird erwartet, dass autonome Fahrsysteme mehr und mehr Elemente der künstlichen Intelligenz, des maschinellen Lernens und des Selbstlernens, sowie Deep Neural Networks (DNN) für bestimmte Aufgaben, z.B. die visuelle Bilderkennung, und andere Neural Processor Units (NFU)-Verfahren für komplexere Aufgaben, wie die Beurteilung einer Verkehrssituation und die Generierung abgeleiteter Fahrzeugsteuerungsfunktionen, und ähnliches beinhalten werden. Die Berechnung, Handhabung, Speicherung und Abfrage von Daten kann eine große Menge an Rechenleistung und damit an elektrischer Energie erfordern.
  • In einem Versuch, die obigen Absätze zusammenzufassen und abzuschließen, wird die zukünftige Mobilität Sensorsysteme, Kommunikationseinheiten, Datenspeichergeräte, Datenverarbeitungs- und Signalverarbeitungselektronik sowie fortschrittliche Algorithmen und Softwarelösungen umfassen, die verschiedene ethische Einstellungen beinhalten und anbieten können. Die Kombination all dieser Elemente konstituiert eine cyber-physische Welt, die gewöhnlich als Internet der Dinge (loT) bezeichnet wird. In dieser Hinsicht stellen künftige Fahrzeuge ebenfalls eine Art loT-Gerät dar und können als „Mobile loT-Geräte“ bezeichnet werden.
  • Solche „Mobilen loT-Geräte“ können geeignet sein, Personen und Fracht zu transportieren und Informationen zu gewinnen oder bereitzustellen. Es sei angemerkt, dass zukünftige Fahrzeuge manchmal auch als „Smartphones auf Rädern“ bezeichnet werden, ein Begriff, der sicherlich einige der Fähigkeiten zukünftiger Fahrzeuge widerspiegelt. Der Begriff impliziert jedoch eine gewisse Konzentration auf verbraucherbezogene neue Funktionen und Gimmicks. Obwohl diese Aspekte sicherlich eine Rolle spielen können, spiegelt er nicht unbedingt die große Bandbreite zukünftiger Geschäftsmodelle wider, insbesondere datengesteuerter Geschäftsmodelle, die man sich nur zum gegenwärtigen Zeitpunkt vorstellen kann, die sich aber wahrscheinlich nicht nur auf persönliche, auf Komfort ausgerichtete Funktionen konzentrieren, sondern auch kommerzielle, industrielle oder rechtliche Aspekte beinhalten.
  • Neue datengetriebene Geschäftsmodelle werden sich auf intelligente, standortbezogene Dienste konzentrieren, die beispielsweise Aspekte des Selbstlernens und der Vorhersage sowie Gesten- und Sprachverarbeitung mit künstlicher Intelligenz als einer der Haupttreiber nutzen. All dies wird von Daten gespeist, die in der Automobilindustrie durch eine große Flotte zukünftiger Fahrzeuge, die als mobile digitale Plattformen fungieren, und durch Konnektivitätsnetzwerke, die mobile und stationäre loT-Geräte miteinander verbinden, in riesigen Mengen generiert werden.
  • Neue Mobilitätsdienste, darunter stationäre und frei schwebende Carsharing-Angebote sowie Mitfahrgelegenheiten, haben bereits begonnen, traditionelle Geschäftsfelder zu stören. Dieser Trend wird sich fortsetzen und schließlich Robo-Taxi-Dienste und hochentwickelte Transportation-as-a-Service (TaaS)- und Mobility-as-a-Service (MaaS)-Lösungen anbieten.
  • Auch die Elektrifizierung, ein weiterer spielverändernder Trend im Hinblick auf die zukünftige Mobilität, muss berücksichtigt werden. Zukünftige Sensorsysteme werden daher auf Systemeffizienz, Gewicht und Energieverbrauchsaspekte achten müssen. Neben einer allgemeinen Minimierung des Energieverbrauchs können auch kontextspezifische Optimierungsstrategien, z.B. in Abhängigkeit von situations- oder standortspezifischen Faktoren, eine wichtige Rolle spielen.
  • Der Energieverbrauch kann einen begrenzenden Faktor für das autonome Fahren von Elektrofahrzeugen darstellen. Es gibt eine ganze Reihe von energieverbrauchenden Geräten wie Sensoren, z.B. RADAR, LIDAR, Kamera, Ultraschall, Globales Navigationssatellitensystem (GNSS/GPS), Sensorfusionsgeräte, Verarbeitungsleistung, mobile Unterhaltungsgeräte, Heizgerät, Lüfter, Heizung, Lüftung und Klimaanlage (HVAC), Car-to-Car (C2C) und Car-to-Environment (C2X) Kommunikation, Datenverschlüsselung und -entschlüsselung und viele mehr, die alle zu einem hohen Energieverbrauch führen. Insbesondere Datenverarbeitungseinheiten sind sehr stromhungrig. Daher ist es notwendig, alle Geräte zu optimieren und solche Geräte auf intelligente Weise zu nutzen, damit eine höhere Batterielaufleistung aufrechterhalten werden kann.
  • Neben neuen Dienstleistungen und datengesteuerten Geschäftsmöglichkeiten wird von der zukünftigen Mobilität auch eine deutliche Reduzierung der verkehrsbedingten Unfälle erwartet. Basierend auf Daten des Statistischen Bundesamtes in Deutschland (Destatis, 2018) werden über 98% der Verkehrsunfälle zumindest teilweise durch den Menschen verursacht. Ähnlich deutliche Korrelationen zeigen die Statistiken anderer Länder.
  • Dennoch ist zu bedenken, dass automatisierte Fahrzeuge auch neue Arten von Risiken mit sich bringen werden, die es bisher nicht gab. Dies gilt sowohl für bisher ungesehene Verkehrsszenarien, bei denen nur ein einziges automatisiertes Fahrsystem zum Einsatz kommt, als auch für komplexe Szenarien, die sich aus dynamischen Interaktionen zwischen einer Vielzahl von automatisierten Fahrsystemen ergeben. Infolgedessen zielen realistische Szenarien auf eine insgesamt positive Risikobilanz für automatisiertes Fahren im Vergleich zur menschlichen Fahrleistung mit einer reduzierten Anzahl von Unfällen ab, während sie in Fällen seltener und unvorhersehbarer Fahrsituationen bis zu einem gewissen Grad einige leicht negative Auswirkungen tolerieren. Dies kann durch ethische Standards geregelt werden, die möglicherweise in Soft- und Hardware umgesetzt werden.
  • Jede Risikobewertung für automatisiertes Fahren muss sowohl sicherheits- als auch sicherungsrelevante Aspekte berücksichtigen: Die Sicherheit konzentriert sich in diesem Zusammenhang auf passive Gegner, beispielsweise aufgrund von Fehlfunktionen von Systemen oder Systemkomponenten, während sich die Sicherung auf aktive Gegner konzentriert, beispielsweise aufgrund von absichtlichen Angriffen durch Dritte.
  • Im Folgenden wird eine nicht erschöpfende Aufzählung sicherheitsrelevanter und sicherungsrelevanter Faktoren gegeben, unter Bezugnahme auf „Safety first for Automated Driving“, ein Weißbuch, das 2019 von Autoren verschiedener Automobilhersteller, Tier-1- und Tier-2-Zulieferer veröffentlicht wurde.
  • Sicherheitsbewertung: Um die angestrebten Sicherheitsziele zu erreichen, müssen Verfahren der Verifikation und Validierung für alle relevanten Systeme und Komponenten implementiert und durchgeführt werden. Die Sicherheitsbewertung kann Safety by Design-Prinzipien, Qualitätsaudits der Entwicklungs- und Produktionsprozesse, die Verwendung redundanter Erfassungs- und Analysekomponenten und viele andere Konzepte und Verfahren umfassen.
  • Sicherer Betrieb: Jedes Sensorsystem oder sonstiges sicherheitsbezogenes System kann anfällig für Beeinträchtigungen sein, d.h. die Systemleistung kann mit der Zeit abnehmen oder ein System kann sogar vollständig ausfallen (z.B. nicht verfügbar sein). Um einen sicheren Betrieb zu gewährleisten, muss das System in der Lage sein, solche Leistungsverluste z.B. durch redundante Sensorsysteme auszugleichen. In jedem Fall muss das System so konfiguriert sein, dass es das Fahrzeug in einen sicheren Zustand mit akzeptablem Risiko versetzt. Eine Möglichkeit kann ein sicherer Übergang der Fahrzeugsteuerung auf einen menschlichen Fahrzeugführer sein.
  • Operationeller Designbereich: Jedes sicherheitsrelevante System hat einen operationellen Bereich (z.B. in Bezug auf Umweltbedingungen wie Temperatur oder Wetterbedingungen einschließlich Regen, Schnee und Nebel), innerhalb dessen ein ordnungsgemäßer Betrieb des Systems spezifiziert und validiert wurde. Sobald das System aus diesem Bereich herauskommt, muss das System in der Lage sein, eine solche Situation zu kompensieren oder einen sicheren Übergang der Fahrzeugsteuerung auf einen menschlichen Fahrzeugführer durchzuführen.
  • Sichere Schicht: Das automatisierte Fahrsystem muss Systemgrenzen erkennen, um sicherzustellen, dass es nur innerhalb dieser spezifizierten und verifizierten Grenzen arbeitet. Dazu gehört auch das Erkennen von Grenzen im Hinblick auf einen sicheren Übergang der Kontrolle auf den Fahrzeugführer.
  • Verantwortung des Nutzers: Es muss jederzeit klar sein, welche Fahraufgaben in der Verantwortung des Nutzers verbleiben. Darüber hinaus muss das System in der Lage sein, Faktoren zu bestimmen, die den biologischen Zustand des Nutzers repräsentieren (z.B. Wachsamkeitszustand), und den Nutzer über seine Verantwortung in Bezug auf die verbleibenden Fahraufgaben des Nutzers auf dem Laufenden zu halten.
  • Vom Bediener initiierte Übergabe: Es muss klare Regeln und ausdrückliche Anweisungen für den Fall geben, dass ein menschlicher Bediener das Ein- oder Ausschalten des automatischen Fahrsystems verlangt.
  • Fahrzeuginitiierte Übergabe: Anfragen für solche Übergabevorgänge müssen klar und für den menschlichen Bediener handhabbar sein, einschließlich eines ausreichend langen Zeitraums, damit sich der Bediener an die aktuelle Verkehrssituation anpassen kann. Für den Fall, dass sich herausstellt, dass der menschliche Bediener nicht verfügbar oder nicht in der Lage ist, eine sichere Übergabe durchzuführen, muss das automatisierte Fahrsystem in der Lage sein, ein Manöver mit minimalem Risiko durchzuführen.
  • Verhalten im Verkehr: Automatisierte Fahrsysteme müssen in leicht verständlicher Weise agieren und reagieren, damit ihr Verhalten für andere Verkehrsteilnehmer vorhersehbar ist. Dazu kann gehören, dass automatisierte Fahrsysteme Verkehrsregeln beachten und befolgen müssen und dass automatisierte Fahrsysteme andere Verkehrsteilnehmer über ihr beabsichtigtes Verhalten informieren, z.B. durch spezielle Anzeigesignale (optisch, akustisch).
  • Sicherung: Das automatisierte Fahrsystem muss vor Sicherheitsbedrohungen (z.B. Cyber-Angriffen) geschützt werden, einschließlich z.B. des unbefugten Zugriffs auf das System durch Angriffe Dritter. Darüber hinaus muss das System in der Lage sein, die Datenintegrität zu sichern und Datenkorruption sowie Datenfälschung zu erkennen. Die Identifizierung vertrauenswürdiger Datenquellen und Kommunikationspartner ist ein weiterer wichtiger Aspekt. Daher sind Sicherungsaspekte im Allgemeinen stark mit kryptographischen Konzepten und Verfahren verbunden.
  • Datenaufzeichnung: Relevante Daten in Bezug auf den Status des automatisierten Fahrsystems müssen aufgezeichnet werden, zumindest in genau definierten Fällen. Darüber hinaus muss die Rückverfolgbarkeit der Daten gewährleistet sein, was Strategien zur Datenverwaltung erforderlich macht, einschließlich Konzepten zur Buchführung und Kennzeichnung (Tagging). Tagging kann z.B. darin bestehen, Daten mit Standortinformationen, z.B. GPS-Informationen, zu korrelieren.
  • In der folgenden Offenbarung werden verschiedene Aspekte beschrieben, die sich auf die in diesem Kapitel „HINTERGRUNDINFORMATIONEN“ vorgestellten Technologien, Konzepte und Szenarien beziehen können. Diese Offenbarung konzentriert sich auf LIDAR-Sensorsysteme, gesteuerte LIDAR-Sensorsysteme und LIDAR-Sensorgeräte sowie auf Verfahren für das LIDAR-Sensormanagement. Wie in den obigen Ausführungen veranschaulicht, handelt es sich bei automatisierten Fahrsystemen um äußerst komplexe Systeme, die eine große Vielfalt miteinander verbundener Sensorsysteme, Kommunikationseinheiten, Datenspeichereinrichtungen, Datenverarbeitungs- und Signalverarbeitungselektronik sowie fortschrittliche Algorithmen und Softwarelösungen umfassen.
  • ZUSAMMENFASSUNG DER OFFENBARUNG
  • LIDAR-Sensorsystem und LIDAR-Sensorgerät
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einem LIDAR-Sensorgerät zur Beleuchtung eines Umgebungsraumes kombiniert werden, die mit einer Lichtsteuereinheit verbunden ist.
  • Das LIDAR-Sensorsystem kann aus mindestens einem Lichtmodul bestehen. Dieses eine Lichtmodul hat eine Lichtquelle und einen an die Lichtquelle angeschlossenen Treiber. Das LIDAR-Sensorsystem verfügt ferner über eine Schnittstelleneinheit, insbesondere eine Hardwareschnittstelle, die so konfiguriert ist, dass sie Datensignale empfangen, aussenden und/oder speichern kann. Die Schnittstelleneinheit kann an den Treiber und/oder an die Lichtquelle angeschlossen werden, um den Betriebszustand des Treibers und/oder den Betrieb der Lichtquelle zu steuern.
  • Die Lichtquelle kann so konfiguriert werden, dass sie Strahlung im sichtbaren und/oder nicht sichtbaren Spektralbereich aussendet, wie z.B. im fernen roten Bereich des elektromagnetischen Spektrums. Sie kann so konfiguriert werden, dass sie monochromatisches Laserlicht emittiert. Die Lichtquelle kann sowohl ein integraler Bestandteil des LIDAR-Sensorsystems als auch ein entferntes, jedoch angeschlossenes Element sein. Sie kann in verschiedenen geometrischen Mustern und Abstandsfeldern platziert werden und kann so konfiguriert werden, dass sie Farbe oder Wellenlängenemission, Intensität oder Abstrahlwinkel wechselt. Das LIDAR-Sensorsystem und/oder die Lichtquellen können so montiert werden, dass sie beweglich sind oder geneigt, gedreht, gekippt usw. werden können. Das LIDAR-Sensorsystem und/oder die Lichtquelle können so konfiguriert werden, dass sie innerhalb eines LIDAR-Sensorgeräts (z.B. Fahrzeug) oder außerhalb eines LIDAR-Sensorgeräts (z.B. Fahrzeug) installiert werden können. Insbesondere ist es möglich, dass die LIDAR-Lichtquelle oder ausgewählte LIDAR-Lichtquellen so montiert oder so angepasst sind, dass sie automatisch, in einigen Implementierungen ferngesteuert, in ihrer Ausrichtung, Bewegung, Lichtemission, ihrem Lichtspektrum, Sensor usw. automatisch steuerbar sind.
  • Die Lichtquelle kann aus der folgenden Gruppe oder einer Kombination davon ausgewählt werden: Leuchtdiode (LED), Super-Lumineszenz-Laserdiode (LD), VSECL-Laserdiodenarray.
  • In einigen Ausführungsformen kann das LIDAR-Sensorsystem einen Sensor umfassen, z.B. einen resistiven, einen kapazitiven, einen induktiven, einen magnetischen, einen optischen und/oder einen chemischen Sensor. Es kann einen Spannungs- oder Stromsensor umfassen. Der Sensor kann an die Schnittstelleneinheit und/oder den Treiber der LIDAR-Lichtquelle angeschlossen werden.
  • In einigen Ausführungsformen umfasst das LIDAR-Sensorsystem und/oder das LIDAR-Sensorgerät einen Helligkeitssensor, z.B. zur Erfassung der Umgebungslichtverhältnisse in der Nähe von Fahrzeugobjekten, wie z.B. Häusern, Brücken, Schildern und dergleichen. Er kann zur Erfassung von Tageslichtbedingungen verwendet werden, und das erfasste Helligkeitssignal kann z.B. zur Verbesserung der Überwachungseffizienz und -genauigkeit verwendet werden. Auf diese Weise kann es in die Lage versetzt werden, die Umgebung mit einer erforderlichen Lichtmenge einer vordefinierten Wellenlänge zu versorgen.
  • In einigen Ausführungsformen umfasst das LIDAR-Sensorsystem und/oder das LIDAR-Sensorgerät einen Sensor für Fahrzeugbewegung, -position und -orientierung. Solche Sensordaten können eine bessere Vorhersage ermöglichen, ob die Fahrzeuglenkbedingungen und -verfahren ausreichend sind.
  • Das LIDAR-Sensorsystem und/oder LIDAR-Sensorgerät kann auch einen Anwesenheitssensor aufweisen. Dies kann es ermöglichen, das ausgestrahlte Licht an die Anwesenheit eines anderen Verkehrsteilnehmers, einschließlich Fußgängern, anzupassen, um eine ausreichende Beleuchtung zu gewährleisten, Augenschäden oder Hautreizungen oder solche durch Beleuchtung in schädlichen oder unsichtbaren Wellenlängenbereichen, wie UV oder IR, zu verhindern oder zu minimieren. Es kann auch in der Lage sein, Licht mit einer Wellenlänge bereitzustellen, das unerwünschte Anwesende, z.B. die Anwesenheit von Tieren wie Haustieren oder Insekten, warnen oder verscheuchen kann.
  • In einigen Ausführungsformen umfasst das LIDAR-Sensorsystem und/oder LIDAR-Sensorgerät einen Sensor oder Multisensor für die vorausschauende Wartung und/oder den Betrieb des LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts bei Ausfall.
  • In einigen Ausführungsformen umfasst das LIDAR-Sensorsystem und/oder das LIDAR-Sensorgerät einen Betriebsstundenzähler. Der Betriebsstundenzähler kann mit dem Fahrer verbunden werden.
  • Das LIDAR-Sensorsystem kann einen oder mehrere Aktoren zur Einstellung der Umgebungsüberwachungsbedingungen für das LIDAR-Sensorgerät (z.B. Fahrzeug) aufweisen. Es kann z.B. Aktoren aufweisen, mit denen z.B. Laserpulsform, zeitliche Länge, Anstiegs- und Abfallzeiten, Polarisation, Laserleistung, Lasertyp (IR-Diode, VCSEL), Sichtfeld (FOV), Laserwellenlänge, Strahländerungseinrichtung (MEMS, DMD, DLP, LCD, Faser), Strahl- und/oder Sensorblende, Sensortyp (PN-Diode, APD, SPAD) eingestellt werden können.
  • Obwohl der Sensor oder Aktor als Teil des LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts beschrieben wurde, wird davon ausgegangen, dass jeder Sensor oder Aktor ein einzelnes Element oder Teil eines anderen Elements des LIDAR-Sensorsystems sein kann. Ebenso kann es möglich sein, einen zusätzlichen Sensor oder Aktor bereitzustellen, der so konfiguriert ist, dass er eine der beschriebenen Aktivitäten als einzelnes Element oder als Teil eines zusätzlichen Elements des LIDAR-Sensorsystems ausführt oder ausführt.
  • In einigen Ausführungsformen umfasst das LIDAR-Sensorsystem und/oder die LIDAR-Lichtvorrichtung außerdem eine Lichtsteuereinheit, die mit der Schnittstelleneinheit verbunden wird.
  • Die Lichtsteuereinheit kann so konfiguriert werden, dass sie das mindestens eine Lichtmodul für den Betrieb in mindestens einer der folgenden Betriebsarten steuert: Dimmen, gepulst, PWM, Boost, Bestrahlungsmuster, einschließlich beleuchtender und nicht beleuchtender Perioden, Lichtkommunikation (einschließlich C2C und C2X), Synchronisation mit anderen Elementen des LIDAR-Sensorsystems, wie z.B. einem zweiten LIDAR-Sensorgerät.
  • Die Schnittstelleneinheit des LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts kann ein Gateway, z.B. ein drahtloses Gateway, umfassen, das mit der Lichtsteuereinheit verbunden werden kann. Sie kann einen Beacon, wie z.B. einen Bluetooth™-Beacon, umfassen.
  • Die Schnittstelleneinheit kann so konfiguriert werden, dass sie mit anderen Elementen des LIDAR-Sensorsystems verbunden werden kann, z.B. mit einem oder mehreren anderen LIDAR-Sensorsystemen und/oder LIDAR-Sensorgeräten und/oder mit einem oder mehreren Sensoren und/oder einem oder mehreren Aktoren des LIDAR-Sensorsystems.
  • Die Schnittstelleneinheit kann so konfiguriert werden, dass sie über jede beliebige drahtlose oder drahtgebundene Konnektivität, einschließlich Funk- und/oder optischer Konnektivität, angeschlossen werden kann.
  • Das LIDAR-Sensorsystem und/oder LIDAR-Sensorgerät kann so konfiguriert werden, dass kundenspezifische und/oder fahrzeugspezifische Lichtspektren möglich sind. Die LIDAR-Sensoreinrichtung kann so konfiguriert werden, dass die Form und/oder Position und/oder Ausrichtung des mindestens einen LIDAR-Sensorsystems verändert werden kann. Darüber hinaus kann das LIDAR-Sensorsystem und/oder das LIDAR-Sensorgerät so konfiguriert werden, dass die Lichtspezifikationen des von der Lichtquelle emittierten Lichts, wie Emissionsrichtung, Emissionswinkel, Strahldivergenz, Farbe, Wellenlänge und Intensität sowie andere Merkmale wie die Form des Laserpulses, zeitliche Länge, Anstiegs- und Abfallzeiten, Polarisation, Pulssynchronisation, Pulssynchronisation, Laserleistung, Lasertyp (IR-Diode, VCSEL), Sichtfeld (FOV), Laserwellenlänge, Strahländerungseinrichtung (MEMS, DMD, DLP, LCD, Faser), Strahl- und/oder Sensorapertur, Sensortyp (PN-Diode, APD, SPAD), geändert werden.
  • In einigen Ausführungsformen kann das LIDAR-Sensorsystem und/oder LIDAR-Sensorgerät eine Datenverarbeitungseinheit umfassen. Die Datenverarbeitungseinheit kann an den LIDAR-Lichttreiber und/oder an die Schnittstelleneinheit angeschlossen werden. Sie kann zur Datenverarbeitung, zur Daten- und/oder Signalkonvertierung und/oder zur Datenspeicherung konfiguriert sein. Die Datenverarbeitungseinheit kann vorteilhaft für die Kommunikation mit lokalen, netzwerkbasierten oder webbasierten Plattformen, Datenquellen oder -anbietern bereitgestellt werden, um relevante Informationen über das Lichtmodul, die zu befahrende Straße oder andere Aspekte im Zusammenhang mit dem LIDAR-Sensorsystem und/oder dem LIDAR-Sensorgerät zu übertragen, zu speichern oder zu sammeln.
  • In einigen Ausführungsformen kann das LIDAR-Sensorgerät ein oder mehrere LIDAR-Sensorsysteme umfassen, die ihrerseits aus infrarotes oder sichtbares Licht emittierenden Modulen, photoelektrischen Sensoren, optischen Komponenten, Schnittstellen für die Datenkommunikation, Aktoren, wie MEMS-Spiegelsystemen, Rechen- und Datenspeichergeräten, Software und Software-Datenbank, Kommunikationssystemen für die Kommunikation mit loT-, Edge- oder Cloudsystemen bestehen können.
  • Das LIDAR-Sensorsystem und/oder LIDAR-Sensorgerät kann ferner lichtemittierende und lichtempfindliche Elemente aufweisen, die für Beleuchtungszwecke, wie z.B. Straßenbeleuchtung, oder für Datenkommunikationszwecke, z.B. Car-to-Car, Car-to-Environment (z.B. Drohnen, Fußgänger, Verkehrszeichen, Verkehrssäulen usw.), verwendet werden können.
  • Das LIDAR-Sensorgerät kann weiterhin ein oder mehrere LIDAR-Sensorsysteme sowie andere Sensorsysteme, wie optische Kamerasensorsysteme (CCD; CMOS), RADAR-Sensorsysteme und Ultraschall-Sensorsysteme umfassen.
  • Das LIDAR-Sensorgerät kann funktionell als Fahrzeugscheinwerfer, Rücklicht, Seitenlicht, Tagfahrlicht (DRL), Kurvenlicht usw. ausgeführt werden und umfasst LIDAR-Sensorfunktionen sowie sichtbare Beleuchtungs- und Signalfunktionen.
  • Das LIDAR-Sensorsystem kann ferner eine Steuereinheit (gesteuertes LIDAR-Sensorsystem) umfassen. Die Steuereinheit kann für den Betrieb eines Managementsystems konfiguriert werden. Sie ist für den Anschluss an ein oder mehrere LIDAR-Sensorsysteme und/oder LIDAR-Sensorgeräte konfiguriert. Sie kann an einen Datenbus angeschlossen werden. Der Datenbus kann so konfiguriert werden, dass er mit einer Schnittstelleneinheit eines LIDAR-Sensorgeräts verbunden werden kann. Als Teil des Managementsystems kann die Steuereinheit so konfiguriert werden, dass sie einen Betriebszustand des LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts steuert.
  • Das LIDAR-Sensormanagementsystem kann ein Lichtsteuerungssystem umfassen, das eines der folgenden Elemente umfassen kann: Überwachung und/oder Steuerung des Status des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts, Überwachung und/oder Steuerung der Verwendung des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts, Planung der Beleuchtung des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts, Einstellen des Lichtspektrums des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts, Definieren des Lichtspektrums des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts, Überwachen und/oder Steuern der Verwendung mindestens eines Sensors des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts.
  • In einigen Ausführungsformen kann das Verfahren für das LIDAR-Sensorsystem so konfiguriert und gestaltet werden, dass es auf der Grundlage der internen oder externen Dateneingabe, der Laserleistung, der Pulsformen, der Pulslänge, der Messzeitfenster, der Wellenlänge, der Ein- oder Mehrwellenlängenannäherung, der Tag- und Nachteinstellungen, des Sensortyps, der Sensorfusion sowie der Lasersicherheitsfunktionen gemäß den einschlägigen Sicherheitsvorschriften ausgewählt, betrieben und gesteuert werden kann.
  • Das Verfahren für das LIDAR-Sensormanagementsystem kann so konfiguriert werden, dass Datenverschlüsselung, Datenentschlüsselung und Datenkommunikationsprotokolle initiiert werden.
  • LIDAR-Sensorsystem, gesteuertes LIDAR-Sensorsystem, LIDAR-Sensormanagementsystem und Software
  • In einem gesteuerten/kontrollierten LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann das Rechengerät lokal, netzwerkbasiert und/oder cloudbasiert sein. Das heißt, die Berechnung kann im gesteuerten LIDAR-Sensorsystem oder auf beliebigen direkt oder indirekt verbundenen Einheiten durchgeführt werden. Im letzteren Fall ist das gesteuerte LIDAR-Sensorsystem mit einigen Verbindungsmitteln ausgestattet, die es ermöglichen, zumindest eine Datenverbindung mit solchen verbundenen Einheiten herzustellen.
  • In einigen Ausführungsformen umfasst das gesteuerte LIDAR-Sensorsystem ein LIDAR-Sensormanagementsystem, das an mindestens eine Hardwareschnittstelle angeschlossen ist. Das LIDAR-Sensormanagementsystem kann einen oder mehrere Aktoren zur Anpassung der Überwachungsbedingungen an die Umgebung umfassen. Die Überwachungsbedingungen können z.B. Fahrzeuggeschwindigkeit, Fahrzeugstraßendichte, Entfernung des Fahrzeugs zu anderen Objekten, Objekttyp, Objektklassifizierung, Notfallsituationen, Wetterbedingungen, Tag- oder Nachtbedingungen, Tag- oder Nachtzeit, Fahrzeug- und Umgebungstemperaturen sowie Biofeedback-Signale des Fahrers sein.
  • Die vorliegende Offenbarung umfasst ferner eine LIDAR-Sensor-Management-Software. Die vorliegende Offenbarung umfasst ferner ein Datenspeichergerät mit der LIDAR-Sensor-Management-Software, wobei das Datenspeichergerät in die Lage versetzt wird, die LIDAR-Sensor-Management-Software auszuführen. Das Datenspeichergerät kann entweder eine Festplatte, ein RAM oder andere übliche Datenspeicher wie USB-Speichergeräte, CDs, DVDs und ähnliches umfassen.
  • Das LIDAR-Sensorsystem, insbesondere die LIDAR-Sensormanagement-Software, kann so konfiguriert werden, dass es die Lenkung von automatisch geführten Fahrzeugen (AGV) steuert.
  • In einigen Ausführungsformen ist das Rechengerät so konfiguriert, dass es die LIDAR-Sensor-Management-Software ausführt.
  • Die LIDAR-Sensormanagement-Software kann jedes Mitglied aus der folgenden Gruppe oder einer Kombination davon umfassen: Software-Regeln zur Anpassung des Lichts an die Außenbedingungen, zur Anpassung der Lichtintensität des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts an die Umgebungsbedingungen, zur Anpassung des Lichtspektrums des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts an die Umgebungsbedingungen, zur Anpassung des Lichtspektrums des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts an die Bedingungen der Verkehrsdichte, zur Anpassung des Lichtspektrums des mindestens einen LIDAR-Sensorsystems und/oder LIDAR-Sensorgeräts gemäß Kundenspezifikation oder gesetzlichen Anforderungen.
  • Nach einigen Ausführungsformen umfasst das gesteuerte LIDAR-Sensorsystem ferner ein Rückkopplungssystem, das mit mindestens einer Hardwareschnittstelle verbunden ist. Das Rückkopplungssystem kann einen oder mehrere Sensoren zur Überwachung des Überwachungszustands umfassen, für die das gesteuerte LIDAR-Sensorsystem vorgesehen ist. Der Überwachungszustand kann zum Beispiel durch mindestens einen der folgenden Faktoren beurteilt werden: Verkehrsunfälle, erforderliche Fahrerinteraktion, Signal-Rausch-Verhältnisse, Biofeedback-Signale des Fahrers, Begegnungen im Nahbereich, Kraftstoffverbrauch und Batteriestatus.
  • Das gesteuerte LIDAR-Sensorsystem kann ferner eine Rückkoppelungssoftware umfassen.
  • Die Rückkopplungssoftware kann in einigen Ausführungsformen Algorithmen zur Lenkungsbewertung eines Fahrzeugs (LIDAR-Sensorgerät) auf der Grundlage der Daten der Sensoren umfassen.
  • Die Rückkopplungssoftware des gesteuerten LIDAR-Sensorsystems kann in einigen Ausführungsformen Algorithmen zur Ableitung von Überwachungsstrategien und/oder Beleuchtungsstrategien auf der Basis der Sensordaten aufweisen.
  • Die Rückkopplungssoftware des gesteuerten LIDAR-Sensorsystems kann in einigen Ausführungsformen der vorliegenden Offenbarung LIDAR-Beleuchtungszeitpläne und -charakteristiken in Abhängigkeit von einem beliebigen Mitglied aus der folgenden Gruppe oder einer Kombination davon umfassen: Verkehrsunfälle, erforderliche Fahrerinteraktion, Signal-Rausch-Verhältnisse, Fahrer-Biofeedback-Signale, Nahbegegnungen, Straßenwarnungen, Kraftstoffverbrauch, Batteriestatus, andere autonom fahrende Fahrzeuge.
  • Die Rückkopplungssoftware kann so konfiguriert werden, dass sie der LIDAR-Sensor-Management-Software Anweisungen zur selbständigen Anpassung der Überwachungsbedingungen der Umgebung gibt.
  • Die Rückkopplungssoftware kann Algorithmen zur Interpretation von Sensordaten und zum Vorschlagen von Korrekturmaßnahmen für die LIDAR-Sensor-Management-Software umfassen.
  • In einigen Ausführungsformen des LIDAR-Sensorsystems basieren die Anweisungen an die LIDAR-Sensor-Management-Software auf Messwerten und/oder Daten eines beliebigen Mitglieds, das aus der folgenden Gruppe oder einer Kombination davon ausgewählt wird: Fahrzeug (LIDAR-Sensorgerät)-Geschwindigkeit, Entfernung, Dichte, Fahrzeugspezifikation und Klasse.
  • Das LIDAR-Sensorsystem kann daher über eine Datenschnittstelle verfügen, um die Messwerte und/oder Daten zu empfangen. Die Datenschnittstelle kann für drahtgebundene Übertragung oder drahtlose Übertragung vorgesehen sein. Insbesondere ist es möglich, dass die Messwerte oder die Daten von einem Zwischenspeicher, wie z.B. einem Cloud-basierten, webbasierten, netzwerkbasierten oder lokalen Speicher, empfangen werden.
  • Darüber hinaus können die Sensoren zur Erfassung von Umweltbedingungen mit Hilfe von Cloud-basierten Diensten, die oft auch als Internet der Dinge bezeichnet werden, verbunden oder miteinander verbunden werden.
  • In einigen Ausführungsformen umfasst das gesteuerte LIDAR-Sensorsystem eine Software-Benutzeroberfläche (UI), insbesondere eine grafische Benutzeroberfläche (GUI). Die Software-Benutzerschnittstelle kann für die Lichtsteuerungssoftware und/oder die LIDAR-Sensor-Management-Software und/oder die Rückkopplungssoftware bereitgestellt werden.
  • Die Software-Benutzerschnittstelle (Ul) kann ferner eine Datenkommunikation und Mittel zur Datenkommunikation für ein Ausgabegerät, wie z.B. ein Augmented- und/oder Virtual-Reality-Display, umfassen.
  • Die Benutzerschnittstelle kann als Anwendung für ein mobiles Gerät implementiert werden, wie z.B. ein Smartphone, ein Tablet, ein mobiler Computer oder ähnliche Geräte.
  • Das gesteuerte LIDAR-Sensorsystem kann ferner eine Anwendungsprogrammierschnittstelle (API) zur Steuerung des LIDAR-Sensorsystems durch Dritte und/oder zur Integration von Daten Dritter, z.B. Straßen- oder Verkehrsbedingungen, Straßengebühren, Energiepreise, Wetterdaten, GPS, umfassen.
  • In einigen Ausführungsformen umfasst das gesteuerte LIDAR-Sensorsystem eine Softwareplattform, die zumindest eines von Überwachungsdaten, Status des Fahrzeugs (LIDAR-Sensorgerät), Fahrstrategien und emittiertes Erfassungslicht bereitstellt.
  • In einigen Ausführungsformen kann das LIDAR-Sensorsystem und/oder das gesteuerte LIDAR-Sensorsystem infrarotes oder sichtbares Licht emittierende Module, photoelektrische Sensoren, optische Komponenten, Schnittstellen für die Datenkommunikation und Aktoren, wie MEMS-Spiegelsysteme, ein Rechen- und Datenspeichergerät, eine Software und Software-Datenbank, ein Kommunikationssystem für die Kommunikation mit loT-, Edge- oder Cloud-Systemen umfassen.
  • Das LIDAR-Sensorsystem und/oder das gesteuerte LIDAR-Sensorsystem kann lichtemittierende und lichtempfindliche Elemente aufweisen, die für Beleuchtungs- oder Signalisierungszwecke, wie z.B. Straßenbeleuchtung, oder für Datenkommunikationszwecke, wie z.B. Car-to-Car, Car-to-Environment, verwendet werden können.
  • In einigen Ausführungsformen kann das LIDAR-Sensorsystem und/oder das gesteuerte LIDAR-Sensorsystem in der Fahrerkabine installiert werden, um Fahrerüberwachungsfunktionen durchzuführen (z. B. Belegungserkennung, Blickverfolgung, Gesichtserkennung, Müdigkeitserkennung, Zugangsberechtigung, Gestensteuerung usw.) und/oder um mit einem Head-up-Display (HUD) zu kommunizieren.
  • Die Software-Plattform kann Daten aus dem eigenen oder anderen Fahrzeugen (LIDAR-Sensorgeräte) kumulieren, um maschinelle Lernalgorithmen zur Verbesserung von Überwachungs- und Fahrzeuglenkstrategien zu trainieren.
  • Das gesteuerte LIDAR-Sensorsystem kann auch mehrere LIDAR-Sensorsysteme umfassen, die in einstellbaren Gruppen angeordnet sind.
  • Die vorliegende Offenbarung bezieht sich ferner auf ein Fahrzeug (LIDAR-Sensorgerät) mit mindestens einem LIDAR-Sensorsystem. Das Fahrzeug kann speziell für die Integration des LIDAR-Sensorsystems geplant und gebaut werden. Es ist jedoch auch möglich, dass das gesteuerte LIDAR-Sensorsystem in ein bereits existierendes Fahrzeug integriert wurde. Nach der vorliegenden Offenbarung soll auf beide Fälle sowie auf eine Kombination dieser Fälle Bezug genommen werden.
  • Verfahren für ein LIDAR-Sensorsystem
  • Nach einem weiteren Aspekt der vorliegenden Offenbarung wird ein Verfahren für ein LIDAR-Sensorsystem bereitgestellt, das mindestens ein LIDAR-Sensorsystem umfasst. Das Verfahren kann die Schritte der Steuerung des von dem mindestens einen LIDAR-Sensorsystem emittierten Lichts durch Bereitstellung von Lichtsteuerdaten an die Hardwareschnittstelle des gesteuerten LIDAR-Sensorsystems und/oder die Erfassung der Sensoren und/oder die Steuerung der Aktoren des gesteuerten LIDAR-Sensorsystems über das LIDAR-Sensormanagementsystem umfassen.
  • Gemäß einem weiteren Aspekt der vorliegenden Offenbarung kann das Verfahren für das LIDAR-Sensorsystem so konfiguriert und gestaltet werden, dass es auf der Grundlage der internen oder externen Dateneingabe, der Laserleistung, der Pulsformen, der Pulslänge, der Messzeitfenster, der Wellenlänge, der Ein- oder Mehrwellenlängenannäherung, der Tag- und Nachteinstellungen, des Sensortyps, der Sensorfusion sowie der Lasersicherheitsfunktionen gemäß den einschlägigen Sicherheitsvorschriften ausgewählt, betrieben und gesteuert werden kann.
  • Das Verfahren gemäß der vorliegenden Offenbarung kann ferner den Schritt der Erzeugung von Lichtsteuerdaten zur Anpassung des Lichts des mindestens einen LIDAR-Sensorsystems an die Umgebungsbedingungen umfassen.
  • In einigen Ausführungsformen werden die Lichtsteuerdaten unter Verwendung der vom Tageslicht- oder Nachtsichtsensor gelieferten Daten erzeugt.
  • Nach einigen Ausführungsformen werden die Lichtsteuerdaten mit Hilfe von Daten erzeugt, die von einer Wetter- oder Verkehrssteuerungsstation bereitgestellt werden.
  • Die Lichtsteuerdaten können in einigen Ausführungsformen auch unter Verwendung von Daten generiert werden, die von einem Versorgungsunternehmen zur Verfügung gestellt werden.
  • Vorteilhaft ist, dass die Daten aus einer Datenquelle gewonnen werden können, während diese eine Datenquelle, z.B. mittels Internet der Dinge, mit diesen Geräten verbunden sein kann. Auf diese Weise können die Daten vor der Freigabe an das LIDAR-Sensorsystem voranalysiert werden, fehlende Daten können identifiziert werden, und in weiteren vorteilhaften Entwicklungen können auch spezifische vordefinierte Daten unterstützt oder durch „Beste-Annahme“-Werte einer maschinellen Lernsoftware ersetzt werden.
  • In einigen Ausführungsformen umfasst das Verfahren ferner den Schritt, das Licht des mindestens einen LIDAR-Sensorgeräts zum Beispiel während der Tages- oder Nachtzeit zu nutzen, wenn die Verkehrsbedingungen am besten sind. Natürlich können auch andere Bedingungen für die Anwendung des Lichts in Betracht gezogen werden.
  • In einigen Ausführungsformen kann das Verfahren einen Schritt umfassen, bei dem das Licht des mindestens einen LIDAR-Sensorsystems in Abhängigkeit von einer vorgegebenen Bedingung ausgeschaltet wird. Eine solche Bedingung kann zum Beispiel auftreten, wenn die Geschwindigkeit des Fahrzeugs (LIDAR-Sensorgerät) oder der Abstand zu einem anderen Verkehrsobjekt geringer ist als ein vordefinierter oder erforderlicher Sicherheitsabstand oder Sicherheitszustand.
  • Das Verfahren kann auch den Schritt des Weitergebens von Benachrichtigungen an die Benutzerschnittstelle im Falle von Risiken oder Fehlfunktionen und des Fahrzeuggesundheitszustands umfassen.
  • In einigen Ausführungsformen umfasst das Verfahren die Analyse von Sensordaten zur Ableitung der Verkehrsdichte und der Fahrzeugbewegung.
  • Die Funktionen des LIDAR-Sensorsystems können über eine Benutzerschnittstelle oder andere Benutzer-Feedback-Daten eingestellt oder ausgelöst werden. Die Einstellung kann auch durch einen maschinellen Lernprozess ausgelöst werden, sofern die zu verbessernden oder zu optimierenden Eigenschaften durch Sensoren zugänglich sind. Es ist auch möglich, dass einzelne Benutzer die Überwachungsbedingungen und/oder weitere Überwachungsparameter an individuelle Bedürfnisse oder Wünsche anpassen.
  • Das Verfahren kann auch den Schritt des Hochladens von LIDAR-Erfassungsbedingungen auf eine Software-Plattform und/oder das Herunterladen von Erfassungsbedingungen von einer Software-Plattform umfassen.
  • In mindestens einer Ausführungsform umfasst das Verfahren einen Schritt der Protokollierung von Leistungsdaten in einem LIDAR-erfassenden Notizbuch.
  • Die im gesteuerten LIDAR-Sensorsystem kumulierten Daten können in einem Verfahrensschritt analysiert werden, um direkt oder indirekt Wartungsperioden des LIDAR-Sensorsystems, erwartete Ausfälle von Systemkomponenten oder ähnliches zu bestimmen.
  • Nach einem anderen Aspekt umfasst die vorliegende Offenbarung ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen umfasst, die, wenn sie von einem Computersystem eines LIDAR-Sensorsystems ausgeführt werden, das gesteuerte LIDAR-Sensorsystem veranlassen, das Verfahren entsprechend der vorliegenden Offenbarung auszuführen. Die Offenbarung umfasst ferner ein Datenspeichergerät.
  • Ein weiterer Aspekt der vorliegenden Offenbarung bezieht sich auf ein Datenspeichergerät mit einem Computerprogramm, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem oder ein LIDAR-Sensorgerät ausführen kann.
  • Bevorzugte Ausführungsformen finden sich in den unabhängigen und abhängigen Ansprüchen und in der gesamten Offenbarung, wobei bei der Beschreibung und Darstellung der Merkmale nicht immer detailliert zwischen den verschiedenen Anspruchskategorien unterschieden wird; in jedem Fall ist die Offenbarung implizit immer sowohl auf das Verfahren als auch auf entsprechend ausgestattete Kraftfahrzeuge (LIDAR-Sensorgeräte) und/oder ein entsprechendes Computerprogrammprodukt gerichtet.
  • Figurenliste
  • Die detaillierte Beschreibung wird unter Bezugnahme auf die begleitenden Abbildungen beschrieben. Die Verwendung derselben Referenznummer in verschiedenen Fällen in der Beschreibung und in der Figur kann auf einen ähnlichen oder identischen Artikel hinweisen. Die Zeichnungen sind nicht notwendigerweise maßstabsgetreu, vielmehr liegt der Schwerpunkt im Allgemeinen auf der Veranschaulichung der Grundsätze der vorliegenden Offenbarung.
  • In der folgenden Beschreibung werden verschiedene Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die folgenden Zeichnungen beschrieben, in denen:
    • 1 zeigt schematisch eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems, des gesteuerten LIDAR-Sensorsystems und des LIDAR-Sensorgeräts.
    • 2 zeigt eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems mit einer dynamischen Blendenvorrichtung.
    • 3 zeigt eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems mit einer dynamischen Blendenvorrichtung.
    • 4 zeigt eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion.
    • 5 zeigt eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion.
    • 6 zeigt eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion.
    • 7 zeigt eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion.
    • 8 ist eine Draufsicht auf eine typische Straßenverkehrssituation in schematischer Form, die die Prinzipien der Offenbarung für ein System zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer zeigt.
    • 9 ist eine perspektivische Betrachtung eines Kleidungsstücks als erklärendes zweites Objekt in einem System zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer gemäß 8.
    • 10 ist ein Schema des offenbarten Verfahrens für ein System zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer.
    • 11 zeigt eine Ausführungsform eines Teils des vorgeschlagenen LIDAR-Sensorsystems mit gemischter Signalverarbeitung.
    • 12A bis 12C veranschaulichen die Funktionsweise und das Anwendungsprinzip einer einzelnen Photonen-Lawinendiode (SPAD) nach verschiedenen Ausführungsformen.
    • 13A bis 13D veranschaulichen die verschiedenen Diagramme der SPAD-Ereignisdetektoren in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 14 zeigt ein Blockdiagramm eines LIDAR-Aufbaus für zeitgesteuerte Messungen auf der Grundlage statistischer Photonenzahlauswertung an verschiedenen Zeitfensterpositionen während der Einschwingzeit des Laserpulses entsprechend verschiedener Ausführungsformen.
    • 15A bis 15D veranschaulichen die Verbindung zwischen einem Photonic-IC (PIC) (als Sensorelement) und dem Standard-Electronic-IC (EIC) nach verschiedenen Ausführungsformen.
    • 16 zeigt eine Implementierung einer TIA nach verschiedenen Ausführungsformen.
    • 17 zeigt eine Implementierung eines TAC in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 18 zeigt eine weitere Implementierung eines TAC in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 19A bis 19C zeigen verschiedene Implementierungen einer Ausleseschaltung in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 20A und 20B zeigen verschiedene Implementierungen einer Ausleseschaltung in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 21A und 21B zeigen verschiedene Implementierungen einer Ausleseschaltung in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 22 zeigt eine Ausführungsform eines Teils des vorgeschlagenen LIDAR-Sensorsystems mit gemischter Signalverarbeitung.
    • 23 zeigt eine Ausführungsform eines Teils des vorgeschlagenen LIDAR-Sensorsystems mit gemischter Signalverarbeitung.
    • 24 zeigt ein Flussdiagramm, das ein Verfahren zum Betrieb eines LIDAR-Sensorsystems veranschaulicht.
    • 25A zeigt eine Schaltungsarchitektur für die kontinuierliche Erfassung von Wellenformen.
    • 25B zeigt eine Beispielkurvenform des von einem einzelnen Pixel empfangenen Signals über die Zeit und die jeweiligen Triggerereignisse, die vom Ereignisdetektor nach verschiedenen Ausführungsformen erzeugt werden.
    • 26 zeigt einen Ausschnitt des LIDAR-Sensorsystems in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 27 zeigt einen Ausschnitt der Oberfläche eines Sensors in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 28 zeigt einen Ausschnitt eines SiPM-Detektorarrays in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 29A bis 29C zeigen eine gesendete Pulsfolge, die vom ersten LIDAR-Sensorsystem ausgesendet wird (29A), eine empfangene Pulsfolge, die vom zweiten LIDAR-Sensorsystem empfangen wird ( 29B), und ein Diagramm, das eine Kreuzkorrelationsfunktion für die gesendete Pulsfolge und die empfangene Pulsfolge (29C) gemäß verschiedenen Ausführungsformen darstellt.
    • 30 zeigt ein Blockdiagramm, das ein Verfahren in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulicht.
    • 31A und 31B zeigen Zeitdiagramme, die ein Verfahren in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulichen.
    • 32 zeigt ein Flussdiagramm, das ein Verfahren in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulicht.
    • 33 zeigt ein konventionelles optisches System für ein LIDAR-Sensorsystem.
    • 34A zeigt eine dreidimensionale Ansicht eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 34B zeigt eine dreidimensionale Ansicht eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen ohne Anordnung einer Kollektoroptik.
    • 34C zeigt eine Draufsicht auf ein optisches System für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen ohne Anordnung einer Kollektoroptik.
    • 34D zeigt eine Seitenansicht eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen ohne Anordnung einer Kollektoroptik.
    • 35 zeigt eine Draufsicht auf ein optisches System für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 36 zeigt eine Seitenansicht eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 37A zeigt eine Draufsicht auf ein optisches System für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 37B zeigt eine weitere Seitenansicht eines optischen Systems für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 37C zeigt eine dreidimensionale Ansicht eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 37D zeigt eine dreidimensionale Ansicht eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 37E zeigt eine Draufsicht auf ein optisches System für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 37F zeigt eine weitere Seitenansicht eines optischen Systems für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 38 zeigt einen Ausschnitt eines Sensors in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 39 zeigt einen Ausschnitt eines Sensors in Übereinstimmung mit verschiedenen Ausführungsformen im Detail.
    • 40 zeigt einen Ausschnitt eines Sensors nach verschiedenen Ausführungsformen im Detail.
    • 41 zeigt einen Ausschnitt eines Sensors nach verschiedenen Ausführungsformen im Detail.
    • 42 zeigt eine aufgenommene Szene und die Sensorpixel, die zur Erkennung der Szene gemäß den verschiedenen Ausführungsformen verwendet wurden, im Detail.
    • 43 zeigt eine aufgenommene Szene und die Sensorpixel, die zur Erkennung der Szene gemäß den verschiedenen Ausführungsformen verwendet wurden, im Detail.
    • 44 zeigt ein Flussdiagramm, in dem ein Verfahren für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen näher erläutert wird.
    • 45 zeigt ein Flussdiagramm, das ein weiteres Verfahren für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen näher erläutert.
    • 46 zeigt einen Ausschnitt des LIDAR-Sensorsystems in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 47 zeigt ein Diagramm, das den Einfluss einer an eine Fotodiode vom Lawinentyp angelegten Sperrvorspannung auf den Lawineneffekt veranschaulicht.
    • 48 zeigt eine Schaltung nach verschiedenen Ausführungsformen.
    • 49 zeigt eine Schaltung nach verschiedenen Ausführungsformen im Detail.
    • 50 zeigt ein Flussdiagramm, das ein Verfahren in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulicht.
    • 51 zeigt einen Querschnitt durch eine optische Komponente für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 52A und 52B zeigen eine Querschnittsansicht einer optischen Komponente für ein LIDAR-Sensorsystem (52A) und ein entsprechendes Wellenlängen-/Transmissionsdiagramm (52B) nach verschiedenen Ausführungsformen.
    • 53A und 53B zeigen eine Querschnittsansicht einer optischen Komponente für ein LIDAR-Sensorsystem (53A) und ein entsprechendes Wellenlängen-/Transmissionsdiagramm (53B) nach verschiedenen Ausführungsformen.
    • 54 zeigt einen Querschnitt eines Sensors für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 55 zeigt eine Draufsicht auf einen Sensor für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 56 zeigt eine Draufsicht auf einen Sensor für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 57 zeigt eine Draufsicht auf einen Sensor für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 58 zeigt einen Querschnitt durch eine optische Komponente für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 59 zeigt ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 60 zeigt ein optisches Stromnetz nach verschiedenen Ausführungsformen.
    • 61 zeigt ein Flüssigkristallgerät nach verschiedenen Ausführungsformen.
    • 62 zeigt eine Polarisationseinrichtung nach verschiedenen Ausführungsformen.
    • 63 zeigt die optischen Leistungsverteilungen nach verschiedenen Ausführungsformen.
    • 64 zeigt die Laserstrahlprofilformung nach verschiedenen Ausführungsformen.
    • 65 zeigt ein LIDAR-Fahrzeug und -Sichtfeld nach verschiedenen Ausführungsformen.
    • 66 zeigt ein LIDAR-Sichtfeld nach verschiedenen Ausführungsformen.
    • 67 zeigt Lichtschwingungen und -polarisationen nach verschiedenen Ausführungsformen.
    • 68 zeigt einen Überblick über einen Teil des LIDAR-Sensorsystems.
    • 69 veranschaulicht ein Verdrahtungsschema, bei dem die Mehrzahl der kreuzenden Verbindungen zwischen den Verbindungsstrukturen des Empfänger-Fotodiodenarrays und den Eingängen der Multiplexer besteht.
    • 70 zeigt einen Überblick über einen Teil des LIDAR-Sensorsystems, der ein Verdrahtungsschema nach verschiedenen Ausführungsformen zeigt.
    • 71 zeigt einen Überblick über einen Teil des LIDAR-Sensorsystems, in dem ein Verdrahtungsschema nach verschiedenen Ausführungsformen detaillierter dargestellt ist.
    • 72 zeigt ein Empfänger-Fotodiodenarray, das als Chip-on-Board-Fotodiodenarray implementiert ist.
    • 73 zeigt einen Teil des LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 74 zeigt einen Ausschnitt des LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 75 zeigt einen Ausschnitt des LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 76 zeigt einen Ausschnitt eines LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 77 zeigt einen Ausschnitt eines LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 78 zeigt einen Ausschnitt eines LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 79 zeigt den Aufbau einer Doppellinse mit zwei Meta-Flächen nach verschiedenen Ausführungsformen.
    • 80 zeigt einen Ausschnitt eines LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 81 zeigt eine Seitenansicht eines Fahrzeugs nach verschiedenen Ausführungsformen.
    • 82 zeigt eine Draufsicht auf das Fahrzeug der 81.
    • 83 zeigt ein Flussdiagramm, das ein im ersten LIDAR-Sensorsystem durchgeführtes Verfahren nach verschiedenen Ausführungsformen veranschaulicht.
    • 84 zeigt ein Flussdiagramm, das einen im zweiten LIDAR-Sensorsystem durchgeführtes Verfahren nach verschiedenen Ausführungsformen veranschaulicht.
    • 85 zeigt ein System, das ein Fahrzeug, ein Fahrzeugsensorsystem und ein externes Objekt nach verschiedenen Ausführungsformen umfasst.
    • 86 zeigt ein Verfahren nach verschiedenen Ausführungsformen.
    • 87 zeigt ein Verfahren nach verschiedenen Ausführungsformen im Detail.
    • 88 zeigt ein Verfahren nach verschiedenen Ausführungsformen im Detail.
    • 89 zeigt eine optische Komponente nach verschiedenen Ausführungsformen.
    • 90 zeigt eine Draufsicht auf das erste LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
    • 91 zeigt eine Seitenansicht des ersten LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 92 zeigt eine Seitenansicht eines Teils des ersten LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 93A bis 93D zeigen die Winkelintensitätsverteilung für eine doppelseitige MLA mit vier Zonen.
    • 94 zeigt eine Seitenansicht eines Teils des ersten LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 95A bis 95C zeigen verschiedene Beispiele für ein einseitiges MLA nach verschiedenen Ausführungsformen.
    • 96A und 96B zeigen verschiedene Beispiele für eine Kombination der jeweiligen einseitigen MLA zu einer zweiteiligen doppelseitigen MLA nach verschiedenen Ausführungsformen.
    • 97 zeigt einen Teil des zweiten LIDAR-Sensorsystems nach verschiedenen Ausführungsformen.
    • 98 zeigt eine Draufsicht eines Systems einschließlich einer optischen Anordnung in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 99 zeigt eine Draufsicht auf ein System einschließlich einer optischen Anordnung in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 100A zeigt eine Draufsicht eines Systems einschließlich einer optischen Anordnung in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 100B zeigt eine Seitenansicht eines Systems einschließlich einer optischen Anordnung in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 101A und 101B zeigen eine Draufsicht eines Systems einschließlich einer optischen Anordnung in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 102A zeigt einen Sensor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 102B zeigt eine schematische Darstellung eines bildgebenden Verfahrens nach verschiedenen Ausführungsformen.
    • 103 zeigt ein System mit einem optischen Gerät in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 104A und 104B zeigen jeweils ein optisches Gerät in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 105A zeigt ein optisches Gerät in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 105B, 105C und 105D zeigen jeweils einen Teil eines Systems einschließlich einer optischen Vorrichtung in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 105E und 105F zeigen jeweils ein Teil eines optischen Gerätes in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 106A und 106B zeigen jeweils ein Teil eines optischen Geräts in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 107 zeigt ein Sensorgerät in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 108 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 109 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 110 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 111 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 112A zeigt eine optische Komponente in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 112B zeigt eine optische Komponente in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 113 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 114 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 115 zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 116A zeigt ein LIDAR-System in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 116B zeigt einen Ausschnitt eines LIDAR-Systems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 116C und 116D zeigen jeweils einen Sensor in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 117 zeigt eine Schaltung in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 118 zeigt die Signalverarbeitung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 119 zeigt ein Diagramm zur Signalverarbeitung nach verschiedenen Ausführungsformen.
    • 120 zeigt die Draufsicht auf ein LIDAR-System in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 121A bis 121D zeigen jeweils einen Sensor in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 122 zeigt einen Sensor in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 123 zeigt ein Fahrzeug in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 124 zeigt ein Verfahren nach verschiedenen Ausführungsformen.
    • 125A und 125B zeigen jeweils ein System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 126 zeigt in einer schematischen Darstellung ein System und einen Signalweg nach verschiedenen Ausführungsformen.
    • 127 zeigt ein Verfahren nach verschiedenen Ausführungsformen.
    • 128 zeigt ein Verfahren nach verschiedenen Ausführungsformen.
    • 129A und 129B zeigen jeweils ein System in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 130 zeigt in einer schematischen Darstellung ein System und einen Signalweg nach verschiedenen Ausführungsformen.
    • 131A bis 131G zeigen jeweils einen Rahmen (Frame) oder einen Rahmenteil in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 132A zeigt die Abbildung eines Rahmens auf ein Zeitbereichssignal in einer schematischen Darstellung gemäß verschiedenen Ausführungsformen.
    • 132B und 132C zeigen jeweils einen Zeitbereichspuls in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 133A zeigt ein Entfernungsmesssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 133B und 133C zeigen in einer schematischen Darstellung einen oder mehrere Rahmen, die von einem Entfernungsmesssystem nach verschiedenen Ausführungsformen ausgestrahlt werden.
    • 133D zeigt die Aussendung und den Empfang eines Lichtsignals durch ein Entfernungsmesssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 133E zeigt die Auswertung einer Autokorrelation und/oder Kreuzkorrelation zwischen zwei Signalen in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 133F zeigt die Aussendung und den Empfang eines Lichtsignals durch ein Entfernungsmesssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 133G zeigt die Auswertung einer Autokorrelation und/oder Kreuzkorrelation zwischen zwei Signalen in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 134A bis 134C zeigen jeweils ein Entfernungsmesssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 135A bis 135F zeigen jeweils einen oder mehrere Teile eines Entfernungsmesssystems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 135G zeigt ein Codebuch in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 136A bis 136D zeigen jeweils einen oder mehrere Indikatorvektoren in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 137 zeigt ein Flussdiagramm eines Algorithmus nach verschiedenen Ausführungsformen.
    • 138 zeigt einen Ausschnitt eines Entfernungsmesssystems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 139A und 139B zeigen jeweils den Aufbau eines Rahmens in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 139C zeigt in einer schematischen Darstellung die Funktionsweise des Entfernungsmesssystems in Bezug auf einen Rahmen nach verschiedenen Ausführungsformen.
    • 140A zeigt eine Zeitbereichsdarstellung eines Rahmens in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 140B und 140C zeigen jeweils eine Zeitbereichsdarstellung eines Rahmensymbols in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
    • 140D zeigt eine- Zeitbereichsdarstellung mehrerer Rahmen in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 141A zeigt einen Graphen, der sich auf ein 1-persistentes Lichtemissionsschema nach verschiedenen Ausführungsformen bezieht.
    • 141B zeigt ein Flussdiagramm in Bezug auf ein 1-persistentes Lichtemissionsschema nach verschiedenen Ausführungsformen.
    • 141C zeigt einen Graphen, der sich auf ein nicht persistentes Lichtemissionsschema nach verschiedenen Ausführungsformen bezieht.
    • 141D zeigt ein Flussdiagramm in Bezug auf ein nicht persistentes Lichtemissionsschema nach verschiedenen Ausführungsformen.
    • 141E zeigt einen Graphen in Bezug auf ein p-persistentes Lichtemissionsschema nach verschiedenen Ausführungsformen.
    • 141F zeigt ein Flussdiagramm in Bezug auf ein p-persistentes Lichtemissionsschema nach verschiedenen Ausführungsformen.
    • 141G zeigt einen Graphen in Bezug auf ein Schema für eine erzwungene Wartezeit mit persistenter Lichtemission nach verschiedenen Ausführungsformen.
    • 141H zeigt ein Flussdiagramm, das sich auf ein Schema zur erzwungenen Wartezeit-Dauerlichtemission nach verschiedenen Ausführungsformen bezieht.
    • 142A zeigt einen Graphen, der sich auf ein Lichtemissionsschema bezieht, einschließlich einer Back-Off-Zeit nach verschiedenen Ausführungsformen.
    • 142B zeigt ein Flussdiagramm in Bezug auf ein Lichtemissionsschema einschließlich einer Back-Off-Zeit nach verschiedenen Ausführungsformen.
    • 143A zeigt ein Flussdiagramm in Bezug auf ein Lichtemissionsschema mit Kollisionserkennung nach verschiedenen Ausführungsformen.
    • 143B zeigt ein Flussdiagramm in Bezug auf ein Lichtemissionsschema einschließlich einer Back-Off-Zeit und einer Kollisionserkennung nach verschiedenen Ausführungsformen.
    • 144 zeigt ein Flussdiagramm in Bezug auf ein Lichtemissionsschema einschließlich eines Fehlererkennungsprotokolls nach verschiedenen Ausführungsformen.
    • 145A und 145B zeigen jeweils ein Entfernungsmesssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 145C zeigt einen Graphen mit einer Vielzahl von Wellenformen nach verschiedenen Ausführungsformen.
    • 145D zeigt ein Kommunikationssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 145E bis 145G zeigen jeweils ein elektrisches Diagramm nach verschiedenen Ausführungsformen.
    • 146 zeigt ein System mit zwei Fahrzeugen in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 147A zeigt einen Graphen im Zeitbereich mit einer Vielzahl von Wellenformen nach verschiedenen Ausführungsformen.
    • 147B zeigt einen Graphen im Frequenzbereich, der eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen enthält.
    • 147C zeigt eine Tabelle, die eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen beschreibt.
    • 147D zeigt einen Graphen im Zeitbereich mit einer Vielzahl von Wellenformen nach verschiedenen Ausführungsformen.
    • 147E zeigt einen Graphen im Frequenzbereich, der eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen enthält.
    • 147F zeigt eine Tabelle, die eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen beschreibt.
    • 147G zeigt einen Graphen im Zeitbereich mit einer Vielzahl von Wellenformen nach verschiedenen Ausführungsformen.
    • 147H zeigt einen Graphen im Frequenzbereich, der eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen enthält.
    • 1471 zeigt eine Tabelle, die eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen beschreibt.
    • 148A zeigt einen Graphen im Zeitbereich mit einer Vielzahl von Wellenformen nach verschiedenen Ausführungsformen.
    • 148B zeigt ein Oszilloskopbild mit einer Wellenform nach verschiedenen Ausführungsformen.
    • 148C und 148D zeigen jeweils einen Graphen im Frequenzbereich, der eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen enthält.
    • 148E zeigt eine Tabelle, die eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen beschreibt.
    • 149A zeigt einen Graphen im Zeitbereich mit einer Vielzahl von Wellenformen nach verschiedenen Ausführungsformen.
    • 149B zeigt ein Oszilloskopbild mit einer Wellenform nach verschiedenen Ausführungsformen.
    • 149C zeigt einen Graphen im Frequenzbereich, der eine Vielzahl von Signalen im Frequenzbereich nach verschiedenen Ausführungsformen enthält.
    • 149D zeigt einen Graphen nach verschiedenen Ausführungsformen.
    • 149E zeigt einen Graphen in Übereinstimmung mit verschiedenen Ausführungsformen.
    • 150A zeigt ein LIDAR-System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 150B zeigt die Funktionsweise des LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 150C zeigt Graphen, die eine Funktionsweise des LIDAR-Systems nach verschiedenen Ausführungsformen beschreiben.
    • 150D zeigt die Funktionsweise des LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 150E zeigt die Funktionsweise eines Teils des LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 150F zeigt einen Ausschnitt des LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 151A, 151B, 151C und 151D zeigen jeweils eine Segmentierung eines Sichtfeldes des LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 152A und 152B zeigen in einer schematischen Darstellung jeweils ein Binning von Lichtemittern nach verschiedenen Ausführungsformen.
    • 152C, 152D und 152E zeigen die Identifizierung von Regionen von Interesse in einer Übersichtsaufnahme in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 152F zeigt in einer schematischen Darstellung ein Binning der Lichtemitter in Verbindung mit den interessierenden Regionen nach verschiedenen Ausführungsformen.
    • 152G und 152H zeigen jeweils die Erzeugung von virtuellen Emissionsmustern in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 1521 und 152J zeigen jeweils die Erzeugung von Emissionsmustern in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 152K zeigt die Erzeugung eines kombinierten Emissionsmusters in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 153 zeigt ein Flussdiagramm für einen adaptiven komprimierten Abtastalgorithmus nach verschiedenen Ausführungsformen.
    • 154A und 154B zeigen jeweils ein LIDAR-System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 155A zeigt eine Seitenansicht eines optischen Gehäuses in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 155B zeigt ein Schaltungsäquivalent in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 155C zeigt ein Schaltungsäquivalent in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 156 zeigt eine Draufsicht auf ein optisches Gehäuse in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 157A zeigt eine Seitenansicht eines optischen Gehäuses in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 157B zeigt eine Draufsicht auf ein optisches Gehäuse in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 158 zeigt ein LIDAR-System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 159 zeigt ein Lichtemissionsschema in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 160A zeigt ein Lichtemissionsschema in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 160B zeigt ein Lichtemissionsschema in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 160C und 160D zeigen jeweils einen Aspekt eines Lichtemissionsschemas in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 160E zeigt eine Lichtemission nach einem Lichtemissionsschema in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 160F zeigt ein durch emittiertes Licht beleuchtetes Ziel in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 161A zeigt eine Lichtpulskennzeichnung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 161B zeigt einen Sensor, der Licht empfängt, in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 161C zeigt einen empfangenen Lichtpuls in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 162A zeigt ein LIDAR-System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 162B und 162C zeigen jeweils eine Sensordatendarstellung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 163A bis 163D zeigen jeweils einen Aspekt einer Bestimmung der Regionen in einer Sensordatendarstellung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 164A und 164B zeigen jeweils ein Flussdiagramm eines Algorithmus nach verschiedenen Ausführungsformen.
    • 164C zeigt einen Graphen, der ein Konfidenzniveau über die Zeit nach verschiedenen Ausführungsformen beschreibt.
    • 164D zeigt einen Graphen, der einen Schwellenakzeptanzbereich über die Zeit nach verschiedenen Ausführungsformen beschreibt.
    • 164E zeigt eine Bestimmung eines Schwellenakzeptanzbereichs in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 165A bis 165C zeigen jeweils ein Sensorsystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 166A bis 166D zeigen jeweils ein Sensorsystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 167 zeigt ein Sensorsystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 168A zeigt ein Sensorsystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 168B und 168C zeigen jeweils eine mögliche Konfiguration eines Sensorsystems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 169A zeigt ein Sensorgerät in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 169B zeigt eine Detektion von Infrarotlicht in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 169C zeigt einen Graphen, der eine Konfiguration eines Infrarotfilters nach verschiedenen Ausführungsformen zeigt.
    • 169D bis 169G zeigen jeweils ein Infrarotbild in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 170 zeigt eine Seitenansicht einer Optikanordnung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 171A zeigt eine Seitenansicht einer Optikanordnung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 171B zeigt eine Draufsicht auf eine optische Anordnung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 171C zeigt eine Korrekturlinse in perspektivischer Ansicht in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 172A bis 172C zeigen jeweils eine Seitenansicht einer Optikanordnung in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 173A zeigt ein Beleuchtungs- und Abtastsystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 173B zeigt eine Anordnung der Empfängeroptik in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 173C zeigt ein Zeitdiagramm, das den Betrieb eines Lichtemissionsreglers nach verschiedenen Ausführungsformen zeigt.
    • 174A zeigt eine Frontansicht eines Beleuchtungs- und Abtastsystems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 174B zeigt eine perspektivische Ansicht eines Kühlkörpers in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 174C zeigt eine Draufsicht auf eine Sender- und eine Empfängerseite eines LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 174D zeigt eine Vorderansicht einer Sender- und einer Empfängerseite eines LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 174E zeigt eine Frontansicht eines Beleuchtungs- und Abtastsystems in schematischer Darstellung nach verschiedenen Ausführungsformen.
    • 174F zeigt eine perspektivische Ansicht eines Kühlkörpers in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 174G zeigt eine Vorderansicht einer Sender- und einer Empfängerseite eines LIDAR-Systems in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 175 zeigt ein Fahrzeuginformations- und Steuerungssystem in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 176 zeigt ein LIDAR-System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 177A zeigt eine Verarbeitungseinheit in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 177B zeigt eine Extraktion eines Ereignissignalvektors in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 177C zeigt eine Verarbeitungseinheit in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 178A zeigt eine Tabelle, in der Lernvektoren in einer schematischen Darstellung nach verschiedenen Ausführungsformen gespeichert sind.
    • 178B bis 178G zeigen jeweils eine Darstellung eines entsprechenden Lernvektors nach verschiedenen Ausführungsformen.
    • 179A zeigt einen extrahierten Ereignissignalvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 179B zeigt einen rekonstruierten Ereignissignalvektor im Vergleich zu einem ursprünglich extrahierten Ereignissignalvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 179C zeigt einen Entfernungsspektrumsvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 179D zeigt einen rekonstruierten Ereignissignalvektor im Vergleich zu einem ursprünglich extrahierten Ereignissignalvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 180A zeigt eine Abweichungsmatrix in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 180B zeigt transformierte Lernvektoren in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 180C bis 180H zeigen jeweils eine Darstellung eines transformierten Lernvektors nach verschiedenen Ausführungsformen.
    • 181A zeigt einen extrahierten Ereignissignalvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 181B zeigt einen Merkmalsvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 181C zeigt einen rekonstruierten Ereignissignalvektor im Vergleich zu einem ursprünglich extrahierten Ereignissignalvektor in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
    • 182 zeigt ein Kommunikationssystem mit zwei Fahrzeugen und zwei etablierten Kommunikationskanälen nach verschiedenen Ausführungsformen.
    • 183 zeigt ein Kommunikationssystem mit einem Fahrzeug und einer Verkehrsinfrastruktur und zwei etablierten Kommunikationskanälen nach verschiedenen Ausführungsformen.
    • 184 zeigt ein Nachrichtenflussdiagramm, das einen einseitigen Zwei-Faktor-Authentifizierungsprozess nach verschiedenen Ausführungsformen veranschaulicht.
    • 185 zeigt ein Flussdiagramm, das einen gegenseitigen Zwei-Faktor-Authentifizierungsprozess nach verschiedenen Ausführungsformen veranschaulicht.
    • 186 zeigt ein Nachrichtenflussdiagramm, das einen gegenseitigen Zwei-Faktor-Authentifizierungsprozess nach verschiedenen Ausführungsformen veranschaulicht.
    • 187 zeigt ein Szenario der gegenseitigen Authentifizierung und ein Nachrichtenflussdiagramm innerhalb einer Kolonne nach verschiedenen Ausführungsformen.
    • 188 zeigt ein FoV eines LIDAR-Sensorsystems, dargestellt durch ein Gitter, das einen identifizierten beabsichtigten Kommunikationspartner (in 188 dargestelltes Fahrzeug) nach verschiedenen Ausführungsformen enthält.
  • DETAILLIERTE BESCHREIBUNG
  • EINFÜHRUNG
  • Autonom fahrende Fahrzeuge benötigen Erfassungsverfahren, die Objekte erkennen und deren Entfernungen schnell und zuverlässig abbilden. Light Detection and Ranging (LIDAR), manchmal auch Laser Detection and Ranging (LADAR), Flugzeitmessgerät (TOF), Laserscanner oder Laserradar genannt, ist ein Erfassungsverfahren, das Objekte erkennt und deren Abstände abbildet. Die Technologie funktioniert, indem ein Ziel mit einem optischen Puls beleuchtet und die Eigenschaften des reflektierten Rückkehrsignals gemessen werden. Die Breite des optischen Pulses kann von wenigen Nanosekunden bis zu mehreren Mikrosekunden reichen.
  • Um autonome Fahrzeuge in einer komplexen Fahrumgebung zu steuern und zu lenken, ist es unumgänglich, die Fahrzeuge mit schnellen und zuverlässigen Sensortechnologien auszustatten, die hochauflösende, dreidimensionale Informationen (Datenwolke oder Datencloud) über die Umgebung liefern und so eine ordnungsgemäße Fahrzeugsteuerung durch bord- oder cloudbasierte Computersysteme ermöglichen.
  • Für die Abstands- und Geschwindigkeitsmessung ist aus dem Stand der Technik ein LIDAR-Sensorsystem mit Lichterkennung und Reichweite bekannt. Mit LIDAR-Sensorsystemen ist es möglich, die Umgebung schnell abzutasten und Geschwindigkeit und Bewegungsrichtung einzelner Objekte (Fahrzeuge, Fußgänger, statische Objekte) zu erfassen. LIDAR-Sensorsysteme werden z.B. in teilautonomen Fahrzeugen oder völlig autonom fahrenden Prototypen, aber auch in Flugzeugen und Drohnen eingesetzt. Ein hochauflösendes LIDAR-Sensorsystem sendet einen (meist infraroten) Laserstrahl aus und verwendet darüber hinaus Linsen, Spiegel oder Mikrospiegelsysteme sowie geeignete Sensorvorrichtungen.
  • Die Offenbarung bezieht sich auf ein LIDAR-Sensorsystem zur Umgebungserfassung, wobei das LIDAR-Sensorsystem zur Durchführung wiederholter Messungen zur Erfassung der Umgebung ausgelegt ist, wobei das LIDAR-Sensorsystem eine Sendeeinheit (erstes LIDAR-Sensorsystem) aufweist, die zur Durchführung einer Messung mit mindestens einem Laserpuls ausgelegt ist, und wobei das LIDAR-System eine Erfassungseinheit (zweite LIDAR-Sensoreinheit) aufweist, die zur Erfassung eines objektreflektierten Laserpulses während eines Messzeitfensters ausgelegt ist. Weiterhin verfügt das LIDAR-System über eine Steuereinrichtung (LIDAR-Datenverarbeitungssystem / Steuer- und Kommunikationssystem / LIDAR-Sensormanagementsystem), die dazu ausgelegt ist, im Falle der Detektion mindestens einer reflektierten Strahlkomponente die detektierte Strahlkomponente anhand einer vorgegebenen Zuordnung einem Raumwinkelbereich, aus dem die Strahlkomponente stammt, zuzuordnen. Die Offenbarung umfasst auch ein Verfahren zum Betrieb eines LIDAR-Sensorsystems.
  • Die fragliche Abstandsmessung basiert auf einer Laufzeitmessung von ausgesendeten elektromagnetischen Pulsen. Das elektromagnetische Spektrum sollte vom Ultravioletten über das Sichtbare bis zum Infraroten reichen, einschließlich violetter und blauer Strahlung im Bereich von 405 bis 480 nm. Treffen diese auf ein Objekt, so wird der Puls anteilig auf die Entfernungsmesseinheit zurückreflektiert und kann mit einem geeigneten Sensor als Echopuls erfasst werden. Erfolgt die Aussendung des Pulses zu einem Zeitpunkt t0 und wird der Echopuls zu einem späteren Zeitpunkt t1 detektiert, kann der Abstand d zur reflektierenden Oberfläche des Objekts über die Laufzeit ΔtA = t1-t0 nach GI.1 bestimmt werden. d = Δ tA c/ 2
    Figure DE112020001131T5_0001
  • Da es sich um elektromagnetische Pulse handelt, ist c der Wert der Lichtgeschwindigkeit. Im Zusammenhang mit dieser Offenbarung umfasst das Wort elektromagnetisch das gesamte elektromagnetische Spektrum, also auch den ultravioletten, sichtbaren und infraroten Spektralbereich.
  • Das LIDAR-Verfahren arbeitet sinnvollerweise mit Lichtpulsen, die z.B. mit Halbleiterlaserdioden mit einer Wellenlänge zwischen etwa 850 nm bis etwa 1600 nm arbeiten, die eine FWHM-Pulsbreite von 1 ns bis 100 ns haben (FWHM = Full Width at Half Maximum, Halbwertsbreite). Denkbar sind im Allgemeinen auch Wellenlängen bis insbesondere etwa 8100 nm.
  • Darüber hinaus ist jedem Lichtpuls typischerweise ein Messzeitfenster zugeordnet, das mit der Aussendung des Messlichtpulses beginnt. Sollen sehr weit entfernte Objekte durch eine Messung detektierbar sein, wie z.B. Objekte in einer Entfernung von 300 Metern und weiter, muss dieses Messzeitfenster, innerhalb dessen geprüft wird, ob mindestens eine reflektierte Strahlkomponente empfangen wurde, mindestens zwei Mikrosekunden dauern. Darüber hinaus haben solche Messzeitfenster typischerweise einen zeitlichen Abstand zueinander.
  • Der Einsatz von LIDAR-Sensoren wird heute zunehmend im Automobilbereich eingesetzt. Dementsprechend werden LIDAR-Sensoren zunehmend in Kraftfahrzeuge eingebaut.
  • Die Offenbarung bezieht sich auch auf ein Verfahren zum Betrieb einer LIDAR-Sensorsystemanordnung, die ein erstes LIDAR-Sensorsystem mit einem ersten LIDAR-Sensor und mindestens ein zweites LIDAR-Sensorsystem mit einem zweiten LIDAR-Sensor umfasst, wobei der erste LIDAR-Sensor und der zweite LIDAR-Sensor wiederholt entsprechende Messungen durchführen, wobei die Messungen des ersten LIDAR-Sensors in jeweiligen ersten Messzeitfenstern durchgeführt werden, zu deren Beginn ein erster Messstrahl durch den ersten LIDAR-Sensor emittiert wird, und es wird geprüft, ob mindestens eine reflektierte Strahlkomponente des ersten Messstrahls innerhalb des jeweiligen ersten Messzeitfensters erfasst wird. Weiterhin werden die Messungen des mindestens einen zweiten LIDAR-Sensors in den jeweiligen zweiten Messzeitfenstern durchgeführt, zu deren Beginn ein zweiter Messstrahl von dem mindestens einen zweiten LIDAR-Sensor emittiert wird, und es wird überprüft, ob innerhalb des jeweiligen zweiten Messzeitfensters mindestens ein reflektierter Strahlanteil des zweiten Messstrahls detektiert wird. Die Offenbarung umfasst auch eine LIDAR-Sensorsystemanordnung mit einem ersten LIDAR-Sensor und mindestens einem zweiten LIDAR-Sensor.
  • Unter einem LIDAR (Light Detection and Ranging)-Sensorsystem ist insbesondere ein System zu verstehen, das neben einem oder mehreren Emittern zur Aussendung von Lichtstrahlen, z.B. in gepulster Form, und einem Detektor zur Detektion etwaiger reflektierter Strahlkomponenten weitere Vorrichtungen, z.B. optische Elemente wie Linsen und/oder einen MEMS-Spiegel, aufweisen kann.
  • Die Schwenkspiegel oder Mikrospiegel des MEMS (Micro-Electro-Mechanical System)-Systems, in einigen Ausführungsformen in Zusammenarbeit mit einem entfernt aufgestellten optischen System, ermöglichen die Abtastung eines Sichtfeldes in einem horizontalen Winkelbereich von z.B. 60 ° oder 120 ° und in einem vertikalen Winkelbereich von z.B. 30 °. Die Empfangseinheit oder der Sensor kann die einfallende Strahlung ohne räumliche Auflösung messen. Die Empfängereinheit kann auch ein Messgerät mit räumlicher Winkelauflösung sein. Die Empfängereinheit oder der Sensor kann eine Fotodiode aufweisen, z.B. eine Lawinenfotodiode (APD) oder eine Einzelphotonen-Lawinendiode (SPAD), eine PIN-Diode oder einen Fotomultiplier. Mit dem LIDAR-System können Objekte z.B. in einer Entfernung von bis zu 60 m, bis zu 300 m oder bis zu 600 m detektiert werden. Eine Reichweite von 300 m entspricht einem Signalweg von 600 m, woraus sich z.B. ein Messzeitfenster oder eine Messdauer von 2 µs ergeben kann.
  • Wie bereits beschrieben können optische Reflexionselemente in einem LIDAR-Sensorsystem mikroelektrische Spiegelsysteme (MEMS) und/oder digitale Spiegel (DMD) und/oder digitale Lichtverarbeitungselemente (DLP) und/oder ein Galvo-Scanner zur Steuerung der emittierten Laserstrahlpulse und/oder der Reflexion eines objektrückgestreuten Laserpulses auf eine Sensoroberfläche aufweisen. Vorteilhaft ist die Bereitstellung einer Vielzahl von Spiegeln. Diese können insbesondere in einigen Implementierungen in der Art einer Matrix angeordnet sein. Die Spiegel können einzeln und separat, unabhängig voneinander drehbar oder beweglich sein.
  • Die einzelnen Spiegel können jeweils Teil einer so genannten Mikrospiegeleinheit oder „Digital Micro-Mirror Device“ (DMD) sein. Ein DMD kann aus einer Vielzahl von Spiegeln, insbesondere Mikrospiegeln, bestehen, die mit hoher Frequenz zwischen mindestens zwei Positionen gedreht werden können. Jeder Spiegel ist in seinem Winkel individuell einstellbar und kann mindestens zwei stabile Positionen oder mit anderen Worten, insbesondere stabile Endzustände haben, zwischen denen er abwechseln kann. Die Anzahl der Spiegel kann der Auflösung eines projizierten Bildes entsprechen, wobei ein entsprechender Spiegel ein Lichtpixel auf der zu bestrahlenden Fläche darstellen kann. Ein „Digital Micro-Mirror Device“ ist eine mikro-elektromechanische Komponente zur dynamischen Modulation von Licht.
  • So kann das DMD zum Beispiel eine geeignete Beleuchtung für ein Fahrzeug mit Abblend- und/oder Fernlicht liefern. Darüber hinaus kann der DMD auch als Projektionslicht für die Projektion von Bildern, Logos und Informationen auf eine Oberfläche, z.B. eine Straße oder ein umliegendes Objekt, dienen. Die Spiegel oder das DMD können als mikro-elektromechanisches System (MEMS) ausgeführt werden. Eine Bewegung des jeweiligen Spiegels kann z.B. durch Erregung des MEMS hervorgerufen werden. Solche Mikro-Spiegelarrays sind z.B. bei Texas Instruments erhältlich. Die Mikrospiegel sind insbesondere matrixartig angeordnet, z.B. in einem Array von 854 x 480 Mikrospiegeln, wie im 0,3-Zoll-DMP-Spiegelsystem DLP3030-Q1, das von Texas Instruments für Automobilanwendungen optimiert wurde, oder in einem 1920 x 1080 Mikrospiegelsystem, das für Heimprojektionsanwendungen konzipiert wurde, oder in einem 4096 x 2160 Mikrospiegelsystem, das für 4K-Kinoprojektionsanwendungen konzipiert wurde, aber auch in einer Fahrzeuganwendung einsetzbar ist. Die Position der Mikrospiegel ist insbesondere individuell einstellbar, z.B. mit einer Taktrate von bis zu 32 kHz, so dass durch entsprechende Einstellung der Mikrospiegel vorgegebene Lichtmuster aus dem Scheinwerfer ausgekoppelt werden können.
  • In einigen Ausführungsformen kann die verwendete MEMS-Anordnung als 1D- oder 2D-MEMS-Anordnung zur Verfügung gestellt werden. In einer 1D-MEMS-Anordnung findet die Bewegung eines einzelnen Spiegels translatorisch oder rotatorisch um eine Achse statt. Bei einer 2D-MEMS-Anordnung ist der einzelne Spiegel kardanisch aufgehängt und schwingt um zwei Achsen, wobei die beiden Achsen einzeln eingesetzt werden können, so dass die Amplitude jeder Schwingung unabhängig von der anderen eingestellt und gesteuert werden kann.
  • Weiterhin kann eine von der Lichtquelle ausgehende Strahlung durch eine Struktur mit mindestens einem Flüssigkristallelement abgelenkt werden, wobei eine molekulare Orientierung des mindestens einen Flüssigkristallelements mittels eines elektrischen Felds einstellbar ist. Die Struktur, durch die die auszurichtende Strahlung geführt wird, kann aus mindestens zwei flächigen Elementen bestehen, die mit elektrisch leitfähigem und transparentem Beschichtungsmaterial beschichtet sind. Die Plattenelemente sind in einigen Ausführungsformen transparent und parallel im Abstand voneinander angeordnet. Die Transparenz der Plattenelemente und des elektrisch leitfähigen Beschichtungsmaterials ermöglicht die Transmission der Strahlung. Das elektrisch leitfähige und transparente Beschichtungsmaterial kann zumindest teilweise oder vollständig aus einem Material mit hoher elektrischer Leitfähigkeit oder einem kleinen elektrischen Widerstand wie Indiumzinnoxid (ITO) und/oder aus einem Material mit niedriger elektrischer Leitfähigkeit oder einem großen elektrischen Widerstand wie Poly-3,4-ethylendioxythiophen (PEDOT) hergestellt sein.
  • Das erzeugte elektrische Feld kann in seiner Stärke einstellbar sein. Das elektrische Feld kann insbesondere durch Anlegen einer elektrischen Spannung an das Beschichtungsmaterial oder die Beschichtungen der Plattenelemente einstellbar sein. Je nach Grösse oder Höhe der angelegten elektrischen Spannungen an den Beschichtungsmaterialien oder Beschichtungen der Plattenelemente, die wie oben beschrieben gebildet werden, bilden sich zwischen den Beschichtungsmaterialien oder Beschichtungen unterschiedlich große Potentialdifferenzen und damit ein unterschiedliches elektrisches Feld aus.
  • In Abhängigkeit von der Stärke des elektrischen Feldes, d.h. in Abhängigkeit von der Stärke der an die Beschichtungen angelegten Spannungen, können sich die Moleküle der Flüssigkristallelemente an den Feldlinien des elektrischen Feldes ausrichten.
  • Aufgrund der unterschiedlich orientierten Flüssigkristallelemente innerhalb der Struktur können unterschiedliche Brechungsindizes erreicht werden. Infolgedessen bewegt sich die durch die Struktur hindurchtretende Strahlung, abhängig von der molekularen Orientierung, mit unterschiedlichen Geschwindigkeiten durch die Flüssigkristallelemente, die sich zwischen den Plattenelementen befinden. Insgesamt haben die zwischen den Plattenelementen angeordneten Flüssigkristallelemente die Funktion eines Prismas, das einfallende Strahlung ablenken oder lenken kann. Dadurch kann bei entsprechend angelegter Spannung an den elektrisch leitfähigen Beschichtungen der Plattenelemente die durch die Struktur hindurchtretende Strahlung orientiert oder abgelenkt werden, wobei der Ablenkungswinkel durch die Höhe der angelegten Spannung gesteuert und variiert werden kann.
  • Darüber hinaus ist eine Kombination von weißen oder farbigen Lichtquellen und Infrarot-Laserlichtquellen möglich, bei der der Lichtquelle eine adaptive Spiegelanordnung nachgeschaltet ist, über die die von beiden Lichtquellen emittierte Strahlung gesteuert oder moduliert werden kann, wobei für die Infrarot-Lichtquelle ein Sensorsystem zur Umgebungserfassung eingesetzt wird. Der Vorteil einer solchen Anordnung ist, dass die beiden Lichtsysteme und das Sensorsystem eine gemeinsame adaptive Spiegelanordnung verwenden. Es ist daher nicht notwendig, für das Lichtsystem und das Sensorsystem jeweils eine eigene Spiegelanordnung vorzusehen. Durch den hohen Integrationsgrad können Bauraum, Gewicht und vor allem Kosten reduziert werden.
  • Bei LIDAR-Systemen sind auch unterschiedlich ausgelegte Sender- und Empfängerkonzepte bekannt, um die Entfernungsinformationen in verschiedenen Raumrichtungen erfassen zu können. Auf dieser Grundlage wird dann ein zweidimensionales Abbild der Umgebung erzeugt, das für jeden aufgelösten Raumpunkt die vollständigen dreidimensionalen Koordinaten enthält. Die verschiedenen LIDAR-Topologien lassen sich abstrakt anhand der Darstellung der Bildauflösung unterscheiden. Die Auflösung kann nämlich entweder ausschließlich durch einen winkelsensitiven Detektor, einen winkelsensitiven Emitter oder eine Kombination von beiden dargestellt werden. Ein LIDAR-System, das seine Auflösung ausschließlich mit Hilfe des Detektors erzeugt, wird als Flash-LIDAR bezeichnet. Es besteht aus einem Emitter, der das gesamte Sichtfeld möglichst homogen ausleuchtet. Im Gegensatz dazu besteht der Detektor in diesem Fall aus einer Vielzahl von einzeln auslesbaren und in einer Matrix angeordneten Segmenten oder Pixeln. Jedem dieser Pixel ist dementsprechend ein Raumwinkelbereich zugeordnet. Wird in einem bestimmten Pixel Licht empfangen, so wird das Licht entsprechend aus dem diesem Pixel zugeordneten Raumwinkelbereich abgeleitet. Im Gegensatz dazu besitzt ein Raster- oder Scan-LIDAR einen Emitter, der die Messpulse selektiv und insbesondere zeitlich nacheinander in verschiedene Raumrichtungen aussendet. Hier genügt ein einziges Sensorsegment als Detektor. Wird in diesem Fall in einem bestimmten Messzeitfenster Licht vom Detektor empfangen, so stammt dieses Licht aus einem Raumwinkelbereich, in den das Licht vom Emitter im gleichen Messzeitfenster emittiert wurde.
  • Zur Verbesserung des Signal-Rausch-Verhältnisses (SNR) können mehrere der oben beschriebenen Messungen oder Einzelpulsmessungen in einem LIDAR-Sensorsystem miteinander vernetzt oder kombiniert werden, z.B. zur Verbesserung des Signal-Rausch-Verhältnisses durch Mittelwertbildung der ermittelten Messwerte.
  • Bei der von der Lichtquelle emittierten Strahlung handelt es sich in einigen Ausführungsformen um Infrarotstrahlung (IR), die von einer Laserdiode in einem Wellenlängenbereich von 600 nm bis 850 nm emittiert wird. Es sind aber auch Wellenlängen bis 1064 nm, bis 1600 nm, bis 5600 nm oder bis 8100 nm möglich. Die Strahlung der Laserdiode kann pulsartig mit einer Frequenz zwischen 1 kHz und 1 MHz emittiert werden, in einigen Implementierungen auch mit einer Frequenz zwischen 10 kHz und 100 kHz. Die Laserpulsdauer kann zwischen 0,1 ns und 100 ns liegen, in einigen Implementierungen zwischen 1 ns und 2 ns. Als Typ der IR-Strahlung emittierenden Laserdiode kann ein VCSEL (Vertical Cavity Surface Emitting Laser) verwendet werden, der Strahlung mit einer Strahlungsleistung im „Milliwatt“-Bereich emittiert. Es kann aber auch ein VECSEL (Vertical External Cavity Surface Emitting Laser) verwendet werden, der mit hohen Pulsleistungen im Wattbereich betrieben werden kann. Sowohl der VCSEL als auch der VECSEL können in Form eines Arrays ausgeführt sein, z.B. können 15 x 20 oder 20 x 20 Laserdioden so angeordnet werden, dass die summierte Strahlungsleistung mehrere hundert Watt betragen kann. Pulsen die Laser gleichzeitig in einer Array-Anordnung, können die größten summierten Strahlungsleistungen erreicht werden. Die Emittereinheiten können sich z.B. in der Wellenlänge der jeweils emittierten Strahlung unterscheiden. Ist dann auch die Empfängereinheit wellenlängenempfindlich konfiguriert, lassen sich die Pulse auch nach ihrer Wellenlänge unterscheiden.
  • Weitere Ausführungsformen, die sich auf die Funktionalität verschiedener Komponenten eines LIDAR-Sensorsystems beziehen, z.B. Lichtquellen, Sensoren, Spiegelsysteme, Lasertreiber, Steuergeräte, werden im Kapitel „Komponenten“ beschrieben.
  • Andere Ausführungsformen sind darauf ausgerichtet, wie man Messdaten von LIDAR-Messungen erkennen und analysieren kann, wie sie von den im Kapitel „Komponenten“ beschriebenen Komponenten bereitgestellt werden. Diese Ausführungsformen werden im Kapitel „Detektionssystem“ beschrieben.
  • Andere Ausführungsformen sind auf die Datenanalyse und Datennutzung ausgerichtet und werden im Kapitel „Datennutzung“ beschrieben.
  • Der Anhang „ERKLÄRUNGEN UND GLOSSAR“ beschreibt weitere Aspekte der referenzierten und verwendeten Fachbegriffe.
  • Gegenstand der Offenbarung ist es, verbesserte Komponenten für ein LIDAR-Sensorsystem vorzuschlagen und/oder verbesserte Lösungen für ein LIDAR-Sensorsystem und/oder für ein LIDAR-Sensorgerät vorzuschlagen und/oder verbesserte Verfahren für ein LIDAR-Sensorsystem und/oder für ein LIDAR-Sensorgerät vorzuschlagen.
  • Die Aufgabe wird entsprechend den Merkmalen der unabhängigen Ansprüche gelöst. Weitere Aspekte der Offenbarung sind in den abhängigen Ansprüchen und in der folgenden Beschreibung enthalten.
  • 1 zeigt schematisch eine Ausführungsform des vorgeschlagenen LIDAR-Sensorsystems, des gesteuerten LIDAR-Sensorsystems und des LIDAR-Sensorgeräts.
  • Das LIDAR-Sensorsystem 10 umfasst ein erstes LIDAR-Sensorsystem 40, das eine Lichtquelle 42 umfassen kann, die so konfiguriert ist, dass sie elektromagnetische oder andere Strahlung 120 aussendet, insbesondere eine Dauerstrich- oder gepulste Laserstrahlung im blauen und/oder infraroten Wellenlängenbereich, einen Lichtquellen-Controller 43 und zugehörige Software, Strahlsteuerungs- und Modulationsgeräte 41, insbesondere Lichtlenk- und Reflexionsvorrichtungen, z.B. Mikromechanische Spiegelsysteme (MEMS), mit einer zugehörigen Steuereinheit 150, optische Komponenten 80, z.B. Linsen und/oder holographische Elemente, ein LIDAR-Sensormanagementsystem 90, das so konfiguriert ist, dass es Ein- und Ausgabedaten verwaltet, die für den ordnungsgemäßen Betrieb des ersten LIDAR-Sensorsystems 40 erforderlich sind.
  • Das erste LIDAR-Sensorsystem 40 kann mit anderen LIDAR-Sensorsystemgeräten verbunden werden, z.B. mit einem Steuerungs- und Kommunikationssystem 70, das so konfiguriert ist, dass es Eingangs- und Ausgangsdaten verwaltet, die für den ordnungsgemäßen Betrieb des ersten LIDAR-Sensorsystems 40 erforderlich sind.
  • Das LIDAR-Sensorsystem 10 kann ein zweites LIDAR-Sensorsystem 50 aufweisen, das für den Empfang und die Messung elektromagnetischer oder anderer Strahlung konfiguriert ist und eine Vielzahl von Sensoren 52 und einem Sensor-Controller 53 verwendet.
  • Das zweite LIDAR-Sensorsystem kann Detektionsoptik 82 sowie Aktuatoren zur Strahllenkung und -steuerung 51 umfassen.
  • Das LIDAR-Sensorsystem 10 kann ferner ein LIDAR-Datenverarbeitungssystem 60 umfassen, das Signalverarbeitung 61, Datenanalyse und -berechnung 62, Sensorfusion und andere Sensorfunktionen 63 durchführt.
  • Das LIDAR-Sensorsystem 10 kann ferner ein Steuer- und Kommunikationssystem 70 umfassen, das eine Vielzahl von Signalen und Steuerdaten 160 empfängt und ausgibt und als Gateway zwischen verschiedenen Funktionen und Geräten des LIDAR-Sensorsystems 10 dient.
  • Das LIDAR-Sensorsystem 10 kann weiterhin ein oder mehrere Kamerasysteme 81 aufweisen, die entweder einzeln oder in Kombination mit einer anderen Komponente des LIDAR-Sensorsystems 10 oder in eine andere Komponente des LIDAR-Sensorsystems 10 eingebettet sind und mit verschiedenen anderen Geräten datentechnisch verbunden sind, wie z.B. mit Komponenten des zweiten LIDAR-Sensorsystems 50 oder mit Komponenten des LIDAR-Datenverarbeitungssystems 60 oder mit dem Kontroll- und Kommunikationssystem 70.
  • Das LIDAR-Sensorsystem 10 kann in eine LIDAR-Sensorvorrichtung 30 integriert oder eingebettet werden, z.B. in ein Gehäuse, ein Fahrzeug, einen Fahrzeugscheinwerfer.
  • Das gesteuerte LIDAR-Sensorsystem 20 ist so konfiguriert, dass es das LIDAR-Sensorsystem 10 und seine verschiedenen Komponenten und Geräte steuert und die Navigation des LIDAR-Sensorsystems 30 durchführt oder zumindest unterstützt. Das gesteuerte LIDAR-Sensorsystem 20 kann ferner so konfiguriert werden, dass es z.B. mit einem anderen Fahrzeug oder einem Kommunikationsnetzwerk kommuniziert und so die Navigation der LIDAR-Sensorvorrichtung 30 unterstützt.
  • Wie oben erläutert, ist das LIDAR-Sensorsystem 10 so konfiguriert, dass es elektromagnetische oder andere Strahlung aussendet, um die Umgebung 100 nach anderen Objekten wie Autos, Fußgängern, Verkehrszeichen und Straßenhindernissen zu untersuchen. Das LIDAR-Sensorsystem 10 ist ferner so konfiguriert, dass es elektromagnetische oder andere Arten von objektreflektierter oder objektemittierter Strahlung 130, aber auch andere erwünschte oder unerwünschte elektromagnetische Strahlung 140 empfängt und misst, um Signale 110 zu erzeugen, die für die Umgebungskartierung verwendet werden können, wobei in der Regel eine Punktwolke erzeugt wird, die repräsentativ für die erfassten Objekte ist.
  • Verschiedene Komponenten des gesteuerten LIDAR-Sensorsystems 20 verwenden andere Komponenten oder Software 150, um die Signalerkennung und -verarbeitung sowie die Signalanalyse durchzuführen. Dieser Prozess kann die Verwendung von Signalinformationen beinhalten, die von anderen Sensorgeräten stammen.
  • KAPITEL „KOMPONENTEN‟
  • Fahrzeugscheinwerfer können eine Vielzahl von Lichtquellen verwenden. Eine Möglichkeit ist der Einsatz einer LARP (Laser Activated Remote Phosphor)-Lichtquelle, die eine Anregungslichtquelle, z.B. einen blauen Laser, und ein teilweise blaues lichtdurchlässiges Konversionselement, z.B. einen gelb emittierenden Cer:YAG-Keramikphosphor, aufweist. Die Kombination von (unverändert) transmittierter blauer Anregungsstrahlung und gelbem Konversionslicht ergibt ein weißes Licht, das als Abblend-, Fern-, Spotstrahl und ähnliches verwendet werden kann. Ein solcher Leuchtstoff kann auch für andere als die blaue Wellenlänge durchlässig sein, zum Beispiel für infrarote Laserstrahlung. Ein Aspekt dieser Offenbarung ist es, infrarote IR-Laserstrahlung aus einer zweiten Quelle im Wellenlängenbereich von 850 bis 1600 nm auf den Leuchtstoff auftreffen zu lassen und den transmittierten infraroten Laserstrahl als Infrarotquelle für eine LIDAR-Erfassungsfunktion zu verwenden.
  • Ein weiterer Aspekt der Offenbarung ist, dass nicht nur infrarote Laserstrahlung für LIDAR-Sensorzwecke verwendet werden kann, sondern auch andere Wellenlängen, insbesondere monochromatische violette oder blaue Wellenlängen, die von einem Laser im Wellenlängenbereich von 405 bis etwa 480 nm emittiert werden. Der Vorteil der Verwendung eines blauen LIDAR-Pulses besteht darin, dass die typischerweise verwendeten siliziumbasierten Detektionssensorelemente für solche Wellenlängen empfindlicher sind, da blaue Strahlung eine geringere Eindringtiefe in das Sensormaterial hat als Infrarot. Dadurch kann die Leistung des blauen Laserstrahls und/oder die Pixelgröße des Sensors unter Beibehaltung eines guten Signal-Rausch-Verhältnisses (SNR) reduziert werden. Es ist ferner von Vorteil, ein solches blaues LIDAR-Sensorsystem in einen Fahrzeugscheinwerfer einzubauen, der weißes Licht zur Straßenbeleuchtung ausstrahlt. Weißes Licht kann durch Abwärtskonvertierung einer blauen Anregungsstrahlung, die von einer LED oder einem Laser emittiert wird, in gelbes Konversionslicht erzeugt werden, zum Beispiel durch Verwendung eines Cer:YAG-Leuchtstoffelements. Dieses Verfahren ermöglicht die Verwendung von blauer Laser-Emitterstrahlung für beide Zwecke, d.h. für die Straßenbeleuchtung von Fahrzeugen und die blaue LIDAR-Erfassung. Es ist auch vorteilhaft, mindestens zwei LIDAR-Sensorsysteme pro Fahrzeug einzusetzen, die unterschiedliche Wellenlängen haben, zum Beispiel, wie hier beschrieben, Blau und Infrarot. Beide LIDAR-Laserpulse können synchronisiert werden (zeitsequentiell oder zeitsynchron) und für die kombinierte Abstandsmessung verwendet werden, was die Wahrscheinlichkeit einer korrekten Objekterkennung erhöht.
  • Fahrzeugscheinwerfer mit MEMS- oder DMD/DLP-Lichtverarbeitungsspiegelvorrichtungen können für die Projektion von sichtbarem Straßenlicht (Straßenbeleuchtung, wie Abblendlicht, Fernlicht), aber auch für die Projektion von Informationen und Bildern auf die Oberfläche einer Straße oder eines Objekts und/oder für die Projektion von Infrarotstrahlung für LIDAR-Sensorsystemzwecke verwendet werden. Es ist vorteilhaft, ein lichtverarbeitendes Spiegelgerät für einige oder alle der oben genannten Zwecke zu verwenden. Dazu wird das (meist weiße) Straßenbeleuchtungslicht und/oder das (meist farbige) Licht für die Informationsprojektion und/oder das infrarote LIDAR-Laserlicht durch einen Strahlkombinator, z.B. einen dichroitischen Spiegel oder einen X-cube dichroitischen Spiegel, der vor der Spiegelvorrichtung angeordnet ist, optisch kombiniert. Die sichtbare und die infrarote Lichtquelle werden dann operativ gemultiplext, so dass ihre Strahlung sequentiell auf die Spiegelvorrichtung fällt, wodurch eine individuell gesteuerte Projektion entsprechend der ihnen zugeteilten Multiplexzeiten ermöglicht wird. Als Input für die sequentielle Projektion können interne und externe Sensordaten, wie Kamera, Ultraschall, Straßenschilder und dergleichen, dienen.
  • Es ist vorteilhaft, VCSEL-Laserarrays zu verwenden, die Infrarotstrahlung (IR-VCSEL-Strahlung) aussenden. Ein solches VCSEL-Array kann eine Vielzahl von oberflächenemittierenden Laserdioden, auch Laserpixel genannt, aufweisen, zum Beispiel bis zu 10.000, von denen jede Infrarotstrahlung mit einer ausgewählten, gleichen oder unterschiedlichen Wellenlänge im Bereich von 850 bis 1600 nm emittiert. Alternativ können anstelle von Laserdioden auch Faserlichtquellen verwendet werden.
  • Die Orientierung der Emissionsrichtung durch Kippen einiger Laserpixel und/oder durch den Einsatz diffraktiver Optiken, z.B. einer Anordnung von Mikrolinsen, ermöglicht eine verteilte Emission in das gewünschte Sichtfeld (Field-of-View, FOV). Jedes dieser winzigen Laserpixel kann individuell in Bezug auf Pulsleistung, Pulszeit, Pulsform, Pulslänge, Pulsbreite FWHM, Ausschaltzeit zwischen aufeinanderfolgenden Pulsen usw. gesteuert werden. Es ist vorteilhaft, wenn jedes der Laserpixel sein Licht auf ein entsprechendes Mikrolinsensystem abstrahlt und dann in das Sichtfeld (Field-of-View, FOV) emittiert wird. Die Verwendung des oben erwähnten Lasercontrollers ermöglicht die Änderung der Laserleistung und anderer Eigenschaften jedes Laserpixels. Eine solche VCSEL Infrarot-Lichtquelle kann als Lichtquelle für ein LIDAR-Sensorsystem verwendet werden.
  • Darüber hinaus ist es möglich, einige der Miniatur-Laserpixel zu einer Gruppe zusammenzufassen und die gewählte elektrische Einstellung auf diese spezielle Gruppe anzuwenden. Die Laserpixel dieser Gruppe können einander benachbart oder voneinander entfernt sein. Auf diese Weise ist es möglich, eine Vielzahl solcher Gruppen zu erzeugen, die in der Pixelanzahl und/oder der geometrischen Anordnung ähnlich wie eine andere Gruppe oder anders sein können. Eine ausgewählte Laserpixelgruppe kann je nach Bedarf geändert werden, insbesondere ihre Leistungseinstellung.
  • Eine solche Gruppe kann auch ein geometrisches Muster zeigen, z.B. ein Kreuz, eine Raute, ein Dreieck und so weiter. Das geometrische Muster kann je nach Beleuchtungsbedarf geändert werden (siehe unten). Der gesamte VCSEL und/oder die VCSEL-Untergruppen können sequentiell nacheinander betrieben werden, insbesondere in einer aufeinanderfolgenden Reihe von nebeneinander angeordneten Laserpixeln. So ist es möglich, die abgestrahlte Infrarotleistung einer oder einiger solcher Pixelgruppen z.B. als Funktion des Abstands und/oder der Relativgeschwindigkeit zu einem anderen Objekt und/oder Typ eines solchen Objekts (Objektklassifikation) einzustellen, z.B. mit einer niedrigeren Infrarotleistung, wenn ein Fußgänger anwesend ist (fotobiologische Sicherheit), oder einer höheren Leistungseinstellung für die Fernobjekterkennung. Ein LIDAR-Sensorsystem kann viele solcher VCSEL-Laserarrays verwenden, die alle einzeln steuerbar sind. Die verschiedenen VCSEL-Arrays können so ausgerichtet werden, dass ihre optischen Hauptachsen parallel verlaufen, aber sie können auch zueinander geneigt oder gekippt oder gedreht werden, z.B. um das FOV zu erhöhen oder um gewünschte Infrarot-Muster in bestimmte Teile (Voxel) des FOV zu emittieren.
  • Es ist vorteilhaft, die Emissionsleistung von Infrarot-Laserdioden, die in einem LIDAR-Sensorsystem verwendet werden, entsprechend bestimmten Anforderungen oder Bedingungen wie fotobiologische Sicherheit, Objektklassifizierung und Objektentfernung anzupassen. Ein LIDAR-Sensorsystem kann zum Beispiel einen ersten Infrarot-Teststrahl aussenden, um den Objektabstand, den Objekttyp, die Objektreflektivität für sichtbare, UV- oder IR-Strahlung usw. zu messen, und dann die Laserleistung entsprechend (vor-)definierter oder erkannter Szenarien und Betriebs- oder Umgebungseinstellungen regulieren.
  • Es ist von Vorteil, wenn die Informationen über ein erkanntes Objekt von einem anderen Sensorsystem, z.B. einer visuellen oder Infrarotkamera oder einem Ultraschall-Sensorsystem, geliefert werden, da solche Sensoren empfindlicher und/oder zuverlässiger für die Erkennung bestimmter Objekttypen und -positionen in bestimmten Abständen sein können. Ein solches Hilfserfassungssystem kann an demselben Fahrzeug montiert werden, das auch das diskutierte LIDAR-Sensorsystem trägt, es kann aber auch extern angeordnet werden, z.B. an einem anderen Fahrzeug angebracht oder irgendwo entlang der Straße platziert.
  • Zusätzliche Regelparameter für das LIDAR-Sensorsystem können Fahrzeuggeschwindigkeit, Beladung und andere aktuelle technische Fahrzeugzustände sowie äußere Bedingungen wie Nacht, Tag, Zeit, Regen, Standort, Schnee, Nebel, Straßendichte, Fahrzeugplatzierung, Bildung von Fahrzeugschwärmen, Grad der Fahrzeugautonomie (SAE-Niveau), Fahrzeuginsassenverhalten und biologische Fahrerbedingungen sein.
  • Weiterhin kann eine Strahlung der Lichtquelle durch eine Struktur, die mindestens ein Flüssigkristallelement enthält, geleitet werden, wobei eine, insbesondere molekulare, Orientierung des mindestens einen Flüssigkristallelementes mittels eines elektrischen Feldes einstellbar ist. Die Struktur, durch die die auszurichtende oder abzulenkende Strahlung hindurchgeleitet wird, kann mindestens zwei Plattenelemente aufweisen, die mit elektrisch leitfähigem und transparentem Beschichtungsmaterial, insbesondere abschnittsweise, beschichtet sind, z.B. Glasplatten. Die Strahlung der auszurichtenden oder abzulenkenden Lichtquelle steht in einigen Ausführungsformen senkrecht zu einem der Plattenelemente. Die Plattenelemente sind in einigen Ausführungsformen transparent und parallel zueinander beabstandet. Die Transparenz der Plattenelemente und des elektrisch leitenden Beschichtungsmaterials ermöglichen die Transmission der Strahlung. Das elektrisch leitfähige und transparente Beschichtungsmaterial kann zumindest teilweise oder ganz aus einem Material mit hoher elektrischer Leitfähigkeit bestehen oder aus einem Material mit einem kleinen elektrischen Widerstand wie Indiumzinnoxid (ITO) und/oder aus einem Material mit niedriger elektrischer Leitfähigkeit oder einem großen elektrischen Widerstand wie Poly-3,4-ethylendioxythiophen (PEDOT) existieren.
  • Das so erzeugte elektrische Feld kann in seiner Stärke einstellbar sein. Das elektrische Feld kann insbesondere durch Anlegen einer elektrischen Spannung an das Beschichtungsmaterial, d.h. die Beschichtungen der Plattenelemente, in seiner Stärke einstellbar sein. Je nach den oben beschriebenen angelegten elektrischen Spannungen an den Beschichtungswerkstoffen bzw. Beschichtungen der Plattenelemente bilden sich zwischen den Beschichtungswerkstoffen bzw. Beschichtungen unterschiedliche Potentialdifferenzen und damit ein unterschiedlich starkes elektrisches Feld aus.
  • Abhängig von der Stärke des elektrischen Feldes, d.h. abhängig von der Stärke der an die Beschichtungen angelegten Spannungen, können sich die Moleküle der Flüssigkristallelemente entsprechend den Feldlinien des elektrischen Feldes ausrichten.
  • Aufgrund der unterschiedlich orientierten Flüssigkristallelemente innerhalb der Struktur können unterschiedliche Brechungsindizes erreicht werden. Infolgedessen bewegt sich die durch die Struktur hindurchtretende Strahlung, abhängig von der molekularen Orientierung, mit unterschiedlichen Geschwindigkeiten durch die Flüssigkristallelemente, die sich zwischen den Plattenelementen befinden. Insgesamt haben die zwischen den Plattenelementen angeordneten Flüssigkristallelemente die Funktion eines Prismas, das einfallende Strahlung ablenken oder lenken kann. Dadurch kann bei entsprechend angelegter Spannung an den elektrisch leitfähigen Beschichtungen der Plattenelemente die durch die Struktur hindurchtretende Strahlung orientiert oder abgelenkt werden, wobei der Ablenkungswinkel durch die Höhe der angelegten Spannung gesteuert und variiert werden kann.
  • LIDAR-Laseremitter (Lichtquelle) müssen so betrieben werden, dass sie Infrarotstrahlung mit kurzen Pulsen (ns), kurzen Anstiegszeiten bis zur vollen Leistung, hoher Leistung, z.B. höher als 40 A, und geringer Induktivität aussenden können. Um diese Aufgabe zu erfüllen, ist es vorteilhaft, einen Energiespeicher, z.B. einen Kondensator aus Siliziummaterialien, einen Transistor, z.B. einen FET-Transistor, und eine Laserdiode mit mindestens einer Verschaltung zu verbinden, die eine Induktivität von weniger als 100 pH aufweist. Die vorteilhafte Lösung verwendet mindestens eine elektrische Verbindung mit entweder einer Verbindungs- oder Lötverbindung oder einer Klebeverbindung. Es ist ferner vorteilhaft, eine solche induktivitätsarme Verbindung für alle elektrischen Verbindungen herzustellen. Es ist ferner vorteilhaft, wenn ein Laseremitter und ein Energiespeicherkondensator nebeneinander auf demselben Substrat angeordnet sind und wobei der Transistor mit Hilfe der Flip-Chip-Technologie auf dem Kondensator und auf der Laserdiode montiert wird.
  • Es ist vorteilhaft, den Laseremitter, z.B. einen Seitenemitter oder ein VCSEL-Array, eine optische Vorrichtung zur Strahllenkung, z.B. eine Linse oder ein MEMS oder eine Faser, und eine Abtasteinheit zur Detektion rückgestreuter Laserpulse direkt oder in gestapelter Form auf einem gemeinsamen Substrat zu platzieren. Eine Abtasteinheit kann als PIN-Diode, als APD-Lawinenfotodiode oder als SPAD (Single Photon APD) konfiguriert werden. Die Fotodioden können mit einem Logikmodul ausgelesen werden. Noch vorteilhafter ist es, auch das Logikmodul, z.B. einen programmierbaren Mikrocontroller (ASIC), auf dem gleichen Substrat zu platzieren, z.B. einen FR4-Leiterrahmen oder ein Substrat auf der Basis von Halbleitermaterial, wie ein Siliziumsubstrat oder ein metallisches Substrat. In einigen Ausführungsformen wird der programmierbare Mikrocontroller als anwendungsspezifisches Standardprodukt (ASSP) unter Verwendung eines Mixed-Signal-ASIC konfiguriert.
  • Ein weiterer Vorteil ist die zumindest teilweise thermische Entkopplung des Logikbausteins und der Sensoreinheit (mit Fotodioden) durch einen Ausschnitt durch das Substrat, der die beiden Komponenten entkoppelt, wodurch das thermische Rauschen der Fotodioden verringert und somit deren SNR-Wert erhöht wird. Die Kombination all dieser vorteilhaften Lösungen ermöglicht den Aufbau eines sehr kompakten LI DAR-Sensorsystems.
  • Es ist von Vorteil, wenn das Lasersensorsystem kompakt gebaut ist, da es eine einfache Integration in einen Scheinwerfer oder ein anderes elektro-optisches Modul ermöglicht. Weiterhin ist es vorteilhaft, die Laserpuls-Strahllenkungsoptik auch als optisches System für rückgestreute Laserpulse zu verwenden, um diese auf eine Sensorvorrichtung zu lenken. Weiterhin ist es vorteilhaft, einen Umlenkspiegel, z.B. einen metallischen Reflektor, oder eine dichroitisch beschichtete Prismenvorrichtung oder eine TIR-Linse zu verwenden, um den Laserstrahl durch das oben erwähnte optische System in das Sichtfeld auszukoppeln. Von Vorteil ist auch, einen solchen Umlenkspiegel zu miniaturisieren und direkt auf die Sensoroberfläche (PIN-Diode, APD-Lawinenfotodiode, SPAD Einzelphoton-APD) zu platzieren, wodurch das LIDAR-Sensorgerät weiter verdichtet wird. Es ist auch möglich, mehr als einen Laser-Emitter und emitterspezifische Umlenkspiegel zu verwenden, die dann unterschiedliche mechanische und optische Eigenschaften wie Oberflächenform (flach, konvex, konkav), Materialzusammensetzung, Neigung der reflektierenden Spiegelseite in Bezug auf den einfallenden Laserstrahl, dichroitische Beschichtung sowie die Platzierungsposition auf der Sensoroberfläche haben können. Weiterhin ist es von Vorteil, wenn eine solche Spiegelvorrichtung monolithisch integriert oder zusammen mit der Sensorvorrichtung hergestellt wird.
  • Es ist vorteilhaft, wenn ein Array aus individuell geformten optischen Linsen (1-dimensionales oder 2-dimensionales Linsenarray) rückgestreute LIDAR-Strahlung von Raumwinkeln des Sichtfeldes auffängt, die sich hinsichtlich ihres Winkels und ihrer räumlichen Orientierung unterscheiden. Die verschiedenen Linsen können eigenständig und einzeln platziert oder als ein zusammenhängendes Linsenarray ausgebildet sein. Jede dieser Linsen projiziert rückgestreutes Infrarotlicht auf spezielle Sensorflächen. Es ist weiterhin von Vorteil, dass Linsen, die sich auf zentralere Abschnitte des FOVs beziehen, Strahlung aus kleineren Raumwinkeln sammeln als Linsen, die am äußeren Rand eines Linsenarrays platziert sind, und Strahlung aus größeren Raumwinkeln sammeln. Die Linsen können asymmetrische Oberflächen haben, die zudem in Abhängigkeit von einem Laser-Feedback-Signal (TOF, Objekterkennung) und anderen internen oder externen Eingangssignalen adaptiv einstellbar sind. Adaptiv einstellbar kann bedeuten, dass die Form und Gestalt der Linse verändert werden kann, z.B. durch Verwendung von Flüssigkeitslinsen oder durch Änderung der Linsenposition und der Linsenneigung mit Hilfe mechanischer Aktuatoren. All dies erhöht die Wahrscheinlichkeit einer zuverlässigen Objekterkennung auch unter wechselnden Umgebungs- und Verkehrsbedingungen.
  • Ein weiterer vorteilhafter Aspekt der Offenbarung besteht darin, rückgestreute LIDAR-Pulsstrahlung aus definierten räumlichen Segmenten des Sichtfeldes zu sammeln, indem ein Spiegelsystem, z.B. ein MEMS- oder ein gepixeltes DMD-Spiegelsystem, verwendet wird, bei dem jedes Spiegelelement mit einem bestimmten räumlichen Segment des FOV korreliert ist, das rückgestreutes Licht je nach individuell einstellbarer Spiegelposition auf bestimmte Bereiche einer Sensoroberfläche lenkt. DMD-Spiegelpixel können gruppiert werden, um eine höhere Reflexion des rückgestreuten Laserlichts von entsprechenden FOV-Segmenten auf eine Sensoroberfläche zu ermöglichen, wodurch die Signalstärke und der SNR-Wert erhöht werden.
  • Ein weiterer vorteilhafter Aspekt der Offenbarung ist, dass bei einem abtastenden LIDAR-Sensorsystem eine Sensorfläche in mindestens zwei einzeln adressierbare Segmente unterteilt ist, deren Trennlinie gegenüber einer (horizontalen) Abtastzeile geneigt ist und so zu zwei Sensorsignalen führt. Die mehreren Sensorflächensegmente können so angeordnet werden, dass sie einer Translationsbewegung entsprechen, die zu einer vollständigen Tesselierung der gesamten Sensorfläche führt, oder sie können spiegelsymmetrisch sein, aber dennoch den gesamten Sensorflächenbereich abdecken. Die Kantenfläche zweier einander gegenüberliegender Sensorflächensegmente kann glatt oder gezackt sein, so dass die Trennlinie zwischen zwei einander gegenüberliegenden Sensorflächen glatt oder gezackt sein kann. Gezackte Kantenflächen ermöglichen Signaldithering. Die Verwendung mehrerer Sensorsegmente ermöglicht die Signalverarbeitung (Mittelwerte, statistische Korrelation mit Oberflächenformen, statistische Korrelation mit dem Winkel der Trennlinie sowie Oberflächenformen-Signaldithering) und erhöht somit die zuverlässige Objekterkennung und den SNR-Wert. In einem anderen Aspekt muss die Trennlinie zwischen zwei Sensoroberflächenteilen nur teilweise geneigt sein, kann aber ansonsten vertikale oder horizontale Teilungsabschnitte aufweisen.
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einem LIDAR-Sensorgerät zur Beleuchtung und Erfassung eines Umgebungsraumes kombiniert werden, das mit einer Licht (Strahlungs)-Steuereinheit verbunden ist. Das LIDAR-Sensorsystem und das LIDAR-Sensorgerät können so konfiguriert werden, dass sie sichtbare und/oder infrarote Strahlung aussenden und erfassen können. Die Infrarotstrahlung kann im Wellenlängenbereich von 780 nm bis 1600 nm liegen.
  • Die Ansprechzeiten der Fotodetektoren können zwischen 100 ps (InGaAs-Avalanche-Fotodiode; InGaAs-APD) und 10 ns (Silizium-pn-Diode; Si-PN) liegen, abhängig von den verwendeten Fotodetektortechnologien. Diese ultrakurzen LIDAR-Pulse erfordern kurze Integrationszeiten und geeignete Detektoren mit geringem Rauschen und schneller Auslesefähigkeit. Abhängig von der Objektreflektivität, dem erreichbaren Objektabstand und der Augensicherheitsvorschrift (IEC 60825-1) müssen LIDAR-Sensorsysteme hochempfindliche Fotodetektoren und/oder leistungsstarke ultrakurze Pulslängen verwenden. Eine Halbleitertechnologie zur Erzeugung solcher ultrakurzer LIDAR-Pulse ist die Verwendung von Gallium-Nitrid-Halbleiterschaltern bzw. GaN-FETs. Zur Unterdrückung des Umgebungsrauschens kann jede der folgenden Verfahren eingesetzt werden: Verkürzung der Laserpulszeit bei gleichzeitiger Erhöhung der Pulsspitzenleistung, Begrenzung der Detektionsapertur oder Einschränkung der Wellenlängenfilterung des emittierten Laserlichts am Detektor und/oder Einsatz statistischer Korrelationsverfahren. Design und Betrieb eines lichtempfindlichen SPAD-Elements können z.B. über einen pn-Übergang mit hoher interner Ladungsverstärkung, eine CMOS-basierte SPAD-Anordnung, eine zeitgesteuerte Messung des Detektorsignals zur Auswertung der TOF-Signale, eine Architektur von APD- und SPAD-Sensorpixeln mit abgesetzter Empfängerelektronik auf der Basis der Chip-on-Board-Technologie (CoB), eine Architektur von CMOS-eingebetteten SPAD-Elementen für In-Pixel-Lösungen und ein Mixed-Signal-basiertes Pixel-Architekturdesign mit optimierter In-Pixel-TDC (TDC: Time-to-Digital-Converter)-Architektur optimiert werden.
  • In verschiedenen Ausführungsformen erfolgt eine zeitaufgelöste Detektion rückgestreuter LIDAR-Signale mittels hochauflösender optischer Sensorchips. Ein (z.B. diskreter) elektronischer Aufbau zur Auswertung von Einzelpixel (Bildelement)-Anordnungen in Verbindung mit MEMS-basierten scannenden LIDAR-Topologien wird vorgestellt. Im Detail werden Mischsignal-Analog- und Digitalschaltungen zur Detektion und Analyse von LIDAR-ToF-Signalen sowohl für gängige integrierte Bulk-Substrat-Schaltungen (gängige Submikron-basierte CMOS-Chip-Fertigungstechnologie) als auch für die heterogene Integration in 3D-Wafer-Level-Architektur und gestapelte 3D-IC-Fertigung mit kurzer Verbindungstechnik als Through-Silicon-Via (TSV) für ein System-in-Package (SIP) bereitgestellt. Die kompakten und robusten Festkörper-LIDAR-Konzepte, die im Folgenden näher beschrieben werden, eignen sich z.B. sowohl für automobile Anwendungen als auch z.B. für eine allgemeine Anwendung in der Spektroskopie, Gesichtserkennung und Erkennung von Objektmorphologien.
  • Bezogen auf Gl. 1 ist der Zeitablauf (Laufzeit) eines Lichtpulses vom Emitter zu einem entfernten Objekt und zurück zu einem Sensor abhängig von der Entfernung d des Objekts und ist gegeben durch Δ t = 2 d/c .
    Figure DE112020001131T5_0002
  • Die zeitliche Auflösung (Zeitstempelpräzision) der Laufzeit wird durch die Breite des ausgesendeten Lichtpulses Tpulse begrenzt und nicht durch die Integrationszeit des Sensors selbst, die sich direkt auf eine Tiefengenauigkeit von Folgendem überträgt: 2 Δ d = c Tpulse ,
    Figure DE112020001131T5_0003
    Δ d = ( c/ 2 ) Tpulse .
    Figure DE112020001131T5_0004
  • Die effektive Breite des emittierten Laserpulses wird entweder durch die Pulsbreite des Laserpulses oder durch die geringste Ladungs-Sammelzeit (Integrationszeit) zur Signalerzeugung im Sensor, z.B. realisiert als lichtempfindliches Empfangselement, z.B. mit einer Fotodiode, bestimmt. Für optische Reichweitenanwendungen sollten die abbildenden Sensoren eine zeitliche Auflösung im Bereich von ns (Nanosekunden) und sub-ns wie ps (Pikosekunden) ermöglichen.
  • Typische Anstiegszeiten verschiedener Fotodetektortechnologien, z.B. Fotodioden, sind:
    Silizium-pn-Diode (Si-PN) 2 ns bis 10ns
    Silizium-pin-Diode (Si-PIN) 70 Ps
    InGaAs-pin-Diode (InGaAs-PIN) 5 ps
    InGaAs-Lawinen-Fotodiode (InGaAs-APD) 100 ps
    Germanium-pn-Diode (Ge-PN) 1 ns
  • Unter Berücksichtigung der Signalanstiegszeit der typischen optischen Empfängerbauelemente kann die Breite des ausgesendeten Laserpulses so kurz wie möglich eingestellt werden, z.B. im unteren 10 ns-Bereich (< 5 ns), was immer noch eine ausreichende Integrationszeit zum Sammeln der photoerzeugten Ladung zusammen mit einer angemessenen Zeitstempelung für eine TDC-Anwendung im LIDAR ergibt. Als Nebeneffekt ist auch zu erwähnen, dass die kurze Integrationszeit der Ladung bei ausreichender Pulsspitzenleistung den Einfluss des Umgebungshintergrundlichts von der Sonne inhärent unterdrückt.
  • Als Beispiel für eine Gesamttiefengenauigkeit von Δd = 1 m muss die Dauer des Lichtpulses kleiner als Tpulse < Δd/c = 6,6 ns sein. Für eine Gesamttiefengenauigkeit von Δd = 0,3 m muss die maximale Pulsdauer kleiner als Tpulse < 2·Δd/c = 2 ns sein. Eine Tiefengenauigkeit im cm-Bereich erfordert eine Zeitgenauigkeit von weniger als 1 ns. Lichtpulse auf diesen kurzen Zeitskalen mit ns-Zeitunterscheidungsvermögen führen zu kurzen Integrationszeiten für das Sammeln der photoelektrisch erzeugten Ladung und erfordern daher möglicherweise Sensoren mit hoher Bandbreite, geringem Rauschen und schneller Auslesefähigkeit.
  • Die hohe Bandbreite der Detektion zeigt jedoch tendenziell höhere Rauschpegel, die mit der Schwäche der empfangenen Signale konkurrieren.
  • Der optische Sensor (Lichtpulsempfänger), der in verschiedenen Ausführungsformen zur Verfügung steht, kann eine Avalanche-Fotodiode sein, die ein kleines Strom- oder Ladungssignal erzeugt, das proportional zur Empfangsleistung des rückgestreuten Lichtsignals ist. Als Alternative kann der optische Sensor in verschiedenen Ausführungsformen eine Einzelphoton-Lawinen- oder Avalanche-Diode (SPAD) sein, die eine kleine Stromspitze erzeugt, die durch das Rücklaufsignal ausgelöst wird.
  • Aufgrund der Kürze des emittierten und rückgestreuten Lichtpulses ist auch die effektive Integrationszeit auf der Sensorseite zum Sammeln der photoerzeugten Ladung kurz und muss durch eine adäquate Laserspitzenleistung (Pulsbestrahlungsleistung) kompensiert werden, während das empfangene Rücksignal ausreichend verstärkt und zur Bestimmung der Lichttransientenzeit (Zeitablauf) und des Objektabstandes verarbeitet werden muss. Typische Empfindlichkeitswerte für die empfindlichen / für konventionelle Photoempfänger liegen im Bereich von 1 A/W = 1 nA/nW.
  • In verschiedenen Ausführungsformen wird das verstärkte Rücksignal gemessen und verarbeitet, um eine Abstandsmessung durchzuführen. Für Hochgeschwindigkeitsanwendungen wie z.B. in autonomen Fahrzeugen kann das LIDAR-Sensorsystem so konfiguriert werden, dass es ein Objekt mit 10% Reflexionsvermögen in einer Entfernung von 300 m erkennt und zwischen Objekten von 30 cm Größe mit einer angemessenen Latenzzeit von weniger als 20 msec unterscheidet.
  • Verschiedene Ausführungsformen können ein LIDAR-Design mit einem nach vorne gerichteten FoV von 100° x 25° mit 0,15° Auflösung liefern, das mit einer mittleren optischen Leistung von weniger als 5 W und einer Laserpulswiederholrate beleuchtet werden muss, die eine Aktualisierungsrate von > 25 Hz ermöglicht.
  • Da ein Laser, der im Nah-IR (NIR) sendet, Augenschäden verursachen kann, muss die mittlere emittierte Leistung des LIDAR-Sensorsystems begrenzt werden, um die Sicherheitsspezifikation IEC60825-1 zu erfüllen, die, wie bereits oben skizziert, auf der maximal zulässigen Expositionsgrenze (MPE) für das menschliche Auge basiert. Die MPE ist definiert als die höchste mittlere Leistung in W/cm2 einer Lichtquelle, die als sicher gilt. Der freie Parameter eines LIDAR-Sensorsystems zur Umgehung der Einschränkungen der MPE kann entweder darin bestehen, die Empfindlichkeit des Sensors zu erhöhen, die als PEmin in attoJ/Puls oder in nW während der Spitzenzeit bewertet werden kann, oder die optische Spitzenleistung zu erhöhen, indem die Länge eines Laserpulses verringert wird, während die mittlere optische Szenenbeleuchtungsleistung konstant bleibt. Die detaillierte Anforderung an die LIDAR-Sensorsysteme mit einer optischen Durchschnittsleistung von 5 W führt dann zu einer übertragenen Laserpulsleistung von weniger als 2,5 kW bei 2 ns Breite und einer Wiederholrate von weniger als 1 MHz für ein scannendes LIDAR-Sensorsystem oder zu einer Laserspitzenleistung von weniger als 100 MW bei 2 ns Breite und einer Wiederholrate von weniger als 25 Hz für ein Blitz-LIDAR-Sensorsystem.
  • Um solche Timing-Anforderungen zu erreichen, kann die geeignete Halbleitertechnologie Gallium-Nitrid und GaN-FETs für die Pulslaser-Erzeugung sein. Dies kann ein schnelles Hochleistungsschalten im ns-Bereich ermöglichen.
  • 11 zeigt das zweite LIDAR-Sensorsystem 50 und das LIDAR-Datenverarbeitungssystem 60 im Detail. Das zweite LIDAR-Sensorsystem 50 umfasst in verschiedenen Ausführungsformen eine Vielzahl von Sensorelementen 52 (die auch als Pixel oder Sensorpixel bezeichnet werden können), eine Vielzahl von Energiespeicherschaltungen 1102, eine Vielzahl von Ausleseschaltungen 1104 und den Sensor-Controller 53. Nachgeschaltet zu der Vielzahl von Ausleseschaltungen 1104 kann die erweiterte Signalverarbeitungsschaltung 61 vorgesehen werden, die z.B. durch ein Field Programmable Gate Array (FPGA) implementiert wird. Nachgeschaltet an die erweiterte Signalverarbeitungsschaltung 61 kann der Host-Prozessor 62 bereitgestellt werden.
  • Die Mehrzahl der Sensorelemente 52 kann in einem regelmäßigen oder unregelmäßigen Array angeordnet sein, z.B. in einem Matrix-Array oder in einem kreisförmigen Array oder in jeder anderen gewünschten Art von Array, und sie können sowohl auf demselben als auch auf verschiedenen Substraten positioniert sein, und diese Substrate können in derselben Ebene liegen oder seitlich und/oder vertikal verschoben sein, so dass die Substrate nicht auf einer gemeinsamen Ebene positioniert sind. Darüber hinaus kann die Vielzahl der Sensorelemente 52 alle die gleiche Größe und/oder Form haben oder zumindest einige von ihnen können eine unterschiedliche Größe und/oder unterschiedliche Formen haben. Beispielsweise können einige Sensorelemente 52 der Mehrzahl von Sensorelementen 52, die in der Mitte eines Arrays angeordnet sind, eine größere Größe haben als andere Sensorelemente 52 der Mehrzahl von Sensorelementen 52, die weiter von der Mitte entfernt angeordnet sind, oder umgekehrt. Jedes Sensorelement 52 der Vielzahl von Sensorelementen 52 kann eine oder mehrere Fotodioden aufweisen, wie z.B. eine oder mehrere Avalanche-Fotodioden (APD), z.B. eine oder mehrere Einzelphotonen-Lawinendioden (SPAD) und/oder eine SiPM (Silizium-Photomultiplier) und/oder einen CMOS-Sensor (Komplementär-Metalloxid-Halbleiter) und/oder ein CCD (ladungsgekoppeltes Bauelement) und/oder eine gestapelte Mehrschicht-Fotodiode. Jedes Sensorelement 52 kann z.B. eine Größe im Bereich von ca. 1 µm2 (1 µm * 1 µm) bis ca. 10.000 µm2 (100 µm * 100 µm) haben, z.B. im Bereich von ca. 100 µm2 (10 µm * 10 µm) bis ca. 1.000 µm2 (10 µm * 100 µm). Es ist zu beachten, dass andere Größen und beliebige Formen der Sensorelemente 52 vorgesehen werden können.
  • Der SPAD ist ein lichtempfindliches (z.B. siliziumbasiertes) pn-Übergangselement mit hoher interner Ladungsverstärkung und der Fähigkeit, einzelne Photonen aufgrund der internen Verstärkung der ursprünglich erzeugten Photoelektronen bis zu makroskopischen Ladungswerten im fC- bis pC-Bereich zu detektieren, die mit geeigneter konventioneller Elektronik gemessen werden können, was im Folgenden näher erläutert wird. Eine grundlegende Eigenschaft des SPAD ist die Lawinenauslösewahrscheinlichkeit, die durch die Form des internen elektrischen Feldes getrieben wird und durch die Profilierung der elektrischen Feldverteilung im pn-Übergang optimiert werden kann. Abgestufte Feldprofile sind in der Regel gestuften Feldprofilen überlegen. SPAD-basierte Pixel können eine Zeitauflösung im ps-Bereich mit Jitterwerten von < 50 ps ermöglichen, während aufgrund der niedrigen Aktivierungsenergie von < 0,5 eV die Dunkelzählrate DCR der SPAD typischerweise hoch ist und den Hauptbegrenzungsfaktor für das gültige minimal erreichbare detektierbare Lichtsignal darstellt. Trotz der gleichmäßigen Spannungsvorspannung in SPAD-Pixelarrays kann das DCR-Verhalten selbst bei Variationen im Größenbereich weniger gleichmäßig sein, und für eine allgemeine Qualitätsanalyse sollte das temperaturabhängige DCR über das gesamte Sensorarray gemessen werden. Das Nachpulsen in SPAD-Pixeln kann zu korreliertem Rauschen in Bezug auf den anfänglichen Signalpuls führen und es kann durch den Entwurf geeigneter Löschschaltungen mit schneller Lawinenlöschfähigkeit minimiert werden, da das Nachpulsen bei zeitaufgelösten Anwendungen zu Messverzerrungen führt. Optisches Übersprechen ist ein Parameter in SPAD-Arrays, der durch die Emission von optischen Photonen während des Lawinenverstärkungsprozesses selbst verursacht wird und durch die Einführung einer tiefen Grabenisolation zu den benachbarten Pixelelementen minimiert werden kann.
  • 12A bis 12C veranschaulichen die Funktionsweise und das Anwendungsprinzip einer Einzelphoton-Lawinendiode (SPAD) 1202 nach verschiedenen Ausführungsformen. Die SPAD 1202 ist ein pn-Übergang, der oberhalb des Durchbruchs, d.h. im sogenannten Geiger-Modus, zur Detektion einzelner Photonen vorgespannt werden kann. Die SPAD 1202 kann sowohl in Si-SOI (Silizium-auf-Isolator)-Technologie als auch in Standard-CMOS-Technologie geliefert werden. Eine Kathode der SPAD 1202 kann oberhalb der Durchbruchspannung bei z.B. -25V vorgespannt werden. Eine fallende Flanke 1204 eines SPAD-Signals 1206 (12A) oder eine steigende Flanke 1208 eines SPAD-Signals 1210 ( 12B und 12C) markiert die Detektionszeit eines Photons und kann zum Anschluss an eine konventionelle digitale Zählerschaltung oder an einen Stoppeingang einer digitalen Ankunftszeitschaltung (TAC) verwendet werden, wie weiter unten beschrieben wird. Ein passives Quenchen kann durch einen seriellen Widerstand 1212, 1214 realisiert werden, um die ausgelöste Ladungslawine zu stoppen, während ein aktives Quenchen durch einen Schalter realisiert werden kann, der durch eine automatische Dioden-Rücksetzschaltung (ADR) (nicht dargestellt) nach der Ereignisdetektion selbst (Quench-Strategie) aktiviert wird (12C). Um die zeitliche Ereignisauflösung zu verbessern, können schnelle Lösch-/Ladetechniken mit abstimmbarer Totzeit angewendet werden. Die Erholungszeit von Vcath nach dem Ereignis wird durch die Zeitkonstante des Löschwiderstands und die intrinsische Sperrschichtkapazität bestimmt, was typischerweise zu einer Totzeit von z.B. ca. 100 ns für passives Löschen und bis hinunter zu z.B. ca. 10 ns für aktives Löschen führt.
  • Die SPAD 1202 ist so konfiguriert, dass sie das Auftreten einzelner Photonen zur Ankunftszeit im ps-Bereich detektiert. Die Intensität eines empfangenen Lichts (Photonenfluss = Anzahl der Photonen/Zeit) kann in der Zählrate der Detektordiagramme 1300, 1310, 1320, 1330 kodiert werden, wie in 13A bis 13D dargestellt. Die Lichtintensität zu einem bestimmten Zeitpunkt kann durch Auswertung der Zählrate aus einem Zählersignal 1302, 1312, 1322, 1332 bestimmt werden, das von einem Zähler empfangen wird, der in einem bestimmten Zeitfenster einem entsprechenden SPAD nachgeschaltet ist. Bei schwachem Licht wird eine niedrige Zählrate erzielt, die ihr Minimum bei der Dunkelzählrate DCR hat und als Grundrauschen betrachtet werden kann (siehe Zählsignal 1302 bei schwachem Licht in 13A), während bei höheren Lichtintensitäten die Zählung des Zählers bis zu seiner maximalen Zählratenfähigkeit (max. Zählratenwert) getrieben wird, die durch die Totzeit des SPAD-Elements selbst begrenzt wird (siehe Zählsignal 1312 bei mittlerem Licht in 13B, Zählsignal 1322 bei höherem Licht in 13C und Zählsignal 1332 bei hohem Licht in 13D). Die Totzeit eines einzelnen SPAD wird durch den Löschmechanismus zum Stoppen der selbsttragenden Ladungslawine des SPAD bestimmt. Da die Totzeit der SPADs normalerweise im Bereich von etwa > 10 ns bis 100 ns liegt, was in der Regel höher ist als die angestrebte Zeitauflösung, kann eine Zählratenanalyse entweder im statistischen Sinne durch wiederholte Messungen innerhalb des gegebenen Zeitfensters oder durch die Implementierung einer Vielzahl von SPADs (z.B. mehr als 1000 SPADs) in ein einziges Pixel-Zellenarray durchgeführt werden, um die effektive Totzeit der parallelen SPADs zu verringern und so die gewünschten Zielanforderungen an die Gate-Zeitauflösung zu erfüllen. Die interne Totzeit eines Pixelelements ist < 10 nsec (aktuelle Messung). Sowohl bei SiPM-SPAD-Pixelelementen als auch bei APDs ist die Größe des Ausgangssignals der Diode proportional zur Intensität des detektierten Lichts (d.h. der Anzahl der Photonen, die an der lichtempfindlichen Schicht der Diode angekommen sind), während bei SPADs das Ausgangssignal eine wohldefinierte Strompulsspitze ist, die aufgrund der Avalancheverstärkung im überkritischen vorgespannten pn-Übergang gesättigt ist (Vorspannung über die nominale Avalanchedurchbruchspannung hinaus). Da es sich bei den SPAD-Pixeln um intrinsisch digitale Bauelemente handelt, bieten sie eine schnelle und hohe Signalausgabe und können direkt an digitale ICs (integrierte Schaltungen) gekoppelt werden, um hochempfindliche Photonenzählfunktionen mit digitalen TDC-Zählern für Zeitstempelfunktionalität oder Gated-Zählermessung innerhalb eines gegebenen Zeitfensters (Gated Count Rate Analysis) zu kombinieren. Für die Verbindung der verschiedenen Einheitstechnologien des SPAD-basierten Sensorelements 52 und der konventionellen CMOS-basierten digitalen Elektronik ist die Flip-Chip-Technik auf Die- oder Chip-Gehäuse-Ebene eine mögliche Lösung, um die Anforderungen an das HF-Timing (Hochfrequenz) zu erfüllen. Es wird das Abbildungsverhalten einer SPAD mit Einzelphotonenzählung für schwache Lichtverhältnisse und für hohe Lichtintensitäten gezeigt. Für eine Schwachlichtbedingung (siehe 13A) kann die SPAD das Auftreten der einzelnen Photonen auflösen, und die Lichtintensität wird in der beobachteten Zählrate kodiert, die mit konventioneller Zähllogik gemessen werden kann, wie weiter unten näher erläutert wird. Für den mittleren Lichtzustand (siehe 13B) führt die ansteigende Rate der einzelnen Photonen bereits zu Pile-Up-Effekten und die SPAD kann bereits mit einer Mischung aus diskreten Ladungszählungen und einem kontinuierlichen Ladungssignal reagieren. Bei einer hohen Lichtbedingung (siehe 13C) kann die hohe Photonenrate zu einer kontinuierlichen Anhäufung von durch Photonen erzeugter Ladung an der internen pn-Kapazität der SPAD führen, die dann mit einem konventionellen Transimpedanzverstärker (TIA) mit adäquatem Zeitverhalten gemessen werden kann. Bei einer SiPM-Pixelzelle (siehe 13D) kann die summierte Ausgabe der vielen parallelen SPADs zu einem analogen Ladungssignal führen, das die Intensität des einfallenden Lichtpulses auf einem kontinuierlichen Rauschboden aufgrund des Hintergrundlichtpegels reflektiert.
  • Es ist zu beachten, dass Lidar-Bildgebungsanwendungen eine hohe Gleichmäßigkeit über ein ganzes Pixel-Array erfordern. Die Nutzung der CMOS-Technologie für SPAD-Arrays kann die Möglichkeit bieten, zeitaufgelöste Bildmechanismen auf Pixelebene zu implementieren (CIS-Prozess), wobei meist kundenspezifische analoge Lösungen eingesetzt werden können.
  • Für eine zeitaufgelöste Bildgebungsanwendung kann die Zeitinformation auf Pixelebene erzeugt und gespeichert werden, um die für das Auslesen des Arrays benötigte Datenmenge und Bandbreite zu reduzieren. Für die Speicherung der Timing-Informationen auf Pixelebene kann entweder In-Pixel-Time-Gating (Zeittaktung) oder Time-Tagging (Zeitstempelung) vorgesehen werden. Die Operationen für Gating und Time-Tagging können mit minimalem Flächenmehraufwand durchgeführt werden, um einen kleinen Pixelabstand mit hohem Füllfaktor beizubehalten. Einzelphotonen-Bildgebungssensoren auf CMOS-Ebene (CMOS-basierte SPADs) eignen sich auch für die Bildgebung bei schwachem Licht.
  • Unter Bezugnahme auf 11 und 14 kann jedes Sensorelement 52 der Vielzahl von Sensorelementen 52 eine oder mehrere SPADs wie oben beschrieben aufweisen und somit ein SPAD-Signal 1106 an einen jeweils zugeordneten und nachgeschalteten gekoppelten Energiespeicherschaltkreis 1102 der Vielzahl von Energiespeicherschaltkreisen 1102 liefern (nicht in 14 dargestellt). Eine weitere nachgeschaltete, gekoppelte Ausleseschaltung 1104 kann so konfiguriert werden, dass sie das analoge Energiesignal ausliest und in ein digitales Signal umwandelt.
  • Eine Lösung zur Bestimmung der vorherrschenden SPAD-Zählrate besteht bildlich gesprochen einfach darin, die Stromspitzen der einfallenden Ereignisse zu einem bestimmten Zeitpunkt zu integrieren, um die gesammelte Ladung als Intensitätswert des einfallenden Lichtniveaus abzuleiten (Boxcar-Integrator) (siehe Ladungsdiagramm 1402 in 14), wobei die vordefinierte Position des aktiven Zeittores den Ereigniszeitpunkt des gemessenen Lichtpulses bestimmt (siehe als Beispiel ein Torfenster (auch als Zeittor oder Zeitfenster bezeichnet) 1404, das in Verbindung mit dem Ladungsdiagramm 1402 in 14 schematisch dargestellt ist). Das Konzept der zeitgesteuerten Messung für die ToF-Analyse ist in 14 dargestellt. Die Position des Zeittores 1404 in Bezug auf die Vorderkante eines Laserpulses 1406 korreliert mit dem Abstand dn des Objektes 100 in der Szene und die Torbreite bestimmt die Tiefenauflösung der Messung. Eine Torzeit (Gate-Zeit) von weniger als 5 ns kann für viele Anwendungen ausreichend sein, und die Länge des emittierten Laserpulses 1406 sollte idealerweise im gleichen Bereich liegen, damit die Signalbedeutung im angestrebten Zeitfenster 1404 schneller abgerufen werden kann. Alternativ kann die Position des Torfensters 1404 bei Auftreten eines gültigen Detektorsignals automatisch eingestellt werden (ereignisgesteuertes Gating). Ein repräsentatives Zeitsignal aus dem Rohsignal des Detektors kann durch Anwendung analoger Schwellwertschaltungen (wie weiter unten ausführlicher beschrieben wird) oder durch einfache kapazitive Kopplung des SPAD-Signals abgeleitet werden, das zur Bereitstellung von Stoppsignalen geeignet ist, um entweder einen analogen TAC-Wandler oder einen digitalen TDC mit angemessener zeitlicher Auflösung vor der Messung des Zeitablaufs von der Emission des Laserpulses 1406 bis zur Detektion beim Eintreffen des Ereignisses zu steuern. Es ist zu beachten, dass die Schwellenwerte auch eine Funktion von Tag/Nacht, d.h. des Umgebungslichtpegels, sein können. Im Allgemeinen kann die Einstellung der Schwellenwerte durch das Backend gesteuert werden, d.h. z.B. durch das LIDAR-Datenverarbeitungssystem 60 oder durch den Sensor-Controller 53, wo die Daten ausgewertet und klassifiziert werden. Im Backend befinden sich die besten Perspektiven, um über die Gründe für die Schwellenwerteinstellung zu entscheiden. Im Backend kann auch am besten entschieden werden, ob und wie die Schwellenwerte an die verschiedenen Lichtverhältnisse (Tag/Nacht) angepasst werden können.
  • 14 zeigt ein Blockdiagramm eines LIDAR-Aufbaus für zeitgesteuerte Messungen auf der Basis statistischer Photonenzahlauswertung an verschiedenen Zeitfensterpositionen während der Transientenzeit des Laserpulses. Die Position des Torfensters 1404, die mit dem Abstand dn des beobachteten (d.h. anvisierten) Objektes 100 korreliert, kann entweder vom Host-Controller 62 selbst oder durch die triggerbasierte Vorauswertung des eingehenden Detektorsignals (ereignisbasierte Messung) eingestellt und abgetastet werden. Die vordefinierte Breite des Torfensters 1404 bestimmt die zeitliche Auflösung und damit die Auflösung der Tiefenmessung der Objekte 100. Für die Datenanalyse und Nachbearbeitung können die resultierenden Messungen in den verschiedenen Zeitfenstern 1404 in einem Histogramm geordnet werden, das dann die rückgestreute Intensität in Korrelation mit der Tiefe, also als Funktion der Tiefe, darstellt. Um die Detektionseffizienz der Tormessung (Gated-Messung) zu maximieren, sollte die Länge des Laserpulses 1406 etwas größer eingestellt werden als die Breite des Torfensters 1404. Eine Totzeit der SPAD 52 sollte kürzer als das angestrebte Torfenster 1404 sein. Längere Totzeiten im Bereich von > 1 ns (typischerweise > 10 ns) können jedoch durch wiederholte Messungen kompensiert werden, um die statistische Signifikanz der erfassten Photonenzahlen wiederherzustellen, oder durch den Einsatz von SiPM-Detektoren, bei denen die effektive Totzeit durch die Vielzahl paralleler SPADs 52 in einer Pixelzelle verringert wird. Im Falle niedriger Intensitäten des rückgestreuten Lichts kann die Signalstärke durch Auswertung der Zählrate der diskreten Einzelphotonensignale 1106 vom Detektor während der Torzeit 1404 bestimmt werden.
  • Ein Beispiel für einen Laser (z.B. einen Triggered-Short-Pulse-Laser) 42 mit einer Pulsbreite von weniger als 5 ns und einer ausreichend hohen Leistung wäre: Teem Photonic-STG-03E-1x0 - Pulsdauer: 500ps / gütegeschaltet - Spitzenleistung: 6kW - Mittlere Leistung: 12mW - Wellenlänge: 532nm - Linienbreite: 0,8pm.
  • SPAD 52-Wafer können in einer Silizium-auf-Isolator (SOI)-Technologie mit reduziertem Leckstrom verarbeitet werden, die eine geringe Epitaxiekompatibilität mit der standardmäßigen elektronischen CMOS-Fertigungstechnologie aufweist. In verschiedenen Ausführungsformen können die hinterleuchteten photonischen Komponenten auf einer separaten Struktur (Photonic-IC) implementiert werden, während die Ausleseelektronik (z.B. die Ausleseschaltungen 1104) in Standard-CMOS-Technologie entweder zusammen mit der SPAD 52 implementiert werden kann oder eine Zusammenschaltung durch C4-Flip-Chip-Technik ermöglicht wird. Bei SPAD 52-basierten Sensor-Arrays hat die heterogene Kombination von SPADs 52 und Standard-CMOS-Technologie einen geringeren Einfluss auf den Füllfaktor, wenn der Anschluss auf der Rückseite des Sensors erleichtert wird.
  • Die Sensoren 52 wie PDs, APDs und SPADs oder SiPMs liefern analoge Fotostromsignale 1106, die von einem Transimpedanzverstärker (TIA) in eine weiter zu verstärkende Spannung umgewandelt werden müssen, um die erforderlichen logischen Steuerpulse (Schwellenwerte) für die richtige zeitaufgelöste Bildgebung auszulösen. Meistens wurden Vorderflankendiskriminatorstufen oder Konstantbruchdiskriminatorstufen (CFD) verwendet, um die erforderlichen logischen Ereignissignale für die TDC-basierte Zeitraffermessung oder die ADC-basierte Intensitätsumwandlung abzurufen. Für den Fall, dass das Fotodetektorelement (Sensor) 52 nur ein analoges Ausgangssignal liefert, wird das analoge Ausgangssignal durch eine geeignete TIA-Schaltung vorverstärkt und die ToF-Messungen werden auf der Basis der extrahierten logischen Steuersignale (Event-Trigger-Generation) durchgeführt, bevor die digital-basierte ToF-Messung durch den TDC gestoppt wird oder bevor die analog-basierte ToF-Messung durch TAC (TAC=Time to Analog Converter; Zeit-zu-Analog-Wandler) gestoppt wird oder bevor die analoge Messung durch digitale Umwandlung durch den/die ADC(s) ausgelöst wird. Dies wird weiter unten ausführlicher erläutert.
  • In verschiedenen Ausführungsformen wird für die digital basierte TDC-Messung ein digitaler Zähler mit ausreichend hoher Genauigkeit eingerichtet, um den Zeitablauf vom anfänglichen Laserpuls bis zum Eintreffen des Ereignissignals zu erfassen, wobei der verbleibende Inhalt des Zählers den ToF-Wert darstellt. Für die analog basierte TAC-Messung wird eine analoge Stromquelle mit ausreichender Genauigkeit eingerichtet, um einen wohldefinierten Kondensator zu laden, indem sie vom anfänglichen Laserpuls gestartet und beim Eintreffen des Ereignissignals gestoppt wird, wobei der verbleibende Spannungswert am Kondensator den gemessenen ToF-Wert repräsentiert. Da die rein analogen Lösungen mit einer relativ geringen Anzahl von Teilen in unmittelbarer Nähe des SPAD 52-Elements des Ereignisdetektors durchgeführt werden können, hat die nachfolgende ADC-Stufe für die digitale Wandlung ungefähr die gleiche Teilekomplexität wie der TDC-Chip in der rein digitalen Lösung. Die ADC-Wandlung dient zur Digitalisierung des gemessenen Analogwertes sowohl für das Intensitätssignal vom TIA-Verstärker als auch vom TAC-Verstärker, falls verwendet. Es ist zu erwähnen, dass SPAD-basierte Detektoren sowohl analoge Intensitätssignale als auch schnelle Signalausgänge hoher Zeitpräzision liefern können, die direkt dem TDC-Eingang zur digitalen ToF-Messung zugeführt werden können. Auf diese Weise entsteht eine Schaltung mit geringem Stromverbrauch und mit einer sehr geringen Menge an erzeugten digitalen Sensordaten, die an die fortschrittliche Signalverarbeitungsschaltung (wie z.B. FPGA 61) weitergeleitet werden können.
  • Bei Pixelarchitekturen mit freistehendem Photonendetektor kann der Analogausgang des PD 52 drahtgebondet (durch Bonddrähte 1506 wie in 15A gezeigt) oder C4-verbunden (durch Leiterbahnen 1508 wie in 15B gezeigt) mit einem TIA-Chip 1502 verbunden werden, der seinerseits mit den Leiterbahnen auf der Leiterplatte (PCB) 1500 verbunden wird, bevor er mit den Endanschlüssen an eine nachfolgende ADC-Schaltung 1504 angeschlossen wird, wie in 15A und 15B gezeigt, wobei die Chip-Gehäuse des lichtempfindlichen Photoelements und der Ausleseelektronik auf einer Hochgeschwindigkeits-PCB 1500 als Detektorplatte befestigt werden. 15A und 15B veranschaulichen somit die Verbindung zwischen einem abgesetzten Photonik-IC (PIC) und dem Standard-Elektronik-IC (EIC) sowohl in Drahtbondtechnik (15A) als auch in Flip-Chip-Technik (15B). Der PD-Chip 52 und der TIA/TAC-Chip 1502 sind auf dem gemeinsamen Hochgeschwindigkeitsträger PCB 1500 montiert, über den die Hochgeschwindigkeitsverbindung hergestellt wird. 15C und 15D veranschaulichen die Verbindung zwischen dem abgesetzten Photonik-IC (PIC) und dem Standard-Elektronik-IC (EIC) sowohl in Drahtbondtechnik (15C) als auch in Flip-Chip-Technik (15D). Der PD-Chip 52, ein TIA-Chip 1510 und ein digitaler TDC-Chip 1512 sind auf dem gemeinsamen Hochgeschwindigkeitsträger PCB 1500 montiert, über den die Hochgeschwindigkeitsverbindung hergestellt wird.
  • SPAD-Strukturen mit ausreichender Photonen-Detektionseffizienz können in Standard-CMOS-Technologien entwickelt werden. Ein in Standard-CMOS-Technologie implementierter SPAD kann den Entwurf von Hochgeschwindigkeitselektronik in unmittelbarer Nähe zu den empfindlichen photo-optischen Komponenten auf demselben Chip ermöglichen und ermöglicht die Entwicklung kostengünstiger ToF-Chip-Technologie sowohl für LIDAR-Anwendungen als auch für allgemeine Anwendungen wie Spektroskopie. Die CMOS-Technologie ermöglicht auch die Herstellung von 2D-SPAD-Arrays mit Zeittorauflösungen im sub-ns-Bereich und die Ableitung des Tiefenbildes der gesamten Szene in einer Aufnahme. Verschiedene Ausführungsformen von APD- und SPAD-Elementen können auf einem p-Typ-Substrat aufgebaut werden, indem ein p+/tiefe n-Wanne-Schutzring verwendet wird, um das SPAD-Element vom Substrat zu trennen. Eine PN-SPAD ist auf der Oberseite der tiefen n-Wanne-Schicht implementiert, während die Anoden- und Kathodenanschlüsse direkt am Hochspannungsknoten für die kapazitive Kopplung an die Niederspannungsausleseelektronik zugänglich sind. Eine höhere RED-Empfindlichkeit und NIR-Empfindlichkeit kann mit einem tieferen n-Wanne/tiefen n-Wanne-Übergang erreicht werden. Um eine dichte Integration von Bauteilen zu erreichen, können die Ausleseelektronik und das aktive Quenching-Netzwerk neben dem SPAD auf der gleichen tiefen n-Wanne-Schicht implementiert und partitioniert werden. In der tiefen n-Wanne-Schicht sind nur n-Typ-MOSFETs für den Aufbau der Niederspannungs-Ausleseelektronik realisierbar, während p-Typ-Transistoren nicht verfügbar waren.
  • Für Flash-LIDAR-Anwendungen sollte ein Fotosensor-Array eine hohe räumliche Auflösung mit hoher Effizienz bieten, die mit kleinen Pixeln mit hohem Füllfaktor übereinstimmt. Daher sollte die Flächenbelegung der Schaltung so klein wie möglich gehalten werden. Um die elektronische Fläche im Pixel so klein wie möglich zu halten, werden analoge Lösungen wie analoge TIAs und analoge TACs angeboten, wie weiter unten näher erläutert wird. Verschiedene Techniken zur Realisierung kleiner Pixel mit gutem Füllfaktor dienen zur Minimierung des elektronischen Bereichs durch den Einsatz einfacher Aktiv-Pixel-Ausleseschaltungen mit Source-Folger und Auswahlschalter, durch die Nutzung parasitärer Kapazitäten zur Ladungsspeicherung und durch die Wiederverwendung der Transistoren für verschiedene Zwecke.
  • Wenn der Ausgang des Sensorelements 52 zu klein ist, um einen Puls direkt an eine Time-Pickoff-Einheit (Zeitabholungseinheit) (TAC, TDC) zu liefern, sollte der Ausgang des Sensorelements 52 verstärkt und geformt werden (Pulsformung). Eine mögliche Technik zur Erzeugung von Analogsignalen mit erweiterten Bandbreitenfähigkeiten können kaskodierte Verstärkertopologien sein, die als reine Transkonduktanzverstärker (l2l-Wandler) mit geringer Rückkopplung und hoher Bandbreitenfähigkeit arbeiten. Es kann jede geeignete kaskodierte Verstärkertopologie gewählt werden, die sich am besten an den jeweiligen Anwendungsfall anpasst.
  • Low-Level-Timing-Diskriminatoren und Ereignis-Schwellenwert-Extraktion zur Markierung der Ankunftszeit des Signals arbeiten auf identische Weise wie schnelle Verstärker, wobei Präzision und Konsistenz erforderlich sind, um den unterschiedlichen Zeitlauf verschiedener Signalhöhen zu kompensieren. Spitzenwert-Diskriminatoren (Schwellenwert-Triggerung) und Konstantbruch-Diskriminatoren (Konstantbruch-Triggerung) sind so ausgelegt, dass sie genaue Timing-Informationen erzeugen, wobei die einfache Spitzenwert-Triggerung weniger bevorzugt wird, da sie Zeitsprünge verursacht, da das Trigger-Timing von der Spitzenhöhe des Signals abhängt. CFDs hingegen sind präziser, da sie so ausgelegt sind, dass sie genaue Timing-Informationen aus analogen Signalen unterschiedlicher Höhe bei gleicher Anstiegszeit erzeugen.
  • Zeitverzögerungen können in Schaltungen zur allgemeinen Zeiteinstellung, vor der Korrektur der Verzögerungen unterschiedlicher Ladungssammelzeiten in verschiedenen Detektoren oder vor der Kompensation der Laufzeiten in Verstärkerstufen eingeführt werden.
  • Die grundlegenden Schaltungen für die zeitaufgelöste Bildgebung sind analoge TIAs und/oder TACs, die für eine In-Pixel-Implementierung (d.h. für eine monolithische Integration mit der Fotodiode wie SPAD) eine geringe Anzahl von Bauteilen aufweisen sollten.
  • Ein Transimpedanzverstärker (TIA) 1600 als Beispiel für einen Teil der Energiespeicherschaltung 1102 in Übereinstimmung mit verschiedenen Ausführungsformen ist in 16 dargestellt. Der TIA 1600 ist so konfiguriert, dass er das injizierte Ladungssignal von der lichtempfindlichen SPAD 52 sammelt und auf einem Speicherkondensator speichert, um es auf Befehl aus dem Backend auszulesen. 16 zeigt eine kompakte Implementierung des TIA 1600 in einem NMOS-basierten Front-End-Pixel.
  • Ein abbildender MOSFET (z.B. NMOSFET) M7 wird beim Auftreten eines Start_N-Signals 1602 (z.B. von der Sensor-Steuerung 53 bereitgestellt) an einem Start-MOSFET (z.B. NMOSFET) M2 aktiv und sammelt ein Ladungssignal von der SPAD 52 (z.B. das SPAD-Signal 1106) auf den analogen Stromspeicher an einem ersten Speicherkondensator C3. Ein erster Knoten des ersten Speicherkondensators C3 kann mit dem Massepotential (oder einem anderen Bezugspotential) und ein zweiter Knoten des ersten Speicherkondensators C3 kann mit dem Source-Anschluß eines Imaging-MOSFET M7 und mit dem Gate-Anschluß eines Probe-MOSFET M8 verbunden werden. Der Gate-Anschluss des Start-MOSFET M2 ist so gekoppelt, dass er das Start_N-Signal 1602 empfängt. Darüber hinaus ist der Source-Anschluss des Start-MOSFET M2 mit einem Bezugspotential wie z.B. Massepotential gekoppelt, und der Drain-Anschluss des Start-MOSFET M2 ist direkt elektrisch leitend mit dem Gate-Anschluss des Imaging-MOSFET M7 gekoppelt. Der SPAD 52 liefert das SPAD-Signal 1106 an den Gate-Anschluss des Imaging-MOSFET M7. Die Anode des SPAD 52 kann auf dem gleichen elektrischen Potential liegen (kann der gleiche elektrische Knoten sein) wie der Drain-Anschluss des Start-MOSFET M2 und der Gate-Anschluss des Imaging-MOSFET M7. Die Kathode des SPAD 52 kann mit einem SPAD-Potential VSPAD gekoppelt werden. Da der erste Speicherkondensator C3 den aktuellen TIA-Wert dynamisch hält, kann er vom Probe-MOSFET (z.B. NMOSFET) M8 durch einen externen Befehl (auch als Sample-and-Hold-Signal S&H_N 1608 bezeichnet) abgefragt werden (das z.B. von einer Abtast-Halte-Schaltung bereitgestellt wird, wie weiter unten beschrieben wird), das an den Drain-Anschluss des Probe-MOSFET M8 angelegt wird, um in einem zweiten Speicherkondensator C4 gespeichert zu werden, und das über einen Auslese-MOSFET (z.B. NMOSFET) M9 zum Backend für die ADC-Wandlung zu einem geeigneten gewünschten Zeitpunkt ausgelesen werden kann. Ein erster Knoten des zweiten Speicherkondensators C4 kann mit dem Massepotential (oder einem anderen Bezugspotential) und ein zweiter Knoten des zweiten Speicherkondensators C4 kann mit dem Source-Anschluß des Probe-MOSFET M8 und dem Drain-Anschluß des Auslese-MOSFET M9 verbunden werden. Das Sample-and-Hold-Signal S&H_N 1608 kann an den Drain-Anschluss des Probe-MOSFET M8 angelegt werden. Ein TIA-Auslesesignal RdTIA 1604 kann an den Gate-Anschluss des Auslese-MOSFET M9 angelegt werden. Außerdem liefert der Auslese-MOSFET M9 ein analoges TIA-Signal analogTIA 1606 an eine andere externe Schaltung (z.B. an die Ausleseschaltung 1104). Das analoge TIA-Signal analogTIA 1606 ist ein Beispiel für ein TIA-Signal 1108, wie in 11 dargestellt. 16 zeigt ferner einen ersten Widerstands-MOSFET (z.B. NMOSFET) M1, der einen Widerstand für die aktive Löschung (Quenching) als Reaktion auf ein erstes Widerstandssignal RES_1 1610 bereitstellt. Das erste Widerstandssignal RES_1 1610 ist ein Spannungspotential und dient dazu, den ersten Widerstands-MOSFET (z.B. NMOSFET) M1 zu einem definierten Widerstand zu machen.
  • Jede Energiespeicherschaltung 1102 kann außerdem einen ersten Zeit-zu-Analog-Wandler (TAC) 1702 aufweisen, wie in 17 dargestellt. Ein alternativer zweiter TAC 1802 ist in 18 dargestellt. Der erste TAC 1702 kann so konfiguriert werden, dass er die Zeitspanne vom anfänglichen Startsignal Start_N 1602 bis zum Eintreffen des SPAD-Ereignisses misst, indem der Strom einer genau definierten Stromquelle integriert wird und die gesammelte Ladung in einem analogen Stromspeicher wie z.B. an einem dritten Kondensator C1 gespeichert wird, um auf Befehl aus dem Backend ausgelesen zu werden. 17 und 18 zeigen kompakte Implementierungen des TAC 1702, 1802 in einem NMOS-basierten Front-End-Pixel.
  • Der erste TAC 1702 enthält eine Stromquelle, die durch einen ersten Stromquellen-MOSFET (z.B. NMOSFET) M3a und einen zweiten Stromquellen-MOSFET (z.B. NMOSFET) M4a implementiert ist. Die Stromquelle wird beim Auftreten des Startsignals Start_N-Signal 1602 an einem TAC-Start-MOSFET (z.B. NMOSFET) M5a aktiv und wird beim Auftreten eines Ereignissignals (z.B. SPAD-Signal 1106) vom SPAD 52 an einem Ereignis-MOSFET (z.B. NMOSFET) M2a gestoppt. Da ein Ladungsspeicher (z.B. der dritte Kondensator C1) den aktuellen TAC-Wert behält, kann er durch einen weiteren Probe-MOSFET (z.B. NMOSFET) M6a auf externes Kommando (z.B. das Sample-and-Hold-Signal S&H_N 1608) abgefragt werden, um den repräsentativen TAC-Wert an einem vierten Kondensator C2 zu speichern und über einen ToF-Auslese-MOSFET (z.B. NMOSFET) M7a zum Backend für die ADC-Wandlung zu einem geeigneten gewünschten Zeitpunkt auszulesen. Ein ToF-Auslesesignal RdToF 1704 kann an den Gate-Anschluss des ToF-Auslese-MOSFET M7a angelegt werden. Darüber hinaus liefert der ToF-Auslese-MOSFET M7a ein analoges ToF-Signal analogToF 1706 an eine weitere externe Schaltung (z.B. an die Ausleseschaltung 1104). Das analoge ToF-Signal analogToF 1706 ist ein weiteres Beispiel für ein TIA-Signal 1108, wie in 11 dargestellt. Somit kann das TIA-Signal 1108 eine Vielzahl von Signalen aufweisen. Darüber hinaus zeigt 17 einen weiteren ersten Widerstands-MOSFET (z.B. NMOSFET) M1a, der einen Widerstand für die aktive Löschung als Reaktion auf das erste Widerstandssignal RES_1 1610 bereitstellt. Das erste Widerstandssignal RES_1 1610 ist ein Spannungspotential und dient dazu, den weiteren ersten Widerstands-MOSFET (z.B. NMOSFET) M1 zu einem definierten Widerstand zu machen.
  • Alternativ kann in der zweiten TAC 1802 das Sample-and-Hold-Signal S&H_N 1608 durch eine analoge Spannungsrampe Vramp ersetzt werden, die von einer externen Schaltung (z.B. vom Sensorcontroller 53) eingespeist wird und den Zeitablauf von einem jeweiligen Zyklusstart kodiert. Die analoge Spannungsrampe Vramp kann an den Drain-Anschluß eines Rampen-MOSFET (z.B. NMOSFET) M5b, dessen Gate-Anschluß mit dem Ausgangsanschluß der Inverterstufe gekoppelt ist, und an den Source-Anschluß, der mit einem ersten Anschluß eines TAC-Speicherkondensators C2a und mit dem Drain-Anschluß des weiteren Probe-MOSFET M6b gekoppelt ist, angelegt werden. Eine zweite Klemme des TAC-Speicherkondensators C2a kann mit dem Massepotential oder jedem anderen gewünschten Bezugspotential gekoppelt werden. Beim Auftreten eines Ereignissignals (z.B. SPAD-Signal 1106) von der SPAD 52 trennt die Inverterstufe mit einem ersten Inverter-MOSFET (z.B. NMOSFET) M3b und einem zweiten Inverter-MOSFET (z.B. NMOSFET) M4b die eigentliche analoge Spannungsrampe Vramp von einem TAC-Speicherkondensator C2a. Die Spannung am TAC-Speicherkondensator C2a stellt dann den tatsächlichen ToF-Wert dar. In einer anspruchsvolleren Version kann ein Löschwiderstand am weiteren ersten Widerstands-MOSFET (z.B. NMOSFET) M1b aktiv durch eine ADR-Schaltung (nicht dargestellt) gesteuert werden, die vom auftretenden SPAD-Signal 1106 abgeleitet werden sollte (aktives Löschen).
  • Um noch einmal auf 11 zurückzukommen: Bei der Mixed-Signal-Pixel-Architektur können das lichtempfindliche Element (z.B. die Fotodiode, z.B. der SPAD), d.h. der Sensor 52, und die Ausleseelektronik auf einem gemeinsamen Submikrometer-basierten CMOS-Chip-Technologiepixel und damit auf einem gemeinsamen Die oder Chip oder Substrat implementiert werden. Eine integrierte Schaltung mit gemischten Signalen kann sowohl analoge als auch digitale Schaltungen auf einem einzigen Halbleiterchip kombinieren, die schwieriger als skalierbare Chips für die Herstellung zu entwerfen sind, die sowohl für verschiedene Prozesstechnologien als auch für die Beibehaltung ihrer Funktionsspezifikation angepasst werden können. Da sich die Informationskodierung in analogen Schaltungen im Spannungsbereich von der Informationskodierung digitaler Elektronik im Zeitbereich unterscheidet, haben beide Technologien unterschiedliche Anforderungen an die Versorgungsspannungen und an spezielle Schutzring-Entkopplungstopologien, die beim allgemeinen Chip-Design ausgeglichen werden müssen. Ein Effekt des Analog-Mixed-Signal-Systems auf einem Chip ist es, die analog basierte Abtastung in unmittelbarer Nähe der digital basierten Datenverarbeitung zu kombinieren, um eine hohe Integrationsdichte und Leistungszuverlässigkeit zu erreichen. Ein Effekt der digitalen Signalverarbeitung im Vergleich zur analogen Signalverarbeitung kann in ihrer inhärenten Robustheit gegenüber externer Rauschkopplung und der inhärenten Robustheit digitaler Schaltungen gegenüber Prozessschwankungen gesehen werden. Lichtempfindliche Pixelelemente für die Hochgeschwindigkeits-LIDAR-Anwendung eignen sich ideal für die profitable Anwendung der Mixed-Signal-Technologie. Das lichtempfindliche Element kann aus einer einzelnen SPAD 52 oder einer SiPM-Zelle und die Ausleseelektronik aus einem oder mehreren TIAs, CFDs, TDCs und ADCs bestehen. Für die In-Pixel-Ereignisanalyse können die Ergebnisse wie Lichtlaufzeit und Lichtintensität dann mit einer hohen Datenrate an den FPGA 61 übertragen werden, um nach einer Vorevaluierung und adäquaten Datenformatierung an den Backend-Host-Prozessor 62 gesendet zu werden. Das Design des Pixelarrays kann einen kundenspezifischen Mixed-Signal-ASIC mit den lichtempfindlichen Elementen als SiPM-Zellen und der Mixed-Signal-Ausleseschaltung auf demselben Wafersubstrat aufweisen oder im Wesentlichen aus einem solchen bestehen, während der FPGA 61 den schnellen Datentransfer zwischen dem Sensor-Pixel 50 und dem Backend-Host-Prozessor 62 erleichtern kann.
  • 25A zeigt eine Schaltkreisarchitektur 2500 für die kontinuierliche Erfassung von Wellenformen. Ausführlicher zeigt 25A ein Top-Level-Diagramm für eine LIDAR-Anwendung.
  • Das lichtempfindliche Pixelelement (d.h. z.B. das zweite LIDAR-Abtastsystem 50) kann den Transimpedanzverstärker TIA und die ADC- und TDC-basierte Ausleseelektronik auf einem gemeinsamen Substrat aufnehmen, während das Backend durch einen kundenspezifischen FPGA-Chip 61 für schnelles digitales Auslesen und Vorverarbeitung der ersten Ereignisse realisiert werden kann, bevor die erkannten Ereignisse zur endgültigen Analyse und Anzeige an den Host-Prozessor 62 übertragen werden. Es ist zu beachten, dass im Wellenform-Modus kein hardwarebasiertes Triggerelement vorgesehen ist. In verschiedenen Ausführungsformen können der Sensor 52 und die anderen Komponenten jedoch einzelne Chips sein oder eine oder mehrere der elektronischen Komponenten, die in dieser Offenbarung beschrieben werden, können monolithisch auf demselben Chip oder Die oder Substrat integriert sein. Beispielsweise können der Sensor und der TIA 1102 und/oder der TAC monolithisch auf einem gemeinsamen Chip oder Die oder Substrat integriert sein. Das TIA-Signal 1108 kann ein kontinuierliches analoges elektrisches Signal sein, das von der TIA 1102 geliefert wird. Das TIA-Signal 1108 kann einem abtastenden Analog-Digital-Wandler 2502 zugeführt werden, der dem Ausgang des TIA 1102 nachgeschaltet ist und der kontinuierlich eine LIDAR-Spur abtastet. Das kontinuierliche analoge elektrische TIA-Signal 1102 wird in ein digitalisiertes TIA-Signal 2504 umgewandelt, das mehrere aufeinanderfolgende digitale TIA-Spannungswerte enthält, die eine Zeitreihe von TIA-Spannungswerten 2506 bilden. Die Zeitreihe der TIA-Spannungswerte 2506 wird dann dem LIDAR-Datenverarbeitungssystem 60, z.B. dem FPGA 61 zur weiteren Signalverarbeitung und -analyse (z.B. mittels software- und/oder hardwarebasierter Signalverarbeitung und -analyse) zugeführt. Die Signalverbindungen zwischen der TIA 1102 und dem LIDAR-Datenverarbeitungssystem 60 werden also kontinuierlich mit Signalen belastet.
  • 19A bis 19C zeigen verschiedene Implementierungen einer Ausleseschaltung in Übereinstimmung mit verschiedenen Ausführungsformen. 19A zeigt eine Implementierung des zweiten LIDAR-Abtastsystems 50 und dessen Ausleseschaltung 1104 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Ausführlicher zeigt 19A ein Top-Level-Diagramm für eine TDC- und ADC-basierte Pixelarchitektur für eine LIDAR-Anwendung. Das lichtempfindliche Pixelelement (d.h. das zweite LIDAR-Sensorsystem 50) kann die Triggerelektronik und die Ausleseelektronik auf ADC- und TDC-Basis auf einem gemeinsamen Substrat aufnehmen, während das Backend durch einen kundenspezifischen FPGA-Chip 61 für schnelles digitales Auslesen und Vorverarbeitung von Primärereignissen realisiert werden kann, bevor die erkannten Ereignisse zur endgültigen Analyse und Anzeige an den Host-Prozessor 62 übertragen werden. In verschiedenen Ausführungsformen können der Sensor 52 und die anderen Komponenten jedoch einzelne Chips sein oder eine oder mehrere der elektronischen Komponenten, die in dieser Offenbarung beschrieben werden, können monolithisch auf demselben Chip oder Die oder Substrat integriert sein.
  • Beispielsweise können der Sensor und die TIA und/oder die TAC monolithisch auf einem gemeinsamen Chip oder Die oder Substrat integriert sein.
  • Das in 19A dargestellte funktionale Blockschaltbild der In-Pixel-Ausleseelektronik enthält oder besteht im Wesentlichen aus mehreren kaskadierten Ausleseeinheiten, die die Analyse und Speicherung mehrerer aufeinanderfolgender Sensorereignisse einer ToF-Spur ermöglichen, während die Schnittstelle zum benachbarten FPGA 61 eine Vielzahl von elektrischen Verbindungen, z.B. Signalleitungen, aufweist, wie im Folgenden näher beschrieben wird. Illustrativ können kaskadierte Ausleseeinheiten und damit ein kaskadierter Sensorereignisanalysemechanismus zur Erkennung von Multi-Target-Echos bereitgestellt werden.
  • Der Ausleseschaltkreis 1104 kann eine oder mehrere Ausleseeinheiten aufweisen. Obwohl 19A fünf Ausleseeinheiten zeigt, kann je nach Anwendung eine beliebige Anzahl von Ausleseeinheiten vorgesehen werden.
  • Jede Ausleseeinheit kann aufweisen:
    • - einen Ereignisdetektor (19A bis 19C zeigen einen ersten Ereignisdetektor 1902, einen zweiten Ereignisdetektor 1904, einen dritten Ereignisdetektor 1906, einen vierten Ereignisdetektor 1908 und einen fünften Ereignisdetektor 1910), der so konfiguriert ist, dass er ein Triggersignal liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Triggerkriterium erfüllt; die elektrische Charakteristik kann die Energiemenge oder die Spannung des elektrischen Spannungssignals 1106 sein, das von der (zugehörigen) Energiespeicherschaltung 1102 geliefert wird; der Ereignisdetektor kann einen Bestimmer aufweisen, der so konfiguriert ist, dass er bestimmt, ob die analoge elektrische Charakteristik einen vordefinierten Schwellenwert als vordefiniertes Triggerkriterium überschreitet; der Bestimmer kann ferner so konfiguriert sein, dass er den aus der Energiespeicherschaltung 1102 als die analoge elektrische Charakteristik gelesenen elektrischen Strom mit einem vordefinierten Spannungsschwellwert als dem vordefinierten Schwellwert vergleicht; der Ereignisdetektor kann als ein Schwellwertdetektor implementiert sein, der so konfiguriert ist, dass er bestimmt, ob der Betrag des Stroms oder der Spannung des elektrischen Spannungssignals 1106 gleich oder größer als ein entsprechender vordefinierter Schwellwert ist; der Ereignisdetektor kann beispielsweise als eine Komparatorschaltung implementiert sein; mit anderen Worten, der Bestimmer kann eine Komparatorschaltung aufweisen oder im Wesentlichen aus einer Komparatorschaltung bestehen, die so konfiguriert ist, dass sie die aus der Energiespeicherschaltung gelesene elektrische Spannung mit dem vordefinierten Spannungsschwellwert vergleicht;
    • - eine Zeitgeberschaltung (19A bis 19C zeigen eine erste Zeitgeberschaltung 1912, eine zweite Zeitgeberschaltung 1914, eine dritte Zeitgeberschaltung 1916, eine vierte Zeitgeberschaltung 1918 und eine fünfte Zeitgeberschaltung 1920), die so konfiguriert ist, dass sie eine digitale Zeitinformation liefert; die Zeitgeberschaltung kann als Zeit-Digital-Wandlerschaltung (TDC) implementiert sein, wie weiter unten ausführlicher beschrieben wird; der TDC kann auch einen oder mehrere interne digitale Zähler aufweisen;
    • - optional eine Abtast-Halte-Schaltung (19A bis 19C zeigen eine erste Abtast-Halte-Schaltung 1922, eine zweite Abtast-Halte-Schaltung 1924, eine dritte Abtast-Halte-Schaltung 1926, eine vierte Abtast-Halte-Schaltung 1928 und eine fünfte Abtast-Halte-Schaltung 1930), die so konfiguriert ist, dass sie die aus der Energiespeicherschaltung gelesene elektrische Energie speichert und die gespeicherte elektrische Energie einem Analog-Digital-Wandler zuführt; und
    • - einen Analog-Digital-Wandler (19A bis 19C zeigen einen ersten Analog-Digital-Wandler 1932, einen zweiten Analog-Digital-Wandler 1934, einen dritten Analog-Digital-Wandler 1936, einen vierten Analog-Digital-Wandler 1938 und einen fünften Analog-Digital-Wandler 1940), der so konfiguriert ist, dass er die analoge elektrische Kennlinie (z.B. den Betrag des elektrischen Stroms oder der Spannung) in einen digitalen elektrischen Kennwert (z.B. einen Stromwert oder einen Spannungswert) umwandelt.
  • Es ist zu beachten, dass in allen Ausführungsformen ein oder mehrere Differenzierer (ein D-Schaltkreis zur Erfassung der lokalen Minima oder Maxima des TIA-Signals; zwei D-Schaltkreise zur Erfassung des Wendepunktes, um den „Mittelpunkt“ zwischen jeweils benachbarten Minima und Maxima zu bestimmen) einem Ereignisdetektor vorgeschaltet sein können. Dies kann eine einfache Rekonstruktion des gesamten zeitlichen Verlaufs des TIA-Signals ermöglichen.
  • So können drei Konfigurationen in verschiedenen Ausführungsformen vorgesehen werden, wie in 19A bis 19C sowie in 20A und 20B gezeigt:
    • - kein Differenzierer (D-Schaltung) vor einem entsprechenden Ereignisdetektor (19A bis 19C);
    • - genau ein Differenzierer (D-Schaltung) vor einem entsprechenden Ereignisdetektor (20A); und
    • - genau zwei Differenzierer (D-Schaltungen) vor einem entsprechenden Ereignisdetektor (20B).
  • In einer konkreten Beispielimplementierung können zwei Konfigurationsbits bereitgestellt werden, um keine, eine oder zwei D-Schaltungen einzuschleifen.
  • Weiterhin sind eine oder mehrere Signalleitungen 1942 vorgesehen, die z.B. als Signalbus ausgeführt sind. Die eine oder mehrere Signalleitungen 1942 sind mit dem Ausgang der Energiespeicherschaltungen 1102 gekoppelt, z.B. mit dem Ausgang des TIA 1600 zur Aufnahme des analogen TIA-Signals 1606 oder eines beliebigen anderen TIA-Verstärkers. Darüber hinaus können die eine oder mehrere Signalleitungen 1942 direkt elektrisch leitend mit einem Eingang des Ereignisdetektors 1902, 1904, 1906, 1908, 1910 und mit einem Eingang der Abtast- und Halteschaltungen 1922, 1924, 1926, 1928, 1930 gekoppelt werden. Es ist zu beachten, dass in diesem speziellen Fall ein freilaufender TIA-Verstärker vorgesehen werden kann, der keine externen Befehle benötigt. Ein TDC-Element ist in diesem Zusammenhang möglicherweise nicht erforderlich, da die TDC-Erkennung später in den nachgeschalteten gekoppelten Schaltungen oder Komponenten erfolgt.
  • Jeder Ereignisdetektor 1902, 1904, 1906, 1908, 1910 ist so konfiguriert, dass er die zugehörige Zeitgeberschaltung 1912, 1914, 1916, 1918, 1920 deaktiviert und den zugehörigen Analog-Digital-Wandler 1932, 1934, 1936, 1938, 1940 aktiviert (und optional je nach Triggersignal auch die zugehörige Abtast- und Halteschaltung 1922, 1924, 1926, 1928, 1930 aktiviert). Genauer gesagt kann jeder Ereignisdetektor 1902, 1904, 1906, 1908, 1910 so konfiguriert werden, dass die zugehörige Zeitgeberschaltung 1912, 1914, 1916, 1918, 1920 deaktiviert wird, wenn das Triggerkriterium erfüllt ist. Darüber hinaus kann der Ereignisdetektor 1902, 1904, 1906, 1908, 1910 so konfiguriert werden, dass er den zugehörigen Analog-Digital-Wandler 1932, 1934, 1936, 1938, 1940 aktiviert (und optional auch die zugehörige Abtast- und Halteschaltung 1922, 1924, 1926, 1928, 1930 aktiviert), falls das Auslösekriterium erfüllt ist. Zur Veranschaulichung: Die anderen elektronischen Komponenten (die Zeitgeberschaltung 1912, 1914, 1916, 1918, 1920, der Analog-Digital-Wandler 1932, 1934, 1936, 1938, 1940 und optional die Abtast- und Halteschaltung 1922, 1924, 1926, 1928, 1930) können durch den Ereignisdetektor 1902, 1904, 1906, 1908, 1910 deaktiviert oder aktiviert werden, je nachdem, ob das Triggerkriterium erfüllt ist oder nicht.
  • Mit anderen Worten, jeder Ereignisdetektor 1902, 1904, 1906, 1908, 1910 kann so konfiguriert werden, dass er den zugehörigen Zeitschaltkreis 1912, 1914, 1916, 1918, 1920 deaktiviert (stoppt), wenn das Auslösekriterium erfüllt ist. Die Zeitgeberschaltung 1912, 1914, 1916, 1918, 1920 (z.B. alle Zeitgeberschaltungen 1912, 1914, 1916, 1918, 1920) kann während des Auslesevorgangs (wenn der Auslesevorgang in einem aktiven Zustand ist) aktiviert und somit aktiv (laufend) sein. Der Sensor-Controller 53 kann so konfiguriert werden, dass er den Ausleseprozess steuert, indem er z.B. ein Auslesesteuersignal, z.B. das Start_N-Signal 1602, an den (die) Ereignisdetektor(en) 1902, 1904, 1906, 1908, 1910 und an die Zeitgeberschaltung(en) 1912, 1914, 1916, 1918, 1920 liefert. Somit kann die Sensor-Steuerung 53 den/die Ereignisdetektor(en) 1902, 1904, 1906, 1908, 1910 und die Zeitgeberschaltung 1912, 1914, 1916, 1918, 1920 unter Verwendung eines gemeinsamen Signals gleichzeitig aktivieren oder deaktivieren. Mit anderen Worten, der Controller 53 kann so konfiguriert werden, dass er ein Signal liefert, um den Auslesevorgang in den aktiven oder in den inaktiven Zustand zu schalten und den Ereignisdetektor 1902, 1904, 1906, 1908, 1910 (und optional auch die Zeitschaltung 1912, 1914, 1916, 1918, 1920) entsprechend zu aktivieren oder zu deaktivieren. Es ist zu beachten, dass der Ereignisdetektor 1902, 1904, 1906, 1908, 1910 und die Zeitgeberschaltung 1912, 1914, 1916, 1918, 1920 unabhängig voneinander mit zwei verschiedenen Steuersignalen aktiviert oder deaktiviert werden können.
  • Als Beispiel sei Folgendes angenommen: der Sensorcontroller 53 hat den Auslesevorgang gestartet (und damit den ersten Ereignisdetektor 1902 aktiviert (gestartet)) und der erste Ereignisdetektor 1902 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Auslösekriterium erfüllt (d.h. ein erstes Sensorereignis (z. B. ein erstes SPAD-Ereignis) detektiert wird), dann erzeugt der erste Ereignisdetektor 1902 (als Reaktion auf die Feststellung der Erfüllung des Auslösekriteriums bei Erfüllung des Kriteriums) ein erstes Triggersignal 1944, um die erste Zeitgeberschaltung (z. B. den ersten TDC) 1912 zu stoppen. Der beim Stoppen im Zähler des ersten TDC 1912 gespeicherte Zählerwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des SPAD-Erkennungsereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF, der die Entfernung des Objekts 100 darstellt). Beispielsweise gibt der gestoppte erste Zeitgeberschaltkreis 1912 „seinen“ digitalisierten und damit ersten digitalen ToF-Wert 1956 auf einer oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das erste Triggersignal 1944, das für den Fall erzeugt wird, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal (Fotosignal)1 106 das Triggerkriterium erfüllt, den (bis dahin) deaktivierten ersten Analog-Digital-Wandler 1932 aktivieren (und optional auch die (bis dahin) deaktivierte erste Abtast- und Halteschaltung 1922 aktivieren). Die nun aktive erste Abtast-Halte-Schaltung 1922 speichert also das jeweilige Spannungssignal 1106 (im allgemeinen das jeweilige Energiesignal), das auf der einen oder den mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal an den (ebenfalls nun aktiven) ersten Analog-Digital-Wandler 1932. Der erste Analog-Digital-Wandler 1932 wandelt das analoge Spannungssignal in einen ersten digitalen ToF-Wert 1956 um und gibt den digitalen Spannungswert (Intensitätswert) 1958 an eine oder mehrere weitere Ausgangsleitungen 1960 aus. Die eine oder mehrere Ausgangsleitungen 1954 und die eine oder mehrere weitere Ausgangsleitungen 1960 können mindestens eine gemeinsame digitale Schnittstelle bilden, die an das LIDAR-Datenverarbeitungssystem 60, z.B. an den FPGA 61, angeschlossen wird.
  • Darüber hinaus kann der erste Zeitgeberschaltkreis 1912 ein erstes Zeitgeberschaltkreis-Ausgangssignal 1962 erzeugen und liefert dasselbe an einen Freigabeeingang des zweiten Ereignisdetektors 1904. In verschiedenen Ausführungsformen kann in diesem Fall das erste Zeitgeberschaltkreis-Ausgangssignal 1962 den (bis zum Empfang dieses Signals 1962 deaktivierten) zweiten Ereignisdetektor 1904 aktivieren. Nun ist der erste Ereignisdetektor 1902 inaktiv und der zweite Ereignisdetektor 1904 aktiv und beobachtet die elektrische Charakteristik eines Signals, das auf der einen oder mehreren Signalleitungen 1942 anliegt. Es ist anzumerken, dass zu diesem Zeitpunkt der zweite Analog-Digital-Wandler 1934 sowie die optionale zweite Abtast- und Halteschaltung 1924 noch inaktiv sind, ebenso wie alle anderen weiter nachgeschalteten Analog-Digital-Wandler 1936, 1938, 1940 und andere Abtast- und Halteschaltungen 1926, 1928, 1930. Somit werden von diesen Komponenten keine „unnötigen“ Daten erzeugt, und die Menge der an das LIDAR-Datenverarbeitungssystem 60 übertragenen digitalen Daten kann erheblich reduziert werden.
  • Geht man ferner davon aus, dass der nun aktive zweite Ereignisdetektor 1904 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 wieder das Triggerkriterium erfüllt (d.h. ein zweites Sensorereignis (z.B. ein zweites SPAD-Ereignis) detektiert wird (z.B. ein zweites LIDAR-Ereignis), dann erzeugt der zweite Ereignisdetektor 1904 (in Reaktion auf die Feststellung der Erfüllung des Triggerkriteriums) ein zweites Triggersignal 1946, um den zweiten Zeitgeberschaltkreis (z.B. den zweiten TDC) 1914 zu stoppen. Der beim Stoppen im Zähler des zweiten TDC 1914 gespeicherte Zählwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des zweiten SPAD-(Detektions-)Ereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF, der die Entfernung des Objekts 100 darstellt). Beispielsweise gibt die gestoppte zweite Zeitgeberschaltung 1914 „ihren“ digitalisierten und damit zweiten digitalen ToF-Wert 1964 auf der einen oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das zweite Triggersignal 1946, das erzeugt wird, wenn das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt, den (bis zu diesem Zeitpunkt) deaktivierten zweiten Analog-Digital-Wandler 1934 aktivieren (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte zweite Abtast- und Halteschaltung 1924 aktivieren). Die nun aktive zweite Abtast-Halte-Schaltung 1924 speichert also das jeweilige Spannungssignal (im allgemeinen das jeweilige Energiesignal), das auf der einen oder mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal (Intensitätssignal) an den (ebenfalls nun aktiven) zweiten Analog-Digital-Wandler 1934. Der zweite Analog-Digital-Wandler 1934 wandelt das analoge Spannungssignal in einen zweiten digitalen Spannungswert 1966 um und gibt den zweiten digitalen Spannungswert 1966 an eine oder mehrere weitere Ausgangsleitungen 1960 aus.
  • Darüber hinaus erzeugt der zweite Zeitgeberschaltkreis 1914 ein zweites Zeitgeberschaltkreis-Ausgangssignal 1968 und liefert dasselbe an einen Freigabeeingang des dritten Ereignisdetektors 1906. In verschiedenen Ausführungsformen kann in diesem Fall das Ausgangssignal 1968 des zweiten Zeitgeberschaltkreises den (bis zum Empfang dieses Signals 1968 deaktivierten) dritten Ereignisdetektor 1906 aktivieren. Nun sind der erste und zweite Ereignisdetektor 1902, 1904 inaktiv und der dritte Ereignisdetektor 1906 ist aktiv und beobachtet die elektrische Charakteristik eines auf einer oder mehreren Signalleitungen vorhandenen Signals 1942. Es ist anzumerken, dass zu diesem Zeitpunkt der dritte Analog-Digital-Wandler 1936 sowie die optionale dritte Abtast- und Halteschaltung 1926 noch inaktiv sind, ebenso wie alle anderen weiter nachgeschalteten Analog-Digital-Wandler 1938, 1940 und andere Abtast- und Halteschaltungen 1928, 1930. Somit werden durch diese Komponenten keine „unnötigen“ Daten erzeugt und die Menge der an das LIDAR-Datenverarbeitungssystem 60 übertragenen digitalen Daten kann erheblich reduziert werden. Somit kann ein zweites Sensorereignis (z.B. eine zweite Einzelphotonen-Detektion) durch diese Ausleseschaltung 1104 detektiert werden.
  • Geht man ferner davon aus, dass der nun aktive dritte Ereignisdetektor 1906 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 wieder das Triggerkriterium erfüllt (d.h. es wird ein drittes Sensorereignis (z.B. ein drittes SPAD-Ereignis) detektiert), dann erzeugt der dritte Ereignisdetektor 1906 (in Reaktion auf die Feststellung der Erfüllung des Triggerkriteriums) das dritte Triggersignal 1948, um den dritten Zeitschaltkreis (z.B. den dritten TDC) 1916 zu stoppen. Der beim Stoppen im Zähler des dritten TDC 1916 gespeicherte Zählerwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des dritten SPAD-(Detektions-)Ereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF, der die Entfernung des Objekts 100 darstellt). Beispielsweise gibt der gestoppte dritte Zeitgeberschaltkreis 1916 „seinen“ digitalisierten und damit dritten digitalen ToF-Wert 1970 auf der einen oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das dritte Triggersignal 1948, das erzeugt wird, wenn das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt, den (bis zu diesem Zeitpunkt) deaktivierten dritten Analog-Digital-Wandler 1936 aktivieren (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte dritte Abtast- und Halteschaltung 1926 aktivieren). Die nun aktive dritte Abtast-Halte-Schaltung 1926 speichert also das jeweilige Spannungssignal, das auf der einen oder mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal an den (ebenfalls nun aktiven) dritten Analog-Digital-Wandler 1936. Der dritte Analog-Digital-Wandler 1936 wandelt das analoge Spannungssignal in einen dritten digitalen Spannungswert 1972 um und gibt den dritten digitalen Spannungswert 1972 an eine oder mehrere weitere Ausgangsleitungen 1960 aus.
  • Darüber hinaus erzeugt der dritte Zeitgeberschaltkreis 1916 ein drittes Zeitgeberschaltkreis-Ausgangssignal 1974 und liefert dasselbe an einen Freigabeeingang des vierten Ereignisdetektors 1908. In verschiedenen Ausführungsformen kann in diesem Fall das dritte Zeitgeberschaltkreis-Ausgangssignal 1974 den (bis zum Empfang dieses Signals 1974 deaktivierten) vierten Ereignisdetektor 1908 aktivieren. Nun sind der erste, zweite und dritte Ereignisdetektor 1902, 1904, 1906 inaktiv und der vierte Ereignisdetektor 1908 ist aktiv und beobachtet die elektrische Charakteristik eines Signals, das auf der einen oder mehreren Signalleitungen 1942 anliegt. Es ist zu beachten, dass zu diesem Zeitpunkt der vierte Analog-Digital-Wandler 1938 sowie die optionale vierte Abtast- und Halteschaltung 1928 noch inaktiv sind, ebenso wie alle weiteren nachgeschalteten Analog-Digital-Wandler 1940 und andere Abtast- und Halteschaltungen 1930. Somit werden von diesen Komponenten keine „unnötigen“ Daten erzeugt und die Menge der an das LIDAR-Datenverarbeitungssystem 60 übertragenen digitalen Daten kann erheblich reduziert werden. Somit kann ein einzelnes drittes Sensorereignis (z.B. eine dritte Einzelphotonen-Detektion) durch diese Ausleseschaltung 1104 detektiert werden.
  • Geht man ferner davon aus, dass der nun aktive vierte Ereignisdetektor 1908 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 wieder das Triggerkriterium erfüllt (d.h. ein viertes Sensorereignis (z.B. ein viertes SPAD-Ereignis) detektiert wird), dann erzeugt der vierte Ereignisdetektor 1908 (in Reaktion auf die Feststellung der Erfüllung des Triggerkriteriums) das vierte Triggersignal 1950, um die vierte Zeitgeberschaltung (z.B. den vierten TDC) 1918 zu stoppen. Der beim Stoppen im Zähler des vierten TDC 1918 gespeicherte Zählerwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des vierten SPAD-(Detektions-)Ereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF, der die Entfernung des Objekts 100 darstellt). Beispielsweise gibt die gestoppte vierte Zeitgeberschaltung 1918 „ihren“ digitalisierten und damit vierten digitalen ToF-Wert 1976 auf der einen oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das vierte Triggersignal 1950, das erzeugt wird, wenn das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt, den (bis zu diesem Zeitpunkt) deaktivierten vierten Analog-Digital-Wandler 1938 aktivieren (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte vierte Abtast-Halte-Schaltung 1928 aktivieren). Die nun aktive vierte Abtast-Halte-Schaltung 1928 speichert also das jeweils auf der einen oder mehreren Signalleitungen 1942 anliegende Spannungssignal und stellt dieses als analoges Spannungssignal dem (ebenfalls nun aktiven) vierten Analog-Digital-Wandler 1938 zur Verfügung. Der vierte Analog-Digital-Wandler 1938 wandelt das analoge Spannungssignal in einen vierten digitalen Spannungswert 1978 um und gibt den vierten digitalen Spannungswert 1978 an eine oder mehrere weitere Ausgangsleitungen 1960 aus.
  • Darüber hinaus erzeugt der vierte Zeitgeberkreis 1918 ein viertes Zeitgeberkreis-Ausgangssignal 1980 und liefert dasselbe an einen Freigabeeingang des fünften Ereignisdetektors 1910. In verschiedenen Ausführungsformen kann in diesem Fall das vierte Zeitgeberkreis-Ausgangssignal 1980 den (bis zum Empfang dieses Signals 1980 deaktivierten) fünften Ereignisdetektor 1910 aktivieren.
  • Nun sind der erste, zweite, dritte und vierte Ereignisdetektor 1902, 1904, 1906, 1908 inaktiv und der fünfte Ereignisdetektor 1910 ist aktiv und beobachtet die elektrische Charakteristik eines auf einer oder mehreren Signalleitungen vorhandenen Signals 1942. Es ist zu beachten, dass zu diesem Zeitpunkt der fünfte Analog-Digital-Wandler 1940 sowie die optionale fünfte Abtast- und Halteschaltung 1930 noch inaktiv sind, ebenso wie alle optionalen weiteren nachgeschalteten Analog-Digital-Wandler (nicht abgebildet) und optionalen anderen Abtast- und Halteschaltungen (nicht abgebildet). Somit werden von diesen Komponenten keine „unnötigen“ Daten erzeugt und die Menge der an das LIDAR-Datenverarbeitungssystem 60 übertragenen digitalen Daten kann erheblich reduziert werden. Somit kann ein individuelles drittes Sensorereignis (z.B. eine zweite Einzelphonton-Erkennung) durch diese Ausleseschaltung 1104 erkannt werden.
  • Geht man ferner davon aus, dass der nun aktive fünfte Ereignisdetektor 1910 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 wieder das Triggerkriterium erfüllt (d.h. es wird ein fünftes Sensorereignis (z.B. ein fünftes SPAD-Ereignis) detektiert), dann erzeugt der fünfte Ereignisdetektor 1910 (in Reaktion auf die Feststellung der Erfüllung des Triggerkriteriums) das fünfte Triggersignal 1952, um den fünften Zeitgeberschaltkreis (z.B. den fünften TDC) 1920 zu stoppen. Der beim Stoppen im Zähler des fünften TDC 1920 gespeicherte Zählerwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des fünften SPAD-(Detektions-)Ereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF, der die Entfernung des Objekts 100 darstellt). Als Beispiel gibt der gestoppte fünfte Zeitgeberkreis 1920 „seinen“ digitalisierten ToF-Wert 1982 auf der einen oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das fünfte Triggersignal 1952, das erzeugt wird, wenn das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt, den (bis dahin) deaktivierten fünften Analog-Digital-Wandler 1940 aktivieren (und optional auch die (bis dahin) deaktivierte fünfte Abtast- und Halteschaltung 1930 aktivieren). Die nun aktive fünfte Abtast-Halte-Schaltung 1930 speichert also das jeweils auf der einen oder mehreren Signalleitungen 1942 anliegende Spannungssignal und stellt dieses als analoges Spannungssignal dem (ebenfalls nun aktiven) fünften Analog-Digital-Wandler 1940 zur Verfügung. Der fünfte Analog-Digital-Wandler 1940 wandelt das analoge Spannungssignal in einen fünften digitalen Spannungswert 1984 um und gibt den fünften digitalen Spannungswert 1984 an eine oder mehrere weitere Ausgangsleitungen 1960 aus.
  • Es ist zu beachten, dass der Ausleseschaltkreis 1102 mehr oder weniger als diese fünf Ausleseeinheiten, wie oben beschrieben, umfassen kann und somit mehr oder weniger als fünf einzelne Photonendetektionsereignisse am Sensor 50 erkennen kann.
  • Die Pixelarchitektur für digitales Ereignis-Timing sowohl für TDCals auch für ADC-Anwendungen ist in 19 dargestellt. Veranschaulicht wird, dass der Triggerkanal sowohl die Steuersignale für die TDC-Schaltung als auch für die Triggerung der ADC-Schaltungen erzeugt. Es werden mehrere Ausleseeinheiten kaskadiert, die sequentiell in der Lage sind, nachteilige Totzeiten zu eliminieren, falls aufeinanderfolgende Sensorereignisse in kurzer Folge mit geringem zeitlichen Abstand auftreten. Abhängig vom internen Referenztakt für die TDCs und die ADCs erlaubt die Architektur Gating- (oder Tor-)Genauigkeiten im ns-Bereich.
  • 19B zeigt eine Implementierung des zweiten LIDAR-Sensorsystems 50 und dessen Ausleseschaltung 1104 nach verschiedenen Ausführungsformen.
  • Die Implementierung, wie in 19B gezeigt, ist der Implementierung, wie in 19A gezeigt, sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 19A oben verwiesen.
  • Die ersten, zweiten, dritten, vierten und fünften Ereignisdetektoren 1902, 1904, 1906, 1908, 1910 können über eine Kommunikationsverbindung 1986, wie z.B. eine oder mehrere Busleitungen, mit der Sensor-Steuerung 53 gekoppelt werden. Die Sensor-Steuereinheit 53 kann so konfiguriert werden, dass die Schwellenwerte th1, th2, th3, th4, th5 innerhalb der ersten, zweiten, dritten, vierten und fünften Ereignisdetektoren 1902, 1904, 1906, 1908, 1910, die gleiche oder unterschiedliche Werte haben können, eingestellt werden. Es ist zu beachten, dass die Schwellenwerte th1, th2, th3, th4, th5 auch von einem anderen Prozessor als der Sensor-Steuerung bereitgestellt werden können, z.B. durch oder über das LIDAR-Datenverarbeitungssystem 60.
  • Wie oben beschrieben, enthält das zweite LIDAR-Abtastsystem 50 eine In-Pixel-Ausleseelektronik und kann mehrere kaskadierte Ausleseeinheiten aufweisen oder im Wesentlichen aus diesen bestehen, was die Analyse und Speicherung mehrerer aufeinanderfolgender Ereignisse einer ToF-Spur ermöglicht, während die Schnittstelle zum benachbarten FPGA 62.
  • Der Triggerkanal (d.h. z.B. die Ereignisdetektoren 1902, 1904, 1906, 1908, 1910) erzeugt beispielsweise Steuersignale sowohl für die TDC-Schaltung als auch für die Triggerung der ADCs. Die Triggereinstellungen können von den digitalen Backend-Schaltungen (z.B. dem Host-Prozessor 62) gesteuert werden. Der z.B. vom Host-Prozessor 62 bereitgestellte S-Clk (Systemtakt) kann für eine optionale Aktivierung eines kontinuierlichen Wellenform-Abtastmodus vorgesehen werden. Es können mehrere Ausleseeinheiten kaskadiert werden, die sequentiell aktiviert werden, um nachteilige Totzeiten bei kurz aufeinanderfolgenden Ereignissen mit geringem zeitlichen Abstand zu eliminieren. Abhängig vom internen Referenztakt für die TDCs und die ADCs können verschiedene Ausführungsformen Gating-Genauigkeiten im ns-Bereich ermöglichen.
  • 19C zeigt eine Implementierung des zweiten LIDAR-Abtastsystems 50 und dessen Ausleseschaltung 1104 nach verschiedenen Ausführungsformen.
  • Die Implementierung, wie in 19C gezeigt, ist der Implementierung, wie in 19B gezeigt, sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 19B oben verwiesen.
  • Ein Unterschied der in 19C gezeigten Implementierung in Bezug auf 19B besteht darin, dass bei der in 19C gezeigten Implementierung die zusätzlichen Zeitschaltkreis-Ausgangssignale 1962, 1968, 1974, 1980 und die zugehörigen Anschlüsse der Zeitschaltkreise 1912, 1914, 1916, 19180 1920 weggelassen werden können. Veranschaulicht wird eine direkte und aufeinanderfolgende Schwellenwertaktivierung der Ereignisdetektoren 1902, 1904, 1906, 1908, 1910. Genauer gesagt, in verschiedenen Ausführungsformen werden die Auslösesignale 1944, 1946, 1948, 1950 direkt den nachgeschalteten, gekoppelten „nächsten“ Ereignisdetektoren 1904, 1906, 1908, 1910 zugeführt und zu deren Aktivierung verwendet. Darüber hinaus kann der Sensor-Controller 53 (oder ein anderer Prozessor) optional so konfiguriert werden, dass er ein Systemtaktsignal erzeugt und dasselbe über eine weitere Kommunikationsverbindung 1988 den Analog-Digital-Wandlern 1932, 1934, 1936, 1938, 1940 zur Verfügung stellt. Das Systemtaktsignal kann für alle Analog-Digital-Wandler 1932, 1934, 1936, 1938, 1940 das gleiche sein, oder sie können sich zumindest bei einigen von ihnen unterscheiden.
  • In verschiedenen Ausführungsformen kann der Triggerkanal Steuersignale sowohl für den TDC als auch für die Triggerung der ADCs erzeugen. Die Triggerkanäle können in aufeinanderfolgender Reihenfolge direkt aktiviert werden. Der S-Clk (Systemtakt), der z.B. vom Controller (z.B. vom Sensor-Controller 53) bereitgestellt wird, kann für eine optionale Aktivierung eines kontinuierlichen Wellenform-Abtastmodus vorgesehen werden. Die Triggereinstellungen können durch das digitale Backend (z.B. durch den Host-Prozessor 62) gesteuert werden. Es können mehrere Ausleseeinheiten kaskadiert werden, die sequentiell aktiviert werden, um nachteilige Totzeiten bei kurz aufeinanderfolgenden Ereignissen mit geringem zeitlichen Abstand zu eliminieren. Abhängig vom internen Referenztakt für die TDCs und die ADCs ermöglichen verschiedene Ausführungsformen Gating-Genauigkeiten im ns-Bereich.
  • 20A zeigt eine Pixel-Architektur für fortschrittliches Ereignis-Timing sowohl für die TDC-Anwendung als auch für die ADC-Steuerung. Das erweiterte Abtastschema basiert auf der Anwendung von differenzierten ToF-Signalen (auch als Zeitableitungen des ToF-Signals bezeichnet), was eine erhöhte zeitliche Auflösung für die Analyse überlappender Doppelspitzen in der ToF-Spur ermöglicht.
  • 20A zeigt eine weitere Implementierung des zweiten LIDAR-Abtastsystems und dessen Ausleseschaltung 1104 nach verschiedenen Ausführungsformen.
  • Im Detail zeigt 20A ein Top-Level-Diagramm für eine TDC- und ADC-basierte Pixelarchitektur für eine LIDAR-Anwendung. Das lichtempfindliche Pixelelement (d.h. das zweite LIDAR-Abtastsystem 50) kann die Triggerelektronik und die ADC- und TDC-basierte Ausleseelektronik auf einem gemeinsamen Substrat unterbringen, während das Backend durch einen kundenspezifischen FPGA-Chip 61 für schnelles digitales Auslesen und Vorverarbeitung der Primärereignisse vor der Übertragung der erkannten Ereignisse an den Host-Prozessor (z.B. Host-Computer) 62 zur endgültigen Analyse und Anzeige realisiert wird. In verschiedenen Ausführungsformen können der Sensor 52 und die anderen Komponenten jedoch einzelne Chips sein oder eine oder mehrere der elektronischen Komponenten, die in dieser Offenbarung beschrieben werden, können monolithisch auf demselben Chip oder Die oder Substrat integriert sein. Zum Beispiel können der Sensor 52 und der TIA und/oder der TAC monolithisch auf einem gemeinsamen Chip oder Die oder Substrat integriert sein.
  • Das funktionale Blockdiagramm der In-Pixel-Ausleseelektronik, wie in 20 dargestellt, umfasst eine Hauptausleseeinheit und eine Hochauflösungseinheit, was eine erhöhte Auflösung ermöglichen kann. Der Ausleseschaltkreis 1104 kann eine oder mehrere Haupt- und/oder hochauflösende Ausleseeinheiten aufweisen. Obwohl 20A eine Haupt- und eine hochauflösende Ausleseeinheit zeigt, kann eine beliebige Anzahl von Ausleseeinheiten in Übereinstimmung mit der jeweiligen Anwendung vorgesehen werden.
  • Zur Hauptausleseeinheit kann gehören:
    • - ein Hauptereignisdetektor 2002, der so konfiguriert ist, dass er ein Auslösesignal 2004 liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Auslösekriterium erfüllt; die elektrische Charakteristik kann die Strommenge oder die Spannung des elektrischen Spannungssignals 1106 sein, das von der (zugehörigen) Energiespeicherschaltung 1102 geliefert wird; der Hauptereignisdetektor 2002 kann einen Bestimmer aufweisen, der so konfiguriert ist, dass er bestimmt, ob die analoge elektrische Charakteristik einen vordefinierten Schwellenwert als das vordefinierte Auslösekriterium überschreitet; der Bestimmer kann ferner so konfiguriert sein, dass er die aus der Energiespeicherschaltung als analoge elektrische Charakteristik gelesene elektrische Spannung mit einem vordefinierten Spannungsschwellwert als vordefiniertem Schwellwert vergleicht; der Hauptereignisdetektor 2002 kann als Schwellwertdetektor implementiert sein, der so konfiguriert ist, dass er bestimmt, ob der Betrag des Stroms oder der Spannung des elektrischen Spannungssignals 1106 gleich oder größer als ein entsprechender vordefinierter Schwellwert ist; der Hauptereignisdetektor 2002 kann beispielsweise als Komparatorschaltung implementiert sein; mit anderen Worten, der Bestimmer kann eine Komparatorschaltung aufweisen oder im Wesentlichen aus einer Komparatorschaltung bestehen, die so konfiguriert ist, dass sie die aus der Energiespeicherschaltung gelesene elektrische Spannung mit dem vordefinierten Spannungsschwellwert vergleicht.
    • - eine Hauptzeitgeberschaltung 2006, die so konfiguriert ist, dass sie eine digitale Zeitinformation bereitstellt; die Hauptzeitgeberschaltung 2006 kann als Time-to-Digital-Converter (TDC)-Schaltung implementiert sein, wie im Folgenden ausführlicher beschrieben wird; der Haupt-TDC kann einen oder mehrere digitale Zähler aufweisen;
    • - optional eine Haupt-Abtast- und Halteschaltung 2008, die so konfiguriert ist, dass sie die von der Energiespeicherschaltung 1102 abgelesene elektrische Spannung speichert und die gespeicherte elektrische Spannung an einen Haupt-Analog-Digital-Wandler 2010 liefert; und
    • - der Haupt-Analog-Digital-Wandler 2010, der so konfiguriert ist, dass er die analoge elektrische Kennlinie (z.B. die Höhe des elektrischen Stroms oder der Spannung) in einen digitalen elektrischen Kennwert 2012 (z.B. einen digitalen Stromwert oder einen digitalen Spannungswert) umwandelt.
  • Die hochauflösende Ausleseeinheit kann aufweisen:
    • - einen Differentiator 2018, der so konfiguriert ist, dass er das elektrische Spannungssignal 1106 differenziert, um ein differenziertes elektrisches Spannungssignal 2020 zu erzeugen; der Differentiator 2018 kann einen Kondensator oder ein D-Element aufweisen und/oder eine Widerstands-Kondensator-Schaltung, die als Hochpassfilter oder ein DT1-Element konfiguriert ist, um an seinem Ausgang eine Zeitableitung erster Ordnung seines Eingangssignals zu erzeugen und/oder zu approximieren;
    • - einen hochauflösenden Ereignisdetektor 2022, der so konfiguriert ist, dass er ein hochauflösendes Triggersignal 2022 liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Triggerkriterium erfüllt; die elektrische Charakteristik kann die Strommenge oder die Spannung des elektrischen Energiesignals (z.B. elektrisches Spannungssignal) 1106 sein, das von der (zugehörigen) Energiespeicherschaltung 1102 geliefert wird; der hochauflösende Ereignisdetektor 2022 kann eine Bestimmungseinrichtung aufweisen, die so konfiguriert ist, dass sie bestimmt, ob die analoge elektrische Charakteristik einen vordefinierten Schwellenwert als vordefiniertes Auslösekriterium überschreitet; die Bestimmungseinrichtung kann ferner so konfiguriert sein, dass sie die aus der Energiespeicherschaltung als analoge elektrische Charakteristik gelesene elektrische Spannung mit einem vordefinierten Stromschwellenwert als vordefiniertem Schwellenwert vergleicht; der hochauflösende Ereignisdetektor 2022 kann als ein Schwellenereignisdetektor implementiert werden, der konfiguriert ist, um zu bestimmen, ob die Strom- oder Spannungsmenge des elektrischen Spannungssignals 1106 gleich oder größer als ein entsprechender vordefinierter Schwellenwert ist; der hochauflösende Ereignisdetektor 2022 kann beispielsweise als eine Komparatorschaltung implementiert werden; mit anderen Worten, die Bestimmungseinrichtung kann eine Komparatorschaltung aufweisen oder im Wesentlichen aus einer Komparatorschaltung bestehen, die konfiguriert ist, um die aus der Energiespeicherschaltung gelesene elektrische Spannung mit dem vordefinierten Spannungsschwellenwert zu vergleichen;
    • - eine hochauflösende Zeitgeberschaltung 2024, die so konfiguriert ist, dass sie eine digitale Zeitinformation bereitstellt; die hochauflösende Zeitgeberschaltung 2024 kann als Zeit-Digital-Wandlerschaltung (TDC) implementiert werden, wie im Folgenden ausführlicher beschrieben wird; der hochauflösende TDC kann einen oder mehrere digitale Zähler aufweisen;
    • - optional eine hochauflösende Abtast- und Halteschaltung 2026, die so konfiguriert ist, dass sie die aus der Energiespeicherschaltung 1102 ausgelesene elektrische Energie (z.B. elektrische Spannung) speichert und die gespeicherte elektrische Energie (z.B. elektrische Spannung) einem hochauflösenden Analog-Digital-Wandler 2028 zur Verfügung stellt; und
    • - den hochauflösenden Analog-Digital-Wandler 2028, der so konfiguriert ist, dass er die hochauflösende analoge elektrische Kennlinie (z.B. die Höhe des elektrischen Stroms oder der Spannung) in einen hochauflösenden digitalen elektrischen Kennwert 2030 (z.B. einen digitalen Stromwert oder einen digitalen Spannungswert) umwandelt.
  • Weiterhin sind eine oder mehrere Signalleitungen 1942 vorgesehen, die z.B. als Signalbus ausgeführt sind. Die eine oder mehrere Signalleitungen 1942 sind mit dem Ausgang der Energiespeicherschaltungen 1102 gekoppelt, z.B. mit dem Ausgang des TIA 1600 zur Aufnahme des analogen TIA-Signals analog TIA 1606, und/oder mit dem Ausgang des TAC 1702. Darüber hinaus können die eine oder mehrere Signalleitungen 1942 direkt elektrisch leitend mit einem Eingang des Hauptereignisdetektors 2002, mit einem Eingang der Haupt-Abtast- und Halteschaltung 2008, mit einem Eingang des Differenzierers 2018 und mit einem Eingang der hochauflösenden Abtast- und Halteschaltung 2026 gekoppelt werden.
  • Der Hauptereignisdetektor 2002 ist so konfiguriert, dass er die Hauptzeitgeberschaltung 2006 deaktiviert und den Haupt-Analog-Digital-Wandler 2010 aktiviert (und optional auch die Haupt-Abtast- und Halteschaltung 2008 in Abhängigkeit vom Haupttriggersignal 2004 aktiviert). Im Einzelnen kann der Hauptereignisdetektor 2002 so konfiguriert werden, dass er die Hauptzeitgeberschaltung 2006 deaktiviert, wenn das Triggerkriterium erfüllt ist. Darüber hinaus kann der Hauptereignisdetektor 2002 so konfiguriert werden, dass er den Haupt-Analog-Digital-Wandler 2010 aktiviert (und optional auch die Haupt-Abtast- und Halteschaltung 2008 aktiviert), falls das Triggerkriterium erfüllt ist. Zur Veranschaulichung: Die hochauflösenden elektronischen Komponenten (die hochauflösende Zeitgeberschaltung 2024, der hochauflösende Analog-Digital-Wandler 2028 und optional die hochauflösende Abtast-Halte-Schaltung 2026) können durch den hochauflösenden Ereignisdetektor 2022 in Abhängigkeit davon aktiviert werden, ob ein hochauflösendes Triggerkriterium erfüllt ist oder nicht.
  • Um ein Beispiel zu nennen und noch einmal auf 20A zu verweisen, kann der erste Ereignisdetektor 2002 so konfiguriert werden, dass er die hochauflösende Zeitschaltung 2024 aktiviert (d.h. startet), die dann beim Eintreffen des zweiten Peaks über den Differentiator 2018 und den hochauflösenden Ereignisdetektor 2022 gestoppt werden kann. Der zeitliche Abstand (Zeitablauf) vom Hauptpeak zum nachfolgenden sekundären Peak wird dann als hochauflösender Zeitwert in der hochauflösenden Zeitgeberschaltung 2024 gespeichert.
  • Mit anderen Worten, der hochauflösende Ereignisdetektor 2022 kann so konfiguriert werden, dass er die hochauflösende Zeitgeberschaltung 2024 deaktiviert (stoppt), wenn das hochauflösende Auslösekriterium erfüllt ist (z.B. wenn die differenzierte elektrische Charakteristik gleich einer hochauflösenden Schwelle ist oder diese überschreitet). Die hochauflösende Zeitgeberschaltung 2024 kann während des Ausleseprozesses (wenn der Ausleseprozess in einem aktiven Zustand ist) aktiviert und somit aktiv (laufend) sein. Der Sensor-Controller 53 kann so konfiguriert werden, dass er den Ausleseprozess steuert, indem er z.B. ein Auslesesteuersignal, z.B. das Start_N-Signal 1602 (im Allgemeinen jede Art von Startsignal), an den Hauptereignisdetektor 2002 und an die Hauptzeitgeberschaltung 2006 liefert. Somit kann der Sensor-Controller 53 den Haupt-Ereignisdetektor 2002 und den Hauptzeitgeberkreis 2006 mit einem gemeinsamen Signal gleichzeitig aktivieren oder deaktivieren (im Sinne von nicht aktivieren). Mit anderen Worten, der Controller 53 kann so konfiguriert werden, dass er ein Signal liefert, um den Auslesevorgang in den aktiven oder in den inaktiven Zustand zu schalten und den Hauptereignisdetektor 2002 (und optional auch den Hauptzeitgeberschaltkreis 2006) entsprechend zu aktivieren oder zu deaktivieren. Es ist zu beachten, dass der Hauptereignisdetektor 2002 und der Hauptzeitgeberkreis 2006 unabhängig voneinander mit zwei verschiedenen Steuersignalen aktiviert oder deaktiviert werden können. Es ist zu beachten, dass, falls ein jeweiliger Zeitgeberschaltkreis nicht aktiviert wurde (z.B. durch das Startsignal), dieser inaktiv bleibt. Mit anderen Worten, im Allgemeinen braucht keine explizite Deaktivierung vorgenommen werden, sondern die nicht aktivierten Zeitgeberschaltungen können einfach inaktiv bleiben.
  • Als Beispiel sei angenommen, dass der Sensorcontroller 53 den Auslesevorgang gestartet hat (und damit den Hauptereignisdetektor 2002 aktiviert (gestartet) hat) und der Hauptereignisdetektor 2002 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt (mit anderen Worten, ein erstes Sensorereignis (z. B. ein erstes SPAD-Ereignis) erkannt wird), dann erzeugt der Hauptereignis-Detektor 2002 (in Reaktion auf die Feststellung der Erfüllung des Triggerkriteriums) ein Haupttriggersignal 2004, um den Hauptzeitgeberkreis (z. B. den Haupt-TDC) 2006 zu stoppen. Der im Zähler des Hauptzeitgeberkreises 2006 beim Stoppen gespeicherte Zählwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des SPAD-Erkennungsereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF, der die Entfernung des Objekts 100 darstellt). Als Beispiel gibt der gestoppte Hauptzeitgeberkreis 2006 „seinen“ digitalisierten ToF-Wert 2036 auf einer oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das Haupttriggersignal 2004, das erzeugt wird, wenn das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt, den (bis zu diesem Zeitpunkt) deaktivierten Haupt-Analog-Digital-Wandler 2010 aktivieren (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte Haupt-Abtast- und Halteschaltung 2008 aktivieren). Somit speichert die nun aktive Haupt-Abtast- und Halteschaltung 2008 das jeweilige Spannungssignal, das auf der einen oder den mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal an den (ebenfalls nun aktiven) Haupt-Analog-Digital-Wandler 2010. Der Haupt-Analog-Digital-Wandler 2010 wandelt das analoge Spannungssignal in einen digitalen Spannungswert 2012 um und gibt den digitalen Spannungswert 2012 an die eine oder mehrere weitere Ausgangsleitungen 2016 aus. Die eine oder mehrere Ausgangsleitungen 2036 und die eine oder mehrere weitere Ausgangsleitungen 2016 können mindestens eine digitale Schnittstelle bilden, die an das LIDAR-Datenverarbeitungssystem 60, z.B. an den FPGA 61, angeschlossen wird.
  • Darüber hinaus aktiviert das Haupttriggersignal 2004 die hochauflösende Zeitschaltung 2024, die mit dem Zählen beginnt. Darüber hinaus wird das SPAD-Signal (im Allgemeinen ein Fotosignal) 1106, das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellt wird, auch an den Differentiator 2018 angelegt, der das SPAD-Signal 1106 über die Zeit differenziert. Das differenzierte SPAD-Signal 2020 wird einem Eingang des hochauflösenden Ereignisdetektors 2022 zugeführt. Stellt der hochauflösende Ereignisdetektor 2022 fest, dass das vom Differentiator 2018 gelieferte differenzierte SPAD-Signal 2020 ein hochauflösendes Triggerkriterium erfüllt, dann erzeugt der hochauflösende Ereignisdetektor 2022 (in Reaktion auf die Feststellung der Erfüllung des hochauflösenden Triggerkriteriums) ein hochauflösendes Triggersignal 2038, um die hochauflösende Zeitgeberschaltung (z.B. den hochauflösenden TDC) 2024 zu stoppen. Illustrativ stellt das differenzierte SPAD-Signal 2020 den Gradienten des SPAD-Signals 1106 dar und somit beobachtet der hochauflösende Ereignisdetektor 2022 den Gradienten des SPAD-Signals 1106 und liefert das hochauflösende Triggersignal 2038, z.B. wenn der Gradient des SPAD-Signals 1106 gleich einem Gradientenschwellwert ist oder diesen überschreitet. Mit anderen Worten, die hochauflösenden Komponenten dienen dazu, zusätzliche Informationen über das SPAD-Signal 1106 zu liefern, um bei Bedarf eine höhere Auflösung des SPAD-Signals 1106 zu erreichen, z.B. wenn sich das SPAD-Signal 1106 sehr schnell ändert. Der im Zähler des hochauflösenden TDC 2024 gespeicherte Zählwert beim Stoppen stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des differenzierten SPAD-Signal-Erkennungsereignisses angibt. Als Beispiel gibt die gestoppte hochauflösende Zeitgeberschaltung 2024 „ihren“ digitalisierten und damit digital differenzierten ToF-Wert 2040 auf einer oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung. Der digitale differenzierte ToF-Wert 2040 trägt die relative Zeitverzögerung vom Haupttriggersignal 2004 bis zum Auftreten des hochauflösenden Triggersignals 2038, das die Zeitverzögerung des Auftretens des vordersten Hauptereignisdetektors 2002 und des nachfolgenden nicht führenden hochauflösenden Ereignisses bei 2022 darstellt.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das hochauflösende Triggersignal 2038, das erzeugt wird, wenn das vom Differentiator 2018 gelieferte differenzierte SPAD-Signal 2020 das hochauflösende Triggerkriterium erfüllt, den (bis zu diesem Zeitpunkt) deaktivierten hochauflösenden Analog-Digital-Wandler 2028 aktivieren (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte hochauflösende Abtast- und Halteschaltung 2026 aktivieren). Somit speichert die nun aktive hochauflösende Abtast- und Halteschaltung 2026 das jeweilige Spannungssignal (Intensitätssignal), das auf der einen oder mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal an den (ebenfalls nun aktiven) hochauflösenden Analog-Digital-Wandler 2028. Der hochauflösende Analog-Digital-Wandler 2028 wandelt das analoge Spannungssignal in den digitalen hochauflösenden Spannungswert 2030 um und gibt den digitalen hochauflösenden Spannungswert 2030 an eine oder mehrere weitere Ausgangsleitungen 2034 aus. Die eine oder mehrere Ausgangsleitungen 1954 und die eine oder mehrere weitere Ausgangsleitungen 2016 können mindestens eine digitale Schnittstelle bilden, die an das LIDAR-Datenverarbeitungssystem 60, z.B. an den FPGA 61, angeschlossen wird.
  • Illustrativ können verschiedene Ausführungsformen, die ein verbessertes Abtastschema bieten, auf der Anwendung der differenzierten ToF-Signale basieren. Dies ermöglicht eine erhöhte zeitliche Auflösung für die Analyse von überlappenden Doppelpeaks in der ToF-Spur. Die Triggereinstellungen können durch das digitale Backend (z.B. den Host-Prozessor 62) gesteuert werden. Der S-Clk (Systemtakt) vom Controller (z.B. dem Sensor-Controller 53) kann für die optionale Aktivierung des kontinuierlichen Wellenform-Abtastmodus vorgesehen werden.
  • 20B zeigt eine Implementierung einer Ausleseschaltung nach verschiedenen Ausführungsformen.
  • Die in 20B gezeigte Implementierung ist der in 20A gezeigten Implementierung sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 20A oben verwiesen.
  • Verschiedene Ausführungsformen, die ein verbessertes Abtastschema bieten, basieren auf der Anwendung der dualen differenzierten ToF-Signale, die eine erhöhte zeitliche Auflösung für die Analyse von überlappenden Doppelpeaks in unmittelbarer Nähe und den dazwischen liegenden Tälern ermöglichen. Die Triggereinstellungen können durch das digitale Backend (z.B. den Host-Prozessor 62) gesteuert werden. Der S-Clk (Systemtakt) vom Controller (z.B. dem Sensor-Controller 53) kann für eine optionale Aktivierung des kontinuierlichen Wellenform-Abtastmodus vorgesehen werden.
  • Die in 20B gezeigte Implementierung kann Folgendes umfassen:
    • - einen zweiten Differentiator 2042, der so konfiguriert ist, dass er das elektrische Spannungssignal 1106 differenziert, um ein zweites differenziertes elektrisches Spannungssignal 2044 zu erzeugen;
    • - einen Tal-Ereignis-Detektor 2046, der so konfiguriert ist, dass er ein Tal-Auslösesignal 2056 liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Tal-Auslösekriterium erfüllt. Der Tal-Ereignis-Detektor 2046 kann einen Bestimmer aufweisen, der so konfiguriert ist, dass er bestimmt, ob die analoge elektrische Charakteristik einen vordefinierten Schwellenwert als vordefiniertes Auslösekriterium überschreitet. Der Bestimmer des Tal-Ereignis-Detektors 2046 kann ferner so konfiguriert werden, dass er die aus der Energiespeicherschaltung gelesene elektrische Spannung als analoge elektrische Kennlinie mit einem vordefinierten Stromschwellwert als vordefiniertem Schwellwert vergleicht. Der Tal-Ereignis-Detektor 2046 kann als Schwellenereignis-Detektor implementiert werden, der so konfiguriert werden kann, dass er bestimmt, ob der Betrag der zweiten Ableitung vom zweiten Ableitungs-Differentiator 2042, der den zeitlichen Strom oder die Spannung des elektrischen Spannungssignals 1106 darstellt, gleich oder größer als ein entsprechender vordefinierter Schwellenwert ist. Der Tal-Ereignis-Detektor 2046 kann als Komparatorschaltung implementiert werden; mit anderen Worten, der Bestimmer kann eine Komparatorschaltung aufweisen oder im Wesentlichen aus einer solchen bestehen, die so konfiguriert ist, dass sie die vom zweiten Ableitungs-Differentiator 2042, der die zweite Ableitung des zeitlichen Stroms oder der Spannung des elektrischen Spannungssignals 1106 darstellt, gelesene elektrische Spannung mit dem vordefinierten Spannungsschwellenwert vergleicht, der z.B. von der Sensor-Steuerung 53 bereitgestellt wird.
    • - eine Tal-Zeitschaltung (Tal-TDC-Zähler) 2048 wird durch das Triggersignal 2004 des Hauptereignisdetektors 2002 aktiviert (getriggert) und ist so konfiguriert, dass er eine digitale Zeitinformation des Tal-Ereignisses in Bezug auf das Hauptereignis liefert. Die Tal-Zeitschaltung 2048 kann als Zeit-Digital-Wandler-Schaltung (TDC) implementiert werden, wie im Folgenden näher beschrieben wird; der Tal-TDC kann einen oder mehrere digitale Zähler aufweisen. Die Tal-Zeitschaltung (Tal-TDC-Zähler) 2048 wird bis 2056 deaktiviert;
    • - optional eine Tal-Abtast- und Halteschaltung 2050, die so konfiguriert ist, dass sie die aus der Energiespeicherschaltung 1102 ausgelesene elektrische Energie (z. B. elektrische Spannung) speichert und die gespeicherte elektrische Energie während der Tal-Ereigniszeit (z. B. elektrische Spannung) an einen Tal-Analog-Digital-Wandler 2052 liefert; und
    • - den Tal-Analog-Digital-Wandler 2052, der so konfiguriert ist, dass er die analoge elektrische Tal-Kennlinie (z.B. die Höhe des elektrischen Stroms oder der Spannung während der Tal-Ereigniszeit) in einen digitalen elektrischen Tal-Kennwert 2054 (z.B. einen digitalen Tal-Stromwert oder einen digitalen Tal-Spannungswert) umwandelt.
  • Darüber hinaus können die eine oder mehreren Signalleitungen (1106) 1942 (Hauptladungssignal) weiterhin direkt elektrisch leitend mit einem Eingang des zweiten Ableitungs-Differentiators 2042 gekoppelt werden.
  • Außerdem kann der Ausgang 2044 des zweiten Ableitungs-Differentiators 2042 direkt elektrisch leitend mit dem Eingang des Tal-Ereignis-Detektors 2046 gekoppelt werden.
  • Darüber hinaus kann der Ausgang 2056 des Tal-Ereignis-Detektors 2046 direkt elektrisch leitend mit dem Deaktivierungs-Eingang der Tal-Zeitgeberschaltung (Tal-TDC-Zähler) 2048 und mit dem Trigger-Eingang der Tal-Abtast- und Halteschaltung 2050 sowie mit dem Trigger-Eingang des Tal-Analog-Digital-Wandlers 2052 gekoppelt werden.
  • Zur Veranschaulichung: Die Tal-Elektronikkomponenten (die Tal-Zeitgeberschaltung 2048, die Tal-Abtast- und Halteschaltung 2050 und der Tal-Analog-Digital-Wandler 2052) können durch den Tal-Ereignisdetektor 2056 aktiviert werden, je nachdem, ob ein Tal-Auslösekriterium erfüllt oder nicht erfüllt ist.
  • Mit anderen Worten, der Tal-Ereignis-Detektor 2046 kann so konfiguriert werden, dass die Tal-Zeitschaltung 2048 deaktiviert (gestoppt) wird, wenn das Tal-Auslösekriterium erfüllt ist (z.B. die doppelt differenzierte Signalcharakteristik 2044 ist gleich oder größer als ein Tal-Schwellwert). Der Sensor-Controller 53 kann so konfiguriert werden, dass er den Ausleseprozess steuert, indem er z.B. ein Auslesesteuersignal, z.B. das Start_N-Signal 1602 (im Allgemeinen jede Art von Startsignal) an die Hauptzeitgeberschaltung 2006 liefert.
  • Die Strom- oder Spannungsmenge des elektrischen Energiesignals (z.B. elektrisches Spannungssignal) 1106, das von der (zugehörigen) Energiespeicherschaltung 1102 geliefert wird, kann an den Eingang des zweiten Ableitungsdifferentiators 2042 angelegt werden.
  • Der Tal-TDC-Zähler 2048 kann durch das Haupttriggersignal 2004 ausgelöst und aktiviert werden. Der Tal-Ereignis-Detektor 2046 kann durch den zweiten Differentiator 2042 getriggert werden (wenn das zweite Differentiator-Kriterium erfüllt ist, z.B. wenn die zweite Ableitung des SPAD-Signals 1106 „low“ (niedrig) wird). Der Tal-Ereignis-Detektor 2046 wiederum löst ein Tal-Ereignis-Triggersignal 2056 aus, bevor der Tal-TDC-Zähler 2048 deaktiviert und bevor die Tal-Abtast- und Halteschaltung 2050 aktiviert wird und bevor der Tal-Analog-Digital-Wandler 2052 aktiviert wird. Die Tal-Zeitgeberschaltung 2048 kann durch den Valley-Ereignisdetektor 2046 bzw. durch das Tal-Triggersignal 2056 deaktiviert werden. Die Tal-Zeitgeberschaltung 2048 kann durch den zweiten Differenzierer 2042 angehalten werden, so dass der relative Zeitwert (Zeitablauf) vom Beginn des Ereignisses bis zum Empfang eines Signals, das ein Tal anzeigt, in der Tal-Zeitgeberschaltung 2048 gehalten wird.
  • Als Beispiel sei angenommen, der Sensorcontroller 53 hat den Auslesevorgang gestartet (und damit den Hauptereignisdetektor 2002 aktiviert (gestartet) und der Hauptereignisdetektor 2002 erkennt, dass das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium erfüllt (mit anderen Worten: ein erstes Sensorereignis (e.z. B. ein erstes SPAD-Ereignis) detektiert wird), dann erzeugt der Hauptereignisdetektor 2002 (in Reaktion auf die Feststellung der Erfüllung des Triggerkriteriums) das Haupttriggersignal 2004, das wiederum die hochauflösende Zeitgeberschaltung 2024 und den Tal-TDC-Zähler 2048 aktiviert. Darüber hinaus kann das SPAD-Signal 1106 den Differentiator 2018 und den Tal-TDC-Zähler 2048 aktivieren. Das hochauflösende Triggersignal 2038 kann die hochauflösende Zeitgeberschaltung (Hi-Res-TDC-Zähler) 2024 stoppen. Der beim Stoppen im Zähler des Hi-Res-TDC-Zählers 2024 gespeicherte Zählerwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des SPAD-Erkennungsereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF), der die Abstandsdifferenz zweier Objekte 100 in unmittelbarer Nähe darstellt. Als Beispiel gibt der gestoppte Hi-Res-TDC-Zähler 2024 „seinen“ digitalisierten Tal-TOF-Wert 2024 auf einer oder mehreren Ausgangsleitungen 2040 (1954) an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung. Das Tal-Triggersignal 2056 kann die Tal-Zeitschaltung (z.B. den Tal-TDC) 2048 stoppen. Der Tal-TDC-Zählerwert, der im Zähler des Tal-TDC 2048 gespeichert ist, wenn er angehalten wird, stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des SPAD-Erkennungsereignisses angibt (und in der LIDAR-Anwendung einen digitalisierten ToF), der den Abstand zum Trennpunkt zweier Objekte 100 in unmittelbarer Nähe darstellt. Als Beispiel gibt die Zeitgeberschaltung 2048 im gestoppten Zustand „ihren“ digitalisierten Tal-TOF-Wert 2058 auf einer oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das Haupttriggersignal 2004, das erzeugt wird, wenn das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellte SPAD-Signal 1106 das Triggerkriterium des Talereignisdetektors 2046 erfüllt, mit dem dann erzeugten Taltriggersignal 2056 den (bis dahin) deaktivierten Tal-Analog-Digital-Wandler 2052 aktivieren (und optional auch die (bis dahin) deaktivierte Tal-Abtast- und Halteschaltung 2050 aktivieren). Somit speichert die jetzt aktive Tal-Abtast- und Halteschaltung 2050 das jeweilige Spannungssignal, das auf der einen oder mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal an den (ebenfalls jetzt aktiven) Tal-Analog-Digital-Wandler 2052. Der Tal-Analog-Digital-Wandler 2052 wandelt das analoge Spannungssignal in einen digitalen Spannungswert 2054 um und gibt den digitalen Spannungswert 2054 an die eine oder mehrere weitere Ausgangsleitungen 2034 aus. Die eine oder mehrere Ausgangsleitungen 2036 und die eine oder mehrere weitere Ausgangsleitungen 2034 können mindestens eine digitale Schnittstelle bilden, die an das LIDAR-Datenverarbeitungssystem 60, z.B. an den FPGA 61, angeschlossen ist.
  • Darüber hinaus aktiviert das Haupttriggersignal 2004 den Talzeitschaltkreis 2048, der mit dem Zählen beginnt. Darüber hinaus wird das SPAD-Signal (im Allgemeinen ein Fotosignal) 1106, das auf einer Signalleitung 1942 der einen oder mehreren Signalleitungen 1942 bereitgestellt wird, auch an den zweiten Differenzierer 2042 angelegt, der das SPAD-Signal 1106 zweimal über die Zeit differenziert. Das zweite differenzierte SPAD-Signal 2044 wird einem Eingang des Tal-Ereignis-Detektors 2046 zugeführt. Wenn der Tal-Ereignis-Detektor 2046 feststellt, dass das zweite differenzierte SPAD-Signal 2044, das vom zweiten Differenzierer 2042 geliefert wird, ein Tal-Triggerkriterium erfüllt, dann erzeugt der Tal-Ereignis-Detektor 2046 (in Reaktion auf die Feststellung der Erfüllung des hochauflösenden Triggerkriteriums) ein Tal-Triggersignal 2056, um die Tal-Zeitschaltung (z.B. den Tal-TDC) 2048 zu stoppen. Illustrativ stellt das zweite differenzierte SPAD-Signal 2044 die Krümmung des SPAD-Signals 1106 dar, so dass der Tal-Ereignis-Detektor 2046 die Krümmung des SPAD-Signals 1106 beobachtet und das Tal-Triggersignal 2056 liefert, z.B. wenn die Krümmung des SPAD-Signals 1106 gleich einer Krümmungsschwelle ist oder diese überschreitet (z.B. den Wert „0“). Mit anderen Worten dienen die Tal-Komponenten dazu, zusätzliche Informationen über das SPAD-Signal 1106 zu liefern, um auf Wunsch eine Tal- und Krümmungsinformation davon zu liefern. Der beim Stoppen im Zähler des Tal-TDC 2048 gespeicherte Zählwert stellt einen digitalen Zeitcode dar, der den Zeitpunkt des Auftretens des zweiten differenzierten SPAD-Signalerfassungsereignisses in Bezug auf das Auftreten des Haupttriggersignals 2004 angibt.
  • Beispielsweise gibt die gestoppte Talzeitschaltung 2048 „ihren“ digitalisierten und damit digitalen zweiten differenzierten ToF-Wert 2058 auf einer oder mehreren Ausgangsleitungen 1954 an das LIDAR-Datenverarbeitungssystem 60 aus, z.B. an einen digitalen Prozessor, z.B. an den FPGA 61 zur digitalen Signalverarbeitung. Der zweite digitale differenzierte ToF-Wert 2058 trägt die relative Zeitverzögerung vom Haupttriggersignal 2004 bis zum Auftreten des Taltriggersignals 2056, das die Zeitverzögerung des Auftretens des vordersten Hauptereignisdetektors 2002 und des nachfolgenden nicht führenden Talereignisses bei 2046 darstellt.
  • Darüber hinaus kann in verschiedenen Ausführungsformen das Tal-Triggersignal 2056, das erzeugt wird, wenn das zweite differenzierte SPAD-Signal 2044, das vom zweiten Differenzierer 2042 bereitgestellt wird, das Tal-Triggerkriterium erfüllt, den (bis zu diesem Zeitpunkt) deaktivierten Tal-Analog-Digital-Wandler 2052 aktivieren (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte Tal-Abtast- und Halteschaltung 2050 aktivieren). Somit speichert die nun aktive Tal-Abtast- und Halteschaltung 2050 das jeweilige Spannungssignal (Intensitätssignal), das auf der einen oder mehreren Signalleitungen 1942 anliegt, und liefert dasselbe als analoges Spannungssignal an den (ebenfalls nun aktiven) Tal-Analog-Digital-Wandler 2052. Der Tal-Analog-Digital-Wandler 2052 wandelt das analoge Spannungssignal in den digitalen Tal-Spannungswert 2054 um und gibt den digitalen Tal-Spannungswert 2054 an eine oder mehrere weitere Ausgangsleitungen 2034 aus. Die eine oder mehrere Ausgangsleitungen 1954 und die eine oder mehrere weitere Ausgangsleitungen 2034 können mindestens eine digitale Schnittstelle bilden, die an das LIDAR-Datenverarbeitungssystem 60, z.B. an den FPGA 61, angeschlossen ist.
  • 21A zeigt eine weitere Implementierung einer Ausleseschaltung nach verschiedenen Ausführungsformen.
  • Die in 21 gezeigte Implementierung ist der in 19 gezeigten Implementierung sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 19 oben verwiesen.
  • Ein Unterschied zu der in 21A gezeigten Implementierung besteht darin, dass bei der in 19A gezeigten Implementierung nur der Zeitpunkt des Auftretens eines einzelnen Sensorereignisses erfasst werden kann, nicht aber der zeitliche Verlauf des Sensorsignals eines einzelnen Sensorereignisses. Dies wird jedoch mit der in 21A gezeigten Implementierung erreicht. Die in 21A gezeigte Implementierung erlaubt also eine pixelgenaue Klassifizierung von ToF-Pulsen anhand des zeitlichen Verlaufs des Sensorsignals eines einzelnen Sensorereignisses.
  • Bei der in 21A gezeigten Implementierung werden die folgenden Verbindungen der in 19A gezeigten Implementierung nicht näher erläutert:
    • - eine Verbindung zwischen der ersten Zeitgeberschaltung 1912 und dem Freigabeeingang des zweiten Ereignisdetektors 1904; daher wird kein Ausgangssignal 1962 der ersten Zeitgeberschaltung von der ersten Zeitgeberschaltung 1912 geliefert und dem Freigabeeingang des zweiten Ereignisdetektors 1904 zugeführt;
    • - eine Verbindung zwischen dem zweiten Zeitgeberschaltkreis 1914 und dem Freigabeeingang des dritten Ereignisdetektors 1906; somit wird kein Ausgangssignal 1968 des zweiten Zeitgeberkreises vom zweiten Zeitgeberkreis 1914 geliefert und dem Freigabeeingang des dritten Ereignisdetektors 1906 zugeführt;
    • - eine Verbindung zwischen der dritten Zeitgeberschaltung 1916 und dem Freigabeeingang des vierten Ereignisdetektors 1908; daher wird kein Ausgangssignal 1974 der dritten Zeitgeberschaltung von der dritten Zeitgeberschaltung 1916 geliefert und dem Freigabeeingang des vierten Ereignisdetektors 1908 zugeführt.
  • Stattdessen wird in der in 21 gezeigten Implementierung das Start_N-Signal 1602 nicht nur allen Zeitgeberschaltungen 1912, 1914, 1916, 1918, 1920 zugeführt, um die Zähler gleichzeitig in Gang zu setzen, sondern das Start_N-Signal 1602 wird auch dem jeweiligen Freigabeeingang des ersten Ereignisdetektors 1902, dem Freigabeeingang des zweiten Ereignisdetektors 1904, dem Freigabeeingang des dritten Ereignisdetektors 1906 und dem Freigabeeingang des vierten Ereignisdetektors 1908 zugeführt.
  • Mit anderen Worten, der erste, zweite, dritte und vierte Ereignisdetektor 1902, 1904, 1906, 1908 werden im Wesentlichen gleichzeitig aktiviert, während der fünfte Ereignisdetektor 1910 noch deaktiviert bleibt, obwohl der fünfte Zeitschaltkreis 1920 bereits aktiviert wurde und läuft.
  • In einer alternativen Implementierung werden die ersten, zweiten, dritten und vierten Ereignisdetektoren 1902, 1904, 1906, 1908 im Wesentlichen gleichzeitig aktiviert, jedoch durch mindestens ein anderes Signal als das Start_N-Signal 1602.
  • In der in 21A gezeigten Implementierung können die ersten, zweiten, dritten und vierten Ereignisdetektoren 1902, 1904, 1906, 1908 unterschiedliche vordefinierte Schwellenwerte haben (im Allgemeinen prüfen sie gegen verschiedene Auslösekriterien). So werden der erste, zweite, dritte und vierte Ereignisdetektor 1902, 1904, 1906, 1908 zur Detektion desselben Sensorereignisses aktiviert und erlauben die Bestimmung des Verlaufs (d.h. des zeitlichen Verlaufs oder der Pulsformsignatur) des Sensorsignals.
  • Unter der Annahme, dass das Auslösekriterium einfach eine Spannungsschwelle ist (im Allgemeinen kann jedes andere und komplexere Auslösekriterium implementiert werden), und th1 < th2 < th3 < th4 (th1 ist der Spannungsschwellwert des ersten Ereignisdetektors 1902, th2 ist der Spannungsschwellwert des zweiten Ereignisdetektors 1904, th3 ist der Spannungsschwellwert des dritten Ereignisdetektors 1906 und th4 ist der Spannungsschwellwert des vierten Ereignisdetektors 1908), können die Ereignisdetektoren 1902, 1904, 1906, 1908 den Gradienten des Spannungssensorsignals 1106 auf der einen oder mehreren Signalleitungen 1942 detektieren.
  • Als Beispiel:
    • - eine erste Messzeit des Sensorsignals 1106 kann der Zeitpunkt sein (dargestellt durch den Zählerwert der ersten Zeitgeberschaltung 1912), zu dem der erste Ereignisdetektor 1902 feststellt, dass die Spannung gleich dem ersten Schwellenwert th1 ist oder diesen überschreitet;
    • - eine zweite Messzeit des Sensorsignals 1106 kann der Zeitpunkt sein (dargestellt durch den Zählerwert des zweiten Zeitgeberschaltkreises 1914), zu dem der zweite Ereignisdetektor 1904 feststellt, dass die Spannung gleich dem zweiten Schwellenwert th2 ist oder diesen überschreitet;
    • - eine dritte Messzeit des Sensorsignals 1106 kann der Zeitpunkt sein (dargestellt durch den Zählerwert des dritten Zeitgeberkreises 1916), zu dem der dritte Ereignisdetektor 1906 feststellt, dass die Spannung gleich dem dritten Schwellenwert th3 ist oder diesen überschreitet; und
    • - eine vierte Messzeit des Sensorsignals 1106 kann der Zeitpunkt sein (repräsentiert durch den Zählerwert des dritten Zeitgeberkreises 1916), zu dem der vierte Ereignisdetektor 1906 feststellt, dass die Spannung gleich dem vierten Schwellenwert th4 ist oder diesen überschreitet.
  • Darüber hinaus erzeugt der vierte Zeitgeberschaltkreis 1918 ein viertes Zeitgeberschaltkreis-Ausgangssignal 1980 und liefert dasselbe an einen Freigabeeingang des fünften Ereignisdetektors 1910. In verschiedenen Ausführungsformen kann in diesem Fall das vierte Zeitgeberschaltkreis-Ausgangssignal 1980 den (bis zum Empfang dieses Signals 1980 deaktivierten) fünften Ereignisdetektor 1910 aktivieren, um ein zweites Sensorereignis zu erkennen.
  • Illustrativ können in der in 21A gezeigten Implementierung vier Datenpunkte (bestimmt durch einen entsprechenden digital verstärkten Stromwert und den zugehörigen TDC-Wert) für ein einzelnes Sensorereignis bereitgestellt werden, die den zeitlichen Verlauf dieses Sensorsignals 1106 beschreiben.
  • Da z.B. die Schwellenwerte beliebig definiert werden können, ist es möglich, den zeitlichen Verlauf des Sensorsignals mit sehr hoher Genauigkeit zu erfassen.
  • In verschiedenen Ausführungsformen können die ersten bis vierten Ereignisdetektoren 1902, 1904, 1906, 1908 mit einem vordefinierten Muster von Schwellwerten versehen sein, die, um eine vordefinierte Pulsform zu erkennen, z.B. während eines aktiven SPAD-Pulses nacheinander aktiviert werden können. Dieses Konzept entspricht anschaulich einer Ereignisauswahl mit höherer Granularität in Form einer bedingten Ereignistriggergenerierung.
  • Als Alternative zur Bereitstellung von Informationen über die Form des detektierten Sensorsignals kann die in 19A gezeigte Implementierung in Bezug auf die Detektorstruktur und die Anschlüsse unverändert bleiben. In verschiedenen Ausführungsformen kann jedoch jeweils ein Triggerereignis als Auslöser für den zugehörigen Analog-Digital-Wandler (und optional die zugehörige Abtast-Halte-Schaltung) verwendet werden, um nicht nur einen digitalen Sensorsignalwert abzutasten und zu erzeugen, sondern um eine Vielzahl (z.B. einen Burst) von aufeinanderfolgenden digitalisierten und damit digitalen Sensorsignalwerten abzutasten und zu erzeugen und diese dem digitalen Backend (d.h. der digitalen Schnittstelle) zur weiteren digitalen Signalverarbeitung zur Verfügung zu stellen. Die Pulsanalyse oder Pulsklassifikation kann dann in der digitalen Domäne implementiert werden.
  • 21B zeigt eine weitere Implementierung einer Ausleseschaltung nach verschiedenen Ausführungsformen.
  • Die in 21 B gezeigte Implementierung ist der in 21A gezeigten Implementierung sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 21A oben verwiesen.
  • 21B zeigt eine Pixelarchitektur für eine individuelle Pulsformabtastung mit bedingten Triggereinstellungen, um die kohärente Erkennung vordefinierter LIDAR-Signaltypen zu ermöglichen. Über die Gültigkeit eines erkannten Ereignisses kann im Backend (z.B. durch den FPGA 61 oder den Host-Prozessor 62) entschieden werden, indem die empfangenen Ergebnisse der verschiedenen TDC- und ADC-Wertepaare mit vordefinierten Erwartungswerten verglichen werden (dies kann als kohärente LIDAR-Analyse bezeichnet werden). Die Trigger-Einstellungen können auch durch das digitale Backend (z.B. durch den Host-Prozessor 62) gesteuert werden. Der optionale S-Clk (Systemtakt) 1988 vom Controller (z.B. dem Sensor-Controller 53) kann für eine optionale Aktivierung des kontinuierlichen Wellenform-Abtastmodus vorgesehen werden.
  • Das zweite LIDAR-Sensorsystem 50 kann zusätzlich ein OR-Gatter 2102 aufweisen. Ein erster Eingang des OR-Gatters 2102 kann mit dem Sensor-Controller 53 und/oder dem LIDAR-Datenverarbeitungssystem 60 gekoppelt werden, z.B. mit dem FPGA 61, der diesem z.B. das Startsignal Start_N 1602 zuführen kann. Ein zweiter Eingang des ODER-Gatters 2102 kann mit einem Freigabeausgang des fünften Ereignisdetektors 1910 gekoppelt werden, der ebenfalls ein Signal liefern kann, das als Startsignal zum Starten eines Ausleseprozesses verwendet wird.
  • Zur Veranschaulichung wird, wenn der fünfte Zeitgeberschaltkreis 1920 gestoppt wurde, auch das Erkennungsverfahren zur Erkennung des aktuellen Ereignisses gestoppt. Die nächste Auslösekette wird nun wieder gestartet, um das nächste eingehende Ereignis zu erkennen. Dies kann durch „Recycling“ oder Überschreiben des Startsignals 1602 erreicht werden, um das System wieder in seinen Ausgangszustand zu bringen. Das OR-Gatter 2102 ist eine mögliche Implementierung, um dies zu erreichen.
  • 22 zeigt eine Ausführungsform eines Teils des vorgeschlagenen LIDAR-Sensorsystems mit gemischter Signalverarbeitung.
  • Die in 22 gezeigte Implementierung ist der in 11 gezeigten Implementierung sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 11 oben verwiesen.
  • Ein Unterschied der in 22 gezeigten Implementierung besteht darin, dass die in 11 gezeigte Implementierung eine feste statische Zuordnung einer Energiespeicherschaltung 1102 der Vielzahl der Energiespeicherschaltungen 1102 zu jeweils einem Sensorelement 52 der Vielzahl der Sensorelemente 52 vorsieht. Im Gegensatz dazu enthält die in 22 gezeigte Implementierung einen ersten Multiplexer 2202, der zwischen die Ausgänge der Vielzahl von Sensorelementen 52 und die Eingänge der Vielzahl von Energiespeicherschaltungen 1102 geschaltet ist. Der erste Multiplexer 2202 empfängt ein Multiplexer-Steuersignal (nicht dargestellt) von der Sensor-Steuereinheit 53 und wählt eine oder mehrere Durchgangsverbindungen zwischen z.B. (genau) einem Sensorelement 52 aus der Vielzahl der Sensorelemente 52 und (genau) einer Energiespeicherschaltung 1102 aus der Vielzahl der Energiespeicherschaltungen 1102 aus. Damit ist eine dynamische Zuordnung einer Energiespeicherschaltung 1102 zu einem Sensorelement 52 gegeben.
  • Bei der in 22 gezeigten Implementierung ist die Anzahl der Energiespeicherkreise 1102 gleich der Anzahl der Sensorelemente 52. Der erste Multiplexer 2202 und die damit verbundene dynamische Zuordnung der Energiespeicherschaltungen 1102 erlaubt es jedoch, die Anzahl der vorgesehenen Energiespeicherschaltungen 1102 zu reduzieren, da bei verschiedenen Implementierungen nicht alle Sensorelemente gleichzeitig aktiv sein können. So ist in verschiedenen Implementierungen die Anzahl der vorgesehenen Energiespeicherschaltungen 1102 kleiner als die Anzahl der Sensorelemente 52.
  • 23 zeigt eine Ausführungsform eines Teils des vorgeschlagenen LIDAR-Sensorsystems mit gemischter Signalverarbeitung.
  • Die in 23 gezeigte Implementierung ist der in 11 gezeigten Implementierung sehr ähnlich. Daher werden im Folgenden nur die Unterschiede ausführlicher beschrieben. Hinsichtlich der ähnlichen Merkmale wird auf die Erläuterungen zu 11 oben verwiesen.
  • Ein Unterschied der in 23 gezeigten Implementierung besteht darin, dass die in 11 gezeigte Implementierung eine feste statische Zuordnung einer Ausleseschaltung 1104 aus der Vielzahl der Ausleseschaltungen 1104 zu jeweils einem Sensorelement 52 aus der Vielzahl der Sensorelemente 52 (und einer Energiespeicherschaltung 1102 aus der Vielzahl der Energiespeicherschaltungen 1102) vorsieht. Im Gegensatz dazu enthält die in 23 gezeigte Implementierung einen zweiten Multiplexer 2302, der zwischen die Ausgänge der Energiespeicherschaltungen 1102 und die Eingänge der Vielzahl von Energiespeicherschaltungen 1102 geschaltet ist. Der zweite Multiplexer 2302 empfängt ein weiteres Multiplexer-Steuersignal (nicht dargestellt) von der Sensor-Steuerung 53 und wählt eine oder mehrere Durchgangsverbindungen zwischen z.B. (genau) einer Energiespeicherschaltung 1102 der Mehrzahl von Energiespeicherschaltungen 1102 und (genau) einer Ausleseschaltung 1104 der Mehrzahl von Ausleseschaltungen 1104 aus. Damit ist eine dynamische Zuordnung einer Ausleseschaltung 1104 zu einer Energiespeicherschaltung 1102 gegeben.
  • In der in 23 gezeigten Ausführung ist die Anzahl der Ausleseschaltungen 1104 gleich der Anzahl der Energiespeicherschaltungen 1102. Durch den zweiten Multiplexer 2302 und die damit verbundene dynamische Zuordnung der Ausleseschaltungen 1104 ist es jedoch möglich, die Anzahl der vorgesehenen Ausleseschaltungen 1104 zu reduzieren, da bei verschiedenen Implementierungen nicht alle Sensorelemente 52 und damit nicht alle Energiespeicherschaltungen 1102 gleichzeitig aktiv sein können. So ist in verschiedenen Implementierungen die Anzahl der vorgesehenen Ausleseschaltungen 1104 kleiner als die Anzahl der Energiespeicherschaltungen 1102.
  • In verschiedenen Ausführungsformen kann die in 22 gezeigte Ausführung mit der in 23 gezeigten Ausführung kombiniert werden. So können der erste Multiplexer 2202 und der zweite Multiplexer 2302 in einer gemeinsamen Ausführung geliefert werden.
  • Darüber hinaus können verschiedene Ausführungsformen eine In-Pixel-TDC-Architektur bieten. Ein Ansatz von analogen TDCs = TACs kann illustrativ auf einem zweistufigen Ansatz basieren, indem das Zeitintervall in eine Spannung und diese Spannung in einen digitalen Wert übersetzt wird. Digitalbasierte TDCs zur Intervallmessung sind zählerbasierte Ansätze. TDCs sind digitale Zähler für präzise Zeitintervallmessungen. Die einfachste Technik zur Quantisierung eines Zeitintervalls besteht darin, die Zyklen eines Referenztaktes während des angestrebten Zeitintervalls zu zählen. Das Zeitintervall wird durch ein Startsignal und ein Stoppsignal definiert. Da das jeweilige Zeitintervall in der Regel asynchron zum Referenztakt ist, erscheint ein erster systematischer Messfehler ΔTstart bereits zu Beginn des Zeitintervalls und ein zweiter systematischer Messfehler ΔTstop am Ende des Zeitintervalls. Die Messgenauigkeit kann durch eine höhere Referenztaktfrequenz erhöht werden, was im Allgemeinen zu einem höheren Stromverbrauch für die Takterzeugung und Taktverteilung führt. CMOS-basierte Oszillatorgeneratoren sind in ihren Frequenzen begrenzt und für Frequenzwerte über 1 GHz sind CML oder externe LC-Oszillatoren erforderlich (CML=Current mode logic; deutsch: Stromschaltlogik). Bei einer 65nm-Technologie ist die maximale Frequenz typischerweise auf 5GHz bis 10GHz begrenzt. Eine höhere Auflösung als der zugrundeliegende Referenztakt wird erreicht, indem die Referenztaktperiode asynchron in kleinere Zeitintervalle unterteilt wird. Die Fähigkeit, einen externen Referenztakt in Unterteilungen zu unterteilen, ist die funktionell verbesserte Eigenschaft eines TDC im Gegensatz zu einem regulären digitalen Zähler. Daher bieten die TDCs bei einem gegebenen globalen Referenztakt eine höhere zeitliche Auflösung als ein regulärer digitaler Zähler mit demselben externen Referenztakt. Die Techniken zur Unterteilung des Referenztaktes reichen von der Standardinterpolation über den Einsatz interner Ringoszillatoren bis hin zum Aufbau digitaler Verzögerungsketten. Die Auflösung ist das Kriterium, das einen TDC von einem Zähler unterscheidet.
  • Für eine präzise Zeitintervallmessung wird der digitale TDC beim Eintreffen des globalen Stopp-Ereignisses angehalten und der Zeitablauf vom Eintreffen des vorherigen Referenztaktzyklus durch die interne Phaseninterpolationstechnik gemessen, was schließlich eine höhere Genauigkeit der verstrichenen Zeit vom Startsignal eines globalen Referenztaktes liefert. Ein Beispiel für eine integrierte TDC-Schaltung in CMOS-Technologie kann wie folgt aussehen: In-Pixel-TDC-Bereich: 1740 µm2 (Standard 0,18 µm CMOS-Technologie) - In-Pixel-TDC-Leistungsaufnahme: 9 µW - In-Pixel-TDC-Zeitauflösung: 0,15 ns ab 0,8 GHz Referenztakt - In-Pixel-TDC-Jitter: 100 ps.
  • In verschiedenen Ausführungsformen kann der zweite Multiplexer weggelassen werden und die Anzahl der Ausleseschaltungen 1104 kann dennoch kleiner als die Anzahl der Sensoren 52 sein. Um die Anzahl der Ausleseschaltungen 1104 zu reduzieren, kann ein begrenzter Satz von Ausleseschaltungen 1104, z.B. ein begrenzter Satz von ADCs (z.B. eine EDC-Bank), global für alle Sensorelemente des gesamten Arrays vorgesehen werden. Wenn der Detektor 1902, 1904, 1906, 1908, 1910 ein Ereignis in einem der mehreren Pixel erkennt, können die TDC/ADC-Steuersignale einer sensor-externen Schaltung zugeführt werden. Die dann nächste (d.h. nachfolgende, aufeinander folgende) freigegebene Ausleseschaltung 1104 kann dynamisch und zeitlich dem jeweiligen Sensorelement 52 für eine bestimmte Digitalisierung zugeordnet werden. Als Beispiel kann ein Verhältnis von N Pixeln (N Sensorelemente 52, wobei N eine ganze Zahl größer als 0 ist) zu M ADCs (M Analog-Digital-Wandler, wobei M eine ganze Zahl größer als 0 ist) etwa 10 betragen. Im einfachsten Fall kann die Ausleseschaltung 1104 aus nur (genau) einem ADC bestehen. Die zugehörige Wandlungszeit kann in diesem Fall durch das sogenannte Zeitinformationssignal bereitgestellt werden. Die TIA-Zeilen des einzelnen Pixels können dann gezielt über ein Multiplexer-System angesprochen werden.
  • Darüber hinaus können durch verschiedene Ausführungsformen verschiedene Sensorbereiche individuell ausgewählt werden, z.B. durch gezielte Aktivierung oder Deaktivierung einzelner oder mehrerer Pixel des Sensorarrays. Grundlage für diese Auswahl können a priori Informationen sein, die z.B. durch einen komplementären Sensor (z.B. eine Kameraeinheit) ermittelt werden. Diese a-priori-Information kann gespeichert und später dazu verwendet werden, Regionen des Arrays zu bestimmen, die in einem bestimmten Kontext oder zu einem bestimmten Zeitpunkt möglicherweise nicht aktiviert werden müssen. So kann z.B. bestimmt werden, dass nur ein bestimmter Teilbereich des Sensors, z.B. der LIDAR-Sensor, in einem bestimmten Anwendungsszenario von Interesse sein kann und dass daher nur der in diesem bestimmten Teilbereich enthaltene Sensor aktiviert werden darf. Die anderen Sensoren können deaktiviert bleiben. Dies kann durch einen Decoder realisiert werden, der so konfiguriert ist, dass er ein globales digitales Startsignal an die einzelnen Pixel verteilt.
  • 24 zeigt ein Flussdiagramm 2400, das ein Verfahren zum Betrieb eines LIDAR-Sensorsystems veranschaulicht.
  • Das Verfahren umfasst bei 2402 das Speichern von elektrischem Strom, der von einer Fotodiode in einer Energiespeicherschaltung geliefert wird, bei 2404 einen Controller, der einen Ausleseprozeß der in der Energiespeicherschaltung gespeicherten elektrischen Energie steuert, bei 2406 den Controller, der die Auslöseschwellen gemäß (z.B. vorbestimmter) Statistik der erfaßten Ereignisse freigibt und aktualisiert, bei 2408 einen Ereignisdetektor, der ein Auslösesignal liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Auslösekriterium erfüllt. Bei 2410 aktiviert oder deaktiviert der Ereignisdetektor die Zeitgeberschaltung und den Analog-Digital-Wandler in Abhängigkeit vom Triggersignal. Darüber hinaus kann bei 2412 eine Zeitgeberschaltung eine digitale Zeitinformation liefern, und bei 2414 wandelt der Analog-Digital-Wandler die analoge elektrische Charakteristik in einen digitalen elektrischen Kennwert um. Darüber hinaus aktiviert der Controller bei 2416 den Ereignisdetektor, wenn der Ausleseprozess in einem aktiven Zustand ist, und deaktiviert den Ereignisdetektor, wenn der Ausleseprozess in einem inaktiven Zustand ist. Mit anderen Worten, bei 2416 aktiviert der Controller den Ereignisdetektor, wenn das System gültige Ereignissignale erwartet, und deaktiviert den Ereignisdetektor, wenn das System für die kontinuierliche Wellenformüberwachung mit einem optionalen Systemtakt auf einen transparenten Modus eingestellt ist.
  • Es wird davon ausgegangen, dass das LIDAR-Sensorsystem und das LIDAR-Sensorgerät, wie oben und unten in den verschiedenen Aspekten dieser Offenbarung beschrieben, so konfiguriert werden können, dass sie sichtbare und infrarote Strahlung emittieren und erfassen. Die Infrarotstrahlung kann im Wellenlängenbereich von 780 nm bis 1600 nm liegen. Das heißt, es kann eine Vielzahl von Lichtquellen geben, die in verschiedenen Wellenlängenbereichen emittieren, und eine Vielzahl von verschiedenen Sensorelementen, die so konfiguriert sind, dass sie Strahlung in verschiedenen Wellenlängenbereichen erfassen. Ein Sensorelement, z.B. als Teil eines Sensorarrays, wie oben und unten beschrieben, kann aus solchen wellenlängenempfindlichen Sensoren bestehen, entweder durch Konstruktion oder durch Verwendung spezifischer Spektralfilter, z.B. NIR-Schmalband-Spektralfilter. Es ist zu beachten, dass das LIDAR-Sensorsystem mit jeder gewünschten Wellenlänge implementiert werden kann (die Augensicherheitsregeln müssen für jede Wellenlänge eingehalten werden). Verschiedene Ausführungsformen können die Wellenlängen im Infrarotbereich verwenden. Dies kann sogar bei regnerischem oder nebligem Wetter effizient sein. Im nahen Infrarotbereich (NIR) können weiterhin Si-basierte Sensoren verwendet werden. Im Wellenlängenbereich von etwa 1050 nm können InGa-Sensoren, die mit einer zusätzlichen Kühlung versehen werden sollten, der geeignete Sensortyp sein.
  • Darüber hinaus ist zu beachten, dass der Auslesemechanismus zum Auslesen der TDCs und der ADCs im Allgemeinen nicht mit dem Aktivitätszustand des Messsystems verbunden (und nicht daran gebunden) ist. Dies ist auf die Tatsache zurückzuführen, dass die vom TDC und/oder ADC gelieferten digitalen Daten in einem Pufferspeicher gespeichert und unabhängig vom Aktivitätszustand des Messsystems in einer Pipeline davon gestreamt werden können. Solange noch Daten in der Pipeline gespeichert sind, kann das LIDAR-Datenverarbeitungssystem 60, z.B. der FPGA 61, diese Datenwerte lesen und verarbeiten. Sind keine Daten mehr in der Pipeline gespeichert, kann das LIDAR-Datenverarbeitungssystem 60, z.B. der FPGA 61, einfach keine Datenwerte mehr lesen und verarbeiten. Die vom TDC und ADC gelieferten Datenwerte (die auch als Datenwörter bezeichnet werden können) können mit Tags versehen und paarweise einander zugeordnet werden.
  • In verschiedenen Ausführungsformen (die als „kontinuierliches Wellenform-Streaming“ bezeichnet werden können) können die Ereignisdetektoren im Allgemeinen deaktiviert werden. Stattdessen können die Abtast- und Halteschaltungen und/oder die ADCs so konfiguriert werden, dass sie die eingehenden Daten, die z.B. auf einer oder mehreren Leitungen 1942 vorhanden sind, kontinuierlich konvertieren (z.B. mit einem Takt von 150 MHz oder 500 MHz). Der ADC kann dann den resultierenden kontinuierlichen Datenstrom von digitalisierten Datenwerten an das LIDAR-Datenverarbeitungssystem 60, z.B. den FPGA 61, liefern. Dieser kontinuierliche Datenstrom kann die kontinuierliche Wellenform des LIDAR-Signals darstellen. Die Ereignisauswahl bzw. die Ereignisauswertung kann dann vollständig im digitalen Backend (z.B. im LIDAR-Datenverarbeitungssystem 60, z.B. im FPGA 61 oder im Host-Prozessor 62) mittels Software erfolgen. Diese Ausführungsformen und der darin beschriebene Modus sind optional.
  • 25B zeigt eine Beispielkurvenform 2552 des von einem einzelnen Pixel empfangenen Signals über die Zeit und die jeweiligen Triggerereignisse, die durch den jeweiligen Ereignisdetektor entsprechend verschiedener Ausführungsformen erzeugt werden.
  • Im Detail wird die Wellenform 2552 in einem Energie E 2554 gegen Zeit t 2556 Diagramm 2550 dargestellt. Das Diagramm 2550 zeigt auch einen emittierten Lichtpuls (z.B. Laser) 2558. Mit dem Auslösen des emittierten Licht- (z.B. Laser-) Pulses 2558 können die TDC-Zähler (Haupt-TDC-Zähler) 1912 bis 1920 gestartet und aktiviert werden. Die Wellenform 2552 stellt illustrativ die Wellenform dar, die das empfangene Signal durch einen Pixel aufgrund des emittierten Licht- (z.B. Laser-) Pulses 2558 darstellt. Die Wellenform 2552 umfasst Minima und Maxima (wobei die erste Ableitung der Wellenform 2552 den Wert „0“ hat), die in 25B durch das Symbol „X“ 2560 symbolisiert werden. 25B zeigt ferner einen Zeitraum 2566 (auch als „gated window“ (deutsch: eingezäuntes Fenster) bezeichnet), während dessen die Wellenform 2552 durch das Pixel erkannt wird (mit anderen Worten, während dessen das Pixel aktiviert wird). Zu jedem Zeitpunkt hat die Wellenform 2552 (1942,1106) ein (lokales oder globales) Minimum oder ein (lokales oder globales) Maximum.
  • Immer wenn die Wellenform 2552 (1942,1106) ein erstes globales oder lokales Maximum liefert, erzeugt der Hauptereignisdetektor 2002 ein Haupttriggersignal 2004 und startet (aktiviert) sowohl die hochauflösende Zeitgeberschaltung 2024 als auch die Tal-Ereigniszeitgeberschaltung 2048.
  • Darüber hinaus umfasst die Wellenform 2552 auch Punkte, an denen sie ihre Krümmung ändert (wobei die zweite Ableitung der Wellenform 2552 den Wert „0“ hat), was in 25B durch eine Ellipse als Symbol 2562 symbolisiert wird. Es ist zu beachten, dass der zweite Differentiator 2042 so konfiguriert werden kann, dass er schneller reagiert als der Differentiator 2018.
  • Zu jedem Zeitpunkt, an dem die Wellenform 2552 eine Änderung ihrer Krümmung aufweist, erzeugt der Tal-Ereignisdetektor 2046 das Tal-Triggersignal 2056, um den Tal-TDC 2048 zu stoppen (zu deaktivieren) (und optional auch die (bis zu diesem Zeitpunkt) deaktivierte Tal-Abtast- und Halteschaltung 2050 zu aktivieren) und den (bis zu diesem Zeitpunkt) deaktivierten Tal-Analog-Digital-Wandler 2052 zu starten (zu aktivieren).
  • Ein eingekreistes Symbol „X“ 2564 gibt das globale Minimum und das globale Maximum an, die für Kalibrier- und Verifikationszwecke verwendet werden.
  • Immer wenn die Wellenform 2552 (1942,1106) ein erstes globales oder lokales Minimum (Tal) liefert, erzeugt der Tal-Ereignis-Detektor 2046 ein Tal-Ereignis-Triggersignal 2058 und stoppt (deaktiviert) das Tal-Ereignis-TDC 2048 und aktiviert im Gegenzug sowohl die Tal-Ereignis-Abtast- und Halteschaltung 2050 als auch den Tal-Ereignis-Analog-Digital-Wandler 2052.
  • Zu jedem Zeitpunkt, an dem die Wellenform 1106, 1942 (2552) nacheinander ein zweites Maximum erreicht, erzeugt der Hi-Res-Event-Detektor 2022 das Hi-Res-Event-Triggersignal 2038, um den Hi-Res-TDC-Zähler 2024 zu stoppen (zu deaktivieren). Der Hochauflösungs-Ereignisdetektor 2022 erzeugt das hochauflösende Triggersignal 2038 zum Stoppen (Deaktivieren) der hochauflösenden Zeitgeberschaltung 2024 und zum Starten (Aktivieren) des (bis zu diesem Zeitpunkt) deaktivierten hochauflösenden Analog-Digital-Wandlers 2028 (und optional auch zum Aktivieren der (bis zu diesem Zeitpunkt) deaktivierten hochauflösenden Abtast- und Halteschaltung 2026 und auch zum Aktivieren des (bis zu diesem Zeitpunkt) deaktivierten Hi-Res-ADC 2028). Es ist nochmals zu beachten, dass der Differentiator 2018 langsamer anspricht als der zweite Differentiator 2042.
  • Immer wenn die Wellenform 2552 (1942,1106) ein zweites globales oder lokales Minimum (Hi-Res-Peak) liefert, erzeugt der hochauflösende Ereignisdetektor 2022 ein hochauflösendes Triggersignal 2038 und stoppt (deaktiviert) den hochauflösenden TDC 2024 und aktiviert im Gegenzug sowohl die hochauflösende Abtast- und Halteschaltung 2026 als auch den hochauflösenden Analog-Digital-Wandler 2028 (Hi-Res-Peak-Erkennung - zweites lokales Maximum).
  • In verschiedenen Ausführungsformen kann das LIDAR-Sensorsystem, wie unter 11 bis 25B beschrieben, zusätzlich oder alternativ zur Bestimmung der Amplitude des detektierten Signals konfiguriert werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1a ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem umfasst mindestens eine Fotodiode, eine Energiespeicherschaltung, die so konfiguriert ist, dass sie die von der Fotodiode gelieferte elektrische Energie speichert, einen Controller, der so konfiguriert ist, dass er einen Ausleseprozess der in der Energiespeicherschaltung gespeicherten elektrischen Energie steuert, und mindestens eine Ausleseschaltung. Die mindestens eine Ausleseschaltung umfasst einen Ereignisdetektor, der so konfiguriert ist, dass er ein Triggersignal liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung gespeicherte elektrische Energie darstellt, ein vordefiniertes Triggerkriterium erfüllt, eine Zeitgeberschaltung, die so konfiguriert ist, dass sie eine digitale Zeitinformation liefert, und einen Analog-Digital-Wandler, der so konfiguriert ist, dass er die analoge elektrische Charakteristik in einen digitalen elektrischen Charakteristikwert umwandelt. Der Ereignisdetektor ist so konfiguriert, dass er die Zeitgeberschaltung deaktiviert und den Analog-Digital-Wandler in Abhängigkeit vom Triggersignal aktiviert.
    • In Beispiel 2a kann der Gegenstand von Beispiel 1a optional umfassen, dass der Controller (53) weiter konfiguriert wird, um den Ereignisdetektor (1902, 1904, 1906, 1908, 1910) zu aktivieren, wenn gültige Ereignissignale erwartet werden, und um den Ereignisdetektor (1902, 1904, 1906, 1908, 1910) zu deaktivieren, wenn das System auf einen transparenten Modus zur kontinuierlichen Wellenformüberwachung eingestellt ist.
    • In Beispiel 3a kann der Gegenstand eines der Beispiele 1a oder 2a optional umfassen, dass der Controller weiter konfiguriert wird, um den Ereignisdetektor zu aktivieren, wenn sich der Ausleseprozess in einem aktiven Zustand befindet, und um den Ereignisdetektor zu deaktivieren, wenn sich der Ausleseprozess in einem inaktiven Zustand befindet.
    • In Beispiel 4a kann der Gegenstand eines der Beispiele 1a bis 3a optional umfassen, dass die mindestens eine Fotodiode eine Avalanche-Fotodiode (APD) und/oder eine SiPM (Silizium-Fotovervielfacher) und/oder einen CMOS-Sensor (Komplementärer Metall-Oxid-Halbleiter und/oder ein CCD (Charge-Coupled Device; deutsch: ladungsgekoppeltes Bauelement) und/oder eine gestapelte Mehrschicht-Fotodiode umfasst.
    • In Beispiel 5a kann der Gegenstand von Beispiel 4a optional umfassen, dass die mindestens eine Avalanche-Fotodiode eine Einzelphotonen-Avalanche-Fotodiode (SPAD) enthält.
    • In Beispiel 6a kann der Gegenstand eines der Beispiele 1a bis 5a optional umfassen, dass die Energiespeicherschaltung einen Transimpedanzverstärker (TIA) enthält.
    • In Beispiel 7a kann der Gegenstand von Beispiel 6a optional umfassen, dass der Transimpedanzverstärker einen Speicherkondensator enthält, der so konfiguriert ist, dass er den von der Fotodiode gelieferten elektrischen Strom speichert und den elektrischen Strom liefert, wenn sich der Ausleseprozess im aktiven Zustand befindet.
    • In Beispiel 8a kann der Gegenstand eines der Beispiele 1a bis 7a optional umfassen, dass der Controller weiterhin so konfiguriert ist, dass er ein Signal liefert, um den Ausleseprozess in den aktiven oder in den inaktiven Zustand zu schalten und den Ereignisdetektor entsprechend zu aktivieren oder zu deaktivieren.
    • In Beispiel 9a kann der Gegenstand eines der Beispiele 1a bis 8a optional umfassen, dass der Ereignisdetektor einen Determinierer umfasst, der so konfiguriert ist, dass er bestimmt, ob die analoge elektrische Charakteristik einen vordefinierten Schwellenwert als vordefiniertes Auslösekriterium über- oder unterschreitet. Der vordefinierte Schwellenwert kann fest oder programmierbar sein. Beispielsweise kann ein Prozessor im digitalen Backend, wie z.B. der FPGA oder der Host-Prozessor, den/die Schwellenwert(e) dynamisch anpassen, z.B. für den Fall, dass kein aussagekräftiges Bild rekonstruiert werden kann.
    • In Beispiel 10a kann der Gegenstand von Beispiel 9a optional umfassen, dass der Determinierer weiter konfiguriert wird, um die aus der Energiespeicherschaltung als die analoge elektrische Kennlinie abgelesene elektrische Spannung mit einem vordefinierten Spannungsschwellenwert als vordefiniertem Schwellenwert zu vergleichen.
    • In Beispiel 11a kann der Gegenstand von Beispiel 10a optional umfassen, dass der Determinierer eine Komparatorschaltung enthält, die so konfiguriert ist, dass sie die aus der Energiespeicherschaltung gelesene elektrische Spannung mit dem vordefinierten Spannungsschwellenwert vergleicht.
    • In Beispiel 12a kann der Gegenstand eines der Beispiele 1a bis 11a optional umfassen, dass die Zeitgeberschaltung einen digitalen Zähler enthält.
    • In Beispiel 13a kann der Gegenstand eines der Beispiele 1a bis 12a optional umfassen, dass die Zeitgeberschaltung einen Zeit-Digital-Wandler (TDC) enthält.
    • In Beispiel 14a kann der Gegenstand eines der Beispiele 1a bis 13a optional umfassen, dass der Ereignisdetektor so konfiguriert ist, dass er das Triggersignal zur Deaktivierung der Zeitgeberschaltung liefert, wenn das vordefinierte Triggerkriterium erfüllt ist.
    • In Beispiel 15a kann der Gegenstand eines der Beispiele 1a bis 14a optional umfassen, dass die Zeitgeberschaltung so konfiguriert ist, dass sie das Triggersignal zur Aktivierung des Analog-Digital-Wandlers liefert, um die aus der Energiespeicherschaltung gelesene elektrische Spannung in einen digitalen Spannungswert umzuwandeln, wenn das vordefinierte Triggerkriterium erfüllt ist.
    • In Beispiel 16a kann der Gegenstand eines der Beispiele 1a bis 15a optional umfassen, dass das LIDAR-Sensorsystem ferner eine Abtast- und Halteschaltung enthält, die so konfiguriert ist, dass sie die von der Energiespeicherschaltung gelesene elektrische Spannung speichert und die gespeicherte elektrische Spannung an den Analog-Digital-Wandler liefert.
    • In Beispiel 17a kann der Gegenstand eines der Beispiele 10a bis 16a optional umfassen, dass die Zeitgeberschaltung weiter konfiguriert wird, um das Triggersignal zur Aktivierung der Abtast- und Halteschaltung zu liefern, um die aus der Energiespeicherschaltung abgelesene elektrische Spannung abzutasten und zu halten, wenn das vordefinierte Triggerkriterium erfüllt ist.
    • In Beispiel 18a kann der Gegenstand eines der Beispiele 1a bis 17a optional umfassen, dass das LIDAR-Sensorsystem zusätzlich einen digitalen Prozessor enthält, der so konfiguriert ist, dass er die digitale Zeitinformation und den digitalen elektrischen Kennwert verarbeitet.
    • In Beispiel 19a kann der Gegenstand von Beispiel 18a optional umfassen, dass der digitale Prozessor ein feldprogrammierbares Gate-Array (Logikgatter) enthält.
    • In Beispiel 20a kann der Gegenstand eines der Beispiele 18a oder 19a optional umfassen, dass der digitale Prozessor weiter konfiguriert wird, um eine Vorverarbeitung der digitalen Zeitinformation und des digitalen elektrischen Kennwertes zu liefern und das Vorverarbeitungsergebnis für eine weitere Analyse durch einen anderen Prozessor bereitzustellen.
    • In Beispiel 21a kann der Gegenstand eines der Beispiele 1a bis 19a optional umfassen, dass die Fotodiode und die Energiespeicherschaltung monolithisch in mindestens einem Sensorelement integriert sind.
    • In Beispiel 22a kann der Gegenstand eines der Beispiele 1a bis 21a optional umfassen, dass das mindestens eine Sensorelement eine Vielzahl von Sensorelementen umfasst und dass für jedes Sensorelement eine Energiespeicherschaltung vorgesehen ist.
    • In Beispiel 23a kann der Gegenstand von Beispiel 22a optional umfassen, dass die mindestens eine Ausleseschaltung eine Vielzahl von Ausleseschaltungen umfasst.
    • In Beispiel 24a kann der Gegenstand von Beispiel 23a optional umfassen, dass ein erster Ausleseschaltkreis der Mehrzahl von Ausleseschaltkreisen so konfiguriert ist, dass er ein Aktivierungssignal an einen Ereignisdetektor eines zweiten Ausleseschaltkreises der Mehrzahl von Ausleseschaltkreisen liefert, um den Ereignisdetektor des zweiten Ausleseschaltkreises der Mehrzahl von Ausleseschaltkreisen zu aktivieren, wenn die Zeitgeberschaltung deaktiviert ist.
    • In Beispiel 25a kann der Gegenstand eines der Beispiele 23a oder 24a optional umfassen, dass eine Ausleseschaltung der Mehrzahl von Ausleseschaltungen selektiv einem jeweiligen Sensorelement und einer Energiespeicherschaltung zugeordnet ist.
    • In Beispiel 26a kann der Gegenstand eines der Beispiele 1a bis 25a optional umfassen, dass das LIDAR-Sensorsystem Folgendes umfasst: einen ersten Differenzierer, der so konfiguriert ist, dass er eine erste Ableitung der analogen elektrischen Charakteristik bestimmt, einen weiteren Ereignisdetektor, der so konfiguriert ist, dass er ein weiteres Triggersignal liefert, wenn die erste Ableitung der analogen elektrischen Charakteristik ein vordefiniertes weiteres Triggerkriterium erfüllt; eine weitere Zeitgeberschaltung, die so konfiguriert ist, dass sie eine weitere digitale Zeitinformation liefert; optional einen weiteren Analog-Digital-Wandler, der so konfiguriert ist, dass er das tatsächlich vorherrschende elektrische Spannungssignal des SPAD-Signals und nicht die in der Energiespeicherschaltung gespeicherte elektrische Energie in einen digitalen elektrischen Charakteristikwert der ersten Ableitung umwandelt; wobei der weitere Ereignisdetektor so konfiguriert ist, dass er die weitere Zeitgeberschaltung deaktiviert und den weiteren Analog-Digital-Wandler in Abhängigkeit von dem weiteren Triggersignal aktiviert.
    • In Beispiel 27a kann der Gegenstand eines der Beispiele 1a bis 26a optional umfassen, dass das LIDAR-Sensorsystem Folgendes umfasst: einen zweiten Differenzierer, der so konfiguriert ist, dass er eine zweite Ableitung der analogen elektrischen Charakteristik bestimmt, einen zweiten weiteren Ereignisdetektor, der so konfiguriert ist, dass er ein zweites weiteres Triggersignal liefert, wenn die zweite Ableitung der analogen elektrischen Charakteristik ein vordefiniertes zweites weiteres Triggerkriterium erfüllt; eine zweite weitere Zeitgeberschaltung, die so konfiguriert ist, dass sie eine zweite weitere digitale Zeitinformation liefert; optional einen zweiten weiteren Analog-Digital-Wandler, der so konfiguriert ist, dass er das tatsächlich vorherrschende elektrische Spannungssignal des SPAD-Signals und nicht die in der Energiespeicherschaltung gespeicherte elektrische Energie in einen digitalen Wert der ersten Ableitung der elektrischen Charakteristik umwandelt; wobei der zweite weitere Ereignisdetektor so konfiguriert ist, dass er die zweite weitere Zeitgeberschaltung deaktiviert und den zweiten weiteren Analog-Digital-Wandler in Abhängigkeit von dem zweiten weiteren Triggersignal aktiviert.
    • Beispiel 28a ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren umfasst das Speichern von elektrischer Energie, die von mindestens einer Fotodiode in einer Energiespeicherschaltung bereitgestellt wird, einen Controller, der einen Ausleseprozess der in der Energiespeicherschaltung gespeicherten elektrischen Energie steuert, einen Ereignisdetektor, der ein Triggersignal liefert, wenn eine analoge elektrische Kenngröße, die die in der Energiespeicherschaltung gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Triggerkriterium erfüllt, eine Zeitgeberschaltung, die eine digitale Zeitinformation liefert, und einen Analog-Digital-Wandler, der die analoge elektrische Kenngröße in einen digitalen elektrischen Kennwert umwandelt. Der Ereignisdetektor aktiviert oder deaktiviert die Zeitgeberschaltung und den Analog-Digital-Wandler in Abhängigkeit vom Triggersignal.
    • In Beispiel 29a kann der Gegenstand von Beispiel 28a optional umfassen, dass das Verfahren ferner die Aktivierung des Ereignisdetektors umfasst, wenn gültige Ereignissignale erwartet werden, und die Deaktivierung des Ereignisdetektors, wenn das System auf einen transparenten Modus zur kontinuierlichen Wellenformüberwachung eingestellt ist.
    • In Beispiel 30a kann der Gegenstand eines der Beispiele 28a oder 29a optional umfassen, dass das Verfahren weiterhin die Aktivierung des Ereignisdetektors umfasst, wenn der Ausleseprozess in einem aktiven Zustand ist, und die Deaktivierung des Ereignisdetektors, wenn der Ausleseprozess in einem inaktiven Zustand ist.
    • In Beispiel 31a kann der Gegenstand eines der Beispiele 28a bis 30a optional umfassen, dass die mindestens eine Fotodiode eine Avalanche-Fotodiode (APD) und/oder eine SiPM (Silizium-Fotomultiplier) und/oder einen CMOS-Sensor (Komplementärer Metall-Oxid-Halbleiter und/oder ein CCD (Charge-Coupled Device; deutsch: ladungsgekoppeltes Bauelement) und/oder eine gestapelte Mehrschicht-Fotodiode umfasst.
    • In Beispiel 33a kann der Gegenstand eines der Beispiele 28a bis 32a optional umfassen, dass die Energiespeicherschaltung einen Transimpedanzverstärker (TIA) enthält.
    • In Beispiel 34a kann der Gegenstand von Beispiel 33a optional umfassen, dass der Transimpedanzverstärker einen Speicherkondensator enthält, der die von der Fotodiode gelieferte elektrische Spannung speichert und den elektrischen Strom liefert, wenn sich der Ausleseprozess im aktiven Zustand befindet.
    • In Beispiel 35a kann der Gegenstand eines der Beispiele 28a bis 34a optional umfassen, dass der Controller weiterhin ein Signal liefert, um den Ausleseprozess in den aktiven oder in den inaktiven Zustand zu schalten und den Ereignisdetektor entsprechend zu aktivieren oder zu deaktivieren.
    • In Beispiel 36a kann der Gegenstand eines der Beispiele 28a bis 35a optional umfassen, dass das Verfahren ferner Folgendes umfasst: den Ereignisdetektor, der bestimmt, ob die analoge elektrische Kennlinie einen vordefinierten Schwellenwert als vordefiniertes Auslösekriterium über- oder unterschreitet.
    • In Beispiel 37a kann der Gegenstand von Beispiel 36a optional umfassen, dass die Bestimmung den Vergleich der aus der Energiespeicherschaltung gelesenen elektrischen Spannung als analoge elektrische Kennlinie mit einem vordefinierten Spannungsschwellenwert als vordefinierten Schwellenwert umfasst.
    • In Beispiel 38a kann der Gegenstand von Beispiel 37a optional umfassen, dass die Bestimmung den Vergleich der aus der Energiespeicherschaltung abgelesenen elektrischen Spannung mit der vordefinierten Spannungsschwelle umfasst.
    • In Beispiel 39a kann der Gegenstand eines der Beispiele 28a bis 38a optional umfassen, dass die Zeitgeberschaltung einen digitalen Zähler enthält.
    • In Beispiel 40a kann der Gegenstand eines der Beispiele 28a bis 39a optional umfassen, dass die Zeitgeberschaltung einen Zeit-Digital-Wandler (TDC) enthält.
    • In Beispiel 41a kann der Gegenstand eines der Beispiele 28a bis 40a optional umfassen, dass die Zeitgeberschaltung das Triggersignal zur Deaktivierung der Zeitgeberschaltung liefert, wenn das vordefinierte Triggerkriterium erfüllt ist.
    • In Beispiel 42a kann der Gegenstand eines der Beispiele 28a bis 41a optional umfassen, dass die Zeitgeberschaltung das Triggersignal zur Aktivierung des Analog-Digital-Wandlers liefert, um die aus der Energiespeicherschaltung gelesene elektrische Spannung in einen digitalen Spannungswert umzuwandeln, wenn das vordefinierte Triggerkriterium erfüllt ist.
    • In Beispiel 43a kann der Gegenstand eines der Beispiele 28a bis 42a optional umfassen, dass das Verfahren ferner die Speicherung der aus der Energiespeicherschaltung ausgelesenen elektrischen Spannung in einer Abtast- und Halteschaltung und die Bereitstellung der gespeicherten elektrischen Spannung für den Analog-Digital-Wandler umfasst.
    • In Beispiel 44a kann der Gegenstand eines der Beispiele 37a bis 43a optional umfassen, dass der Ereignisdetektor das Triggersignal zur Aktivierung der Abtast- und Halteschaltung liefert, um die aus der Energiespeicherschaltung abgelesene elektrische Spannung abzutasten und zu halten, wenn das vordefinierte Triggerkriterium erfüllt ist.
    • In Beispiel 45a kann der Gegenstand eines der Beispiele 28a bis 44a optional umfassen, dass das Verfahren ferner Folgendes umfasst: einen digitalen Prozessor, der die digitale Zeitinformation und den digitalen elektrischen Kennwert verarbeitet.
    • In Beispiel 46a kann der Gegenstand von Beispiel 45a optional umfassen, dass der digitale Prozessor ein feldprogrammierbares Gate-Array enthält.
    • In Beispiel 47a kann der Gegenstand eines der Beispiele 45a oder 46a optional umfassen, dass der digitale Prozessor eine Vorverarbeitung der digitalen Zeitinformation und des digitalen elektrischen Kennwertes vornimmt und das Vorverarbeitungsergebnis für eine weitere Analyse durch einen anderen Prozessor bereitstellt.
    • In Beispiel 48a kann der Gegenstand eines der Beispiele 28a bis 47a optional umfassen, dass das mindestens eine Sensorelement und die Energiespeicherschaltung monolithisch integriert sind.
    • In Beispiel 49a kann der Gegenstand eines der Beispiele 28a bis 48a optional umfassen, dass das mindestens eine Sensorelement eine Vielzahl von Sensorelementen umfasst und dass für jedes Sensorelement eine Energiespeicherschaltung vorgesehen ist.
    • In Beispiel 50 kann der Gegenstand von Beispiel 49a optional umfassen, dass die mindestens eine Ausleseschaltung eine Vielzahl von Ausleseschaltungen umfasst.
    • In Beispiel 51a kann der Gegenstand von Beispiel 50a optional umfassen, dass ein erster Ausleseschaltkreis der Mehrzahl von Ausleseschaltkreisen ein Aktivierungssignal an einen Ereignisdetektor eines zweiten Ausleseschaltkreises der Mehrzahl von Ausleseschaltkreisen liefert, um den Ereignisdetektor des zweiten Ausleseschaltkreises der Mehrzahl von Ausleseschaltkreisen zu aktivieren, wenn der Zeitgeberschaltkreis deaktiviert ist.
    • In Beispiel 52a kann der Gegenstand eines der Beispiele 50a oder 51a optional umfassen, dass eine Ausleseschaltung der Mehrzahl von Ausleseschaltungen selektiv einem jeweiligen Sensorelement und einer Energiespeicherschaltung zugeordnet wird.
    • In Beispiel 53a kann der Gegenstand eines der Beispiele 28a bis 52a optional einschließen, dass das Verfahren Folgendes umfasst: Bestimmen einer ersten Ableitung der analogen elektrischen Charakteristik, Bereitstellen eines weiteren Triggersignals, wenn die erste Ableitung der analogen elektrischen Charakteristik ein vordefiniertes weiteres Triggerkriterium erfüllt; eine weitere Zeitgeberschaltung, die eine weitere digitale Zeitinformation bereitstellt; einen weiteren Analog-Digital-Wandler, der so konfiguriert ist, dass er das tatsächlich vorherrschende elektrische Spannungssignal des SPAD-Signals und nicht die in der Energiespeicherschaltung gespeicherte elektrische Energie in einen digitalen elektrischen Charakteristikwert der ersten Ableitung umwandelt; wobei der weitere Ereignisdetektor die weitere Zeitgeberschaltung deaktiviert und den weiteren Analog-Digital-Wandler in Abhängigkeit von dem weiteren Triggersignal aktiviert.
    • In Beispiel 54a kann der Gegenstand eines der Beispiele 28a bis 53a optional einschließen, dass das Verfahren Folgendes umfasst: Bestimmen einer zweiten Ableitung der analogen elektrischen Charakteristik, Bereitstellen eines zweiten weiteren Triggersignals, wenn die zweite Ableitung der analogen elektrischen Charakteristik ein vordefiniertes zweites weiteres Triggerkriterium erfüllt; eine zweite weitere Zeitgeberschaltung, die eine zweite weitere digitale Zeitinformation bereitstellt; einen zweiten weiteren Analog-Digital-Wandler, der so konfiguriert ist, dass er das tatsächlich vorherrschende elektrische Spannungssignal des SPAD-Signals und nicht die in der Energiespeicherschaltung gespeicherte elektrische Energie in einen digitalen elektrischen Charakteristikwert der ersten Ableitung umwandelt; wobei der zweite weitere Ereignisdetektor die zweite weitere Zeitgeberschaltung deaktiviert und den zweiten weiteren Analog-Digital-Wandler in Abhängigkeit von dem zweiten weiteren Triggersignal aktiviert.
    • Beispiel 55a ist ein Computerprogrammprodukt. Das Computerprogrammprodukt enthält eine Vielzahl von Programmbefehlen, die in einem nicht flüchtigen computerlesbaren Medium enthalten sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1a bis 27a ausgeführt werden, das gesteuerte LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 28a bis 54a auszuführen.
    • Beispiel 56a ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtigen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem nach einem der oben genannten Verfahrensbeispiele, ein LIDAR-Sensorsystem nach einem der oben genannten Beispiele für kontrollierte LIDAR-Sensorsysteme ausführen kann.
  • Ein scannendes LIDAR-Sensorsystem, das auf einem Scanspiegel-Strahlsteuerungsverfahren basiert, muss ein relativ kleines Laserablenkspiegelsystem verwenden, um eine hohe Oszillationsfrequenz zu erreichen, was zu einer hohen Bildfrequenz und/oder Auflösung führt. Andererseits muss es aber auch eine möglichst große Sensorfläche und Sensorapertur aufweisen, um die rückgestreuten LIDAR-Laserpulse so weit wie möglich zu sammeln, was zu Widersprüchen führt, wenn die gleiche Optik wie für den Emissionspfad verwendet werden soll. Dies kann zumindest teilweise durch den Einsatz eines gepixelten Sensor-Detektionssystems überwunden werden. Es kann vorteilhaft sein, ein Silizium-Fotomultiplier (Fotovervielfacher) (SiPM)-Array zu verwenden und die Pixelauslesungen jeder Zeile und Spalte zu multiplexen. Das Multiplexen ermöglicht es außerdem, mehrere benachbarte und/oder nicht benachbarte Sensorpixel in Gruppen zusammenzufassen und ihr kombiniertes zeitaufgelöstes Sensorsignal zu messen. Darüber hinaus wird in Abhängigkeit von der Winkelposition des Spiegels (MEMS) oder einer anderen geeigneten Strahlablenkungs- oder Steuervorrichtung ein FPGA, ASIC oder eine andere Art von elektronischer Steuereinheit programmiert, um auszuwählen, welche der Sensorpixel ausgelesen werden und/oder welche Kombination von Pixeln des Pixelarrays hinsichtlich Detektionsempfindlichkeit und Winkelsignalinformation am besten geeignet ist/sind. Dieses Multiplexverfahren ermöglicht auch die Messung von rückgestreuten Laserpulsen von einem oder mehreren Objekten, die unterschiedliche Abstände zum LIDAR-Sensorsystem innerhalb der gleichen oder unterschiedlicher Messzeiträume haben, der Objektoberflächenreflektivität, die der Signalstärke entspricht, und der Objektoberflächenrauhigkeit, die mit der Pulsbreite und/oder Pulsformverteilung korreliert ist. Das Verfahren kann auch in Kombination mit anderen Strahlablenkungs- oder -lenkungssystemen wie Spatial Light Modulator (SLM) (räumlicher Modulator für Licht), Optical Phased Array (OPA) (optisches phasengesteuertes Array), fasergestütztes Laserscanning oder einem VCSEL-Array verwendet werden, das die Funktionen eines optischen Phased Array (phasengesteuertes Array) nutzt.
  • Ein Problem im Zusammenhang mit einem (scannenden) LIDAR-Sensor besteht darin, dass die Größe des zur Ablenkung des Emissionsstrahls konfigurierten Umlenkspiegels so klein wie möglich ausgelegt werden sollte, um eine hohe Schwingungsfrequenz des Umlenkspiegels aufgrund des Trägheitsmoments des Umlenkspiegels zu erreichen. Um jedoch ein gutes Signal-Rausch-Verhältnis (SNR) und damit einen großen maximalen Erfassungsbereich zu erreichen, sollte das vom Zielobjekt (z.B. Objekt 100) reflektierte Licht über eine große Empfängeroptik gesammelt werden. Die Verwendung desselben Abtastspiegels für den Empfang des Lichts wie für das Aussenden stellt sicher, dass der Empfänger nur den beleuchteten Bereich des Zielobjekts erfasst und dass Hintergrundlicht aus anderen nicht beleuchteten Bereichen des Zielobjekts und/oder aus anderen Bereichen des Sichtfelds (FoV) nicht auf den Sensor trifft, was ansonsten das Signal-Rausch-Verhältnis verringern würde. Während ein maximaler Erfassungsbereich möglicherweise eine große Empfängerapertur erfordert, widerspricht dies bei einem Aufbau mit einem gemeinsamen Sende-/Empfangsspiegel dem oben genannten Wunsch nach einem kleinen Ablenkspiegel für den Sendestrahl.
  • Es gibt mehrere mögliche konventionelle Ansätze, um die oben beschriebenen Ziele zu erreichen.
    • - Ein großer Ablenkspiegel, der zu einer ziemlich niedrigen Scan-/Bildrate, aber einem ziemlich großen Erfassungsbereich führt. Eine Implementierung eines solchen Scanspiegels, z.B. in ein um 360° drehbares LIDAR-System, kann aufgrund seiner mechanischen Robustheit nachteilig sein.
    • - Ein kleiner Ablenkspiegel und eine optische Anordnung, die das gesamte Sichtfeld der Strahlablenkung gleichzeitig erfasst. Daraus ergibt sich zwar eine recht hohe Scan-/Bildrate, aber ein eher kleiner Erfassungsbereich, da in diesem Fall das Hintergrundlicht des gesamten Sichtfeldes gesammelt wird. Außerdem ist eine solche optische Anordnung prinzipiell nicht effizient.
    • - Eine Kombination eines kleinen Ablenkspiegels mit einem Ein-Photonen-Fotodiode (z.B. einer Ein-Photonen-Avalanche-Fotodiode, SPAD) Detektorarray mit Mikrolinsen kann vorgesehen werden. Für jede Fotodiode existiert eine separate Zeitmessung, jedoch ist die Winkelauflösung in der Regel durch die Anzahl der Zeilen und Spalten des Detektorarrays begrenzt. Außerdem kann das Signal-Rausch-Verhältnis (SNR) während der Detektion aufgrund des Ein-Photonen-Prinzips niedrig sein, und es kann schwierig sein, eine ausreichend akzeptable Analyse der empfangenen Signalwellenform durchzuführen.
    • - Es kann eine Kombination eines kleinen Ablenkspiegels mit einem SPAD-Detektorarray vorgesehen werden, so dass der empfangene Laserstrahl auf eine Vielzahl von SPAD-Pixeln verteilt wird (z.B. durch kontrollierte Defokussierung der Empfängeroptik) und diesmal die Messung einer Vielzahl von Pixeln für den Detektionsprozess genutzt werden kann. In diesem Fall kann die Winkelinformation über die Position des Ablenkspiegels bestimmt werden.
  • In verschiedenen Ausführungen ist eine Kombination eines kleinen Ablenkspiegels oder einer anderen gut geeigneten Strahlsteuerungsanordnung mit einem Silizium-Fotomultiplier-Detektorarray (SiPM) vorgesehen (mit demselben optischen Pfad oder getrennten optischen Pfaden). Die Ausgangssignale derjenigen SiPM-Pixel des Sensors 52 des zweiten LIDAR-Sensorsystems 50, auf die der vom Zielobjekt (z.B. Objekt 100) reflektierte Lichtstrahl auftrifft, können dann zumindest in gewissen Zeitintervallen miteinander kombiniert werden (z.B. durch einen oder mehrere Multiplexer, z.B. durch einen Zeilen- und einen Spaltenmultiplexer) und werden dann an einen Verstärker weitergeleitet, wie weiter unten näher beschrieben wird. Abhängig von der Anzahl der Pixel im SiPM-Detektor-Array, die vom Lichtfleck abgedeckt werden, können z.B. ein, zwei oder vier Pixel für dessen Auswertung zusammengeschaltet werden. Es ist zu beachten, dass im Allgemeinen eine beliebige Anzahl von Pixeln im SiPM-Detektorarray miteinander verbunden werden kann, abhängig unter anderem von der Größe und der Abdeckung der Pixel im SiPM-Detektorarray durch den Lichtfleck. Der Sensor-Controller 53 (z.B. als Controller-FPGA implementiert) kann den oder die Pixel des SiPM-Detektorarrays bestimmen, die für das Auslesen und Auswerten des Sensorsignals ausgewählt werden sollen. Dies kann unter Berücksichtigung der Winkelinformation über die Strahlablenkung erfolgen. Alle anderen Pixel (d.h. die nicht ausgewählten Pixel) werden entweder nicht ausgelesen oder z.B. gar nicht erst mit Betriebsspannung versorgt.
  • Die Bereitstellung des SiPM-Detektorarrays in Kombination mit einem Multiplexer-System ermöglicht nicht nur die Registrierung des Auftreffens einzelner Photonen, sondern sogar die Verarbeitung des zeitlichen Verlaufs des vom SiPM-Detektorarray detektierten optischen Pulses. Dies kann durch eine analoge Elektronikschaltung realisiert werden, die so konfiguriert ist, dass sie ein Triggersignal erzeugt, das einem Zeit-Digital-Wandler (TDC) zugeführt wird. Alternativ kann das Spannungssignal, das den von einem Verstärker (z.B. einem Transimpedanzverstärker) gelieferten optischen Puls darstellt, von einem Analog-Digital-Wandler (ADC) digitalisiert und dann mittels digitaler Signalverarbeitung analysiert werden. Die Fähigkeiten der digitalen Signalverarbeitung können genutzt werden, um eine höhere Abstandsmessgenauigkeit zu implementieren. Darüber hinaus kann eine Detektion mehrerer optischer Pulse am Empfänger für genau eine emittierte Laserpulsfolge vorgesehen werden, z.B. wenn die emittierte Laserpulsfolge auf mehrere Objekte trifft, die sich in einem Abstand voneinander befinden, was zu unterschiedlichen Lichtlaufzeiten (ToFs) für die einzelnen Reflexionen führt. Verschiedene Ausführungsformen können die Messung der Intensität des vom Zielobjekt reflektierten Laserpulses und damit die Bestimmung des Reflexionsvermögens der Oberfläche des Zielobjektes ermöglichen. Darüber hinaus kann die Pulswellenform analysiert werden, so dass daraus Sekundärparameter wie die Unebenheit der Objektoberfläche abgeleitet werden können. Durch die Trennung der Sendeoptik von der Empfangsoptik bei gleichzeitiger Unterdrückung des Hintergrundlichts von unbeleuchteten Bereichen der Szene kann das LIDAR-Sensorsystem prinzipiell eine hohe Abtastgeschwindigkeit bei gleichzeitig großem Erfassungsbereich erreichen. Eine optionale Konfiguration eines SiPM-Pixels des SiPM-Detektorarrays mit einer Vielzahl parallel geschalteter einzelner SPADs ermöglicht darüber hinaus die Kompensation einer herstellungsbedingten Abweichung der Kennlinien von einem Pixel zum nächsten Pixel. Als Alternative zu einer Strahlablenkung auf der Basis eines Mikrospiegels (auch als MEMS-Spiegel bezeichnet) kann eine Strahlablenkung auf der Basis eines räumlichen Lichtmodulators, eines (z.B. passiven) optischen Phased Arrays, einer faserbasierten Abtastvorrichtung oder eines VCSEL-Emitter-Arrays (z.B. als optisches Phased Array ausgeführt) vorgesehen werden.
  • 26 zeigt einen Ausschnitt des LIDAR-Sensorsystems 10 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das LIDAR-Sensorsystem 10 umfasst das erste LIDAR-Sensorsystem 40 und das zweite LIDAR-Sensorsystem 50.
  • Das erste LIDAR-Sensorsystem 40 kann eine oder mehrere Lichtquellen 42 aufweisen (z.B. einen oder mehrere Laser 42, die z.B. in einem Laserarray angeordnet sind). Darüber hinaus kann ein Lichtquellentreiber 43 (z.B. ein Lasertreiber) konfiguriert werden, um die eine oder mehrere Lichtquellen 42 so zu steuern, dass sie einen oder mehrere Lichtpulse (z.B. einen oder mehrere Laserpulse) emittieren. Der Sensor-Controller 53 kann so konfiguriert werden, dass er den Lichtquellentreiber 43 steuert. Die eine oder mehrere Lichtquellen 42 können so konfiguriert werden, dass sie eine im Wesentlichen konstante Lichtwellenform oder eine variierende (modulierte) Wellenform aussenden. Die Wellenform kann in ihrer Amplitude (Amplitudenmodulation) und/oder Pulslänge (Zeitmodulation) und/oder in der Zeitdauer zwischen zwei aufeinanderfolgenden Lichtpulsen moduliert werden. Die Verwendung unterschiedlicher Modulationsmuster (die eindeutig sein sollten) für verschiedene Lichtquellen 42 kann vorgesehen werden, um es einem Empfänger zu ermöglichen, die verschiedenen Lichtquellen 42 zu unterscheiden, indem die Information über die lichterzeugende Lichtquelle 42 als Identifikationsinformation zum Modulationsschema hinzugefügt wird. Wenn der Empfänger also die empfangenen Sensorsignale demoduliert, erhält er die Information über die Lichtquelle, die den empfangenen einen oder mehrere Lichtpulse (z.B. Laserpulse) erzeugt und ausgesendet hat. In verschiedenen Ausführungsformen kann das erste LIDAR-Sensorsystem 40 als scannendes LIDAR-Sensorsystem konfiguriert sein und somit einen Lichtscanner mit einem Aktuator zur Strahllenkung und -steuerung 41 einschließlich einer oder mehrerer Scanoptiken mit einem oder mehreren Ablenkspiegeln 80 zur Abtastung einer vorgegebenen Szene aufweisen. Der Aktuator für die Strahllenkung und -steuerung 41 betätigt den einen oder die mehreren Ablenkspiegel 80 entsprechend einem Abtaststeuerprogramm, das vom Aktuator für die Strahllenkung und -steuerung 41 ausgeführt wird. Das Licht (z.B. eine Folge von Laserpulsen (moduliert oder nicht moduliert), das von der einen oder den mehreren Lichtquellen 42 ausgesendet wird, wird von dem Ablenkspiegel 80 abgelenkt und dann aus dem ersten LIDAR-Abtastsystem 40 als emittierte Licht- (z.B. Laser-) Pulsfolge 2604 ausgesendet. Das erste LIDAR-Sensorsystem 40 kann ferner eine Positionsmessschaltung 2606 aufweisen, die so konfiguriert ist, dass sie die Position des Ablenkspiegels 80 zu einem bestimmten Zeitpunkt misst. Die gemessenen Spiegelpositionsdaten können vom ersten LIDAR-Abtastsystem 40 als Strahlablenkungswinkeldaten 2608 an den Sensor-Controller 53 übertragen werden.
  • Der Fotodiodenselektor (z.B. der Sensorcontroller 53) kann so konfiguriert werden, dass er den mindestens einen Zeilenmultiplexer und den mindestens einen Spaltenmultiplexer steuert, um eine Vielzahl von Fotodioden (z.B. eine Vielzahl von Fotodioden einer Zeile und eine Vielzahl von Fotodioden einer Spalte) des Silizium-Fotomultiplierarrays auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Auslesevorgangs auf der Grundlage der Winkelinformation der Strahlablenkung, die auf Licht angewendet wird, das von einer Lichtquelle eines zugehörigen LIDAR-Sensorsystems emittiert wird (z.B. auf der Grundlage der gelieferten Strahlablenkungswinkeldaten), gemeinsam ausgewertet werden.
  • Trifft der ausgesandte Licht- (z.B. Laser-) Puls 2604 auf ein Objekt mit einer reflektierenden Oberfläche (z.B. Objekt 100), so wird der ausgesandte Licht- (z.B. Laser-) Puls 2604 von der Oberfläche des Objektes (z.B. Objekt 100) reflektiert und ein reflektierter Licht- (z.B. Laser-) Puls 2610 kann über die Detektionsoptik 51 vom zweiten LIDAR-Sensorsystem 50 empfangen werden. Es ist zu beachten, dass der reflektierte Lichtpuls 2610 weiterhin streuende Anteile aufweisen kann. Weiterhin ist zu beachten, dass der eine oder mehrere Umlenkspiegel 80 und die Detektionsoptik 51 eine einzige Optik sein können oder in getrennten optischen Systemen implementiert sein können.
  • Der reflektierte Lichtpuls 2610 (z.B. Laser) kann dann auf die Oberfläche von einem oder mehreren Sensorpixeln (auch als ein oder mehrere Pixel bezeichnet) 2602 des SiPM-Detektorarrays 2612 auftreffen. Das SiPM-Detektorarray 2612 enthält eine Vielzahl von Sensorpixeln und somit eine Vielzahl von Fotodioden (z.B. Avalanche-Fotodioden, z.B. Einzelphotonen-Avalanche-Fotodioden), die in einer Vielzahl von Zeilen und einer Vielzahl von Spalten innerhalb des SiPM-Detektorarrays 2612 angeordnet sind. In verschiedenen Ausführungsformen wird davon ausgegangen, dass der reflektierte Lichtpuls 2610 (z.B. Laserpuls) auf eine Vielzahl benachbarter Sensorpixel 2602 (in 26 durch einen Kreis 2614 symbolisiert) trifft, wie im Folgenden näher beschrieben wird. Ein oder mehrere Multiplexer, wie z.B. ein Zeilenmultiplexer 2616 und ein Spaltenmultiplexer 2618, können vorgesehen werden, um eine oder mehrere Zeilen (durch den Zeilenmultiplexer 2616) und eine oder mehrere Spalten (durch den Spaltenmultiplexer 2618) des SiPM-Detektorarrays 2612 auszuwählen, um ein oder mehrere Sensorpixel während eines Auslesevorgangs auszulesen. Der Sensor-Controller 53 (der in verschiedenen Ausführungsformen als Fotodiodenselektor arbeiten kann; es ist zu beachten, dass der Fotodiodenselektor auch durch eine weitere individuelle Schaltung implementiert werden kann, die den Ausleseprozess zum Auslesen des Sensorsignals bzw. der Sensorsignale steuert, die von den ausgewählten Sensorpixeln 2602 des SiPM-Detektorarrays 2612 geliefert werden. Zum Beispiel legt der Sensor-Controller 53 ein Zeilenauswahlsignal 2620 an den Zeilenmultiplexer 2616 an, um eine oder mehrere Zeilen (und damit die mit der einen oder den mehreren Zeilen verbundenen Sensorpixel) des SiPM-Detektorarrays 2612 auszuwählen, und ein Spaltenauswahlsignal 2622 an den Spaltenmultiplexer 2618, um eine oder mehrere Spalten (und damit die mit der einen oder den mehreren Spalten verbundenen Sensorpixel) des SiPM-Detektorarrays 2612 auszuwählen. Auf diese Weise wählt der Sensor-Controller 53 diejenigen Sensorpixel 2602 aus, die mit der oder den ausgewählten Zeilen und mit der oder den ausgewählten Spalten verbunden sind. Die Sensorsignale (auch als SiPM-Signale bezeichnet) 2624, die von den ausgewählten Sensorpixeln 2602 erfasst werden, werden einem oder mehreren Verstärkern (z.B. einem oder mehreren Transimpedanzverstärkern, TIA) 2626 zugeführt, die ein oder mehrere entsprechende Spannungssignale (z.B. einen oder mehrere Spannungspulse) 2628 liefern. Zur Veranschaulichung: Der eine oder die mehreren Verstärker 2626 können so konfiguriert werden, dass sie ein Signal (z.B. die SiPM-Signale 2624) verstärken, das von der ausgewählten Vielzahl von Fotodioden des Silizium-Fotomultiplier-Arrays 2612 geliefert wird, um zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet zu werden. Ein Analog-Digital-Wandler (ADC) 2630 ist so konfiguriert, dass er die gelieferten Spannungssignale 2628 in digitalisierte Spannungswerte (z.B. digitale Spannungspulswerte) 2632 umwandelt. Der ADC 2630 überträgt die digitalisierten Spannungswerte 2632 an den Sensor-Controller 53. Zur Veranschaulichung: Der Fotodiodenselektor (z.B. der Sensor-Controller 53) ist so konfiguriert, dass er den mindestens einen Zeilenmultiplexer 2616 und den mindestens einen Spaltenmultiplexer 2618 steuert, um eine Vielzahl von Fotodioden 2602 des Silizium-Fotomultiplier-Arrays 2612 auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Auslesevorgangs, z.B. durch das LIDAR-Datenverarbeitungssystem 60, gemeinsam ausgewertet werden.
  • Darüber hinaus kann ein hochgenauer Oszillator 2634 vorgesehen werden, der den Sensor-Controller mit einem hochgenauen Zeitbasis-Taktsignal 2636 versorgt.
  • Der Sensor-Controller 53 empfängt die digitalisierten Spannungswerte 2632 und leitet diese einzeln oder teilweise oder vollständig gesammelt über einen vorgegebenen Zeitraum als Datensatz 2638 an das LIDAR-Datenverarbeitungssystem 60 weiter.
  • 27 zeigt einen Ausschnitt von 2700 einer Oberfläche des SiPM-Detektorarrays 2612 in Übereinstimmung mit verschiedenen Ausführungsformen. Ein Licht-(Laser-)Fleck 2702, der auf die Oberfläche des Teils 2700 des SiPM-Detektorarrays 2612 auftrifft, wird in 27 durch einen Kreis 2702 symbolisiert. Der Licht-(Laser-)Fleck 2702 bedeckt eine Vielzahl von Sensorpixeln 2602. Der Zeilenmultiplexer 2616 legt eine Vielzahl von Zeilenauswahlsignalen 2704, 2706, 2708 (die Anzahl der Zeilenauswahlsignale kann gleich der Anzahl der Zeilen des SiPM-Detektorarrays 2612 sein) an, um die Sensorpixel der jeweils ausgewählten Zeile auszuwählen. Der Spaltenmultiplexer 2618 wendet eine Vielzahl von Spaltenauswahlsignalen 2710, 2712, 2714 (die Anzahl der Spaltenauswahlsignale kann gleich der Anzahl der Spalten des SiPM-Detektorarrays 2612 sein) an, um die Sensorpixel der jeweils ausgewählten Spalte auszuwählen. 27 veranschaulicht neun ausgewählte Sensorpixel 2716, die durch die Vielzahl der Zeilenauswahlsignale 2704, 2706, 2708 und die Vielzahl der Spaltenauswahlsignale 2710, 2712, 2714 ausgewählt wurden. Der Licht-(Laser-)Fleck 2702 bedeckt die neun ausgewählten Sensorpixel 2716. Darüber hinaus kann der Sensor-Controller 53 eine Versorgungsspannung 2718 an das SiPM-Detektor-Array 2612 liefern. Die von den ausgewählten Sensorpixeln 2716 gelieferten Sensorsignale 2720 werden aus dem SiPM-Detektorarray 2612 ausgelesen und über die Multiplexer 2616, 2618 dem einen oder mehreren Verstärkern 2626 zugeführt. Im Allgemeinen kann die Anzahl der ausgewählten Sensorpixel 2716 beliebig sein, z.B. bis zu 100, mehr als 100, 1000, mehr als 1000, 10.000, mehr als 10.000. Die Größe und/oder Form der einzelnen Sensorpixel 2602 kann ebenfalls variieren. Die Größe jedes Sensorpixels 2602 kann im Bereich von etwa 1 µm bis etwa 1000 µm oder im Bereich von etwa 5 µm bis etwa 50 µm liegen. Der Laserspot 2702 kann eine Fläche von z.B. 4 bis 9 Pixeln 2716 abdecken, kann aber je nach Pixelgröße und Durchmesser des Laserspots bis zu etwa 100 Pixel betragen.
  • Die individuelle Auswählbarkeit jedes Sensorpixels 2602 in einer Art und Weise, die mit einem Auswahlmechanismus von Speicherzellen in einem Dynamic Random Access Memory (DRAM) vergleichbar ist, ermöglicht es einer einfachen und damit kostengünstigen Sensorschaltungsarchitektur, schnell und zuverlässig ein oder mehrere Sensorpixel 2602 auszuwählen, um eine Auswertung einer Vielzahl von Sensorpixeln gleichzeitig zu erhalten. Dies kann die Zuverlässigkeit der Sensorsignalauswertung des zweiten LIDAR-Sensorsystems 50 verbessern.
  • 28 zeigt einen Ausschnitt 2800 des SiPM-Detektorarrays 2612 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das SiPM-Detektor-Array 2612 kann eine Vielzahl von Zeilenauswahlleitungen 2640 aufweisen, wobei jede Zeilenauswahlleitung 2640 mit einem Eingang des Zeilenmultiplexers 2616 gekoppelt ist. Das SiPM-Detektorarray 2612 kann ferner eine Vielzahl von Spaltenauswahlleitungen 2642 aufweisen, wobei jede Spaltenauswahlleitung 2642 mit einem Eingang des Spaltenmultiplexers 2618 gekoppelt ist. Ein jeweiliger Spaltenschalter 2802 ist jeweils mit einer der Spaltenauswahlleitungen 2642 gekoppelt und so geschaltet, dass er die auf einer Versorgungsspannungsleitung 2804 vorhandene elektrische Versorgungsspannung mit den mit der jeweiligen Spaltenauswahlleitung 2642 gekoppelten Sensorpixeln koppelt oder die elektrische Versorgungsspannung davon entkoppelt. Jedes Sensorpixel 2602 kann mit einer Spaltenausleseleitung 2806 gekoppelt werden, die ihrerseits über einen entsprechenden Spaltenausleseschalter 2810 mit einer Sammelausleseleitung 2808 gekoppelt ist. Die Spaltenausleseschalter 2810 können Teil des Spaltenmultiplexers 2618 sein. Die Summe des Stroms der ausgewählten Sensorpixel, d.h. der Sensorsignale 2720, kann auf der Ausleseleitung 2808 zur Verfügung gestellt werden. Jedes Sensorpixel 2602 kann ferner über einen entsprechenden Spaltenpixelschalter 2812 einer zugehörigen Spaltenauswahlleitung 2642 nachgeschaltet werden (mit anderen Worten, ein entsprechender Spaltenpixelschalter 2812 ist zwischen einer entsprechenden zugehörigen Spaltenauswahlleitung 2642 und einem zugehörigen Sensorpixel 2602 geschaltet). Darüber hinaus kann jedes Sensorpixel 2602 über einen entsprechenden Spaltenpixel-Ausleseschalter 2814 einer zugehörigen Spaltenausleseleitung 2806 vorgeschaltet werden (mit anderen Worten, ein entsprechender Spaltenpixel-Ausleseschalter 2814 ist zwischen eine entsprechende zugehörige Spaltenausleseleitung 2806 und ein zugehöriges Sensorpixel 2602 geschaltet). Jeder Schalter im SiPM-Detektor-Array 2612 kann durch einen Transistor, z.B. einen Feldeffekttransistor (FET), z.B. einen MOSFET, realisiert werden. Ein Steuereingang (z.B. der Gate-Anschluß eines MOSFET) jedes Spaltenpixel-Schalters 2812 und jedes Spaltenpixel-Ausleseschalters 2814 kann elektrisch leitend mit einer zugeordneten aus der Vielzahl der Zeilenauswahlleitungen 2640 gekoppelt sein. Auf diese Weise „aktiviert“ der Zeilenmultiplexer 2616 die Spaltenpixelschalter 2812 und die Pixel-Ausleseschalter 2814 über eine zugeordnete Zeilenauswahlleitung 2640. Falls ein jeweiliger Spaltenpixelschalter 2812 und der zugehörige Pixelausleseschalter 2814 aktiviert werden, aktiviert der zugehörige Spaltenschalter 2802 schließlich das jeweilige Sensorpixel durch Anlegen der Versorgungsspannung 2718, z.B. an die Source des MOSFET, und (da z.B. der zugehörige Spaltenpixelschalter 2812 geschlossen ist) die Versorgungsspannung wird auch an das jeweilige Sensorpixel angelegt. Ein von dem „aktivierten“ ausgewählten Sensorpixel 2602 detektiertes Sensorsignal kann an die zugehörige Spaltenausleseleitung 2806 weitergeleitet werden (da z.B. auch der zugehörige Spaltenpixel-Ausleseschalter 2814 geschlossen ist), und, falls auch der zugehörige Spaltenausleseschalter 2810 geschlossen ist, wird das jeweilige Sensorsignal an die Ausleseleitung 2808 und schließlich an einen zugehörigen Verstärker (z.B. einen zugehörigen TIA) 2626 übertragen.
  • 29A bis 29C zeigen eine gesendete Pulsfolge, die vom ersten LIDAR-Sensorsystem emittiert wird (29A), eine empfangene Pulsfolge, die vom zweiten LIDAR-Sensorsystem empfangen wird (29B), und ein Diagramm, das eine Kreuzkorrelationsfunktion für die gesendete Pulsfolge und die empfangene Pulsfolge (29C) gemäß verschiedenen Ausführungsformen darstellt. Diese Kreuzkorrelationsfunktion ist gleichbedeutend mit der Kreuzkorrelation eines Signals mit sich selbst.
  • Es ist zu beachten, dass die Kreuzkorrelationsaspekte dieser Offenbarung als unabhängige Ausführungsformen (d.h. unabhängig von der Auswahl und Kombination einer Vielzahl von Sensorpixeln z.B. für eine gemeinsame Signalauswertung) oder in Kombination mit den oben beschriebenen Aspekten zur Verfügung gestellt werden können.
  • 29A zeigt eine emittierte Laserpulsfolge 2902 mit einer Vielzahl von Laserpulsen 2904 in einem ersten Laserausgangsleistung-Zeit-Diagramm 2900 als Beispiel für den emittierten Lichtpuls 2604 (z.B. Laser).
  • Wie oben beschrieben, kann die Lichtquelle (z.B. das Laserarray 42) eine Vielzahl von (modulierten oder unmodulierten) Laserpulsen 2904 aussenden, die vom SiPM-Detektorarray 2612 empfangen (d.h. detektiert) werden können. Eine empfangene Laserpulsfolge 2908 mit einer Vielzahl von Laserpulsen 2910 in einem zweiten Laserleistungs-/Zeit-Diagramm 2906 als ein Beispiel für den reflektierten Lichtpuls 2610 (z.B. Laser) ist in 29B dargestellt. Wie in 29A und 29B dargestellt ist, kann die empfangene Laserpulsfolge 2908 (abhängig von den Bedingungen des Übertragungskanals) der ausgesendeten Laserpulsfolge 2902 sehr ähnlich sein, kann aber zeitlich verschoben sein (z.B. mit einer Latenz □t empfangen). In verschiedenen Ausführungsformen kann das LIDAR-Datenverarbeitungssystem 60, z.B. der FPGA 61 oder der Host-Prozessor 62, eine jeweils empfangene Laserpulsfolge 2908 durch Anwendung einer Kreuzkorrelationsfunktion auf die empfangenen Sensorsignale (z.B. auf die empfangenen digitalen Spannungswerte) und die gesendete Laserpulsfolge 2902 ermitteln. Ein empfangener Laserpuls der jeweils empfangenen Laserpulsfolge 2908 wird identifiziert, wenn ein ermittelter Kreuzkorrelationswert einen vordefinierten Schwellenwert überschreitet, der auf der Grundlage von Experimenten während einer Kalibrierungsphase ausgewählt werden kann. 29C zeigt zwei Kreuzkorrelationsfunktionen 2914, 2916 in einem Kreuzkorrelationsdiagramm 2912. Eine erste Kreuzkorrelationsfunktion 2914 zeigt eine hohe Korrelation unter idealen Bedingungen. Der Korrelationspeak bei der Zeitdifferenz □t kann in verschiedenen Ausprägungen der Flugzeit und damit der Entfernung des Objekts 100 entsprechen. Darüber hinaus zeigt eine zweite Kreuzkorrelationsfunktion 2916 nur sehr geringe Kreuzkorrelationswerte, was darauf hindeutet, dass die empfangene Laserpulsfolge 2908 in diesem Fall sehr verschieden von der „verglichenen“ emittierten Laserpulsfolge 2902 ist. Dies kann auf einen sehr schlechten Übertragungskanal zurückzuführen sein oder auf die Tatsache, dass die empfangenen Sensorsignale nicht zum gesendeten Laserpulszug 2902 gehören. Mit anderen Worten, für empfangene Sensorsignale, die nicht zu der angenommenen oder verglichenen gesendeten Laserpulsfolge 2902 gehören, kann nur eine sehr geringe oder gar keine Korrelation ermittelt werden. So kann in verschiedenen Ausführungsformen eine Vielzahl von Lichtquellen (z.B. Laser) 42 Laserpulsfolgen mit unterschiedlicher (z.B. eindeutiger) Zeit- und/oder Amplitudenkodierung (d.h. Modulation) aussenden. Damit ist sichergestellt, dass das SiPM-Detektorarray 2612 und das LIDAR-Datenverarbeitungssystem 60, z.B. der FPGA 61 oder der Host-Prozessor 62, empfangene Lichtpulsfolgen (z.B. Laserpulsfolgen) und die entsprechende emittierende Lichtquelle 42 und die jeweils emittierte Lichtpulsfolge (z.B. emittierte Laserpulsfolge 2902) zuverlässig identifizieren können.
  • So kann in verschiedenen Ausführungsformen das zweite LIDAR-Sensorsystem 50 mit einer Kreuzkorrelationsschaltung (die durch den FPGA 61, den Host-Prozessor 62 oder eine einzelne Schaltung, z.B. einen einzelnen Prozessor, implementiert werden kann) gekoppelt werden, die so konfiguriert ist, dass sie eine Kreuzkorrelationsfunktion auf ein erstes Signal und ein zweites Signal anwendet. Das erste Signal stellt ein Signal dar, das von einer Lichtquelle ausgesendet wird, und das zweite Signal ist ein Signal, das von mindestens einer Fotodiode aus einer Vielzahl von Fotodioden (die Teil eines SiPM-Detektorarrays sein können (z.B. SiPM-Detektorarray 2612)) zur Verfügung gestellt wird. Eine durch die resultierende Kreuzkorrelationsfunktion angezeigte Zeitdifferenz zwischen dem ersten Signal und dem zweiten Signal kann als Laufzeitwert bestimmt werden, wenn der ermittelte Kreuzkorrelationswert für das erste Signal und das zweite Signal bei der Zeitdifferenz gleich einem vordefinierten Kreuzkorrelationsschwellenwert ist oder diesen überschreitet.
  • 30 zeigt ein Blockdiagramm, das ein Verfahren, z.B. das zuvor beschriebene Kreuzkorrelationsverfahren 3000 nach verschiedenen Ausführungsformen näher erläutert.
  • Wie in 30 gezeigt und wie oben beschrieben, können in 3002 eine oder mehrere Lichtquellen (z.B. Laser) 42 eine Pulswellenform aussenden, die eine Vielzahl von Lichtpulsen (z.B. Laser) aufweisen kann (z.B. 80).
  • In verschiedenen Ausführungsformen können verschiedene Optionen für den Ursprung der ausgesendeten Puls-Referenzwellenform bereitgestellt werden, wie z.B:
    • a) die emittierte Pulswellenform kann zur Designzeit durch ein elektrooptisches LIDAR-Simulationsmodell erzeugt werden (in diesem Fall kann ein Simulationsmodell bereitgestellt werden, das die elektrischen und optischen Komponenten der Lichtquelle (z.B. Laser) mathematisch modelliert - die LIDAR-Pulse würden dann nicht gemessen, sondern mit den Geräteparametern simuliert);
    • b) die emittierte Pulswellenform kann durch ein elektrooptisches LIDAR-Simulationsmodell erzeugt werden, das mit Hilfe von Kalibrierwerten für jeden LIDAR-Sensor, die während der Produktion erfasst wurden, modifiziert wird;
    • c) ähnlich wie b), mit einer Modifikation der internen Haushaltparameter (wie z.B. Temperatur, Laser-Alterung);
    • d) die emittierte Pulswellenform kann während der Herstellung einer individuellen LIDAR-Einheit aufgezeichnet werden;
    • e) ähnlich wie d), mit einer Modifikation der internen Haushaltparameter (wie z.B. Temperatur, Laser-Alterung);
    • f) die emittierte Pulswellenform kann aus tatsächlich emittiertem Licht bestimmt werden, das z. B. mit einer Monitorfotodiode im Emitterpfad gemessen wird; und/oder
    • g) die emittierte Pulswellenform kann aus dem tatsächlich emittierten Licht bestimmt werden, das z.B. am eigentlichen Detektor mit Hilfe einer Koppelvorrichtung (Spiegel, Lichtleiterfaser, ...) gemessen wird.
  • Es ist zu beachten, dass die emittierte Pulswellenform der emittierten Lichtpulsfolge auf der Grundlage eines theoretischen Modells oder auf der Grundlage einer Messung erzeugt werden kann.
  • Wie oben beschrieben kann bei 3004 das zweite LIDAR-Sensorsystem 50 das einfallende Licht, genauer gesagt das von den Sensorpixeln 2602, z.B. vom SiPM-Detektorarray 2612, detektierte Licht digitalisieren und die digitalen (z.B. Spannungs-) Werte in einem Speicher (nicht abgebildet) des zweiten LIDAR-Sensorsystems oder des digitalen Backends bei 3006 speichern. Somit wird eine digitale Darstellung der empfangenen Wellenform im Speicher abgelegt, z.B. für jedes (z.B. ausgewählte) Sensorpixel 2602. Optional kann bei 3008 eine geeignete Mittelwertbildung der empfangenen und digitalisierten Pulswellenformen bereitgestellt werden.
  • Bei 3010 kann dann ein Korrelationsprozess durchgeführt werden, z.B. durch das digitale Backend über die gespeicherten digitalen Wellenformen. Der Korrelationsprozess kann die Anwendung einer Kreuzkorrelationsfunktion auf die gespeicherten (empfangenen) digitalen Wellenformen und die entsprechende gesendete Pulswellenform umfassen. Darüber hinaus kann bei 3012 bestimmt werden, ob der/die berechnete(n) Kreuzkorrelationswert(e) einen vordefinierten Korrelationsschwellenwert überschreitet/überschreiten. Wenn der (die) berechnete(n) Kreuzkorrelationswert(e) den Korrelationsschwellenwert überschreitet (überschreiten), dann kann bei 3014 der ToF-Wert (Bereich) aus dem (den) berechneten Kreuzkorrelationswert(en) wie oben beschrieben berechnet werden.
  • 31A und 31B zeigen Zeitdiagramme, die ein Verfahren in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulichen. 32 zeigt ein Flussdiagramm 3200, das ein Verfahren in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulicht.
  • Es ist zu beachten, dass die Aspekte dieser Offenbarung als unabhängige Ausführungsformen (d.h. unabhängig von der Auswahl und Kombination einer Vielzahl von Sensorpixeln für eine gemeinsame Signalauswertung und/oder unabhängig z.B. von den Kreuzkorrelationsaspekten) oder in Kombination mit den oben beschriebenen Aspekten bereitgestellt werden können.
  • Es wird nun auf 31A verwiesen, die einen Ausschnitt eines beispielhaften Sensorsignals 3102 zeigt, das von einem oder mehreren Sensorpixeln 2602 des SiPM-Detektorarrays 2612 in einem Signalintensitäts-/Zeitdiagramm 3100 geliefert wird. Außerdem sind eine Empfindlichkeitswarnschwelle 3104 und ein Signalbegrenzungspegel 3106 vorgesehen. Der Signalbegrenzungspegel 3106 kann höher als der Empfindlichkeitswarnschwellenwert 3104 sein. In dem in 31A gezeigten Beispiel hat ein erster Teil 3108 des Sensorsignals 3102 eine Signalenergie (oder Amplitude), die höher als die Empfindlichkeitswarnschwelle 3104 und niedriger als die Signalbegrenzungsstufe 3106 ist. Wie weiter unten ausführlicher erläutert wird, kann dies dazu führen, dass z.B. der Sensor-Controller 53 getriggert wird, um die Empfindlichkeit der Fotodiode(n) im Detektorarray zu erhöhen.
  • Es wird nun auf 31B verwiesen, die den Anteil des beispielhaften Sensorsignals 3102 zeigt, der von einem oder mehreren Sensorpixeln 2602 geliefert wird, z.B. von einem oder mehreren Sensorpixeln des SiPM-Detektor-Arrays 2612 im Signal-Energie/Zeit-Diagramm 3100. 31B zeigt den gleichen Anteil wie 31A, jedoch verändert durch eine erhöhte Empfindlichkeit der Fotodiode und Begrenzung. In dem in 31B gezeigten Beispiel hat ein zweiter Teil 3110 des Sensorsignals 3102 eine Signalenergie (oder Amplitude), die höher ist als die Empfindlichkeitswarnschwelle 3104 und auch höher als der Signalbegrenzungspegel 3106. Wie im Folgenden näher erläutert wird, kann dies dazu führen, dass z.B. der Sensor-Controller 53 ausgelöst wird, um die Erhöhung der Empfindlichkeit der Fotodiode in Bezug auf diesen zweiten Teil aus der analysierten Wellenform im Erkennungsprozess zu stoppen. Dieses Verfahren ermöglicht ein zuverlässigeres Detektionsschema im LIDAR-Detektionsprozess.
  • 32 zeigt das Verfahren in einem Flussdiagramm 3200 detaillierter. Das Verfahren kann durch den Sensor-Controller 53 oder jede andere gewünschte, entsprechend konfigurierte Logik durchgeführt werden.
  • Bei 3202 kann der Sensor-Controller 53 die Fotodiode(n) auf eine anfängliche (z.B. niedrige oder niedrigstmögliche) Empfindlichkeit einstellen, die z.B. während einer Kalibrierungsphase vordefiniert werden kann. Die Empfindlichkeit kann für jede Fotodiode oder für verschiedene Gruppen von Fotodioden unterschiedlich eingestellt werden. Alternativ könnten alle Fotodioden mit der gleichen Empfindlichkeit zugeordnet werden. Darüber hinaus kann bei 3204 die für einen Sensor (mit anderen Worten: Sensorpixel) oder für eine Sensorgruppe (mit anderen Worten: Sensorpixelgruppe) eingestellte Empfindlichkeit für jeden Sensor oder jede Sensorgruppe als entsprechende(r) Empfindlichkeitswert(e) gespeichert werden. Dann kann bei 3206 eine digitale Wellenform aus den empfangenen digitalen Sensor(spannungs)werten von einem ausgewählten Sensorpixel (z.B. 2602) aufgezeichnet werden. Darüber hinaus kann bei 3208 jeder Bereich oder Teil der digitalen Wellenform einem Stopp einer Erhöhung der Empfindlichkeit der zugehörigen Fotodiode unterzogen worden sein, wenn das Signal in einer vorherigen Iteration gleich dem vordefinierten Empfindlichkeitswarnschwellenwert 3104 war oder diesen überschritten hat. Ein solcher Bereich oder Teil (der auch als markierter Bereich oder markierter Teil bezeichnet werden kann) kann aus der digitalisierten Wellenform entfernt werden. Dann prüft das Verfahren bei 3210, ob ein Bereich oder Teil der (noch nicht markierten) digitalen Wellenform die Empfindlichkeitswarnschwelle 3104 erreicht oder überschreitet. Wenn festgestellt wird, dass ein Bereich oder Teil der (noch nicht markierten) digitalen Wellenform die Empfindlichkeitswarnschwelle 3104 erreicht oder überschreitet („Ja“ bei 3210), setzt das Verfahren bei 3212 fort, indem es einen Bereich für eine Zielrückkehr aus dem Wellenformbereich bestimmt, der die Empfindlichkeitswarnschwelle 3104 erreicht oder überschreitet. Dann, bei 3214, umfasst das Verfahren weiterhin die Markierung der Stelle (d.h. des Bereichs oder der Region) der verarbeiteten digitalisierten Wellenform für eine Entfernung bei 3208 der nächsten Iteration des Verfahrens. Darüber hinaus beinhaltet das Verfahren bei 3216 die Erhöhung der Empfindlichkeit der Fotodiode(n). Dann wird das Verfahren in einer nächsten Iteration bei 3204 fortgesetzt. Wenn festgestellt wird, dass kein Bereich oder Teil der (noch nicht markierten) digitalen Wellenform die Empfindlichkeitswarnschwelle 3104 erreicht oder überschreitet („Nein“ bei 3210), wird das Verfahren bei 3216 fortgesetzt.
  • Zur Veranschaulichung wird in verschiedenen Ausführungsformen die Empfindlichkeit einer oder mehrerer Fotodioden iterativ erhöht, bis eine vorgegebene Schwelle (auch als Empfindlichkeitswarnschwelle bezeichnet) erreicht oder überschritten wird. Der vorgegebene Schwellenwert liegt unter dem Clipping-Pegel (Begrenzungspegel), so dass die Signale noch gut dargestellt bzw. abgetastet werden können. Diejenigen Bereiche der Wellenform, die den vorgegebenen Schwellenwert überschreiten, werden bei zukünftigen Messungen mit weiter erhöhter Empfindlichkeit nicht mehr berücksichtigt. Alternativ können diejenigen Bereiche der Wellenform, die den vorgegebenen Schwellenwert überschreiten, mathematisch extrapoliert werden, da diese Bereiche den Clipping-Pegel erreichen oder überschreiten würden.
  • In verschiedenen Ausführungsformen kann das Signal mit einem Faktor gemittelt werden, der von der Empfindlichkeit der Fotodiode abhängt. Bereiche des Signals, auf die das Clipping angewendet wird, werden nicht mehr zur Mittelwertbildung hinzugefügt.
  • In verschiedenen Ausführungsformen kann das LIDAR-Sensorsystem, wie es unter Bezugnahme auf 26 bis 32 beschrieben ist, zusätzlich oder alternativ zur Erhöhung der Empfindlichkeit der Vielzahl von Fotodioden so konfiguriert werden, dass es die Emissionsleistung der Lichtquelle (z.B. die Emissionsleistung der Laserlichtquelle) steuert.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1b ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem enthält eine Silizium-Fotovervielfacheranordnung mit einer Vielzahl von Fotodioden, die in einer Vielzahl von Zeilen und einer Vielzahl von Spalten angeordnet sind, mindestens einen Zeilenmultiplexer, der stromaufwärts mit den in der Vielzahl von Zeilen angeordneten Fotodioden gekoppelt ist, mindestens einen Spaltenmultiplexer, der stromaufwärts mit den in der Vielzahl von Spalten angeordneten Fotodioden gekoppelt ist, und einen Fotodiodenselektor, der so konfiguriert ist, dass er den mindestens einen Zeilenmultiplexer und den mindestens einen Spaltenmultiplexer steuert, um eine Vielzahl von Fotodioden der Silizium-Fotovervielfacheranordnung auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Ausleseprozesses gemeinsam ausgewertet werden sollen.
    • In Beispiel 2b kann der Gegenstand von Beispiel 1b optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 3b kann der Gegenstand eines der Beispiele 1b oder 2b optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 4b kann der Gegenstand eines der Beispiele 1b bis 3b optional umfassen, dass der Fotodiodenwähler weiter konfiguriert wird, um den mindestens einen Zeilenmultiplexer und den mindestens einen Spaltenmultiplexer zu steuern, um eine Vielzahl von Fotodioden des Silizium-Fotomultiplierarrays auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Ausleseprozesses auf der Grundlage einer Winkelinformation der Strahlablenkung, die auf Licht angewendet wird, das von einer Lichtquelle eines zugehörigen LIDAR-Sensorsystems emittiert wird, gemeinsam ausgewertet werden.
    • In Beispiel 5b kann der Gegenstand eines der Beispiele 1b bis 4b optional umfassen, dass der Fotodiodenselektor ferner so konfiguriert ist, dass er den mindestens einen Zeilenmultiplexer und den mindestens einen Spaltenmultiplexer steuert, um eine Vielzahl von Fotodioden einer Zeile und eine Vielzahl von Fotodioden einer Spalte auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Auslesevorgangs auf der Grundlage einer Winkelinformation der Strahlablenkung, die auf Licht angewendet wird, das von einer Lichtquelle eines zugehörigen LIDAR-Sensorsystems emittiert wird, gemeinsam ausgewertet werden.
    • In Beispiel 6b kann der Gegenstand eines der Beispiele 1b bis 5b optional umfassen, dass das LIDAR-Sensorsystem ferner einen Verstärker enthält, der so konfiguriert ist, dass er ein Signal verstärkt, das von der ausgewählten Vielzahl von Fotodioden der Silizium-Fotovervielfacheranordnung bereitgestellt wird, um zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet zu werden.
    • In Beispiel 7b kann der Gegenstand von Beispiel 6b optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 8b kann der Gegenstand eines der Beispiele 6b oder 7b optional umfassen, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler aufweist, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • In Beispiel 9b kann der Gegenstand eines der Beispiele 1b bis 8b optional umfassen, dass das LIDAR-Sensorsystem außerdem eine Kreuzkorrelationsschaltung aufweist, die so konfiguriert ist, dass sie eine Kreuzkorrelationsfunktion auf ein erstes und ein zweites Signal anwendet. Das erste Signal stellt ein von einer Lichtquelle emittiertes Signal dar, und das zweite Signal ist ein Signal, das von der ausgewählten Vielzahl von Fotodioden der Silizium-Fotovervielfacheranordnung bereitgestellt wird, um zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet zu werden. Eine Zeitdifferenz zwischen dem ersten Signal und dem zweiten Signal wird als Laufzeitwert bestimmt, wenn der bestimmte Kreuzkorrelationswert für das erste Signal und das zweite Signal bei der Zeitdifferenz gleich einem vordefinierten Kreuzkorrelationsschwellenwert ist oder diesen überschreitet.
    • In Beispiel 10b kann der Gegenstand eines der Beispiele 1b bis 9b optional umfassen, dass das LIDAR-Sensorsystem ferner einen Speicher aufweist, der so konfiguriert ist, dass er einen Empfindlichkeitswert, der die Empfindlichkeit der Vielzahl von Fotodioden darstellt, und eine oder mehrere digitalisierte Wellenformen eines von der Vielzahl von Fotodioden empfangenen Signals speichert. Das LIDAR-Sensorsystem kann ferner eine Empfindlichkeitswarnschaltung aufweisen, die so konfiguriert ist, dass sie einen Teil der gespeicherten einen oder mehreren digitalisierten Wellenformen bestimmt, der gleich einem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet, und den Empfindlichkeitswert anpasst, falls eine Amplitude eines empfangenen Signals gleich dem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet.
    • In Beispiel 11b kann der Gegenstand eines der Beispiele 1 b bis 10b optional umfassen, dass das LIDAR-Sensorsystem außerdem eine Strahllenkungsanordnung aufweist, die so konfiguriert ist, dass sie eine Szene abtastet.
    • Beispiel 12b ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Fotodioden und eine Kreuzkorrelationsschaltung aufweisen, die so konfiguriert ist, dass sie eine Kreuzkorrelationsfunktion auf ein erstes Signal und ein zweites Signal anwendet, wobei das erste Signal ein von einer Lichtquelle emittiertes Signal darstellt und wobei das zweite Signal ein Signal ist, das von mindestens einer Fotodiode der Vielzahl von Fotodioden bereitgestellt wird. Eine Zeitdifferenz zwischen dem ersten Signal und dem zweiten Signal wird als Laufzeitwert bestimmt, wenn der bestimmte Kreuzkorrelationswert für das erste Signal und das zweite Signal bei der Zeitdifferenz gleich einem vordefinierten Kreuzkorrelationsschwellenwert ist oder diesen überschreitet.
    • In Beispiel 13b kann der Gegenstand von Beispiel 12b optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 14b kann der Gegenstand eines der Beispiele 12b oder 13b optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 15b kann der Gegenstand eines der Beispiele 12b bis 14b optional umfassen, dass das LIDAR-Sensorsystem außerdem eine Strahllenkungsanordnung aufweist, die so konfiguriert ist, dass sie eine Szene abtastet.
    • In Beispiel 16b kann der Gegenstand eines der Beispiele 12b bis 15b optional umfassen, dass das LIDAR-Sensorsystem außerdem einen Verstärker aufweist, der so konfiguriert ist, dass er ein Signal verstärkt, das von einer oder mehreren Fotodioden aus der Vielzahl der Fotodioden geliefert wird.
    • In Beispiel 17b kann der Gegenstand von Beispiel 16b optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 18b kann der Gegenstand eines der Beispiele 16b oder 17b optional umfassen, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler aufweist, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • Beispiel 19b ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Fotodioden und einen Speicher aufweisen, der so konfiguriert ist, dass er einen Empfindlichkeitswert, der die Empfindlichkeit der Vielzahl von Fotodioden darstellt, und eine oder mehrere digitalisierte Wellenformen eines von der Vielzahl von Fotodioden empfangenen Signals speichert. Das LIDAR-Sensorsystem kann ferner eine Empfindlichkeitswarnschaltung aufweisen, die so konfiguriert ist, dass sie einen Teil der gespeicherten einen oder mehreren digitalisierten Wellenformen bestimmt, der gleich einem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet, und den Empfindlichkeitswert anpasst, falls eine Amplitude eines empfangenen Signals gleich dem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet.
    • In Beispiel 20b kann der Gegenstand von Beispiel 19b optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 21b kann der Gegenstand eines der Beispiele 19b oder 20b optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 22b kann der Gegenstand eines der Beispiele 19b oder 21b optional umfassen, dass das LIDAR-Sensorsystem außerdem eine Strahllenkungsanordnung aufweist, die so konfiguriert ist, dass sie eine Szene abtastet.
    • In Beispiel 23b kann der Gegenstand eines der Beispiele 19b bis 22b optional umfassen, dass das LIDAR-Sensorsystem außerdem einen Verstärker aufweist, der so konfiguriert ist, dass er ein Signal verstärkt, das von einer oder mehreren Fotodioden aus der Vielzahl der Fotodioden geliefert wird.
    • In Beispiel 24b kann der Gegenstand von Beispiel 23b optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 25b kann der Gegenstand eines der Beispiele 23b oder 24b optional umfassen, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler enthält, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • Beispiel 26b ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Lichtquellen und einen Lichtquellen-Controller umfassen, der so konfiguriert ist, dass er die Vielzahl von Lichtquellen so steuert, dass sie Licht mit einem Lichtquellen-spezifischen Zeit- und/oder Amplituden-Codierungsschema emittieren.
    • In Beispiel 27b kann der Gegenstand von Beispiel 26b optional umfassen, dass mindestens eine Lichtquelle aus der Vielzahl der Lichtquellen einen Laser enthält.
    • In Beispiel 28b kann der Gegenstand von Beispiel 27b optional umfassen, dass mindestens eine Lichtquelle aus der Vielzahl der Lichtquellen einen gepulsten Laser enthält.
    • In Beispiel 29b kann der Gegenstand von Beispiel 28b optional umfassen, dass der mindestens eine gepulste Laser so konfiguriert ist, dass er eine Laserpulsfolge emittiert, die eine Vielzahl von Laserpulsen umfasst.
    • In Beispiel 30b kann der Gegenstand eines der Beispiele 26b bis 29b optional umfassen, dass mindestens eine Lichtquelle aus der Vielzahl der Lichtquellen so konfiguriert ist, dass sie Licht auf der Grundlage eines Modells der Lichtquelle oder auf der Grundlage einer Messung erzeugt.
    • Beispiel 31b ist ein Verfahren für ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Silizium-Fotovervielfacheranordnung mit einer Vielzahl von in einer Vielzahl von Zeilen und einer Vielzahl von Spalten angeordneten Fotodioden, mindestens einem stromaufwärts mit den in der Vielzahl von Zeilen angeordneten Fotodioden gekoppelten Zeilenmultiplexer und mindestens einem stromaufwärts mit den in der Vielzahl von Spalten angeordneten Fotodioden gekoppelten Spaltenmultiplexer aufweisen. Das Verfahren kann die Steuerung des mindestens einen Zeilenmultiplexers und des mindestens einen Spaltenmultiplexers umfassen, um eine Vielzahl von Fotodioden der Silizium- Fotovervielfacheranordnung auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Ausleseprozesses gemeinsam ausgewertet werden sollen.
    • In Beispiel 32b kann der Gegenstand von Beispiel 31b optional umfassen, dass die ausgewählte Vielzahl von Fotodioden des Silizium-Fotomultiplier-Arrays zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet werden.
    • In Beispiel 33b kann der Gegenstand eines der Beispiele 31b oder 32b optional umfassen, dass zumindest einige Fotodioden der Vielzahl von Fotodioden Lawinenfotodioden sind.
    • In Beispiel 34b kann der Gegenstand eines der Beispiele 31b bis 33b optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 35b kann der Gegenstand eines der Beispiele 31b bis 34b optional umfassen, dass das Verfahren ferner die Steuerung des mindestens einen Zeilenmultiplexers und des mindestens einen Spaltenmultiplexers umfasst, um eine Vielzahl von Fotodioden der Silizium-Fotovervielfacheranordnung auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Auslesevorgangs auf der Grundlage einer Winkelinformation der Strahlablenkung, die auf Licht angewendet wird, das von einer Lichtquelle eines zugehörigen LIDAR-Sensorsystems emittiert wird, gemeinsam ausgewertet werden.
    • In Beispiel 36b kann der Gegenstand eines der Beispiele 31b bis 35b optional umfassen, dass das Verfahren ferner die Steuerung des mindestens einen Zeilenmultiplexers und des mindestens einen Spaltenmultiplexers umfasst, um eine Vielzahl von Fotodioden einer Zeile und eine Vielzahl von Fotodioden einer Spalte auszuwählen, die zumindest zu irgendeinem Zeitpunkt während eines Auslesevorgangs auf der Grundlage einer Winkelinformation der Strahlablenkung, die auf Licht angewendet wird, das von einer Lichtquelle eines zugehörigen LIDAR-Sensorsystems emittiert wird, gemeinsam ausgewertet werden.
    • In Beispiel 37b kann der Gegenstand eines der Beispiele 31b bis 36b optional umfassen, dass das Verfahren ferner die Verstärkung eines Signals umfasst, das von der ausgewählten Vielzahl von Fotodioden der Silizium- Fotovervielfacheranordnung bereitgestellt wird, um zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet zu werden.
    • In Beispiel 38b kann der Gegenstand von Beispiel 37b optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 39b kann der Gegenstand eines der Beispiele 37b oder 38b optional umfassen, dass das Verfahren weiterhin die Umwandlung eines vom Verstärker gelieferten analogen Signals in ein digitalisiertes Signal umfasst.
    • In Beispiel 40b kann der Gegenstand eines der Beispiele 31b bis 39b optional umfassen, dass das Verfahren weiterhin die Anwendung einer Kreuzkorrelationsfunktion auf ein erstes Signal und ein zweites Signal umfasst. Das erste Signal stellt ein von einer Lichtquelle ausgesandtes Signal dar. Das zweite Signal ist ein Signal, das von der ausgewählten Vielzahl von Fotodioden der Silizium-Fotovervielfacheranordnung bereitgestellt wird, um zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet zu werden. Das Verfahren kann ferner die Bestimmung einer Zeitdifferenz zwischen dem ersten Signal und dem zweiten Signal als Laufzeitwert umfassen, wenn der ermittelte Kreuzkorrelationswert für das erste Signal und das zweite Signal zum Zeitpunkt der Zeitdifferenz gleich einer vordefinierten Kreuzkorrelationsschwelle ist oder diese überschreitet.
    • In Beispiel 41b kann der Gegenstand eines der Beispiele 31b bis 40b optional umfassen, dass das Verfahren ferner Folgendes umfasst: Speichern eines Empfindlichkeitswerts, der die Empfindlichkeit der mehreren Fotodioden darstellt, Speichern einer oder mehrerer digitalisierter Wellenformen eines von den mehreren Fotodioden empfangenen Signals, Bestimmen eines Teils der gespeicherten einen oder mehreren digitalisierten Wellenformen, wobei dieser Teil gleich einem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet, und Anpassen des Empfindlichkeitswerts, falls eine Amplitude eines empfangenen Signals gleich dem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet.
    • In Beispiel 42b kann der Gegenstand eines der Beispiele 31b bis 41b optional umfassen, dass das Verfahren weiterhin das Scannen einer Szene unter Verwendung einer Strahlsteuerungsanordnung umfasst.
    • Beispiel 43b ist ein Verfahren für ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Fotodioden aufweisen. Das Verfahren kann die Anwendung einer Kreuzkorrelationsfunktion auf ein erstes Signal und ein zweites Signal umfassen. Das erste Signal stellt ein von einer Lichtquelle ausgesendetes Signal dar. Das zweite Signal ist ein Signal, das von mindestens einer Fotodiode aus der Vielzahl der Fotodioden geliefert wird. Das Verfahren kann ferner die Bestimmung einer Zeitdifferenz zwischen dem ersten Signal und dem zweiten Signal als Laufzeitwert umfassen, wenn der bestimmte Kreuzkorrelationswert für das erste Signal und das zweite Signal bei der Zeitdifferenz gleich einem vordefinierten Kreuzkorrelationsschwellenwert ist oder diesen überschreitet.
    • In Beispiel 44b kann der Gegenstand von Beispiel 43b optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 45b kann der Gegenstand von Beispiel 44b optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 46b kann der Gegenstand eines der Beispiele 43b bis 45b optional umfassen, dass das Verfahren weiterhin das Scannen einer Szene unter Verwendung einer Strahlsteuerungsanordnung umfasst.
    • In Beispiel 47b kann der Gegenstand eines der Beispiele 43b bis 46b optional umfassen, dass das Verfahren ferner die Verstärkung eines Signals umfasst, das von der ausgewählten Vielzahl von Fotodioden der Silizium- Fotovervielfacheranordnung bereitgestellt wird, um zumindest zu irgendeinem Zeitpunkt während des Ausleseprozesses gemeinsam ausgewertet zu werden.
    • In Beispiel 48b kann der Gegenstand von Beispiel 47b optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 49b kann der Gegenstand eines der Beispiele 43b oder 48b optional umfassen, dass das Verfahren weiterhin die Umwandlung eines vom Verstärker gelieferten analogen Signals in ein digitalisiertes Signal umfasst.
    • In Beispiel 50b kann der Gegenstand eines der Beispiele 43b bis 49b optional umfassen, dass das Verfahren ferner Folgendes umfasst: Speichern eines Empfindlichkeitswerts, der die Empfindlichkeit der Vielzahl von Fotodioden darstellt, Speichern einer oder mehrerer digitalisierter Wellenformen eines von der Vielzahl von Fotodioden empfangenen Signals, Bestimmen eines Teils der gespeicherten einen oder mehreren digitalisierten Wellenformen, wobei dieser Teil gleich einem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet, und Anpassen des Empfindlichkeitswerts, falls eine Amplitude eines empfangenen Signals gleich dem Empfindlichkeitswarnschwellenwert ist oder diesen überschreitet.
    • In Beispiel 51b kann der Gegenstand eines der Beispiele 43b bis 50b optional umfassen, dass das Verfahren weiterhin das Scannen einer Szene unter Verwendung einer Strahlsteuerungsanordnung umfasst.
    • Beispiel 52b ist ein Verfahren für ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Fotodioden, einen Speicher, der so konfiguriert ist, dass er einen Empfindlichkeitswert speichert, der die Empfindlichkeit der Vielzahl von Fotodioden darstellt, und eine oder mehrere digitalisierte Wellenformen eines von der Vielzahl von Fotodioden empfangenen Signals aufweisen. Das Verfahren kann die Bestimmung eines Teils der gespeicherten einen oder mehreren digitalisierten Wellenformen umfassen, wobei dieser Teil gleich einer Empfindlichkeitswarnschwelle ist oder diese überschreitet, sowie die Anpassung des Empfindlichkeitswertes, falls eine Amplitude eines empfangenen Signals gleich der Empfindlichkeitswarnschwelle ist oder diese überschreitet.
    • Beispiel 53b ist ein Verfahren für ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Lichtquellen und eine Lichtquellensteuerung umfassen. Das Verfahren kann eine Lichtquellensteuerung umfassen, die die Vielzahl der Lichtquellen so steuert, dass sie Licht mit einem lichtquellenspezifischen Zeit- und/oder Amplitudencodierungsschema emittieren.
    • In Beispiel 54b kann der Gegenstand von Beispiel 53b optional umfassen, dass mindestens eine Lichtquelle aus der Vielzahl der Lichtquellen einen Laser umfasst.
    • In Beispiel 55b kann der Gegenstand von Beispiel 54b optional umfassen, dass mindestens eine Lichtquelle aus der Vielzahl der Lichtquellen einen gepulsten Laser umfasst.
    • In Beispiel 56b kann der Gegenstand von Beispiel 55b optional umfassen, dass der mindestens eine gepulste Laser eine Laserpulsfolge emittiert, die eine Vielzahl von Laserpulsen umfasst.
    • In Beispiel 57b kann der Gegenstand eines der Beispiele 53b bis 56b optional umfassen, dass mindestens eine Lichtquelle aus der Vielzahl der Lichtquellen Licht auf der Grundlage eines Modells der Lichtquelle oder auf der Grundlage einer Messung erzeugt.
    • Beispiel 58b ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen aufweisen kann, die in einem nicht flüchtigen computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1b bis 30b ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 31b bis 57b auszuführen.
    • Beispiel 59b ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtigen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem gemäß einem der oben genannten Verfahrensbeispiele oder ein LIDAR-Sensorsystem gemäß einem der oben genannten LIDAR-Sensorsystembeispiele ausführt.
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einem LIDAR-Sensorgerät kombiniert werden, das an eine Lichtsteuereinheit zur Beleuchtung eines Umgebungsraumes angeschlossen ist.
  • Wie bereits in dieser Offenbarung beschrieben, können verschiedene Arten von Fotodioden für die Detektion von Licht oder Lichtpulsen in einem entsprechenden Sensorpixel verwendet werden, z.B. eine oder mehrere der folgenden Arten von Fotodioden:
    • - Pin-Fotodiode;
    • - passive und aktive Pixelsensoren (APS), wie CCD oder CMOS;
    • - Lawinen-Fotodiode, die in einem linearen Modus (APD) betrieben wird;
    • - Lawinen-Fotodiode, die im Geiger-Modus betrieben wird, um einzelne Photonen zu detektieren (Single-Photon-Avalanche-Photodiode, SPAD).
  • Es sei darauf hingewiesen, dass im Zusammenhang mit dieser Offenbarung unter Fotodioden verschiedene Fotodiodentypen verstanden werden, auch wenn die Struktur der Fotodioden gleich ist (z.B. die Fotodioden sind alle Pin-Fotodioden), aber die Fotodioden von unterschiedlicher Größe oder Form oder Ausrichtung sind und/oder unterschiedliche Empfindlichkeiten aufweisen können (z.B. aufgrund der Anwendung unterschiedlicher Sperrvorspannungen an den Fotodioden). Illustrativ wird ein Fotodiodentyp im Zusammenhang mit dieser Offenbarung nicht nur durch die Art der Konstruktion der Fotodiode definiert, sondern auch durch ihre Größe, Form, Ausrichtung und/oder Betriebsweise und dergleichen.
  • Für die Abbildung zweidimensionaler Bilder kann ein zweidimensionales Array von Sensorpixeln (und damit ein zweidimensionales Array von Fotodioden) bereitgestellt werden. In diesem Fall kann ein in ein elektronisches Signal umgewandeltes optisches Signal pro Sensorpixel einzeln ausgelesen werden, vergleichbar mit einem CCD- oder CMOS-Bildsensor. Es kann jedoch vorgesehen werden, eine Vielzahl von Sensorpixeln miteinander zu verbinden, um eine höhere Empfindlichkeit durch eine höhere Signalstärke zu erreichen. Dieses Prinzip kann auf das Prinzip des „Silizium-Fotovervielfachers“ (SiPM) angewandt werden, ist aber nicht darauf beschränkt, wie es in Bezug auf 26 bis 28 beschrieben ist. In diesem Fall werden eine Vielzahl (in der Größenordnung von 10 bis 1000 oder sogar mehr) einzelner SPADs parallel geschaltet. Obwohl jede einzelne SPAD auf das erste ankommende Photon reagiert (unter Berücksichtigung der Detektionswahrscheinlichkeit), ergibt die Summe vieler SPAD-Signale ein quasi analoges Signal, das zur Ableitung des ankommenden optischen Signals verwendet werden kann.
  • Im Gegensatz zum sogenannten Flash-LIDAR-Sensorsystem, bei dem das gesamte Sensorarray (das auch als Detektorarray bezeichnet werden kann) auf einmal beleuchtet wird, gibt es mehrere LIDAR-Konzepte, die eine Kombination aus einer eindimensionalen Strahlablenkung oder einer zweidimensionalen Strahlablenkung mit einem zweidimensionalen Detektorarray verwenden. In einem solchen Fall kann ein kreisförmiger oder linearer (gerader oder gekrümmter) Laserstrahl übertragen und über eine separate, fest montierte Empfängeroptik auf das Sensorarray (Detektorarray) abgebildet werden. In diesem Fall werden in Abhängigkeit von der Sende-/Empfangsoptik und der Position der Strahlablenkungseinrichtung nur vordefinierte Pixel des Sensorarrays beleuchtet. Die beleuchteten Pixel werden ausgelesen, und die nicht beleuchteten Pixel werden nicht ausgelesen. Dadurch werden unerwünschte Signale (z.B. Hintergrundlicht), die z.B. von den nicht beleuchteten und damit nicht ausgelesenen Pixeln kommen, unterdrückt. Abhängig von den Abmessungen der Sender-/Empfänger-Optik kann es möglich sein, mehr oder weniger Pixel zu beleuchten, z.B. durch Defokussierung der Empfänger-Optik. Der Defokussierungsprozess kann z.B. in Abhängigkeit von der beleuchteten Szene und der Signalantwort des rückgestreuten Lichts adaptiv eingestellt werden. Die am besten geeignete Größe des Beleuchtungsflecks auf der Oberfläche des Sensors 52 muss nicht unbedingt mit der geometrischen Anordnung der Pixel auf dem Sensorarray übereinstimmen. Wenn sich der Lichtfleck beispielsweise zwischen zwei (oder vier) Pixeln befindet, werden zwei (oder vier) Pixel nur teilweise beleuchtet. Dies kann auch zu einem schlechten Signal-Rausch-Verhältnis aufgrund der nicht beleuchteten Pixelbereiche führen.
  • In verschiedenen Ausführungsformen können Steuerleitungen (z.B. Spaltenauswahlleitungen, die die Spaltenauswahlsignale führen, und Zeilenauswahlleitungen, die die Zeilenauswahlsignale führen) vorgesehen werden, um selektiv eine Vielzahl von Fotodioden zu einem „virtuellen Pixel“ zusammenzuschalten, das optimal an das jeweilige Anwendungsszenario und die Größe des Laserspots auf dem Sensorarray angepasst werden kann. Dies kann durch Zeilenauswahlleitungen und Spaltenauswahlleitungen realisiert werden, ähnlich wie der Zugriff und die Steuerung von Speicherzellen eines DRAM-Speichers. Weiterhin können verschiedene Typen von Fotodioden (d.h. verschiedene Fotodiodentypen) auf einem gemeinsamen Sensor 52 implementiert (z.B. monolithisch integriert) und z.B. getrennt angesteuert, zugegriffen und ausgelesen werden.
  • Darüber hinaus kann der Sensor in Kombination oder unabhängig von der Verbindung einer Vielzahl von Pixeln mehrere Pixel einschließlich verschiedener Typen von Fotodioden aufweisen. Mit anderen Worten, verschiedene Fotodiodentypen können monolithisch auf dem Sensor 52 integriert sein und separat angesteuert, kontrolliert oder gesteuert werden, oder die Sensorpixelsignale von Pixeln mit gleichen oder unterschiedlichen Fotodiodentypen können kombiniert und als ein gemeinsames Signal analysiert werden.
  • So können z.B. verschiedene Fotodiodentypen bereitgestellt und einzeln angesteuert und ausgelesen werden:
    • - ein oder mehrere Pixel können eine Einzelphotonen-Lawinenfotodiode für LIDAR-Anwendungen haben;
    • - ein oder mehrere Pixel können eine Pin-Fotodiode für Kameraanwendungen haben (z.B. für die Erfassung des Rücklichts oder eines Scheinwerfers eines Fahrzeugs oder für die Wärmebildgebung mit infrarotempfindlichen Sensoren); und/oder
    • - ein oder mehrere Pixel können eine Lawinenfotodiode für LIDAR-Anwendungen haben.
  • Abhängig von der jeweiligen Anwendung kann eine Fotodiode eines Pixels mit einem zusätzlichen optischen Bandpassfilter und/oder Polarisationsfilter auf Pixelebene vorgeschaltet werden.
  • Im Allgemeinen kann eine Vielzahl von Pixeln des Sensors 52 miteinander verbunden werden.
  • Es gibt viele Optionen, wie die Pixel mit gleichen oder unterschiedlichen Fotodiodentypen miteinander verbunden werden können, z.B:
    • - Pixel können unterschiedliche Fotodiodentypen haben, wie z.B. Fotodioden der gleichen physikalischen Struktur, aber unterschiedlichen Größen ihrer jeweiligen Sensoroberflächenbereiche;
    • - Pixel können unterschiedliche Fotodiodentypen haben, wie z.B. Fotodioden der gleichen physikalischen Struktur, aber mit unterschiedlicher Empfindlichkeit (z.B. aufgrund unterschiedlicher Betriebsarten, wie z.B. das Anlegen unterschiedlicher Sperrvorspannungen); oder
    • - Pixel können verschiedene Fotodiodentypen haben, wie z.B. Fotodioden unterschiedlicher physikalischer Strukturen wie z.B. ein oder mehrere Pixel mit einer Pin-Fotodiode und/oder ein oder mehrere Pixel mit einer Lawinenfotodiode und/oder ein oder mehrere Pixel mit einem SPAD.
  • Die Verschaltung von Pixeln und damit die Verschaltung von Fotodioden (z.B. von Pin-Fotodioden) kann in Abhängigkeit von den Beleuchtungsbedingungen (d.h. Lichtverhältnissen) von Kamera und/oder LIDAR erfolgen. Bei verbesserten Lichtverhältnissen kann eine geringere Anzahl von Sensorpixeln aus der Vielzahl der Sensorpixel ausgewählt und kombiniert werden. Mit anderen Worten, bei guten Lichtverhältnissen können weniger Pixel miteinander verbunden werden. Dies führt zu einer geringeren Lichtempfindlichkeit, kann aber zu einer höheren Auflösung führen. Bei schlechten Lichtverhältnissen, z.B. bei Nachtfahrten, können mehr Pixel miteinander verbunden werden. Dies führt zu einer höheren Lichtempfindlichkeit, kann aber eine geringere Auflösung zur Folge haben.
  • In verschiedenen Ausführungsformen kann der Sensor-Controller so konfiguriert werden, dass er das Auswahlnetzwerk (siehe unten für weitere Erläuterungen) auf der Grundlage der Beleuchtungsstärke des LIDAR-Sensorsystems so steuert, dass je besser die Lichtverhältnisse (sichtbarer und/oder infraroter Spektralbereich) sind, desto weniger ausgewählte Sensorpixel aus der Vielzahl der Sensorpixel kombiniert werden.
  • Die Verschaltung der einzelnen Pixel und damit der einzelnen Fotodioden zu einem „virtuellen Sensorpixel“ ermöglicht eine genaue Anpassung der Größe des Sensorpixels an die Anforderungen des Gesamtsystems, wie z.B. des gesamten LIDAR-Sensorsystems. Dies kann z.B. in einem Szenario geschehen, in dem zu erwarten ist, dass die unbeleuchteten Bereiche der Fotodioden einen signifikanten Rauschbeitrag zum Nutzsignal liefern. Beispielsweise kann eine variable Definition (Auswahl) der Größe eines „Pixels“ („virtuelles Pixel“) z.B. mit Lawinen-Fotodioden und/oder Silizium-Fotomultipliern (SiPM) erfolgen, wobei der Sensor 52 eine große Anzahl von Einzelpixeln einschließlich SPADs enthält. Um den dynamischen Bereich eines Sensors mit einem ausgeprägten Sättigungseffekt (z.B. SiPM) zu erhöhen, kann folgende Verschaltung realisiert werden: Der Laserstrahl hat ein Strahlprofil abnehmender Intensität mit zunehmendem Abstand vom Zentrum des Laserstrahls. Prinzipiell können Laserstrahlprofile unterschiedliche Formen haben, z.B. eine Gaußsche oder eine flache Spitzenform. Es ist auch zu beachten, dass für eine LIDAR-Messfunktion sowohl infrarote als auch sichtbare Laserdioden und entsprechend geeignete Sensorelemente verwendet werden können.
  • Wenn Pixel im Sensorarray in Form von Ringen, z.B. kreisförmige oder elliptische Ringe, um das erwartete Zentrum des auftreffenden Strahls (z.B. Laser) herum miteinander verbunden wurden, kann das Zentrum dadurch gesättigt sein. Die Sensorpixel, die sich in einem oder mehreren Ringen weiter außerhalb des Sensorarrays befinden, können jedoch aufgrund der abnehmenden Intensität im linearen (nicht gesättigten) Modus arbeiten und die Signalintensität kann geschätzt werden. In verschiedenen Ausführungsformen können die Pixel eines Rings miteinander verbunden sein, um eine Vielzahl von Pixelringen oder Pixelringsegmenten zu bilden. Die Pixelringe können ferner zeitlich aufeinanderfolgend miteinander verbunden werden, z.B. für den Fall, dass nur ein Summensignalausgang für die miteinander verbundenen Sensorpixel zur Verfügung steht). In alternativen Ausführungsformen kann eine Vielzahl von Summensignalausgängen bereitgestellt oder im Sensorarray implementiert werden, die mit verschiedenen Gruppen von Sensorpixeln gekoppelt werden können. Im Allgemeinen können die Pixel in Abhängigkeit von den jeweiligen Anforderungen in beliebiger Weise gruppiert werden. Die Kombination verschiedener Typen von Sensorpixeln innerhalb eines Sensors 52 z.B. erlaubt es, die Funktionalität eines LIDAR-Sensors mit der Funktionalität einer Kamera in einer gemeinsamen Optikanordnung zu kombinieren, ohne dass die Gefahr besteht, dass es zu einer Abweichung bei der Justierung und Kalibrierung zwischen LIDAR und Kamera kommt. Dies kann die Kosten für einen kombinierten LIDAR-/Kamerasensor reduzieren und die Datenfusion von LIDAR- und Kameradaten weiter verbessern. Wie bereits oben erwähnt können Kamerasensoren im sichtbaren und/oder infraroten Spektralbereich empfindlich sein (Thermografiekamera).
  • Darüber hinaus kann der Sensor-Controller 53 die Sensorpixel unter Berücksichtigung der von der jeweiligen Fotodiode eines Pixels benötigten Integrationszeit (Auslesezeit) steuern. Die Integrationszeit kann von der Größe der Fotodiode abhängig sein. So kann die Taktung zur Steuerung des Ausleseprozesses, die z.B. vom Sensor-Controller 53 bereitgestellt wird, für die verschiedenen Pixeltypen unterschiedlich sein und sich je nach Konfiguration des Pixelauswahlnetzwerks ändern.
  • 38 zeigt einen Teil 3800 des Sensors 52 in Übereinstimmung mit verschiedenen Ausführungsformen. Es ist zu beachten, dass der Sensor 52 kein SiPM-Detektor-Array sein muss, wie in 26 oder 27 gezeigt. Der Sensor 52 enthält eine Vielzahl von Pixeln 3802. Jedes Pixel 3802 enthält eine Fotodiode. Ein Licht-(Laser-)Fleck 3804, der auf die Oberfläche des Teils 3800 des Sensors 52 auftrifft, wird in 38 durch einen Kreis 3806 symbolisiert. Der Licht-(Laser-)Fleck 3804 bedeckt eine Vielzahl von Sensorpixeln 3802. Es kann ein Auswahlnetzwerk bereitgestellt werden, das so konfiguriert werden kann, dass einige Pixel 3802 der Vielzahl von Pixeln 3802 selektiv kombiniert werden, um ein vergrößertes Sensorpixel zu bilden. Die von den Fotodioden der kombinierten Sensorpixel gelieferten elektrischen Signale werden akkumuliert. Es kann eine Ausleseschaltung vorgesehen werden, die so konfiguriert werden kann, dass die akkumulierten elektrischen Signale der kombinierten Sensorpixel als ein gemeinsames Signal ausgelesen werden.
  • Das Auswahlnetzwerk kann so konfiguriert werden, dass mehrere Zeilenauswahlsignale 3808, 3810, 3812 (die Anzahl der Zeilenauswahlsignale kann gleich der Anzahl der Zeilen des Sensors 52 sein) angewendet werden, um die Sensorpixel 3802 der jeweils ausgewählten Zeile auszuwählen. Zu diesem Zweck kann das Auswahlnetzwerk einen Zeilenmultiplexer aufweisen (nicht in 38 dargestellt). Darüber hinaus kann das Auswahlnetzwerk so konfiguriert werden, dass es eine Vielzahl von Spaltenauswahlsignalen 3814, 3816, 3818 (die Anzahl der Spaltenauswahlsignale kann gleich der Anzahl der Spalten des Sensors 52 sein) anwendet, um die Pixel der jeweils ausgewählten Spalte auszuwählen. Zu diesem Zweck kann das Auswahlnetzwerk einen Spaltenmultiplexer aufweisen (nicht in 38 dargestellt).
  • 38 veranschaulicht neun ausgewählte Sensorpixel 3802, die durch die Vielzahl der Zeilenauswahlsignale 3808, 3810, 3812 und die Vielzahl der Spaltenauswahlsignale 3814, 3816, 3818 ausgewählt wurden. Der Licht-(Laser-)Fleck 3804 deckt die neun ausgewählten Sensorpixel 3820 vollständig ab. Darüber hinaus kann der Sensor-Controller 53 eine Versorgungsspannung 3822 an den Sensor 52 liefern. Die von den ausgewählten Sensorpixeln 3820 gelieferten Sensorsignale 3824 werden aus dem Sensor 52 ausgelesen und über das Auswahlnetzwerk einem oder mehreren Verstärkern zugeführt. Es ist zu beachten, dass ein Licht-(Laser-)Fleck 3804 ein ausgewähltes Sensorpixel 3820 nicht vollständig abdecken muss.
  • Die individuelle Auswählbarkeit jedes Sensorpixels 3802 des Sensors 52 in einer Art und Weise, die mit einem Auswahlmechanismus von Speicherzellen in einem Dynamic Random Access Memory (DRAM) vergleichbar ist, ermöglicht einer einfachen und damit kostengünstigen Sensorschaltungsarchitektur die schnelle und zuverlässige Auswahl eines oder mehrerer Sensorpixel 3802, um eine Auswertung einer Vielzahl von Sensorpixeln gleichzeitig zu erreichen. Dies kann die Zuverlässigkeit der Sensorsignalauswertung des zweiten LIDAR-Sensorsystems 50 verbessern.
  • 39 zeigt einen Ausschnitt 3900 des Sensors 52 in Übereinstimmung mit verschiedenen Ausführungsformen im Detail.
  • Der Sensor 52 kann mehrere Zeilenauswahlleitungen 3902 aufweisen, wobei jede Zeilenauswahlleitung 3902 mit einem Eingang des Auswahlnetzes gekoppelt ist, z.B. mit einem Eingang eines Zeilenmultiplexers des Auswahlnetzes. Der Sensor 52 kann ferner mehrere Spaltenauswahlleitungen 3904 aufweisen, wobei jede Spaltenauswahlleitung 3904 mit einem anderen Eingang des Auswahlnetzwerks gekoppelt ist, z.B. mit einem Eingang eines Spaltenmultiplexers des Auswahlnetzwerks. Ein jeweiliger Spaltenschalter 3906 ist jeweils mit einer der Spaltenauswahlleitungen 3904 gekoppelt und so angeschlossen, dass er die auf einer Versorgungsspannungsleitung 3910 vorhandene elektrische Versorgungsspannung 3908 mit den mit der jeweiligen Spaltenauswahlleitung 3904 gekoppelten Sensorpixeln 3802 koppelt oder die elektrische Versorgungsspannung 3908 davon entkoppelt. Jedes Sensorpixel 3802 kann mit einer Spaltenausleseleitung 3912 gekoppelt werden, die ihrerseits über einen entsprechenden Spaltenausleseschalter 3916 mit einer Sammelausleseleitung 3914 gekoppelt ist. Die Spaltenausleseschalter 3916 können Teil des Spaltenmultiplexers sein. Die Summe des Stroms der ausgewählten Sensorpixel 3802, d.h. der Sensorsignale 3824, kann auf der Sammelausleseleitung 3914 zur Verfügung gestellt werden. Jedes Sensorpixel 3802 kann ferner über einen entsprechenden Spaltenpixelschalter 3918 einer zugehörigen Spaltenauswahlleitung 3904 nachgeschaltet werden (mit anderen Worten, ein entsprechender Spaltenpixelschalter 3918 ist zwischen einer entsprechenden zugehörigen Spaltenauswahlleitung 3904 und einem zugehörigen Sensorpixel 3802 geschaltet). Darüber hinaus kann jedes Sensorpixel 3802 über einen entsprechenden Spaltenpixel-Ausleseschalter 3920 einer zugehörigen Spaltenausleseleitung 3912 vorgeschaltet werden (mit anderen Worten, ein entsprechender Spaltenpixel-Ausleseschalter 3920 ist zwischen eine entsprechende zugehörige Spaltenausleseleitung 3912 und ein zugehöriges Sensorpixel 3802 geschaltet). Jeder Schalter im Sensor 52 kann durch einen Transistor wie z.B. einen Feldeffekttransistor (FET), z.B. einen MOSFET, realisiert werden. Ein Steuereingang (z.B. der Gate-Anschluß eines MOSFET) jedes Spaltenpixel-Schalters 3918 und jedes Spaltenpixel-Ausleseschalters 3920 kann elektrisch leitend mit einer zugehörigen aus der Vielzahl der Zeilenauswahlleitungen 3902 gekoppelt sein. Somit kann der Zeilenmultiplexer die Spaltenpixelschalter 3918 und die Pixelausleseschalter 3920 über eine zugeordnete Zeilenauswahlleitung 3902 „aktivieren“. Falls ein jeweiliger Spaltenpixelschalter 3918 und der zugehörige Pixelausleseschalter 3920 aktiviert werden, aktiviert der zugehörige Spaltenschalter 3906 schließlich das jeweilige Sensorpixel 3802, indem die Versorgungsspannung 3908 z.B. an die Source des MOSFETs angelegt wird und (da z.B. der zugehörige Spaltenpixelschalter 3918 geschlossen ist) die Versorgungsspannung 3908 auch an das jeweilige Sensorpixel 3802 angelegt wird. Ein von dem „aktivierten“ ausgewählten Sensorpixel 3802 detektiertes Sensorsignal kann an die zugehörige Spaltenausleseleitung 3912 weitergeleitet werden (da z.B. auch der zugehörige Spaltenpixel-Ausleseschalter 3920 geschlossen ist), und, falls auch der zugehörige Spaltenausleseschalter 3920 geschlossen ist, wird das jeweilige Sensorsignal an die Sammelausleseleitung 3914 und schließlich an einen zugehörigen Verstärker (z.B. einen zugehörigen TIA) übertragen.
  • Als Beispiel und wie in 40 dargestellt,
    • - kann der Spaltenschalter 3906 durch einen Spaltenschalter MOSFET 4002 implementiert werden;
    • - der Spaltenausleseschalter 3916 kann durch einen Spaltenausleseschalter MOSFET 4004 implementiert werden;
    • - der Spaltenpixelschalter 3918 kann durch einen Spaltenpixelschalter MOSFET 4006 implementiert werden; und
    • - der Spaltenpixel-Ausleseschalter 3920 kann durch einen Spaltenpixel-Ausleseschalter MOSFET 4008 implementiert werden.
  • 41 zeigt einen Ausschnitt 4100 des Sensors 52 nach verschiedenen Ausführungsformen detaillierter.
  • In verschiedenen Ausführungsformen kann bei einem entsprechenden Sensorpixel 3802 auf den Spaltenpixel-Ausleseschalter 3920 verzichtet werden. Die in 41 gezeigten Ausführungsformen können z.B. als Sensor 52 auf ein SiPM aufgebracht werden. Die Pixel 3802 können in diesem Fall also als SPADs 3802 implementiert werden. Der Sensor 52 enthält außerdem einen ersten Summenausgang 4102 für schnelle Sensorsignale. Der erste Summenausgang 4102 kann über einen entsprechenden Koppelkondensator 4104 mit der Anode jedes SPAD gekoppelt werden. Der Sensor 52 in diesem Beispiel enthält außerdem einen zweiten Summenausgang 4106 für langsame Sensorsignale. Der zweite Summenausgang 4106 kann über einen entsprechenden Koppelwiderstand (der im Falle einer SPAD als Fotodiode des Pixels auch als Löschwiderstand bezeichnet werden kann) 4108 mit der Anode jedes SPAD gekoppelt werden.
  • 42 zeigt eine aufgenommene Szene 4200 und die Sensorpixel, die zur Erkennung der Szene gemäß den verschiedenen Ausführungsformen verwendet wurden, im Detail.
  • Wie oben beschrieben, kann der Sensor 52 Sensorpixel 3802 haben, wobei die Fotodioden unterschiedliche Empfindlichkeiten haben. In verschiedenen Ausführungsformen kann ein Randbereich 4204 einen mittleren Bereich 4202 zumindest teilweise umgeben. In verschiedenen Ausführungen kann der mittlere Bereich 4202 für einen größeren Betriebsbereich des LIDAR-Sensorsystems und der Randbereich 4204 für einen kleineren Betriebsbereich vorgesehen sein. Der mittlere Bereich 4202 kann die Hauptbewegungsrichtung (Fahren, Fliegen oder Schwimmen) eines Fahrzeugs darstellen und benötigt daher normalerweise eine Fernsicht, um ein Objekt in großer Entfernung zu erkennen. Der Randbereich 4204 kann den Randbereich der Szene repräsentieren, und in einem Szenario, in dem sich ein Fahrzeug (z.B. ein Auto) bewegt, sind Objekte 100, die erkannt werden können, normalerweise näher als in der Hauptbewegungsrichtung, in der sich das Fahrzeug bewegt. Der größere Betriebsbereich bedeutet, dass das Rücksignal des Zielobjekts 100 eine eher geringe Signalintensität hat. Daher können Sensorpixel 3802 mit Fotodioden mit einer höheren Empfindlichkeit im mittleren Bereich 4202 vorgesehen werden. Die kürzere Betriebsreichweite bedeutet, dass das Rücksignal des Zielobjekts 100 eine ziemlich hohe (starke) Signalintensität hat. Daher können Sensorpixel 3802 mit Fotodioden, die eine geringere Empfindlichkeit haben, im Randbereich 4204 vorgesehen werden. Prinzipiell kann jedoch die Strukturierung der Sensorpixel (Typ, Größe und Empfindlichkeit) für bestimmte Fahrszenarien und Fahrzeugtypen (Bus, PKW, LKW, Baufahrzeuge, Drohnen und dergleichen) konfiguriert werden. Das bedeutet, dass z.B. die Sensorpixel 3802 der Randbereiche 4204 eine hohe Empfindlichkeit haben können. Es sollte auch darauf hingewiesen werden, dass, wenn ein Fahrzeug eine Vielzahl von LIDAR/Kamera-Sensorsystemen verwendet, diese unterschiedlich konfiguriert sein können, selbst wenn sie das gleiche Sichtfeld ausleuchten und erfassen.
  • 43 zeigt eine aufgenommene Szene 4300 und die Sensorpixel 3802, die zur Erkennung der Szene 4300 gemäß verschiedener Ausführungsformen verwendet wurden, im Detail.
  • In verschiedenen Ausführungsformen kann eine reihenweise Anordnung der Sensorpixel desselben Fotodiodentyps vorgesehen werden. Beispielsweise kann eine erste Zeile 4302 Pixel mit APDs für ein Flash-LIDAR-Sensorsystem und eine zweite Zeile 4304 Pixel mit Pin-Fotodioden für eine Kamera aufweisen. Die beiden jeweils benachbarten Pixelreihen können wiederholt bereitgestellt werden, so dass die Reihen unterschiedlicher Pixel z.B. abwechselnd bereitgestellt werden. Die Reihenfolge und Anzahl der Pixelreihen desselben Fotodiodentyps kann jedoch variieren und ebenso die Gruppierung in spezifische Auswahlnetzwerke. Es ist auch zu beachten, dass in einer Pixelreihe oder in Spalten verschiedene Fotodiodentypen eingesetzt werden können. Auch darf eine Zeile oder Spalte nicht vollständig mit Fotodioden gefüllt sein. Die Eigenbewegung eines Fahrzeugs kann die verringerte Auflösung des Sensorarrays kompensieren („Push-Broom-Scanning“-Prinzip bzw. „Kehrbesen-Scan“-Prinzip).
  • Die verschiedenen Reihen können verschiedene Fotodiodentypen aufweisen, wie zum Beispiel
    • - erste Reihe: Pixel mit APDs (LIDAR)
    • - zweite Reihe: Pixel mit Pin-Fotodioden (Kamera).
    • - erste Reihe: Pixel mit erster Polarisationsebene
    • - zweite Reihe: Pixel mit unterschiedlicher zweiter Polarisationsebene.
  • Dies kann die Unterscheidung zwischen direkt einfallenden Lichtstrahlen und reflektierten Lichtstrahlen ermöglichen (z.B. Fahrzeug, verschiedene Oberflächen eines Objekts).
    • - Erste Reihe: Pixel mit ersten Pin-Fotodioden (konfiguriert zur Erfassung von Licht mit Wellenlängen im sichtbaren Spektrum)
    • - zweite Reihe: Pixel mit zweiten Pin-Fotodioden (konfiguriert zur Erfassung von Licht mit Wellenlängen im nahen Infrarot (NIR)-Spektrum).
  • Dies kann sowohl die Erkennung von Rücklichtern als auch eine Infrarot (IR)-Beleuchtung ermöglichen.
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die entsprechenden Pixel 3802 entsprechend dem gewünschten Fotodiodentyp in einer aktuellen Anwendung auswählt.
  • 44 zeigt ein Flussdiagramm, das ein Verfahren 4400 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen näher veranschaulicht.
  • Das LIDAR-Sensorsystem kann eine Vielzahl von Sensorpixeln umfassen. Jedes Sensorpixel enthält mindestens eine Fotodiode. Das LIDAR-Sensorsystem kann ferner ein Auswahlnetzwerk und eine Ausleseschaltung umfassen. Das Verfahren 4400 kann bei 4402 das Auswahlnetzwerk aufweisen, das selektiv einige Sensorpixel aus der Vielzahl von Sensorpixeln zu einem vergrößerten Sensorpixel kombiniert. Die von den Fotodioden der kombinierten Sensorpixel gelieferten elektrischen Signale werden akkumuliert. Das Verfahren 4400 kann ferner bei 4404 die Ausleseschaltung umfassen, die die akkumulierten elektrischen Signale der kombinierten Sensorpixel als ein gemeinsames Signal ausliest.
  • 45 zeigt ein Flussdiagramm, das ein anderes Verfahren 4500 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen näher erläutert.
  • Das LIDAR-Sensorsystem kann eine Vielzahl einer Vielzahl von Pixeln umfassen. Ein erstes Pixel der Vielzahl von Pixeln enthält eine Fotodiode eines ersten Fotodiodentyps, und ein zweites Pixel der Vielzahl von Pixeln enthält eine Fotodiode eines zweiten Fotodiodentyps. Der zweite Fotodiodentyp unterscheidet sich von dem ersten Fotodiodentyp. Das LIDAR-Sensorsystem kann ferner einen Pixelsensorwähler und eine Sensorsteuerung aufweisen. Das Verfahren 4500 kann bei 4502 den Pixelsensor-Selektor aufweisen, der mindestens eines der ersten Pixel mit einer Fotodiode des ersten Fotodiodentyps und/oder mindestens eines der zweiten Pixel mit einer Fotodiode des zweiten Fotodiodentyps auswählt, und bei 4504 die Sensorsteuerung, die den Pixel-Selektor so steuert, dass er mindestens ein erstes Pixel und/oder mindestens ein zweites Pixel auswählt.
  • Darüber hinaus ist zu beachten, dass die Licht(laser)emission (z.B. von mehreren Licht(laser)quellen, die gruppenweise betrieben werden können) in ihrem Lichtintensitätsmuster an die Pixelverteilung bzw. -anordnung des Sensors 52 angepasst werden kann, z.B. so, dass größere Pixel mit Licht mit höherer Intensität als kleinere Pixel geladen werden können. Dies kann in analoger Weise in Bezug auf Fotodioden mit höherer bzw. niedrigerer Empfindlichkeit erfolgen.
  • In verschiedenen Ausführungsformen kann beim LIDAR-Sensorsystem, wie unter Bezugnahme auf 38 bis 45 beschrieben, ein erstes Sensorpixel eine Fotodiode eines ersten Fotodiodentyps und ein zweites Pixel aus der Vielzahl der Pixel eine Fotodiode eines zweiten Fotodiodentyps aufweisen. Der zweite Fotodiodentyp unterscheidet sich vom ersten Fotodiodentyp. In verschiedenen Ausführungsformen können die beiden Fotodioden in einer Weise übereinander gestapelt werden, wie in den Ausführungsformen allgemein beschrieben, wie unter Bezugnahme auf 51 bis 58 beschrieben.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1d ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem umfasst eine Vielzahl von Sensorpixeln, wobei jedes Sensorpixel mindestens eine Fotodiode enthält. Das LIDAR-Sensorsystem enthält ferner ein Auswahlnetzwerk, das so konfiguriert ist, dass es einige Sensorpixel der Vielzahl von Sensorpixeln selektiv kombiniert, um ein vergrößertes Sensorpixel zu bilden. Die von den Fotodioden der kombinierten Sensorpixel gelieferten elektrischen Signale werden akkumuliert. Das LIDAR-Sensorsystem enthält ferner eine Ausleseschaltung, die so konfiguriert ist, dass die akkumulierten elektrischen Signale der kombinierten Sensorpixel als ein gemeinsames Signal ausgelesen werden.
    • In Beispiel 2d kann der Gegenstand von Beispiel 1d optional umfassen, dass die mindestens eine Fotodiode mindestens eine Pin-Diode aufweist.
    • In Beispiel 3d kann der Gegenstand von Beispiel 1d optional umfassen, dass die mindestens eine Fotodiode mindestens eine Lawinenfotodiode aufweist.
    • In Beispiel 4d kann der Gegenstand von Beispiel 3d optional umfassen, dass die mindestens eine Lawinenfotodiode mindestens eine Einzelphotonen-Lawinenfotodiode aufweist.
    • In Beispiel 5d kann der Gegenstand eines der Beispiele 1d bis 4d optional umfassen, dass die Vielzahl der Sensorpixel in einer Sensormatrix in Zeilen und Spalten angeordnet sind.
    • In Beispiel 6d kann der Gegenstand eines der Beispiele 1d bis 5d optional umfassen, dass das Auswahlnetzwerk eine Vielzahl von Zeilenauswahlleitungen, wobei jede Zeilenauswahlleitung elektrisch leitend mit mindestens einigen Sensorpixeln derselben Zeile gekoppelt ist, eine Vielzahl von Spaltenauswahlleitungen, wobei jede Spaltenauswahlleitung elektrisch leitend mit mindestens einigen Sensorpixeln derselben Spalte gekoppelt ist, und eine Vielzahl von Ausleseleitungen, wobei jede Ausleseleitung elektrisch leitend mit mindestens einigen Sensorpixeln derselben Spalte oder derselben Zeile gekoppelt ist, um die von den kombinierten Sensorpixeln gelieferten elektrischen Signale zu akkumulieren, umfasst.
    • In Beispiel 7d kann der Gegenstand eines der Beispiele 1d bis 6d optional umfassen, dass jedes Sensorpixel von mindestens einigen der Sensorpixel einen ersten Schalter aufweist, der zwischen dem Auswahlnetzwerk und einem ersten Anschluss des Sensorpixels angeschlossen ist, und/oder einen zweiten Schalter, der zwischen einem zweiten Anschluss des Sensorpixels und dem Auswahlnetzwerk angeschlossen ist.
    • In Beispiel 8d kann der Gegenstand der Beispiele 6d und 7d optional umfassen, dass der erste Schalter zwischen einer Spaltenauswahlleitung der Mehrzahl von Spaltenauswahlleitungen und dem ersten Anschluss des Sensorpixels angeschlossen ist, wobei ein Steueranschluss des ersten Schalters mit einer Zeilenauswahlleitung der Mehrzahl von Zeilenauswahlleitungen gekoppelt ist. Der zweite Schalter ist zwischen dem zweiten Anschluss des Sensorpixels und einer Ausleseleitung der Vielzahl von Ausleseleitungen angeschlossen. Ein Steueranschluss des zweiten Schalters ist mit einer Zeilenauswahlleitung der Vielzahl von Zeilenauswahlleitungen gekoppelt.
    • In Beispiel 9d kann der Gegenstand eines der Beispiele 7d oder 8d optional umfassen, dass mindestens ein erster Schalter und/oder mindestens ein zweiter Schalter einen Feldeffekttransistor aufweist.
    • In Beispiel 10d kann der Gegenstand eines der Beispiele 1d bis 9d optional umfassen, dass das LIDAR-Sensorsystem außerdem einen Sensor-Controller aufweist, der so konfiguriert ist, dass er das Auswahlnetzwerk steuert, um einige Sensorpixel aus der Vielzahl der Sensorpixel selektiv zu kombinieren, um das vergrößerte Sensorpixel zu bilden.
    • In Beispiel 11d kann der Gegenstand von Beispiel 10d optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er das Auswahlnetzwerk auf der Grundlage der Beleuchtungsstärke des LIDAR-Sensorsystems so steuert, dass bei verbesserten Lichtverhältnissen eine geringere Anzahl von Sensorpixeln aus der Vielzahl der Sensorpixel ausgewählt und kombiniert wird.
    • In Beispiel 12d kann der Gegenstand eines beliebigen der Beispiele 1d bis 11d optional umfassen, dass das LIDAR-Sensorsystem ferner eine Vielzahl von Ausleseverstärkern umfasst, wobei jeder Ausleseverstärker mit einer zugehörigen Ausleseleitung der Vielzahl von Ausleseleitungen gekoppelt ist.
    • In Beispiel 13d kann der Gegenstand von Beispiel 12d optional umfassen, dass das gemeinsame Signal ein elektrischer Strom ist. Die Mehrzahl von Ausleseverstärkern umfasst eine Mehrzahl von Transimpedanzverstärkern, wobei jeder Transimpedanzverstärker so konfiguriert ist, dass er den zugehörigen elektrischen Strom in eine elektrische Spannung umwandelt.
    • Beispiel 14d ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Pixeln aufweisen. Ein erstes Pixel der Vielzahl von Pixeln umfasst eine Fotodiode eines ersten Fotodiodentyps, und ein zweites Pixel der Vielzahl von Pixeln umfasst eine Fotodiode eines zweiten Fotodiodentyps. Der zweite Fotodiodentyp unterscheidet sich von dem ersten Fotodiodentyp. Das LIDAR-Sensorsystem kann ferner einen Pixelwähler aufweisen, der so konfiguriert ist, dass er mindestens eines der ersten Pixel einschließlich einer Fotodiode des ersten Fotodiodentyps und/oder mindestens eines der zweiten Pixel einschließlich der Fotodiode des zweiten Fotodiodentyps auswählt, sowie einen Sensor-Controller, der so konfiguriert ist, dass sie den Pixelwähler so steuert, dass er mindestens ein erstes Pixel und/oder mindestens ein zweites Pixel auswählt.
    • In Beispiel 15d kann der Gegenstand von Beispiel 14d optional umfassen, dass der Sensor-Controller und die Pixel so konfiguriert sind, dass die Fotodiode des ersten Fotodiodentyps und die Fotodiode des zweiten Fotodiodentyps einzeln ausgelesen werden.
    • In Beispiel 16d kann der Gegenstand eines der Beispiele 14d oder 15d optional umfassen, dass der Sensor-Controller und die Pixel so konfiguriert sind, dass die Fotodiode des ersten Fotodiodentyps und die Fotodiode des zweiten Fotodiodentyps als ein kombiniertes Signal ausgelesen werden.
    • In Beispiel 17d kann der Gegenstand eines der Beispiele 14d bis 16d wahlweise umfassen, dass die Fotodiode eines ersten Fotodiodentyps und/oder die Fotodiode eines zweiten Fotodiodentyps aus einer Gruppe ausgewählt wird/werden, die besteht aus: einer Pin-Fotodiode; einer Lawinen-Fotodiode; oder einer Einzelphotonen-Fotodiode.
    • In Beispiel 18d kann der Gegenstand eines der Beispiele 14d bis 17d optional umfassen, dass das LIDAR-Sensorsystem ferner ein Auswahlnetzwerk, das so konfiguriert ist, dass es selektiv einige Pixel der Vielzahl von Pixeln kombiniert, um ein vergrößertes Pixel zu bilden, wobei die von den Fotodioden der kombinierten Pixel gelieferten elektrischen Signale akkumuliert werden, und eine Ausleseschaltung umfasst, die so konfiguriert ist, dass sie die akkumulierten elektrischen Signale aus den kombinierten Pixeln als ein gemeinsames Signal ausliest.
    • In Beispiel 19d kann der Gegenstand eines der Beispiele 14d bis 18d optional umfassen, dass die Mehrzahl der Pixel in einer Sensormatrix in Zeilen und Spalten angeordnet sind.
    • In Beispiel 20d kann der Gegenstand eines der Beispiele 14d bis 19d optional umfassen, dass das Auswahlnetzwerk eine Vielzahl von Zeilenauswahlleitungen, wobei jede Zeilenauswahlleitung elektrisch leitend mit mindestens einigen Pixeln derselben Zeile gekoppelt ist, eine Vielzahl von Spaltenauswahlleitungen, wobei jede Spaltenauswahlleitung elektrisch leitend mit mindestens einigen Pixeln derselben Spalte gekoppelt ist, und eine Vielzahl von Ausleseleitungen, wobei jede Ausleseleitung elektrisch leitend mit mindestens einigen Pixeln derselben Spalte oder derselben Zeile gekoppelt ist, um die von den kombinierten Pixeln gelieferten elektrischen Signale zu akkumulieren, umfasst.
    • In Beispiel 21d kann der Gegenstand eines der Beispiele 14d bis 20d optional umfassen, dass jedes Pixel von mindestens einigen der Pixel einen ersten Schalter, der zwischen das Auswahlnetzwerk und einen ersten Anschluss des Pixels geschaltet ist, und/oder einen zweiten Schalter, der zwischen einen zweiten Anschluss des Pixels und das Auswahlnetzwerk geschaltet ist, aufweist.
    • In Beispiel 22d kann der Gegenstand der Beispiele 20d und 21d optional umfassen, dass der erste Schalter zwischen einer Spaltenauswahlzeile der Vielzahl von Spaltenauswahlzeilen und dem ersten Anschluss des Pixels angeschlossen ist. Ein Steueranschluss des ersten Schalters ist mit einer Zeilenauswahlleitung der Mehrzahl von Zeilenauswahlleitungen gekoppelt. Der zweite Schalter ist zwischen dem zweiten Anschluß des Pixels und einer Ausleseleitung der Vielzahl von Ausleseleitungen angeschlossen. Ein Steueranschluss des zweiten Schalters ist mit einer Zeilenauswahlleitung der Vielzahl von Zeilenauswahlleitungen gekoppelt.
    • In Beispiel 23d kann der Gegenstand eines der Beispiele 21d oder 22d optional umfassen, dass mindestens ein erster Schalter und/oder mindestens ein zweiter Schalter einen Feldeffekttransistor umfasst.
    • In Beispiel 24d kann der Gegenstand eines der Beispiele 14d bis 23d optional umfassen, dass der Sensor-Controller weiter konfiguriert ist, das Auswahlnetzwerk so zu steuern, dass einige Pixel aus der Vielzahl der Pixel selektiv kombiniert werden, um das vergrößerte Pixel zu bilden.
    • In Beispiel 25d kann der Gegenstand von Beispiel 22d optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er das Auswahlnetzwerk auf der Grundlage der Beleuchtungsstärke des LIDAR-Sensorsystems so steuert, dass bei verbesserten Lichtverhältnissen eine geringere Anzahl von Sensorpixeln aus der Vielzahl der Sensorpixel ausgewählt und kombiniert wird.
    • In Beispiel 26d kann der Gegenstand eines der Beispiele 14d bis 25d optional umfassen, dass das LIDAR-Sensorsystem ferner eine Vielzahl von Ausleseverstärkern umfasst, wobei jeder Ausleseverstärker mit einer zugehörigen Ausleseleitung der Vielzahl von Ausleseleitungen gekoppelt ist.
    • In Beispiel 27d kann der Gegenstand von Beispiel 26d optional umfassen, dass das gemeinsame Signal ein elektrischer Strom ist. Die Mehrzahl von Ausleseverstärkern umfasst eine Mehrzahl von Transimpedanzverstärkern, wobei jeder Transimpedanzverstärker so konfiguriert ist, dass er den zugehörigen elektrischen Strom in eine elektrische Spannung umwandelt.
    • Beispiel 28d ist ein Verfahren für ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Sensorpixeln aufweisen. Jedes Sensorpixel umfasst mindestens eine Fotodiode. Das LIDAR-Sensorsystem kann ferner ein Auswahlnetzwerk und eine Ausleseschaltung umfassen. Das Verfahren kann das Auswahlnetzwerk umfassen, das selektiv einige Sensorpixel aus der Vielzahl von Sensorpixeln kombiniert, um ein vergrößertes Sensorpixel zu bilden, wobei die von den Fotodioden der kombinierten Sensorpixel gelieferten elektrischen Signale akkumuliert werden, und die Ausleseschaltung die akkumulierten elektrischen Signale aus den kombinierten Sensorpixeln als ein gemeinsames Signal ausliest.
    • In Beispiel 29d kann der Gegenstand von Beispiel 28d optional umfassen, dass die mindestens eine Fotodiode mindestens eine PIN-Diode aufweist.
    • In Beispiel 30d kann der Gegenstand von Beispiel 28d optional umfassen, dass die mindestens eine Fotodiode mindestens eine Lawinenfotodiode aufweist.
    • In Beispiel 31d kann der Gegenstand von Beispiel 30d optional umfassen, dass die mindestens eine Lawinenfotodiode mindestens eine Einzelphotonen-Lawinenfotodiode aufweist.
    • In Beispiel 32d kann der Gegenstand eines der Beispiele 28d bis 31d optional umfassen, dass die mehreren Sensoren in einer Sensormatrix in Zeilen und Spalten angeordnet sind.
    • In Beispiel 33d kann der Gegenstand eines der Beispiele 28d bis 32d optional umfassen, dass das Auswahlnetzwerk eine Vielzahl von Zeilenauswahlleitungen, wobei jede Zeilenauswahlleitung elektrisch leitend mit mindestens einigen Sensorpixeln derselben Zeile gekoppelt ist, eine Vielzahl von Spaltenauswahlleitungen, wobei jede Spaltenauswahlleitung elektrisch leitend mit mindestens einigen Sensorpixeln derselben Spalte gekoppelt ist, und eine Vielzahl von Ausleseleitungen, wobei jede Ausleseleitung elektrisch leitend mit mindestens einigen Sensorpixeln derselben Spalte oder derselben Zeile gekoppelt ist, um die von den kombinierten Sensorpixeln gelieferten elektrischen Signale zu akkumulieren, umfasst.
    • In Beispiel 34d kann der Gegenstand eines der Beispiele 28d bis 33d optional umfassen, dass jedes Sensorpixel von mindestens einigen der Sensorpixel einen ersten Schalter aufweist, der zwischen dem Auswahlnetzwerk und einem ersten Anschluss des Sensorpixels angeschlossen ist, und/oder einen zweiten Schalter, der zwischen einem zweiten Anschluss des Sensorpixels und dem Auswahlnetzwerk angeschlossen ist.
    • In Beispiel 35d kann der Gegenstand von Beispiel 33d und Beispiel 34d optional umfassen, dass der erste Schalter zwischen einer Spaltenauswahlzeile der Vielzahl von Spaltenauswahlzeilen und dem ersten Anschluss des Sensorpixels angeschlossen ist. Ein Steueranschluss des ersten Schalters wird über eine Zeilenauswahlleitung aus der Vielzahl der Zeilenauswahlleitungen gesteuert. Der zweite Schalter ist zwischen dem zweiten Anschluss des Sensorpixels und einer Ausleseleitung der Vielzahl von Ausleseleitungen angeschlossen. Ein Steueranschluss des zweiten Schalters wird über eine Zeilenauswahlleitung aus der Vielzahl von Zeilenauswahlleitungen gesteuert.
    • In Beispiel 36d kann der Gegenstand eines der Beispiele 34d oder 35d optional umfassen, dass mindestens ein erster Schalter und/oder mindestens ein zweiter Schalter einen Feldeffekttransistor umfasst.
    • In Beispiel 37d kann der Gegenstand eines der Beispiele 28d bis 36d optional umfassen, dass das Verfahren weiterhin eine Sensorsteuerung aufweist, die das Auswahlnetzwerk steuert, um einige Sensorpixel der Vielzahl von Sensorpixeln selektiv zu kombinieren, um das vergrößerte Sensorpixel zu bilden.
    • In Beispiel 38d kann der Gegenstand von Beispiel 37d optional umfassen, dass die Sensorsteuerung das Auswahlnetzwerk auf der Grundlage der Beleuchtungsstärke des LIDAR-Sensorsystems so steuert, dass bei verbesserten Lichtverhältnissen eine geringere Anzahl von Sensorpixeln aus der Vielzahl der Sensorpixel ausgewählt und kombiniert wird.
    • In Beispiel 39d kann der Gegenstand eines der Beispiele 28d bis 38d optional umfassen, dass das LIDAR-Sensorsystem ferner eine Vielzahl von Ausleseverstärkern umfasst, wobei jeder Ausleseverstärker mit einer zugehörigen Ausleseleitung der Vielzahl von Ausleseleitungen gekoppelt ist.
    • In Beispiel 40d kann der Gegenstand von Beispiel 39d optional umfassen, dass das gemeinsame Signal ein elektrischer Strom ist. Die Mehrzahl von Ausleseverstärkern umfasst eine Mehrzahl von Transimpedanzverstärkern. Jeder Transimpedanzverstärker wandelt den zugehörigen elektrischen Strom in eine elektrische Spannung um.
    • Beispiel 41d ist ein Verfahren für ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von einer Vielzahl von Pixeln aufweisen. Ein erstes Pixel der Vielzahl von Pixeln umfasst eine Fotodiode eines ersten Fotodiodentyps, und ein zweites Pixel der Vielzahl von Pixeln umfasst eine Fotodiode eines zweiten Fotodiodentyps. Der zweite Fotodiodentyp unterscheidet sich von dem ersten Fotodiodentyp. Das LIDAR-Sensorsystem kann ferner einen Pixelsensorwähler und eine Sensorsteuerung aufweisen. Das Verfahren kann den Pixelsensorwähler umfassen, der mindestens eines der ersten Pixel einschließlich der Fotodiode des ersten Fotodiodentyps und/oder mindestens eines der zweiten Pixel einschließlich der Fotodiode des zweiten Fotodiodentyps auswählt, und die Sensorsteuerung, die den Pixelwähler steuert, um mindestens ein erstes Pixel und/oder mindestens ein zweites Pixel auszuwählen.
    • In Beispiel 42d kann der Gegenstand von Beispiel 41d optional umfassen, dass die Fotodiode eines ersten Fotodiodentyps und/oder die Fotodiode eines zweiten Fotodiodentyps aus einer Gruppe ausgewählt wird/werden, die besteht aus: einer Pin-Fotodiode, einer Lawinenfotodiode und/oder einer Einzelphotonen-Fotodiode.
    • In Beispiel 43d kann der Gegenstand eines der Beispiele 41d oder 42d optional umfassen, dass das Verfahren ferner ein Auswahlnetzwerk umfasst, das selektiv einige Sensoren aus der Vielzahl von Pixeln kombiniert, um ein vergrößertes Pixel zu bilden, wobei die von den Fotodioden der kombinierten Pixel gelieferten elektrischen Signale akkumuliert werden, und eine Ausleseschaltung, die die akkumulierten elektrischen Signale aus den kombinierten Pixeln als ein gemeinsames Signal ausliest.
    • In Beispiel 44d kann der Gegenstand eines der Beispiele 41d bis 43d optional umfassen, dass die Mehrzahl der Pixel in einer Sensormatrix in Zeilen und Spalten angeordnet sind.
    • In Beispiel 45d kann der Gegenstand eines der Beispiele 41d bis 44d optional umfassen, dass das Auswahlnetzwerk eine Vielzahl von Zeilenauswahlleitungen, wobei jede Zeilenauswahlleitung elektrisch leitend mit mindestens einigen Pixeln derselben Zeile gekoppelt ist, eine Vielzahl von Spaltenauswahlleitungen, wobei jede Spaltenauswahlleitung elektrisch leitend mit mindestens einigen Pixeln derselben Spalte gekoppelt ist, und eine Vielzahl von Ausleseleitungen, wobei jede Ausleseleitung elektrisch leitend mit mindestens einigen Pixeln derselben Spalte oder derselben Zeile gekoppelt ist, um die von den kombinierten Pixeln gelieferten elektrischen Signale zu akkumulieren, umfasst.
    • In Beispiel 46d kann der Gegenstand eines der Beispiele 41d bis 45d optional umfassen, dass jedes Pixel mindestens einiger der Pixel einen ersten Schalter aufweist, der zwischen dem Auswahlnetzwerk und einem ersten Anschluss des Pixels angeschlossen ist, und/oder einen zweiten Schalter, der zwischen einem zweiten Anschluss des Pixels und dem Auswahlnetzwerk angeschlossen ist.
    • In Beispiel 47d kann der Gegenstand von Beispiel 45d und Beispiel 46d optional umfassen, dass der erste Schalter zwischen einer Spaltenauswahlzeile der Vielzahl von Spaltenauswahlzeilen und dem ersten Anschluss des Pixels angeschlossen ist. Ein Steueranschluss des ersten Schalters wird über eine Zeilenauswahlleitung der Mehrzahl von Zeilenauswahlleitungen gesteuert, und der zweite Schalter ist zwischen dem zweiten Anschluss des Pixels und einer Ausleseleitung der Mehrzahl von Ausleseleitungen angeschlossen. Ein Steueranschluss des zweiten Schalters wird über eine Zeilenauswahlleitung aus der Vielzahl von Zeilenauswahlleitungen gesteuert.
    • In Beispiel 48d kann der Gegenstand eines der Beispiele 46d oder 47d optional umfassen, dass mindestens ein erster Schalter und/oder mindestens ein zweiter Schalter einen Feldeffekttransistor aufweist.
    • In Beispiel 49d kann der Gegenstand eines der Beispiele 41d bis 48d optional umfassen, dass die Sensorsteuerung das Auswahlnetzwerk so steuert, dass einige Pixel aus der Vielzahl der Pixel selektiv kombiniert werden, um das vergrößerte Pixel zu bilden.
    • In Beispiel 50d kann der Gegenstand von Beispiel 49d optional umfassen, dass die Sensorsteuerung das Auswahlnetzwerk auf der Grundlage der Beleuchtungsstärke des LIDAR-Sensorsystems so steuert, dass bei verbesserten Lichtverhältnissen eine geringere Anzahl von Sensorpixeln aus der Vielzahl der Sensorpixel ausgewählt und kombiniert wird.
    • In Beispiel 51d kann der Gegenstand eines der Beispiele 41d bis 50d optional umfassen, dass das LIDAR-Sensorsystem ferner eine Vielzahl von Ausleseverstärkern umfasst, wobei jeder Ausleseverstärker mit einer zugehörigen Ausleseleitung der Vielzahl von Ausleseleitungen gekoppelt ist.
    • In Beispiel 52d kann der Gegenstand von Beispiel 51d optional umfassen, dass das gemeinsame Signal ein elektrischer Strom ist. Die Mehrzahl von Ausleseverstärkern umfasst eine Mehrzahl von Transimpedanzverstärkern, wobei jeder Transimpedanzverstärker den zugehörigen elektrischen Strom in eine elektrische Spannung umwandelt.
    • Beispiel 53d ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht flüchtigen computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1d bis 27d ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 28d bis 52d auszuführen.
    • Beispiel 54d ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtigen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem gemäß einem der obigen Verfahrensbeispiele oder ein LIDAR-Sensorsystem gemäß einem der obigen LIDAR-Sensorsystem-Beispiele ausführt.
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einem LIDAR-Sensorgerät kombiniert werden, das an eine Lichtsteuereinheit zur Beleuchtung eines Umgebungsraumes angeschlossen ist.
  • Bei LIDAR-Anwendungen sind oft viele Fotodioden im Sensor vorgesehen. Die Empfängerströme dieser Fotodioden (Fotoströme) werden in der Regel, wie bereits oben beschrieben, mit Hilfe eines Transimpedanzverstärkers (TIA) in Spannungssignale umgewandelt. Da nicht alle Signale aller Fotodioden auf einmal ausgelesen werden müssen, kann es wünschenswert sein, den von einer oder mehreren ausgewählten Fotodioden aus einem Satz von N Fotodioden gelieferten Fotostrom an nur genau einen TIA weiterzuleiten. Dadurch kann die Anzahl der erforderlichen TIAs reduziert werden. Die Fotodiode(n) hat/haben oft einen monolithisch integrierten Fotostromverstärker vom Avalanche-Typ (APD, SiPM, MPPC, SPAD). Die Verstärkung einer solchen Fotodiode ist z.B. von der angelegten Sperrvorspannung abhängig.
  • Üblicherweise werden elektronische Multiplexer verwendet, um die Fotoströme an eine TIA weiterzuleiten. Die elektronischen Multiplexer fügen den Signalleitungen jedoch immer Kapazitäten hinzu. Aufgrund der höheren Kapazitäten sind TIAs mit einem höheren Verstärkungs-Bandbreiten-Produkt für eine TIA-Schaltung mit gleicher Bandbreite erforderlich. Diese TIAs sind in der Regel teurer.
  • Wie weiter unten ausführlicher erläutert wird, können die Ausgänge der N Fotodioden (wobei N eine ganze Zahl größer als 1 ist) zusammengeführt werden, um an eine TIA angeschlossen zu werden (im Allgemeinen an einen gemeinsamen Ausleseschaltkreis über eine gemeinsame elektrisch leitende Signalleitung). Auf diese Weise werden die Fotoströme auf dieser elektrisch leitenden Signalleitung aufsummiert. Diejenigen Fotoströme, die in einer bestimmten Zeitspanne nicht verstärkt werden sollen (Fotoströme mit Ausnahme des gewünschten oder ausgewählten Fotostroms), können um eine oder mehrere Größenordnungen geringer als der/die Fotostrom/e der ausgewählten Fotodiode(n) verstärkt werden, z.B. durch eine Verringerung der Sperrvorspannung, die für die Lawinenverstärkung verantwortlich ist. Zu diesem Zweck kann eine Pixelauswahlschaltung vorgesehen werden. Die Pixelauswahlschaltung eines entsprechenden Sensorpixels 3802 kann so konfiguriert werden, dass sie das Sensorpixel 3802 auswählt oder unterdrückt, indem sie die Verstärkung innerhalb der zugehörigen Fotodiode oder den Transfer von Fotoelektronen innerhalb der zugehörigen Fotodiode steuert.
  • Die Verstärkung des Lawineneffekts kann oft schon durch Änderung der Sperrvorspannung um nur wenige Volt um eine oder mehrere Größenordnungen verringert werden. Da die Fotoströme klein sind und die Empfangszeiten kurz sind, können die Spannungen mit einer einfachen Schaltung verringert werden (siehe beiliegende Zeichnung). Die üblicherweise vorgesehenen Multiplexer können entfallen und die kritischen Signalwege werden kürzer und damit weniger rauschanfällig.
  • 46 zeigt einen Ausschnitt 4600 des LIDAR-Sensorsystems 10 in Übereinstimmung mit verschiedenen Ausführungsformen. Der Teil 4600 illustriert einige Komponenten des ersten LIDAR-Sensorsystems 40 und einige Komponenten des zweiten LIDAR-Sensorsystems 50.
  • Zu den in 46 gezeigten Komponenten des ersten LIDAR-Sensorsystems 40 gehört eine Lichtquelle 42. Die Lichtquelle 42 kann eine Vielzahl von Laserdioden 4602 aufweisen, die so konfiguriert sind, dass sie Laserstrahlen 4604 einer oder mehrerer gewünschter Wellenlängen emittieren. Darüber hinaus können eine Emitteroptik 4606 und (im Falle eines scannenden LIDAR-Sensorsystems) ein beweglicher Spiegel 4608 oder andere geeignete Strahlführungsvorrichtungen vorgesehen werden. Die Emitteroptikanordnung 4606 des ersten LIDAR-Sensorsystems 40 kann so konfiguriert werden, dass die Laserstrahlen 4604 abgelenkt werden, um eine Spalte 4610 eines Sichtfeldes 4612 des LIDAR-Sensorsystems zu einem bestimmten Zeitpunkt zu beleuchten (alternativ kann eine Zeile 4614 eines Sichtfeldes 4612 des LIDAR-Sensorsystems von den Laserstrahlen 4604 gleichzeitig beleuchtet werden). Die Zeilenauflösung (oder in der alternativen Implementierung die Spaltenauflösung) wird durch einen Sensor 52 realisiert, der ein Sensorpixelarray mit einer Vielzahl von Sensorpixeln 3802 aufweisen kann. Die Detektionsoptikanordnung 51 ist vor dem Sensor 52 angeordnet, um das empfangene Licht auf die Oberfläche der Sensorpixel 3802 des Sensors 52 abzulenken. Die Detektionsoptikanordnung 51 und der Sensor 52 sind Komponenten des zweiten LIDAR-Sensorsystems 50.
  • Da, wie bereits oben beschrieben, jedes Sensorpixel 3802 das gesamte Streulicht einer Zeile (oder einer Spalte) empfängt, können die Zeilen des Sensors 52 geteilt und ein herkömmliches eindimensionales Sensorpixel-Array durch eine zweidimensionale Matrix aus Sensorpixeln 3802 ersetzt werden. In diesem Fall wird der Fotostrom von nur einem oder wenigen (zwei, drei, vier oder sogar mehr) Sensorpixeln 3802 an den Verstärker weitergeleitet. Dies geschieht konventionell durch Multiplexer, die komplex sind und dem gesamten System eine Kapazität hinzufügen, die schließlich die Bandbreite des LIDAR-Sensorsystems 10 reduziert.
  • In verschiedenen Ausführungsformen kann das zweite LIDAR-Sensorsystem 50 eine Vielzahl 4802 von Sensorpixeln 3802 aufweisen (vgl. Schaltung 4800 in 48). Jedes Sensorpixel 3802 umfasst eine (genau eine) Fotodiode 4804. Jedes Sensorpixel 3802 umfasst ferner eine Pixelauswahlschaltung 4806, die so konfiguriert ist, dass sie das Sensorpixel 3802 (zur Veranschaulichung den vom Sensorpixel 3802 erzeugten Fotostrom) auswählt oder unterdrückt, indem sie die Verstärkung innerhalb der zugehörigen Fotodiode 4804 (z.B. auf der Grundlage von Lawineneffekten) oder die Übertragung von Fotoelektronen innerhalb der zugehörigen Fotodiode 4804 (e.z. B. im Fall von Pin-Fotodioden 4804), und mindestens einer Ausleseschaltung 4810 mit einem Eingang 4812 und einem Ausgang 4814, die so konfiguriert ist, dass sie eine elektrische Variable 4820 am Ausgang 4814 auf der Grundlage eines elektrischen Signals 4816 bereitstellt, das über eine gemeinsame Signalleitung 4818 an den Eingang 4812 angelegt wird. Zur Veranschaulichung sind die Ausgänge aller Pixelsensoren (z.B. einer Zeile oder einer Spalte) direkt an einen gemeinsamen Knoten 4808 gekoppelt, der Teil der gemeinsamen Signalleitung 4818 ist. Zumindest einige Fotodioden der Vielzahl von Sensorpixeln sind elektrisch (z.B. elektrisch leitend) mit dem Eingang 4812 der mindestens einen Ausleseschaltung 4810 gekoppelt. Für jede Zeile (oder jede Spalte) des Sensorarrays kann genau ein Ausleseschaltkreis 4810 (und damit z.B. genau ein Verstärker) vorgesehen werden. Alternativ kann genau ein Ausleseschaltkreis 4810 (und damit z.B. genau ein Verstärker) für das gesamte Sensorarray vorgesehen werden. Es ist zu beachten, dass die Pixelauswahlschaltung 4806 auch als separate Komponente außerhalb des Sensorpixels 3802 vorgesehen werden kann.
  • Im Allgemeinen kann eine beliebige Anzahl von Sensorpixeln 3802 vorgesehen werden, die alle die gleichen Komponenten haben können (d.h. die gleiche Fotodiode 4804 und die gleiche Pixelauswahlschaltung 4806). In verschiedenen Ausführungsformen können zumindest einige der Sensorpixel 3802 unterschiedliche Komponenten haben (d.h. unterschiedliche Fotodiodentypen oder unterschiedliche Typen von Pixelauswahlschaltungen 4806). Jede Fotodiode 4804 kann eine Pin-Fotodiode oder eine Fotodiode vom Avalanche-Typ sein, wie z.B. eine Lawinen-Fotodiode (APD) oder eine Einzelphotonen-Lawinen-Fotodiode (SPAD) oder eine MPPC/SiPM. Es können verschiedene Mechanismen vorgesehen werden, um die Auswahl oder Unterdrückung der jeweiligen Sensorpixel 3802 in den Pixelauswahlschaltungen 4806 zu implementieren. Beispielsweise kann jedes Sensorpixel 3802 einen Schalter im Signalweg aufweisen (der Schalter kann beispielsweise als Feldeffekttransistorschalter implementiert sein). Der Schalter kann zwischen dem Sperrvorspannungseingang 4822 und der Fotodiode 4804 angeschlossen werden. Wenn der Schalter geschlossen ist, wird der Fotostrom an die gemeinsame Signalleitung 4818 weitergeleitet. Ist der Schalter offen, ist die jeweilige Fotodiode 4804 des Sensorpixels 3802 von der gemeinsamen Signalleitung 4818 elektrisch entkoppelt. In verschiedenen Ausführungsformen können die Pixelauswahlschaltungen 4806 so konfiguriert werden, dass das Sensorpixel 3802 (zur Veranschaulichung: der vom Sensorpixel 3802 erzeugte Fotostrom) durch Steuerung der Verstärkung innerhalb der zugehörigen Fotodiode 4804 ausgewählt oder unterdrückt wird. Zu diesem Zweck können die Pixelauswahlschaltungen 4806 vorübergehend eine Unterdrückungsspannung an die Kathode (oder die Anode) der Fotodiode anlegen, um die Verstärkung innerhalb der zugehörigen Fotodiode 4804 zu unterdrücken, z.B. die Lawinenverstärkung innerhalb der zugehörigen Fotodiode 4804. Das elektrische Signal 4816, das über eine gemeinsame Signalleitung 4818 an den Eingang 4812 angelegt wird, kann die Summe aller Fotoströme sein, die von den Fotodioden aller an die gemeinsame Signalleitung 4818 angeschlossenen Sensorpixel 3802 geliefert werden. Die Ausleseschaltung 4810 kann so konfiguriert werden, dass sie das elektrische (Strom-)Signal in ein Spannungssignal als elektrische Variable 4820 umwandelt, das am Ausgang 4814 bereitgestellt wird. Eine Spannungsgeneratorschaltung (nicht abgebildet) ist so konfiguriert, dass sie eine Spannung (z.B. URB) erzeugt und diese an jede Fotodiode 4804 anlegt, z.B. an die Kathode (positive Spannung URB) oder an die Anode (negative Spannung URB) jeder Fotodiode 4804. In verschiedenen Ausführungsformen kann die Spannung eine Sperrvorspannung URB der jeweiligen Fotodiode 4804 sein. In verschiedenen Ausführungen kann die Spannungsgeneratorschaltung oder eine andere Spannungsgeneratorschaltung so konfiguriert sein, dass sie die Unterdrückungsspannung erzeugt und an die Kathode (oder Anode) der jeweiligen Fotodiode 4804 anlegt, wie im Folgenden näher beschrieben wird. Es ist zu beachten, dass alle Sensorpixel 3802 an die gemeinsame Signalleitung 4818 angeschlossen werden können. Die Spannungsgeneratorschaltung sowie die optionale weitere Spannungsgeneratorschaltung können Teil des Sensor-Controllers 53 sein.
  • 49 zeigt eine Schaltung 4900 in Übereinstimmung mit verschiedenen Ausführungsformen im Detail.
  • In verschiedenen Ausführungsformen können die Fotodioden 4804 der Sensorpixel 3802 Lawinenfotodioden sein (in 49 auch als APD1, APD2, ... APDN bezeichnet). Außerdem umfasst jede Pixelauswahlschaltung 4806 (die Sensorpixel 3802 der in 49 gezeigten Ausführungsformen haben alle den gleichen Aufbau und die gleichen Komponenten) einen Widerstand RPD1 4902, einen Kondensator Camp1 4904 und eine Schottky-Diode D1 4906. Der Widerstand RPD1 4902 kann zwischen den Spannungseingang 4822 und die Kathode der Fotodiode 4804 geschaltet werden. Der Kondensator Camp1 4904 kann zwischen einen Entstörspannungseingang 4908 und die Kathode der Fotodiode 4804 geschaltet werden. Die Schottky-Diode D1 4906 kann parallel zum Widerstand RPD1 4902 geschaltet werden und somit auch zwischen den Spannungseingang 4822 und die Kathode der Fotodiode 4804 geschaltet werden. Im Normalbetrieb wird die Sperrvorspannung URB an die Kathode der Fotodiode 4804 angelegt. Es ist zu beachten, dass im Allgemeinen durch die am Spannungseingang 4822 anliegende Spannung, bezogen auf das Massepotential, sichergestellt wird, dass die Fotodiode 4804 in Sperrrichtung betrieben wird. Das bedeutet, dass die Sperrvorspannung URB an die Kathode der Fotodiode 4804 angelegt werden kann; in diesem Fall ist die Sperrvorspannung URB eine positive Spannung (URB > 0V). Als Alternative kann die Sperrvorspannung URB an die Anode der Fotodiode 4804 angelegt werden, in diesem Fall ist die Sperrvorspannung URB eine negative Spannung (URB < 0V). Bei einem Schritt (d.h. Spannungspuls 4912) in der Spannungswellenform 4914 der Unterdrückungsspannung UAmp1 4910 über die Zeit t 4932 kann die Sperrvorspannung URB vorübergehend um mindestens einige Volt reduziert werden. Der Widerstand RPD1 4902 dient illustrativ als Tiefpassfilter zusammen mit dem Kondensator CAmp1 4904 (die Unterdrückungsspannung UAmp1 4910 wird also kapazitiv in den Anodenknoten der Fotodiode 4804 eingekoppelt). Die Schottky-Diode D1 4906 sorgt dafür, dass die Spannung an der Kathode der Fotodiode APD1 4804 nach dem Wiedereinschalten der Entstörspannung UAmp1 4910 die Sperrvorspannung URB nicht überschreitet.
  • Die Ausleseschaltung 4810 kann einen Verstärker 4916 aufweisen, z.B. einen Operationsverstärker, z.B. einen Transimpedanzverstärker, z.B. mit einem invertierenden Eingang 4918 und einem nicht-invertierenden Eingang 4920. Der invertierende Eingang 4918 kann mit der gemeinsamen Signalleitung 4818 und der nicht-invertierende Eingang 4920 mit einem Bezugspotential, z.B. Massepotential 4922, gekoppelt werden. Die Ausleseschaltung 4810 kann ferner einen Rückkopplungswiderstand RFB 4924 und einen Rückkopplungskondensator CFB 4926 parallel geschaltet aufweisen, die beide zwischen den invertierenden Eingang 4918 des Verstärkers 4916 und einen Ausgang 4928 des Verstärkers 4916 geschaltet sind. So wird der Ausgang 4928 des Verstärkers 4916 z.B. über den Transimpedanzverstärkungs-Rückkopplungswiderstand RFB 4924 und den Tiefpassfilter-Rückkopplungskondensator CFB 4926 (der zur Stabilisierung der Schaltung dient) rückgekoppelt. Eine am Ausgang 4814 der Ausleseschaltung 4810 (der auf dem gleichen elektrischen Potential liegt wie der Ausgang 4928 des Verstärkers 4916) zur Verfügung gestellte Ausgangsspannung UPD 4930 ist annähernd proportional zum Fotostrom der ausgewählten Fotodiode 4804, der mit Hilfe der Unterdrückungsspannungen UAmp1...N 4910 gewählt wird. Der Schaltungsteil, der in 49 mit dem Index „1“ (z.B. APD1) gekennzeichnet ist, wird für jede der N Fotodioden wiederholt.
  • In verschiedenen Ausführungsformen können die Pixel 3802 und damit die Fotodioden 4804 der Pixel 3802 einer Zeile (oder einer Spalte) alle direkt (oder alternativ über eine Filterschaltung wie z.B. einen Tiefpassfilter) an die gemeinsame Signalleitung 4818 angekoppelt werden. Die gemeinsame Signalleitung 4818 führt die Summe aller Fotoströme und legt dieselbe an den Eingang 4812 der Ausleseschaltung 4810 an (zur Veranschaulichung: alle Fotoströme der Pixel 3802 einer Zeile (oder einer Spalte) werden aufsummiert und parallel an einen gemeinsamen Verstärker weitergeleitet). Jeder Pixelauswahlschaltkreis 4806 kann so konfiguriert werden, dass er den Fotostrom der Fotodiode seines jeweiligen Pixels 3802, das nicht zum Auslesen durch den Ausleseschaltkreis 4810 ausgewählt wurde, unterdrückt, indem die Sperrvorspannung des APD-Sensorarrays (mit anderen Worten: der Sensormatrix) illustrativ reduziert wird. 47 zeigt ein Diagramm 4700, das den Einfluss einer an eine Fotodiode vom Avalanche-Typ angelegten Sperrvorspannung 4702 auf den Lawineneffekt, d.h. auf die Verstärkung (auch als Multiplikation bezeichnet) 4704 innerhalb der Fotodiode, veranschaulicht. Eine Kennlinie 4706 zeigt z.B. zwei Bereiche, in denen die Verstärkung vergleichsweise hoch ist, z.B. einen ersten Bereich 4708 (z.B. nach der Schwelle des Lawineneffektes, in diesem Beispiel bei etwa 40 V) und einen zweiten Bereich 4710 (z.B. beim Durchbruch der Lawinenfotodiode, in diesem Beispiel bei etwa 280 V).
  • Um also ein entsprechendes Pixel 3802 zu unterdrücken, kann jede Pixelauswahlschaltung 4806 so konfiguriert werden, dass die Verstärkung der Fotodiode 4804 des entsprechenden Pixels 3802 unterdrückt wird. Um dies zu erreichen, kann jede Pixelauswahlschaltung 4806 so konfiguriert werden, dass sie eine Gesamtspannung an ein nicht ausgewähltes Pixel in einem Bereich anlegt, in dem die Verstärkung so gering wie möglich ist, idealerweise etwa Null. Dies wird z.B. erreicht, wenn die gesamte an eine entsprechende Fotodiode angelegte Sperrvorspannung in einem dritten Bereich 4712 der Charakteristik 4706 liegt, z.B. in einem Bereich unterhalb der Schwelle des Lawineneffekts, z.B. unter 25 V. Es ist zu beachten, dass es bereits ausreichen kann, die gesamte Sperrvorspannung um einige Volt zu reduzieren, um den Beitrag (das Rauschen) der nicht ausgewählten Fotodiode(n) ausreichend zu verringern. Um dies zu erreichen, kann jede Pixelauswahlschaltung 4806 so konfiguriert werden, dass sie (mindestens) während einer Zeit, in der das zugehörige Pixel 3802 nicht ausgewählt ist, die Unterdrückungsspannung liefert, so dass Folgendes gilt: U tRB = U RB U SUP < A th '
    Figure DE112020001131T5_0005

    wobei
    • - UtRB bezeichnet die gesamte Sperrvorspannung eines entsprechenden Pixels 3802;
    • - URB bezeichnet die Sperrvorspannung eines entsprechenden Pixels 3802;
    • - USUP bezeichnet die Unterdrückungsspannung eines entsprechenden Pixels 3802; und
    • - Ath bezeichnet die Schwelle des Lawineneffekts eines entsprechenden Pixels 3802.
  • Illustrativ kann, wie bereits oben beschrieben, jeder Pixelauswahlschaltkreis 4806 so konfiguriert werden, dass er einen negativen Spannungspuls der Unterdrückungsspannung USUP liefert (z.B. negativer Spannungspuls 4912 der Unterdrückungsspannung UAmp1 4910), um die Sperrvorspannung URB in bestimmten Zeitabschnitten (z.B. basierend auf einem entsprechenden Abtastvorgang) vorübergehend zu reduzieren, die normalerweise in einem Bereich liegt, der den Lawineneffekt auslöst (z.B. oberhalb der Schwelle des Lawineneffekts Ath).
  • Im ausgewählten Pixel 3802 kann die Pixelauswahlschaltung 4806 die Spannungen so steuern, dass die gesamte Sperrvorspannung UtRB ausreichend hoch ist, um den Lawineneffekt auszulösen (z.B. über der Schwelle des Lawineneffekts Ath). Dies kann erreicht werden, wenn die Pixel-Auswahlschaltung 4806 des ausgewählten Pixels 3802 keine Unterdrückungsspannung liefert (z.B. USUP = 0 V).
  • Der Sensorcontroller 53 kann so konfiguriert werden, dass er die Pixelauswahlschaltungen 4806 so steuert, dass jedes einzelne Pixel 3802 ausgewählt oder unterdrückt wird, z.B. in Übereinstimmung mit den Informationen, die vom ersten LIDAR-Sensorsystem 40 geliefert werden, das angibt, welches Pixel 3802 in einer entsprechenden Sensorarray-Zeile zu einem bestimmten Zeitpunkt aktiv sein (ausgelesen werden) soll. Dies ist abhängig vom jeweiligen Abtastvorgang. Dazu liefert das erste LIDAR-Abtastsystem 40 entsprechende Abtastinformationen über den Abtastvorgang an den Sensorcontroller 53, um ihm mitzuteilen, welche(s) Pixel zu welchem Zeitpunkt beleuchtet werden, so dass der Sensorcontroller 53 die Ausleseschaltung 4810 sowie die Pixelauswahlschaltungen 4806 (z.B. einer bestimmten Zeile oder einer bestimmten Spalte) entsprechend steuert.
  • 50 zeigt ein Flussdiagramm, das ein Verfahren 5000 in Übereinstimmung mit verschiedenen Ausführungsformen illustriert.
  • Das Verfahren 5000 umfasst in 5002 die Pixelauswahlschaltung, die das Sensorpixel durch Steuerung der Verstärkung innerhalb der zugehörigen Fotodiode auswählt oder unterdrückt, und in 5004 die mindestens eine Ausleseschaltung, die die elektrische Variable am Ausgang auf der Grundlage des an den Eingang angelegten elektrischen Signals bereitstellt.
  • Es ist zu beachten, dass jede Art von zweidimensionaler Sensoranordnung im LIDAR-Sensorsystem verwendet werden kann, wie unter Bezugnahme auf 46 bis 50 oben beschrieben.
  • Darüber hinaus kann eine Schaltung vorgesehen werden, um das detektierte Spannungssignal mit dem MEMS-Spiegel des LIDAR-Sensorsystems zu synchronisieren.
  • Darüber hinaus ist zu beachten, dass die Auswahl einer oder mehrerer Zeilen und/oder einer oder mehrerer Spalten mittels eines Multiplexers mit Hilfe eines Mechanismus erfolgen kann, wie er unter Bezugnahme auf 46 bis 50 oben beschrieben ist. Im Allgemeinen kann der Mechanismus, wie unter Bezugnahme auf 46 bis 50 oben beschrieben, auf jeden Multiplexer, der hier offenbart wird, angewandt werden.
  • Die unter Bezugnahme auf 46 bis 50 beschriebenen Ausführungsformen können sowohl in einem Flash-LIDAR-Sensorsystem als auch in einem scannenden LIDAR-Sensorsystem geliefert werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1e ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem umfasst eine Vielzahl von Sensorpixeln. Jedes Sensorpixel umfasst eine Fotodiode. Jedes Sensorpixel umfasst ferner eine Pixelauswahlschaltung, die so konfiguriert ist, dass sie das Sensorpixel auswählt oder unterdrückt, indem sie die Verstärkung innerhalb der zugehörigen Fotodiode oder die Übertragung von Fotoelektronen innerhalb der zugehörigen Fotodiode steuert, und mindestens eine Ausleseschaltung mit einem Eingang und einem Ausgang, die so konfiguriert ist, dass sie eine elektrische Variable am Ausgang auf der Grundlage eines an den Eingang angelegten elektrischen Signals liefert. Mindestens einige Fotodioden der Vielzahl von Sensorpixeln sind elektrisch (z.B. elektrisch leitend) mit dem Eingang der mindestens einen Ausleseschaltung gekoppelt.
    • In Beispiel 2e kann der Gegenstand von Beispiel 1e optional umfassen, dass die Pixelauswahlschaltung so konfiguriert ist, dass sie das Sensorpixel nur zu bestimmten Zeitpunkten auswählt oder unterdrückt.
    • In Beispiel 3e kann der Gegenstand von Beispiel 2e optional umfassen, dass die spezifischen Zeiträume mit einem LIDAR-Abtastprozess verbunden sind.
    • In Beispiel 4e kann der Gegenstand eines der Beispiele 1e bis 3e optional umfassen, dass die Fotodiode eine PIN-Diode ist.
    • In Beispiel 5e kann der Gegenstand eines der Beispiele 1e bis 3e optional umfassen, dass die Fotodiode eine Fotodiode ist, die auf Lawinenverstärkung basiert.
    • In Beispiel 6e kann der Gegenstand von Beispiel 5e optional umfassen, dass die Fotodiode eine Lawinenfotodiode (Avalanche-Fotodiode) aufweist. Die Pixelauswahlschaltung ist so konfiguriert, dass sie das Sensorpixel auswählt oder unterdrückt, indem sie die Avalanche-Verstärkung innerhalb der zugehörigen Fotodiode steuert.
    • In Beispiel 7e kann der Gegenstand eines der Beispiele 5e oder 6e optional umfassen, dass die Lawinenfotodiode eine Einzel-Photon-Lawinenfotodiode aufweist.
    • In Beispiel 8e kann der Gegenstand von Beispiel 7e optional umfassen, dass das LIDAR-Sensorsystem weiterhin einen Silizium-Fotomultiplier mit einer Vielzahl von Sensorpixeln mit Einzelphotonen-Lawinen-Fotodioden aufweist.
    • In Beispiel 9e kann der Gegenstand eines der Beispiele 1e bis 8e optional umfassen, dass die Pixelauswahlschaltung einen Eingang für eine Sperrvorspannung aufweist, der so konfiguriert ist, dass er eine Sperrvorspannung empfängt. Der Eingang für die Sperrvorspannung ist mit der Kathode der Fotodiode gekoppelt. Die Pixelauswahlschaltung ist so konfiguriert, dass sie das Sensorpixel auswählt oder unterdrückt, indem sie die an die Kathode der Fotodiode gelieferte Sperrvorspannung steuert.
    • 000964] In Beispiel 10e kann der Gegenstand von Beispiel 9e optional umfassen, dass die Pixelauswahlschaltung ferner einen Schalter, z.B. einen Feldeffekttransistorschalter, aufweist, der zwischen dem Sperrvorspannungseingang und der Kathode der Fotodiode angeschlossen ist.
    • In Beispiel 11e kann der Gegenstand von Beispiel 9e optional umfassen, dass die Pixelauswahlschaltung ferner einen Eingang für eine Unterdrückungsspannung aufweist, der so konfiguriert ist, dass er eine Unterdrückungsspannung empfängt. Der Eingang für die Unterdrückungsspannung ist mit der Kathode der Fotodiode gekoppelt. Die Pixelauswahlschaltung ist so konfiguriert, dass sie das Pixel durch Steuerung der Unterdrückungsspannung auswählt oder unterdrückt.
    • In Beispiel 12e kann der Gegenstand von Beispiel 11 e optional umfassen, dass die Pixelauswahlschaltung ferner einen Kondensator aufweist, der zwischen dem Eingang der Unterdrückungsspannung und der Kathode der Fotodiode geschaltet ist, um die Unterdrückungsspannung kapazitiv an die Kathode der Fotodiode zu koppeln.
    • In Beispiel 13e kann der Gegenstand von Beispiel 12e optional umfassen, dass die Pixelauswahlschaltung ferner einen Widerstand aufweist, der zwischen dem Eingang für die Sperrvorspannung und der Kathode der Fotodiode so geschaltet ist, dass der Widerstand und der Kondensator einen Tiefpassfilter bilden.
    • In Beispiel 14e kann der Gegenstand von Beispiel 13e optional umfassen, dass die Pixelauswahlschaltung ferner eine Schottky-Diode aufweist, die zwischen dem Sperrspannungseingang und der Kathode der Fotodiode und parallel zum Widerstand geschaltet ist.
    • In Beispiel 15e kann der Gegenstand eines der Beispiele 1e bis 8e optional umfassen, dass die Pixelauswahlschaltung einen Eingang für eine negative Vorspannung aufweist, der so konfiguriert ist, dass er eine negative Vorspannung empfängt. Der Eingang für die negative Vorspannung ist mit der Anode der Fotodiode gekoppelt. Die Pixelauswahlschaltung ist so konfiguriert, dass sie das Sensorpixel auswählt oder unterdrückt, indem sie die negative Vorspannung steuert, die an die Anode der Fotodiode angelegt wird.
    • In Beispiel 16e kann der Gegenstand von Beispiel 15e optional umfassen, dass die Pixelauswahlschaltung ferner einen Schalter, z.B. einen Feldeffekttransistorschalter, aufweist, der zwischen dem negativen Vorspannungseingang und der Anode der Fotodiode angeschlossen ist.
    • In Beispiel 17e kann der Gegenstand von Beispiel 15e optional umfassen, dass die Pixelauswahlschaltung ferner einen Eingang für eine Unterdrückungsspannung aufweist, der so konfiguriert ist, dass er eine Unterdrückungsspannung empfängt. Der Eingang für die Unterdrückungsspannung ist mit der Anode der Fotodiode gekoppelt. Die Pixelauswahlschaltung ist so konfiguriert, dass sie das Pixel durch Steuerung der Unterdrückungsspannung auswählt oder unterdrückt.
    • In Beispiel 18e kann der Gegenstand von Beispiel 17e optional umfassen, dass die Pixelauswahlschaltung ferner einen Kondensator aufweist, der zwischen dem Eingang der Unterdrückungsspannung und der Anode der Fotodiode geschaltet ist, um die Unterdrückungsspannung kapazitiv an die Anode der Fotodiode zu koppeln.
    • In Beispiel 20e kann der Gegenstand von Beispiel 19e optional umfassen, dass die Pixelauswahlschaltung ferner eine Schottky-Diode aufweist, die zwischen dem negativen Vorspannungseingang und der Anode der Fotodiode und parallel zum Widerstand geschaltet ist.
    • In Beispiel 21 e kann der Gegenstand eines der Beispiele 1e bis 20e optional umfassen, dass die Mehrzahl der Sensorpixel in einer Matrix mit mehreren Zeilen und mehreren Spalten angeordnet sind. Alle Sensorpixel einer entsprechenden Zeile oder einer entsprechenden Spalte sind mit einer gemeinsamen Ausleseschaltung verbunden.
    • In Beispiel 22e kann der Gegenstand eines der Beispiele 1e bis 21e optional umfassen, dass der mindestens eine Ausleseschaltkreis einen Verstärkerschaltkreis aufweist, der so konfiguriert ist, dass er das an den Eingang angelegte elektrische Signal verstärkt, um die elektrische Variable am Ausgang bereitzustellen.
    • In Beispiel 23e kann der Gegenstand von Beispiel 22e optional umfassen, dass die Verstärkerschaltung ein Transimpedanzverstärker ist, der so konfiguriert ist, dass er ein an den Eingang angelegtes elektrisches Stromsignal verstärkt, um am Ausgang eine elektrische Spannung zu liefern.
    • In Beispiel 24e kann der Gegenstand von Beispiel 23e optional umfassen, dass der Eingang des Transimpedanzverstärkers der invertierende Eingang des Transimpedanzverstärkers ist. Der Transimpedanzverstärker umfasst ferner einen nichtinvertierenden Eingang, der mit einem Bezugspotential gekoppelt ist.
    • In Beispiel 25e kann der Gegenstand von Beispiel 24e optional umfassen, dass die mindestens eine Ausleseschaltung ferner einen Tiefpasskondensator umfasst, der zwischen dem Ausgang des Transimpedanzverstärkers und dem invertierenden Eingang des Transimpedanzverstärkers geschaltet ist.
    • In Beispiel 26e kann der Gegenstand eines der Beispiele 1e bis 25e optional umfassen, dass das LIDAR-Sensorsystem ferner eine Emitteroptikanordnung aufweist, die so konfiguriert ist, dass sie Lichtstrahlen ablenkt, um eine Spalte eines Sichtfeldes des LIDAR-Sensorsystems zu einer bestimmten Zeitspanne zu beleuchten.
    • Beispiel 27e ist ein Verfahren für eines der Beispiele 1e bis 26e. Das Verfahren umfasst die Pixelauswahlschaltung, die das Sensorpixel durch Steuerung der Verstärkung innerhalb der zugehörigen Fotodiode auswählt oder unterdrückt, und die mindestens eine Ausleseschaltung, die die elektrische Variable am Ausgang auf der Grundlage des an den Eingang angelegten elektrischen Signals bereitstellt.
    • In Beispiel 28e kann der Gegenstand von Beispiel 27e optional umfassen, dass die Fotodiode eine Lawinenfotodiode (Avalanche-Fotodiode) aufweist. Die Pixelauswahlschaltung wählt oder unterdrückt das Sensorpixel, indem sie die Avalanche-Verstärkung innerhalb der zugehörigen Fotodiode steuert.
    • In Beispiel 29e kann der Gegenstand eines der Beispiele 27e oder 28e optional umfassen, dass die Pixelauswahlschaltung eine Sperrvorspannung erhält. Der Eingang für die Sperrvorspannung ist mit der Kathode der Fotodiode gekoppelt. Die Pixelauswahlschaltung wählt oder unterdrückt das Pixel durch Steuerung der an die Kathode der Fotodiode angelegten Sperrvorspannung.
    • In Beispiel 30e kann der Gegenstand von Beispiel 29e optional umfassen, dass die Pixelauswahlschaltung die Sperrvorspannung mit der Kathode der Fotodiode verbindet oder trennt, indem ein Schalter, z.B. ein Feldeffekttransistorschalter, der zwischen dem Sperrvorspannungseingang und der Kathode der Fotodiode angeschlossen ist, verwendet wird.
    • In Beispiel 31e kann der Gegenstand von Beispiel 29e optional umfassen, dass die Pixelauswahlschaltung eine Unterdrückungsspannung erhält. Der Eingang für die Unterdrückungsspannung ist mit der Kathode der Fotodiode gekoppelt. Die Pixelauswahlschaltung wählt oder unterdrückt das Sensorpixel durch Steuerung der Unterdrückungsspannung.
    • In Beispiel 32e kann der Gegenstand eines der Beispiele 30e oder 31e optional umfassen, dass die Pixelauswahlschaltung eine negative Vorspannung erhält. Der Eingang für die negative Vorspannung ist mit der Anode der Fotodiode gekoppelt. Die Pixelauswahlschaltung wählt oder unterdrückt das Sensorpixel durch Steuerung der negativen Vorspannung, die an die Anode der Fotodiode angelegt wird.
    • In Beispiel 33e kann der Gegenstand von Beispiel 32e optional umfassen, dass der Pixelauswahlschaltkreis die negative Vorspannung mit der Anode der Fotodiode über einen Schalter, z.B. einen Feldeffekttransistorschalter, der zwischen dem Eingang für die negative Vorspannung und der Anode der Fotodiode angeschlossen ist, verbindet oder trennt.
    • In Beispiel 34e kann der Gegenstand von Beispiel 33e optional umfassen, dass die Pixelauswahlschaltung eine Unterdrückungsspannung erhält. Der Eingang für die Unterdrückungsspannung ist mit der Anode der Fotodiode gekoppelt. Die Pixelauswahlschaltung wählt oder unterdrückt das Sensorpixel durch Steuerung der Unterdrückungsspannung.
    • In Beispiel 35e kann der Gegenstand eines der Beispiele 27e bis 34e optional umfassen, dass die mindestens eine Ausleseschaltung das an den Eingang angelegte elektrische Signal verstärkt, um die elektrische Variable am Ausgang bereitzustellen.
    • In Beispiel 36e kann der Gegenstand von Beispiel 35e optional umfassen, dass die Verstärkerschaltung ein an den Eingang angelegtes elektrisches Stromsignal verstärkt, um am Ausgang eine elektrische Spannung zu erzeugen.
    • Beispiel 37e ist ein Computerprogrammprodukt. Das Computerprogrammprodukt umfasst eine Vielzahl von Programmbefehlen, die in einem nicht flüchtigen computerlesbaren Medium abgelegt sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1e bis 26e ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 27e bis 36e auszuführen.
    • Beispiel 38e ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtigen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem gemäß einem der obigen Verfahrensbeispiele, ein LIDAR-Sensorsystem (50) gemäß einem der obigen LIDAR-Sensorsystem-Beispiele ausführt.
  • Bei einem Zeilendetektor (auch Zeilensensor genannt) 52 mit einer Vielzahl von in Reihen angeordneten Fotodioden (also Sensorpixeln) 2602 gibt es Fälle, in denen benachbarte Gruppen von Fotodioden 2602 ausgelesen werden sollen. Um nachfolgende Verstärkerstufen einzusparen, kann man mehrere Fotodioden 2602 über einen Multiplexer zu einem Verstärker zusammenschalten. Die über einen Multiplexer zusammengeschalteten Fotodioden 2602 können dann alle zu unterschiedlichen Fotodiodengruppen gehören, d.h. diese Fotodioden liegen in der Regel nicht nebeneinander, sondern sind weit über den Detektor 52 verstreut.
  • Um die Verdrahtungswege kurz zu halten und Überschneidungen von niederkapazitiven Signalwegen auf der Leiterplatte zu vermeiden, sollten Verbindungen zwischen weit über den Detektor 52 verstreuten Fotodioden zu einem Multiplexer vermieden werden. Normalerweise werden benachbarte oder jede zweite Fotodiode 2602 zu einem Multiplexer geführt. Letzteres z.B., wenn jede zweite Fotodiode 2602 auf die eine Seite des Detektor 52-Gehäuses und die anderen auf die andere (gegenüberliegende) Seite herausgeführt wird.
  • Verschiedene Aspekte dieser Offenbarung beruhen darauf, dass sich die Signalpfade bereits innerhalb des Detektors (Gehäuses) kreuzen und nicht in der gleichen Reihenfolge, in der die Fotodioden 2602 angeordnet sind, aus dem Detektor (Gehäuse) herausgeführt werden, sondern dass sie so gemischt werden, dass benachbarte Stifte (Pins) am Detektor (Gehäuse) zu weit auseinander liegenden Fotodioden 2602 gehören. Beispielsweise wird der Fotostrom der Fotodiode 2602 mit der Position x auf den Ausgangspin y geführt, so dass x in binärer Darstellung der Zahl y in binärer Darstellung entspricht, wenn es von hinten gelesen wird.
  • Durch eine geeignete Verdrahtung innerhalb des Detektors (Gehäuse) können Signalwege gekreuzt werden, ohne wesentliche Verlängerung der Signalwege und mit wesentlich geringerer kapazitiver Kopplung, da die Abmessungen der entsprechenden Signalspuren auf dem Fotodiodenchip wesentlich kleiner sind als auf einer Leiterplatte (PCB). Soll z.B. ein Detektor 52 mit 32 Fotodioden 2602 in acht Gruppen von je vier Fotodioden 2602 gruppiert werden, da nur acht Verstärkerschaltungen realisiert werden sollen, kann man den Fotostrom jeder der Fotodioden 2602 an den Stellen i, 8+i, 16+i, 24+i für i von 1 bis 8 direkt über einen Multiplexer zum i-ten Verstärker führen. Auf diese Weise lassen sich bei LIDAR-Anwendungen Gruppen benachbarter Fotodioden separat beleuchten, was wiederum die erforderliche Ausgangsleistung der Senderlaserdioden reduziert, da nur ein Teil der Szene beleuchtet werden muss.
  • Wie weiter unten beschrieben wird, kann ein LIDAR-Sensorsystem eine Verstärkerstufe aufweisen, die einer oder mehreren Fotodioden nachgeschaltet ist. Im Falle eines Zeilendetektors 52 mit mehreren in einer Reihe angeordneten Fotodioden 2602 kann es vorkommen, dass Gruppen benachbarter Fotodioden 2602 ausgelesen werden sollen. Um die Anzahl der erforderlichen nachgeschalteten Verstärker (die recht teuer sind) zu reduzieren, können mehrere Fotodioden 2602 zusammengeführt und über einen Multiplexer an einen gemeinsamen Verstärker angeschlossen werden. Die über einen entsprechenden Multiplexer zusammengeschalteten Fotodioden 2602 sollten in einem solchen Fall alle zu verschiedenen Gruppen von Fotodioden 2602 gehören. Diese Fotodioden 2602 sollten also nicht nebeneinander angeordnet sein, sondern weit über die Detektorfläche verteilt sein.
  • Um die Verdrahtungswege zwischen den Fotodioden 2602 kurz zu halten und um die Anzahl der Kreuzungen von Signalwegen mit geringer Kapazität auf einem Träger wie einer Leiterplatte (PCB) zu vermeiden oder zumindest zu reduzieren, kann vermieden werden, Signale, die weit über die Detektorfläche verteilt sind, zu einem Multiplexer zu leiten. Normalerweise können benachbarte oder jede zweite Fotodiode 2602 zu einem gemeinsamen Multiplexer geführt werden. Dies kann z.B. im Falle eines Detektorgehäuses vorgesehen werden, das durch jede erste Fotodiode 2602 zu einer ersten Seite des Detektorgehäuses und jede zweite Fotodiode 2602 zu einer zweiten, der ersten Seite gegenüberliegenden Seite des Detektorgehäuses führt.
  • Die Fotodioden 2602 können auf einem gemeinsamen Träger angeordnet werden. Die Fotodioden 2602 können frei von Verkapselungsmaterial sein, z.B. bei sogenannten Chip-on-Board (CoB)-Fotodioden 2602. Alternativ können die Fotodioden 2602 verkapselt werden, z.B. mit Verkapselungsmaterialien, die für einen Temperaturbereich von ca.
    - 40 °C bis ca. 85 °C gut geeignet sind. Darüber hinaus können die Fotodioden 2602 in jeder der oben genannten Alternativen in einem gemeinsamen Detektorgehäuse angeordnet werden. In all diesen Ausführungsformen ist jede Fotodiode 2602 mit genau einer Detektorverbindungsstruktur 6904 gekoppelt. Die Detektorverbindungsstrukturen 6904 können vorgesehen werden, z.B. fest montiert auf dem gemeinsamen Träger oder auf der optionalen Verkapselung. Die Detektorverbindungsstrukturen 6904 können in diesem Fall als Detektoranschlusspads (z.B. Detektoranschlusspads aus Metall) ausgeführt sein. In verschiedenen Ausführungsformen können die Detektorverbindungsstrukturen 6904 im Detektorgehäuse vorgesehen werden, z.B. durch eine Wand des Detektorgehäuses verlaufend. Die Detektorverbindungsstrukturen 6904 können in diesem Fall als Detektoranschlusspins (z.B. Detektoranschlusspins aus Metall) ausgeführt sein.
  • Wie im Folgenden näher beschrieben wird, können verschiedene Ausführungsformen ein Signalpfad-Layout so vorsehen, dass sich die Signalpfade bereits innerhalb des Detektorgehäuses (falls vorhanden) oder z.B. auf oder innerhalb des gemeinsamen Trägers oder der gemeinsamen Verkapselung der Vielzahl von Fotodioden 2602 kreuzen und nicht gemäß der Reihenfolge, in der die Fotodioden 2602 auf dem gemeinsamen Träger angeordnet sind, aus dem Detektorgehäuse oder aus dem gemeinsamen Träger oder der gemeinsamen Verkapselung herausgeführt werden. Mit anderen Worten, verschiedene Ausführungsformen können ein Signalpfad-Layout derart vorsehen, dass sich die Signalpfade bereits in den Signalpfaden zwischen dem Fotodioden-Kontaktpad jeder jeweiligen Fotodiode 2602 der Vielzahl von Fotodioden 2602 und den Detektorverbindungsstrukturen 6904 (z.B. Verbindungspads oder Verbindungsstifte) kreuzen. Diese durch ein erstes Verbindungsnetzwerk bereitgestellten Verbindungen können ein erstes Verbindungsschema bilden. Im Allgemeinen kann das erste Verbindungsnetzwerk so konfiguriert werden, dass es die Vielzahl von Fotodioden mit den Detektorverbindungsstrukturen 6904 gemäß einem ersten Verbindungsschema koppelt.
  • Darüber hinaus können verschiedene Ausführungsformen das Signalpfad-Layout so gestalten, dass die Signalpfade vom Detektorgehäuse (falls vorhanden) oder z.B. vom gemeinsamen Träger oder von der gemeinsamen Kapselung der Vielzahl von Fotodioden 2602 zu weiteren (nachgeschalteten) elektronischen Bauelementen eine geringere Anzahl von Kreuzungen aufweisen als die Signalpfade nach dem ersten oben beschriebenen Anschlussschema. Mit anderen Worten, verschiedene Ausführungsformen können ein Signalpfad-Layout liefern, so dass die Signalpfade eine geringere Anzahl von Signalpfad-Kreuzungen zwischen den Detektorverbindungsstrukturen 6904 (z.B. Verbindungs-Pads oder Verbindungs-Pins) und den Eingängen von nachgeschalteten angeschlossenen Multiplexern aufweisen, die wiederum weiter mit Verstärkern verbunden sind. Genau ein Verstärker kann einem zugehörigen genau einen Multiplexer nachgeschaltet sein. Diese durch ein zweites Verbindungsnetz bereitgestellten Verbindungen können ein zweites Verbindungsschema bilden. Im allgemeinen kann das zweite Verbindungsnetzwerk so konfiguriert werden, dass es die Detektorverbindungsstrukturen 6904 mit den Multiplexer-Eingängen nach einem zweiten Verbindungsschema koppelt. Das erste Verbindungsnetzwerk umfasst eine größere Anzahl von sich kreuzenden Verbindungen als das zweite Verbindungsnetzwerk. So sind z.B. benachbarte Detektorverbindungsstrukturen 6904 mit Fotodioden-Kontaktflächen von Fotodioden verbunden, die in einem ziemlich großen Abstand voneinander auf dem gemeinsamen Träger angeordnet sind.
  • In verschiedenen Ausführungsformen kann dem Standort jeder Fotodiode 2602 der Vielzahl von Fotodioden 2602 und damit indirekt jeder Fotodiode 2602 eine eindeutige Diodenpositionsnummer zugeordnet werden. Die Diodenpositionsnummern können der Position jeder Fotodiode 2602 der Vielzahl von Fotodioden 2602 so zugeordnet werden, dass die Diodenpositionsnummer entlang einer Diodenpositionsorientierung zunimmt, entlang der die Vielzahl von Fotodioden angeordnet ist, z.B. entlang einer Zeile (oder Spalte) eines eindimensionalen Detektorarrays. Darüber hinaus werden die Fotodioden entsprechend ihrer Lage in eine Vielzahl von Diodengruppen gruppiert. Die Fotodioden innerhalb einer Diodengruppe sind entlang der Diodenpositionsorientierung am dichtesten beieinander angeordnet. In verschiedenen Ausführungsformen sind alle Fotodioden einer Diodengruppe jeweils neben einer anderen Fotodiode derselben Diodengruppe angeordnet. Zur Veranschaulichung: Es kann vorkommen, dass keine Fotodiode 2602 einer Diodengruppe zugeordnet und zwischen zwei Fotodioden 2602 einer anderen Diodengruppe angeordnet ist. Wie im Folgenden beschrieben wird, kann die Anzahl der Fotodioden innerhalb jeder Diodengruppe gleich der Anzahl der vorgesehenen Multiplexer sein.
  • Darüber hinaus kann in verschiedenen Ausführungsformen dem Ort jeder Detektorverbindungsstruktur 6904 der Vielzahl von Detektorverbindungsstrukturen 6904 und damit indirekt jeder Detektorverbindungsstruktur 6904 eine eindeutige Struktur-Positionsnummer zugeordnet werden. Die Struktur-Positionsnummern können der Position jeder Detektorverbindungsstruktur 6904 der Vielzahl von Detektorverbindungsstrukturen 6904 zugeordnet werden, so dass die Struktur-Positionsnummer entlang einer Detektorverbindungsstruktur 6904-Platzierungsrichtung, entlang der die Vielzahl von Detektorverbindungsstrukturen 6904 angeordnet sind, zunimmt. Die Detektorverbindungsstrukturen 6904 können in eine Vielzahl von Strukturgruppen in Übereinstimmung mit ihrer Lage gruppiert werden. Die Detektorverbindungsstrukturen 6904 innerhalb einer Strukturgruppe können am dichtesten beieinander entlang einer Strukturplatzierungsrichtung angeordnet werden, entlang der die Vielzahl der Detektorverbindungsstrukturen 6904 angeordnet sind. Die Anzahl der Detektorverbindungsstrukturen 6904 innerhalb jeder Strukturgruppe ist gleich der Anzahl der Fotodioden 2602 in der Empfänger-Fotodiodenanordnung 7002 geteilt durch die Anzahl der Multiplexer 6814.
  • Zur Veranschaulichung: Es darf keine Detektorverbindungsstruktur 6904 geben, die einer Strukturgruppe zugeordnet und zwischen zwei Detektorverbindungsstrukturen 6904 einer anderen Strukturgruppe angeordnet ist. Wie weiter unten beschrieben wird, kann die Anzahl der Detektorverbindungsstrukturen 6904 innerhalb jeder Strukturgruppe gleich der Anzahl der vorgesehenen Fotodioden geteilt durch die Anzahl der Multiplexer sein.
  • Das erste Verbindungsschema ist so konfiguriert, dass eine Detektorverbindungsstruktur 6904 (die einer Strukturpositionsnummer in binärer Darstellung zugeordnet ist) mit der Fotodiode der Vielzahl von Fotodioden (die der Diodenpositionsnummer zugeordnet ist) gekoppelt ist, die die Umkehrung der Diodenpositionsnummer in binärer Darstellung als Strukturpositionsnummer hat.
  • So wird in verschiedenen Ausführungsformen, wenn eine Fotodiode mit der Diodenpositionsnummer x (d.h. an einer Position x) mit einer Detektorverbindungsstruktur 6904 mit der Strukturpositionsnummer y (d.h. an einer Position y) so verbunden wird, dass die Diodenpositionsnummer x in binärer Zahlendarstellung der binären Darstellung der aus der anderen Richtung („von hinten gelesen“, d.h. von rechts nach links gelesen) gelesenen Strukturpositionsnummer y entspricht. Mit anderen Worten, das erste Verbindungsschema wird so festgelegt, dass eine Strukturpositionszahl y in Binärzahlendarstellung die Umkehrung der Diodenpositionszahl x in Binärzahlendarstellung für jedes Verbindungspaar (d.h. für jedes Paar) ist (Fotodiodenkontaktpad - Detektorverbindungsstruktur 6904), wodurch ein mathematisches Konzept der Bit-Umkehr-Ordnung bzw. Bit-Umkehr-Permutation implementiert wird.
  • 68 zeigt einen Überblick über einen Teil 6800 des LIDAR-Sensorsystems. In diesen Ausführungsformen ist das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert.
  • Die Lichtquelle 42 emittiert einen emittierten Lichtstrahl 6802 durch eine Sendeoptik 6804. Der ausgesandte Lichtstrahl 6802 wird von einem Zielobjekt 100 reflektiert und kann Spalte 6806 für Spalte 6806 abgetastet werden (d.h. das in 68 dargestellte LIDAR-Sensorsystem beleuchtet die Zielszene spaltenweise). Ein entsprechend reflektierter Lichtstrahl 6808 wird vom Sensor 52 über die Detektionsoptik 51 zeilenweise empfangen. Die Auflösung der Zeilen kann durch eine Empfänger-Fotodiodenzeile 6810 realisiert werden. Jede der s Zeilen 6812 (s kann eine beliebige ganze Zahl gleich oder größer als „1“ sein) der Zielszene kann auf (genau) eine Fotodiode 2602 aus der Vielzahl der Fotodioden 2602 abgebildet (gemappt) werden. Eine Vielzahl von Multiplexern 6814 (z.B. eine Vielzahl der Reihenmultiplexer 6814) ist dem Empfänger-Fotodiodenarray 6810 nachgeschaltet. Weiterhin zeigt 68 eine Vielzahl der Verstärker 2626 (z.B. Transimpedanzverstärker 2626). Genau ein Verstärker 2626 ist einem jeweils zugehörigen Multiplexer 6814 nachgeschaltet. Eine Vielzahl von Analog-Digital-Wandlern 2630 ist vorgesehen. Exakt ein Analog-Digital-Wandler 2630 ist einem jeweils zugehörigen Verstärker 2626 nachgeschaltet. Jeder Analog-Digital-Wandler 2630 ist so konfiguriert, dass er einen entsprechenden digitalisierten Spannungswert 2632 eines entsprechenden Spannungssignals 2628 liefert, das von dem zugehörigen Verstärker 2626 geliefert wird.
  • In verschiedenen Ausführungsformen werden nicht alle Zeilen der Szene gleichzeitig empfangen, sondern q (q ist eine ganze Zahl gleich oder größer als „1“) Fotodiodensignale werden an m Verstärker 2626 und q Analog-Digital-Wandler 2630 weitergeleitet. Die Auswahl der weitergeleiteten Fotodiodensignale 6816, die von den Fotodioden 2602 geliefert und den Eingängen der Multiplexer 2814 zugeführt werden, erfolgt durch einen entsprechenden Multiplexer 2814 aus der Vielzahl der Multiplexer 2814. Ein Controller (nicht abgebildet) kann so konfiguriert werden, dass er die Multiplexer 2814 so steuert, dass die jeweils zugehörigen und damit weiterzuleitenden Fotodiodensignale 6816 ausgewählt werden. Der Controller kann z.B. ein Controller des Lichtquellentreibers sein. So kann in verschiedenen Ausführungsformen das vom Controller zur Steuerung der Multiplexer 6814 gelieferte Steuersignal das gleiche Signal sein, das zur Auswahl einer oder mehrerer zugehöriger Fotodioden 2602 geliefert werden kann.
  • In einem Beispiel mit s = 64 Zeilen der Empfänger-Fotodiodenanordnung 6810 und q = 16 Verstärkern 2626 und Analog-Digital-Wandlern 2630 wird jede Spalte 6806 mindestens s/q = 4 mal beleuchtet, um alle Kanäle zu erfassen. Um eine unnötige Beleuchtung von (1 - q/s) = ¾ einer jeweiligen Spalte 6806 zu vermeiden, kann vorgesehen werden, dass nur die Bereiche beleuchtet werden, die auch detektiert werden. Um dies zu erreichen, werden die detektierten Zeilen der Empfänger-Fotodiodenzeile 6810 so gewählt, dass sie nebeneinander liegen. Das bedeutet, dass jeder Verstärker 2626 mit jeweils einem Kanal aus jeder Strukturgruppe verbunden (geschaltet) werden kann.
  • Um die Länge der Verdrahtung z.B. auf der Leiterplatte so kurz wie möglich zu halten, werden in verschiedenen Ausführungsformen die Kreuzungsverbindungen hauptsächlich innerhalb des Detektors zwischen den Fotodioden-Kontaktpads und der zugehörigen Detektorverbindungsstruktur 6904 vorgesehen. In verschiedenen Ausführungsformen können eine oder mehrere CMOS-Metallisierungsschichten des Detektorchips vorgesehen werden, um die Mehrzahl der Kreuzungsverbindungen zu realisieren, da ein hoher Bedarf hinsichtlich des Übersprechens zwischen den Kanälen und der Kapazitäten für die nachfolgende(n) Schaltung(en) besteht. Die Eingangskapazitäten der Verstärker 2626 sollten im unteren pF-Bereich liegen, um eine Schaltung mit ausreichend großer Bandbreite zu erhalten. Die Verdrahtungen auf der Leiterplatte sind größer und haben daher eine höhere Kapazität und Induktivität, was sich negativ auf die Bandbreite der Schaltung auswirkt. Um eine beliebige Anzahl von b = 2^k Fotodioden 2602 zu den Verstärkern 2626 weiterzuleiten, ohne die Eingänge der Multiplexer 6814 zu kreuzen, können die Verbindungen innerhalb der Empfänger-Fotodiodengruppe 6810 aus der Empfänger-Fotodiodengruppe 6810 in bit-umgekehrter Reihenfolge (d.h. mit bit-umgekehrter Permutation) herausgeführt werden.
  • 69 zeigt ein Verdrahtungsschema eines Teils 6900 eines LIDAR-Sensorsystems, bei dem die Mehrzahl der Kreuzungsverbindungen zwischen den Detektorverbindungsstrukturen 6904 der Empfänger-Fotodiodenleiste 6810 und den Eingängen der Multiplexer 6814 besteht. Das Empfänger-Fotodiodenarray 6810 umfasst eine Vielzahl von Fotodioden 2602, die entlang einer Linie angeordnet sind (in 69 durch einen Pfeil 6906 symbolisiert). Jeder Fotodiode 2602 ist eine eindeutige Diodenpositionsnummer zugeordnet, um die Fotodiode und ihre Position innerhalb des Empfänger-Fotodiodenarrays 6810 zu identifizieren. In diesem Beispiel wird der obersten Fotodiode 2602 die Diodenpositionsnummer „0“ und der untersten Fotodiode 2602 die Diodenpositionsnummer „31“ zugewiesen. Somit sind in diesem Beispiel 32 Fotodioden 2602 vorgesehen.
  • Jede Fotodiode 2602 hat ein Fotodioden-Kontaktpad (nicht abgebildet), das elektrisch mit einerm entsprechenden Detektorverbindungsstruktur 6904 gekoppelt (nicht abgebildet) ist. Die Kopplung in diesem konventionellen Verdrahtungsschema ist so festgelegt, dass:
    • - die oberste Fotodiode 2602 mit der zugewiesenen Diodenpositionsnummer „0“ ist mit der Detektorverbindungsstruktur 6904 Nummer „0“ gekoppelt;
    • - die Fotodiode 2602 mit der zugewiesenen Diodenpositionsnummer „1“ ist mit der Detektorverbindungsstruktur 6904 Nummer „1“ gekoppelt;
    • - die Fotodiode 2602 mit der zugewiesenen Diodenpositionsnummer „2“ ist an die Detektorverbindungsstruktur 6904 Nummer „2“ gekoppelt;
    • - ...; und
    • - die unterste Fotodiode 2602 mit der zugewiesenen Diodenpositionsnummer „31“ ist mit der Detektorverbindungsstruktur 6904 Nummer „31“ gekoppelt.
  • Bei diesem Verdrahtungsschema gibt es normalerweise keine kreuzenden Verbindungen in der Verdrahtung zwischen den Fotodiodenanschlusspads und den Detektorverbindungsstrukturen 6904.
  • Wie in 69 gezeigt, umfasst das Verdrahtungsschema zwischen den Detektorverbindungsstrukturen 6904 und den Eingängen der Multiplexer 6814 jedoch eine hohe Anzahl von Kreuzungsverbindungen 6902. Außerdem sind den Multiplexern 6814 Transimpedanzverstärker 2626 nachgeschaltet. Das Empfänger-Fotodiodenarray 6810 und die Multiplexer 6814 und die Verstärker 2626 sind normalerweise auf einem gemeinsamen Träger wie z.B. einer Leiterplatte montiert.
  • Diese konventionelle Verdrahtung der Fotodioden-Kontaktpads durch das Gehäuse des Empfänger-Fotodiodenarrays 6810 und die daraus resultierenden Kreuzungen der Signalpfade auf dem gemeinsamen Träger, meist einer Leiterplatte, führt zu einem hohen Störpegel. Die daraus resultierende Zunahme des Rauschens und des Übersprechens macht eine solche Implementierung sehr schwierig.
  • 70 zeigt einen Überblick über einen Teil 7000 des LIDAR-Sensorsystems, der ein Verdrahtungsschema nach verschiedenen Ausführungsformen zeigt.
  • Das LIDAR-Sensorsystem kann Folgendes umfassen:
    • - eine Empfänger-Fotodiodenanordnung 7002;
    • - eine Vielzahl von Multiplexern 6814, die stromabwärts mit der Empfänger-Fotodiodenanordnung 7002 verbunden sind; und
    • - eine Vielzahl von Verstärkern 2626, die stromabwärts an die Vielzahl von Multiplexern 6814 angeschlossen sind.
  • Die Empfänger-Fotodiodenanordnung 7002 kann eine Vielzahl von Fotodioden 2602 aufweisen.
  • Die Empfänger-Fotodiodenanordnung 7002 kann auf verschiedene Weise implementiert werden. Beispielsweise kann die Empfänger-Fotodiodenanordnung 7002 als Chip-on-Board-Anordnung implementiert werden, was im Folgenden näher beschrieben wird. Darüber hinaus kann die Empfänger-Fotodiodenanordnung 7002 mit einem Gehäuse ausgeführt werden.
  • In jeder hier beschriebenen Ausführung kann die Empfänger-Fotodiodenanordnung 7002 eine Vielzahl von Fotodioden 2602 aufweisen. Die Mehrzahl der Fotodioden 2602 kann in einer vordefinierten Weise angeordnet werden, z.B. linear entlang einer Diodenplatzierungsausrichtung (in 70 durch einen weiteren Pfeil 7014 symbolisiert). Dem Ort einer Fotodiode 2602 der Vielzahl von Fotodioden 2602 innerhalb der Empfänger-Fotodiodenanordnung 7002 kann eine (z.B. eindeutige) Diodenpositionsnummer zugeordnet werden. Jede Fotodiode 2602 umfasst mindestens zwei Fotodioden-Kontaktstrukturen (wie z.B. zwei Fotodioden-Kontaktpins oder zwei Fotodioden-Kontaktpads), um die jeweilige Fotodiode 2602 mechanisch und elektrisch zu kontaktieren. In verschiedenen Ausführungsformen kann eine erste Fotodioden-Kontaktstruktur der beiden Fotodioden-Kontaktstrukturen jeder Fotodiode 2602 mit einem Bezugspotential wie z.B. Massepotential gekoppelt sein. In verschiedenen Ausführungen kann eine erste Fotodioden-Kontaktfläche an der Vorderseite jeder Fotodiode 2602 und eine zweite Fotodioden-Kontaktfläche an der gegenüberliegenden Rückseite jeder Fotodiode 2602 vorgesehen werden. Außerdem können die Abmessungen eines ersten Fotodioden-Kontaktpads und eines entsprechenden zweiten Fotodioden-Kontaktpads unterschiedlich sein. Zum Beispiel kann das erste Fotodioden-Kontaktpad als Kontaktstreifen ausgeführt sein, der breiter als das zweite Fotodioden-Kontaktpad sein kann. Darüber hinaus kann sogar eine Vielzahl von Fotodioden-Kontaktpads auf der Vorderseite und/oder auf der Rückseite jeder Fotodiode 2602 vorgesehen sein (zumindest einige Fotodioden-Kontaktpads auf jeder Seite können elektrisch miteinander gekoppelt sein).
  • Die Vielzahl der Fotodioden 2602 kann so angeordnet werden, dass der Wert der Diodenpositionsnummer entlang der Diodenpositionsorientierung, entlang der die Vielzahl der Fotodioden 2602 angeordnet sind, zunimmt.
  • Als Beispiel,
    • - eine erste Fotodiode PD00 kann sich an der obersten Position innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und die Diodenpositionsnummer (in binärer Zahlendarstellung) „00000“ kann der ersten Fotodiode PD00 zugeordnet werden;
    • - eine zweite Fotodiode PD01 kann sich an der zweitobersten Position innerhalb des Empfänger-Fotodiodenarrays 7002 befinden, und die Diodenpositionsnummer (in binärer Zahlendarstellung) „00001“ kann der zweiten Fotodiode PD01 zugeordnet werden;
    • - eine dritte Fotodiode PD02 kann sich an der dritthöchsten Position innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und die Diodenpositionsnummer (in binärer Zahlendarstellung) „00010“ kann der dritten Fotodiode PD02 zugeordnet werden;
    • - ...; und
    • - eine einunddreißigste Fotodiode PD30 kann sich an der zweituntersten Position innerhalb des Empfänger-Fotodiodenarrays 7002 befinden, und die Diodenpositionsnummer (in binärer Zahlendarstellung) „11110“ kann der einunddreißigsten Fotodiode PD30 zugeordnet werden; und
    • - eine zweiunddreißigste Fotodiode PD31 kann sich an der untersten Position innerhalb des Empfänger-Fotodiodenarrays 7002 befinden, und die Diodenpositionsnummer (in binärer Zahlendarstellung) „11111“ kann der zweiunddreißigsten Fotodiode PD31 zugeordnet werden.
  • Die folgende Tabelle 1 fasst eine mögliche Zuordnung der Diodenstandortnummern (in binärer Zahlendarstellung) zu den Fotodioden 2602 PDxx innerhalb der Empfänger-Fotodiodenanordnung 7002 unter Bezugnahme auf 70 entsprechend verschiedener Ausführungsformen zusammen: Tabelle 1
    Fotodiode PDxx (xx dezimal) Diodenpositionsnummer (binär)
    PD00 00000
    PD01 00001
    PD02 00010
    PD03 00011
    PD04 00100
    PD05 00101
    PD06 00110
    PD07 00111
    PD08 01000
    PD09 01001
    PD10 01010
    PD11 01011
    PD12 01100
    PD13 01101
    PD14 01110
    PD15 01111
    PD16 10000
    PD17 10001
    PD18 10010
    PD19 10011
    PD20 10100
    PD21 10101
    PD22 10110
    PD23 10111
    PD24 11000
    PD25 11001
    PD26 11010
    PD27 11011
    PD28 11100
    PD29 11101
    PD30 11110
    PD31 11111
  • In jeder hier beschriebenen Ausführung kann die Empfänger-Fotodiodenanordnung 7002 die Detektorverbindungsstrukturen 6904 (wie z.B. Detektoranschlusspads oder Detektoranschlusspins) 7004 aufweisen. Die Detektorverbindungsstrukturen 7004 können Teil einer Schnittstelle sein oder die Schnittstelle der Empfänger-Fotodiodenanordnung 7002 bilden. Zur Veranschaulichung: Die Detektorverbindungsstrukturen 7004 sind vorgesehen, um einen mechanischen und elektrischen Kontakt der Fotodioden 2602 mit einem oder mehreren Bauteilen außerhalb der Empfänger-Fotodiodenanordnung 7002 zu ermöglichen, z.B. mit den Multiplexern 6814.
  • Die Vielzahl der Detektorverbindungsstrukturen 7004 kann in Übereinstimmung mit einer vordefinierten Art und Weise angeordnet werden, z.B. linear entlang einer Strukturplatzierungsorientierung. Die Detektorverbindungsstrukturen 7004 können in symmetrischer Weise auf zwei gegenüberliegenden Seiten der Empfänger-Fotodiodenanordnung 7002 angeordnet werden. Eine (z.B. eindeutige) Strukturpositionsnummer kann der Position einer Detektorverbindungsstruktur 7004 aus der Vielzahl der Detektorverbindungsstrukturen 7004 innerhalb der Empfänger-Fotodiodenanordnung 7002 zugeordnet werden.
  • Die Mehrzahl der Detektorverbindungsstrukturen 7004 kann so angeordnet werden, dass der Wert der Strukturpositionsnummer entlang der Strukturplatzierungsorientierung, entlang der die Mehrzahl der Detektorverbindungsstrukturen 7004 angeordnet sind, zunimmt. Wenn die Detektorverbindungsstrukturen 7004 auf mehreren Seiten angeordnet sind, erhöht sich der Wert der Strukturpositionsnummer entlang der Strukturplatzierungsorientierung auf einer ersten Seite und erhöht sich dann weiter entlang der Strukturplatzierungsorientierung auf einer zweiten Seite, beginnend an derselben Position der mehreren Detektorverbindungsstrukturen 7004 auf der zweiten Seite, an der sie auf der ersten Seite begonnen hat.
  • Als Beispiel,
    • - eine erste Detektorverbindungsstruktur CS00 kann sich an der obersten Position an einer ersten Seite (linke Seite in 70) innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und die Strukturpositionsnummer (in binärer Zahlendarstellung) „00000“ kann der ersten Detektorverbindungsstruktur CS00 zugewiesen werden;
    • - eine zweite Detektorverbindungsstruktur CS01 kann sich an der zweitobersten Position auf der ersten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und die Strukturpositionsnummer (in binärer Zahlendarstellung) „10000“ kann der zweiten Detektorverbindungsstruktur CS01 zugewiesen werden;
    • - eine dritte Detektorverbindungsstruktur CS02 kann an der dritten, obersten Position auf der ersten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 angeordnet werden, und die Strukturpositionsnummer (in binärer Zahlendarstellung) „01000“ kann der dritten Detektorverbindungsstruktur CS02 zugeordnet werden; ... (und so weiter) ... ;
    • - eine sechzehnte Detektorverbindungsstruktur CS15 kann sich an der untersten Position auf der ersten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und der sechzehnten Detektorverbindungsstruktur CS15 kann die Strukturpositionsnummer (in binärer Zahlendarstellung) „11110“ zugewiesen werden;
    • - eine siebzehnte Detektorverbindungsstruktur CS16 kann an der obersten Position auf einer zweiten, der ersten Seite gegenüberliegenden Seite (rechte Seite in 70) innerhalb der Empfänger-Fotodiodenanordnung 7002 angeordnet werden, und der siebzehnten Detektorverbindungsstruktur CS16 kann die Strukturpositionsnummer (in binärer Zahlendarstellung) „00001“ zugewiesen werden;
    • - eine achtzehnte Detektorverbindungsstruktur CS17 kann sich an der zweitobersten Position auf der zweiten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und der achtzehnten Detektorverbindungsstruktur CS17 kann die Strukturpositionsnummer (in binärer Zahlendarstellung) „10001“ zugewiesen werden;
    • - eine neunzehnte Detektorverbindungsstruktur CS18 kann sich an der dritthöchsten Position auf der zweiten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden und die Strukturpositionsnummer (in binärer Zahlendarstellung) „01001“ kann der neunzehnten Detektorverbindungsstruktur CS18 zugeordnet werden; ... (und so weiter) ...;
    • - eine einunddreißigste Detektorverbindungsstruktur CS30 kann sich an der zweituntersten Position auf der zweiten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und die Strukturpositionsnummer (in binärer Zahlendarstellung) „01111“ kann der einunddreißigsten Detektorverbindungsstruktur CS30 zugewiesen werden; und
    • - eine zweiunddreißigste Detektorverbindungsstruktur CS31 kann sich an der untersten Position auf der zweiten Seite innerhalb der Empfänger-Fotodiodenanordnung 7002 befinden, und die Strukturpositionsnummer (in binärer Zahlendarstellung) „11111“ kann der zweiunddreißigsten Detektorverbindungsstruktur CS31 zugewiesen werden.
  • Die folgende Tabelle 2 fasst eine mögliche Zuordnung der Struktur-Positionsnummern (in binärer Zahlendarstellung) zu den Detektorverbindungsstrukturen 7004 CSyy (in dezimaler Zahlendarstellung) und zu den Detektorverbindungsstrukturen 7004 CSzzzzz (in binärer Zahlendarstellung) innerhalb der Empfänger-Fotodiodenanordnung 7002 unter Bezugnahme auf 70 entsprechend verschiedener Ausführungsformen zusammen: Tabelle 2
    Verbindungsstruktur CSyy (yy dezimal) Verbindungsstruktur CSzzzzz (zzzzz binär) Struktur-Positions nummer (binär)
    CS00 CS00000 00000
    CS01 CS00001 10000
    CS02 CS00010 01000
    CS03 CS00011 11000
    CS04 CS00100 00100
    CS05 CS00101 10100
    CS06 CS00110 01100
    CS07 CS00111 11100
    CS08 CS01000 00010
    CS09 CS01001 10010
    CS10 CS01010 01010
    CS11 CS01011 11010
    CS12 CS01100 00110
    CS13 CS01101 10110
    CS14 CS01110 01110
    CS15 CS01111 11110
    CS16 CS10000 00001
    CS17 CS10001 10001
    CS18 CS10010 01001
    CS19 CS10011 11001
    CS20 CS10100 00101
    CS21 CS10101 10101
    CS22 CS10110 01101
    CS23 CS10111 11101
    CS24 CS11000 00011
    CS25 CS11001 10011
    CS26 CS11010 01011
    CS27 CS11011 11011
    CS28 CS11100 00111
    CS29 CS11101 10111
    CS30 CS11110 01111
    CS31 CS11111 11111
  • In verschiedenen Ausführungsformen kann der Wert der Struktur-Positionsnummer, der den Detektorverbindungsstrukturen CSyy zugeordnet ist, als binärer Umkehrwert der Nummer der Detektorverbindungsstrukturen CSyy (in binärer Zahlendarstellung) gewählt werden.
  • Ein erstes Verbindungsnetzwerk 7006 kann vorgesehen werden, um die Vielzahl der Fotodioden 2602 mit den Detektorverbindungsstrukturen 7004 elektrisch zu koppeln. Genauer gesagt kann jeweils eine zweite Fotodioden-Kontaktstruktur der beiden Fotodioden-Kontaktstrukturen jeder Fotodiode 2602 mit einer (z.B. genau einer) zugehörigen Detektorverbindungsstruktur 7004 der Vielzahl von Detektorverbindungsstrukturen 7004 gekoppelt werden. Das erste Verbindungsnetzwerk 7006 ist so konfiguriert, dass es die Vielzahl von Fotodioden 2602 mit den Detektorverbindungsstrukturen 7006 gemäß einem ersten Verbindungsschema koppelt.
  • Das erste Verbindungsschema kann die jeweilige zweite Fotodioden-Kontaktstruktur der beiden Fotodioden-Kontaktstrukturen einer jeweiligen Fotodiode 2602 mit einem zugewiesenen binären Diodenpositionsnummernwert mit einer jeweiligen Detektor-Verbindungsstruktur 7006 mit dem zugewiesenen binären Strukturpositionsnummernwert mit der umgekehrten (binären) Ordnungsnummer der jeweiligen binären Diodenpositionsnummer koppeln.
  • Die folgende Tabelle 3 fasst ein mögliches erstes Anschlussschema innerhalb der Empfänger-Fotodiodenanordnung 7002 unter Bezugnahme auf 70 in Übereinstimmung mit verschiedenen Ausführungsformen zusammen: Tabelle 3
    Foto-diode PDxx (xx dezimal) Diodenpo sitionsnu mmer (binär) Umgekehrte Reihenfolge der Diodenpositi onsnummer (binär) Entspre-chende Verbindungsst ruktur CSzzzzz (zzzzz binär) Entspre-chende Verbindungss truktur CSyy (yy dezimal)
    PD00 00000 00000 CS00000 CS00
    PD01 00001 10000 CS10000 CS16
    PD02 00010 01000 CS01000 CS08
    PD03 00011 11000 CS11000 CS24
    PD04 00100 00100 CS00100 CS04
    PD05 00101 10100 CS10100 CS20
    PD06 00110 01100 CS01100 CS12
    PD07 00111 11100 CS11100 CS28
    PD08 01000 00010 CS00010 CS02
    PD09 01001 10010 CS10010 CS18
    PD10 01010 01010 CS01010 CS10
    PD11 01011 11010 CS11010 CS26
    PD12 01100 00110 CS00110 CS06
    PD13 01101 10110 CS10110 CS22
    PD14 01110 01110 CS01110 CS14
    PD15 01111 11110 CS11110 CS30
    PD16 10000 00001 CS00001 CS01
    PD17 10001 10001 CS10001 CS17
    PD18 10010 01001 CS01001 CS09
    PD19 10011 11001 CS11001 CS25
    PD20 10100 00101 CS00101 CS05
    PD21 10101 10101 CS10101 CS21
    PD22 10110 01101 CS01101 CS13
    PD23 10111 11101 CS11101 CS29
    PD24 11000 00011 CS00011 CS03
    PD25 11001 10011 CS10011 CS19
    PD26 11010 01011 CS01011 CS11
    PD27 11011 11011 CS11011 CS27
    PD28 11100 00111 CS00111 CS07
    PD29 11101 10111 CS10111 CS23
    PD30 11110 01111 CS01111 CS15
    PD31 11111 11111 CS11111 CS31
  • Zum Beispiel nach dem ersten Anschlussschema,
    • - die erste Fotodiode PD00 kann mit der ersten Detektorverbindungsstruktur CS00 gekoppelt werden;
    • - die zweite Fotodiode PD01 kann mit der siebzehnten Detektorverbindungsstruktur CS16 gekoppelt werden;
    • - die dritte Fotodiode PD02 kann mit der neunten Detektorverbindungsstruktur CS08 gekoppelt werden; ... (und so weiter) ... ;
    • - die zwanzigste Fotodiode PD19 kann an die sechsundzwanzigste Detektorverbindungsstruktur CS25 gekoppelt werden; ... (und so weiter) ... ;
    • - die einunddreißigste Fotodiode PD30 kann an die sechzehnte Detektorverbindungsstruktur CS15 gekoppelt werden; und
    • - Diode PD31 kann an die zweiunddreißigste Detektorverbindungsstruktur CS31 gekoppelt werden.
  • Das erste Verbindungsnetzwerk 7006 kann in einer oder mehreren Metallisierungsschichten der Empfänger-Fotodiodenanordnung 7002 implementiert werden. In verschiedenen Ausführungsformen kann das erste Verbindungsnetzwerk 7006 durch eine oder mehrere Leitungen oder ein oder mehrere Kabel und/oder elektrisch leitende Bahnen innerhalb der Empfänger-Fotodiodenanordnung 7002 realisiert werden, z.B. innerhalb des Verkapselungsmaterials, das die Fotodioden 2602 der Empfänger-Fotodiodenanordnung 7002 einkapselt.
  • Darüber hinaus kann ein zweites Verbindungsnetzwerk 7008 vorgesehen werden, um die Detektorverbindungsstrukturen 7004 mit der Vielzahl von Multiplexer-Eingängen 7010 zu koppeln. In verschiedenen Ausführungsformen kann jeder Multiplexer 6814 eine Anzahl n von Multiplexer-Eingängen 7010 haben, die durch die Anzahl m der Fotodioden 2602 geteilt durch die Anzahl p der vorgesehenen Multiplexer 6814 (n = m / p) bestimmt wird. Im Beispielfall von 32 Fotodioden 2602 und acht Multiplexern 6814 kann jeder Multiplexer 6814 vier Eingänge 7010 haben (n = 32 / 8 = 4). In verschiedenen Ausführungsformen kann die Anzahl der Eingänge 7010 der Multiplexer 6814 unterschiedlich sein, und einige Multiplexer 6814 der Mehrzahl der Multiplexer 6814 können eine andere Anzahl von Eingängen 7010 haben als andere Multiplexer 6814 der Mehrzahl der Multiplexer 6814.
  • Das zweite Verbindungsnetzwerk 7008 kann so konfiguriert werden, dass die Detektorverbindungsstrukturen 7004 mit der Mehrzahl der Multiplexer-Eingänge 7010 gemäß einem zweiten Verbindungsschema gekoppelt werden. In verschiedenen Ausführungsformen umfasst das erste Anschlussnetz 7006 eine größere Anzahl von Kreuzungsverbindungen als das zweite Anschlussnetz 7010.
  • Da die Verbindungen des ersten Verbindungsnetzes 7004 kleiner und kürzer sind, ist die Interferenz zwischen sich kreuzenden Verbindungen des ersten Verbindungsnetzes 7004 potentiell kleiner als zwischen sich kreuzenden Verbindungen des zweiten Verbindungsnetzes 7008, und die Kapazität der gesamten Verkabelung ist potentiell kleiner, wenn die Kreuzungen im Verbindungsnetz 7004 so realisiert werden, als ob die Kreuzungen im zweiten Verbindungsnetz 7008 realisiert würden.
  • Beispielsweise kann das zweite Verbindungsnetzwerk 7008 so konfiguriert werden, dass es keine kreuzenden Verbindungen zwischen den Detektorverbindungsstrukturen 7004 und den Multiplexer-Eingängen 7010 gibt. Somit sind die Signalwege, die das zweite Anschlussnetz 7008 nach dem zweiten Anschlussschema zur Verfügung stellt, kurz und weisen keine oder fast keine Kreuzungen auf.
  • Jeder Multiplexer 6814 hat mindestens einen Multiplexerausgang, der elektrisch mit einem jeweils zugehörigen Verstärker 2626, z.B. einem Transimpedanzverstärker (TIA) 2626, verbunden ist. In verschiedenen Ausführungsformen kann genau ein Verstärker 2626 einem jeweils zugehörigen Multiplexer 6814 nachgeschaltet werden, um eine analoge Spannung für ein analoges Fotostromsignal 7012 bereitzustellen, vorausgesetzt, eine Fotodiode 2602 der Empfänger-Fotodiodenanordnung 7002 wird durch den zugehörigen Multiplexer 6814 ausgewählt.
  • Darüber hinaus stehen mehrere Analog-Digital-Wandler 2630 zur Verfügung. Genau ein Analog-Digital-Wandler 2630 ist einem jeweils zugehörigen Verstärker 2626 nachgeschaltet. Jeder Analog-Digital-Wandler 2630 ist so konfiguriert, dass er einen entsprechenden digitalisierten Spannungswert 2632 eines entsprechenden analogen Spannungssignals 2628 liefert, das vom zugehörigen Verstärker 2626 geliefert wird.
  • Allgemeiner ausgedrückt, kann die Position der Detektorverbindungsstrukturen mit einer Strukturpositionsnummer verbunden sein. Die Mehrzahl der Detektorverbindungsstrukturen kann so angeordnet werden, dass die Strukturpositionsnummer entlang der Strukturplatzierungsrichtung, entlang der die Mehrzahl der Detektorverbindungsstrukturen angeordnet sind, zunimmt. Die Fotodioden können entsprechend ihrer Lage in eine Vielzahl von Diodengruppen 7016 gruppiert werden. Die Fotodioden innerhalb einer Diodengruppe 7016 sind entlang der Diodenplatzierungsausrichtung am dichtesten beieinander angeordnet. Die Anzahl der Fotodioden innerhalb jeder Diodengruppe 7016 kann gleich der Anzahl der Multiplexer 6814 sein. Die Detektorverbindungsstrukturen werden entsprechend ihrer Lage in eine Vielzahl von Strukturgruppen gruppiert. Die Detektorverbindungsstrukturen innerhalb einer Strukturgruppe sind entlang einer Strukturplatzierungsorientierung, entlang der die Vielzahl der Detektorverbindungsstrukturen angeordnet sind, am dichtesten beieinander angeordnet. Die Anzahl der Detektorverbindungsstrukturen innerhalb jeder Strukturgruppe ist gleich der Anzahl der Fotodioden 2602 in der Empfänger-Fotodiodenanordnung 7002 geteilt durch die Anzahl der Multiplexer 6814.
  • Das erste Verbindungsnetzwerk 7006 und das zweite Verbindungsnetzwerk 7008 sind so konfiguriert, dass die an denselben Multiplexer 6814 gekoppelten Fotodioden 2602 von der Vielzahl der Multiplexer 6814 aus verschiedenen Diodengruppen 7016 stammen.
  • 71 zeigt einen Überblick über einen Teil 7100 des LIDAR-Sensorsystems, in dem ein Verdrahtungsschema nach verschiedenen Ausführungsformen detaillierter dargestellt ist. 71 zeigt das erste Anschlussschema, das durch das erste Verbindungsnetzwerk 7006 gemäß der oben beschriebenen Tabelle 3 implementiert wurde. Darüber hinaus kann das zweite, durch das zweite Verbindungsnetzwerk 7008 implementierte Anschlussschema ohne kreuzende Verbindungen bereitgestellt werden.
  • Zur Veranschaulichung wird die große Anzahl von Kreuzungsverbindungen von den Signalpfaden mit hoher Kapazität und Übersprechen (z.B. auf der Leiterplatte) auf Signalpfade mit geringerer Kapazität und damit weniger Übersprechen verlagert (z.B. innerhalb der Empfänger-Fotodiodenanordnung 7002).
  • 72 zeigt eine Empfänger-Fotodiodenanordnung, die als Chip-on-Board-Fotodiodenarray 7200 implementiert ist.
  • Das Chip-on-Board-Fotodiodenarray 7200 kann durch ein Halbleitersubstrat 7202 wie z.B. ein Siliziumsubstrat 7202 gebildet werden, in dem die Fotodioden 2602 ausgebildet sind. Das Halbleitersubstrat 7202 kann auf einen Träger 7204, wie z.B. ein PCB 7204, montiert werden. Zusätzlich zu dem Halbleitersubstrat 7202 können verschiedene elektronische Komponenten wie die Multiplexer 6814, die Verstärker 2626 und die Analog-Digital-Wandler 2630 auf dem Träger 7204 montiert werden (nicht in 72 dargestellt). Es ist zu beachten, dass einige oder alle elektronischen Komponenten auch separat angeordnet sein können, z.B. auf einem oder mehreren anderen Trägern montiert, z.B. auf einer oder mehreren weiteren Leiterplatten. Darüber hinaus können Drahtbonds 7206 vorgesehen werden. Jeder Drahtbond 7206 kann jeweils eine Detektorverbindungsstruktur 7004 mit einer Trägerkontaktstruktur 7208 des Trägers 7204 koppeln, die ihrerseits elektrisch leitend mit einem Multiplexereingang (z.B. Multiplexereingang 7010) gekoppelt ist.
  • Zusammenfassend lässt sich sagen, dass bei geeignetem Verdrahtungsschema innerhalb eines Detektorarrays, z.B. innerhalb des Detektorgehäuses (falls zutreffend), die Signalpfade miteinander gekreuzt werden können, ohne die Signalpfade wesentlich zu verlängern und mit einer wesentlich geringeren kapazitiven Kopplung, da die Abmessungen der Leiterbahnen auf dem Fotodiodenarray-Chip wesentlich kleiner sind als die Abmessungen der Leiterbahnen auf der Leiterplatte. Soll z.B. ein Detektor 52 mit 32 Fotodiode 2602 zu acht Diodengruppen 7016 gruppiert werden, wobei jede Diodengruppe 7016 vier Fotodioden 2602 besitzt, da eine Realisierung von nur acht Verstärkerschaltungen bzw. Verstärkern 2626 gewünscht wird, so ist es möglich, die Fotodioden 2602 an den Stellen i, 8 + i, 16 + i und 24 + i über jeweils einen Multiplexer 6814 mit dem i-ten Verstärker 2626 zu verbinden. Somit ist es möglich, die Diodengruppen 7016 in einer LIDAR-Anwendung separat zu beleuchten, was die Anzahl der erforderlichen Sendelichtquelle(n) 42 reduzieren kann, z.B. Sende-Laserquelle(n) 42.
  • In verschiedenen Ausführungsformen wird die Lichtquelle 42 und darin z.B. die Mehrzahl der Laserdioden von einem Controller so gesteuert, dass nicht alle Laserdioden ständig Licht aussenden, sondern jeweils nur eine Laserdiode (oder Gruppe von Laserdioden) aktiv ist, um einen Lichtpunkt zu emittieren, dessen Reflexion von entsprechenden Fotodioden 2602 der Mehrzahl von Fotodioden 2602, genauer von Fotodioden einer vordefinierten Diodengruppe 7016, wie oben beschrieben, empfangen wird.
  • Verschiedene Ausführungsformen, wie unter 68 bis 72 beschrieben, können zusammen mit dem Multilinsen-Array, wie unter 89 bis 97 beschrieben, verwendet werden.
  • Darüber hinaus kann in verschiedenen Ausführungsformen der eine oder mehrere Multiplexer der Ausführungsformen, wie unter Bezugnahme auf 68 bis 72 beschrieben, durch eine Schaltung des Unterdrückungsmechanismus, wie unter Bezugnahme auf 46 bis 50 beschrieben, ersetzt werden. In diesem Fall kann ein Multiplexereingang einem APD-Sensorpin entsprechen, wie unter Bezugnahme auf 46 bis 50 beschrieben.
  • In verschiedenen Ausführungsformen kann ein von einer digitalen Karte (z.B. einer digitalen Verkehrskarte) bereitgestelltes Verkehrssignal zur angepassten Steuerung der Multiplexer verwendet werden. Beispielsweise können bestimmte Sensorpixel beim Ausleseprozess übersprungen werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1h ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Vielzahl von Fotodioden, eine Schnittstelle mit Detektorverbindungsstrukturen und ein erstes Verbindungsnetzwerk umfassen, das die Vielzahl von Fotodioden mit den Detektorverbindungsstrukturen elektrisch koppelt. Das erste Verbindungsnetzwerk ist so konfiguriert, dass es die Vielzahl von Fotodioden mit den Detektorverbindungsstrukturen gemäß einem ersten Verbindungsschema koppelt. Das LIDAR-Sensorsystem kann ferner eine Vielzahl von Multiplexern aufweisen, wobei jeder Multiplexer eine Vielzahl von Multiplexer-Eingängen und mindestens einen Multiplexer-Ausgang umfasst, und ein zweites Verbindungsnetzwerk, das die Detektor-Verbindungsstrukturen mit der Vielzahl von Multiplexer-Eingängen elektrisch koppelt. Das zweite Verbindungsnetzwerk ist so konfiguriert, dass es die Detektorverbindungsstrukturen mit der Mehrzahl von Multiplexer-Eingängen gemäß einem zweiten Verbindungsschema koppelt. Das erste Verbindungsnetzwerk umfasst eine größere Anzahl von sich kreuzenden Verbindungen als das zweite Verbindungsnetzwerk.
    • In Beispiel 2h kann der Gegenstand von Beispiel 1h optional umfassen, dass die Position einer Fotodiode aus der Vielzahl der Fotodioden mit einer Diodenpositionsnummer assoziiert wird. Die Vielzahl von Fotodioden kann so angeordnet werden, dass die Diodenpositionsnummer entlang einer Diodenpositionsorientierung, entlang der die Vielzahl von Fotodioden angeordnet ist, zunimmt. Die Position der Detektorverbindungsstrukturen ist einer Strukturpositionsnummer zugeordnet, wobei die Vielzahl von Detektorverbindungsstrukturen so angeordnet sind, dass die Strukturpositionsnummer entlang einer Strukturplazierungsorientierung, entlang der die Vielzahl von Detektorverbindungsstrukturen angeordnet sind, zunimmt. Die Fotodioden werden entsprechend ihrer Lage in eine Vielzahl von Diodengruppen gruppiert. Die Fotodioden innerhalb einer Diodengruppe sind entlang einer Diodenplatzierungsorientierung am dichtesten beieinander angeordnet. Die Anzahl der Fotodioden innerhalb jeder Diodengruppe kann gleich der Anzahl der Multiplexer sein. Die Detektorverbindungsstrukturen werden entsprechend ihrer Lage in eine Vielzahl von Strukturgruppen gruppiert. Die Detektorverbindungsstrukturen innerhalb einer Strukturgruppe sind am dichtesten beieinander entlang einer Strukturplatzierungsorientierung angeordnet, entlang der die Mehrzahl der Detektorverbindungsstrukturen angeordnet sind. Die Anzahl der Detektorverbindungsstrukturen innerhalb jeder Strukturgruppe ist gleich der Anzahl der Fotodioden in der Empfänger-Fotodiodenanordnung geteilt durch die Anzahl der Multiplexer.
    • In Beispiel 3h kann der Gegenstand eines der Beispiele 1h oder 2h optional umfassen, dass das erste Verbindungsnetzwerk und das zweite Verbindungsnetzwerk so konfiguriert sind, dass die an denselben Multiplexer der Vielzahl von Multiplexern gekoppelten Fotodioden aus unterschiedlichen Diodengruppen stammen.
    • In Beispiel 4h kann der Gegenstand von Beispiel 3h optional umfassen, dass der Standort einer Fotodiode aus der Vielzahl der Fotodioden mit einer Diodenstandortnummer assoziiert wird. Die Vielzahl der Fotodioden ist so angeordnet, dass die Diodenpositionsnummer entlang einer Diodenpositionsorientierung, entlang der die Vielzahl der Fotodioden angeordnet ist, zunimmt. Die Fotodioden sind in eine Vielzahl von Diodengruppen in Übereinstimmung mit ihrer Lage gruppiert. Die Fotodioden innerhalb einer Diodengruppe sind entlang der Diodenplatzierungsausrichtung am dichtesten beieinander angeordnet. Die Lage der Detektorverbindungsstrukturen ist mit einer Strukturlage verbunden. Die Mehrzahl der Detektorverbindungsstrukturen ist so angeordnet, dass die Strukturpositionsnummer entlang einer Strukturplatzierungsorientierung, entlang der die Mehrzahl der Detektorverbindungsstrukturen angeordnet ist, zunimmt. Das erste Verbindungsschema ist so konfiguriert, dass eine Detektorverbindungsstruktur, die einer Strukturpositionsnummer in binärer Darstellung zugeordnet ist, mit der Fotodiode der Vielzahl von Fotodioden gekoppelt ist, die der Diodenpositionsnummer zugeordnet ist, die die Rückseite der Diodenpositionsnummer in binärer Darstellung als Strukturpositionsnummer hat.
    • In Beispiel 5h kann der Gegenstand eines der Beispiele 1h bis 4h optional umfassen, dass das LIDAR-Sensorsystem außerdem ein Detektorgehäuse und eine Vielzahl von Fotodioden aufweist, die im Detektorgehäuse angeordnet sind.
    • In Beispiel 6h kann der Gegenstand eines der Beispiele 1h bis 4h optional umfassen, dass die Mehrzahl der Fotodioden als Chip-on-Board-Fotodioden montiert sind.
    • In Beispiel 7h kann der Gegenstand eines der Beispiele 1h bis 6h optional umfassen, dass die Verbindungsstrukturen Verbindungspins oder Verbindungspads sind.
    • In Beispiel 8h kann der Gegenstand eines der Beispiele 1h bis 7h optional umfassen, dass das LIDAR-Sensorsystem ferner Einkapselungsmaterial umfasst, das die Vielzahl der Fotodioden zumindest teilweise einkapselt.
    • In Beispiel 9h kann der Gegenstand von Beispiel 8h optional umfassen, dass das erste Verbindungsnetzwerk zumindest teilweise in dem Einkapselungsmaterial gebildet wird.
    • In Beispiel 10h kann der Gegenstand eines der Beispiele 1h bis 9h optional umfassen, dass die Anzahl der Fotodioden innerhalb jeder Diodengruppe gleich der Anzahl der Multiplexer sein kann.
    • In Beispiel 11h kann der Gegenstand eines der Beispiele 1h bis 10h optional umfassen, dass das erste Verbindungsnetzwerk in einer Vielzahl von Metallisierungsebenen innerhalb der Empfänger-Fotodiodenanordnung gebildet wird.
    • In Beispiel 12h kann der Gegenstand eines der Beispiele 1h bis 11h optional umfassen, dass das LIDAR-Sensorsystem zusätzlich eine Leiterplatte aufweist. Das zweite Verbindungsnetzwerk wird auf der Leiterplatte gebildet.
    • In Beispiel 13h kann der Gegenstand eines der Beispiele 1h bis 12h optional umfassen, dass das LIDAR-Sensorsystem ferner eine Vielzahl von Verstärkern umfasst, die mit der Vielzahl von Multiplexern nachgeschaltet sind.
    • In Beispiel 14h kann der Gegenstand von Beispiel 13h optional umfassen, dass die Mehrzahl von Verstärkern eine Mehrzahl von Transimpedanzverstärkern umfasst.
    • In Beispiel 15h kann der Gegenstand eines der Beispiele 1h bis 14h optional umfassen, dass die Ausrichtung der Diodenplatzierung eine lineare Ausrichtung ist. Die Ausrichtung der Strukturplatzierung ist eine lineare Ausrichtung.
    • In Beispiel 16h kann der Gegenstand eines der Beispiele 1h bis 15h optional umfassen, dass die Mehrzahl der Multiplexer mindestens vier Multiplexer umfasst.
    • In Beispiel 17h kann der Gegenstand von Beispiel 16h optional umfassen, dass die Mehrzahl der Multiplexer mindestens sechs Multiplexer umfasst.
    • In Beispiel 18h kann der Gegenstand von Beispiel 17h optional umfassen, dass die Mehrzahl der Multiplexer mindestens acht Multiplexer umfasst.
    • In Beispiel 19h kann der Gegenstand von Beispiel 18h optional umfassen, dass die Mehrzahl der Multiplexer mindestens sechzehn Multiplexer umfasst.
    • In Beispiel 20h kann der Gegenstand eines der Beispiele 1h bis 19h optional umfassen, dass das LIDAR-Sensorsystem ferner eine Lichtquelle aufweist, die so konfiguriert ist, dass sie einen Lichtstrahl aussendet, der von einer Fotodiode einer Diodengruppe aus einer Vielzahl von Diodengruppen empfangen wird, sowie eine Sensorsteuerung, die so konfiguriert ist, dass sie ein Auslesen des Fotostroms der Fotodioden steuert (2602).
    • In Beispiel 21h kann der Gegenstand von Beispiel 20h optional umfassen, dass die Lichtquelle eine Laserquelle aufweist oder im Wesentlichen aus einer Laserquelle besteht, die so konfiguriert ist, dass sie einen oder mehrere Laserstrahlen aussendet.
    • In Beispiel 22h kann der Gegenstand von Beispiel 21h optional umfassen, dass die Laserquelle eine Vielzahl von Laserdioden aufweist, die so konfiguriert sind, dass sie einen Lichtstrahl aussenden, der von allen Fotodioden einer Diodengruppe aus einer Vielzahl von Diodengruppen empfangen wird.
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einer LIDAR-Sensoreinrichtung zur Beleuchtung eines Umgebungsraumes kombiniert werden, die mit einer Lichtsteuereinheit verbunden ist.
  • Im LIDAR-Sensorsystem kann als eine Kombination aus einem LIDAR-Sensor und einem Kamerasensor erwünscht sein, um z.B. ein Objekt oder Eigenschaften eines Objekts durch Datenfusion zu identifizieren. Darüber hinaus kann je nach Situation entweder eine dreidimensionale Messung mittels eines LIDAR-Sensors oder eine zweidimensionale Abbildung mittels eines Kamerasensors erwünscht sein. Beispielsweise kann ein LIDAR-Sensor allein in der Regel nicht feststellen, ob die Rücklichter eines Fahrzeugs ein- oder ausgeschaltet sind.
  • In einer konventionellen Kombination aus einem LIDAR-Sensor und einem Kamerasensor sind zwei getrennte Bildsensoren vorgesehen, die durch eine geeignete optische Anordnung (z.B. halbtransparente Spiegel, Prismen o.ä.) kombiniert werden. Dies hat zur Folge, dass ein relativ großer LIDAR-Sensorraum benötigt wird und beide Teiloptiken der Optikanordnung und beide Sensoren (LIDAR-Sensor und Kamerasensor) mit hoher Genauigkeit zueinander ausgerichtet werden müssen. Alternativ müssen bei zwei getrennten Abbildungssystemen und damit zwei Sensoren die relativen Positionen der optischen Achsen der beiden Sensoren zueinander mit hoher Genauigkeit bestimmt werden, um Effekte, die sich aus dem geometrischen Abstand der Sensoren zueinander ergeben, in einer nachfolgenden Bildverarbeitung zur genauen Anpassung der von den Sensoren gelieferten Bilder berücksichtigen zu können. Weiterhin sollten auch Abweichungen der relativen Orientierung der optischen Achsen der Sensoren zueinander berücksichtigt werden, da sie sich auf den Kalibrierzustand auswirken. Dabei kann auch die Tatsache berücksichtigt werden, dass die Sichtfelder der beiden Sensoren nicht notwendigerweise miteinander übereinstimmen und dass möglicherweise in einem Bereich in unmittelbarer Nähe der Sensoren Bereiche existieren, in denen ein Objekt nicht von allen Sensoren des einen oder mehrerer anderer Sensoren gleichzeitig erfasst werden kann.
  • Verschiedene Aspekte dieser Offenbarung können eine LIDAR-Funktionalität bei zwei verschiedenen Wellenlängen oder die Kombination einer LIDAR-Funktion und einer Kamerafunktion in einem sichtbaren Wellenlängenbereich oder die Kombination einer LIDAR-Funktion und einer Kamerafunktion in einem Wellenlängenbereich des thermischen Infrarots vorsehen, wie im Folgenden näher beschrieben wird.
  • Bei einem konventionellen LIDAR-Sensorsystem wird in der Regel eine Kombination einer LIDAR-Funktion mit einer Kamerafunktion durch zwei getrennte Sensorsysteme realisiert und die relative Lage der Sensorsysteme zueinander in der Bildverarbeitung berücksichtigt. Im Zusammenhang mit einer (Film- oder Video-)Kamera gibt es den Ansatz, anstelle eines CCD/CMOS-Bildsensorarrays mit Farbfiltern (Bayer-Muster) drei einzelne Bildsensoren zu verwenden. Das einfallende Licht kann mit Hilfe einer Optikanordnung mit vollflächigen Farbfiltern (z.B. einem trichroitischen Strahlenteilerprisma) auf die drei Bildsensoren verteilt werden. Im Zusammenhang mit einer konventionellen Fotokamera wurde versucht, die nachteiligen Effekte des Bayer-Muster-Farbfilters zu vermeiden, indem ein CMOS-Bildsensor bereitgestellt wurde, der die wellenlängenabhängige Absorption von Silizium nutzt, um verschiedene Spektralfarben in unterschiedlichen Eindringtiefen zu registrieren.
  • Zur Illustration: Das physikalische Prinzip der wellenlängenabhängigen Eindringtiefe von Licht in einen Träger wie z.B. ein Halbleitersubstrat (z.B. Silizium), das (bisher) nur für Fotoanwendungen verwendet wurde, wird im Bereich der Integration eines LIDAR-Sensors und eines Kamerasensors nach verschiedenen Ausführungsformen genutzt.
  • Um dies zu erreichen, können zwei oder mehr verschiedene Typen von Fotodioden übereinander gestapelt werden, d.h. ein Typ Fotodiode wird über einen anderen Typ Fotodiode platziert. Dies kann z.B. durch eine monolithische Integration der verschiedenen Typen von Fotodioden in einem gemeinsamen Herstellungsprozess (oder andere Arten von Integrationsprozessen wie Wafer-Bonding oder andere dreidimensionale PIN-Fotodiode zur Detektion von sichtbarem Licht (z.B. roter Spektralbereich zur Detektion von Autorücklichtern) nahe der Oberfläche des Trägers (z.B. Substrat) vorgesehen werden. In einem tieferen Bereich des Trägers (z.B. in einem tieferen Bereich des Substrats) kann eine Avalanche-Fotodiode (APD) vorgesehen werden, die so konfiguriert werden kann, dass sie von einem Laserstrahler emittiertes Licht mit einer Wellenlänge im nahen Infrarotbereich (NIR) detektiert. Das rote Licht kann in diesem Fall aufgrund der geringeren Eindringtiefe nahe der Oberfläche der PIN-Fotodiode detektiert werden. Wesentlich weniger Teile des Lichts des sichtbaren Spektrums (VIS) können in diesem Fall in den tieferen Bereich (z.B. tiefere Schichten) eindringen, so dass die dort eingesetzte Lawinenfotodiode primär für NIR-Licht empfindlich ist.
  • Das Stapeln der Fotodioden übereinander kann dabei nützlich sein:
    • - die Sensorfunktionen von PIN-Fotodioden (Kamera) und APD (LIDAR) sind immer genau aufeinander abgestimmt und es wird nur eine Empfangsoptik benötigt - in verschiedenen Ausführungsformen können CCD- oder CMOS-Sensoren vorgesehen sein - darüber hinaus kann die Kamera als Infrarot (IR)-Kamera, als Kamera für sichtbares Licht oder als Wärmebildkamera oder eine Kombination daraus konfiguriert werden;
    • - einfallendes Licht wird effizient genutzt.
  • 51 zeigt schematisch im Querschnitt eine optische Komponente 5100 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
  • Die optische Komponente 5100 kann einen Träger aufweisen, der ein Substrat aufweisen kann, z.B. mit einem Halbleitermaterial und/oder einem Halbleiterverbundmaterial. Beispiele für Materialien, die für den Träger und/oder die Halbleiterstruktur verwendet werden können, sind eines oder mehrere der folgenden Materialien: GaAs, AlGaInP, GaP, AIP, AlGaAs, GaAsP, GalnN, GaN, Si, SiGe, Ge, HgCdTe, InSb, InAs, GalnSb, GaSb, CdSe, HgSe, AlSb, CdS, ZnS, ZnSb, ZnTe. Das Substrat kann optional eine Bauelementeschicht 5102 aufweisen. Ein oder mehrere elektronische Bauelemente 5104 wie (Feldeffekt-)Transistoren 5104 oder andere elektronische Bauelemente (Widerstände, Kondensatoren, Induktivitäten und dergleichen) 5104 können ganz oder teilweise in der Bauelementschicht 5102 ausgebildet sein. Das eine oder die mehreren elektronischen Bauelemente 5104 können so konfiguriert werden, dass sie Signale verarbeiten, die von der ersten Fotodiode 5110 und der zweiten Fotodiode 5120 erzeugt werden, was im Folgenden näher beschrieben wird. Das Substrat kann optional eine untere Verbindungsschicht 5106 aufweisen. Alternativ kann die Zwischenverbindungsschicht 5106 als separate Schicht konfiguriert werden, z.B. als separate Schicht, die über der Bauelementschicht 5102 angeordnet ist (wie in 51 gezeigt). Der Träger kann eine Dicke im Bereich von etwa 100 µm bis etwa 3000 µm haben.
  • Ein oder mehrere elektronische Kontakte 5108, die so konfiguriert sind, dass sie die elektronischen Bauelementen 5104 oder eine Anode oder eine Kathode einer ersten Fotodiode 5110 kontaktieren, mit anderen Worten, ein erster Teil der ersten Fotodiode 5110 (die weiter unten ausführlicher beschrieben werden), kann mit einem elektronischen Kontakt 5108 der unteren Verbindungsschicht 5106 verbunden werden. Darüber hinaus können ein oder mehrere Kontaktdurchkontaktierungen 5112 in der unteren Zwischenverbindungsschicht 5106 gebildet werden. Das eine oder die mehreren Kontaktdurchkontaktierungen 5112 erstrecken sich durch die gesamte Schichtstruktur, die die erste Fotodiode 5110 in eine Zwischenverbindungs-/Bauelementschicht 5114 implementiert. Der eine oder die mehreren elektronischen Kontakte 5108 sowie der eine oder die mehreren Kontaktdurchkontaktierungen 5112 können aus elektrisch leitfähigem Material wie einem Metall (z.B. Cu oder AI) oder einem anderen geeigneten elektrisch leitfähigen Material bestehen. Der eine oder die mehreren elektronischen Kontakte 5108 und der eine oder die mehreren Kontaktdurchkontaktierungen 5112 können ein elektrisch leitendes Verbindungsnetzwerk in der unteren Verbindungsschicht 5106 bilden.
  • Die erste Fotodiode 5110 kann eine Fotodiode vom Lawinentyp sein, wie z.B. eine Lawinenfotodiode (APD) oder eine Einzelphotonen-Fotodiode (SPAD). Die erste Fotodiode 5110 kann im linearen Modus/im Geiger-Modus betrieben werden. Zur Veranschaulichung: Die erste Fotodiode 5110 implementiert ein LIDAR-Sensorpixel in einer ersten Halbleiterstruktur über dem Träger. Die erste Fotodiode 5110 ist so konfiguriert, dass sie empfangenes Licht in einem ersten Wellenlängenbereich absorbiert. Die erste Fotodiode 5110 und damit die erste Halbleiterstruktur kann eine Schichtdicke im Bereich von etwa 500 nm bis etwa 50 µm aufweisen.
  • Ein oder mehrere weitere elektronische Bauelemente 5116 wie z.B. (Feldeffekt-)Transistoren 5116 oder andere weitere elektronische Bauelemente (Widerstände, Kondensatoren, Induktivitäten u.ä.) 5116 können ganz oder teilweise in der Zwischenverbindungs-/Bauelementeschicht 5114 ausgebildet sein. Ein oder mehrere weitere elektronische Kontakte 5118, die für den Kontakt mit den weiteren elektronischen Bauelementen 5116 konfiguriert sind, oder eine Anode oder eine Kathode der ersten Fotodiode 5110, mit anderen Worten ein zweiter Teil der ersten Fotodiode 5110, können mit einem weiteren elektronischen Kontakt 5118 der Zwischenverbindungs-/Bauelementschicht 5114 verbunden werden. Der eine oder die mehreren weiteren elektronischen Kontakte 5118 und der eine oder die mehreren Kontaktdurchkontaktierungen 5112 können ein elektrisch leitendes Verbindungsnetzwerk (elektrisch leitende Struktur, die so konfiguriert ist, dass sie die erste Fotodiode 5110 und die zweite Fotodiode 5120 elektrisch kontaktiert) in der Zwischenverbindungs-/Bauelementschicht 5114 bilden. Zur Veranschaulichung: Die Zwischenverbindungs-/Bauelementschicht 5114 (die auch als Verbindungsschicht 5114 bezeichnet werden kann) ist zwischen der ersten Halbleiterstruktur und der zweiten Halbleiterstruktur angeordnet.
  • Ein oder mehrere weitere elektronische Kontakte 5118 und/oder ein oder mehrere Kontaktdurchkontaktierungen 5112 können so konfiguriert werden, dass sie die weiteren elektronischen Bauelemente 5116 oder eine Anode oder eine Kathode einer zweiten Fotodiode 5120 kontaktieren, d.h. ein erster Teil der zweiten Fotodiode 5120 (der weiter unten näher beschrieben wird) kann mit einem weiteren elektronischen Kontakt 5118 der Zwischenverbindungs-/Bauelementschicht 5114 verbunden werden.
  • Die zweite Fotodiode 5120 kann über (z.B. in direktem physischen Kontakt mit) der Zwischenverbindungs-/Bauelementschicht 5114 angeordnet werden. Die zweite Fotodiode 5120 kann eine PIN-Fotodiode sein (z.B. konfiguriert, um Licht des sichtbaren Spektrums zu empfangen). Zur Veranschaulichung: Die zweite Fotodiode 5120 implementiert einen Kamerasensorpixel in einer zweiten Halbleiterstruktur über der Zwischenverbindungs-/Bauelementschicht 5114 und damit auch über der ersten Halbleiterstruktur. Mit anderen Worten, die zweite Fotodiode 5120 ist vertikal über der ersten Fotodiode gestapelt. Die zweite Fotodiode 5120 ist so konfiguriert, dass sie empfangenes Licht in einem zweiten Wellenlängenbereich absorbiert. Das empfangene Licht des zweiten Wellenlängenbereichs hat eine kürzere Wellenlänge als das überwiegend empfangene Licht des ersten Wellenlängenbereichs.
  • 52A und 52B zeigen schematisch im Querschnitt eine optische Komponente 5200 für ein LIDAR-Sensorsystem (52A) und ein entsprechendes Wellenlängen-/Transmissionsdiagramm 5250 (52B) nach verschiedenen Ausführungsformen.
  • Die optische Komponente 5200 von 52A ähnelt im Wesentlichen der optischen Komponente 5100 von 51, wie oben beschrieben. Daher werden im Folgenden nur die Hauptunterschiede der optischen Komponente 5200 von 52A gegenüber der optischen Komponente 5100 von 51 näher beschrieben.
  • Die optische Komponente 5200 von 52A kann ferner optional eine oder mehrere Mikrolinsen 5202 aufweisen, die über der zweiten Fotodiode 5120 angeordnet werden können (z.B. direkt darüber, also in physischem Kontakt mit der zweiten Fotodiode 5120). Die eine oder mehrere Mikrolinsen 5202 können in ein geeignetes Füllmaterial 5204, wie z.B. Silikon, eingebettet oder zumindest teilweise von diesem umgeben sein. Die eine oder mehrere Mikrolinse(n) 5202 zusammen mit dem Füllstoff 5204 können für einen Schichtaufbau eine Schichtdicke im Bereich von etwa 1 µm bis etwa 500 µm aufweisen.
  • Darüber hinaus kann eine Filterschicht 5206, die zur Realisierung eines Bandpassfilters konfiguriert werden kann, über der optionalen einen oder mehreren Mikrolinsen 5202 oder der zweiten Fotodiode 5120 angeordnet werden (z.B. direkt darüber, d.h. in physischem Kontakt mit dem optionalen Füllmaterial 5204 oder mit der zweiten Fotodiode 5120). Die Filterschicht 5206 kann eine Schichtdicke im Bereich von etwa 1 µm bis etwa 500 µm haben.
  • Wie in 52A gezeigt, trifft Licht auf die obere (freiliegende) Oberfläche 5208 der Filterschicht 5206. Das Licht kann verschiedene Wellenlängen umfassen, wie z.B. einen ersten Wellenlängenbereich □1 (z.B. im ultravioletten Spektralbereich), einen zweiten Wellenlängenbereich □2 (z.B. im sichtbaren Spektralbereich) und einen dritten Wellenlängenbereich □3 (z.B. im nahen infraroten Spektralbereich). Licht mit der ersten Wellenlänge □1 wird in 52A durch einen ersten Pfeil 5210 symbolisiert. Licht mit der zweiten Wellenlänge □2 wird in 52A durch einen zweiten Pfeil 5212 symbolisiert. Licht mit der dritten Wellenlänge □3 wird in 52A durch einen dritten Pfeil 5214 symbolisiert.
  • Das in 52B gezeigte Wellenlängen/Transmissionsdiagramm 5250 veranschaulicht die wellenlängenabhängige Transmissionscharakteristik der Filterschicht 5206. Wie dargestellt, hat die Filterschicht 5206 eine Bandpassfiltercharakteristik. Genauer gesagt hat die Filterschicht 5206 eine geringe, idealerweise vernachlässigbare Transmission für Licht des ersten Wellenlängenbereichs □1. Mit anderen Worten, die Filterschicht 5206 kann die Lichtanteile mit dem ersten Wellenlängenbereich □1, die auf die obere (freiliegende) Oberfläche 5208 der Filterschicht 5206 auftreffen, vollständig blockieren. Darüber hinaus zeigt die Transmissionscharakteristik 5252, dass die Filterschicht 5206 für Licht mit dem zweiten Wellenlängenbereich □2 und für Licht mit dem dritten Wellenlängenbereich □3 im Wesentlichen vollständig transparent ist (Transmissionsfaktor nahe „1“).
  • In verschiedenen Ausführungsformen kann die zweite Fotodiode 5120 eine PIN-Fotodiode aufweisen oder eine solche sein (konfiguriert, um Licht des sichtbaren Spektrums zu erfassen) und die erste Fotodiode 5110 eine Lawinenfotodiode aufweisen oder eine solche sein (im linearen Modus/im Geiger-Modus) (konfiguriert, um Licht des nahen Infrarot (NIR)-Spektrums oder im Infrarot (IR)-Spektrum zu erfassen).
  • 53A und 53B zeigen schematisch im Querschnitt eine optische Komponente 5300 für ein LIDAR-Sensorsystem (53A) und ein entsprechendes Wellenlängen-/Transmissionsdiagramm 5250 (53B) entsprechend verschiedener Ausführungsformen.
  • Die optische Komponente 5300 von 53A ähnelt im Wesentlichen der optischen Komponente 5200 von 52A, wie oben beschrieben. Daher werden im Folgenden nur die Hauptunterschiede der optischen Komponente 5300 von 53A von der optischen Komponente 5200 von 52A näher beschrieben.
  • Die optische Komponente 5300 von 53A kann ferner optional eine Spiegelstruktur (z.B. eine Bragg-Spiegelstruktur) aufweisen. Die zweite Fotodiode 5120 kann zwischen den beiden Spiegeln (z.B. zwei Bragg-Spiegeln) 5302, 5304 der Spiegelstruktur angeordnet (d.h. sandwichartig) sein. Mit anderen Worten, die optische Komponente 5300 von 53A kann ferner optional einen unteren Spiegel (z.B. einen unteren Bragg-Spiegel) 5302 aufweisen. Der untere Spiegel (z.B. der untere Bragg-Spiegel) 5302 kann über (z.B. in direktem physischen Kontakt mit) der Zwischenverbindungs-/Bauteilschicht 5114 angeordnet werden. In diesem Fall kann die zweite Fotodiode 5120 über (z.B. in direktem physischen Kontakt mit) dem unteren Spiegel 5302 angeordnet werden (z.B. in direktem physischen Kontakt mit). Darüber hinaus kann ein oberer Spiegel (z.B. ein oberer Bragg-Spiegel) 5304 über (z.B. in direktem physischen Kontakt mit) der zweiten Fotodiode 5120 angeordnet werden. In diesem Fall können die optionale(n) Mikrolinse(n) 5202 oder die Filterschicht 5206 über (z.B. in direktem physischen Kontakt mit) dem oberen Spiegel 5304 angeordnet werden.
  • In verschiedenen Ausführungsformen kann die zweite Fotodiode 5120 eine PIN-Fotodiode aufweisen oder eine solche sein (konfiguriert, um Licht des sichtbaren Spektrums zu erfassen) und die erste Fotodiode 5110 eine Lawinenfotodiode aufweisen oder eine solche sein (im linearen Modus/im Geiger-Modus) (konfiguriert, um Licht des nahen Infrarot (NIR)-Spektrums oder im Infrarot (IR)-Spektrum zu erfassen).
  • 54 zeigt schematisch einen Querschnitt 5400 eines Sensors 52 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen. Wie in 54 gezeigt, kann der Sensor 52 eine Vielzahl optischer Komponenten (z.B. eine Vielzahl optischer Komponenten 5100 wie in 51 gezeigt) in Übereinstimmung mit einer der Ausführungsformen, wie oben beschrieben oder wie weiter unten beschrieben, aufweisen. Die optischen Komponenten können in einem Array, z.B. in einer Matrixanordnung, z.B. in Zeilen und Spalten, angeordnet sein. In verschiedenen Ausführungsformen können mehr als 10, oder mehr als 100, oder mehr als 1000, oder mehr als 10000, und sogar noch mehr optische Komponenten vorgesehen werden.
  • 55 zeigt eine Draufsicht 5500 des Sensors 52 aus 54 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen. Die Draufsicht 5500 zeigt eine Vielzahl von Farbfilterabschnitten (jeder Farbfilter kann als Filterschicht 5206 implementiert sein). Die verschiedenen Farbfilterabschnitte können so konfiguriert werden, dass sie Licht unterschiedlicher Wellenlängen im sichtbaren Spektrum (das von der zweiten Fotodiode 5120 erfasst wird) und Licht einer oder mehrerer Wellenlängen, das von der ersten Fotodiode 5110 für die LIDAR-Erfassung absorbiert oder erfasst wird, durchlassen (übertragen). Beispielsweise kann ein Rot-Pixel-Filterabschnitt 5502 so konfiguriert werden, dass er Licht mit einer Wellenlänge zur Darstellung der roten Farbe (zu erfassen durch die zweite Fotodiode 5120) und Licht mit einer oder mehreren Wellenlängen, das durch die erste Fotodiode 5110 für die LIDAR-Erfassung absorbiert oder erfasst wird, durchlässt und Licht außerhalb dieser Wellenlängenbereiche blockiert. Darüber hinaus kann ein grüner Pixelfilterabschnitt 5504 so konfiguriert werden, dass er Licht mit einer Wellenlänge zur Darstellung der grünen Farbe (von der zweiten Fotodiode 5120 zu erfassen) und Licht einer oder mehrerer Wellenlängen, das von der ersten Fotodiode 5110 zur LIDAR-Erfassung absorbiert oder erfasst wird, durchlässt und Licht außerhalb dieser Wellenlängenbereiche blockiert. Darüber hinaus kann ein Blaupixel-Filterabschnitt 5506 so konfiguriert werden, dass er Licht mit einer Wellenlänge zur Darstellung der blauen Farbe (von der zweiten Fotodiode 5120 zu erfassen) und Licht mit einer oder mehreren Wellenlängen, das von der ersten Fotodiode 5110 zur LIDAR-Erfassung absorbiert oder erfasst wird, durchlässt und Licht außerhalb dieser Wellenlängenbereiche blockiert. Die Farbfilterabschnitte 5502, 5504, 5506 können jeweils die laterale Größe haben, die einem Sensorpixel entspricht, in diesem Fall eine Größe, die den lateralen Größen der zweiten Fotodiode 5120 entspricht. In diesen Ausführungsformen können die zweiten Fotodioden 5110 die gleiche laterale Größe wie die zweiten Fotodioden 5120 haben. Die Farbfilterteile 5502, 5504, 5506 können nach einem Bayer-Muster angeordnet werden.
  • 56 zeigt eine Draufsicht 5600 eines Sensors 52 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
  • Der Sensor von 56 ist dem Sensor von 55, wie oben beschrieben, im Wesentlichen ähnlich. Daher wird im Folgenden nur der Hauptunterschied des Sensors von 56 zum Sensor von 55 näher beschrieben.
  • In verschiedenen Ausführungsformen können die Farbfilterteile 5502, 5504, 5506 jeweils eine laterale Größe haben, die einem Sensorpixel entspricht, in diesem Fall eine Größe ähnlich der lateralen Größe der zweiten Fotodiode 5120. In diesen Ausführungsformen können die ersten Fotodioden 5110 eine größere laterale Größe haben als die zweiten Fotodioden 5120. Zum Beispiel kann die Oberfläche der ersten Fotodiode 5110 größer sein als die Oberfläche der zweiten Fotodiode 5120. In einer Implementierung kann die Oberfläche der ersten Fotodiode 5110 um den Faktor zwei oder vier, um den Faktor acht oder um den Faktor sechzehn größer sein als die Oberfläche der zweiten Fotodiode 5120. Die größere Fläche der ersten Fotodioden 5110 wird in 56 durch Rechtecke 5602 symbolisiert. Die Farbfilteranteile 5502, 5504, 5506 können auch nach einem Bayer-Muster angeordnet werden. In diesen Beispielen ist die Auflösung der ersten Fotodioden 5110 möglicherweise nicht von großer Bedeutung, aber die Empfindlichkeit der ersten Fotodioden 5110 kann wichtig sein.
  • 57 zeigt eine Draufsicht 5700 eines Sensors 52 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
  • Der Sensor von 57 ist dem Sensor von 55, wie oben beschrieben, im Wesentlichen ähnlich. Daher wird im Folgenden nur der Hauptunterschied des Sensors von 57 zum Sensor von 55 näher beschrieben.
  • Die Draufsicht 5700 zeigt eine Vielzahl von Farbfilterabschnitten (jeder Farbfilter kann als Filterschicht 5206 implementiert sein), die sich von den Farbfilterabschnitten des Sensors unterscheiden, wie in 55 oder 56 dargestellt. In diesen Beispielen kann ein Rot-Pixel-Filterabschnitt 5702 so konfiguriert sein, dass er Licht mit einer Wellenlänge zur Darstellung der roten Farbe (die von der zweiten Fotodiode 5120 erfasst werden muss, um ein Rücklicht eines Fahrzeugs zu erfassen) und Licht mit einer oder mehreren Wellenlängen durchlässt, das von der ersten Fotodiode 5110 für die LIDAR-Erfassung absorbiert oder erfasst wird und Licht außerhalb dieser Wellenlängenbereiche blockiert. Darüber hinaus kann ein gelber (oder orangefarbener) Pixelfilterabschnitt 5704 so konfiguriert werden, dass er Licht mit einer Wellenlänge zur Darstellung der Farbe Gelb (oder Orange) (das von der zweiten Fotodiode 5120 erfasst wird, um ein Warnlicht oder ein Blinklicht eines Fahrzeugs zu erfassen) und Licht mit einer oder mehreren Wellenlängen, das von der ersten Fotodiode 5110 für die LIDAR-Erfassung absorbiert oder erfasst wird, durchlässt und Licht außerhalb dieser Wellenlängenbereiche blockiert. In diesen Ausführungsformen können die ersten Fotodioden 5110 eine größere laterale Größe haben als die zweiten Fotodioden 5120. Zum Beispiel kann die Oberfläche der ersten Fotodiode 5110 größer sein als die Oberfläche der zweiten Fotodiode 5120. In einer Implementierung kann die Oberfläche der ersten Fotodiode 5110 um den Faktor zwei oder vier, um den Faktor acht oder um den Faktor sechzehn größer sein als die Oberfläche der zweiten Fotodiode 5120. Die größere Fläche der ersten Fotodioden 5110 wird in 57 durch Rechtecke 5602 symbolisiert. Die Farbfilterteile 5702 und 5704 können nach einem Schachbrettmuster angeordnet werden. In diesen Beispielen ist die Auflösung der ersten Fotodioden 5110 möglicherweise nicht von großer Bedeutung, aber die Empfindlichkeit der ersten Fotodioden 5110 kann wichtig sein.
  • Es ist zu beachten, dass der Aufbau und die Übertragungseigenschaften der Farbfilteranteile in Abhängigkeit vom gewünschten Farbraum variieren können. In den oben beschriebenen Ausführungsformen wurde ein RGB-Farbraum betrachtet. Weitere mögliche Farbräume, die zur Verfügung gestellt werden können, sind CYMG (Cyan, Gelb, Magenta und Grün), RGBE (Rot, Grün, Blau und Smaragd), CMYW (Cyan, Magenta, Gelb und Weiß) und ähnliches. Die Farbfilteranteile würden entsprechend angepasst werden. Optional können weitere Farbfiltertypen die skotopische Empfindlichkeitskurve des menschlichen Auges imitieren.
  • 58 zeigt eine optische Komponente 5800 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
  • Die optische Komponente 5800 von 58 ähnelt im Wesentlichen der optischen Komponente 5200 von 52A, wie oben beschrieben. Daher werden die Hauptunterschiede zwischen der optischen Komponente 5800 von 58 und der optischen Komponente 5200 von 52A im Folgenden ausführlicher beschrieben.
  • Zunächst einmal kann die optische Komponente 5800 mit oder ohne die optionale(n) Mikrolinse(n) 5202 und das Füllmaterial 5204 ausgestattet sein. Darüber hinaus kann eine Reflektorschicht 5802 über der Filterschicht 5206 angeordnet sein (z.B. in direktem physischen Kontakt mit dieser). Die Reflektorschicht 5802 kann so konfiguriert werden, dass sie Licht in einem Wellenlängenbereich einer vierten Wellenlänge λ4 reflektiert. Der vierte Wellenlängenbereich λ4 kann größere Wellenlängen haben als der erste Wellenlängenbereich λ1, der zweite Wellenlängenbereich λ2 und der dritte Wellenlängenbereich λ3. Ein Lichtanteil der vierten Wellenlänge λ4 wird in 58 durch einen vierten Pfeil 5804 symbolisiert. Dieses Licht trifft auf die Reflektorschicht 5802 auf und wird von dieser reflektiert. Der Lichtanteil, der von der Reflektorschicht 5802 reflektiert wird, wird in 58 durch einen fünften Pfeil 5806 symbolisiert. Die Reflektorschicht 5802 kann so konfiguriert werden, dass sie Licht im Wellenlängenbereich von thermischem Infrarotlicht oder Infrarotlicht reflektiert. Die Reflektorschicht 5802 kann einen Bragg-Schichtstapel aufweisen, der so konfiguriert ist, dass er Licht einer gewünschten Wellenlänge oder eines gewünschten Wellenlängenbereichs reflektiert. Die optische Komponente 5800 kann ferner eine mikromechanisch definierte IR-Absorberstruktur 5808 aufweisen, die über der Reflektorschicht 5802 angeordnet ist. Die IR-Absorberstruktur 5808 kann für eine temperaturabhängige Widerstandsmessung (basierend auf dem so genannten Mikrobolometer-Prinzip) vorgesehen werden. Zur elektrischen Kontaktierung der IR-Absorberstruktur 5808 für die Widerstandsmessung können eine oder mehrere Leiterbahnen, z.B. in der Zwischenverbindungs-/Bauelementeschicht 5114, vorgesehen werden. Die Reflektorschicht 5802 kann so konfiguriert werden, dass sie thermische Infrarotstrahlung mit einer Wellenlänge von mehr als etwa 2 µm reflektiert.
  • Verschiedene Ausführungsformen, wie z.B. die oben abgebildeten Ausführungsformen, können einen Stapel verschiedener Fotodioden aufweisen, wie z.B:
    • - einem Stapel aus einer PIN-Fotodiode (konfiguriert zur Erfassung von Licht des sichtbaren Spektrums) über einer PIN-Fotodiode (konfiguriert zur Erfassung von Licht des nahen Infrarot (NIR)-Spektrums);
    • - einem Stapel aus einer PIN-Fotodiode (konfiguriert zur Erfassung von Licht des sichtbaren Spektrums) über einer Lawinenfotodiode (im linearen Modus/im Geiger-Modus) (konfiguriert zur Erfassung von Licht des nahen Infrarot (NIR)-Spektrums);
    • - einem Stapel einer Resonanzhohlraum-Fotodiode (konfiguriert, um Licht des sichtbaren Spektrums zu erfassen) über einer Lawinenfotodiode (im linearen Modus/im Geiger-Modus) (konfiguriert, um Licht des nahen Infrarot (NIR)-Spektrums zu erfassen);
    • - einem Stapel aus einer PIN-Fotodiode (konfiguriert zur Erfassung von Licht des sichtbaren Spektrums) über einer weiteren Fotodiode, die so konfiguriert ist, dass sie indirekte ToF-Messungen mittels Phasendifferenzen (z.B. PMD-Ansatz) ermöglicht;
    • - einem Stapel aus einer Resonanzhohlraum-Fotodiode (konfiguriert zur Erfassung von Licht des sichtbaren Spektrums) über einer weiteren Fotodiode, die so konfiguriert ist, dass sie indirekte ToF-Messungen mittels Phasendifferenzen (z.B. PMD-Ansatz) ermöglicht;
  • Wie oben beschrieben, können die oben genannten Ausführungsformen durch einen Filter, z.B. einen Bandpassfilter, ergänzt werden, der so konfiguriert ist, dass er Teile des Lichts, die von der Fotodiode nahe der Oberfläche des Trägers (z.B. des sichtbaren Spektrums) erfasst werden sollen, wie z.B. rotes Licht für Fahrzeugrückleuchten, sowie Teile des Lichts mit der Wellenlänge der verwendeten LIDAR-Quelle (z.B. Laserquelle) durchlässt.
  • Die oben genannten Ausführungsformen können weiter durch eine (eine oder mehrere) Mikrolinse pro Pixel ergänzt werden, um den Füllfaktor zu erhöhen (ein reduzierter Füllfaktor kann aufgrund von Schaltungsbereichen eines Bildsensorpixels auftreten, die durch den Herstellungsprozess erforderlich sind). Der Füllfaktor ist als das Flächenverhältnis zwischen der optisch aktiven Fläche und der Gesamtfläche des Pixels zu verstehen. Die optisch aktive Fläche kann z.B. durch elektronische Komponenten reduziert werden. Eine Mikrolinse kann sich über die gesamte Fläche des Pixels erstrecken und das Licht in die optisch aktive Fläche leiten. Dies würde den Füllfaktor erhöhen.
  • In verschiedenen Ausführungsformen kann ein von der Vorderseite beleuchteter Bildsensor oder ein von der Rückseite beleuchteter Bildsensor vorgesehen werden. Bei einem von der Vorderseite beleuchteten Bildsensor wird die Bauelementeschicht in einer Schicht positioniert, die dem auf den Sensor 52 auftreffenden Licht zugewandt ist. Bei einem rückseitig beleuchteten Bildsensor wird die Bauelementschicht in einer Schicht positioniert, die dem auf den Sensor 52 auftreffenden Licht abgewandt ist.
  • In verschiedenen Ausführungsformen können zwei APD-Fotodioden vorgesehen werden, die so konfiguriert sind, dass sie Licht in verschiedenen NIR-Wellenlängen detektieren und die übereinander gestapelt werden können, z.B. um die wellenlängenabhängigen Absorptionseigenschaften von Wasser (Dampf) zu nutzen und um durch den Vergleich der Intensitäten des bei verschiedenen Wellenlängen detektierten Lichts Informationen über die in der Atmosphäre und/oder einer Oberfläche wie der Fahrbahn einer Fläche vorhandene Wassermenge zu erhalten.
  • Je nach den gewünschten Wellenlängen kann der Detektor in einem Halbleitermaterial wie Silizium oder in einem Halbleiterverbundmaterial wie Silizium-Germanium, III-V-Halbleiterverbundmaterial oder II-VI-Halbleiterverbundmaterial, einzeln oder in Kombination miteinander, eingesetzt werden.
  • Verschiedene Ausführungsformen können die Herstellung eines miniaturisierten und/oder kostengünstigen Sensorsystems ermöglichen, das einen Kamerasensor und einen LIDAR-Sensor in einem gemeinsamen Träger (z.B. Substrat) miteinander kombiniert. Ein solches Sensorsystem kann für die Mustererkennung, die Objekterkennung oder die Gesichtserkennung vorgesehen werden. Das Sensorsystem kann in ein mobiles Gerät wie z.B. ein Mobiltelefon oder Smartphone implementiert werden.
  • Darüber hinaus können verschiedene Ausführungsformen die Herstellung eines kompakten und/oder kosteneffizienten Sensorsystems für ein Fahrzeug ermöglichen. Ein solches Sensorsystem kann so konfiguriert werden, dass es aktive Rückleuchten eines oder mehrerer anderer Fahrzeuge erkennt und gleichzeitig eine dreidimensionale Vermessung von Objekten mit Hilfe des LIDAR-Sensorteils des Sensorsystems durchführt.
  • Darüber hinaus erlauben verschiedene Ausführungsformen die Kombination von zwei LIDAR-Wellenlängen in einem gemeinsamen Detektor, um z.B. durch einen Vergleich des jeweils reflektierten Lichts Informationen über die Oberflächenbeschaffenheit eines reflektierenden Zielobjekts zu erhalten.
  • Verschiedene Ausführungsformen können die Kombination eines LIDAR-Sensors, eines Kamerasensors (konfiguriert zur Erfassung von Licht des sichtbaren Spektrums (VIS)) und eines Kamerasensors (konfiguriert zur Erfassung von Licht des thermischen Infrarotspektrums) in einem gemeinsamen Sensor (z.B. monolithisch integriert auf einem gemeinsamen Träger, z.B. einem gemeinsamen Substrat, z.B. einem gemeinsamen Wafer) ermöglichen.
  • Verschiedene Ausführungsformen können die Einstellabweichungen zwischen verschiedenen Bildsensoren für Kamera und LIDAR verringern.
  • In verschiedenen Ausführungsformen können sogar mehr als zwei Fotodioden übereinander gestapelt werden.
  • Es ist zu beachten, dass in verschiedenen Ausführungsformen die laterale Größe (und/oder Form) der ein, zwei oder sogar mehr Fotodioden und die Farbfilteranteile der Filterschicht (z.B. Filterschicht 5206) gleich sein können.
  • Außerdem kann in verschiedenen Ausführungsformen die laterale Größe (und/oder Form) der einen, zwei oder sogar mehr Fotodioden gleich sein, und die laterale Größe (und/oder Form) der Farbfilterabschnitte der Filterschicht (z.B. Filterschicht 5206) kann sich voneinander und/oder von der lateralen Größe (und/oder Form) der einen, zwei oder sogar mehr Fotodioden unterscheiden.
  • Darüber hinaus kann in verschiedenen Ausführungsformen die laterale Größe (und/oder Form) der einen, zwei oder sogar mehr Fotodioden voneinander und/oder von der lateralen Größe (und/oder Form) der Farbfilterabschnitte verschieden sein, und die laterale Größe (und/oder Form) der Farbfilterabschnitte der Filterschicht (z.B. Filterschicht 5206) kann die gleiche sein.
  • Darüber hinaus kann in verschiedenen Ausführungsformen die laterale Größe (und/oder Form) der einen, zwei oder noch mehr Fotodioden voneinander und die laterale Größe (und/oder Form) der Farbfilteranteile der Filterschicht (z.B. Filterschicht 5206) voneinander und/oder von der lateralen Größe (und/oder Form) der einen, zwei oder noch mehr Fotodioden verschieden sein.
  • Darüber hinaus können, wie bereits oben beschrieben, auch andere Arten von Farbfilterkombinationen wie CYMG (Cyan, Gelb, Grün und Magenta), RGBE (Rot, Grün, Blau und Smaragd), CMYW (Cyan, Magenta, Gelb und Weiß) verwendet werden. Die Farbfilter können eine Bandbreite (FWHM) im Bereich von etwa 50 nm bis etwa 200 nm haben. Es können aber auch monochrome Filter (schwarz/weiss) verwendet werden.
  • Es ist zu beachten, dass Standardfarbwertanteile und Leuchtdichtefaktoren für retroreflektierende Verkehrszeichen nach DIN EN 12899-1 und DIN 6171-1 festgelegt sind. Die Farbkoordinaten von Fahrzeugscheinwerfern (Abblend- und Fernlicht, Tagfahrlicht) sind durch das ECE-Weißfeld (CIE-Diagramm) der Automobilindustrie definiert. Gleiches gilt für Signalfarben, deren Farbkoordinaten z.B. durch ECE-Farbgrenzen definiert sind. Siehe auch CIE Nr. 2.2 (TC-1.6) 1975, oder auch BGBI. II - herausgegeben am 12. August 2005 - Nr. 248). Es können auch andere nationale oder regionale Spezifikationsstandards gelten. Alle diese Komponenten können in verschiedenen Ausführungsformen implementiert werden.
  • Dementsprechend sollten die Transmissionskurven der verwendeten Sensor-Pixel-Farbfilter den jeweiligen farbbezogenen Verkehrsregeln entsprechen. Sensorelemente mit Sensorpixeln mit Farbfilter müssen nicht nur in einem Bayer-Muster angeordnet werden, sondern es können auch andere Musterkonfigurationen verwendet werden, z.B. eine X-trans-Matrix-Pixel-Filterkonfiguration.
  • Ein Sensor wie in Bezug auf 51 bis 58 beschrieben kann z.B. in einem Photonenmischgerät implementiert sein (z.B. für eine indirekte Messung oder in einem Gerät der Unterhaltungselektronik, in dem eine Frontkamera eines Smartphones z.B. gleichzeitig ein dreidimensionales Bild erzeugen kann).
  • Ein Sensor wie in Bezug auf 51 bis 58 beschrieben kann z.B. auch in einem Sensor implementiert werden, um die Charakteristik einer Oberfläche zu erfassen, z.B. ob eine Straße trocken oder nass ist, da die Oberfläche in der Regel je nach ihrem Zustand (z.B. trockener oder nasser Zustand) unterschiedliche Lichtreflexionseigenschaften hat, und ähnliches.
  • Wie zuvor unter Bezugnahme auf 38 bis 45 beschrieben, kann eine gestapelte Fotodiode in Übereinstimmung mit verschiedenen Ausführungsformen, wie unter Bezugnahme auf 51 bis 58 beschrieben, ein erstes Sensorpixel einschließlich einer Fotodiode eines ersten Fotodiodentyps und ein zweites Pixel der Vielzahl von Pixeln einschließlich einer Fotodiode eines zweiten Fotodiodentyps implementieren.
  • Zum Beispiel kann ein solches gestapeltes optisches Bauelement eine Vielzahl von Fotodioden unterschiedlicher Fotodiodentypen (z.B. zwei, drei, vier oder mehr übereinander gestapelte Fotodioden) umfassen. Die gestapelte optische Komponente kann, wie oben beschrieben, der optischen Komponente 5100 von 51 im Wesentlichen ähnlich sein. Daher werden im Folgenden nur die Hauptunterschiede der gestapelten optischen Komponente gegenüber der optischen Komponente 5100 von 51 näher beschrieben.
  • Die gestapelte optische Komponente kann optional eine oder mehrere Mikrolinsen aufweisen, die über der zweiten Fotodiode angeordnet werden können (z.B. direkt darüber, d.h. in physischem Kontakt mit der zweiten Fotodiode). Die eine oder mehrere Mikrolinsen können in ein geeignetes Füllmaterial wie Silikon eingebettet oder zumindest teilweise von diesem umgeben sein. Die eine oder mehrere Mikrolinsen zusammen mit dem Füllstoff können für einen Schichtaufbau eine Schichtdicke im Bereich von etwa 1 µm bis etwa 500 µm aufweisen.
  • Darüber hinaus kann eine Filterschicht, die zur Implementierung eines Bandpassfilters konfiguriert werden kann, über der optionalen einen oder mehreren Mikrolinsen oder der zweiten Fotodiode angeordnet werden (z.B. direkt darüber, d.h. in physischem Kontakt mit dem optionalen Füllmaterial oder mit der zweiten Fotodiode). Die Filterschicht kann eine Schichtdicke im Bereich von etwa 1 µm bis etwa 500 µm haben. Die Filterschicht kann eine der jeweiligen Anwendung entsprechende Filtercharakteristik aufweisen.
  • In verschiedenen Ausführungsformen kann die zweite Fotodiode eine PIN-Fotodiode aufweisen oder eine solche sein (konfiguriert, um Licht des sichtbaren Spektrums zu erfassen) und die erste Fotodiode eine Lawinenfotodiode aufweisen oder eine solche sein (im linearen Modus/im Geiger-Modus) (konfiguriert, um Licht des nahen Infrarot (NIR)-Spektrums oder im Infrarot (IR)-Spektrum zu erfassen).
  • In verschiedenen Ausführungsformen kann ein Multiplexer vorgesehen werden, um die z.B. von der PIN-Fotodiode oder der Lawinenfotodiode gelieferten Sensorsignale individuell auszuwählen. So kann der Multiplexer z.B. entweder die PIN-Fotodiode (und damit nur die von der PIN-Fotodiode gelieferten Sensorsignale) oder die Lawinenfotodiode (und damit nur die von der Lawinenfotodiode gelieferten Sensorsignale) auswählen.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1f ist eine optische Komponente für ein LIDAR-Sensorsystem. Die optische Komponente umfasst eine erste Fotodiode, die ein LIDAR-Sensorpixel in einer ersten Halbleiterstruktur implementiert und so konfiguriert ist, dass sie empfangenes Licht in einem ersten Wellenlängenbereich absorbiert, eine zweite Fotodiode, die ein Kamerasensorpixel in einer zweiten Halbleiterstruktur über der ersten Halbleiterstruktur implementiert und so konfiguriert ist, dass sie empfangenes Licht in einem zweiten Wellenlängenbereich absorbiert, und eine Verbindungsschicht (z.B. zwischen der ersten Halbleiterstruktur und der zweiten Halbleiterstruktur), die eine elektrisch leitende Struktur aufweist, die so konfiguriert ist, dass sie die zweite Fotodiode elektrisch kontaktiert. Das empfangene Licht des zweiten Wellenlängenbereichs hat eine kürzere Wellenlänge als das empfangene Licht des ersten Wellenlängenbereichs.
    • In Beispiel 2f kann der Gegenstand von Beispiel 1f optional umfassen, dass die zweite Fotodiode vertikal über der ersten Fotodiode gestapelt wird.
    • In Beispiel 3f kann der Gegenstand eines der Beispiele 1f oder 2f optional umfassen, dass die erste Fotodiode eine erste vertikale Fotodiode ist und/oder dass die zweite Fotodiode eine zweite vertikale Fotodiode ist.
    • In Beispiel 4f kann der Gegenstand eines der Beispiele 1f bis 3f optional umfassen, dass die optische Komponente ferner eine weitere Verbindungsschicht (z.B. zwischen dem Träger und der ersten Halbleiterstruktur) mit einer elektrisch leitenden Struktur aufweist, die so konfiguriert ist, dass sie die zweite vertikale Fotodiode und/oder die erste vertikale Fotodiode elektrisch kontaktiert.
    • In Beispiel 5f kann der Gegenstand eines der Beispiele 1f bis 4f optional umfassen, dass die optische Komponente ferner eine Mikrolinse über der zweiten Halbleiterstruktur umfasst, die die erste vertikale Fotodiode und/oder die zweite vertikale Fotodiode seitlich im Wesentlichen abdeckt.
    • In Beispiel 6f kann der Gegenstand eines der Beispiele 1f bis 5f optional umfassen, dass die optische Komponente ferner eine Filterschicht über der zweiten Halbleiterstruktur umfasst, die die erste vertikale Fotodiode und/oder die zweite vertikale Fotodiode seitlich im Wesentlichen bedeckt und so konfiguriert ist, dass sie empfangenes Licht mit einer Wellenlänge innerhalb des ersten Wellenlängenbereichs und innerhalb des zweiten Wellenlängenbereichs durchlässt und Licht blockiert, das außerhalb des ersten Wellenlängenbereichs und des zweiten Wellenlängenbereichs liegt.
    • In Beispiel 7f kann der Gegenstand eines der Beispiele 1f bis 6f optional umfassen, dass das empfangene Licht des ersten Wellenlängenbereichs eine Wellenlänge im Bereich von etwa 800 nm bis etwa 1800 nm hat und/oder dass das empfangene Licht des zweiten Wellenlängenbereichs eine Wellenlänge im Bereich von etwa 380 nm bis etwa 780 nm hat.
    • In Beispiel 8f kann der Gegenstand eines der Beispiele 1f bis 6f optional umfassen, dass das empfangene Licht des ersten Wellenlängenbereichs eine Wellenlänge im Bereich von etwa 800 nm bis etwa 1800 nm hat und/oder dass das empfangene Licht des zweiten Wellenlängenbereichs eine Wellenlänge im Bereich von etwa 800 nm bis etwa 1750 nm hat.
    • In Beispiel 9f kann der Gegenstand eines der Beispiele 1f bis 8f optional umfassen, dass das empfangene Licht des zweiten Wellenlängenbereichs eine um mindestens 50 nm, z.B. mindestens 100 nm, kürzere Wellenlänge hat als das empfangene Licht des ersten Wellenlängenbereichs.
    • In Beispiel 10f kann der Gegenstand eines der Beispiele 1f bis 7f oder 9f optional umfassen, dass das empfangene Licht des ersten Wellenlängenbereichs eine Wellenlänge in einem Wellenlängenbereich des Infrarotspektrums hat, und/oder dass das empfangene Licht des zweiten Wellenlängenbereichs eine Wellenlänge im Wellenlängenbereich des sichtbaren Spektrums hat.
    • In Beispiel 11f kann der Gegenstand eines der Beispiele 1f bis 10f optional umfassen, dass die optische Komponente ferner eine Spiegelstruktur mit einem unteren Spiegel und einem oberen Spiegel umfasst. Die zweite Halbleiterstruktur ist zwischen dem unteren Spiegel und dem oberen Spiegel angeordnet. Der untere Spiegel ist zwischen der Verbindungsschicht und der zweiten Halbleiterstruktur angeordnet.
    • In Beispiel 12f kann der Gegenstand von Beispiel 11f optional umfassen, dass die Spiegelstruktur eine Bragg-Spiegelstruktur aufweist.
    • In Beispiel 13f kann der Gegenstand eines der Beispiele 11f oder 12f optional umfassen, dass die Spiegelstruktur und die zweite vertikale Fotodiode so konfiguriert sind, dass die zweite vertikale Fotodiode eine Resonanzhohlraum-Fotodiode bildet.
    • In Beispiel 14f kann der Gegenstand eines der Beispiele 1f bis 13f optional umfassen, dass die optische Komponente zusätzlich eine Reflektorschicht über der zweiten Halbleiterstruktur aufweist.
    • In Beispiel 15f kann der Gegenstand von Beispiel 14f optional umfassen, dass die Reflektorschicht als thermische Reflektorschicht konfiguriert ist, die so konfiguriert ist, dass sie Strahlung mit einer Wellenlänge gleich oder größer als etwa 2 µm reflektiert, und/oder dass die Reflektorschicht als Infrarot-Reflektorschicht konfiguriert ist.
    • In Beispiel 16f kann der Gegenstand eines der Beispiele 1f bis 15f optional umfassen, dass die erste Fotodiode eine PIN-Fotodiode ist und dass die zweite Fotodiode eine PIN-Fotodiode ist.
    • In Beispiel 17f kann der Gegenstand eines der Beispiele 1f bis 15f optional umfassen, dass die erste Fotodiode eine Lawinenfotodiode ist und dass die zweite Fotodiode eine PIN-Fotodiode ist.
    • In Beispiel 18f kann der Gegenstand eines der Beispiele 1f bis 15f optional umfassen, dass die erste Fotodiode eine Lawinenfotodiode ist und dass die zweite Fotodiode eine Resonanzhohlraum-Fotodiode ist.
    • In Beispiel 19f kann der Gegenstand eines der Beispiele 1f bis 15f optional umfassen, dass die erste Fotodiode eine Ein-Photonen-Lawinen-Fotodiode ist und dass die zweite Fotodiode eine Resonanzhohlraum-Fotodiode ist.
    • In Beispiel 20f kann der Gegenstand eines der Beispiele 1f bis 15f optional umfassen, dass die erste Fotodiode eine Lawinenfotodiode ist und dass die zweite Fotodiode eine Lawinenfotodiode ist.
    • In Beispiel 21f kann der Gegenstand eines der Beispiele 2f bis 20f optional umfassen, dass die optische Komponente ferner eine Anordnung aus einer Vielzahl von Fotodiodenstapeln umfasst, wobei jeder Fotodiodenstapel eine zweite Fotodiode umfasst, die vertikal über einer ersten Fotodiode gestapelt ist.
    • In Beispiel 22f kann der Gegenstand eines der Beispiele 1f bis 21f optional umfassen, dass mindestens ein Fotodiodenstapel der Vielzahl von Fotodiodenstapeln mindestens eine weitere zweite Fotodiode in der zweiten Halbleiterstruktur neben der zweiten Fotodiode umfasst, und dass die erste Fotodiode des mindestens einen Fotodiodenstapels der Vielzahl von Fotodiodenstapeln eine größere laterale Ausdehnung als die zweite Fotodiode und die mindestens eine weitere zweite Fotodiode des mindestens einen Fotodiodenstapels aufweist, so dass die zweite Fotodiode und die mindestens eine weitere zweite Fotodiode lateral innerhalb der lateralen Ausdehnung der ersten vertikalen Fotodiode angeordnet sind.
    • In Beispiel 23f kann der Gegenstand eines der Beispiele 1f bis 22f optional umfassen, dass der Träger ein Halbleitersubstrat ist.
    • Beispiel 24f ist ein Sensor für ein LIDAR-Sensorsystem. Der Sensor kann eine Vielzahl von optischen Komponenten gemäß einem der Beispiele 1f bis 23f aufweisen. Die mehreren optischen Komponenten sind monolithisch auf dem Träger als gemeinsamer Träger integriert.
    • In Beispiel 25f kann der Gegenstand von Beispiel 24f optional umfassen, dass der Sensor als frontseitig beleuchteter Sensor konfiguriert wird.
    • In Beispiel 26f kann der Gegenstand von Beispiel 24f optional umfassen, dass der Sensor als ein von hinten beleuchteter Sensor konfiguriert wird.
    • In Beispiel 27f kann der Gegenstand eines der Beispiele 24f bis 26f optional umfassen, dass der Sensor zusätzlich eine Farbfilterschicht umfasst, die zumindest einige optische Komponenten der Vielzahl optischer Komponenten abdeckt.
    • In Beispiel 28f kann der Gegenstand von Beispiel 27f optional umfassen, dass die Farbfilterschicht eine erste Farbfilterunterschicht und eine zweite Farbfilterunterschicht umfasst. Die erste Farbfilterunterschicht ist so konfiguriert, dass sie empfangenes Licht mit einer Wellenlänge innerhalb des ersten Wellenlängenbereichs und innerhalb des zweiten Wellenlängenbereichs durchlässt und Licht außerhalb des ersten Wellenlängenbereichs und außerhalb des zweiten Wellenlängenbereichs blockiert. Die zweite Farbfilter-Unterschicht ist so konfiguriert, dass sie empfangenes Licht mit einer Wellenlänge außerhalb des zweiten Wellenlängenbereichs blockiert.
    • In Beispiel 29f kann der Gegenstand von Beispiel 28f optional umfassen, dass die erste Farbfilter-Unterschicht und/oder die zweite Farbfilter-Unterschicht eine Vielzahl von Pixeln der zweiten Unterschicht aufweist.
    • In Beispiel 30f kann der Gegenstand von Beispiel 29f optional umfassen, dass die erste Farbfilter-Unterschicht und/oder die zweite Farbfilter-Unterschicht eine Vielzahl von Pixeln der zweiten Unterschicht gemäß einem Bayer-Muster aufweist.
    • In Beispiel 31f kann der Gegenstand eines der Beispiele 27f bis 30f optional umfassen, dass die erste Farbfilter-Unterschicht eine Vielzahl von Pixeln der ersten Unterschicht aufweist, die die gleiche Größe wie die Pixel der zweiten Unterschicht haben. Die Pixel der ersten Unterschicht und die Pixel der zweiten Unterschicht fallen miteinander zusammen.
    • In Beispiel 32f kann der Gegenstand eines der Beispiele 27f bis 30f optional umfassen, dass die erste Farbfilter-Unterschicht eine Vielzahl von Pixeln der ersten Unterschicht umfasst, deren Größe größer ist als die Größe der Pixel der zweiten Unterschicht. Ein Pixel der ersten Unterschicht überlappt seitlich im wesentlichen mit einer Vielzahl von Pixeln der zweiten Unterschicht.
    • Beispiel 33f ist ein LIDAR-Sensorsystem, einschließlich eines Sensors gemäß einem der Beispiele 24f bis 32f und eines Sensor-Controllers, der zur Steuerung des Sensors konfiguriert ist.
    • Beispiel 34f ist ein Verfahren für ein LIDAR-Sensorsystem gemäß Beispiel 33f, wobei das LIDAR-Sensorsystem in eine LIDAR-Sensorvorrichtung integriert ist und mit einem zweiten Sensorsystem kommuniziert und die Objektklassifizierung und/oder die Wahrscheinlichkeitsfaktoren und/oder Verkehrsrelevanzfaktoren, die von dem zweiten Sensorsystem gemessen werden, zur Auswertung aktueller und zukünftiger Messungen und abgeleiteter Steuerparameter der LIDAR-Sensorvorrichtung in Abhängigkeit von diesen Faktoren verwendet.
  • In einem konventionellen (z.B. schnellen) optischen Sensor, z.B. in einem Fotosensorarray, kann es einen Konflikt zwischen zwei verschiedenen Aspekten geben. Einerseits kann es wünschenswert sein, einen hohen Füllgrad der optisch aktiven Fläche gegenüber der optisch inaktiven Fläche zu haben (z.B. kann es wünschenswert sein, einen hohen Füllfaktor zu haben), wofür die Sensorpixel nahe beieinander angeordnet sein sollten (z.B. sollte ein Abstand zwischen benachbarten Sensorpixeln klein sein).
  • Andereiseits kann es wünschenswert sein, ein geringes oder vernachlässigbares Übersprechen (auch als „Sensorübersprechen“ bezeichnet) zwischen benachbarten Sensorpixeln (z.B. zwischen zwei benachbarten Sensorpixeln) zu haben, was von einem großen Abstand zwischen benachbarten Sensorpixeln profitieren würde. Das Übersprechen kann als ein Phänomen verstanden werden, bei dem ein Signal, das auf einer Schaltung oder einem Kanal (z.B. einem Sensorpixel) gesendet oder von einer Schaltung oder einem Kanal (z.B. einem Sensorpixel) empfangen wird, einen unerwünschten Effekt in einer anderen Schaltung oder einem Kanal (z.B. in einem anderen Sensorpixel) erzeugt.
  • Beispielsweise kann das Übersprechen auf elektromagnetische Phänomene zurückzuführen sein (z.B. auf induktive Kopplung und/oder kapazitive Kopplung, z.B. auf eine Kombination aus induktiver und kapazitiver Kopplung). Wenn elektrische Leiter nahe beieinander angeordnet sind, kann ein sich schnell ändernder Strom, der in einem Leiter fließt, ein sich schnell änderndes Magnetfeld erzeugen, das einen Stromfluss in einem benachbarten Leiter induziert. Da in einem Sensorpixel (z.B. in einem Fotosensorpixel) erzeugte Fotoelektronen und die entsprechenden Avalancheelektronen schnell auf die Auswerteelektronik (z.B. auf einen oder mehrere Prozessoren oder Verarbeitungseinheiten) übertragen werden, können in den Sensorpixeln und in den entsprechenden Signalleitungen schnell variierende Ströme fließen. Solche schnell veränderlichen Ströme können in den benachbarten Sensorpixeln und Signalleitungen ein Signal erzeugen, das von der Auswerteelektronik fälschlicherweise als ein von solchen Sensorpixeln kommendes Fotostromsignal interpretiert werden kann. Illustrativ kann dieses Signal als ein Signal interpretiert werden, das durch Licht entsteht, das von einem Sensorpixel detektiert (z.B. empfangen) wird, während das Signal durch Übersprechen mit einem anderen benachbarten Sensorpixel oder einer Signalleitung entstehen kann. Das Übersprechen kann mit abnehmendem Abstand zwischen benachbarten Signalleitungen und/oder benachbarten Sensorpixeln zunehmen. Das Übersprechen kann auch mit zunehmender Länge des Abschnitts/der Abschnitte zunehmen, in dem/denen die Sensorpixel und/oder die Signalleitungen dicht nebeneinander angeordnet sind.
  • Bei einem herkömmlichen Sensor kann ein (z. B. ein konventioneller) Sensorpixel eine rechteckige Form haben, und der Abstand zwischen benachbarten Sensorpixeln kann konstant sein (z. B. über eine gesamte Anordnung von Sensorpixeln). Der Abstand (z.B. der Sensorpixel-zu-Sensorpixel-Abstand) kann so gewählt werden, dass ein Kompromiss zwischen den beiden oben genannten Effekten erreicht werden kann. Veranschaulichend kann der Abstand so gewählt werden, dass ein möglichst hoher Wirkungsgrad (z.B. ein Lichtsammelwirkungsgrad) bei gleichzeitig möglichst geringem Übersprechen erzielt werden kann. Daher sind sowohl der Wirkungsgrad als auch das Übersprechen suboptimal.
  • Ein Qualitätskriterium kann das Signal-Rausch-Verhältnis (SNR) sein. Je kleiner ein Sensorpixel ist, desto kleiner wird das Signal. Im Falle von Rauschbeiträgen, die hauptsächlich über die Elektronik bestimmt werden, kann ein kleineres Signal einem geringeren (z.B. schlechteren) SNR entsprechen. Wenn die Sensorpixel nahe beieinander angeordnet sind, kann das Übersprechen zunehmen. Eine Zunahme des Übersprechens kann als eine Zunahme des Rauschens betrachtet werden, und somit kann das SNR abnehmen. Wenn die beiden Effekte im Wesentlichen gleich relevant sind (was vom spezifischen Szenario abhängen kann), kann das Gesamt-SNR typischerweise optimiert werden, d.h. so weit wie möglich reduziert oder minimiert werden.
  • In verschiedenen Ausführungsformen kann ein Sensor (z.B. der Sensor 52) mit einem oder mehreren Sensorpixeln vorgesehen werden. Der Sensor kann zur Verwendung in einem LIDAR-System (z.B. im LIDAR-Sensorsystem 10) vorgesehen sein. Ein Sensorpixel kann so konfiguriert sein, dass ein Abstand zu einem oder mehreren anliegenden (d.h. benachbarten) Sensorpixeln entlang einer vordefinierten Richtung variiert (z.B. eine Richtung parallel oder senkrecht zu einer Abtastrichtung des LIDAR-Systems, z.B. über mindestens eine Ausdehnungsrichtung des Sensorpixels, z.B. über die Breite oder die Höhe des Sensorpixels). Das Sensorpixel (z.B. die Größe und/oder die Form des Sensorpixels) kann so konfiguriert werden, dass der Abstand zu einem oder mehreren benachbarten Sensorpixeln in dem/den Bereich(en), in dem/denen ein hoher Füllfaktor und eine hohe Effizienz erwünscht sind, gering ist. Dieser Abstand kann beispielsweise weniger als 10% der Breite/Höhe eines Sensorpixels betragen, z.B. weniger als 5%, z.B. weniger als 1%. Das Sensorpixel kann so konfiguriert werden, dass der Abstand zu einem oder mehreren benachbarten Sensorpixeln außerhalb dieser Bereiche zunimmt (z.B. auf mehr als 10% der Breite/Höhe des Sensorpixels, z.B. auf mehr als 50%). Zur Veranschaulichung: Das Sensorpixel kann so konfiguriert sein, dass ein Übersprechen mit benachbarten Sensorpixeln in mindestens einem Bereich des Sensorpixels reduziert wird (z.B. kann das Übersprechen in einem bestimmten Bereich in Bezug auf einen anderen Bereich geringer sein).
  • Wird der Sensor beispielsweise in einem LIDAR-System eingesetzt (z.B. im Empfangspfad eines LIDAR-Systems), kann ein hoher Füllfaktor im zentralen Bereich des Sichtfeldes wünschenswert sein (z.B. in einem Bereich um die optische Achse des LIDAR-Systems). Dies kann dazu führen, dass ein hoher Wirkungsgrad und damit eine große Reichweite (z.B. eine große Detektionsreichweite) erreicht wird. In den Randbereichen des Sichtfeldes kann die Erzielung einer großen Detektionsreichweite weniger relevant sein. Die Sensorpixel können so konfiguriert (z.B. geformt und/oder dimensioniert) sein, dass der Abstand zwischen benachbarten Sensorpixeln im mittleren Bereich des Sensors (z.B. zur Erzielung eines höheren Füllfaktors) kleiner ist als in einem Randbereich oder in den Randbereichen des Sensors (z.B. zur Verringerung des Übersprechens in diesen Bereichen). Ein reduziertes Übersprechen zwischen benachbarten Sensorpixeln, z.B. in einem Bereich der Sensorpixel, kann den Effekt einer Reduzierung des gesamten übersprechbezogenen Signalbeitrags haben. Illustrativ kann der gesamte übersprechbezogene Signalbeitrag als eine Kombination (z.B. eine Summe) der übersprechbezogenen Signalbeiträge von einzelnen Sensorpixeln und/oder Sensorpixelbereichen und/oder Signalleitungen (z.B. von einzelnen Paaren von Sensorpixeln und/oder Signalleitungen) gesehen werden, so dass die Reduzierung des Übersprechens zwischen benachbarten Sensorpixeln den gesamten (z.B. kombinierten) Übersprecheffekt reduzieren kann.
  • In verschiedenen Ausführungsformen kann ein Sensorpixel so konfiguriert werden, dass in einem ersten Bereich (z.B. in einem zentralen Bereich des Sensors, z.B. in einem zentralen Bereich des Sensorpixels) der Abstand zu einem oder mehreren benachbarten Sensorpixeln einen ersten Wert hat. Der Abstand kann z.B. ein Randabstand zwischen dem Sensorpixel und dem einen oder mehreren benachbarten Sensorpixeln sein.
  • Das Sensorpixel kann so konfiguriert werden, dass in einem zweiten Bereich (z.B. in einem Randbereich oder peripheren Bereich des Sensors und/oder des Sensorpixels) der Abstand mit einem oder mehreren benachbarten Sensorpixeln einen zweiten Wert hat. Der erste Wert kann kleiner als der zweite Wert sein (z.B. kann er 2-mal kleiner, 5-mal kleiner oder 10-mal kleiner sein). Ein Sensorpixel kann z.B. im ersten Bereich eine rechteckige Form haben (z.B. kann das Sensorpixel als Rechteck mit einer ersten Ausdehnung, z.B. einer ersten Höhe oder einer ersten Breite, geformt sein). Das Sensorpixel kann im zweiten Bereich eine rechteckige Form haben (z.B. kann das Sensorpixel als ein Rechteck mit einer zweiten Ausdehnung, z.B. einer zweiten Höhe oder einer zweiten Breite, die kleiner als die erste Ausdehnung ist, geformt sein).
  • Zusätzlich oder alternativ kann ein Sensorpixel so konfiguriert werden, dass in der zweiten Region der Abstand mit einem oder mehreren benachbarten Sensorpixeln mit zunehmendem Abstand von der ersten Region zunimmt. Als Beispiel kann das Sensorpixel im zweiten Bereich eine sich verjüngende Form haben, z.B. eine polygonale Form, wie z.B. eine dreieckige Form oder eine trapezförmige Form. Zur Veranschaulichung: Die aktive Sensorpixelfläche kann abnehmen, wenn sie sich von der Mitte des Sensorpixels in Richtung der Kante(n) des Sensorpixels bewegt. Der Abstand mit den benachbarten Sensorpixeln kann sich entsprechend vergrößern.
  • Es wird davon ausgegangen, dass die möglichen Formen des Sensorpixels nicht auf die oben beispielhaft beschriebenen Formen beschränkt sind. Darüber hinaus kann ein Sensorpixel entsprechend einer Kombination der oben genannten Konfigurationen konfiguriert werden. Beispielsweise kann ein Sensorpixel asymmetrisch konfiguriert sein. Illustrativ kann ein Sensorpixel so konfiguriert sein, dass in einem zweiten Bereich der Abstand zu einem oder mehreren benachbarten Sensorpixeln einen konstanten Wert hat. Das Sensorpixel kann so konfiguriert sein, dass in einem anderen zweiten Bereich der Abstand zu dem einen oder mehreren benachbarten Sensorpixeln mit zunehmendem Abstand vom ersten Bereich zunimmt. Zum Beispiel kann ein Sensorpixel in einem zweiten Bereich eine rechteckige Form und in einem anderen zweiten Bereich eine dreieckige Form oder eine trapezförmige Form haben.
  • In verschiedenen Ausführungsformen können die Sensorpixel in einem zweidimensionalen Sensorpixelarray angeordnet werden. Die Sensorpixel können so konfiguriert werden, dass ein Abstand (z.B. ein Randabstand) zwischen zentralen Sensorpixeln (z.B. zwischen Sensorpixeln in einer ersten Region des Arrays, z.B. in einer zentralen Array-Region) einen ersten Wert hat. Die Sensorpixel können so konfiguriert werden, dass ein Abstand (z.B. ein Randabstand) zwischen Sensorpixeln (z.B. zwischen Sensorpixeln in einem zweiten Bereich des Arrays, z.B. in einem Rand-Array-Bereich) einen zweiten Wert hat. Der erste Wert kann kleiner als der zweite Wert sein (z.B. kann er 2-mal kleiner, 5-mal kleiner oder 10-mal kleiner sein). Die aktive Sensorpixelfläche der Sensorpixel in der zweiten Region kann kleiner sein als die aktive Sensorpixelfläche der Sensorpixel in der ersten Region. Die aktive Sensorpixelfläche der Sensorpixel kann mit zunehmendem Abstand von der ersten Region abnehmen (z.B. kann ein näher an der ersten Region angeordnetes Sensorpixel eine größere aktive Sensorpixelfläche haben als ein weiter von der ersten Region entferntes Sensorpixel). Illustrativ kann das zweidimensionale Sensorpixelarray so konfiguriert werden, dass die zentralen Sensorpixel eng beieinander angeordnet sind und dass die Randpixel eine kleinere aktive Sensorpixelfläche haben und in Bezug auf die zentralen Sensorpixel weiter voneinander entfernt angeordnet sind. Diese Konfiguration kann ferner den Effekt haben, dass es einfacher sein kann, Signalleitungen bereitzustellen. Zur Veranschaulichung: Die den zentralen Sensorpixeln zugeordneten Signalleitungen können durch die Bereiche verlaufen, in denen die Randpixel angeordnet sind, so dass ein größerer Abstand zwischen benachbarten Rand-Sensorpixeln die Anordnung (z.B. die Abscheidung) der Signalleitungen vereinfachen kann.
  • In verschiedenen Ausführungsformen kann die empfängeroptische Anordnung der Ausführungsformen, wie mit Bezug auf 33 bis 37F beschrieben, innerhalb der Ausführungsformen, wie mit Bezug auf 120 bis 122 beschrieben, verwendet werden. Die Anordnung der Empfängeroptik kann so konfiguriert werden, dass der gewünschte Defokus-Effekt in Richtung zum Bildrand hin erzielt wird.
  • Die Optik im Empfängerpfad des LIDAR-Systems (z.B. die Empfängeroptik, z.B. eine Empfängeroptik-Anordnung) kann so konfiguriert werden, dass die Abbildung im zentralen Bereich schärfer ist als am Rand (an den Rändern). Zur Veranschaulichung: Die Empfängeroptik kann so konfiguriert werden, dass ein Objekt im zentralen Bereich des Sichtfeldes (z.B. nahe der optischen Achse des LIDAR-Systems) schärfer abgebildet wird als ein Objekt am Rand des Sichtfeldes (z.B. weiter von der optischen Achse entfernt). Dadurch kann das Risiko, dass Licht (z.B. von einem Objekt im Sichtfeld reflektiert) zwischen zwei Sensorpixeln (z.B. auf den Zwischenraum zwischen benachbarten Sensorpixeln, z.B. auf einen optisch inaktiven Bereich) auftrifft, das nicht detektiert werden würde, verringert oder weitgehend ausgeschlossen werden. Eine Empfängeroptik mit solchen Eigenschaften kann auf der Grundlage eines Effekts bereitgestellt werden, der gleich oder ähnlich der Feldkrümmung eines optischen Systems ist (zur Veranschaulichung: Die Empfängeroptik kann so konfiguriert werden, dass sie einen Effekt liefert, der gleich oder ähnlich der Feldkrümmung des optischen Systems ist). Als Beispiel kann die Empfängeroptik als die LIDAR-Empfängeroptik-Anordnung konfiguriert werden, die in Bezug auf 33 bis 37F beschrieben ist.
  • In verschiedenen Ausführungsformen kann die erste Region eine erste Randregion (mit anderen Worten: eine erste periphere Region) sein. Die zweite Region kann eine zweite Randregion sein. Illustrativ kann sich die erste Region von einer bestimmten Stelle im Sensorpixel (z.B. von der Mitte des Sensorpixels) zu einem ersten Rand (z.B. einem ersten Rand) des Sensorpixels erstrecken. Der zweite Bereich kann sich von dieser Stelle aus in Richtung einer zweiten Kante erstrecken, die der ersten Kante gegenüberliegt. Das Sensorpixel kann somit so konfiguriert werden, dass der/die Abschnitt(e), in dem/denen der Abstand zu dem einen oder mehreren benachbarten Sensorpixeln verringert wird, asymmetrisch zu einer Seite des Sensorpixels verschoben wird/werden. Diese Konfiguration kann z.B. in einem LIDAR-System implementiert werden, in dem eine höhere (z.B. optimale) Auflösung in einem anderen als dem zentralen Bereich erwünscht ist.
  • Diese asymmetrische Konfiguration kann z.B. in einem Fahrzeug mit mehr als einem LIDAR-System implementiert werden (z.B. nicht nur mit einem zentralen, nach vorn gerichteten LIDAR-System). Das Sichtfeld der LIDAR-Systeme kann sich überlappen (z.B. zumindest teilweise). Der Schwerpunkt jedes dieser LIDAR-Systeme (z.B. eine Region mit höherer Effizienz) kann z.B. zu einem der Ränder hin verlagert werden. So kann z.B. ein LIDAR-System im linken Vorderlicht (auch als Scheinwerfer bezeichnet) eines Fahrzeugs und ein anderes LIDAR-System im rechten Scheinwerfer des Fahrzeugs angeordnet sein. Als weiteres Beispiel können zwei frontale (z. B. nach vorn gerichtete) LIDAR-Systeme in einem Scheinwerfer des Fahrzeugs angeordnet sein, z. B. auf der rechten Seite und auf der linken Seite des Scheinwerfers. Das jeweilige Sichtfeld der LIDAR-Systeme darf sich in der Mitte überlappen (z.B. in der Mitte des Fahrzeugs oder in der Mitte des Scheinwerfers). Da der Überlappungsbereich möglicherweise relevanter ist als die anderen Bereiche, können die Sensorpixelflächen mit dem höheren Wirkungsgrad (z.B. mit dem geringeren Abstand zwischen benachbarten Sensorpixeln) zur Mitte (z.B. des Fahrzeugs oder des Scheinwerfers) hin verschoben sein.
  • Ein weiteres Beispiel kann ein Eck-LIDAR-System sein, bei dem die relevantere(n) Region(en) außerhalb des Zentrums liegen kann (können).
  • Der Sensor kann jeder geeignete Sensortyp sein, der üblicherweise für LIDAR-Anwendungen verwendet wird. Als Beispiel kann der Sensor ein Fotosensor sein, z.B. mit einer oder mehreren Lawinenfotodioden und/oder einer oder mehreren Einzelphotonen-Lawinenfotodioden. In solchen Fotodioden können in kurzer Zeit hohe Lawinenströme erzeugt werden. Der Sensor kann auch eine PN-Fotodiode oder eine PIN-Fotodiode sein.
  • In verschiedenen Ausführungsformen kann in der/den kritischen Region(en) (z.B. in einer oder mehreren Regionen, die für die Detektion von LIDAR-Licht relevanter sind) ein hoher Füllfaktor und ein geringes Übersprechen erreicht werden. Dieser Effekt kann durch eine Verringerung der Größe erreicht werden, z.B. der Länge des Bereichs, in dem die Sensorpixel dicht beieinander liegen und in dem die Sensorpixel dichter aneinander angeordnet sind.
  • 120 zeigt eine Draufsicht auf ein LIDAR-System 12000 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 12000 kann als scannendes LIDAR-System konfiguriert werden. Das LIDAR-System 12000 kann z.B. als LIDAR-Sensorsystem 10 (z.B. als scannendes LIDAR-Sensorsystem 10) konfiguriert sein oder konfiguriert werden. Alternativ kann das LIDAR-System 12000 als Flash-LIDAR-System konfiguriert werden.
  • Das LIDAR-System 12000 kann eine Optikanordnung 12002 aufweisen. Die Optikanordnung 12002 kann so konfiguriert werden, dass sie Licht aus der Umgebung oder vor dem LIDAR-System 12000 empfängt (z.B. sammelt). Die Optikanordnung 12002 kann so konfiguriert werden, dass sie das empfangene Licht auf einen Sensor 52 des LIDAR-Systems 12000 richtet (z.B. fokussiert oder kollimiert). Die Optikanordnung 12002 kann ein Sichtfeld 12004 der Optikanordnung 12002 haben oder definieren. Das Sichtfeld 12004 der Optikanordnung 12002 kann mit dem Sichtfeld des LIDAR-Systems 12000 zusammenfallen. Das Sichtfeld 12004 kann einen Bereich (oder einen Raumwinkel) definieren oder darstellen, durch den (oder von dem) die optische Anordnung 12002 Licht empfangen kann (z.B. einen Bereich, der durch die optische Anordnung 12002 sichtbar ist).
  • Das Sichtfeld 12004 kann eine erste Winkelausdehnung in einer ersten Richtung haben (z.B. die Richtung 12054 in 120, z.B. die horizontale Richtung). Beispielsweise kann das Sichtfeld 12004 der Optikanordnung 12002 etwa 60° in horizontaler Richtung betragen, z.B. etwa 50°, z.B. etwa 70°, z.B. etwa 100°. Das Sichtfeld 12004 kann eine zweite Winkelausdehnung in einer zweiten Richtung haben (z.B. die Richtung 12056 in 120, z.B. die vertikale Richtung, illustrativ aus der Ebene herauskommend). Zum Beispiel kann das Gesichtsfeld 12004 der Optikanordnung 12002 etwa 10° in vertikaler Richtung betragen, z.B. etwa 5°, z.B. etwa 20°, z.B. etwa 30°. Die erste Richtung und die zweite Richtung können senkrecht zu einer optischen Achse 12006 der Optikanordnung 12002 verlaufen (zur Veranschaulichung: die optische Achse 12006 kann entlang der Richtung 12052 in 120 gerichtet oder ausgerichtet sein). Die erste Richtung kann senkrecht zur zweiten Richtung verlaufen. Die Definition der ersten Richtung und der zweiten Richtung (z.B. von horizontaler Richtung und vertikaler Richtung) kann willkürlich gewählt werden, z.B. in Abhängigkeit vom gewählten Koordinatensystem (z.B. Referenzsystem). Die optische Achse 12006 der Optikanordnung 12002 kann mit der optischen Achse des LIDAR-Systems 12000 zusammenfallen.
  • Das LIDAR-System 12000 kann mindestens eine Lichtquelle 42 aufweisen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht aussendet, z.B. ein Lichtsignal (z.B. zur Erzeugung eines Lichtstrahls 12008). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge, z.B. in einem vordefinierten Wellenlängenbereich, emittiert. Zum Beispiel kann die Lichtquelle 42 so konfiguriert werden, dass sie Licht im Infrarot- und/oder nahen Infrarotbereich emittiert (z.B. im Bereich von etwa 700 nm bis etwa 5000 nm, z.B. im Bereich von etwa 860 nm bis etwa 2000 nm, z.B. 905 nm). Die Lichtquelle 42 kann so konfiguriert werden, dass sie LIDAR-Licht emittiert (z.B. kann das Lichtsignal LIDAR-Licht sein). Die Lichtquelle 42 kann eine Lichtquelle und/oder eine Optik zur gerichteten Aussendung von Licht aufweisen, z.B. zur Aussendung von kollimiertem Licht (z.B. zur Aussendung von Laserlicht). Die Lichtquelle 42 kann so konfiguriert sein, dass sie kontinuierlich Licht ausstrahlt und/oder sie kann so konfiguriert sein, dass sie gepulstes Licht ausstrahlt (z.B. zur Aussendung einer Folge von Lichtpulsen, wie z.B. einer Folge von Laserpulsen).
  • Das LIDAR-System 12000 kann eine Abtasteinheit 12010 (z.B. eine Strahlsteuereinheit) aufweisen. Die Abtasteinheit 12010 kann so konfiguriert werden, dass sie den von der Lichtquelle 42 emittierten Lichtstrahl 12008 empfängt. Die Abtasteinheit 12010 kann so konfiguriert werden, dass sie den empfangenen Lichtstrahl 12010 auf das Sichtfeld 12004 der Optikanordnung 12002 richtet. Im Zusammenhang mit der vorliegenden Anwendung kann das von der Abtasteinheit 12010 ausgegebene (oder durch sie ausgegebene) Lichtsignal (z.B. das von der Abtasteinheit 12010 in Richtung des Sichtfeldes 12004 gerichtete Lichtsignal) als Lichtsignal 12012 oder als emittiertes Licht 12012 oder als emittiertes Lichtsignal 12012 bezeichnet werden.
  • Die Abtasteinheit 12010 kann so konfiguriert werden, dass sie das emittierte Lichtsignal 12012 so steuert, dass ein Bereich des Sichtfeldes 12004 durch das emittierte Lichtsignal 12012 beleuchtet wird. Der beleuchtete Bereich kann sich über das gesamte Sichtfeld 12004 in mindestens einer Richtung erstrecken (z.B. kann der beleuchtete Bereich als eine Linie gesehen werden, die sich entlang des gesamten Sichtfeldes 12004 in horizontaler oder vertikaler Richtung erstreckt). Alternativ kann der beleuchtete Bereich auch ein Punkt (z.B. ein kreisförmiger Bereich) im Sichtfeld 12004 sein.
  • Die Abtasteinheit 12010 kann so konfiguriert werden, dass sie die Aussendung des Lichtsignals 12012 steuert, um das Sichtfeld 12004 mit dem ausgesendeten Lichtsignal 12012 abzutasten (z.B. um verschiedene Teile des Sichtfeldes 12004 nacheinander mit dem ausgesendeten Lichtsignal 12012 zu beleuchten). Die Abtastung kann entlang einer Abtastrichtung erfolgen (z.B. einer Abtastrichtung des LIDAR-Systems 12000). Die Abtastrichtung kann eine Richtung senkrecht zu der Richtung sein, in der sich der beleuchtete Bereich erstreckt. Die Abtastrichtung kann die horizontale oder die vertikale Richtung sein (als Beispiel in 120 kann die Abtastrichtung die Richtung 12054 sein, wie durch die Pfeile dargestellt).
  • Die Abtasteinheit 12010 kann eine geeignete (z.B. steuerbare) Komponente oder eine geeignete Konfiguration zur Abtastung des Sichtfeldes 12004 mit dem emittierten Licht 12012 aufweisen. Als Beispiel kann die Scaneinheit 12010 einen oder mehrere 1D-MEMS-Spiegel, einen 2D-MEMS-Spiegel, einen rotierenden Polygonspiegel, ein optisches phasengesteuertes Feld (Phased Array), ein Strahlführungselement auf der Basis von Meta-Materialien oder ähnliches aufweisen. Als ein weiteres Beispiel kann die Abtasteinheit 12010 einen steuerbaren Lichtemitter aufweisen, z.B. einen Lichtemitter mit einer Vielzahl von lichtemittierenden Elementen, deren Emission gesteuert werden kann (z.B. spaltenweise oder pixelweise), so dass die Abtastung des emittierten Lichts 12012 durchgeführt werden kann. Als Beispiel für einen steuerbaren Lichtemitter kann die Abtasteinheit 12010 ein Vertical-Cavity-Surface-Emitting-Laser-Array (VCSEL, Oberflächenemitter) oder ähnliches aufweisen.
  • Das LIDAR-System 12000 kann mindestens einen Sensor 52 aufweisen (z.B. einen Lichtsensor, z.B. einen LIDAR-Sensor). Der Sensor 52 kann so konfiguriert werden, dass er Licht von der Optikanordnung 12002 empfängt (z.B. kann der Sensor 52 in der Brennebene der Optikanordnung 12002 angeordnet sein). Der Sensor 52 kann so konfiguriert werden, dass er in einem vordefinierten Wellenlängenbereich arbeitet, z.B. im Infrarotbereich und/oder im nahen Infrarotbereich (z.B. von ca. 860 nm bis ca. 2000 nm, z.B. von ca. 860 nm bis ca. 1600 nm).
  • Der Sensor 52 kann einen oder mehrere Sensorpixel aufweisen. Das eine oder die mehreren Sensorpixel können so konfiguriert werden, dass sie ein Signal erzeugen, z.B. ein oder mehrere Sensorpixelsignale. Das eine oder die mehreren Sensorpixelsignale können ein analoges Signal (z.B. ein elektrisches Signal, wie z.B. ein Strom) sein oder aufweisen. Das eine oder die mehreren Sensorpixelsignale können proportional zur Lichtmenge sein, die vom Sensor 52 gesammelt wird (z.B. zur Lichtmenge, die auf das jeweilige Sensorpixel trifft). Als Beispiel kann der Sensor 52 eine oder mehrere Fotodioden aufweisen. Zur Veranschaulichung: Jedes Sensorpixel 12020 kann eine entsprechende Fotodiode (z.B. desselben Typs oder verschiedener Typen) aufweisen oder damit verbunden sein. Zum Beispiel kann mindestens eine Fotodiode auf einer Lawinenverstärkung basieren. Mindestens eine Fotodiode (z.B. mindestens einige Fotodioden oder alle Fotodioden) kann eine Lawinenfotodiode sein. Bei der Lawinenfotodiode kann es sich um eine Einzelphotonen-Lawinenfotodiode handeln. Als weiteres Beispiel kann mindestens eine Fotodiode eine PIN-Fotodiode sein. Ein weiteres Beispiel: Mindestens eine Fotodiode kann eine PN-Fotodiode sein.
  • Das LIDAR-System 12000 kann einen Signalwandler, wie z.B. einen Zeit-Digital-Wandler, aufweisen. Beispielsweise kann eine Ausleseschaltung des LIDAR-Systems 12000 den Zeit-Digital-Wandler enthalten (z.B. kann eine Zeitschaltung der Ausleseschaltung den Zeit-Digital-Wandler enthalten). Der Signalkonverter kann mit mindestens einer Fotodiode gekoppelt sein (z.B. mit der mindestens einen Lawinenfotodiode, z.B. mit der mindestens einen Einzelphotonen-Lawinenfotodiode). Der Signalwandler kann so konfiguriert werden, dass er das von der mindestens einen Fotodiode gelieferte Signal in ein digitalisiertes Signal umwandelt (z.B. in ein Signal, das von einem oder mehreren Prozessoren oder Verarbeitungseinheiten des LIDAR-Systems 12000 verstanden oder verarbeitet werden kann). Das LIDAR-System 12000 kann einen Verstärker (z.B. einen Transimpedanzverstärker) aufweisen. Zum Beispiel kann eine Energiespeicherschaltung des LIDAR-Systems 12000 den Transimpedanzverstärker aufweisen. Der Verstärker kann so konfiguriert werden, dass er ein von einer oder mehreren Fotodioden geliefertes Signal verstärkt (z.B. zur Verstärkung eines von jeder der Fotodioden gelieferten Signals). Das LIDAR-System 12000 kann einen weiteren Signalwandler, wie z.B. einen Analog-Digital-Wandler, aufweisen. Zum Beispiel kann die Ausleseschaltung des LIDAR-Systems 12000 den Analog-Digital-Wandler enthalten. Der weitere Signalwandler kann dem Verstärker nachgeschaltet werden. Der weitere Signalwandler kann so konfiguriert werden, dass er ein vom Verstärker geliefertes Signal (z.B. ein analoges Signal) in ein digitalisiertes Signal (d.h. in ein digitales Signal) umwandelt. Zusätzlich oder alternativ kann der Sensor 52 einen Zeit-Digital-Wandler und/oder einen Verstärker (z.B. einen Transimpedanzverstärker) und/oder einen Analog-Digital-Wandler aufweisen, die wie hier beschrieben konfiguriert sind.
  • Der Sensor 52 kann eine oder mehrere Signalleitungen aufweisen. Jede Signalleitung kann mit mindestens einem Sensorpixel gekoppelt sein (z.B. kann eine Signalleitung mit einem oder mehreren entsprechenden Sensorpixeln gekoppelt sein). Die eine oder mehreren Signalleitungen können so konfiguriert werden, dass sie das von dem/den damit verbundenen Sensorpixel(n) gelieferte Signal transportieren. Die eine oder mehrere Signalleitungen können so konfiguriert werden, dass sie das von dem/den Sensorpixel(n) gelieferte Signal zu einem oder mehreren Prozessoren (z.B. einer oder mehreren Verarbeitungseinheiten) des LIDAR-Systems 12000 transportieren.
  • Das LIDAR-System 12000 kann in ein Fahrzeug eingebaut (oder nachgerüstet) werden. Der Sensor 52 kann z.B. in das Fahrzeug eingebaut (oder nachgerüstet) werden, z.B. in einen Scheinwerfer des Fahrzeugs. Zum Beispiel kann ein Scheinwerfer den Sensor 52 enthalten (z.B. kann jeder Scheinwerfer des Fahrzeugs einen Sensor 52 enthalten). Ein Scheinwerfer kann auch mehr als einen Sensor 52 aufweisen (z.B. mehrere Sensoren 52 mit der gleichen Konfiguration oder mit unterschiedlichen Konfigurationen). Beispielsweise können der rechte Scheinwerfer und der linke Scheinwerfer eines Fahrzeugs jeweils einen entsprechenden Sensor 52 aufweisen. Das LIDAR-System 12000 kann eine Pixelsignal-Auswahlschaltung 11624 aufweisen, um das von jedem Sensor 52 erzeugte Signal auszuwerten (wie z.B. in Bezug auf 116A bis 119 beschrieben).
  • Der Sensor 52 (z.B. das eine oder die mehreren Sensorpixel und/oder die eine oder die mehreren Signalleitungen) kann so konfiguriert werden, dass das Übersprechen zwischen benachbarten Sensorpixeln unter Beibehaltung eines hohen Wirkungsgrades (z.B. Lichtsammeleffizienz) reduziert oder wesentlich eliminiert wird. Die Konfiguration des Sensors 52 wird weiter unten näher erläutert, z.B. in Bezug auf 121A bis 122.
  • 121A und 121B zeigen jeweils einen Sensor 52 mit einem oder mehreren Sensorpixeln 12102 und einer oder mehreren Signalleitungen 12108 in einer schematischen Ansicht, entsprechend verschiedener Ausführungsformen.
  • Der Sensor 52 kann als Sensor-Array konfiguriert werden. Als Beispiel kann der Sensor 52 als 1D-Sensor-Array (z.B. ein eindimensionales Sensor-Array) konfiguriert werden. Zur Veranschaulichung: Ein oder mehrere Sensorpixel 12102 können entlang einer Linie (z. B. ausgerichtet) angeordnet werden (z. B. entlang einer gleichen Richtung). Zum Beispiel können das eine oder die mehreren Sensorpixel 12102 entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 12000 ausgerichtet werden. Das eine oder die mehreren Sensorpixel 12102 können z.B. in vertikaler Richtung ausgerichtet sein (z.B. in Richtung 12056), z.B. kann der Sensor 52 eine Spalte von Sensorpixeln 12102 aufweisen, wie z.B. in 121A und 121B dargestellt. Alternativ können ein oder mehrere Sensorpixel 12102 z.B. entlang der horizontalen Richtung (z.B. in Richtung 12054) ausgerichtet sein, z.B. kann der Sensor 52 eine Reihe von Sensorpixeln 12102 aufweisen. Als weiteres Beispiel kann der Sensor 52 als 2D-Sensorarray konfiguriert werden (z.B. ein zweidimensionales Sensorarray), wie dies weiter unten näher erläutert wird, z.B. in Bezug auf 122.
  • Ein Sensorpixel 12102 (z.B. jedes Sensorpixel 12102) kann einen ersten Bereich 12104 aufweisen. Die erste Region 12104 kann eine zentrale Region sein, z.B. kann die erste Region 12104 in einem zentralen Teil des jeweiligen Sensorpixels 12102 angeordnet sein (z.B. in einem zentralen Teil des Sensors 52). Illustrativ kann die erste Region 12104 in einem Bereich des Sensors 52 (z.B. eines Sensorpixels 12102) angeordnet sein, auf den zu erwarten ist, dass Licht von einem für die LIDAR-Detektion relevanten Objekt auftrifft. Als Beispiel kann der erste Bereich 12104 so angeordnet werden, dass Licht, das von einem Objekt kommt, das sich in der Nähe (z.B. in einer Entfernung von weniger als 5 m oder weniger als 1 m) zur optischen Achse 12006 des LIDAR-Systems 12000 befindet, auf den ersten Bereich 12104 auftreffen kann. Die erste Region 12104 kann so angeordnet werden, dass Licht, das vom Zentrum des Sichtfeldes 12004 kommt, auf die erste Region 12104 auftreffen kann.
  • Ein Sensorpixel 12102 (z.B. jedes Sensorpixel 12102) kann einen zweiten Bereich 12106 aufweisen. Der zweite Bereich 12106 kann ein Randbereich sein, z.B. kann der zweite Bereich 12106 in einem Randbereich (mit anderen Worten, einem peripheren Bereich) des jeweiligen Sensorpixels 12102 (z.B. des Sensors 52) angeordnet sein. Illustrativ kann der zweite Bereich 12106 in einem Bereich des Sensors 52 (z.B. eines Sensorpixels 12102) angeordnet sein, auf den zu erwarten ist, dass Licht von einem für die LIDAR-Erfassung weniger relevanten Objekt auftrifft. Beispielsweise kann der zweite Bereich 12106 so angeordnet werden, dass Licht, das von einem Objekt kommt, das weiter (z.B. in einer Entfernung von mehr als 5 m oder mehr als 10 m) von der optischen Achse 12006 des LIDAR-Systems 12000 entfernt ist, auf den zweiten Bereich 12106 auftreffen kann. Die zweite Region 12106 kann so angeordnet werden, dass Licht, das vom Rand (von den Rändern) des Sichtfeldes 12004 kommt, auf die zweite Region 12106 auftreffen kann.
  • Die zweite Region 12106 kann neben der ersten Region 12104 angeordnet werden (z.B. in unmittelbarer Nachbarschaft zur ersten Region 12104). Illustrativ können die erste Region 12104 und die zweite Region 12106 als zwei benachbarte Teile eines Sensorpixels 12102 gesehen werden. Die zweite Region 12106 kann neben der ersten Region 12104 in einer Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000 angeordnet sein. Zum Beispiel kann die zweite Region 12106 in horizontaler Richtung neben der ersten Region 12104 angeordnet sein (wie z.B. in 121A und 121B dargestellt). Alternativ kann sich die zweite Region 12106 in vertikaler Richtung neben der ersten Region 12104 befinden. Die zweite Region 12106 kann auch die erste Region 12104 zumindest teilweise umgeben (z.B. kann die zweite Region 12106 um zwei oder mehr Seiten der ersten Region 12104 angeordnet sein, z.B. um drei oder mehr Seiten der ersten Region 12104).
  • Ein Sensorpixel 12102 kann mehr als eine zweite Region 12106 haben (z.B. zwei zweite Regionen 12106, wie z.B. in 121A und 121B dargestellt). Die Mehrzahl der zweiten Regionen 12106 können Randregionen des Sensorpixels 12102 sein. Zum Beispiel kann eine der zweiten Regionen 12106 an einer ersten Kante (z.B. einem ersten Rand) des Sensorpixels 12102 angeordnet sein. Ein anderer der zweiten Bereiche 12106 kann an einer zweiten Kante (z.B. einem zweiten Rand) des Sensorpixels 12102 angeordnet sein. Die zweite Kante kann gegenüber der ersten Kante liegen. Die Ausdehnung (z.B. die Länge oder die Breite) und/oder die Fläche der zweiten Regionen 12106 kann die gleiche sein. Alternativ können die zweiten Regionen 12106 eine andere Ausdehnung und/oder Fläche haben (z.B. kann das Sensorpixel 12106 asymmetrisch konfiguriert oder geformt sein). Die erste Region 12104 kann zwischen den zweiten Regionen 12106 angeordnet sein. Zur Veranschaulichung: Die erste (z.B. zentrale) Region 12104 kann zwischen zwei zweiten (z.B. Rand-) Regionen 12106 angeordnet sein.
  • Ein Sensorpixel 12102 kann so konfiguriert werden, dass ein Abstand (z. B. ein Randabstand) zwischen dem Sensorpixel 12102 und einem oder mehreren benachbarten Sensorpixeln 12102 entlang mindestens einer Ausdehnungsrichtung des Sensorpixels 12102 variiert. Das Sensorpixel 12102 kann so konfiguriert werden, dass dieser Abstand entlang einer Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000 variiert. Beispielsweise kann dieser Abstand entlang der horizontalen Richtung variieren (z.B. entlang einer Breite oder einer Länge des Sensorpixels 12102). Alternativ kann dieser Abstand in vertikaler Richtung variieren (z.B. entlang der Höhe des Sensorpixels 12102).
  • Ein Sensorpixel 12102 kann so konfiguriert werden, dass der Abstand zwischen dem Sensorpixel 12102 und einem oder mehreren benachbarten Sensorpixeln 12102 im ersten Bereich einen ersten Wert d1 hat (z.B. in dem Bereich, in dem sich der erste Bereich des Sensorpixels 12102 und der erste Bereich der benachbarten Sensorpixel 12102 überlappen). Das Sensorpixel 12102 kann so konfiguriert werden, dass der Abstand im zweiten Bereich (z.B. in dem Abschnitt, in dem sich der zweite Bereich des Sensorpixels 12102 und der zweite Bereich der benachbarten Sensorpixel 12102 überlappen) einen zweiten Wert d2 hat. Der zweite Wert d2 kann kleiner (z.B. 2-mal kleiner, 5-mal kleiner oder 10-mal kleiner) als der erste Wert d1 sein. Dies kann den Effekt haben, dass im ersten Bereich ein hoher Füllfaktor erreicht werden kann (z.B. kann eine große optisch aktive Fläche bereitgestellt werden). Gleichzeitig kann im zweiten Bereich das Übersprechen zwischen dem Sensorpixel 12102 und den benachbarten Sensorpixeln 12102 reduziert oder im Wesentlichen eliminiert werden.
  • Ein Sensorpixel 12102 kann in der ersten Region 12104 eine größere Ausdehnung (z.B. eine größere laterale Ausdehnung) als in der zweiten Region 12106 haben. Das Sensorpixel 12102 kann in einer Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 12000 in der ersten Region 12104 eine größere Ausdehnung haben als in der zweiten Region 12106. Zum Beispiel kann das Sensorpixel 12102 in der ersten Region 12104 eine größere Ausdehnung in vertikaler Richtung haben als in der zweiten Region 12106. Beispielsweise kann das Sensorpixel 12102 eine erste Höhe im ersten Bereich 12104 und eine zweite Höhe im zweiten Bereich 12106 haben, wobei die zweite Höhe kleiner als die erste Höhe sein kann.
  • Eine gleiche oder ähnliche Konfiguration kann für ein Sensorpixel 12102 mit mehr als einem zweiten Bereich 12106 vorgesehen werden. Das Sensorpixel 12102 kann so konfiguriert werden, dass der Abstand zwischen dem Sensorpixel 12102 und einem oder mehreren benachbarten Sensorpixeln 12102 in den zweiten Bereichen 12106 den zweiten Wert d2 hat (oder einen entsprechenden Wert kleiner als d1 in jedem der zweiten Bereiche 12106). Das Sensorpixel 12102 kann in der ersten Region 12104 eine größere Ausdehnung haben als in den zweiten Regionen 12106. Das Sensorpixel 12102 kann in einer Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 12000 in der ersten Region 12104 eine größere Ausdehnung haben als in den zweiten Regionen 12106. Zum Beispiel kann das Sensorpixel 12102 in der ersten Region 12104 eine größere Ausdehnung in vertikaler Richtung haben als in der zweiten Region 12106. Illustrativ kann das Sensorpixel 12102 eine erste Höhe im ersten Bereich 12104 und eine zweite Höhe in den zweiten Bereichen 12106 haben (oder eine jeweilige Höhe, die kleiner als die erste Höhe in jedem der zweiten Bereiche 12106 ist), wobei die zweite Höhe kleiner als die erste Höhe sein kann.
  • Die Form eines oder mehrerer Sensorpixel 12102 (z.B. der ersten Region 12104 und/oder der zweiten Region(en) 12106) kann angepasst werden, um die optisch aktive Fläche in der betreffenden (z.B. zentralen) Region zu vergrößern und das Übersprechen in den anderen (z.B. Rand-)Regionen zu verringern.
  • Ein Sensorpixel 12102 kann so konfiguriert werden, dass der Abstand zu einem oder mehreren benachbarten Sensorpixeln 12102 im ersten Bereich einen (im Wesentlichen) konstanten Wert hat (z.B. den ersten Wert d1). Zum Beispiel kann der erste Bereich 12104 eine rechteckige oder quadratische Form haben.
  • Das Sensorpixel 12102 kann so konfiguriert werden, dass der Abstand zu einem oder mehreren benachbarten Sensorpixeln 12102 im zweiten Bereich einen (im Wesentlichen) konstanten Wert hat (z.B. den zweiten Wert d2). Zum Beispiel kann der zweite Bereich 12106 eine rechteckige oder quadratische Form haben. Illustrativ kann das Sensorpixel 12102 mit einer plötzlichen (d.h. schrittweisen) Veränderung der Höhe des Sensorpixels 12102 konfiguriert (z.B. geformt) werden (wie z.B. in 121A dargestellt).
  • Zusätzlich oder alternativ kann ein Sensorpixel 12102 so konfiguriert werden, dass der Abstand zu einem oder mehreren benachbarten Sensorpixeln 12102 über den zweiten Bereich 12106 variiert (wie z. B. in 121B dargestellt). Das Sensorpixel 12102 kann im zweiten Bereich 12106 eine sich verjüngende Form haben. Zur Veranschaulichung: Die Höhe des Sensorpixels 12102 kann (z.B. allmählich oder schrittweise) von einem Anfangswert am Anfang der zweiten Region 12106 (z.B. an der Schnittstelle mit der ersten Region 12104) auf einen Endwert am Ende der zweiten Region 12106 (z.B. am Rand des Sensorpixels 12102) abnehmen. Als Beispiel kann die zweite Region 12106 eine polygonale Form haben, wie z.B. eine dreieckige Form oder eine trapezförmige Form. Dementsprechend kann der Abstand zu einem oder mehreren benachbarten Sensorpixeln 12102 von einem Anfangswert am Anfang des zweiten Bereichs 12106 bis zu einem Endwert am Ende des zweiten Bereichs 12106 allmählich oder schrittweise abnehmen.
  • Anders beschrieben, können ein oder mehrere Sensorpixel 12102 so konfiguriert werden, dass die aktive Fläche eines Sensorpixels (z.B. die gesamte aktive Fläche eines Sensorpixels) mit zunehmendem Abstand von der Mitte des Sensors 52 abnimmt. Der Abstand kann ein Abstand entlang einer Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000 sein (z.B. entlang der Richtung 12054). Die aktive Fläche des Sensorpixels kann als eine optisch aktive Fläche verstanden werden, z.B. eine Fläche, die so konfiguriert ist, dass beim Auftreffen von Licht (z.B. reflektiertem LIDAR-Licht) auf diese Fläche ein Signal erzeugt wird.
  • Ein Sensorpixel 12102 kann so konfiguriert (z.B. dimensioniert und/oder geformt) werden, dass eine aktive Sensorpixelfläche in der zweiten Region 12106 kleiner ist als in der ersten Region 12104. Zur Veranschaulichung: Das eine oder die mehreren Sensorpixel 12102 können so konfiguriert sein, dass eine aktive Sensorpixelfläche (z.B. eine gesamte aktive Sensorpixelfläche) im zweiten Bereich 12106 (z.B. in einem Bereich des Sensors 52, der den einen oder die mehreren zweiten Bereiche 12106 des einen oder der mehreren Sensorpixel 12102 umfasst) kleiner ist als im ersten Bereich 12104 (z.B. in einem Bereich des Sensors 52, der den einen oder die mehreren ersten Bereiche 12106 des einen oder der mehreren Sensorpixel 12102 umfasst). Die gesamte aktive Sensorpixelfläche kann als die Summe der aktiven Sensorpixelflächen der einzelnen Sensorpixel 12102 betrachtet werden.
  • Der Übergang zwischen der Pixelfläche des aktiven Sensors in der ersten Region 12104 und in der zweiten Region 12106 kann schrittweise erfolgen. Ein Sensorpixel 12102 kann so konfiguriert werden, dass die Pixelfläche des aktiven Sensors einen ersten Wert in der ersten Region 12104 und einen zweiten Wert in der zweiten Region 12106 hat. Der erste Wert kann kleiner als der zweite Wert sein. Zur Veranschaulichung: Ein oder mehrere Sensorpixel 12102 können so konfiguriert werden, dass die gesamte aktive Sensorpixelfläche einen ersten Wert in der ersten Region 12104 und einen zweiten Wert in der zweiten Region 12106 hat.
  • Der Übergang zwischen der Pixelfläche des aktiven Sensors in der ersten Region 12104 und in der zweiten Region 12106 kann allmählich erfolgen. Ein Sensorpixel 12102 kann so konfiguriert werden, dass die aktive Sensorpixelfläche in der zweiten Region 12106 mit zunehmendem Abstand von der ersten Region 12104 abnimmt (z.B. von der Schnittstelle zwischen der ersten Region 12104 und der zweiten Region 12106). Die Verkleinerung der Pixelfläche des aktiven Sensors kann entlang der Richtung erfolgen, entlang der die erste Region 12104 und die zweite Region 12106 nebeneinander angeordnet sind (z.B. entlang einer Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000). Zur Veranschaulichung: Ein oder mehrere Sensorpixel 12102 können so konfiguriert werden, dass die gesamte aktive Sensorpixelfläche in der zweiten Region 12106 mit zunehmendem Abstand von der ersten Region 12104 abnimmt.
  • 121C und 121D zeigen jeweils einen Sensor 52 mit einem oder mehreren Sensorpixeln 12102 in einer schematischen Ansicht, entsprechend verschiedener Ausführungsformen.
  • Die erste Region 12104 kann eine Randregion sein, z.B. kann die erste Region 12104 in einem Randabschnitt des jeweiligen Sensorpixels 12102 angeordnet sein. Illustrativ kann der erste Bereich 12104 in einem Randabschnitt des Sensorpixels 12102 und der zweite Bereich 12106 in einem anderen (z.B. gegenüberliegenden) Randabschnitt des Sensorpixels 12102 angeordnet sein. In dieser Konfiguration kann (können) der (die) Abschnitt(e), in dem (denen) der Abstand zwischen benachbarten Sensorpixeln 12102 vergrößert wird (z.B. die zweiten Bereiche 12106 mit geringerer Ausdehnung), zu einer Seite der Sensorpixel 12102 verschoben werden (z.B. zu einer Seite des Sensors 52).
  • Diese Konfiguration kann vorteilhaft sein, wenn der Teil des Sensors 52, in dem eine größere aktive Fläche des Sensorpixels erwünscht ist (z.B. eine Fläche, auf die Licht, das für die LIDAR-Erfassung relevanter ist, auftreffen soll), zu einer Seite des Sensors 52 hin verschoben wird (zur Veranschaulichung: die Seite, die die ersten Bereiche 12104 des einen oder der mehreren Sensorpixel 12102 umfasst).
  • Diese Konfiguration kann beispielsweise dann vorteilhaft sein, wenn der Sensor 52 in einem Scheinwerfer eines Fahrzeugs eingebaut ist. Der Sensor 52 (z.B. der eine oder mehrere Sensorpixel 12102) kann so konfiguriert werden, dass eine größere (z.B. die gesamte) aktive Fläche des Sensorpixels in der Seite des Sensors 52, die näher an der Mitte des Fahrzeugs angeordnet ist, zur Verfügung steht. Eine kleinere aktive Sensorpixelfläche kann in der Seite des Sensors 52 vorgesehen werden, die weiter von der Fahrzeugmitte entfernt angeordnet ist, um das Übersprechen zu reduzieren. Illustrativ kann der in 121C dargestellte Sensor 52 in den linken Scheinwerfer eines Fahrzeugs eingebaut werden (z.B. bei Blick entlang der Längsachse des Fahrzeugs in Vorwärtsfahrtrichtung). Der in 121D gezeigte Sensor 52 kann in den linken Scheinwerfer eines Fahrzeugs eingebaut werden. In dieser Konfiguration kann das LIDAR-System 12000 einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie das von jedem Sensor 52 gelieferte Signal auswerten. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Erfüllung eines Koinzidenzkriteriums zwischen den verschiedenen Signalen auswerten. Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Signale basierend auf der Richtung des einfallenden Lichts auswerten (z.B. basierend darauf, welcher Sensor 52 das Signal erzeugt hat).
  • Es ist beabsichtigt, dass mindestens ein Sensorpixel 12102 oder eine Vielzahl von Sensorpixeln 12102 oder jedes Sensorpixel 12102 wie oben in Bezug auf 121A bis 121D beschrieben konfiguriert werden kann. Die Sensorpixel 12102 können auch unterschiedlich konfiguriert sein. Als Beispiel kann ein Sensorpixel 12102 wie in Bezug auf 121A beschrieben konfiguriert werden und ein anderes Sensorpixel 12102 wie in Bezug auf 121B beschrieben. Ein weiteres Beispiel: Ein Sensorpixel 12102 kann einen zweiten Bereich 12106 haben, der so konfiguriert ist, dass der Abstand mit den benachbarten Sensorpixeln über den zweiten Bereich 12106 konstant bleibt, und einen weiteren zweiten Bereich 12106, der so konfiguriert ist, dass der Abstand mit zunehmendem Abstand vom ersten Bereich 12104 zunimmt.
  • 122 zeigt einen Sensor 52 mit einer Vielzahl von Sensorpixeln 12202 und einer oder mehreren Signalleitungen 12208 in einer schematischen Ansicht, entsprechend verschiedener Ausführungsformen.
  • Der Sensor 52 kann als 2D-Sensorarray konfiguriert werden. Die Mehrzahl der Sensorpixel 12202 kann in einem zweidimensionalen Sensor-Pixel-Array angeordnet werden. Das 2D-Sensorarray kann eine Vielzahl von Spalten und eine Vielzahl von Zeilen umfassen. In der beispielhaften Darstellung in 122 ist ein Sensorpixelarray mit fünf Spalten der Sensorpixel 12202 und drei Zeilen der Sensorpixel 12202 dargestellt. Es wird davon ausgegangen, dass das Sensorpixelarray eine beliebige geeignete Anzahl von Spalten und/oder Reihen von Sensorpixeln 12202 aufweisen kann. Die Sensorpixel 12202 (z.B. mindestens ein Sensorpixel 12202 aus der Vielzahl der Sensorpixel 12202) können wie oben in Bezug auf 121A bis 121D beschrieben konfiguriert werden.
  • Das Sensor-Pixel-Array kann eine erste Array-Region 12204 aufweisen. Die erste Array-Region 12204 kann ein oder mehrere Sensorpixel 12202 aufweisen (z.B. ein oder mehrere zentrale Sensorpixel 12202). Die erste Array-Region 12204 kann eine zentrale Region sein, z.B. kann die erste Array-Region 12204 in einem zentralen Teil des Sensorpixelarrays angeordnet sein. Illustrativ kann die erste Array-Region 12204 in einem Bereich des Sensors 52 (z.B. des Sensorpixelarrays) angeordnet sein, von dem erwartet werden kann, dass Licht von einem für die LIDAR-Erfassung relevanten Objekt auftrifft. Als Beispiel kann die erste Array-Region 12204 so angeordnet werden, dass Licht, das von einem Objekt nahe der optischen Achse 12006 des LIDAR-Systems 12000 kommt, auf die erste Array-Region 12204 (z.B. auf die Sensorpixel 12202, die in der ersten Array-Region 12204 angeordnet sind) auftreffen kann. Die erste Array-Region 12204 kann so angeordnet werden, dass Licht, das aus der Mitte des Sichtfeldes 12004 kommt, auf die erste Array-Region 12204 auftreffen kann.
  • Das Sensor-Pixel-Array kann eine zweite Array-Region 12206 aufweisen. Die zweite Array-Region 12206 kann ein oder mehrere Sensorpixel 12202 aufweisen (z.B. ein oder mehrere Randsensorpixel 12202). Die zweite Array-Region 12206 kann eine Randregion sein, z.B. kann die zweite Array-Region 12206 in einem Randabschnitt (mit anderen Worten, einem peripheren Abschnitt) des Sensorpixelarrays angeordnet sein. Illustrativ kann die zweite Array-Region 12206 in einem Bereich des Sensors 52 (z.B. des Sensor-Pixelarrays) angeordnet sein, auf den zu erwarten ist, dass Licht von einem Objekt, das für die LIDAR-Erfassung weniger relevant ist, auftrifft. Als Beispiel kann die zweite Array-Region 12206 so angeordnet werden, dass Licht, das von einem weiter von der optischen Achse 12006 des LIDAR-Systems 12000 entfernten Objekt kommt, auf die zweite Array-Region 12206 auftreffen kann. Die zweite Array-Region 12206 kann so angeordnet werden, dass Licht, das von der (den) Kante(n) des Sichtfeldes 12004 kommt, auf die zweite Array-Region 12206 auftreffen kann.
  • Alternativ kann der erste Array-Bereich 12204 ein Randbereich des Sensorpixelarrays sein (z.B. ein erster Randbereich, der in einem Randabschnitt des Sensorpixelarrays angeordnet ist). Der zweite Array-Bereich 12206 kann ein zweiter Randbereich des Sensorpixelarrays sein (z.B. kann der zweite Array-Bereich 12206 in einem anderen Randabschnitt des Sensorpixelarrays angeordnet sein). Diese Konfiguration kann vorteilhaft sein, wenn der Teil des Sensorpixelarrays, in dem eine größere aktive Fläche des Sensorpixels erwünscht ist (z.B. eine Fläche, auf die für die LIDAR-Erfassung relevanteres Licht auftreffen soll), zu einer Seite des Sensorpixelarrays verschoben wird (z.B. die Seite, die den ersten Array-Bereich 12204 umfasst). Diese Konfiguration kann z.B. vorteilhaft sein, wenn das Sensor-Pixelarray in einem Scheinwerfer eines Fahrzeugs enthalten ist (z.B. im linken Scheinwerfer eines Fahrzeugs).
  • Die zweite Array-Region 12206 kann neben der ersten Array-Region 12204 angeordnet werden (z.B. unmittelbar neben der ersten Array-Region 12204). Illustrativ können die erste Array-Region 12204 und die zweite Array-Region 12206 als zwei benachbarte Teile eines Sensorpixelarrays gesehen werden. Die zweite Array-Region 12206 kann neben der ersten Array-Region 12204 in einer Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000 angeordnet werden. Zum Beispiel kann die zweite Array-Region 12206 in horizontaler Richtung neben der ersten Array-Region 12204 angeordnet sein (wie z.B. in 122 dargestellt). Alternativ kann sich die zweite Array-Region 12206 in vertikaler Richtung neben der ersten Array-Region 12204 befinden. Die zweite Array-Region 12206 kann sich sowohl in horizontaler als auch in vertikaler Richtung neben der ersten Array-Region 12204 befinden. Zur Veranschaulichung: Das Sensor-Pixel-Array kann eine oder mehrere zweite Regionen 12206 neben der ersten Array-Region 12204 in horizontaler Richtung und eine oder mehrere andere zweite Regionen 12206 neben der ersten Array-Region 12204 in vertikaler Richtung umfassen (z.B. eine kreuzförmige Anordnung bilden).
  • Das Sensor-Pixel-Array kann mehr als eine zweite Array-Region 12206 haben (z. B. zwei zweite Array-Regionen 12206, wie z. B. in 122 dargestellt). Die Mehrzahl der zweiten Array-Regionen 12206 können Randregionen des Sensor-Pixelarrays sein. Als Beispiel kann eine der zweiten Array-Regionen 12206 an einer ersten Kante (z.B. einem ersten Rand) des Sensorpixelarrays angeordnet sein. Ein weiterer der zweiten Array-Regionen 12206 kann an einer zweiten Kante (z.B. einem zweiten Rand) des Sensorpixelarrays angeordnet sein. Die zweite Kante kann gegenüber der ersten Kante liegen. Die Anzahl der Sensorpixel 12202 der zweiten Regionen 12106 kann die gleiche sein. Alternativ können die zweiten Regionen 12106 eine andere Anzahl von Sensorpixeln 12202 aufweisen. Die erste Array-Region 12204 kann zwischen den zweiten Array-Regionen 12206 angeordnet sein. Zur Veranschaulichung: Die erste (z.B. zentrale) Array-Region 12204 kann zwischen zwei zweiten (z.B. Rand-) Array-Regionen 12206 angeordnet sein.
  • Das Sensorpixelarray kann so konfiguriert werden, dass eine aktive Sensorpixelfläche bei Bewegung zum Rand (zu den Rändern) des Sensorpixelarrays hin abnimmt. Die aktive Sensorpixelfläche kann in der ersten Array-Region 12204 eine größere Ausdehnung haben als in der zweiten Array-Region 12206. Die größere Ausdehnung kann in einer Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 12000 liegen. Die Richtung kann senkrecht zu der Richtung sein, in der die erste Array-Region 12204 und die zweite Array-Region 12206 nebeneinander angeordnet sind. Als Beispiel kann die Richtung die vertikale Richtung sein (wie z.B. in 122 dargestellt). Falls das Sensorpixelarray eine Vielzahl (z.B. zwei) zweiter Array-Regionen 12206 aufweist, kann die aktive Sensorpixelfläche in der ersten Array-Region 12204 eine größere Ausdehnung haben als in den zweiten Array-Regionen 12206 (z.B. als in jeder zweiten Array-Region 12206).
  • Die Sensorpixel 12202 können so konfiguriert (z.B. geformt) werden, dass die aktive Sensorpixelfläche in der ersten Array-Region 12204 eine größere Ausdehnung hat als in der zweiten Array-Region 12206. Als Beispiel können die Sensorpixel 12202 eine rechteckige Form haben. Als weiteres Beispiel können die Sensorpixel 12202 eine nicht rechteckige Form haben, z.B. eine kreisförmige Form oder eine polygonale Form (z.B. eine dreieckige Form, eine trapezförmige Form oder eine hexagonale Form). Die Sensorpixel 12202, die entlang der gleichen Linie in Bezug auf die Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 12000 angeordnet sind, können die gleiche Form und/oder Größe haben. Beispielsweise können die Sensorpixel 12202 in derselben Spalte von Sensorpixeln 12202 die gleiche Form und/oder Größe haben (z.B. die gleiche Breite und die gleiche Höhe oder den gleichen Durchmesser). Die Sensorpixel 12202, die entlang derselben Zeile in Bezug auf eine Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000 angeordnet sind, können in der zweiten Array-Region 12206 eine geringere Größe (z.B. eine geringere Breite und/oder eine geringere Höhe oder einen geringeren Durchmesser) haben als in der ersten Array-Region 12204. Zusätzlich oder alternativ können die Sensorpixel 12202, die entlang derselben Linie in Bezug auf eine Richtung parallel zur Abtastrichtung des LIDAR-Systems 12000 angeordnet sind, in der zweiten Array-Region 12206 eine andere Form haben als in der ersten Array-Region 12204. Zum Beispiel kann die Größe der Sensorpixel 12202 in derselben Zeile in der zweiten Array-Region 12206 kleiner sein als in der ersten Array-Region 12204.
  • Zur Veranschaulichung: Die Größe der Sensorpixel 12202 kann mit zunehmendem Abstand der Sensorpixel 12202 von der ersten Array-Region 12204 abnehmen. Als Beispiel können die Sensorpixel 12202 in einer ersten Spalte des zweiten Array-Bereichs 12206 eine geringere Größe im Vergleich zu den Sensorpixeln 12202 im ersten Array-Bereich 12204 haben. Die Sensorpixel 12202 in der ersten Spalte können in Bezug auf die Sensorpixel 12202 in einer zweiten Spalte des zweiten Array-Bereichs 12206, die weiter von dem ersten Array-Bereich 12204 entfernt angeordnet sind als die erste Spalte, größer sein.
  • Zusätzlich oder alternativ kann sich die Form der Sensorpixel 12202 in der zweiten Array-Region 12206 von der Form der Sensorpixel 12202 in der ersten Array-Region 12204 unterscheiden. Die Form der Sensorpixel 12202 in der zweiten Array-Region 12206 kann so gewählt werden, dass die aktive Sensorpixelfläche in der ersten Array-Region 12204 eine größere Ausdehnung hat als in der zweiten Array-Region 12206. Beispielsweise können die Sensorpixel 12202 in der ersten Array-Region 12204 eine rechteckige Form und in der zweiten Array-Region 12206 eine sechseckige Form haben (z.B. eine symmetrische sechseckige Form oder eine asymmetrische sechseckige Form, z.B. größer in horizontaler Richtung als in vertikaler Richtung).
  • Zur weiteren Veranschaulichung: Der Abstand (z. B. Randabstand-) zwischen benachbarten Sensorpixeln 12202 kann mit zunehmendem Abstand der Sensorpixel 12202 von der ersten Array-Region 12204 zunehmen. Der Abstand zwischen benachbarten Sensorpixeln 12202 in der ersten Array-Region 12204 kann einen ersten Wert d1 haben. Der Abstand zwischen benachbarten Sensorpixeln 12202 in der ersten Spalte in der zweiten Array-Region 12206 kann einen zweiten Wert d2 haben. Der Abstand zwischen benachbarten Sensorpixeln 12202 in der zweiten Spalte in der zweiten Array-Region 12206 kann einen dritten Wert d3 haben. Der erste Wert d1 kann größer als der zweite Wert d2 und der dritte Wert d3 sein. Der zweite Wert d2 kann größer als der dritte Wert d3 sein.
  • Da bei einem zweidimensionalen APD-Sensorarray jede Fotodiode einzeln in verschiedenen Ausführungsformen kontaktiert wird, kann z.B. bei einem zweidimensionalen APD-Sensorarray die Anordnung der die Fotodiode kontaktierenden Leitungen (z.B. die Verdrahtung der Vorderseite (Reihenschaltung) der Sensorpixel) entspannter sein. Die Spaltenverdrahtung ist ohnehin kein Problem, da sie auf der Rückseite der Sensorpixel vorgesehen ist.
  • In verschiedenen Ausführungsformen kann ein Teil (z.B. ein Teil der linken Hälfte) des Arrays mit einer auf der linken Seite des Arrays angeordneten Linie der linken Reihe und ein anderer Teil (z.B. ein Teil der rechten Hälfte) des Arrays mit einer auf der rechten Seite des Arrays angeordneten Linie der rechten Reihe kontaktiert werden.
  • Verschiedene Ausführungsformen können eine Erhöhung des Füllfaktors z.B. im mittleren Bereich (z.B. in der ersten Array-Region 12204) des Sensorarrays vorsehen.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1s ist ein LIDAR-Sensor zur Verwendung in einem LIDAR-Sensorsystem. Der LIDAR-Sensor kann ein oder mehrere Sensorpixel und eine oder mehrere Signalleitungen aufweisen. Jede Signalleitung kann mit mindestens einem Sensorpixel gekoppelt sein. Jedes Sensorpixel kann einen ersten Bereich und einen zweiten Bereich haben. Mindestens ein Sensorpixel des einen oder der mehreren Sensorpixel kann im ersten Bereich eine größere Ausdehnung in eine erste Richtung haben als im zweiten Bereich.
    • In Beispiel 2s kann der Gegenstand von Beispiel 1s optional umfassen, dass die erste Richtung eine Richtung senkrecht zu einer Abtastrichtung des LIDAR-Sensorsystems ist.
    • In Beispiel 3s kann der Gegenstand eines der Beispiele 1s oder 2s optional umfassen, dass die erste Richtung eine Richtung senkrecht zu einem horizontalen Sichtfeld des LIDAR-Sensorsystems ist.
    • In Beispiel 4s kann der Gegenstand eines der Beispiele 1s bis 3s optional umfassen, dass die zweite Region neben der ersten Region in einer zweiten Richtung parallel zur Abtastrichtung des LIDAR-Sensorsystems liegt.
    • In Beispiel 5s kann der Gegenstand eines der Beispiele 1s bis 4s optional umfassen, dass die erste Region in einem zentralen Abschnitt des mindestens einen Sensorpixels angeordnet ist und die zweite Region in einem Randabschnitt des mindestens einen Sensorpixels angeordnet ist.
    • In Beispiel 6s kann der Gegenstand eines der Beispiele 1s bis 4s optional umfassen, dass die erste Region in einem ersten Randabschnitt des mindestens einen Sensorpixels angeordnet ist. Der zweite Bereich kann in einem zweiten Randabschnitt des mindestens einen Sensorpixels angeordnet sein. Der erste Randabschnitt kann sich vom zweiten Randabschnitt unterscheiden.
    • In Beispiel 7s kann der Gegenstand eines der Beispiele 1s bis 5s optional umfassen, dass das mindestens eine Sensorpixel zwei zweite Regionen hat. Die erste Region kann zwischen den zweiten Regionen angeordnet sein. Das mindestens eine Sensorpixel kann in der ersten Region eine größere Ausdehnung in die erste Richtung haben als in den zweiten Regionen.
    • In Beispiel 8s kann der Gegenstand eines der Beispiele 1s bis 7s optional umfassen, dass die erste Richtung die vertikale Richtung ist.
    • In Beispiel 9s kann der Gegenstand eines der Beispiele 4s bis 8s optional umfassen, dass die zweite Richtung die horizontale Richtung ist.
    • In Beispiel 10s kann der Gegenstand eines der Beispiele 1s bis 9s optional umfassen, dass die erste Region eine rechteckige Form hat.
    • In Beispiel 11s kann der Gegenstand eines der Beispiele 1s bis 10s optional umfassen, dass die zweite Region eine rechteckige Form hat.
    • In Beispiel 12s kann der Gegenstand eines der Beispiele 1s bis 10s optional umfassen, dass die zweite Region eine polygonale Form oder eine dreieckige Form oder eine trapezförmige Form hat.
    • In Beispiel 13s kann der Gegenstand eines der Beispiele 1s bis 12s optional umfassen, dass eine aktive Sensorpixelfläche in der zweiten Region kleiner sein kann als in der ersten Region.
    • In Beispiel 14s kann der Gegenstand eines der Beispiele 2s bis 13s optional umfassen, dass die Pixelfläche des aktiven Sensors in der zweiten Region mit zunehmendem Abstand von der ersten Region entlang der zweiten Richtung abnimmt.
    • In Beispiel 15s kann der Gegenstand eines der Beispiele 1s bis 14s optional umfassen, dass jedes Sensorpixel eine Fotodiode umfasst.
    • Iln Beispiel 16s kann der Gegenstand von Beispiel 15s optional umfassen, dass mindestens eine Fotodiode eine Lawinenfotodiode ist.
    • In Beispiel 17s kann der Gegenstand von Beispiel 16s optional umfassen, dass mindestens eine Lawinenfotodiode eine Ein-Photonen-Lawinenfotodiode ist.
    • In Beispiel 18s kann der Gegenstand eines der Beispiele 15s bis 17s optional umfassen, dass der LIDAR-Sensor zusätzlich einen Zeit-Digital-Wandler umfasst, der mit mindestens einer Fotodiode gekoppelt ist.
    • In Beispiel 19s kann der Gegenstand eines der Beispiele 15s bis 18s optional umfassen, dass der LIDAR-Sensor zusätzlich einen Verstärker umfasst, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 20s kann der Gegenstand von Beispiel 19s optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 21s kann der Gegenstand eines der Beispiele 19s oder 20s optional umfassen, dass der LIDAR-Sensor zusätzlich einen Analog-Digital-Wandler umfasst, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • Beispiel 22s ist ein LIDAR-Sensor zur Verwendung in einem LIDAR-Sensorsystem. Der LIDAR-Sensor kann eine Vielzahl von Sensorpixeln aufweisen, die in einem zweidimensionalen Sensorpixelarray angeordnet sind. Das zweidimensionale Sensorpixelarray kann einen ersten Array-Bereich und einen zweiten Array-Bereich aufweisen. Der LIDAR-Sensor kann eine oder mehrere Signalleitungen aufweisen. Jede Signalleitung kann mit mindestens einem Sensorpixel gekoppelt sein. Die aktive Sensorpixelfläche kann in der ersten Array-Region eine größere Ausdehnung in eine erste Richtung haben als in der zweiten Array-Region.
    • In Beispiel 23s kann der Gegenstand von Beispiel 21s optional umfassen, dass die erste Richtung eine Richtung senkrecht zu einer Abtastrichtung des LIDAR-Sensorsystems ist.
    • In Beispiel 24s kann der Gegenstand eines der Beispiele 22s oder 23s optional umfassen, dass die erste Richtung eine Richtung senkrecht zu einem horizontalen Sichtfeld des LIDAR-Sensorsystems ist.
    • In Beispiel 25s kann der Gegenstand eines der Beispiele 22s bis 24s optional umfassen, dass die zweite Array-Region neben der ersten Array-Region in einer zweiten Richtung parallel zur Abtastrichtung des LIDAR-Sensorsystems liegt.
    • In Beispiel 26s kann der Gegenstand eines der Beispiele 22s bis 25s optional umfassen, dass die erste Array-Region in einem zentralen Abschnitt des zweidimensionalen Sensorpixelarrays und die zweite Region in einem Randabschnitt des zweidimensionalen Sensorpixelarrays angeordnet ist.
    • In Beispiel 27s kann der Gegenstand eines der Beispiele 22s bis 26s optional umfassen, dass die Sensorpixel eine rechteckige Form haben.
    • In Beispiel 28s kann der Gegenstand eines der Beispiele 22s bis 27s optional umfassen, dass die Sensorpixel, die entlang der gleichen Linie in Bezug auf die erste Richtung angeordnet sind, die gleiche Form und/oder Größe haben.
    • In Beispiel 29s kann der Gegenstand eines der Beispiele 22s bis 28s optional umfassen, dass die entlang derselben Linie in Bezug auf die zweite Richtung angeordneten Sensorpixel in der zweiten Array-Region eine geringere Größe haben als in der ersten Array-Region.
    • In Beispiel 30s kann der Gegenstand eines der Beispiele 22s bis 29s optional umfassen, dass das zweidimensionale Sensor-Pixel-Array zwei zweite Array-Regionen aufweist. Die erste Array-Region kann zwischen den zweiten Array-Regionen angeordnet sein. Die aktive Sensorpixelfläche kann in der ersten Array-Region eine größere Ausdehnung in die erste Richtung haben als in den zweiten Array-Regionen.
    • In Beispiel 31s kann der Gegenstand eines der Beispiele 22s bis 30s optional umfassen, dass die erste Richtung die vertikale Richtung ist.
    • In Beispiel 32s kann der Gegenstand eines der Beispiele 22s bis 31s optional umfassen, dass die zweite Richtung die horizontale Richtung ist.
    • In Beispiel 33s kann der Gegenstand eines der Beispiele 22s bis 32s optional umfassen, dass jedes Sensorpixel eine Fotodiode aufweist.
    • In Beispiel 34s kann der Gegenstand von Beispiel 33s optional umfassen, dass mindestens eine Fotodiode eine Lawinenfotodiode ist.
    • In Beispiel 35s kann der Gegenstand von Beispiel 34s optional umfassen, dass mindestens eine Lawinenfotodiode eine Ein-Photonen-Lawinenfotodiode ist.
    • In Beispiel 36s kann der Gegenstand eines der Beispiele 33s bis 35s optional umfassen, dass der LIDAR-Sensor zusätzlich einen Zeit-Digital-Wandler aufweist, der mit mindestens einer Fotodiode gekoppelt ist.
    • In Beispiel 37s kann der Gegenstand eines der Beispiele 33s bis 36s optional umfassen, dass der LIDAR-Sensor zusätzlich einen Verstärker aufweist, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 38s kann der Gegenstand von Beispiel 37s optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 39s kann der Gegenstand eines der Beispiele 37s oder 38s optional umfassen, dass der LIDAR-Sensor zusätzlich einen Analog-Digital-Wandler aufweist, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • Beispiel 40s ist ein Scheinwerfer mit einem LIDAR-Sensor eines der Beispiele 1s bis 39s.
  • Es kann wünschenswert sein, dass ein Sensor (z.B. der Sensor 52), z.B. für einen LIDAR-Sensor oder einen Sensor für ein LIDAR-System, ein großes Sichtfeld, eine hohe Auflösung und einen großen (z.B. Erfassungs- oder Abtast-) Bereich hat. Wenn ein Sensor jedoch ein großes Sichtfeld und eine hohe Auflösung hat, kann effektiv nur eine kleine Sensorfläche eines Pixels (z.B. eines Bildpixels) verwendet werden. Veranschaulichend kann ein großer Sensor (z.B. mindestens in einer seitlichen Dimension, z.B. der Breite und/oder der Länge) erforderlich sein, um ein großes Sichtfeld abzubilden, so dass aus verschiedenen Richtungen kommendes Licht auf den Sensor auftreffen kann (z.B. vom Sensor gesammelt oder aufgenommen werden kann). Ein so großer Sensor wird für jeden Winkel, unter dem das Licht auf den Sensor trifft, nur schlecht ausgeleuchtet. Beispielsweise können die Sensorpixel nur teilweise beleuchtet sein. Dies kann zu einem schlechten (z.B. niedrigen) SNR führen und/oder dazu, dass ein großer und damit teurer Sensor eingesetzt werden muss.
  • In einem rotierenden LIDAR-System (auch als scannendes LIDAR-System bezeichnet) ist ein Sensor immer nur einem kleinen Raumwinkelbereich in horizontaler Richtung zugewandt (z.B. kann das Sichtfeld des Systems klein sein), wodurch die oben erwähnte Verschlechterung des SNR reduziert oder wesentlich eliminiert wird. Ein ähnlicher Effekt kann in einem System erzielt werden, in dem das detektierte Licht mit Hilfe eines beweglichen Spiegels oder eines anderen ähnlichen (z.B. beweglichen) Bauteils gesammelt wird. Ein solches System erfordert jedoch bewegliche Teile, was zu erhöhter Komplexität und erhöhten Kosten führt. Es können verschiedene Arten von Sensoren verwendet werden, z.B. ein 1D-Sensorarray (z.B. ein Säulensensor) oder ein 2D-Sensorarray.
  • Unter verschiedenen Aspekten wird eine optische Anordnung beschrieben. Die optische Anordnung kann für den Einsatz in einem System konfiguriert werden, z.B. in einem Sensorsystem, z.B. in einem LIDAR-Sensorsystem (zur Veranschaulichung: in einem System mit mindestens einem Sensor, z.B. einem LIDAR-Sensor). Die optische Anordnung kann so konfiguriert werden, dass gleichzeitig ein großer Bereich (anders ausgedrückt, eine große Reichweite) und ein großes Sichtfeld des Systems unter Beibehaltung eines guten (z.B. hohen) SNR und/oder einer hohen Auflösung zur Verfügung gestellt werden kann. In verschiedener Hinsicht kann die optische Anordnung für die Verwendung in einem LIDAR-Sensorsystem mit einem großen (z.B. Erfassungsbereich) konfiguriert werden, z.B. größer als 50 m oder größer als 100 m.
  • Im Zusammenhang mit der vorliegenden Anmeldung, z.B. in Bezug auf 98 bis 102B, kann der Begriff „Sensor“ austauschbar mit dem Begriff „Detektor“ verwendet werden (z.B. kann ein Sensor als Detektor verstanden werden, oder er kann als Teil eines Detektors gedacht sein, z.B. zusammen mit anderen Komponenten, wie z.B. optischen oder elektronischen Komponenten). Ein Sensor kann z.B. so konfiguriert sein, dass er Licht oder ein vom Sensor externes Objekt erkennt.
  • In verschiedenen Ausführungsformen kann Licht (z.B. Infrarotlicht), das von Objekten reflektiert wird, die in der Nähe der optischen Achse des Systems angeordnet sind, unter einem kleinen Winkel (z.B. kleiner als 20° oder kleiner als 5°) auf das System (z.B. auf die Optikanordnung) auftreffen. Die optische Anordnung kann so konfiguriert werden, dass das unter einem so kleinen Winkel auftreffende Licht mit einer (z.B. effektiven) Blende aufgefangen werden kann, die sicherstellt, dass im Wesentlichen die gesamte Sensorfläche eines Sensorpixels genutzt wird. Zur Verdeutlichung: Die optische Anordnung kann so konfiguriert werden, dass im Wesentlichen die gesamte (z.B. empfindliche) Fläche eines Sensorpixels zur Detektion von Objekten verwendet wird, die in der Nähe der optischen Achse des Systems angeordnet sind. Dies kann den Effekt haben, dass die Detektion von Objekten, die in der Nähe der optischen Achse des Systems angeordnet sind, mit einem großen Sichtfeld, einer großen Reichweite und einem guten SNR durchgeführt werden kann. Dies kann auch den Effekt haben, dass die Erkennung von Objekten, die in der Nähe der optischen Achse des Systems angeordnet sind, mit hoher Auflösung und hoher Empfindlichkeit durchgeführt werden kann. In verschiedener Hinsicht kann die optische Achse des Systems (z.B. des Sensorsystems) mit der optischen Achse der optischen Anordnung zusammenfallen.
  • Bei Licht, das in kleinen Winkeln auf den Sensor auftrifft, kann die etendue-Grenze (Umfangsgrenze) für die verfügbare Sensorfläche unter verschiedenen Aspekten weitgehend ausgeschöpft sein (anders angegeben, verwendet). Dennoch kann die Sensoroptik (z.B. die Optikanordnung) so konfiguriert werden, dass auch unter größeren Winkeln auftreffendes Licht gesammelt werden kann (z.B. Licht, das von Objekten reflektiert wird, die weiter entfernt von der optischen Achse des Systems angeordnet sind). Die Effizienz des Sensors beim Sammeln (und Erfassen) von Licht unter großen Winkeln (z.B. größer als 30° oder größer als 50°) kann im Vergleich zur Effizienz des Sensors beim Sammeln (und Erfassen) von Licht unter kleinen Winkeln reduziert oder kleiner sein. Illustrativ kann nur ein kleiner Teil der Sensoroberfläche des Sensorpixels beleuchtet werden, wenn Licht, das von Objekten reflektiert wird, die weiter entfernt von der optischen Achse des Systems angeordnet sind, gesammelt wird.
  • In verschiedenen Ausführungsformen kann man davon ausgehen, dass Licht, das von weit vom Sensor entfernten Objekten kommt, als annähernd parallele Strahlen (z.B. als annähernd parallele Strahlenbündel) auf das System (z.B. auf die Optikanordnung) auftrifft. Man kann also davon ausgehen, dass der Winkel, unter dem Licht auf das System auftrifft, mit zunehmendem Abstand zwischen der optischen Achse des Systems und dem Objekt, von dem das (z.B. reflektierte) Licht kommt, zunimmt. Somit kann Licht, das von Objekten kommt, die sich in der Nähe der optischen Achse des Systems befinden, unter kleinen Winkeln in Bezug auf die optische Achse des Systems auf das System auftreffen. Licht, das von Objekten kommt, die weiter von der optischen Achse des Systems entfernt sind, kann unter großen Winkeln in Bezug auf die optische Achse des Systems auf das System auftreffen.
  • In verschiedenen Ausführungsformen kann die Optikanordnung so konfiguriert werden, dass sie nicht-abbildende Eigenschaften aufweist, z.B. kann sie als nicht-abbildende Optik konfiguriert werden. Beispielsweise kann die Optikanordnung so konfiguriert werden, dass sie in mindestens einer Richtung (z. B. der horizontalen Richtung) nichtabbildende Eigenschaften aufweist. Mit Hilfe von nichtabbildenden Optiken kann die Empfindlichkeit des Systems (z.B. des Sensors) in Abhängigkeit vom Blickwinkel (z.B. in Abhängigkeit vom Sichtfeld) auf ein gewünschtes Niveau eingestellt werden. Eine Optikanordnung, die so konfiguriert ist, dass sie nichtabbildende Eigenschaften aufweist, kann beispielsweise einen oder mehrere nicht-abbildende Konzentratoren aufweisen, wie z.B. einen oder mehrere Compound Parabolic Concentrators (CPC, zusammengesetzter parabolischer Konzentrator). Als weiteres Beispiel kann eine optische Anordnung, die so konfiguriert ist, dass sie nicht-abbildende Eigenschaften aufweist, ein oder mehrere Linsensysteme umfassen, z.B. Linsensysteme mit Linsen und/oder Reflektoren mit totaler interner Reflexion. Unter verschiedenen Aspekten kann die optische Anordnung eine Kombination aus einer Linse und einem CPC umfassen. Die Kombination aus einer Linse und einem CPC kann in gleicher oder ähnlicher Weise konfiguriert werden, wie ein LED-System für die Beleuchtung konfiguriert ist.
  • In verschiedenen Ausführungsformen kann das System so konfiguriert werden, dass es Abbildungseigenschaften in mindestens einer Richtung (z.B. der vertikalen Richtung) aufweist. Beispielsweise kann die optische Anordnung so konfiguriert werden, dass Licht auf einzelne Sensorpixel des Sensors für die vertikale Auflösung (z.B. eines Bildes eines Objekts) gerichtet wird. Beispielsweise kann die Kombination aus einem Objektiv und einem CPC so konfiguriert werden, dass sie in einer Richtung nicht-abbildende Eigenschaften und in einer anderen (z.B. verschiedenen) Richtung abbildende Eigenschaften aufweist.
  • Das System (zur Veranschaulichung: die optische Anordnung und der Sensor) kann eine erste Auflösung in einer ersten (z.B. horizontalen) Richtung und eine zweite Auflösung in einer zweiten (z.B. vertikalen) Richtung umfassen. Abhängig von der Architektur des Systems (z.B. von der Architektur des LIDAR) kann die Betonung des zentralen Teils (z.B. die Betonung des Raumanteils in der Nähe der optischen Achse) in einer oder zwei Raumrichtungen erfolgen. Mit einem 2D-Abtastspiegel kann z.B. eine Sensorzelle (z.B. ein oder mehrere Sensorpixel) in beide Richtungen beleuchtet werden.
  • Die Abhängigkeit der Empfindlichkeit vom Blickwinkel kann asymmetrisch aufgebaut sein (z.B. können für verschiedene Sensorsysteme unterschiedliche Konfigurationen realisiert werden). Dies kann z.B. dann sinnvoll sein, wenn zwei oder mehr Sensorsysteme verwendet werden (z.B. zwei oder mehr LIDAR-Sensorsysteme), z.B. ein Sensorsystem für jeden Scheinwerfer eines Fahrzeugs. Als Zahlenbeispiel kann die Empfindlichkeit für Licht, das in einem Winkel von -30° bis 0° in Bezug auf die optische Achse einfällt, hoch sein (z.B. kann sie von -30° bis 0° zunehmen), und dann kann die Empfindlichkeit für Winkel bis zu +30° langsam abnehmen.
  • In verschiedener Hinsicht kann eine effektive Blende (auch als lichtempfindliche Blende bezeichnet) des Systems (z.B. des Sichtfeldes des Systems) bei kleinen Sichtwinkeln größer sein als bei großen Sichtwinkeln. Die effektive Blende kann z.B. ein Maß dafür sein, wie effektiv das System beim Empfang (z.B. Sammeln) von Licht ist. Zur Veranschaulichung: Eine größere effektive Öffnung kann einer größeren Lichtmenge (z.B. Lichtenergie) entsprechen, die vom System gesammelt wird (z.B. vom Sensor aufgenommen wird). Die effektive Blende kann z.B. den Teil der Sensoroberfläche des Sensorpixels definieren, der durch das gesammelte Licht beleuchtet wird. Die optische Anordnung kann so konfiguriert werden, dass für Licht, das unter einem kleinen Winkel in Bezug auf die optische Achse des Systems auf das System trifft, eine größere Lichtmenge gesammelt wird als für Licht, das unter einem großen Winkel in Bezug auf die optische Achse des Systems auf das System trifft.
  • Für den Fall, dass ein Sensor-Array (z.B. ein Sensor mit einer Vielzahl von Sensorpixeln) vorgesehen ist, kann es möglich sein, Pixel mit unterschiedlich großen Pixelflächen einzubeziehen. Ein Sensorarray kann für die räumliche Auflösung, z.B. in vertikaler Richtung, vorgesehen werden. Die Sensorpixel können in einer regelmäßigen Anordnung, z.B. in einer Reihe von Pixeln, oder in einer Spalte von Pixeln oder in einer Matrix angeordnet sein. Beispielsweise kann die Größe (z.B. die Oberfläche) eines Sensorpixels mit zunehmendem Abstand des Sensorpixels von der optischen Achse des Systems (z.B. von der Mitte des Sensors) abnehmen. In dieser Konfiguration kann das Bild „tonnenverzerrt“ auf den Sensor abgebildet werden. Dies kann ähnlich der Verzerrung sein, die durch eine FishEye-Komponente (z.B. durch ein FishEye-Objektiv) erzeugt wird. Die unter kleineren Winkeln auf den Sensor auftreffenden Lichtstrahlen können im Vergleich zu den unter größeren Winkeln auf den Sensor auftreffenden Lichtstrahlen einer größeren Verzerrung (und einer größeren Vergrößerung) unterliegen und können auf einer größeren Sensorfläche abgebildet werden (z.B. auf einer größeren Chipfläche). Illustrativ kann man sich ein Objekt so vorstellen, dass es aus einer Vielzahl von Pixeln in der Objektebene gebildet wird. Ein Objekt kann durch die Sensoroptik (z.B. durch die Optikanordnung) auf unterschiedlich große Flächen in der Bildebene abgebildet werden, abhängig vom (z.B. relativen) Abstand von der optischen Achse (z.B. abhängig vom Abstand der Objektpixel von der optischen Achse). Die optische Vergrößerung kann über den Bildbereich variieren. Auf diese Weise wird von Objekten (z.B. von Objektpixeln), die in der Nähe der optischen Achse angeordnet sind, mehr reflektiertes Licht gesammelt als von Objekten, die sich am Rand (an den Rändern) des Sichtfeldes befinden. Dies kann zu einem größeren Sichtfeld und einem größeren Erfassungsbereich für Objekte führen, die sich in der Nähe der optischen Achse des Systems befinden.
  • In der Bildebene können die inneren Pixel (z.B. die Sensorpixel, die näher an der optischen Achse liegen) größer sein (z.B. eine größere Oberfläche haben) als die äußeren Pixel (z.B. die Pixel, die weiter von der optischen Achse entfernt sind). In der Objektebene können alle Teile oder Bereiche eines Objekts (bildlich gesprochen: alle Pixel, die das Objekt bilden) die gleiche Größe haben. Daher können gleich große Objektbereiche auf unterschiedlich großen Sensorpixelbereichen abgebildet werden.
  • Als Ergänzung oder Alternative zu unterschiedlich großen Sensorpixeln kann es unter verschiedenen Aspekten möglich sein, Sensorpixel (z.B. gleich große Sensorpixel oder unterschiedlich große Sensorpixel) elektrisch miteinander zu größeren Einheiten (z.B. Pixeleinheiten) zu verbinden. Dieser Vorgang kann auch dynamisch erfolgen, z.B. in Abhängigkeit von Streulicht und/oder einer Fahrsituation (z.B. wenn das System Teil eines Fahrzeugs ist oder an einem Fahrzeug montiert ist). Beispielsweise können Sensorpixel zunächst (z.B. elektrisch) miteinander verbunden werden, um einen großen (z.B. maximalen) Erfassungsbereich zu erreichen, und sobald ein Objekt erkannt wird, kann die Auflösung erhöht werden (z.B. können die Sensorpixel getrennt oder nicht mehr miteinander verbunden sein), um eine Klassifizierung (z.B. eine Identifizierung) des Objekts zu verbessern.
  • In verschiedener Hinsicht können eine oder mehrere anpassungsfähige (z.B. steuerbare) Komponenten, wie z.B. Linsen (z.B. bewegliche Linsen, Flüssigkeitslinsen u.ä.), im Empfängerpfad verwendet werden, um den Blickwinkel und/oder die Blende des Systems (z.B. des Sensors) dynamisch anzupassen. In einem System mit zwei Flüssigkeitslinsen kann es beispielsweise möglich sein, den Blickwinkel des Sensors durch Anpassung der Brennweiten beider Linsen einzustellen. Zur Veranschaulichung: Die Brennweite einer ersten Linse kann den Winkel einstellen, und eine zweite Linse (z.B. stromabwärts in Bezug auf die erste Linse angeordnet) kann den Fokus der Abbildung des Bildes auf den Sensor neu einstellen. Die Modifikation des optischen Systems mit Hilfe der Flüssiglinsen kann eine Änderung der Blickrichtung der Empfängeroptik bewirken, ähnlich der, die ein beweglicher Spiegel im Detektorweg bewirkt. Illustrativ kann die Anpassung der Blickrichtung des Sensors durch Flüssiglinsen mit variabler Brennweite im Empfängerpfad ähnlich der Implementierung einer Strahllenkung (z.B. mittels eines beweglichen Spiegels) im Senderpfad sein.
  • Zusätzlich oder alternativ können andere Verfahren zur Verfügung gestellt werden, um den Erfassungsbereich für Objekte, die in der Nähe der optischen Achse angeordnet sind, zu vergrößern. So können z.B. mehrere Laserpulse für jede Position eines (z.B. MEMS-)Spiegels unter kleinen Winkeln bereitgestellt werden, wodurch eine bessere Mittelwertbildung mit besserem SNR und größerer Reichweite erzielt wird. Ein weiteres Beispiel: Wenn das System mehrere Laserdioden umfasst, kann eine größere Anzahl von Laserdioden gleichzeitig für die Detektion unter kleinen Winkeln bereitgestellt werden, ohne die Gesamtzahl der Laserdioden zu erhöhen und damit die Kosten des Systems zu erhöhen.
  • Die hier beschriebene optische Anordnung kann sicherstellen, dass ein großer Bereich und ein großes Sichtfeld eines LIDAR-Systems gleichzeitig (z.B. unter Beibehaltung eines hohen SNR) zur Verfügung gestellt werden kann. Dies kann z.B. unter Tageslichtbedingungen (z.B. für den Fall, dass das System in oder an einem Fahrzeug montiert ist, das bei Tageslicht fährt) mit Streulicht der Sonne von besonderer Bedeutung sein. In verschiedener Hinsicht kann die reduzierte Reichweite für Objekte, die sich in großer Entfernung von der optischen Achse befinden, in vielen Anwendungsfällen toleriert werden, da z.B. für nahegelegene Objekte, z.B. Fahrzeuge, die überholen oder einschneiden (z.B. in eine Fahrspur einfahren), ein großer Sichtwinkel erforderlich ist.
  • Die Verwendung einer oder mehrerer steuerbarer Komponenten (z.B. Flüssiglinsen) kann sicherstellen, dass für jeden Winkel im Sichtfeld der gesamte Sensor (z.B. die gesamte Sensorfläche) verwendet werden kann. Dies kann im Prinzip einen beweglichen Spiegel im Detektorweg ersetzen. Beispielsweise kann statt großer mechanischer Teile oder Komponenten, die bewegt werden müssen, nur eine kleine Bewegung eines Teils einer Linse (z.B. einer Membran einer Flüssiglinse) verwendet werden.
  • 98 zeigt eine Draufsicht auf ein System 9800 mit einer Optikanordnung 9802 und einem Sensor 52 in einer schematischen Ansicht nach verschiedenen Aspekten.
  • Das System 9800 kann ein Sensorsystem sein. Zum Beispiel kann das System 9800 als LIDAR-Sensorsystem 10 konfiguriert sein oder konfiguriert werden. Das LIDAR-Sensorsystem 10 kann jede geeignete Konfiguration haben. Beispielsweise kann das LIDAR-Sensorsystem 10 als Flash-LIDAR-Sensorsystem, als 1D-Scanning-LIDAR-Sensorsystem, als 2D-Scanning-LIDAR-Sensorsystem oder als Hybrid-Flash-LIDAR-Sensorsystem konfiguriert werden.
  • Das System 9800 kann mindestens einen Sensor 52 aufweisen. Der Sensor 52 kann so konfiguriert werden, dass er systemexterne Objekte 9804, 9806 erkennt. Die Erkennung kann z. B. durch Aufnahme und Analyse von Bildern der Objekte 9804, 9806 erfolgen. Als weiteres Beispiel kann die Erkennung durch das Sammeln von Licht (z. B. Infrarotlicht oder Licht im nahen Infrarotbereich) erfolgen, das von den Objekten 9804, 9806 reflektiert wird. Zum Beispiel kann der Sensor 52 einen LIDAR-Sensor aufweisen. Darüber hinaus können zusätzliche Sensoren wie eine Kamera und/oder infrarotempfindliche Fotodioden vorgesehen werden. Der Sensor 52 kann so konfiguriert werden, dass er in einem vordefinierten Wellenlängenbereich arbeitet, zum Beispiel im Infrarotbereich und/oder im nahen Infrarotbereich.
  • Der Sensor 52 kann ein oder mehrere Sensorpixel aufweisen, die so konfiguriert sind, dass sie ein Signal (z.B. ein elektrisches Signal, wie z.B. einen Strom) erzeugen, wenn Licht auf das eine oder die mehreren Sensorpixel auftrifft. Das erzeugte Signal kann proportional zur Lichtmenge sein, die vom Sensor 52 gesammelt wird (z.B. die Lichtmenge, die auf den Sensor trifft). Als Beispiel kann der Sensor 52 eine oder mehrere Fotodioden aufweisen. Zum Beispiel kann der Sensor 52 ein oder mehrere Sensorpixel aufweisen, und jedes Sensorpixel kann einer entsprechenden Fotodiode zugeordnet werden. Zumindest einige der Fotodioden können Lawinenfotodioden sein. Zumindest einige der Lawinenfotodioden können Einzelphotonen-Lawinenfotodioden sein.
  • In verschiedener Hinsicht kann das System 9800 eine Komponente aufweisen, die für die Verarbeitung des vom Sensor 52 erzeugten Signals konfiguriert ist. Beispielsweise kann das System 9800 eine Komponente zur Erzeugung eines digitalen Signals aus dem vom Sensor 52 erzeugten (z.B. elektrischen) Signal aufweisen. Das System 9800 kann mindestens einen Konverter aufweisen. Als Beispiel kann das System 9800 mindestens einen Zeit/Digital-Wandler aufweisen, der mit dem Sensor 52 gekoppelt ist (z.B. gekoppelt mit mindestens einer der Fotodioden, z.B. mit mindestens einer der Einzel-Photonenlawinen-Fotodioden). Darüber hinaus kann das System 9800 eine Komponente aufweisen, die so konfiguriert ist, dass sie das vom Sensor 52 erzeugte Signal verstärkt. Zum Beispiel kann das System 9800 mindestens einen Verstärker (z.B. einen Transimpedanzverstärker) aufweisen, der so konfiguriert ist, dass er ein vom Sensor 52 geliefertes Signal (z.B. das von mindestens einer der Fotodioden gelieferte Signal) verstärkt. Das System 9800 kann ferner einen Analog-Digital-Wandler aufweisen, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal (z.B. in ein digitales Signal) umzuwandeln.
  • In verschiedener Hinsicht kann das System 9800 mindestens eine Lichtquelle 42 aufweisen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht ausstrahlt. Das von der Lichtquelle 42 ausgestrahlte Licht kann systemexterne Objekte 9804, 9806 bestrahlen (z. B. kann es von systemexternen Objekten 9804, 9806 reflektiert werden). Zur Veranschaulichung: Die Lichtquelle 42 kann verwendet werden, um den Bereich um oder vor dem System 9800 abzufragen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer Wellenlänge in einem interessierenden Bereich emittiert, z.B. in einem Wellenlängenbereich, der vom Sensor 52 erfasst werden kann. Beispielsweise kann die Lichtquelle 42 so konfiguriert werden, dass sie Licht im Infrarot- und/oder nahen Infrarotbereich emittiert. Die Lichtquelle 42 kann jede geeignete Lichtquelle und/oder Optik sein oder aufweisen, um Licht in einer gerichteten Weise zu emittieren, z.B. um kollimiertes Licht zu emittieren. Die Lichtquelle 42 kann so konfiguriert werden, dass sie kontinuierlich oder gepulst (z. B. eine Folge von Lichtpulsen) Licht aussendet. Das System 9800 kann auch mehr als eine Lichtquelle 42 aufweisen, z.B. so konfiguriert sein, dass es Licht in verschiedenen Wellenlängenbereichen und/oder mit unterschiedlichen (z.B. Puls-) Raten emittiert.
  • Als Beispiel kann die mindestens eine Lichtquelle 42 eine Laserquelle 5902 sein oder eine solche aufweisen. Die Laserquelle 5902 kann mindestens eine Laserdiode aufweisen, z.B. kann die Laserquelle 5902 eine Mehrzahl von Laserdioden aufweisen, z.B. eine Vielzahl, z.B. mehr als zwei, mehr als fünf, mehr als zehn, mehr als fünfzig oder mehr als hundert Laserdioden. Die Laserquelle 5902 kann so konfiguriert werden, dass sie einen Laserstrahl mit einer Wellenlänge im infraroten und/oder nahen Infrarot-Wellenlängenbereich emittiert.
  • Das System 9800 kann mindestens eine Optikanordnung 9802 aufweisen. Die Optikanordnung 9802 kann so konfiguriert werden, dass sie den Sensor 52 mit Licht versorgt. Beispielsweise kann die Optikanordnung 9802 so konfiguriert werden, dass sie Licht sammelt und auf die Oberflächen der Sensorpixel des Sensors 52 lenkt. Die Optikanordnung 9802 kann im Empfangspfad des Systems 9800 angeordnet werden. Die Optikanordnung 9802 kann eine Optikanordnung für das LIDAR-Sensorsystem 10 sein. Die Optikanordnung 9802 kann z.B. in ein bestehendes LIDAR-Sensorsystem 10 nachgerüstet werden (z.B. in ein Fahrzeug, das bereits mit einem LIDAR-Sensorsystem 10 ausgestattet ist). Für den Fall, dass das System 9800 mehr als einen Sensor 52 umfasst, kann jedem Sensor 52 eine entsprechende Optikanordnung 9802 zugeordnet werden. Alternativ kann die gleiche Optikanordnung 9802 verwendet werden, um Licht auf mehr als einen Sensor 52 zu richten. Es kann auch möglich sein, mehr als eine Optikanordnung 9802 zu konfigurieren (z. B. Optikanordnungen 9802 mit unterschiedlichen optischen Eigenschaften), um Licht auf denselben Sensor 52 zu richten.
  • Der Sensor 52 kann einen oder mehrere Sensorpixel aufweisen. Ein Sensorpixel kann so konfiguriert werden, dass es durch das auf den Sensor 52 einfallende Licht beleuchtet wird (z.B. durch Auftreffen auf die Optikanordnung 9802). Zur Veranschaulichung: Das Sensorpixel kann so konfiguriert werden, dass es Licht erkennt, das von (mit anderen Worten: durch) die Optikanordnung 9802 geliefert wird. Die Anzahl der Sensorpixel, die durch das auf den Sensor 52 einfallende Licht beleuchtet werden, kann die Qualität eines von den Sensorpixeln erzeugten Signals bestimmen. Zum Beispiel kann die Anzahl der beleuchteten Sensorpixel die Intensität des erzeugten Signals bestimmen (z.B. die Amplitude oder die Größe eines erzeugten Stroms). Der Teil der Sensoroberfläche eines Sensorpixels, der durch das auf den Sensor 52 auftreffende Licht beleuchtet wird, kann z.B. das SNR beeinflussen. Falls nur ein kleiner Teil (z.B. weniger als 30% oder weniger als 10%) der Sensorfläche eines Sensorpixels beleuchtet wird, kann das SNR niedrig sein. Der Sensor 52 wird weiter unten ausführlicher beschrieben, z.B. in Bezug auf 102A und 102B.
  • Licht, das von einem Objekt 9804, 9806 kommt, das weit entfernt vom System 9800 angeordnet ist (z.B. in einer Entfernung von mehr als 50 cm vom System 9800, mehr als 1 m, mehr als 5 m usw.), kann auf das System 9800 (z.B. auf die Optikanordnung 9802) als im wesentlichen parallele Strahlen 9814, 9816 auftreffen. Es kann also davon ausgegangen werden, dass Licht, das von einem in der Nähe einer optischen Achse 9808 des Systems 9800 angeordneten Objekt 9804 (z.B. in einem Abstand von der optischen Achse 9808 kleiner als 50 cm, z.B. kleiner als 1 m, z.B. kleiner als 5 m) kommt, in einem kleinen Winkel zur optischen Achse 9808 (z.B. in einem Winkel kleiner als 20° oder kleiner als 5°, je nach Abstand von der optischen Achse 9808) auf das System 9800 auftrifft. Es kann davon ausgegangen werden, dass Licht, das von einem weiter von der optischen Achse 9808 entfernten Objekt 9806 kommt (z.B. in einer Entfernung von der optischen Achse 9808 größer als 3 m, z.B. größer als 5 m, z.B. größer als 10 m), in einem großen Winkel in Bezug auf die optische Achse 9808 (z.B. größer als 30° oder größer als 50°, abhängig vom Abstand von der optischen Achse 9808) auf das System 9800 auftrifft. Die optische Achse 9808 des Systems 9800 kann mit der optischen Achse der Optikanordnung 9802 zusammenfallen.
  • Zur Veranschaulichung: Ein erstes Objekt 9804 kann enger (mit anderen Worten: näher) an der optischen Achse 9808 des Systems 9800 in Bezug auf ein zweites Objekt 9806 angeordnet werden. Licht, das vom ersten Objekt 9804 kommt, kann auf die Optikanordnung 9802 in einem ersten Winkel α in Bezug auf die optische Achse 9808 auftreffen. Licht, das von dem zweiten Objekt 9806 kommt, kann auf die Optikanordnung 9802 in einem zweiten Winkel β in Bezug auf die optische Achse 9808 auftreffen. Zum Beispiel kann das erste Objekt 9804 als relevanter angesehen werden als das zweite Objekt 9806, z.B. in einer Fahrsituation (z.B. kann es ein Hindernis vor einem Fahrzeug sein, in oder auf dem das System 9800 montiert ist). Der zweite Winkel β kann größer sein als der erste Winkel α. Nur als numerisches Beispiel kann der Winkel α im Bereich zwischen 0° und 25° liegen, z.B. zwischen 5° und 20°, und der Winkel β kann größer als 30° sein, z.B. größer als 50°, z.B. im Bereich zwischen 30° und 70°.
  • Es können Systemkomponenten vorgesehen sein (z.B. die Optikanordnung 9802 und/oder der Sensor 52 und/oder die Lichtquelle 42), die so konfiguriert sein können, dass ein großer Teil einer Sensorfläche eines Sensorpixels 52 (z.B. von vielen Sensorpixeln oder von allen Sensorpixeln) von Licht beleuchtet (d.h. abgedeckt) wird, das in einem kleinen Winkel zur optischen Achse 9808 des Systems auf das System 9800 (z.B. auf die Optikanordnung 9802) trifft. Beispielsweise kann die Optikanordnung 9802 und/oder der Sensor 52 so konfiguriert werden, dass mehr als 30% der Sensorfläche (z.B. einer Fläche, z.B. eines empfindlichen Bereichs) des Sensorpixels beleuchtet werden, z.B. mehr als 50%, z.B. mehr als 70%, z.B. mehr als 90%, z.B. im Wesentlichen die 100%. Beispielsweise kann die Optikanordnung 9802 und/oder der Sensor 52 so konfiguriert werden, dass im Wesentlichen die gesamte Sensorfläche des Sensorpixels von Licht beleuchtet wird, das auf das System 9800 (z.B. auf die Optikanordnung 9802) unter einem kleinen Winkel in Bezug auf die optische Achse 9808 des Systems trifft. In verschiedener Hinsicht kann die Optikanordnung 9802 und/oder der Sensor 52 so konfiguriert werden, dass ein großer Teil der Sensorfläche des Sensorpixels für den Fall abgedeckt wird, dass Licht von einem Objekt 9804 kommt (z.B. reflektiert), das in der Nähe der optischen Achse 9808 des Systems 9800 angeordnet ist.
  • Dies kann dazu führen, dass ein Sichtfeld und/oder ein Erfassungsbereich des Systems 9800 (z.B. eines LIDAR-Sensorsystems 10) für die Erfassung von Objekten 9804, die in der Nähe der optischen Achse 9808 des Systems 9800 angeordnet sind, z.B. unter Beibehaltung eines hohen SNR und/oder einer hohen Auflösung, vergrößert wird/werden. Der Sensor 52 und/oder die Optikanordnung 9802 können so konfiguriert werden, dass es möglich ist, das in der Nähe der optischen Achse 9808 angeordnete Objekt 9804 mit einer größeren Reichweite und einem höheren SNR in Bezug auf das weiter von der optischen Achse 9808 entfernte Objekt 9806 zu detektieren. Der Erfassungsbereich kann als der Bereich der Entfernungen zwischen einem Objekt und dem System 9800 beschrieben werden, innerhalb dessen das Objekt erfasst werden kann.
  • In verschiedener Hinsicht kann die Optikanordnung 9802 so konfiguriert werden, dass sie eine erste effektive Blende 9810 für ein Sichtfeld des Systems 9800 bietet. Als Beispiel kann die Optikanordnung 9802 einen ersten Teil 9802a aufweisen, der so konfiguriert ist, dass er die erste effektive Blende 9810 für das Sichtfeld des Systems 9800 bereitstellt.
  • In verschiedener Hinsicht kann die Optikanordnung 9802 so konfiguriert werden, dass sie eine zweite effektive Blende 9812 für das Sichtfeld des Systems 9800 bereitstellt. Als Beispiel kann die Optikanordnung 9802 einen zweiten Teil 9802b aufweisen, der so konfiguriert ist, dass er die zweite effektive Blende 9812 für das Sichtfeld des Systems 9800 bereitstellt.
  • In verschiedener Hinsicht kann die Optikanordnung 9802 so konfiguriert werden, dass sie einen Erfassungsbereich von mindestens 50 m, z. B. größer als 70 m oder größer als 100 m, für Licht bietet, das auf eine Oberfläche 9802s der Optikanordnung 9802 unter einem kleinen Winkel in Bezug auf die optische Achse 9808 auftrifft. Beispielsweise kann der erste Abschnitt 9802a so konfiguriert werden, dass er einen Erfassungsbereich von mindestens 50 m, beispielsweise größer als 70 m oder größer als 100 m, für Licht bietet, das auf eine Oberfläche des ersten Abschnitts 9802a unter einem kleinen Winkel in Bezug auf die optische Achse 9808 auftrifft.
  • Die Optikanordnung 9802 kann in verschiedener Hinsicht asymmetrisch konfiguriert werden. Beispielsweise können der erste Teil 9802a und der zweite Teil 9802b so konfiguriert sein, dass sie unterschiedliche optische Eigenschaften aufweisen. Der erste Teil 9802a und der zweite Teil 9802b können monolithisch in einer gemeinsamen optischen Komponente integriert sein. Der erste Teil 9802a und der zweite Teil 9802b können auch separate optische Komponenten der Optikanordnung 9802 sein.
  • In verschiedener Hinsicht kann die erste effektive Blende 9810 für Licht vorgesehen werden, das auf eine Oberfläche 9802s der Optikanordnung 9802 unter dem ersten Winkel α auftrifft. Die zweite effektive Blende 9812 kann für Licht vorgesehen werden, das auf die Oberfläche 9802s der Optikanordnung 9802 unter dem zweiten Winkel β auftrifft. Die zweite effektive Blende 9812 kann kleiner als die erste effektive Blende 9810 sein. Dies kann den Effekt haben, dass das System 9800 mehr Licht sammeln (z.B. empfangen) kann, wenn Licht in einem kleinen Winkel zur optischen Achse 9808 auf die Optikanordnung 9802 auftrifft, wodurch die Erfassung eines Objekts 9804, das in der Nähe der optischen Achse 9808 angeordnet ist, verbessert wird. Veranschaulichend kann mehr Licht gesammelt werden, wenn Licht von einem Objekt 9804, das nahe der optischen Achse 9808 angeordnet ist, kommt als von einem Objekt 9806, das weiter von der optischen Achse 9808 entfernt angeordnet ist.
  • In verschiedener Hinsicht kann die Optikanordnung 9802 so konfiguriert werden, dass sie das auf die Oberfläche 9802s der Optikanordnung 9802 auftreffende Licht im ersten Winkel α ablenkt (wie z.B. durch die abgelenkten Lichtstrahlen 9814 veranschaulicht). Die Optikanordnung 9802 kann so konfiguriert werden, dass durch die Ablenkung des im ersten Winkel α auftreffenden Lichts im Wesentlichen die gesamte Sensorfläche eines Sensorpixels 52 bedeckt wird (z.B. wird ein großer Teil der Sensorfläche des Sensorpixels 52 bedeckt). Zur Verdeutlichung: Die Optikanordnung 9802 kann so konfiguriert werden, dass Licht, das im ersten Winkel α auf die Oberfläche 9802s der Optikanordnung 9802s auftrifft, im Wesentlichen die gesamte Sensorfläche des Sensorpixels 52 beleuchtet (wie illustrativ durch das voll ausgeleuchtete Pixel 9818 dargestellt). Als Beispiel kann der erste Abschnitt 9802a so konfiguriert sein, dass er Licht, das auf eine Oberfläche des ersten Abschnitts 9802a unter dem ersten Winkel α auftrifft, so ablenkt, dass im Wesentlichen die gesamte Sensorfläche des Sensorpixels 52 abgedeckt wird. Der erste Abschnitt 9802a kann so konfiguriert werden, dass er Licht in eine erste Ablenkungsrichtung ablenkt.
  • Die Optikanordnung 9802 kann in verschiedener Hinsicht so konfiguriert werden, dass sie Licht, das auf die Oberfläche 9802s der Optikanordnung 9802 auftrifft, unter dem zweiten Winkel β ablenkt (wie z.B. durch die abgelenkten Lichtstrahlen 9816 veranschaulicht). Die Optikanordnung 9802 kann so konfiguriert werden, dass Licht, das auf die Oberfläche der Optikanordnung 9802s unter dem zweiten Winkel auftrifft, so abgelenkt wird, dass es die Sensorfläche eines Sensorpixels 52 nur teilweise beleuchtet (z.B. nur einen kleinen Teil der Sensorfläche des Sensorpixels 52), wie durch das teilweise beleuchtete Pixel 9820 veranschaulicht wird. Als Beispiel kann der zweite Teil 9802b so konfiguriert werden, dass er Licht in eine zweite Ablenkungsrichtung ablenkt. Die zweite Ablenkungsrichtung kann sich von der ersten Ablenkungsrichtung unterscheiden. Als Beispiel kann Licht, das unter dem zweiten Winkel β auftrifft, um einen kleineren Winkel abgelenkt werden als Licht, das unter dem ersten Winkel α auftrifft.
  • Unter verschiedenen Aspekten kann eine Winkelschwelle (auch als Winkelschwelle bezeichnet) definiert werden. Der Winkelschwellenwert kann so konfiguriert werden, dass für Licht, das auf die Oberfläche 9802s der Optikanordnung 9802 unter einem Winkel zur optischen Achse 9808 auftrifft, der kleiner als der Winkelschwellenwert ist, im Wesentlichen die gesamte Sensorfläche des Sensorpixels beleuchtet wird. Illustrativ kann die erste effektive Blende 9810 für Licht vorgesehen werden, das auf die Oberfläche 9802s der Optikanordnung 9802 (z.B. auf die Oberfläche des ersten Abschnitts 9802a) in einem Winkel kleiner als der Winkelschwellenwert auftrifft. Die zweite effektive Blende 9812 kann für Licht vorgesehen werden, das auf die Oberfläche 9802s der Optikanordnung 9802 (z.B. auf die Oberfläche des zweiten Abschnitts 9802b) unter einem Winkel auftrifft, der größer als der Winkelschwellenwert ist. Als Zahlenbeispiel kann die Winkelschwelle im Bereich von etwa 0° bis etwa 25° in Bezug auf die optische Achse 9808 liegen, z.B. im Bereich von etwa 5° bis etwa 20°, z.B. im Bereich von etwa 7° bis 18°, z.B. im Bereich von etwa 9° bis etwa 16°, z.B. im Bereich von etwa 11° bis etwa 14°. Der erste Winkel α kann kleiner als die Winkelschwelle sein. Der zweite Winkel β kann größer als der Winkelschwellenwert sein.
  • Die Winkelschwelle kann in verschiedener Hinsicht einen Bereich von Winkeln in Bezug auf die optische Achse 9808 definieren (z.B. von 0° bis zur Winkelschwelle), über den das Sichtfeld und die Reichweite des Systems 9800 vergrößert werden kann. Zur Veranschaulichung: Der Winkelschwellenwert kann einen Bereich von Abständen zwischen einem Objekt und der optischen Achse 9808 definieren, über den das Sichtfeld und die Reichweite des Systems 9800 vergrößert werden können. Die Optikanordnung 9802 und/oder der Sensor 52 können auf der Grundlage eines gewünschten Winkelschwellenwertes konfiguriert werden. Beispielsweise kann der erste Abschnitt 9802a so konfiguriert werden, dass Licht, das auf die Oberfläche des ersten Abschnitts 9802a in einem Winkel auftrifft, der kleiner als der Winkelschwellenwert ist, so abgelenkt wird, dass im Wesentlichen die gesamte Sensorfläche des Sensorpixels abgedeckt wird.
  • Die Optikanordnung 9802 kann in verschiedener Hinsicht so konfiguriert werden, dass für Licht, das auf die Oberfläche 9802s der Optikanordnung 9802 unter dem ersten Winkel α auftrifft (z.B. kleiner als die Winkelschwelle), die etendue-Grenze (z.B. die maximal erreichbare etendue (Umfangsgrenze)) für die Sensorfläche des Sensors 52 im Wesentlichen ausgenutzt (z.B. ausgeschöpft) werden kann. Als Beispiel kann der erste Abschnitt 9802a so konfiguriert werden, dass er Licht, das auf die Oberfläche des ersten Abschnitts 9802a im ersten Winkel α auftrifft, so ablenkt, dass im Wesentlichen die etendue-Grenze für die Sensoroberfläche des Sensors 52 verwendet wird (z.B. erschöpft). Der Grenzwert kann (z.B. proportional) z.B. von der Fläche eines Pixels (z.B. von der Sensorfläche) und/oder von der Anzahl der Sensorpixel und/oder vom Brechungsindex des Mediums (z.B. Luft), das die Sensorfläche des Sensors 52 umgibt, abhängen. Zur Veranschaulichung: Bei Licht, das unter dem ersten Winkel α auftrifft, wird im Wesentlichen das gesamte Licht, das der Sensor 52 möglicherweise empfangen kann (z.B. aufnehmen kann), effektiv vom Sensor 52 empfangen (z.B. aufgenommen). Beispielsweise werden mehr als 50% des Lichts, das der Sensor 52 möglicherweise empfangen kann, effektiv vom Sensor 52 empfangen (z.B. mehr als 70%, z.B. mehr als 90%, z.B. im Wesentlichen die 100%). In verschiedener Hinsicht kann für Licht, das im ersten Winkel α auftrifft, im Wesentlichen die gesamte Sensorfläche des Sensors 52 beleuchtet werden.
  • Die Optikanordnung 9802 kann in verschiedener Hinsicht so konfiguriert werden, dass für Licht, das unter dem zweiten Winkel β auftrifft, die etendue-Grenze für die Sensorfläche des Sensors 52 nicht ausgeschöpft wird. Zur Veranschaulichung: Bei Licht, das unter dem zweiten Winkel β auftrifft, wird nicht das gesamte Licht, das der Sensor 52 möglicherweise empfangen kann, effektiv vom Sensor 52 empfangen. Beispielsweise werden weniger als 50% des Lichts, das der Sensor 52 möglicherweise empfangen kann, effektiv auf dem Sensor 52 empfangen, z.B. weniger als 30%, z.B. weniger als 10%.
  • Unter verschiedenen Aspekten kann eine erste (z.B. horizontale) und eine zweite (z.B. vertikale) Richtung definiert werden. Die erste Richtung kann senkrecht zur zweiten Richtung verlaufen. Die erste Richtung und/oder die zweite Richtung können senkrecht zur optischen Achse 9808 verlaufen (z.B. können sie in einer Ebene senkrecht zur optischen Achse 9808 definiert werden). Wie zum Beispiel in 98 gezeigt, kann die optische Achse 9808 entlang einer Richtung 9852 liegen. Die erste Richtung kann die Richtung 9854 sein, z.B. senkrecht zur optischen Achse 9808. Die zweite Richtung kann die Richtung 9856 rechtwinklig sowohl zur ersten Richtung 9854 als auch zur optischen Achse 9808 sein (illustrativ kann es sich um eine Richtung handeln, die aus der Ebene von 98 herauskommt). Die Definition der ersten und zweiten Richtung (z.B. der horizontalen und vertikalen Richtung) kann beliebig gewählt werden, z.B. in Abhängigkeit vom gewählten Koordinatensystem (z.B. Bezugssystem).
  • In verschiedener Hinsicht kann die Optikanordnung 9802 so konfiguriert werden, dass sie Licht, das auf die Oberfläche 9802s der Optikanordnung 9802 unter dem ersten Winkel α in Bezug auf die optische Achse 9808 auftrifft, so ablenkt, dass es im Wesentlichen die gesamte Sensorfläche des Sensorpixels 52 abdeckt, zumindest in Bezug auf eine Richtung (z. B. zumindest in Bezug auf die erste Richtung 9854). Als Beispiel kann der erste Abschnitt 9802a so konfiguriert sein, dass er Licht, das auf die Oberfläche des ersten Abschnitts 9802a unter dem ersten Winkel α auftrifft, so ablenkt, dass er im Wesentlichen die gesamte Sensorfläche des Sensorpixels zumindest in Bezug auf eine Richtung (z.B. zumindest in Bezug auf die erste Richtung 9854) bedeckt.
  • In verschiedener Hinsicht kann die Optikanordnung 9802 so konfiguriert werden, dass sie nicht-abbildende Eigenschaften aufweist (z.B. kann sie als nicht-abbildende Optik konfiguriert werden). Die Optikanordnung 9802 kann so konfiguriert werden, dass sie nicht-abbildende Eigenschaften in mindestens einer Richtung aufweist. Sie kann z. B. so konfiguriert werden, dass sie in der ersten (z. B. horizontalen) Richtung 9854 nicht-abbildende Eigenschaften aufweist. Zur Veranschaulichung: Die Optikanordnung 9802 kann so konfiguriert werden, dass zumindest in einer Richtung (z.B. in der ersten Richtung) Licht von einem Objekt auf den Sensor 52 übertragen wird (z.B. durch die Optikanordnung 9802), ohne dass ein Abbild des Objekts auf dem Sensor 52 entsteht (z.B. in dieser Richtung). Als Beispiel für eine nicht abbildende Optik kann die Optikanordnung 9802 eine Totalreflexionslinse aufweisen oder als solche konfiguriert sein (wie z.B. in 99 dargestellt). Eine Optikanordnung 9802, die als Linse mit totaler interner Reflexion konfiguriert ist, kann besonders geeignet sein, um Licht mit einer Richtwirkung (z.B. nicht omnidirektionales Licht) zu sammeln (z.B. zur Detektion). Als weiteres Beispiel für eine nicht abbildende Optik kann die Optikanordnung 9802 mindestens einen nicht abbildenden Konzentrator aufweisen (z.B. einen zusammengesetzten Parabolkonzentrator, wie z.B. in 100A und 100B dargestellt).
  • 99 zeigt eine Draufsicht auf ein System 9900 mit einer Optikanordnung 9902, die als Linse mit totaler interner Reflexion und einem Sensor 52 nach verschiedenen Gesichtspunkten konfiguriert ist.
  • In verschiedener Hinsicht können der erste Teil und der zweite Teil der Optikanordnung 9902 asymmetrisch konfiguriert sein. Zum Beispiel kann der erste Teil eine andere Form und/oder eine andere Größe (z.B. eine andere Dicke) als der zweite Teil haben. Als weiteres Beispiel kann der erste Teil einen anderen Krümmungsradius in Bezug auf den zweiten Teil haben.
  • Als Beispiel kann der zweite Teil 9902b eine konvexe Form in Bezug auf die optische Achse 9908 der Optikanordnung 9902 haben. Der erste Teil 9902a kann eine nicht konvexe Form haben. Alternativ kann der erste Teil 9902a eine konvexe Form mit einer geringeren Krümmung als der zweite Teil 9902b haben, z.B. in Bezug auf die Richtung, in die der zweite Teil 9902b das Licht in die Richtung zur Oberfläche des Sensors 52 ablenkt.
  • Als weiteres Beispiel kann die Dicke des zweiten Teils 9902b kleiner sein als die Dicke des ersten Teils 9902a. Zum Beispiel kann die Dicke des zweiten Abschnitts 9902b mit der konvexen Form kleiner sein als die Dicke des ersten Abschnitts 9902a.
  • 100A zeigt eine Draufsicht auf ein System 10000 mit einer Optikanordnung 10002 mit einem zusammengesetzten Parabolkonzentrator und einem zusätzlichen optischen Element 10010 in einer schematischen Ansicht nach verschiedenen Aspekten.
  • 100B zeigt eine Seitenansicht eines Systems 10000 mit einer Optikanordnung 10002 mit einem zusammengesetzten Parabolkonzentrator und einem zusätzlichen optischen Element 10010 in einer schematischen Ansicht nach verschiedenen Aspekten.
  • In verschiedener Hinsicht kann die optische Anordnung mindestens einen nicht-abbildenden Konzentrator aufweisen. Beispielsweise können der erste Teil und der zweite Teil durch mindestens einen nichtabbildenden Konzentrator gebildet werden (z.B. durch mindestens einen zusammengesetzten parabolischen Konzentrator). Der nichtabbildende Konzentrator kann so konfiguriert werden, dass er die gesamte einfallende Strahlung, die über einen Akzeptanzwinkel des nichtabbildenden Konzentrators gesammelt wird, zum Sensor 52 reflektiert.
  • In verschiedener Hinsicht kann der nicht-abbildende Konzentrator so konfiguriert werden, dass die erste effektive Blende für Licht vorgesehen werden kann, das auf den nicht-abbildenden Konzentrator unter dem ersten Winkel in Bezug auf die optische Achse 10008 auftrifft (z.B. unter einem Winkel in Bezug auf die optische Achse 10008 innerhalb des Akzeptanzwinkels und kleiner als der Winkelschwellenwert). Zur Veranschaulichung: Bei Licht, das auf den nicht-abbildenden Konzentrator unter einem Winkel innerhalb des Akzeptanzwinkels und kleiner als der Winkelschwellenwert auftrifft, kann im Wesentlichen die gesamte Sensorfläche des Sensorpixels 52 beleuchtet werden. Der nicht-abbildende Konzentrator kann so konfiguriert werden, dass die zweite effektive Blende für Licht vorgesehen werden kann, das auf den nicht-abbildenden Konzentrator unter dem zweiten Winkel in Bezug auf die optische Achse 10008 auftrifft (z.B. unter einem Winkel in Bezug auf die optische Achse 10008 innerhalb des Akzeptanzwinkels und größer als der Winkelschwellenwert).
  • In verschiedener Hinsicht kann das System ein (z.B. zusätzliches) optisches Element 10010 aufweisen. Das zusätzliche optische Element 10010 kann in der optischen Anordnung enthalten sein, oder es kann eine separate Komponente sein. Das optische Element 10010 kann so konfiguriert werden, dass es Abbildungseigenschaften in mindestens einer Richtung aufweist. Beispielsweise kann das optische Element 10010 so konfiguriert werden, dass es Abbildungseigenschaften in einer Richtung aufweist, die sich von der Richtung unterscheidet, in der die optische Anordnung (z. B. der nicht-abbildende Konzentrator 10002) so konfiguriert werden kann, dass sie nicht-abbildende Eigenschaften aufweist.
  • Als Beispiel kann die optische Anordnung so konfiguriert werden, dass sie in horizontaler Richtung (z.B. in Richtung 9854) nicht-abbildende Eigenschaften aufweist. Das optische Element 10010 kann so konfiguriert werden, dass es Abbildungseigenschaften in vertikaler Richtung aufweist (z.B. in Richtung 9856). Als Beispiel kann das optische Element 10010 ein optisches Fischaugen-Element sein oder es kann als ein optisches Fischaugen-Element konfiguriert werden.
  • Zur Veranschaulichung: Das optische Element 10010 kann so konfiguriert werden, dass auf dem Sensor 52 ein Bild eines Objekts in mindestens einer Richtung entsteht (z.B. in der Richtung, in der das optische Element 10010 Abbildungseigenschaften hat, z.B. in vertikaler Richtung). Dies kann z.B. dann hilfreich sein, wenn der Sensor 52 ein oder mehrere Pixel 52 in dieser Richtung umfasst. Beispielsweise kann der Sensor 52 ein oder mehrere Pixel 52 in vertikaler Richtung aufweisen (z.B. kann der Sensor 52 eine oder mehrere Pixelspalten aufweisen), und es kann ein Bild eines detektierten Objekts (z.B. durch das optische Element 10010) auf dem Sensor 52 in vertikaler Richtung erzeugt werden. Die Anzahl der Pixel in vertikaler Richtung kann die vertikale Auflösung des Sensors 52 bestimmen.
  • 101A und 101B zeigen eine Draufsicht auf ein System 10100 mit einer Optikanordnung 10102 mit einer ersten steuerbaren Komponente 10108 und einer zweiten steuerbaren Komponente 10110 nach verschiedenen Gesichtspunkten.
  • In verschiedener Hinsicht kann die optische Anordnung eine oder mehrere steuerbare (z.B. optische) Komponenten aufweisen. Beispielsweise kann die optische Anordnung eine oder mehrere Komponenten aufweisen, deren optische Eigenschaften (z.B. die Brennweite) z.B. dynamisch gesteuert (d.h. angepasst) werden können. Die optischen Eigenschaften der einen oder mehreren steuerbaren Komponenten können eingestellt werden, um das auf den Sensor 52 abgebildete Lichtmuster zu steuern. Beispielsweise können die eine oder mehrere steuerbare Komponenten so konfiguriert werden, dass für jeden Winkel im Sichtfeld des Systems im Wesentlichen die gesamte Sensorfläche des Sensors 52 genutzt wird (z.B. wird im Wesentlichen die gesamte Oberfläche des Sensors 52 durch das einfallende Licht beleuchtet). Zur Veranschaulichung: Die eine oder mehreren steuerbaren Komponenten können so gesteuert werden, dass die Winkelschwelle eingestellt werden kann. In verschiedener Hinsicht kann das System einen oder mehrere Prozessoren und/oder Controller aufweisen, die mit dem einen oder den mehreren steuerbaren Elementen gekoppelt und so konfiguriert sind, dass sie die steuerbaren Elemente steuern.
  • In verschiedener Hinsicht kann die Optikanordnung 10102 eine erste steuerbare Komponente 10108 aufweisen. Die Optikanordnung 10102 kann ferner eine zweite steuerbare Komponente 10110 aufweisen. Die zweite steuerbare Komponente 10110 kann sich hinter der ersten steuerbaren Komponente 10108 befinden (z.B. in Bezug auf die Richtung des auf die Optikanordnung 10102 auftreffenden Lichts). Beispielsweise kann die zweite steuerbare Komponente 10110 so konfiguriert sein, dass sie Licht von der ersten steuerbaren Komponente 10108 empfängt. Die zweite steuerbare Komponente 10110 kann so konfiguriert werden, dass sie das empfangene Licht in die Richtung der Oberfläche des Sensors 52 ablenkt. Die erste steuerbare Komponente 10108 kann so konfiguriert werden, dass sie einen Sichtwinkel des Sensors 52 steuert, z.B. zur Steuerung des Sichtwinkels des auf die Oberfläche des Sensors 52 abgebildeten Lichts durch Steuerung einer optischen Eigenschaft (z.B. der Brennweite) der ersten steuerbaren Komponente 10108. Die zweite steuerbare Komponente 10110 kann so konfiguriert werden, dass der Fokus der Abbildung des auf die Oberfläche des Sensors 52 abgebildeten Lichts eingestellt werden kann. Es wird davon ausgegangen, dass die Anzahl und die Konfiguration der steuerbaren Komponenten nicht auf das in 101A und 101B gezeigte Beispiel beschränkt ist. Das System (z.B. die optische Anordnung) kann eine beliebige geeignete Anzahl von steuerbaren Komponenten aufweisen, die in jeder geeigneten Weise konfiguriert werden können, um den gewünschten Effekt zu erzielen.
  • Zum Beispiel kann das erste steuerbare Element 10108 eine erste Flüssiglinse und das zweite steuerbare Element 10110 eine zweite Flüssiglinse sein. Eine Flüssigkeitslinse kann ein steuerbares Element (z.B. eine Membran) haben, das gesteuert werden kann, um die Brennweite der Flüssigkeitslinse zu verändern. Beispielsweise kann die Durchbiegung der Membranen der Flüssigkeitslinsen so gesteuert werden, dass das auf dem Sensor 52 abgebildete Sichtfeld durch Änderung der Brennweite der Flüssigkeitslinsen angepasst werden kann.
  • Wie z.B. in 101A dargestellt, kann sich für Licht, das auf die Optikanordnung 10102 unter einem ersten Winkel γ (als Zahlenbeispiel 1,2°) auftrifft, die Membran 10108m der ersten Flüssiglinse 10108 in einem ersten Zustand befinden. Zum Beispiel kann die Membran 10108m der ersten Flüssiglinse 10108 eine erste Auslenkung oder Durchbiegung aufweisen (z.B. kann sie eine maximale Verformungsverschiebung im Bereich zwischen 0 mm und 1 mm aufweisen). Die Membran 10110m der zweiten Flüssiglinse 10110 kann sich in einem zweiten Zustand befinden. Zum Beispiel kann die Membran 10110m der zweiten Flüssiglinse 10110 eine zweite Durchbiegung haben, die größer ist als die erste Durchbiegung (z.B. kann sie eine maximale Verformungsverschiebung im Bereich zwischen 0,5 mm und 3 mm haben). Zur Veranschaulichung: Die Membran 10110m der zweiten Flüssiglinse 10110 kann stärker ausgelenkt sein als die Membran 10108m der ersten Flüssiglinse 10108. Das Licht kann von einem Objekt 10104 kommen, das in einem ersten Abstand von der optischen Achse des Systems 10100 angeordnet ist.
  • Wie z.B. in 101B dargestellt, kann für Licht, das auf die Optikanordnung 10102 unter einem zweiten Winkel δ (z.B. größer als der erste Winkel γ, als Zahlenbeispiel 4,5°) auftrifft, die Membran 10108m der ersten Flüssiglinse 10108 eine größere Auslenkung oder Durchbiegung als im vorherigen Zustand aufweisen. Zum Beispiel kann sich die Membran 10108m der ersten Flüssiglinse 10108 im zweiten Zustand befinden. Die Membran 10110m der zweiten Flüssiglinse 10110 kann eine geringere Durchbiegung als im vorherigen Zustand haben. Zum Beispiel kann sich die Membran 10110m der zweiten Flüssiglinse 10110 im ersten Zustand befinden. Zur Veranschaulichung: Die Membran 10110m der zweiten Flüssiglinse 10110 kann eine geringere Durchbiegung haben als die Membran 10108m der ersten Flüssiglinse 10108. Das Licht kann von einem Objekt 10106 kommen, das in einem zweiten Abstand (z.B. größer als der erste Abstand) von der optischen Achse des Systems 10100 angeordnet ist. Es wird davon ausgegangen, dass der erste Zustand und der zweite Zustand für die Membranen der Flüssigkeitslinsen nur als Beispiel gezeigt werden, wobei andere Kombinationen und andere Zustände möglich sein können.
  • Zusätzlich oder alternativ zu einer wie oben beschriebenen optischen Anordnung kann der Sensor 52 unter verschiedenen Aspekten so konfiguriert werden, dass ein großes Sichtfeld und eine große Reichweite für die Detektion von Licht, das in einem kleinen Winkel zur optischen Achse des Systems auf das System trifft (z. B. für die Detektion von Objekten, die in der Nähe der optischen Achse angeordnet sind), bei gleichzeitiger Aufrechterhaltung eines hohen SNR bereitgestellt werden kann.
  • 102A zeigt einen Sensor 52 mit Sensorpixeln, die entsprechend verschiedener Aspekte unterschiedliche Pixelgrößen haben.
  • Die Konfiguration des Sensors 52 (z.B. die Anordnung der Sensorpixel 52) kann in verschiedener Hinsicht frei gewählt werden, z.B. in Abhängigkeit von der beabsichtigten Anwendung des Sensors und/oder des Systems einschließlich des Sensors. Beispielsweise kann der Sensor 52 eine Vielzahl von Sensorpixeln 52 aufweisen. Die Pixel 52 des Sensors 52 können entlang einer gewünschten Erfassungsrichtung angeordnet werden (z.B. die erste Richtung 9854 oder die zweite Richtung 9856, wie oben beschrieben).
  • Als Beispiel kann der Sensor ein eindimensionales Sensorarray sein. Der Sensor kann eine Vielzahl von Sensorpixeln umfassen, die entlang der Erfassungsrichtung angeordnet sind. Die Erfassungsrichtung kann z.B. die horizontale Richtung (z.B. der Sensor kann eine Reihe von Pixeln umfassen) oder die vertikale Richtung (z.B. der Sensor kann eine Spalte von Pixeln umfassen) sein. Als weiteres Beispiel kann der Sensor ein zweidimensionales Sensorarray sein. Der Sensor kann eine Vielzahl von Sensorpixeln aufweisen, die in einer Matrixarchitektur angeordnet sind, z.B. kann er eine (erste) Vielzahl von Sensorpixeln aufweisen, die entlang einer ersten Array-Richtung (z.B. der horizontalen Richtung) angeordnet sind, und eine (zweite) Vielzahl von Sensorpixeln, die entlang einer zweiten Array-Richtung (z.B. der vertikalen Richtung) angeordnet sind. Die zweite Array-Richtung kann sich von der ersten Array-Richtung unterscheiden. Die erste Vielzahl von Sensorpixeln kann die gleiche Anzahl von Pixeln aufweisen wie die zweite Vielzahl (z.B. können die Pixel in einer quadratischen Matrix angeordnet sein). Die erste Vielzahl von Sensorpixeln kann auch mehr oder weniger Sensorpixel als die zweite Vielzahl aufweisen (z.B. können die Pixel in einer Matrix mit mehr Zeilen als Spalten oder mehr Spalten als Zeilen angeordnet sein).
  • In verschiedener Hinsicht kann die Empfindlichkeit des Sensors 52 über die Sensoroberfläche gleichmäßig sein (z.B. kann jedes Sensorpixel 52 die gleiche Empfindlichkeit bieten oder haben). Beispielsweise kann jede Fotodiode des Sensors 52 die gleiche Empfindlichkeit aufweisen. In verschiedener Hinsicht kann die Empfindlichkeit des Sensors 52 über die Sensoroberfläche ungleichmäßig sein. Sensorpixel 52 können je nach ihrer Position (z.B. in Bezug auf ihren Abstand zur Mitte des Sensors 52) eine unterschiedliche Empfindlichkeit aufweisen. Zum Beispiel können Sensorpixel 52, die nahe der Mitte des Sensors 52 angeordnet sind, eine höhere Empfindlichkeit haben als Sensorpixel 52, die weiter von der Mitte des Sensors 52 entfernt sind.
  • In verschiedener Hinsicht können die geometrischen Eigenschaften der Sensorpixel 52 einheitlich sein. Zum Beispiel können alle Sensorpixel 52 die gleiche Größe und/oder die gleiche Form haben (z.B. eine quadratische Form, eine rechteckige Form oder ähnliches).
  • Die geometrischen Eigenschaften der Sensorpixel 52 können in verschiedenen Aspekten variieren. Beispielsweise können die Sensorpixel 52 unterschiedliche Sensorpixelgrößen haben (wie z.B. in 102A dargestellt). Ein Sensorpixel 52, das näher an der optischen Achse des Systems angeordnet ist, in dem der Sensor 52 enthalten sein kann (zur Veranschaulichung: ein Sensorpixel 52, das näher an der Mitte des Sensors 52 angeordnet ist), kann eine andere (z.B. größere, z.B. 10% größere, 20% größere oder 50% größere) Pixelgröße haben als ein Sensorpixel 52, das weiter von der optischen Achse des Systems entfernt angeordnet ist (z.B. weiter von der Mitte des Sensors 52 entfernt angeordnet). Die Größe kann in mindestens einer (z.B. Array) Richtung unterschiedlich sein. Beispielsweise kann die Größe in mindestens der ersten (z.B. horizontalen) Richtung 9854 (z.B. in der ersten Array-Richtung) unterschiedlich sein, z.B. kann die Breite der Pixel unterschiedlich sein. Zum Beispiel kann die Größe in mindestens der zweiten (z.B. vertikalen) Richtung 9856 (z.B. in der zweiten Array-Richtung) unterschiedlich sein, z.B. kann die Höhe der Pixel 52 unterschiedlich sein. Die Größe kann auch sowohl in der ersten als auch in der zweiten Richtung unterschiedlich sein (z.B. in der ersten und in der zweiten Array-Richtung). Ein Sensorpixel 52, das näher an der optischen Achse des Systems angeordnet ist, kann eine größere Oberfläche haben als ein Sensorpixel 52, das weiter von der optischen Achse des Systems entfernt angeordnet ist.
  • Ein Beispiel: Wie in 102A gezeigt, kann ein Sensorpixel 10202 (oder alle Sensorpixel) in einer ersten Region 10204 (eingeschlossen von der gepunkteten Linie in 102A) eine erste Größe haben. Ein Sensorpixel 10206 (oder alle Sensorpixel) in einer zweiten Region 10208 (eingeschlossen durch die gepunktete Linie in 102A) kann eine zweite Größe haben. Ein Sensorpixel 10210 (oder alle Sensorpixel) in einer dritten Region 10212 (eingeschlossen durch die gepunktete Linie in 102A) kann eine dritte Größe haben. Die Pixel 10202 in der zweiten Region 10208 können weiter von der optischen Achse des Systems entfernt sein (z.B. von der Mitte des Sensors 52) als die Pixel 10202 in der ersten Region 10204. Die Pixel 10210 in der dritten Region 10212 können weiter von der Mitte des Sensors entfernt sein als die Pixel 10206 in der zweiten Region 10208. Somit kann die erste Größe größer sein als die zweite Größe und die dritte Größe. Die zweite Größe kann größer als die dritte Größe sein. Die in 102A gezeigte Konfiguration ist als Beispiel für eine 2D-Pixelanordnung dargestellt. Es wird davon ausgegangen, dass eine gleiche oder ähnliche Konfiguration in einem 1D-Pixel-Array implementiert werden kann (wie z.B. in 102B gezeigt).
  • In verschiedener Hinsicht kann die Größenänderung zwischen den Regionen im Verhältnis konstant sein. Beispielsweise kann ein Verhältnis zwischen der zweiten Größe und der ersten Größe im Wesentlichen das gleiche sein wie ein Verhältnis zwischen der dritten Größe und der zweiten Größe. Alternativ dazu kann die Größe um einen größeren oder kleineren Betrag variieren, um den Abstand von der Mitte des Sensors 52 zu vergrößern. Beispielsweise kann ein Verhältnis zwischen der zweiten Größe und der ersten Größe größer oder kleiner sein als ein Verhältnis zwischen der dritten Größe und der zweiten Größe.
  • Diese Konfiguration kann einen Effekt ähnlich einer Tonnenverzerrung bieten (z.B. ähnlich dem Effekt, den ein Fish-Eye-Objektiv (Fischaugenobjektiv) bietet). Illustrativ kann der Sensor 52 so konfiguriert werden, dass Licht, das unter einem kleinen Winkel in Bezug auf die optische Achse des Systems auf den Sensor 52 trifft (z.B. näher an der Mitte des Sensors 52 auftreffend), eine größere Vergrößerung in Bezug auf Lichtstrahlen erfährt, die unter einem größeren Winkel in Bezug auf die optische Achse des Systems auf den Sensor 52 auftreffen (weiter weg von der Mitte des Sensors 52 auftreffend, illustrativ in einem anderen Bereich). Lichtstrahlen, die unter einem kleinen Winkel auf den Sensor 52 auftreffen, können auf einer größeren Sensorfläche abgebildet (z.B. kartographiert) werden (wie z.B. in 102B gezeigt). Auf diese Weise kann ein größeres Sichtfeld und eine größere Reichweite für Objekte bereitgestellt werden, die das auf den Sensor 52 in einem kleinen Winkel zur optischen Achse des Systems einfallende Licht reflektieren.
  • 102B zeigt einen Abbildungsprozess, der mit einem Sensor 52 mit Sensorpixeln unterschiedlicher Pixelgröße in einer schematischen Ansicht nach verschiedenen Aspekten durchgeführt wurde.
  • Illustrativ oder bildlich kann ein Objekt so gesehen werden, dass es aus einer Vielzahl von (z.B. Objekt-) Pixeln 10214 gebildet wird, z.B. einer Vielzahl von Pixeln in der Objektebene. Die Objektpixel 10214 können alle die gleiche Größe und/oder die gleiche Form haben. Ein Objektpixel 10214 kann auf einem Sensorpixel (z.B. einem Pixel in der Bildebene) abgebildet werden.
  • In verschiedener Hinsicht kann die Größe eines Sensorpixels, auf dem ein Objektpixel 10214 abgebildet wird, von dem Winkel abhängen, unter dem Licht vom Objektpixel 10214 auf den Sensor 52 fällt. Zur Veranschaulichung: Die Größe eines Sensorpixels, auf dem ein Objektpixel 10214 abgebildet wird, kann vom Abstand zwischen dem Objektpixel 10214 und der optischen Achse 10216 des Systems abhängen, in dem der Sensor 52 enthalten sein kann (z.B. von der vertikalen Verschiebung zwischen dem Objektpixel 10214 und der Mitte des Sensors 52).
  • Als Beispiel kann ein erstes Objektpixel 10214, das in der Nähe der optischen Achse 10216 angeordnet ist (z.B. zentriert um die optische Achse 10216), auf ein erstes Sensorpixel 10202 (z.B. auf ein Sensorpixel in einem ersten Bereich 10204) mit einer ersten Größe (z.B. einer ersten Fläche) abgebildet werden. Ein zweites Objektpixel 10214, das in Bezug auf das erste Objektpixel 10214 weiter von der optischen Achse 10216 entfernt angeordnet ist, kann auf ein zweites Sensorpixel 10206 (z.B. auf ein Sensorpixel in einem zweiten Bereich 10208) mit einer zweiten Größe (z.B. einer zweiten Oberfläche) abgebildet werden. Ein drittes Objektpixel 10214, das in Bezug auf das erste und zweite Objektpixel weiter von der optischen Achse 10216 entfernt angeordnet ist, kann auf ein drittes Sensorpixel 10210 (z.B. auf ein Sensorpixel in einem dritten Bereich 10212) mit einer dritten Größe (z.B. einer dritten Oberfläche) abgebildet werden. Das erste Objektpixel 10214 kann die gleiche Größe wie das zweite Objektpixel 10214 und wie das dritte Objektpixel 10214 haben. Die erste Größe des ersten Sensorpixels 10202 kann größer sein als die zweite Größe und als die dritte Größe. Die zweite Größe des zweiten Sensorpixels 10206 kann größer als die dritte Größe sein.
  • In dieser Konfiguration kann das System ein optisches Element 10218 (z.B. eine Linse, ein Objektiv o.ä.) aufweisen, das so konfiguriert ist, dass es das Objekt (z.B. die Objektpixel 10214) auf den Sensor 52 (z.B. auf die Sensorpixel) abbildet.
  • Diese Konfiguration kann den Effekt bieten, dass ein Objekt (z.B. Objektpixel), das in der Nähe der optischen Achse 10216 des Systems angeordnet ist, mit einem größeren Sichtfeld und einer größeren Reichweite erfasst werden kann als ein Objekt, das weiter von der optischen Achse 10216 entfernt ist, wobei ein hohes SNR beibehalten wird.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1o ist eine Optikanordnung für ein LIDAR-Sensorsystem. Die Optikanordnung kann einen ersten Teil umfassen, der so konfiguriert ist, dass er eine erste effektive Blende für ein Sichtfeld des LIDAR-Sensorsystems bietet, und einen zweiten Teil, der so konfiguriert ist, dass er eine zweite effektive Blende für das Sichtfeld des LIDAR-Sensorsystems bietet. Der erste Teil ist so konfiguriert, dass er Licht, das auf eine Oberfläche des ersten Teils auftrifft, in einem ersten Winkel in Bezug auf eine optische Achse der optischen Anordnung ablenkt, um im Wesentlichen die gesamte Sensorfläche eines Sensorpixels abzudecken. Die zweite effektive Blende (Apertur) ist kleiner als die erste effektive Blende für Licht, das auf eine Oberfläche des zweiten Abschnitts unter einem zweiten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft, der größer als der erste Winkel ist.
    • In Beispiel 2o kann der Gegenstand von Beispiel 1o optional umfassen, dass der erste Teil so konfiguriert ist, dass er Licht, das auf die Oberfläche des ersten Teils unter dem ersten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft, so ablenkt, dass er im Wesentlichen die gesamte Sensorfläche des Sensorpixels abdeckt, zumindest in Bezug auf eine erste Richtung.
    • In Beispiel 3o kann der Gegenstand von Beispiel 2o optional umfassen, dass die erste Richtung die horizontale Richtung ist.
    • In Beispiel 4o kann der Gegenstand eines der Beispiele 1o bis 3o optional umfassen, dass der erste Teil so konfiguriert ist, dass er Licht, das auf die Oberfläche des ersten Teils auftrifft, in einem Winkel in Bezug auf die optische Achse der Optikanordnung ablenkt, der kleiner als ein Winkelschwellenwert ist, um im Wesentlichen die gesamte Sensorfläche des Sensorpixels abzudecken, zumindest in Bezug auf die erste Richtung. Die zweite effektive Blende (Apertur) ist kleiner als die erste effektive Blende für Licht, das auf eine Oberfläche des zweiten Abschnitts unter einem Winkel in Bezug auf eine optische Achse der optischen Anordnung auftrifft, der größer als der Winkelschwellenwert ist.
    • In Beispiel 5o kann der Gegenstand von Beispiel 4o optional umfassen, dass die Winkelschwelle im Bereich von ca. 5° bis ca. 20° in Bezug auf die optische Achse der Optikanordnung liegt, z.B. im Bereich von ca. 7° bis 18°, z.B. im Bereich von ca. 9° bis ca. 16°, z.B. im Bereich von ca. 11° bis ca. 14°.
    • In Beispiel 6o kann der Gegenstand eines der Beispiele 2o bis 5o optional umfassen, dass die optische Anordnung so konfiguriert ist, dass sie in der ersten Richtung nicht-abbildende Eigenschaften aufweist.
    • In Beispiel 7o kann der Gegenstand eines der Beispiele 1o bis 6o optional umfassen, dass der erste Abschnitt so konfiguriert ist, dass er einen Erfassungsbereich von mindestens 50 m für Licht bietet, das auf eine Oberfläche des ersten Abschnitts mit dem ersten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft.
    • In Beispiel 8o kann der Gegenstand eines der Beispiele 1o bis 7o optional umfassen, dass der erste Teil und der zweite Teil monolithisch in einer gemeinsamen optischen Komponente integriert sind.
    • In Beispiel 9o kann der Gegenstand von Beispiel 8o optional umfassen, dass die Optikanordnung als Totalreflexionslinse konfiguriert ist.
    • In Beispiel 10o kann der Gegenstand von Beispiel 9o optional umfassen, dass der zweite Teil eine konvexe Form in Bezug auf die optische Achse der optischen Anordnung hat.
    • In Beispiel 11o kann der Gegenstand von Beispiel 10o optional umfassen, dass die Dicke des zweiten Teils mit der konvexen Form kleiner ist als die Dicke des ersten Teils.
    • In Beispiel 12o kann der Gegenstand eines der Beispiele 100 oder 11o optional umfassen, dass der erste Teil eine nicht konvexe Form oder eine konvexe Form mit einer geringeren Krümmung als der zweite Teil hat, und zwar in Bezug auf die Richtung, in die der zweite Teil das Licht in die Richtung zur Oberfläche des Sensors ablenkt.
    • In Beispiel 13o kann der Gegenstand eines der Beispiele 1o bis 12o optional umfassen, dass der erste Teil und der zweite Teil durch mindestens einen zusammengesetzten parabolischen Konzentrator gebildet werden.
    • In Beispiel 14o kann der Gegenstand von Beispiel 13o optional umfassen, dass die Optikanordnung ferner ein optisches Element mit Abbildungseigenschaften in einer zweiten Richtung umfasst. Die zweite Richtung unterscheidet sich von der ersten Richtung.
    • In Beispiel 15o kann der Gegenstand von Beispiel 14o optional umfassen, dass die zweite Richtung die vertikale Richtung ist.
    • In Beispiel 16o kann der Gegenstand eines der Beispiele 14o oder 15o optional umfassen, dass das optische Element ein optisches Fischaugen-Element ist.
    • In Beispiel 17o kann der Gegenstand eines der Beispiele 1o bis 16o optional umfassen, dass der erste Abschnitt so konfiguriert ist, dass er das auf die Oberfläche des ersten Abschnitts auftreffende Licht in einem Winkel in Bezug auf eine optische Achse der Optikanordnung ablenkt, der kleiner als ein Winkelschwellenwert ist, um den Grenzwert für die Sensoroberfläche des Sensors im Wesentlichen auszunutzen.
    • In Beispiel 18o kann der Gegenstand eines der Beispiele 1o bis 17o optional umfassen, dass der erste Teil und/oder der zweite Teil so konfiguriert wird/werden, dass das auf den ersten Teil und/oder den zweiten Teil auftreffende Licht in eine erste Ablenkungsrichtung und/oder in eine zweite Ablenkungsrichtung, die sich von der ersten Richtung unterscheidet, abgelenkt wird.
    • Beispiel 19o ist eine Optikanordnung für ein LIDAR-Sensorsystem. Die Optikanordnung kann so konfiguriert werden, dass eine erste effektive Blende für ein Sichtfeld des LIDAR-Sensorsystems bereitgestellt wird, dass eine zweite effektive Blende für das Sichtfeld des LIDAR-Sensorsystems bereitgestellt wird und dass auf eine Oberfläche der Optikanordnung auftreffendes Licht in einem ersten Winkel in Bezug auf eine optische Achse der Optikanordnung so abgelenkt wird, dass im Wesentlichen die gesamte Sensorfläche eines Sensorpixels abgedeckt wird. Die zweite effektive Blende ist kleiner als die erste effektive Blende für Licht, das auf die Oberfläche der Optikanordnung unter einem zweiten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft, der größer als der erste Winkel ist.
    • In Beispiel 20o kann der Gegenstand von Beispiel 19o optional umfassen, dass die Optikanordnung so konfiguriert ist, dass sie Licht, das auf die Oberfläche der Optikanordnung unter dem ersten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft, so ablenkt, dass es im Wesentlichen die gesamte Sensorfläche des Sensorpixels, zumindest in Bezug auf eine erste Richtung, bedeckt.
    • In Beispiel 21o kann der Gegenstand von Beispiel 20o optional umfassen, dass die erste Richtung die horizontale Richtung ist.
    • In Beispiel 22o kann der Gegenstand eines der Beispiele 20o oder 21o optional umfassen, dass die Optikanordnung so konfiguriert ist, dass sie in der ersten Richtung nicht-abbildende Eigenschaften aufweist.
    • In Beispiel 23o kann der Gegenstand eines der Beispiele 19o bis 22o optional umfassen, dass die Optikanordnung als Totalreflexionslinse konfiguriert ist.
    • In Beispiel 24o kann der Gegenstand eines der Beispiele 19o bis 23o optional umfassen, dass die Optikanordnung zusätzlich ein optisches Element mit Abbildungseigenschaften in einer zweiten Richtung aufweist. Die zweite Richtung unterscheidet sich von der ersten Richtung.
    • In Beispiel 25o kann der Gegenstand von Beispiel 24o optional umfassen, dass die zweite Richtung die vertikale Richtung ist.
    • In Beispiel 26o kann der Gegenstand von Beispiel 24o oder 25oc optional umfassen, dass das optische Element ein optisches Fischaugen-Element ist.
    • Beispiel 27o ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Optikanordnung aus einem der Beispiele 1o bis 26o und einen Sensor einschließlich des Sensorpixels aufweisen, der so konfiguriert ist, dass er das von der Optikanordnung gelieferte Licht erfasst.
    • In Beispiel 28o kann der Gegenstand von Beispiel 27o optional umfassen, dass der Sensor ein eindimensionales Sensorarray mit einer Vielzahl von Sensorpixeln ist, die entlang einer Erfassungsrichtung angeordnet sind.
    • In Beispiel 29o kann der Gegenstand von Beispiel 28o wahlweise umfassen, dass die Erfassungsrichtung die vertikale oder die horizontale Richtung ist.
    • In Beispiel 30o kann der Gegenstand eines der Beispiele 27o bis 29o optional umfassen, dass das LIDAR-Sensorsystem als eines der folgenden LIDAR-Sensorsysteme konfiguriert wird: ein Flash-LIDAR-Sensorsystem, ein 1D-Scan-LIDAR-Sensorsystem, ein 2D-Scan-LIDAR-Sensorsystem und ein Hybrid-Flash-LIDAR-Sensorsystem.
    • In Beispiel 31o kann der Gegenstand eines der Beispiele 27o bis 30o optional umfassen, dass der Sensor ein zweidimensionales Sensorarray mit einer Vielzahl von Sensorpixeln ist, die entlang einer ersten Array-Richtung angeordnet sind, und einer Vielzahl von Sensorpixeln, die entlang einer zweiten Array-Richtung, die sich von der ersten Array-Richtung unterscheidet, angeordnet sind.
    • In Beispiel 32o kann der Gegenstand von Beispiel 31o optional umfassen, dass die Sensorpixel unterschiedliche Sensorpixelgrößen haben. Ein Sensorpixel, das näher an der optischen Achse des LIDAR-Sensorsystems angeordnet ist, hat zumindest in Bezug auf die zweite Array-Richtung eine größere Sensorpixelgröße als ein Sensorpixel, das weiter von der optischen Achse des LIDAR-Sensorsystems entfernt angeordnet ist.
    • In Beispiel 33o kann der Gegenstand eines der Beispiele 27o bis 32o optional umfassen, dass das LIDAR-Sensorsystem zusätzlich eine Laserquelle aufweist.
    • In Beispiel 34o kann der Gegenstand von Beispiel 33o optional umfassen, dass die Laserquelle mindestens eine Laserdiode aufweist.
    • In Beispiel 35o kann der Gegenstand von Beispiel 34o optional umfassen, dass die Laserquelle eine Vielzahl von Laserdioden aufweist.
    • In Beispiel 36o kann der Gegenstand eines der Beispiele 33o bis 35o optional umfassen, dass die mindestens eine Laserquelle so konfiguriert ist, dass sie einen Laserstrahl mit einer Wellenlänge im infraroten Wellenlängenbereich aussendet.
    • In Beispiel 37o kann der Gegenstand eines der Beispiele 27o bis 36o optional umfassen, dass der Sensor eine Vielzahl von Fotodioden umfasst.
    • In Beispiel 38o kann der Gegenstand von Beispiel 37o optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 39o kann der Gegenstand von Beispiel 38o optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 40o kann der Gegenstand von Beispiel 39o optional umfassen, dass das LIDAR-Sensorsystem ferner einen Zeit-Digital-Wandler umfasst, der mit mindestens einer der Einzelphotonen-Lawinenfotodioden gekoppelt ist.
    • In Beispiel 41o kann der Gegenstand eines der Beispiele 37o bis 40o optional umfassen, dass das LIDAR-Sensorsystem außerdem einen Verstärker aufweist, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 42o kann der Gegenstand von Beispiel 41o optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 43o kann der Gegenstand eines der Beispiele 41o oder 42o optional umfassen, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler umfasst, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • Beispiel 44o ist ein Sensor für ein LIDAR-Sensorsystem. Der Sensor kann eine Vielzahl von Sensorpixeln aufweisen. Die Sensorpixel haben unterschiedliche Sensorpixelgrößen. Ein Sensorpixel, das näher an der optischen Achse des LIDAR-Sensorsystems angeordnet ist, hat eine größere Sensorpixelgröße als ein Sensorpixel, das weiter von der optischen Achse des LIDAR-Sensorsystems entfernt angeordnet ist.
    • Beispiel 45o ist eine Optikanordnung für ein LIDAR-Sensorsystem. Die Optikanordnung kann eine erste Flüssiglinse und eine zweite Flüssiglinse umfassen, die sich stromabwärts der ersten Flüssiglinse befindet und so konfiguriert ist, dass sie Licht von der ersten Flüssiglinse empfängt und das empfangene Licht in die Richtung einer Oberfläche eines Sensors des LIDAR-Sensorsystems ablenkt.
    • In Beispiel 46o kann der Gegenstand von Beispiel 45o optional umfassen, dass die erste Flüssiglinse so konfiguriert ist, dass sie den Sichtwinkel des auf die Oberfläche des Sensors abgebildeten Lichts steuert, indem sie die Brennweite der ersten Flüssiglinse kontrolliert.
    • In Beispiel 47o kann der Gegenstand von Beispiel 46o optional umfassen, dass die zweite Flüssiglinse so konfiguriert wird, dass sie den Brennpunkt (Fokus) der Abbildung des auf die Oberfläche des Sensors abgebildeten Lichts einstellt.
    • Beispiel 48o ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Optikanordnung aus einem der Beispiele 45o bis 47o aufweisen, wobei der Sensor so konfiguriert ist, dass er das von der Optikanordnung gelieferte Licht erfasst.
    • In Beispiel 49o kann der Gegenstand von Beispiel 48o optional umfassen, dass sich die Optikanordnung im Empfangspfad des LIDAR-Sensorsystems befindet.
    • In Beispiel 50o kann der Gegenstand eines der Beispiele 48o oder 49o optional umfassen, dass der Sensor ein eindimensionales Sensorarray mit einer Vielzahl von Sensorpixeln ist, die entlang einer Erfassungsrichtung angeordnet sind.
    • In Beispiel 51o kann der Gegenstand von Beispiel 50o wahlweise umfassen, dass die Erfassungsrichtung die vertikale oder die horizontale Richtung ist.
    • In Beispiel 52o kann der Gegenstand eines der Beispiele 48o bis 51o optional umfassen, dass das LIDAR-Sensorsystem als eines der folgenden LIDAR-Sensorsysteme konfiguriert wird: ein Flash-LIDAR-Sensorsystem, ein 1D-Abtast-LIDAR-Sensorsystem, ein 2D-Abtast-LIDAR-Sensorsystem und ein Hybrid-Flash-LIDAR-Sensorsystem.
    • In Beispiel 53o kann der Gegenstand eines der Beispiele 48o bis 52o optional umfassen, dass der Sensor ein zweidimensionales Sensorarray mit einer Vielzahl von Sensorpixeln ist, die entlang einer ersten Array-Richtung angeordnet sind, und einer Vielzahl von Sensorpixeln, die entlang einer zweiten Array-Richtung, die sich von der ersten Array-Richtung unterscheidet, angeordnet sind.
    • In Beispiel 54o kann der Gegenstand von Beispiel 53o optional umfassen, dass die Sensorpixel unterschiedliche Sensorpixelgrößen haben. Ein Sensorpixel, das näher an der optischen Achse des LIDAR-Sensorsystems angeordnet ist, hat zumindest in Bezug auf die zweite Array-Richtung eine größere Sensorpixelgröße als ein Sensorpixel, das weiter von der optischen Achse des LIDAR-Sensorsystems entfernt angeordnet ist.
    • In Beispiel 55o kann der Gegenstand von Beispiel 54o optional umfassen, dass die erste Array-Richtung die horizontale Richtung und die zweite Array-Richtung die vertikale Richtung ist.
    • In Beispiel 56o kann der Gegenstand eines der Beispiele 48o bis 55o optional umfassen, dass das LIDAR-Sensorsystem zusätzlich eine Laserquelle umfasst.
    • In Beispiel 57o kann der Gegenstand von Beispiel 56o optional umfassen, dass die Laserquelle mindestens eine Laserdiode umfasst.
    • In Beispiel 58o kann der Gegenstand von Beispiel 57o optional umfassen, dass die Laserquelle eine Vielzahl von Laserdioden umfasst.
    • In Beispiel 59o kann der Gegenstand eines der Beispiele 56o bis 58o optional umfassen, dass die mindestens eine Laserquelle so konfiguriert ist, dass sie den Laserstrahl mit einer Wellenlänge im infraroten Wellenlängenbereich emittiert.
    • In Beispiel 60o kann der Gegenstand eines der Beispiele 48o bis 59o optional umfassen, dass der Sensor eine Vielzahl von Fotodioden umfasst.
    • In Beispiel 61o kann der Gegenstand von Beispiel 60o optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 62o kann der Gegenstand von Beispiel 61o optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 63o kann der Gegenstand von Beispiel 62o optional umfassen, dass das LIDAR-Sensorsystem ferner einen Zeit-Digital-Wandler umfasst, der mit mindestens einer der Einzelphotonen-Lawinen-Fotodioden gekoppelt ist.
    • In Beispiel 64o kann der Gegenstand eines der Beispiele 60o bis 63o optional umfassen, dass das LIDAR-Sensorsystem ferner einen Verstärker umfasst, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 65o kann der Gegenstand von Beispiel 64o optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 66o kann der Gegenstand eines der Beispiele 64o oder 65o optional umfassen, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler umfasst, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • Beispiel 67o ist ein Verfahren zum Betrieb einer Optikanordnung für ein LIDAR-Sensorsystem. Das Verfahren kann einen ersten Teil umfassen, der eine erste effektive Blende für ein Sichtfeld des LIDAR-Sensorsystems bereitstellt, und einen zweiten Teil, der eine zweite effektive Blende für das Sichtfeld des LIDAR-Sensorsystems bereitstellt. Der erste Teil lenkt Licht, das auf eine Oberfläche des ersten Teils auftrifft, in einem ersten Winkel in Bezug auf eine optische Achse der optischen Anordnung ab, um die gesamte Sensorfläche eines Sensorpixels im Wesentlichen abzudecken, zumindest in Bezug auf eine erste Richtung. Die zweite effektive Blende ist kleiner als die erste effektive Blende für Licht, das auf eine Oberfläche des zweiten Abschnitts unter einem zweiten Winkel in Bezug auf die optische Achse der optischen Anordnung auftrifft, der größer als der erste Winkel ist.
    • Beispiel 68o ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann einen ersten Teil einer optischen Anordnung umfassen, die eine erste effektive Blende für ein Sichtfeld des LIDAR-Sensorsystems bereitstellt, und einen zweiten Teil der optischen Anordnung, der eine zweite effektive Blende für das Sichtfeld des LIDAR-Sensorsystems bereitstellt. Der erste Teil lenkt Licht, das auf eine Oberfläche des ersten Teils auftrifft, in einem ersten Winkel in Bezug auf eine optische Achse der optischen Anordnung ab, um die gesamte Sensorfläche eines Sensorpixels zumindest in Bezug auf eine erste Richtung im Wesentlichen abzudecken. Die zweite effektive Blende ist kleiner als die erste effektive Blende für Licht, das auf eine Oberfläche des zweiten Abschnitts unter einem zweiten Winkel in Bezug auf die optische Achse der optischen Anordnung auftrifft, der größer als der erste Winkel ist. Der Sensor kann Licht erfassen, das von der optischen Anordnung geliefert wird.
    • Beispiel 69o ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann das Bereitstellen einer ersten effektiven Blende für ein Sichtfeld des LIDAR-Sensorsystems, das Bereitstellen einer zweiten effektiven Blende für das Sichtfeld des LIDAR-Sensorsystems und das Ablenken von Licht, das auf eine Oberfläche einer Optikanordnung in einem ersten Winkel in Bezug auf eine optische Achse der Optikanordnung auftrifft, um im Wesentlichen die gesamte Sensorfläche eines Sensorpixels abzudecken, umfassen. Die zweite effektive Blende ist kleiner als die erste effektive Blende für Licht, das auf die Oberfläche der Optikanordnung unter einem zweiten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft, der größer als der erste Winkel ist.
    • Beispiel 70o ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann das Bereitstellen einer ersten effektiven Blende für ein Sichtfeld des LIDAR-Sensorsystems, das Bereitstellen einer zweiten effektiven Blende für das Sichtfeld des LIDAR-Sensorsystems und das Ablenken von Licht, das auf eine Oberfläche einer Optikanordnung in einem ersten Winkel in Bezug auf eine optische Achse der Optikanordnung auftrifft, um im Wesentlichen die gesamte Sensorfläche eines Sensorpixels abzudecken, umfassen. Die zweite effektive Öffnung ist kleiner als die erste effektive Öffnung für Licht, das auf die Oberfläche der Optikanordnung unter einem zweiten Winkel in Bezug auf die optische Achse der Optikanordnung auftrifft, der größer als der erste Winkel ist. Der Sensor kann Licht erfassen, das von der Optikanordnung geliefert wird.
    • Beispiel 71o ist ein Verfahren zum Betrieb einer Optikanordnung für ein LIDAR-Sensorsystem. Das Verfahren kann die Anordnung einer zweiten Flüssiglinse umfassen, die sich stromabwärts einer ersten Flüssiglinse befindet, wobei die zweite Flüssiglinse Licht von der ersten Flüssiglinse empfängt und das empfangene Licht in die Richtung einer Oberfläche eines Sensorpixels des LIDAR-Sensorsystems ablenkt.
    • Beispiel 72o ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann die Anordnung einer zweiten Flüssiglinse umfassen, die stromabwärts einer ersten Flüssiglinse angeordnet ist, wobei die zweite Flüssiglinse Licht von der ersten Flüssiglinse empfängt und das empfangene Licht in Richtung einer Oberfläche eines Sensors des LIDAR-Sensorsystems ablenkt und der Sensor das von der zweiten Flüssiglinse gelieferte Licht erfasst.
    • Beispiel 73o ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht flüchtigen computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 27o bis 43o oder 48o bis 66o ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 67o bis 72o auszuführen.
    • Beispiel 74o ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtigen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem nach einem der oben genannten Verfahrensbeispiele, das LIDAR-Sensorsystem nach einem der oben genannten LIDAR-Sensorsystembeispiele ausführen kann.
  • Ein konventionelles scannendes LIDAR-System kann im Hinblick auf das SNR systematisch eingeschränkt sein. Dies kann darauf zurückzuführen sein, dass eine Strahllenkungseinheit (z.B. ein 1D-MEMS-Spiegel) im LIDAR-Senderpfad zwar sehr winkelselektiv sein kann (z.B. kann der LIDAR-Sender Licht in ein enges, bekanntes Winkelsegment aussenden), das optische System im LIDAR-Empfangspfad jedoch normalerweise keine Winkelselektivität bietet. Die Empfängeroptik ist stattdessen normalerweise so konfiguriert, dass sie in der Lage sein kann, Licht aus allen Winkelsegmenten (z.B. allen Winkelrichtungen) innerhalb des FOVs auf den LIDAR-Sensor abzubilden. Das FOV kann z.B. 10° in vertikaler Richtung und 60° in horizontaler Richtung betragen.
  • In einem konventionellen LIDAR-Abtastsystem kann daher der LIDAR-Senderpfad ein hohes Maß an Winkelkontrolle bieten, während der LIDAR-Empfängerpfad typischerweise keine Möglichkeit zur Winkelkontrolle bietet. Folglich kann jegliches Licht, das vom FOV in die sich öffnende Blende der LIDAR-Sensoroptik abgestrahlt wird, in Richtung des LIDAR-Sensors abgebildet werden und zur Erzeugung eines entsprechenden Signals führen. Dies kann dazu führen, dass auch dann ein Signal erzeugt wird, wenn Licht aus einer Richtung kommt, in die zu einem bestimmten Zeitpunkt kein LIDAR-Licht emittiert wurde (z.B. auch dann, wenn Licht aus einer Richtung kommt, in die die Strahllenkungseinheit kein LIDAR-Licht gerichtet hat oder richtet). Daher können Umgebungslichtquellen, wie z.B. ein LIDAR-Sender von einem entgegenkommenden Fahrzeug, solares Hintergrundlicht (z.B. Streulicht) oder Reflexionen von solarem Hintergrundlicht, zu jedem Zeitpunkt während des Abtastvorgangs zu unerwünschten (z.B. Rauschen) Signalen führen.
  • In einem scannenden LIDAR-System kann das emittierte (z.B. Laser-) Licht als vertikale (z.B. Laser-) Linie beschrieben werden, die entlang der horizontalen Richtung gescannt wird (z.B. eine vertikale Laserlinie, die sich im Sichtfeld des Systems von links nach rechts und umgekehrt bewegt). Das Licht kann von einem Objekt reflektiert und von der Empfängeroptik auf den LIDAR-Sensor des scannenden LIDAR-Systems (z.B. ein 1D-Sensorarray) abgebildet werden. Das abgebildete Licht kann auf dem LIDAR-Sensor als eine vertikale Linie erscheinen. Die vertikale Linie kann sich über den LIDAR-Sensor (z.B. über die Vorderseite des LIDAR-Sensors) von einer Seite des LIDAR-Sensors zur anderen Seite des LIDAR-Sensors (z.B. in horizontaler Richtung) bewegen, je nachdem, in welche Richtung die Strahllenkungseinheit das emittierte Licht lenkt.
  • Zur Veranschaulichung: Wenn das LIDAR-Licht in Richtung einer Seite des FOVs emittiert wird, kann die abgebildete Linie auf dem LIDAR-Sensor auf der gegenüberliegenden Seite des LIDAR-Sensors erscheinen. Dies kann der Fall sein, da der Abbildungsprozess in der Regel eine Transformation mit einer Punktsymmetrie umfassen kann. Wenn z.B. die vertikale Laserlinie in die äußerste rechte Seite des FOVs emittiert wird (z.B. in einem Winkel von +30°), kann sich die abgebildete Linie auf der äußersten linken Seite des LIDAR-Sensors befinden (z.B. beim Blick von der Rückseite auf den LIDAR-Sensor). Die abgebildete vertikale Linie kann sich dann von der äußersten linken Seite des LIDAR-Sensors zur Mitte des LIDAR-Sensors (und dann zur rechten Seite) bewegen, wenn man der Bewegung der Strahllenkungseinheit von der äußersten rechten Position zur Mittelposition (und dann zur linken oder äußersten linken Position, z.B. Licht, das unter einem Winkel von -30° ausgestrahlt wird) folgt.
  • Zusätzlich zur vertikalen Laserlinie kann auch Licht, das von einer Umgebungslichtquelle (z.B. der Sonne, einem Fahrzeug, etc.) kommt, von der Empfängeroptik auf den LIDAR-Sensor fokussiert werden (z.B. kann es auf den LIDAR-Sensor oder auf einen Teil des LIDAR-Sensors abgebildet werden). Das von der Umgebungslichtquelle kommende Licht kann auf einen oder mehrere Sensorpixel des LIDAR-Sensors abgebildet werden. Folglich kann das eine oder die mehreren Sensorpixel, auf die das von der Umgebungslichtquelle kommende Licht abgebildet wird, ein Signal (z.B. einen Fotostrom) messen, das sowohl durch den Beitrag der vertikalen Laserlinie (z.B. das vom LIDAR-System effektiv emittierte Licht) als auch durch den Beitrag der Umgebungslichtquelle erzeugt wird. Daher kann das SNR für einen oder mehrere Sensorpixel, die durch das Umgebungslicht (z.B. das von der Umgebungslichtquelle kommende Licht) beeinflusst werden, verringert werden. Dies kann auch einen negativen Einfluss auf die Signaleigenschaften haben, die für eine zuverlässige Objekterkennung entscheidend sein können, wie z.B. Signalhöhe, Signalbreite und Signalform. Zusätzliche unerwünschte Komplikationen können in Abhängigkeit von der spezifischen Architektur des LIDAR-Sensors (z.B. PIN-Diode, Avalanche-Fotodiode, Single-Photon-Avalanche-Diode usw.) durch Phänomene wie Signalüberlauf, Quenchen, Spillover (Überlauf), Übersprechen usw. auftreten.
  • Eine mögliche Lösung für das oben beschriebene Problem könnte darin bestehen, als LIDAR-Sensor ein 2D-Sensorarray (z.B. anstelle eines 1D-Sensorarrays) zu verwenden. In einem 2D-Sensorarray kann es möglich sein, (z.B. durch Anlegen einer entsprechenden Vorspannung) nur diejenigen Sensorpixel zu aktivieren, die entlang der Spalte(n) angeordnet sind, in die ein Signal vom LIDAR-Emitter erwartet wird (z.B. die Spalte(n), auf die die emittierte vertikale Linie abgebildet werden soll). Die Aktivierung kann auf dem bekannten Emissionswinkel basieren, der durch die Strahlsteuereinheit eingestellt wird. Wenn sich die vertikale Linie über das 2D-Sensorarray bewegt, können verschiedene Spalten von Sensorpixeln aktiviert werden. Ein 2D-Sensorarray kann jedoch recht teuer sein und eine komplexe Steuerschaltung erfordern. Außerdem kann ein 2D-Sensorarray einen niedrigen Füllfaktor haben, da jedes Sensorpixel mit entsprechenden Spannungs- und Signalleitungen verbunden sein kann. Typischerweise können ziemlich breite Gräben zwischen den Pixelspalten erforderlich sein. Infolgedessen kann ein 2D-Sensorarray im Vergleich z.B. zu einem 1D-Sensorarray eine eher geringe Empfindlichkeit aufweisen. Darüber hinaus kann es auch vorkommen, dass kleine Reflexionsflecken vom FOV übersehen (z.B. nicht erkannt) werden, wenn das Signal in einen Bereich zwischen den lichtempfindlichen Bereichen fällt (z.B. zwischen den lichtempfindlichen Pixelflächen).
  • Eine andere mögliche Lösung könnte die Bereitstellung eines rotierenden LIDAR-Systems sein. Bei einem rotierenden LIDAR-System können der/die Lichtsender (z.B. der Lasersender) und der/die Lichtempfänger auf einer gemeinsamen Plattform (z.B. einem gemeinsamen beweglichen Träger) angeordnet werden, die sich typischerweise um 360° drehen kann. In einem solchen System sieht der Lichtempfänger zu jedem Zeitpunkt in die gleiche Richtung, in die der Lichtsender Licht ausgesandt hat (z.B. LIDAR-Licht). Daher sieht der Sensor zu einem Zeitpunkt immer nur einen kleinen horizontalen Raumwinkelbereich. Dies kann das oben beschriebene Problem reduzieren oder verhindern. Gleiches kann für ein System gelten, bei dem das detektierte Licht mittels eines beweglichen Spiegels (z.B. eines zusätzlichen MEMS-Spiegels im Empfängerpfad) oder einer anderen ähnlichen (z.B. beweglichen) Komponente erfasst wird. Ein rotierendes LIDAR-System und/oder ein System mit einem zusätzlichen beweglichen Spiegel erfordert jedoch vergleichsweise große bewegliche Komponenten (z.B. bewegliche Teile). Dies kann die Komplexität, die Anfälligkeit für mechanische Instabilitäten und die Kosten des Systems erhöhen.
  • Eine andere mögliche Lösung kann die Verwendung eines räumlichen Lichtmodulators im Empfängerpfad sein, wie z.B. ein Digital Mirror Device (DMD, Mikrospiegelarray). Der DMD kann so konfiguriert werden, dass er Licht, das von der emittierten vertikalen LIDAR-Linie kommt, zum LIDAR-Sensor (z.B. zum Sensorarray) reflektiert und Licht, das aus anderen Richtungen kommt (z.B. aus anderen Winkelsegmenten), vom LIDAR-Sensor weg reflektiert (z.B. zu einem Beam Dump (Strahlfalle)). Auch in dieser Konfiguration kann die Information über den aktuellen Emissionswinkel von der Strahllenkungseinheit an die DMD-Steuerung geliefert werden, so dass die entsprechenden DMD-Spiegel in die gewünschte Position gekippt werden können. Ein DMD ist jedoch ein teures Gerät, das ursprünglich für andere Arten von Anwendungen, wie z.B. Videoprojektion, entwickelt wurde. Ein DMD-Gerät kann in der Regel aus einer großen Anzahl winziger Spiegel bestehen (z.B. aus mehreren tausend bis zu mehreren Millionen Spiegeln), die mit sehr hohen Frequenzen (z.B. im kHz-Bereich) und unabhängig voneinander gekippt werden können. Ein DMD-Gerät kann somit in der Lage sein, ein Bild mit hoher Auflösung (z.B. 4K-Auflösung mit 4096x2160 Pixel) zu projizieren und eine breite Palette von Graustufen (z.B. 10bit entsprechend 1024 Graustufen) zu liefern. In LIDAR-Anwendungen sind solche Funktionen jedoch möglicherweise nicht erforderlich. Daher kann ein DMD-Gerät für Anwendungen in einem LIDAR-System übermäßig kompliziert (z.B. überdimensioniert) und damit unnötig teuer sein, z.B. in einem Kontext, in dem die Auflösungen viel kleiner sein können und Graustufen möglicherweise nicht erforderlich sind.
  • Verschiedene Ausführungsformen der vorliegenden Anwendung können darauf beruhen, dass die Bewegung einer oder mehrerer (z.B. optischer) Komponenten, die zur Erfassung von Licht in einem LIDAR-System (z.B. im LIDAR-Sensorsystem 10) konfiguriert sind, so gesteuert wird, dass das Auftreffen von unerwünschtem (z.B. Rauschen) Licht auf einen Sensor des LIDAR-Systems (z.B. den Sensor 52) weitgehend vermieden werden kann. In verschiedenen Ausführungsformen können Komponenten vorgesehen sein, die so konfiguriert sind, dass die auf den Sensor (z.B. auf die Sensorpixel) auftreffende Lichtmenge einer Umgebungslichtquelle stark reduziert werden kann (z.B. deutlich auf Null). Dies kann den Effekt haben, dass das emittierte Licht (z.B. das emittierte LIDAR-Licht) mit hohem SNR detektiert werden kann. Auf diese Weise kann eine zuverlässige Objektdetektion gewährleistet werden.
  • In verschiedenen Ausführungsformen kann das FOV des LIDAR-Systems nicht direkt auf den Sensor, sondern auf ein optisches Gerät (auch als Spiegelgerät bezeichnet) abgebildet werden. Zur Veranschaulichung: Die optische Vorrichtung kann im LIDAR-System im Wesentlichen an der Position angeordnet werden, an der sich der Sensor normalerweise befinden würde. Die optische Vorrichtung kann einen Träger (z.B. eine Spiegelträgerplatte) umfassen, der ein lichtabsorbierendes Material aufweisen kann. Zusätzlich oder alternativ kann der Träger mit einer lichtabsorbierenden Schicht bedeckt sein (z.B. durch eine Schicht, die ein lichtabsorbierendes Material aufweist). Insbesondere kann der Träger so konfiguriert sein, dass er Licht in einem vordefinierten Wellenlängenbereich absorbiert, z.B. im Infrarot-Wellenlängenbereich (z.B. von etwa 860 nm bis etwa 2000 nm, z.B. von etwa 860 nm bis etwa 1000 nm). Der Träger kann so konfiguriert werden, dass er im Wesentlichen das gesamte auf den Träger auftreffende Licht absorbiert.
  • Das LIDAR-System kann als scannendes LIDAR-System konfiguriert werden. Das scannende LIDAR-System kann z.B. eine Strahlsteuereinheit zum Scannen von emittiertem LIDAR-Licht über das FOV des scannenden LIDAR-Systems (z.B. über das horizontale FOV) aufweisen.
  • Ein oder mehrere Spiegel (z.B. ein oder mehrere 1D-Spiegel) können auf dem Träger montiert werden. Der Träger kann eine oder mehrere Spuren (z.B. Spiegelschienen) aufweisen. Die eine oder mehrere Spuren können im wesentlichen parallel zur Richtung angeordnet sein, in die das emittierte LIDAR-Licht abgetastet wird (z.B. parallel zum horizontalen FOV des abtastenden LIDAR-Systems). Die optische Einrichtung kann so konfiguriert werden, dass der eine oder die mehreren Spiegel entlang der einen oder mehreren Spuren bewegt werden können, z.B. in der Richtung parallel zur Richtung, in der das emittierte LIDAR-Licht abgetastet wird. Der eine oder die mehreren Spiegel können so angeordnet werden, dass das auf den oder die Spiegel auftreffende LIDAR-Licht (z.B. Infrarotlicht, z.B. Licht mit einer Wellenlänge von etwa 905 nm) zum Sensor reflektiert werden kann. Der Sensor kann in einer Position (und mit einer Ausrichtung) angeordnet werden, in der der Sensor das von der optischen Vorrichtung zum Sensor reflektierte LIDAR-Licht empfangen kann. Der Sensor kann ein 1D-Sensorarray, ein 2D-Sensorarray oder ähnliches sein. Der Sensor kann in der optischen Vorrichtung enthalten oder von der optischen Vorrichtung getrennt sein.
  • In verschiedenen Ausführungsformen kann die Optik in der Brennebene der Empfängeroptik des LIDAR-Systems angeordnet werden (z.B. in der Ebene, in der die Empfängeroptik das gesammelte Licht fokussiert oder kollimiert). Ein oder mehrere optische Elemente (z.B. ein konvergierendes optisches Element, wie eine Sammellinse, ein Objektiv und dergleichen) können zwischen der optischen Vorrichtung und dem Sensor angeordnet sein. Alternativ kann der Sensor in seiner ursprünglichen Position angeordnet werden (z.B. in der Brennebene der Empfängeroptik). In dieser Konfiguration kann die optische Vorrichtung zwischen der Empfängeroptik und dem Sensor angeordnet werden.
  • Die optische Vorrichtung kann einen oder mehrere Aktoren (auch als Aktuatoren bezeichnet) aufweisen, die so konfiguriert sind, dass sie einen oder mehrere Spiegel bewegen. Als Beispiel kann die optische Vorrichtung einen oder mehrere Piezoaktoren aufweisen. Die Bewegung des einen oder der mehreren Spiegel kann eine kontinuierliche Bewegung sein. Als Beispiel kann die Bewegung des einen oder der mehreren Spiegel eine oszillierende Bewegung sein, z.B. mit sinusförmigem Charakter. Die Bewegung des einen oder der mehreren Spiegel kann durch eine Verschiebung im Bereich von etwa 0,5 mm bis etwa 3,0 mm gesteuert werden, z.B. von etwa 1 mm bis etwa 2 mm. Die Bewegung (z.B. die Schwingung) des einen oder der mehreren Spiegel kann mit der Bewegung der Strahllenkungseinheit des LIDAR-Systems übereinstimmen. Beispielsweise kann die Bewegung des einen oder der mehreren Spiegel mit der Bewegung der Strahllenkungseinheit des LIDAR-Systems synchronisiert sein (z.B. mit der Bewegung eines Scanning-Spiegels, z.B. eines 1D-Scan-MEMS-Spiegels). Die Bewegung (z.B. die Schwingung) des einen oder der mehreren Spiegel kann in Übereinstimmung (z.B. synchronisiert) mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Systems erfolgen.
  • LIDAR-Licht, das von einem Objekt im FOV reflektiert wird, kann auf einen oder mehrere Spiegel des optischen Geräts abgebildet werden. Im Hinblick auf die Synchronisierung mit der Strahlführungseinheit können der eine oder die mehreren Spiegel an einer Stelle angeordnet werden, an der das LIDAR-Licht zum Sensor reflektiert werden kann. Umgebungslicht kann (z.B. meistens) auf den lichtabsorbierenden Träger (z.B. auf die Trägerplatte des infrarotabsorbierenden Spiegels) abgebildet werden. Das Umgebungslicht darf also nicht zum Sensor hin reflektiert werden. Dies kann den Effekt haben, dass das SNR für die Detektion des LIDAR-Lichts (z.B. für die Objektdetektion) ansteigt, da das/die Umgebungslichtsignal(e) stark unterdrückt werden können.
  • Die (z.B. seitlichen) Abmessungen des einen oder mehrerer Spiegel können auf der Grundlage der Abmessungen des emittierten LIDAR-Lichts (z.B. auf der Grundlage der Abmessungen einer emittierten Linie, wie z.B. einer emittierten Laserlinie) und/oder auf der Grundlage der Abmessungen des Sensors ausgewählt werden. Illustrativ kann eine erste laterale Dimension (z.B. die Breite) des einen oder der mehreren Spiegel mit einer ersten lateralen Dimension der emittierten Linie (z.B. des Laserstrahlflecks) korreliert werden. Als Beispiel kann die Breite der emittierten Linie im Bereich von etwa 300 µm bis etwa 400 µm liegen. Eine zweite laterale Dimension (z.B. eine Länge oder eine Höhe) des einen oder der mehreren Spiegel kann mit einer zweiten lateralen Dimension des Sensors korreliert sein. Beispielsweise kann ein Sensor (z.B. einschließlich einer Pixelspalte, z.B. 64 Pixel) eine Gesamtlänge von etwa 15 mm, z.B. von etwa 10 mm, z.B. von etwa 20 mm haben. Der eine oder die mehreren Spiegel können eine erste seitliche Abmessung im Bereich von etwa 0,25 mm bis etwa 1 mm, z.B. 0,5 mm, haben. Der eine oder die mehreren Spiegel können eine zweite seitliche Abmessung im Bereich von etwa 5 mm bis etwa 20 mm, z.B. 15 mm, haben.
  • In verschiedenen Ausführungsformen können mehrere (z.B. kleinere) Spiegel in der optischen Vorrichtung enthalten sein, beispielhaft anstelle eines einzelnen größeren Spiegels. Dies kann den Effekt haben, dass die Masse (z.B. die Spiegelmasse), die von den Aktuatoren bewegt wird, kleiner (und damit leichter zu bewegen) sein kann. Darüber hinaus können die Spiegel der Mehrzahl von Spiegeln unabhängig voneinander bewegt werden. Dies kann die Möglichkeit bieten, die emittierte Linie in Sublinien zu zerlegen (z.B. die emittierte Laserlinie in Laser-Sublinien zu zerlegen). Dies kann z.B. im Hinblick auf die Augensicherheit von Vorteil sein. Die Spiegel der Spiegelvielfalt können mit der gleichen Frequenz bewegt werden. Alternativ können einzelne Spiegel der Spiegelvielfalt mit unterschiedlichen Frequenzen bewegt werden. Als Beispiel kann das Verhältnis zwischen den Frequenzen einzelner Spiegel eine ganze Zahl sein (z.B. 1, 2, 3 usw.). Das Verhältnis kann auch eine nicht ganzzahlige Zahl sein (z.B. 0,5; 1,5; 2,8; 3,7 usw.).
  • Der eine oder die mehreren Spiegel des optischen Geräts können eine flache Oberfläche haben (z.B. eine einfache flache Spiegeloberfläche). Die Oberfläche(n) des einen oder der mehreren Spiegel kann (können) so konfiguriert sein, dass sie Licht in dem interessierenden Wellenlängenbereich reflektiert (reflektieren). Die Oberfläche(n) des einen oder der mehreren Spiegel kann (können) zum Beispiel eine Beschichtung zur Reflexion der LIDAR-Wellenlänge (z.B. 905 nm) aufweisen. Die Oberfläche(n) des einen oder der mehreren Spiegel kann (können) in Bezug auf den Träger (z.B. in Bezug auf die Oberfläche des Trägers) geneigt sein, z.B. um einen Winkel im Bereich von etwa 20° bis etwa 75°, z.B. im Bereich von etwa 30° bis etwa 65°.
  • Der eine oder die mehreren Spiegel der optischen Vorrichtung können eine gekrümmte Oberfläche haben (z.B. elliptisch, parabolisch, asphärisch o.ä.). Die gekrümmte(n) Oberfläche(n) kann (können) so konfiguriert werden, dass das auftreffende LIDAR-Licht bei der Reflexion zum Sensor fokussiert wird. Dies kann den Effekt haben, dass die Bewegung des einen oder mehrerer Spiegel reduziert werden kann, ohne die Abmessungen des Sensors zu verändern. Beispielsweise kann die Länge der Bewegung reduziert werden. Alternativ oder zusätzlich kann die Oberfläche(n) des einen oder der mehreren Spiegel fokussierende Strukturen und/oder wellenlängenabhängige Strukturen, z.B. auf der Basis von diffraktiven optischen Elementen, aufweisen.
  • Für den Fall, dass die optische Vorrichtung eine Vielzahl von Spiegeln aufweist, können die Spiegel unterschiedlich konfigurierte Oberflächen haben. Beispielsweise kann ein erster Spiegel der Mehrzahl von Spiegeln eine ebene Oberfläche und ein zweiter Spiegel der Mehrzahl von Spiegeln eine gekrümmte Oberfläche haben. Als weiteres Beispiel kann ein erster Spiegel der Mehrzahl von Spiegeln eine in einer ersten Weise gekrümmte Oberfläche haben (z.B. elliptisch) und ein zweiter Spiegel der Mehrzahl von Spiegeln kann eine in einer zweiten, von der ersten verschiedenen Weise gekrümmte Oberfläche haben (z.B. parabolisch). Als ein weiteres Beispiel kann ein erster Spiegel der Vielzahl von Spiegeln auf seiner Oberfläche Fokussierungsstrukturen aufweisen, und die Oberfläche eines zweiten Spiegels der Vielzahl von Spiegeln kann frei von solchen Fokussierungsstrukturen sein.
  • In verschiedenen Ausführungsformen kann das optische Gerät so konfiguriert werden, dass es sich dreht (z. B. kann es als Gerät mit rotierender Platte konfiguriert werden). Zum Beispiel kann der Träger so konfiguriert sein, dass er sich dreht. Die Rotation (z.B. die Drehbewegung) kann um eine Drehachse erfolgen. Die Rotationsachse kann senkrecht zu der Richtung stehen, in die das emittierte LIDAR-Licht abgetastet wird (z.B. senkrecht zum horizontalen FOV des abtastenden LIDAR-Systems). Die optische Einrichtung kann in Bezug auf die optische Achse der Empfängeroptik versetzt angeordnet sein (z. B. darf sie nicht entlang der optischen Achse der Empfängeroptik angeordnet sein, sondern leicht versetzt). Zur Veranschaulichung: Die Rotationsachse kann einen leicht geneigten Winkel in Bezug auf die optische Achse der Empfängeroptik aufweisen. In dieser Konfiguration kann der Träger mindestens eine reflektierende Oberfläche aufweisen (z.B. kann mindestens ein Teil der Oberfläche des Trägers reflektierend sein). Als Beispiel kann der Träger mindestens einen reflektierenden Streifen (z.B. einen vertikalen Streifen) entlang seiner Oberfläche aufweisen. Die reflektierenden Streifen können so konfiguriert sein, dass sie Licht im Infrarotbereich reflektieren. Der Träger kann jede geeignete Form haben. Der Träger kann z.B. die Form eines Zylinders oder eines Prismas haben (z.B. ein Prisma mit dreieckiger Grundfläche, ein Prisma mit polygonaler Grundfläche, wie z.B. eine fünfeckige Grundfläche, usw.). Der Träger kann z.B. ein Prisma mit dreieckiger Grundfläche sein, und mindestens eine der drei Seitenflächen (oder mindestens ein Teil mindestens einer der drei Seitenflächen) kann reflektierend sein. Als weiteres Beispiel können die reflektierenden Streifen entlang der Oberfläche des Trägers angeordnet sein (z.B. entlang der Seitenfläche des Zylinders oder entlang der Seitenflächen des Prismas). Die optische Vorrichtung kann so konfiguriert werden, dass die Drehung in Übereinstimmung (z.B. synchronisiert) mit der Strahllenkungseinheit des LIDAR-Systems erfolgen kann. Die optische Vorrichtung kann so konfiguriert werden, dass die Drehung in Übereinstimmung (z.B. synchronisiert) mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Systems erfolgen kann.
  • Das optische Gerät kann eine Vielzahl von rotierenden Scheiben aufweisen. Aus optischer Sicht kann das Funktionsprinzip dasselbe wie oben beschrieben sein. Zur Veranschaulichung: Die optische Vorrichtung kann eine Vielzahl von (z.B. separaten) Trägern umfassen. Jeder Träger der Vielzahl von Trägern kann mindestens eine reflektierende Oberfläche (z.B. mindestens einen reflektierenden Streifen) und mindestens einen lichtabsorbierenden Teil (z.B. eine lichtabsorbierende Fläche) aufweisen. Die Träger der Vielzahl von Trägern können so konfiguriert sein, dass sie sich unabhängig voneinander drehen. Die optische Vorrichtung kann so konfiguriert werden, dass sich nicht alle Träger der Vielzahl von Trägern gleichzeitig drehen. Die optische Vorrichtung kann so konfiguriert werden, dass sie nur den/die Träger dreht, auf den/die die emittierte Linie abgebildet wird (z.B. nur den/die Träger, auf den/die das emittierte LIDAR-Licht abgebildet werden soll). Die optische Vorrichtung kann so konfiguriert werden, dass die Träger der Vielzahl von Trägern mit unterschiedlichen Frequenzen und/oder mit unterschiedlichen Phasen gedreht werden. Solche Konfigurationen mit einer Vielzahl von rotierenden Scheiben können den Effekt haben, dass geringere Massen (z.B. Spiegelmassen) bewegt werden. Ein gleicher oder ähnlicher Effekt kann erreicht werden, indem ein Träger in mehrere Abschnitte aufgeteilt wird und jeder Abschnitt so gesteuert wird, dass er sich unabhängig dreht.
  • In verschiedenen Ausführungsformen kann das optische Gerät als bandartiges Gerät konfiguriert werden. Der Träger kann so konfiguriert werden, dass er sich entlang einer Richtung bewegt, die im Wesentlichen parallel zu der Richtung verläuft, in die das emittierte LIDAR-Licht abgetastet wird (z.B. parallel zum horizontalen FOV des abtastenden LIDAR-Systems). Der Träger kann so konfiguriert werden, dass er sich entlang dieser Richtung bewegt (z.B. kontinuierlich) oder oszilliert (z.B. hin und her entlang dieser Richtung oder kontinuierlich entlang einer Richtung). Illustrativ kann der Träger als Förderband konfiguriert werden, das sich um einen Halterahmen herum bewegt (z.B. umläuft). Die optische Vorrichtung kann so konfiguriert werden, dass sie den Träger in Übereinstimmung (z.B. synchronisiert) mit der Strahllenkungseinheit des LIDAR-Systems bewegt oder oszilliert. Die optische Vorrichtung kann so konfiguriert werden, dass sie den Träger in Übereinstimmung (z.B. synchronisiert) mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Systems bewegt oder in Schwingung versetzt. In dieser Konfiguration kann der Träger eine oder mehrere reflektierende Oberflächen aufweisen (z.B. einen oder mehrere reflektierende Abschnitte, wie einen oder mehrere reflektierende Streifen). Die reflektierenden Oberflächen können so konfiguriert werden, dass sie Licht im Infrarotbereich reflektieren. Die bandförmige Vorrichtung (oder der Träger) kann so angeordnet (z. B. orientiert) werden, dass LIDAR-Licht, das vom FOV abgebildet wird und auf mindestens einen der reflektierenden Streifen trifft, zum Sensor hin reflektiert werden kann. Die bandförmige Einrichtung kann so konfiguriert werden, dass Umgebungslicht, das nicht auf die vertikalen Streifen auftrifft, vom Träger (z.B. vom Bandmaterial) absorbiert wird.
  • In verschiedenen Ausführungsformen können ein oder mehrere bewegliche Sensorpixelelemente implementiert werden. Die beweglichen Sensorpixelelemente können lichtempfindliche Halbleiterchips umfassen, die auf einem leichten Substrat montiert sind. Beispielsweise können ein oder mehrere (z.B. bewegliche) Sensorpixel auf dem Träger der optischen Vorrichtung (z.B. auf der lichtabsorbierenden Oberfläche des Trägers) angebracht sein. Zur Veranschaulichung: Ein oder mehrere bewegliche Sensorpixel können als Alternative zu einem oder mehreren Spiegeln in der optischen Vorrichtung enthalten sein. In diesem Fall kann die optische Einrichtung als Sensoreinrichtung bezeichnet werden. Die Bewegung der Sensorpixel (z.B. entlang von Spuren) kann so gesteuert werden, dass LIDAR-Licht auf einen oder mehrere Sensorpixel abgebildet werden kann. Die Bewegung der Sensorpixel kann so gesteuert werden, dass Licht von einer Umgebungslichtquelle auf den lichtabsorbierenden Träger abgebildet werden kann. Die Sensorstruktur kann ferner flexible Kontaktelemente und/oder Schleifkontaktelemente aufweisen, die so konfiguriert sind, dass sie gemessene elektrische Signale an die entsprechende Empfängerelektronik übertragen. Die Sensorvorrichtung kann so konfiguriert werden, dass die Sensorpixel in Übereinstimmung (z.B. synchronisiert) mit der Strahllenkungseinheit des LIDAR-Systems bewegt werden. Die Sensoreinrichtung kann so konfiguriert werden, dass sie die Sensorpixel in Übereinstimmung (z.B. synchronisiert) mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Systems verschiebt.
  • In verschiedenen Ausführungsformen kann die Abtastung des emittierten LIDAR-Lichts in einer Richtung erfolgen (z.B. kann es eine 1D-Abtastung sein). Die Abtastung des emittierten LIDAR-Lichts kann auch in mehr als einer Richtung erfolgen (z.B. kann es sich um eine 2D-Abtastung handeln). Die Strahllenkungseinheit kann eine geeignete Komponente oder eine geeignete Konfiguration zur Ausführung der Strahllenkungsfunktion aufweisen, z.B. zum Scannen des emittierten LIDAR-Lichts in eine gewünschte Richtung. Als Beispiel kann die Strahllenkungseinheit einen oder mehrere 1D-MEMS-Spiegel, einen 2D-MEMS-Spiegel, einen rotierenden Polygonspiegel, ein optisches Phased Array (optisches phasengesteuertes Feld), ein auf Metamaterialien basierendes Strahllenkungselement oder ähnliches aufweisen. Als weiteres Beispiel kann die Strahllenkungseinheit einen steuerbaren Lichtemitter aufweisen, z.B. einen Lichtemitter mit mehreren lichtemittierenden Elementen, deren Emission gesteuert werden kann (z.B. spaltenweise oder pixelweise), so dass eine Abtastung des emittierten Lichts durchgeführt werden kann. Als Beispiel für einen steuerbaren Lichtemitter kann die Strahlsteuereinheit eine oberflächenemittierende Laseranordnung mit vertikalem Resonator (VCSEL) oder ähnliches aufweisen. Der Sensor kann eine geeignete Konfiguration zur Erfassung des LIDAR-Lichts haben. Als Beispiel kann der Sensor ein 1D-Array von Sensorpixeln aufweisen (z.B. kann es ein 1D-Sensor-Array sein). Der Sensor kann auch ein 2D-Array von Sensorpixeln aufweisen (z.B. kann es ein 2D-Sensorarray sein). Der Sensor kann auch als OD-Sensor konfiguriert sein (z.B. kann es sich um einen graphenbasierten Sensor handeln).
  • 103 zeigt ein System 10300 mit einer optischen Vorrichtung 10302 in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
  • Das System 10300 kann ein LIDAR-System sein. Das System 10300 kann als LIDAR-Scansystem konfiguriert werden. Als Beispiel kann das System 10300 als LIDAR-Sensorsystem 10 (z.B. als scannendes LIDAR-Sensorsystem 10) konfiguriert sein oder konfiguriert werden. Das System 10300 kann einen Emitterpfad aufweisen, z.B. eine oder mehrere Komponenten des Systems, die so konfiguriert sind, dass sie Licht aussenden (z.B. LIDAR). Das emittierte Licht kann zur Beleuchtung (z.B. zur Abfrage) des Bereichs um das System 10300 herum oder vor dem System 10300 bereitgestellt werden. Das System 10300 kann einen Empfängerpfad aufweisen, z.B. eine oder mehrere Komponenten, die so konfiguriert sind, dass sie Licht (z.B. reflektiertes Licht) aus der Umgebung oder vor dem System 10300 (z.B. dem System 10300 zugewandt) empfangen.
  • Das System 10300 kann eine Optikanordnung 10304 aufweisen (auch als Empfängeroptikanordnung oder Sensoroptik bezeichnet). Die Optikanordnung 10304 kann so konfiguriert werden, dass sie Licht aus der Umgebung oder vor dem System 10300 empfängt (z. B. sammelt). Die Optikanordnung 10304 kann so konfiguriert werden, dass sie das gesammelte Licht auf eine Brennebene der Optikanordnung 10304 lenkt oder fokussiert. Zur Veranschaulichung: Die Optikanordnung 10304 kann so konfiguriert werden, dass sie das empfangene Licht auf die optische Vorrichtung 10302 kollimiert. Beispielsweise kann die Optikanordnung 10304 eine oder mehrere optische Komponenten (wie eine oder mehrere Linsen, ein oder mehrere Objektive, einen oder mehrere Spiegel und dergleichen) aufweisen, die so konfiguriert sind, dass sie das Licht empfangen und auf eine Brennebene der Optikanordnung 10304 fokussieren.
  • Die Optikanordnung 10304 kann ein Sichtfeld 10306 der Optikanordnung 10304 haben oder definieren. Das Sichtfeld 10306 der Optikanordnung 10304 kann mit dem Sichtfeld des Systems 10300 zusammenfallen. Das Sichtfeld 10306 kann einen Bereich (oder einen Raumwinkel) definieren oder darstellen, durch den (oder von dem) die Optikanordnung 10304 Licht empfangen kann (z. B. einen Bereich, der durch die Optikanordnung 10304 sichtbar ist). Die Optikanordnung 10304 kann so konfiguriert werden, dass sie Licht aus dem Sichtfeld 10306 empfängt. Zur Veranschaulichung: Die Optikanordnung 10304 kann so konfiguriert werden, dass sie Licht (z. B. ausgestrahlt und/oder reflektiert) von einer Quelle oder einem Objekt (oder vielen Objekten oder allen Objekten) empfängt, die sich im Sichtfeld 10306 befinden.
  • Das Sichtfeld 10306 kann als Winkelausdehnung ausgedrückt werden, die durch die Optikanordnung 10304 abgebildet werden kann. Die Winkelausdehnung kann in einer ersten Richtung (z.B. die horizontale Richtung, z.B. die Richtung 10354 in 103) und in einer zweiten Richtung (z.B. die vertikale Richtung, z.B. die Richtung 10356 in 103) gleich sein. Die Winkelausdehnung kann in der ersten Richtung in Bezug auf die zweite Richtung unterschiedlich sein. Die erste Richtung und die zweite Richtung können senkrecht zu einer optischen Achse (z.B. entlang der Richtung 10352 in 103) der Optikanordnung 10354 verlaufen. Die erste Richtung kann senkrecht zur zweiten Richtung verlaufen. Beispielsweise kann das Sichtfeld der Optikanordnung 10304 etwa 60° in horizontaler Richtung betragen (z.B. von etwa -30° bis etwa +30° in Bezug auf die optische Achse in horizontaler Richtung), z.B. etwa 50°, z.B. etwa 70°, z.B. etwa 100°. Beispielsweise kann das Sichtfeld 10306 der Optikanordnung 10304 in vertikaler Richtung etwa 10° betragen (z.B. von etwa -5° bis etwa +5° in Bezug auf die optische Achse in vertikaler Richtung), z.B. etwa 5°, z.B. etwa 20°, z.B. etwa 30°. Die Definition der ersten Richtung und der zweiten Richtung (z.B. von horizontaler Richtung und vertikaler Richtung) kann beliebig gewählt werden, z.B. in Abhängigkeit vom gewählten Koordinatensystem (z.B. Referenzsystem).
  • Das System 10300 darf mindestens eine Lichtquelle 42 aufweisen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht ausstrahlt (z.B. zur Erzeugung eines Lichtstrahls 10308). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge emittiert, z.B. in einem vordefinierten Wellenlängenbereich. Die Lichtquelle 42 kann z.B. so konfiguriert werden, dass sie Licht im Infrarot- und/oder nahen Infrarotbereich emittiert (z.B. im Bereich von etwa 700 nm bis etwa 5000 nm, z.B. im Bereich von etwa 860 nm bis etwa 2000 nm, z.B. 905 nm). Die Lichtquelle 42 kann so konfiguriert werden, dass sie LIDAR-Licht emittiert. Die Lichtquelle 42 kann eine Lichtquelle und/oder eine Optik zur gerichteten Aussendung von Licht aufweisen, z.B. zur Aussendung von kollimiertem Licht (z.B. zur Aussendung von Laserlicht). Die Lichtquelle 42 kann so konfiguriert sein, dass sie Licht kontinuierlich emittiert oder sie kann so konfiguriert sein, dass sie Licht in gepulster Form emittiert (z.B. zur Aussendung einer Folge von Lichtpulsen, wie z.B. einer Folge von Laserpulsen). Als Beispiel kann die Lichtquelle 42 so konfiguriert werden, dass sie eine Vielzahl von Lichtpulsen wie der Lichtstrahl 10308 erzeugt. Das System 10300 kann auch mehr als eine Lichtquelle 42 aufweisen, die z.B. so konfiguriert ist, dass sie Licht in verschiedenen Wellenlängenbereichen und/oder mit unterschiedlichen Raten (z.B. Pulsraten) emittiert.
  • Zum Beispiel kann die mindestens eine Lichtquelle 42 als Laserlichtquelle konfiguriert werden. Die Laserlichtquelle kann eine Laserquelle 5902 aufweisen. Die Laserquelle 5902 kann mindestens eine Laserdiode aufweisen, z.B. kann die Laserquelle 5902 eine Vielzahl von Laserdioden aufweisen, z.B. eine Vielzahl, z.B. mehr als zwei, mehr als fünf, mehr als zehn, mehr als fünfzig oder mehr als hundert Laserdioden. Die Laserquelle 5902 kann so konfiguriert werden, dass sie einen Laserstrahl mit einer Wellenlänge im Infrarot- und/oder nahen Infrarot-Wellenlängenbereich emittiert.
  • Das System 10300 kann eine Strahllenkungseinheit 10310 aufweisen. Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sie das von der Lichtquelle 42 emittierte Licht empfängt. Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sie das empfangene Licht auf das Sichtfeld 10306 der Optikanordnung 10304 lenkt. Im Zusammenhang mit der vorliegenden Anwendung kann das von der (oder durch die) Strahllenkungseinheit 10310 abgegebene Licht (z.B. das von der Strahllenkungseinheit 10310 auf das Sichtfeld 10306 gerichtete Licht) als emittiertes Licht 10312 bezeichnet werden. Die Strahllenkungseinheit 10306 kann so konfiguriert werden, dass sie das Sichtfeld 10306 mit dem emittierten Licht 10312 abtastet (z.B. um nacheinander verschiedene Teile des Sichtfeldes 10306 mit dem emittierten Licht 10312 zu beleuchten). Zum Beispiel kann die Strahllenkungseinheit 10310 so konfiguriert werden, dass sie das emittierte Licht 10312 so lenkt, dass ein Bereich des Sichtfeldes beleuchtet wird. Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sie das ausgestrahlte Licht 10312 so steuert, dass sich der beleuchtete Bereich über das gesamte Sichtfeld 10306 bewegt (z.B. kann sie so konfiguriert werden, dass sie das gesamte Sichtfeld 10306 mit dem ausgestrahlten Licht 10312 abtastet). Eine Abtastung (z.B. eine Abtastbewegung) der Strahllenkungseinheit 10310 kann kontinuierlich erfolgen. Zur Veranschaulichung: Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sich das emittierte Licht kontinuierlich über das Sichtfeld 10306 bewegt.
  • Der beleuchtete Bereich kann jede Form und/oder Ausdehnung (z.B. Fläche) haben. Illustrativ kann die Form und/oder Ausdehnung des beleuchteten Bereichs so gewählt werden, dass eine räumlich selektive und zeiteffiziente Abfrage des Gesichtsfeldes 10306 gewährleistet ist. Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sie das emittierte Licht 10312 so lenkt, dass sich der beleuchtete Bereich entlang des gesamten Sichtfeldes 10306 in eine erste Richtung erstreckt. Veranschaulichend kann der beleuchtete Bereich das gesamte Sichtfeld 10306 entlang einer ersten Richtung ausleuchten, d.h. er kann z.B. die gesamte Winkelausdehnung des Sichtfeldes 10306 in dieser Richtung abdecken. Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sie das ausgestrahlte Licht 10312 so lenkt, dass sich der beleuchtete Bereich entlang eines kleineren Teils des Sichtfeldes 10306 in eine zweite Richtung erstreckt (z.B. 0,5% der Ausdehnung des Sichtfeldes 10306 in dieser Richtung, z.B. 1 %, z.B. 5%). Der beleuchtete Bereich kann eine kleinere Winkelausdehnung des Sichtfeldes 10306 in der zweiten Richtung abdecken (z.B. 0,5°, 1°, 2° oder 5°).
  • Beispielsweise kann die Strahllenkungseinheit 10310 so konfiguriert werden, dass das emittierte Licht 10312 einen Bereich beleuchtet, der sich entlang der (z.B. gesamten) vertikalen Ausdehnung des Sichtfeldes 10306 erstreckt. Illustrativ kann der beleuchtete Bereich als eine vertikale Linie 10314 gesehen werden, die sich in vertikaler Richtung (z.B. die Richtung 10356) durch das gesamte Sichtfeld 10306 erstreckt. Die Strahllenkungseinheit 10310 kann so konfiguriert werden, dass sie das emittierte Licht 10312 so lenkt, dass sich die vertikale Linie 10314 über das gesamte Sichtfeld 10306 in horizontaler Richtung bewegt (z.B. in der Richtung 10354, wie durch die Pfeile in 103 dargestellt).
  • Die Strahllenkungseinheit 10310 kann eine geeignete (z. B. steuerbare) Komponente oder eine geeignete Konfiguration zur Ausführung der Strahllenkungsfunktion aufweisen, z. B. zur Abtastung des Sichtfeldes 10306 mit dem emittierten Licht 10312. Als Beispiel kann die Strahlführungseinheit 10310 einen oder mehrere 1D-MEMS-Spiegel, einen 2D-MEMS-Spiegel, einen rotierenden Polygonspiegel, ein optisches Phasenarray, ein Strahlführungselement auf der Basis von Metamaterialien, ein VCSEL-Array oder ähnliches aufweisen.
  • Das ausgestrahlte Licht 10312 kann von einem oder mehreren (z.B. systemexternen) Objekten, die sich im Sichtfeld 10306 befinden, reflektiert werden (z.B. zurück zum System 10300). Die optische Anordnung 10304 kann so konfiguriert werden, dass sie das reflektierte ausgestrahlte Licht (z.B. das reflektierte LIDAR-Licht, z.B. das von einem oder mehreren Objekten im Sichtfeld 10306 reflektierte LIDAR-Licht) empfängt und das empfangene Licht auf die optische Vorrichtung 10302 abbildet (z.B. um das empfangene Licht auf die optische Vorrichtung 10302 zu kollimieren). Die optische Vorrichtung 10302 kann in der Brennebene der optischen Anordnung 10304 angeordnet werden.
  • Die optische Vorrichtung 10302 kann so konfiguriert werden, dass sie eine Erfassung des auf die optische Vorrichtung 10302 kollimierten Lichts ermöglicht. Die optische Vorrichtung 10302 kann eine oder mehrere optische Komponenten (z.B. mehrere optische Komponenten) aufweisen. Die Mehrzahl optischer Komponenten kann ein oder mehrere (z.B. optische) Elemente aufweisen, die so konfiguriert sind, dass sie Licht (z.B. das empfangene Licht) auf einen Sensor 52 (z.B. einen Lichtsensor 52) lenken. Das eine oder die mehreren Elemente können so konfiguriert sein, dass sie das empfangene Licht auf den Sensor 52 reflektieren. Beispielsweise können das eine oder die mehreren reflektierenden Elemente einen oder mehrere Spiegel aufweisen oder als ein oder mehrere Spiegel konfiguriert sein (z.B. als Spiegelstruktur mit einem oder mehreren Spiegeln). Alternativ oder zusätzlich können das eine oder die mehreren reflektierenden Elemente ein reflektierender Teil einer Oberfläche eines Trägers der optischen Vorrichtung 10302 sein (z.B. eine reflektierende Oberfläche des Trägers). Als Beispiel können das eine oder die mehreren reflektierenden Elemente als ein oder mehrere auf der Oberfläche des Trägers angeordnete reflektierende Streifen konfiguriert sein oder konfiguriert werden.
  • Der Sensor 52 kann ein Sensor 52 des LIDAR-Systems 10300 sein (z.B. getrennt von der optischen Vorrichtung 10302). Alternativ kann die optische Vorrichtung 10302 den Sensor 52 aufweisen (z.B. kann die eine oder mehrere optische Komponenten der optischen Vorrichtung 10302 den Sensor 52 zusätzlich oder alternativ zu dem einen oder mehreren reflektierenden Elementen aufweisen). Der Sensor 52 kann ein oder mehrere Sensorpixel aufweisen. Die Sensorpixel können so konfiguriert sein, dass sie ein Signal (z.B. ein elektrisches Signal, wie z.B. einen Strom) erzeugen, wenn Licht auf das eine oder die mehreren Sensorpixel auftrifft. Das erzeugte Signal kann proportional zu der vom Sensor 52 empfangenen Lichtmenge sein (z.B. die Lichtmenge, die auf die Sensorpixel trifft). Als Beispiel kann der Sensor 52 eine oder mehrere Fotodioden aufweisen. Der Sensor 52 kann ein oder mehrere Sensorpixel aufweisen, und jedes Sensorpixel kann einer entsprechenden Fotodiode zugeordnet werden. Zumindest einige der Fotodioden können Lawinenfotodioden sein. Zumindest einige der Lawinenfotodioden können Einzelphotonen-Lawinenfotodioden sein. Der Sensor 52 kann so konfiguriert werden, dass er in einem vordefinierten Wellenlängenbereich arbeitet (z.B. um ein Signal zu erzeugen, wenn Licht im vordefinierten Wellenlängenbereich auf den Sensor 52 auftrifft), z.B. im Infrarotbereich (und/oder im nahen Infrarotbereich).
  • Im Sichtfeld 10306 können jedoch eine oder mehrere Umgebungslichtquellen 10316 vorhanden sein. Als Beispiel kann die Umgebungslichtquelle 10316 ein anderes LIDAR-System sein, das Licht innerhalb des Sichtfeldes 10306 emittiert, oder es kann die Sonne sein, oder es kann ein Objekt sein, das Licht von der Sonne reflektiert, usw. Zur Veranschaulichung: Die Umgebungslichtquelle 10316 kann eine Lichtquelle außerhalb des Systems 10300 sein, die sich im Sichtfeld 10306 befindet und Licht aussendet, das von der optischen Anordnung 10304 empfangen werden kann. Somit kann auch Licht, das von der Umgebungslichtquelle 10316 kommt, auf die optische Einrichtung 10302 gerichtet sein. Das von der Umgebungslichtquelle 10316 kommende Licht kann eine Rauschquelle für die Erfassung des reflektierten LIDAR-Lichts sein.
  • Die optische Vorrichtung 10302 kann so konfiguriert werden, dass das durch eine Umgebungslichtquelle 10316 verursachte Rauschen reduziert oder wesentlich eliminiert werden kann. Die optische Einrichtung 10302 kann so konfiguriert werden, dass das von einer Umgebungslichtquelle 10316 kommende Licht nicht zur Erzeugung eines Signals führt oder zur Erzeugung eines Signals mit einer viel kleineren Amplitude als ein Signal, das durch das reflektierte LIDAR-Licht erzeugt wird (auch als LIDAR-Signal bezeichnet). Beispielsweise kann die Amplitude des Signals durch die Umgebungslichtquelle 10316 kleiner sein als die 10% der Amplitude des LIDAR-Signals, z.B. weniger als 5%, z.B. weniger als 1%. Zur Veranschaulichung: Die optische Vorrichtung 10302 kann so konfiguriert werden, dass das LIDAR-Licht auf den Sensor 52 gerichtet werden kann (z.B. kann das LIDAR-Licht auf den Sensor 52 auftreffen, z.B. auf die Sensorpixel), während Licht, das von einer Umgebungslichtquelle 10316 kommt, im Wesentlichen nicht auf den Sensor 52 auftrifft.
  • Die optische Vorrichtung 10302 kann so konfiguriert werden, dass sie lichtabsorbierende Eigenschaften aufweist. Die optische Vorrichtung kann einen Träger aufweisen. Der Träger kann so konfiguriert werden, dass er Licht absorbiert. Der Träger kann mindestens eine lichtabsorbierende Oberfläche aufweisen (zur Veranschaulichung: mindestens die Oberfläche des Trägers, die der optischen Anordnung 10304 zugewandt ist, kann so konfiguriert sein, dass sie Licht absorbiert). Die lichtabsorbierende Oberfläche kann so konfiguriert werden, dass sie Licht in einem vordefinierten Wellenlängenbereich absorbiert. Die lichtabsorbierende Oberfläche kann so konfiguriert werden, dass sie Licht absorbiert, das zur Erzeugung eines Signals führen würde, wenn es auf den Sensor 52 auftrifft. Der vordefinierte Wellenlängenbereich für die Lichtabsorption kann gleich oder ähnlich dem Wellenlängenbereich sein, in dem der Sensor 52 arbeiten kann. Zum Beispiel kann der vordefinierte Wellenlängenbereich der Infrarotbereich (und/oder der nahe Infrarotbereich) sein.
  • Die optische Vorrichtung 10302 kann so konfiguriert werden, dass das reflektierte LIDAR-Licht auf eine oder mehrere optische Komponenten der Vielzahl optischer Komponenten (z.B. auf eines oder mehrere der reflektierenden Elemente und/oder auf den Sensor 52) auftreffen kann. Die optische Vorrichtung 10302 kann so konfiguriert werden, dass das von der Umgebungslichtquelle 10316 kommende Licht auf den lichtabsorbierenden Träger (z.B. auf die lichtabsorbierende Oberfläche des Trägers) auftreffen kann. Das Umgebungslicht kann so absorbiert werden, ohne dass es zur Erzeugung eines Rauschsignals führt. Zur Veranschaulichung: Jeder Teil der optischen Vorrichtung 10302 und/oder jeder Teil des Trägers, der nicht so konfiguriert ist, dass er Licht reflektiert (z.B. in Richtung des Sensors 52), kann als lichtabsorbierender Teil betrachtet werden (z.B. ein lichtabsorbierender Teil des Trägers).
  • Die optische Vorrichtung 10302 kann einen Controller aufweisen (z.B. den Sensor-Controller 53). Der Sensor-Controller 53 kann so konfiguriert werden, dass er eine Bewegung (z.B. eine kontinuierliche Bewegung) einer oder mehrerer optischer Komponenten aus der Vielzahl der optischen Komponenten steuert. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung in Übereinstimmung mit einer Abtastbewegung der Strahllenkungseinheit 10310 des LIDAR-Systems 10300 steuert. Dies kann den Effekt haben, dass die eine oder mehrere gesteuerte optische Komponente(n) in eine Position zum Empfang des reflektierten LIDAR-Lichts bewegt werden kann (z.B. in eine Position, in der das LIDAR-Licht erwartet werden kann). Die eine oder mehreren gesteuerten optischen Komponenten können auch aus einer Position wegbewegt werden, in der sie Umgebungslicht empfangen können. Beispielsweise kann der Sensor-Controller 53 so konfiguriert werden, dass eine oder mehrere optische Komponenten (zur Veranschaulichung: eine oder mehrere optische Komponenten, die nicht für den Empfang des LIDAR-Lichts verwendet werden) in eine Position bewegt werden, in der die eine oder mehreren optischen Komponenten kein Licht empfangen dürfen. Dadurch kann weiter sichergestellt werden, dass im Wesentlichen kein Umgebungslicht auf den Sensor 52 gerichtet wird. Die Qualität der Detektion, z.B. des SNR, kann dadurch erhöht werden.
  • Die Bewegung der (z.B. gesteuerten) einen oder mehreren optischen Komponenten aus der Vielzahl der optischen Komponenten kann eine kontinuierliche Bewegung sein. Zur Veranschaulichung: Der Sensor-Controller 53 kann so konfiguriert werden, dass er die kontinuierliche Bewegung der einen oder mehreren optischen Komponenten so steuert, dass die eine oder mehreren optischen Komponenten in einer Position nicht stationär sind (z.B. wenn sie sich im Betrieb nicht länger als 500 ns oder länger als 1 ms in derselben Position befinden). Die gesteuerte Bewegung kann eine lineare Bewegung sein (z.B. eine lineare kontinuierliche Bewegung), z.B. eine Bewegung entlang einer Richtung (z.B. der horizontalen Richtung und/oder der vertikalen Richtung). Die kontrollierte Bewegung kann eine Rotationsbewegung (z.B. eine kontinuierliche Rotationsbewegung) sein, z.B. eine Bewegung um eine Rotationsachse (z.B. eine Bewegung um eine in vertikaler Richtung orientierte (d.h. ausgerichtete) Achse).
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung einer oder mehrerer optischer Komponenten der Vielzahl optischer Komponenten mit derselben Zeitabhängigkeit (z.B. dieselbe Zeitstruktur, z.B. dasselbe Verhältnis zwischen Zeit und Bewegung oder Verschiebung) wie die Abtastbewegung der Strahllenkungseinheit 10310 steuert. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die kontinuierliche Bewegung einer oder mehrerer optischer Komponenten der Vielzahl optischer Komponenten synchron mit der Abtastbewegung der Strahllenkungseinheit 10310 steuert. Die Abtastbewegung der Strahllenkungseinheit 10310 kann eine vordefinierte Zeitcharakteristik haben (z.B. kann sie einen linearen Charakter, einen sinusförmigen Charakter oder ähnliches haben). Als Beispiel kann die Bewegung oder die Schwingung eines Abtastspiegels der Strahllenkungseinheit 10310 einen sinusförmigen Charakter haben. Der Sensor-Controller 53 kann so konfiguriert werden, dass die Bewegung einer oder mehrerer optischer Komponenten den gleichen (z.B. linearen oder sinusförmigen) zeitlichen Verlauf hat wie die Abtastbewegung des Abtastspiegels der Strahllenkungseinheit 10310.
  • Zusätzlich oder alternativ kann der Sensor-Controller 53 so konfiguriert werden, dass er die Bewegung einer oder mehrerer optischer Komponenten der Vielzahl optischer Komponenten in Übereinstimmung mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42 des LIDAR-Systems 10300 steuert. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung der einen oder mehreren optischen Komponenten synchron mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42 steuert. Zur Veranschaulichung: Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung der einen oder mehreren optischen Komponenten auf der Grundlage der Kenntnis der Zeitpunkte (z.B. der Pulsfrequenz, z.B. des Abstands zwischen den Pulsen), zu denen der Lichtstrahl 10308 erzeugt wird, steuert.
  • 104A und 104B zeigen ein optisches Gerät 10302 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Der Träger 10402 der optischen Vorrichtung 10302 kann ein lichtabsorbierendes Material aufweisen oder aus einem solchen bestehen. Der Träger 10402 kann einen Trägerkörper aus einem lichtabsorbierenden Material aufweisen oder aus einem solchen bestehen. Die Oberfläche des Trägerkörpers kann die lichtabsorbierende Oberfläche 10402s bilden (z.B. Absorption von Licht im infraroten Wellenlängenbereich, z.B. von etwa 700 nm bis etwa 5000 nm, z.B. von etwa 860 nm bis etwa 2000 nm). Zusätzlich oder alternativ kann der Träger 10402 eine lichtabsorbierende Schicht (zumindest teilweise) über dem Trägerkörper aufweisen (z.B. über den Trägerkörper aufgebracht, über den Trägerkörper gestrichen usw.). Die lichtabsorbierende Schicht kann (zumindest teilweise) die lichtabsorbierende Oberfläche 10402s bilden.
  • Die Mehrzahl der optischen Komponenten kann eine Spiegelstruktur aufweisen. Die Spiegelstruktur kann einen oder mehrere Spiegel 10404 umfassen (z.B. mindestens einen Spiegel 10404, wie z.B. in 104A gezeigt, oder eine Vielzahl von Spiegeln 10404, wie z.B. in 104B gezeigt). Der eine oder mehrere Spiegel 10404 können auf der lichtabsorbierenden Fläche 10402s des Trägers 10402 angeordnet werden. Die Spiegelstruktur (z.B. der eine oder die mehreren Spiegel 10404) kann die lichtabsorbierende Oberfläche 10402s teilweise bedecken. Zur Veranschaulichung: Die Spiegelstruktur kann so angeordnet werden, dass mindestens ein Teil (z.B. ein bestimmter Prozentsatz der Gesamtfläche) der lichtabsorbierenden Oberfläche 10402s frei von der Spiegelstruktur ist. Dies kann die Absorption des Umgebungslichts 10408 (z.B. Auftreffen auf die lichtabsorbierende Oberfläche 10402s) ermöglichen. Beispielsweise kann die Spiegelstruktur einen Teil von etwa 60% (z.B. maximal 60%, z.B. weniger als 60%) der lichtabsorbierenden Oberfläche 10402s bedecken (z.B. die 60% einer Fläche der lichtabsorbierenden Oberfläche 10402s), z.B. von etwa 50%, z.B. von etwa 40%, z.B. von etwa 30%, z.B. von etwa 20%, z.B. von etwa 10%.
  • Der eine oder die mehreren Spiegel 10404 (z.B. eine reflektierende Oberfläche des einen oder der mehreren Spiegel 10404) können sich in eine erste (z.B. seitliche) Richtung erstrecken (z.B. können der eine oder die mehreren Spiegel 10404 eine bestimmte Breite haben). Der eine oder die mehreren Spiegel 10404 können sich in eine zweite (z.B. seitliche) Richtung erstrecken (z.B. können der eine oder die mehreren Spiegel 10404 eine bestimmte Höhe haben), die sich von der ersten Richtung unterscheidet. Der eine oder die mehreren Spiegel 10404 können sich um einen vordefinierten Betrag einer Gesamtausdehnung entlang der Richtung des vom LIDAR-System 10300 emittierten LIDAR-Lichts erstrecken (z.B. in einer Richtung senkrecht zur Lichtstrahlabtastrichtung, z.B. entlang der Richtung 10356). Die Gesamtausdehnung kann die Summe der Ausdehnung in der ersten Richtung und der Ausdehnung in der zweiten Richtung sein (z.B. die Summe der Breite und der Höhe eines Spiegels 10404). Der eine oder die mehreren Spiegel 10404 können sich um einen vordefinierten Prozentsatz der Gesamtausdehnung (z.B. um einen Bruchteil der Gesamtausdehnung) entlang der Richtung der emittierten Lichtlinie 10314 (z.B. senkrecht zur Richtung 10354, entlang der die emittierte Lichtlinie 10314 abgetastet wird) erstrecken. Zur Veranschaulichung: Ein solcher Prozentsatz kann ein Verhältnis zwischen der Höhe und der Breite eines Spiegels 10404 sein oder darstellen. Beispielsweise können sich der eine oder die mehreren Spiegel 10404 mindestens zu etwa 50% entlang der lichtabsorbierenden Fläche 10402s des Trägers 10404 in einer Richtung erstrecken, die im wesentlichen senkrecht zur Lichtstrahl-Abtastrichtung des LIDAR-Systems 10300 verläuft, z.B. mindestens zu etwa 60%, z.B. mindestens zu etwa 70%, z.B. mindestens zu etwa 75%, z.B. mindestens zu etwa 80%.
  • Der eine oder die mehreren Spiegel 10404 können so konfiguriert (z.B. angeordnet und/oder ausgerichtet) werden, dass sie das Licht auf den Sensor 52 (z.B. die LIDAR-Leuchte 10406) richten. Die Spiegelstruktur und der Sensor 52 können relativ zueinander positioniert werden. Die Spiegelstruktur und der Sensor 52 können so konfiguriert (z.B. angeordnet und/oder orientiert) werden, dass der eine oder die mehreren Spiegel 10404 Licht 10406, das auf den einen oder die mehreren Spiegel 10404 auftrifft, zum Sensor 52 (z.B. zu den Sensorpixeln) reflektieren können.
  • Die optische Vorrichtung 10302 kann ein oder mehrere Elemente zur Lenkung der Bewegung der optischen Komponenten (z.B. des einen oder der mehreren Spiegel 10404) aufweisen. Der Träger 10402 kann eine oder mehrere Spuren 10410 aufweisen (z.B. auf der lichtabsorbierenden Oberfläche 10402s). Die optischen Komponenten der optischen Vorrichtung 10302 können beweglich auf der einen oder den mehreren Spuren 10410 montiert sein. Zur Veranschaulichung: Die optischen Komponenten können entlang der einen oder mehreren Spuren 10410 bewegt werden. Beispielsweise können die eine oder mehrere Spuren 10410 Spiegelspuren sein, und der eine oder die mehreren Spiegel 10404 der Spiegelstruktur können beweglich auf den Spiegelspuren 10410 montiert sein.
  • Die eine oder mehrere Spuren 10410 können entlang einer ersten Richtung und/oder entlang einer zweiten Richtung (z.B. senkrecht zur ersten Richtung) orientiert sein (z.B. sie können sich erstrecken). Die eine oder mehrere Spuren 10410 können z.B. im wesentlichen parallel zur Strahlabtastrichtung des LIDAR-Systems 10300 ausgerichtet sein (z.B. im wesentlichen parallel zur Richtung 10354). Zusätzlich oder alternativ können die eine oder mehrere Spuren 10410 im wesentlichen senkrecht zur Strahlabtastrichtung des LIDAR-Systems 10300 ausgerichtet sein (z.B. im wesentlichen parallel zur Richtung 10356). Illustrativ kann eine erste Spur entlang der ersten Richtung und eine zweite Spur entlang der zweiten Richtung ausgerichtet sein.
  • Die eine oder mehrere Spuren 10410 können ein lichtabsorbierendes Material aufweisen oder aus einem solchen bestehen. Zusätzlich oder alternativ können die eine oder mehrere Spuren 10410 mit einer lichtabsorbierenden Schicht bedeckt sein. Somit kann auch Umgebungslicht 10408, das auf eine oder mehrere Spuren 10410 trifft, absorbiert werden (z.B. nicht auf den Sensor 52 gerichtet oder reflektiert). Zur Veranschaulichung: Die eine oder mehrere Spuren 10410 können als Teil der lichtabsorbierenden Oberfläche 10402s des Trägers 10402 betrachtet werden.
  • Die optische Vorrichtung 10302 kann ein oder mehrere Elemente zur Realisierung der Bewegung der optischen Komponenten (z.B. des einen oder der mehreren Spiegel 10404) aufweisen. Die optische Vorrichtung 10302 kann einen oder mehrere Aktoren (z.B. einen oder mehrere Piezoaktoren) aufweisen. Der eine oder die mehreren Aktoren können so konfiguriert sein, dass sie die eine oder die mehreren optischen Komponenten bewegen. Der eine oder die mehreren Aktoren können z.B. so konfiguriert sein, dass sie den einen oder die mehreren Spiegel 10404 der Spiegelstruktur bewegen.
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung des einen oder mehrerer Spiegel 10404 der Spiegelstruktur steuert. Die Bewegung des einen oder der mehreren Spiegel 10404 kann kontinuierlich erfolgen. Beispielsweise können der eine oder die mehreren Spiegel 10404 und/oder die Sensor-Steuereinheit 53 so konfiguriert werden, dass sich der eine oder die mehreren Spiegel 10404 im Betrieb nicht länger als 500 ns oder länger als 1 ms in derselben Position (z.B. in derselben Position entlang der Bewegungsrichtung, z.B. entlang der Richtung 10354 oder der Richtung 10356) befinden. Die Bewegung des einen oder mehrerer Spiegel 10404 kann auch schrittweise erfolgen. Beispielsweise kann der Sensor-Controller 53 so konfiguriert werden, dass er die Bewegung des einen oder der mehreren Spiegel 10404 so steuert, dass sich der eine oder die mehreren Spiegel 10404 während einer ersten Zeitspanne bewegen und während einer zweiten Zeitspanne in einer bestimmten Position verweilen.
  • Die Bewegung des einen oder der mehreren Spiegel 10404 kann linear sein (z.B. entlang einer linearen Flugbahn). Beispielsweise können der eine oder die mehreren Spiegel 10404 so konfiguriert werden, dass sie sich auf einer linearen Bahn entlang einer oder mehrerer Bahnen 10410 bewegen (z.B. entlang einer oder mehrerer Spiegelbahnen 10410, die in horizontaler Richtung orientiert sind, und/oder entlang einer oder mehrerer Spiegelbahnen 10410, die in vertikaler Richtung orientiert sind). Die Bewegung des einen oder der mehreren Spiegel 10404 kann rotierend sein (z.B. um eine Drehachse). Beispielsweise können der eine oder die mehreren Spiegel 10404 so konfiguriert sein, dass sie um eine oder mehrere Spuren 10410 rotieren (oder oszillieren, z.B. hin und her) (z.B. um eine in horizontaler Richtung orientierte Spur 10410 und/oder entlang einer in vertikaler Richtung orientierten Spur 10410).
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung des einen oder mehrerer Spiegel 10404 (z.B. die kontinuierliche Bewegung, wie die lineare kontinuierliche Bewegung und/oder die rotatorische kontinuierliche Bewegung) in Übereinstimmung mit der Abtastbewegung der Strahllenkungseinheit 10310 des LIDAR-Systems 10300 steuert. Zusätzlich oder alternativ kann der Sensor-Controller 53 so konfiguriert werden, dass er die Bewegung des einen oder mehrerer Spiegel 10404 in Übereinstimmung mit der Lichtquelle 42 des LIDAR-Systems 10300 steuert (z.B. in Übereinstimmung mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42). Dies kann den Effekt haben, dass die Bewegung des einen oder der mehreren Spiegel 10404 so gesteuert werden kann, dass der eine oder die mehreren Spiegel 10404 in einer Position (und/oder in einer Ausrichtung) sein können, um das reflektierte LIDAR-Licht 10406 zu empfangen.
  • Beispielsweise kann der Sensor-Controller 53 so konfiguriert werden, dass er die Bewegung des einen oder mehrerer Spiegel 10404 synchron mit der Abtastbewegung der Strahllenkungseinheit 10310 steuert. Zum Beispiel in Synchronisation mit der Abtastbewegung eines Abtastspiegels des LIDAR-Systems 10300. Zur Veranschaulichung: Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung des einen oder der mehreren Spiegel 10404 so steuert, dass die Bewegung der Spiegel 10404 (z.B. die Trajektorie, z.B. eine lineare Trajektorie) einer gleichen (oder ähnlichen) zeitlichen Entwicklung wie die Bewegung eines Abtastspiegels des LIDAR-Systems 10300 folgen kann. Zum Beispiel kann die Bewegung des einen oder mehrerer Spiegel 10404 sinusförmigen Charakter haben.
  • Zusätzlich oder alternativ kann der Sensor-Controller 53 so konfiguriert werden, dass er die Bewegung des einen oder mehrerer Spiegel 10404 synchron mit der Lichtquelle 42 steuert (z.B. synchron mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42). Zum Beispiel kann die Lichtquelle 42 Licht (z.B. den Lichtstrahl 10308) in gepulster Weise aussenden. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung des einen oder der mehreren Spiegel 10404 mit der Pulsrate der Lichtquelle 42 synchronisiert (z.B. um die Bewegung des einen oder der mehreren Spiegel 10404 basierend auf der Pulsrate der Lichtquelle 42 zu steuern).
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung (z.B. die kontinuierliche Bewegung, wie z.B. die lineare kontinuierliche Bewegung und/oder die kontinuierliche Drehbewegung) des einen oder mehrerer Spiegel 10404 um eine vordefinierte Verschiebung steuert. Die vordefinierte Verschiebung kann in einem Bereich liegen, der auf der Grundlage des Sichtfeldes 10306 des LIDAR-Systems 10300 ausgewählt wird. Zur Veranschaulichung: Der Verschiebungsbereich kann auf der Grundlage des von der Strahllenkungseinheit 10310 abgetasteten Bereichs ausgewählt werden (z.B. auf der Grundlage einer Verschiebung eines Abtastspiegels des LIDAR-Systems 10300). Beispielsweise kann die Verschiebung im Bereich von ca. 0,1 mm bis ca. 5 mm liegen, z.B. von ca. 0,5 mm bis ca. 3 mm.
  • Wie z.B. in 104B gezeigt, kann die Spiegelstruktur eine Vielzahl von Spiegeln 10404 umfassen (z.B. kann der eine oder mehrere Spiegel 10404 eine Vielzahl von Spiegeln 10404 sein).
  • Die Spiegel 10404 aus der Vielzahl der Spiegel 10404 können so konfiguriert werden, dass sie unabhängig voneinander beweglich sind. Beispielsweise können die Spiegel 10404 der Mehrzahl von Spiegeln 10404 auf entsprechenden (z.B. separaten) Spiegelbahnen 10410 angeordnet werden. Diese Konfiguration kann den Effekt haben, dass nur ein Spiegel 10404 (oder nur eine Teilmenge von Spiegeln 10404) der Mehrzahl von Spiegeln 10404 bewegt werden kann, illustrativ nur der/die Spiegel 10404, der/die für die Detektion von LIDAR-Licht relevant ist/sind. Auf diese Weise kann die Masse (z.B. die Spiegelmasse), die bewegt wird, reduziert werden, wodurch der Energieverbrauch der optischen Einrichtung 10302 verringert wird.
  • Die Spiegel 10404 der Mehrzahl von Spiegeln 10404 können alle die gleiche Form und/oder die gleichen Abmessungen haben. Alternativ können die Spiegel 10404 der Mehrzahl von Spiegeln 10404 unterschiedliche Formen und/oder Abmessungen haben. Zum Beispiel kann ein erster Spiegel 10404 eine Oberfläche haben, die auf eine erste Art und Weise gekrümmt ist (z.B. elliptisch), und ein zweiter Spiegel 10404 kann eine Oberfläche haben, die auf eine zweite Art und Weise gekrümmt ist (z.B. parabolisch), die sich von der ersten Art und Weise unterscheidet. Zum Beispiel kann ein erster Spiegel 10404 eine erste Höhe und/oder Breite (z.B. 5 mm) haben, und ein zweiter Spiegel kann eine zweite Höhe und/oder Breite (z.B. 3 mm oder 7 mm) haben, die sich von der ersten Höhe und/oder Breite unterscheidet (z.B. kleiner oder größer als die erste Höhe und/oder Breite).
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung der Spiegel 10404 aus der Vielzahl von Spiegeln 10404 einzeln steuert. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Spiegel 10404 der mehreren Spiegel 10404 so steuert, dass sie mit der gleichen Frequenz (z.B. 1 kHz oder 5 kHz) bewegt werden. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Spiegel 10404 der Mehrzahl von Spiegeln 10404 mit einer vordefinierten Verschiebung (z.B. mit derselben Frequenz, aber mit einer vordefinierten Verschiebung) steuert. Die vordefinierte Auslenkung kann entlang der Bewegungsrichtung erfolgen. Alternativ kann der Sensor-Controller 53 so konfiguriert werden, dass er die Spiegel 10404 der Vielzahl von Spiegeln 10404 so steuert, dass sie mit unterschiedlichen Frequenzen bewegt werden. Ein erster Spiegel 10404 kann mit einer ersten Frequenz bewegt werden und ein zweiter Spiegel 10404 kann mit einer zweiten Frequenz bewegt werden. Die zweite Frequenz kann gleich der ersten Frequenz sein, oder die zweite Frequenz kann sich von der ersten Frequenz unterscheiden (z.B. kleiner oder größer als die erste Frequenz). Als Beispiel kann ein Verhältnis zwischen der ersten Frequenz und der zweiten Frequenz eine ganze Zahl sein (z.B. 1, 2, 3, usw.). Das Verhältnis kann auch eine nicht ganzzahlige Zahl sein (z.B. 0,5; 1,5; 2,8; 3,7 usw.).
  • Das Ausmaß der Verschiebung kann fest sein oder entsprechend der Lichtemission (z. B. entsprechend dem ausgestrahlten Licht 10312) angepasst (z. B. ausgewählt) werden. Das Ausmaß der Verschiebung darf in Übereinstimmung (z. B. in Synchronisation) mit der Lichtquelle 42 und/oder mit der Strahllenkungseinheit 10310 angepasst (z. B. in Synchronisation) werden. Das Ausmass der Verschiebung kann z.B. in Übereinstimmung mit der Aktivierung einer oder mehrerer Lichtquellen 42 (z.B. mit der Aktivierung einer oder mehrerer Laserquellen) angepasst werden. Wie in 104B dargestellt, kann der Sensor-Controller 53 so konfiguriert werden, dass er einen oder mehrere erste Spiegel 10404 der Vielzahl von Spiegeln 10404 in Übereinstimmung mit der Erzeugung eines ersten emittierten Lichts steuert (z.B. mit der Erzeugung eines ersten Laserpulses, z.B. mit der Aktivierung einer ersten Laserquelle). Der Sensor-Controller 53 kann so konfiguriert werden, dass er das Ausmass der Verschiebung des einen oder der mehreren ersten Spiegel 10404 in Übereinstimmung mit der Erzeugung des ersten emittierten Lichts anpasst. Dieser eine oder diese mehreren ersten Spiegel 10404 können so konfiguriert werden (z.B. gesteuert), dass sie das reflektierte erste emittierte Licht 10406a empfangen (z.B. das reflektierte erste LIDAR-Licht 10406a). Der Sensor-Controller 53 kann so konfiguriert werden, dass er einen oder mehrere zweite Spiegel 10404 aus der Vielzahl von Spiegeln 10404 entsprechend der Erzeugung eines zweiten emittierten Lichts (z.B. mit der Aktivierung einer zweiten Laserquelle) steuert. Der Sensor-Controller 53 kann so konfiguriert werden, dass er das Ausmaß der Verschiebung des einen oder der mehreren zweiten Spiegel 10404 in Übereinstimmung mit der Erzeugung des zweiten emittierten Lichts anpasst. Dieser eine oder diese mehreren zweiten Spiegel 10404 können so konfiguriert werden (z.B. gesteuert), dass sie das reflektierte zweite emittierte Licht 10406b empfangen (z.B. das reflektierte zweite LIDAR-Licht 10406b).
  • Beispielsweise kann das Ausmaß der Verschiebung entsprechend einer zeitlichen Verschiebung (z.B. einer Zeitdifferenz) zwischen den emittierten Lichtquellen (z.B. zwischen der Aktivierung der Laserquellen) angepasst werden. Das zweite ausgestrahlte Licht kann nach dem ersten ausgestrahlten Licht ausgestrahlt werden (z.B. kann die zweite Laserquelle zu einem späteren Zeitpunkt aktiviert werden). Als weiteres Beispiel kann das Ausmass der Verschiebung entsprechend einer räumlichen Verschiebung zwischen den emittierten Lichtquellen angepasst werden. Die erste Lichtquelle (z.B. die erste Laserquelle) kann eine erste Orientierung in Bezug auf die Strahlführungseinheit 10310 haben. Die zweite Lichtquelle (z.B. die zweite Laserquelle) kann eine zweite Ausrichtung in Bezug auf die Strahllenkungseinheit 10310 haben. Die erste Ausrichtung kann sich von der zweiten Ausrichtung unterscheiden, so dass das erste ausgestrahlte Licht in Bezug auf das zweite ausgestrahlte Licht in eine andere Richtung reflektiert werden kann (z.B. kann das erste ausgestrahlte Licht auf einen anderen Bereich des Sichtfeldes 10306 in Bezug auf das zweite ausgestrahlte Licht gerichtet sein).
  • Die optische Vorrichtung 10302 kann optional ein oder mehrere optische Elemente 10412 (z.B. eine oder mehrere Linsen) aufweisen, die zwischen dem Träger 10402 und dem Sensor 52 angeordnet sind. Das eine oder die mehreren optischen Elemente 10412 können so konfiguriert werden, dass sie das auf den Sensor 52 gerichtete Licht (z.B. von der Spiegelstruktur) auf den Sensor 52 fokussieren oder kollimieren.
  • 105A zeigt ein optisches Gerät 10302 in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
  • 105B und 105C zeigen jeweils einen Teil eines Systems 10300 mit einem optischen Gerät 10302 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Alternativ oder zusätzlich zu der Spiegelstruktur kann der Träger 10402 eine oder mehrere reflektierende Flächen 10502 aufweisen. Ein oder mehrere Teile einer Oberfläche des Trägers 10402 können so konfiguriert werden, dass sie Licht reflektieren (z.B. in Richtung des Sensors 52). Ein oder mehrere Teile der lichtabsorbierenden Oberfläche 10402s können so konfiguriert sein, dass sie Licht reflektieren. Zur Veranschaulichung: Jeder Teil des Trägers 10402 (z.B. der Oberfläche 10402s des Trägers 10402), der nicht so konfiguriert ist, dass er Licht absorbiert, kann so konfiguriert werden, dass er Licht reflektiert. Die eine oder mehrere reflektierende Oberfläche(n) 10502 kann (können) so konfiguriert sein, dass sie Licht in einem vordefinierten Wellenlängenbereich reflektiert (reflektieren). Zum Beispiel können die eine oder mehreren reflektierenden Oberflächen 10502 so konfiguriert sein, dass sie Licht im Infrarotbereich (und/oder im nahen Infrarotbereich) reflektieren. Die eine oder mehreren reflektierenden Oberflächen 10502 können sich entlang einer Richtung erstrecken, die im Wesentlichen senkrecht zur Abtastrichtung der Strahlsteuereinheit 10310 verläuft (z.B. entlang der vertikalen Richtung).
  • Die optische Vorrichtung 10302 kann einen oder mehrere reflektierende Streifen aufweisen, die auf dem Träger 10402 angeordnet sind (z.B. kann die eine oder mehrere reflektierende Flächen 10502 ein oder mehrere reflektierende Streifen sein). Ein oder mehrere reflektierende Streifen können auf dem Träger 10402 so angeordnet sein, dass ein oder mehrere Teile der Oberfläche (z.B. der lichtabsorbierenden Oberfläche 10402s) des Trägers 10402 reflektierend sein können.
  • Die eine oder mehrere reflektierende Flächen 10502 können auf dem Träger 10402 so angeordnet werden, dass mindestens ein Teil der Oberfläche (oder jeder Seitenfläche) des Trägers 10402 lichtabsorbierend sein kann. Zum Beispiel können sich die eine oder mehrere reflektierende Flächen 10502 über die 10% der Oberfläche (z.B. jeder Seitenfläche) des Trägers 10402 erstrecken, z.B. über die 30%, z.B. über die 50%. Eine lichtreflektierende Oberfläche kann eine erste seitliche Abmessung (z.B. eine Breite) im Bereich von etwa 0,1 mm bis etwa 2 mm haben, z.B. von etwa 0,25 mm bis etwa 1 mm. Eine lichtreflektierende Fläche kann eine zweite seitliche Abmessung (z.B. eine Länge oder eine Höhe) im Bereich von etwa 5 mm bis etwa 30 mm haben, z.B. von etwa 10 mm bis etwa 20 mm.
  • Zum Beispiel kann der Träger 10402 eine zylindrische Form haben (wie z.B. in 105A gezeigt). Die Außenfläche des Zylinders kann so gestaltet sein, dass sie Licht absorbiert. Ein oder mehrere Abschnitte 10502 der Außenfläche können so konfiguriert sein, dass sie Licht reflektieren. Als weiteres Beispiel kann der Träger 10402 eine Prismenform haben (wie z.B. in 105B und 105C gezeigt). Eine oder mehrere der Seitenflächen des Prismas können so konfiguriert sein, dass sie Licht absorbieren. Eine oder mehrere der Seitenflächen (oder ein oder mehrere Teile der Seitenflächen) des Prismas können so konfiguriert sein, dass sie Licht reflektieren. Beispielsweise können die eine oder mehrere reflektierende Flächen 10502 auf einer oder mehreren Seitenflächen (z.B. auf einem oder mehreren Abschnitten der Seitenflächen) angeordnet sein, die ansonsten lichtabsorbierend wären. Als Beispiel kann jede Seitenfläche mindestens eine reflektierende Fläche 10502 aufweisen.
  • Der Träger 10402 kann so konfiguriert werden, dass er rotiert. Der Träger 10402 kann beweglich um eine Drehachse 10504 angeordnet werden. Die Drehachse 10504 kann senkrecht zur Abtastrichtung des LIDAR-Systems 10300 stehen (z.B. kann die Drehachse 10504 in der Richtung 10356 liegen, z.B. in der vertikalen Richtung). Der Träger 10402 kann z.B. auf einem Träger und/oder auf einem Rahmen montiert sein, der drehbar konfiguriert ist.
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er eine rotierende (z.B. kontinuierliche) Bewegung des Trägers 10402 steuert. Auf diese Weise kann mindestens eine der einen oder mehreren reflektierenden Flächen 10502 in der Lage sein, Licht (z.B. das LIDAR-Licht 10406) zum Sensor 52 zu reflektieren. Außerdem kann das Umgebungslicht 10408 auf eine lichtabsorbierende Oberfläche 10402s des Trägers 10402 auftreffen (z.B. auf einen Teil der Oberfläche, der nicht so konfiguriert ist, dass er Licht reflektiert). Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Drehbewegung des Trägers 10402 in gleicher oder ähnlicher Weise steuert, wie oben für den einen oder mehrere Spiegel 10404 beschrieben. Beispielsweise kann der Sensor-Controller 53 so konfiguriert werden, dass er die Drehbewegung des Trägers 10402 in Übereinstimmung (z.B. in Synchronisation) mit einer Abtastbewegung der Strahllenkungseinheit 10310 und/oder mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42 steuert.
  • 105D zeigt einen Teil eines Systems 10300 mit einem optischen Gerät 10302 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • 105E und 105F zeigen jeweils ein Teil eines optischen Gerätes 10302 in einer schematischen Ansicht nach verschiedenen Ausführungsformen.
  • Das optische Gerät 10302 kann auch eine Vielzahl von Trägern 10402 aufweisen (z.B. zwei, fünf, zehn oder mehr als zehn Träger 10402), wie z.B. in 105D dargestellt. Zusätzlich oder alternativ kann der Träger 10402 in eine Vielzahl von Trägerteilen aufgeteilt werden (wie z.B. in 105E und 105F dargestellt). Mindestens ein Teil der Oberfläche jedes Trägers 10402 und/oder mindestens ein Teil der Oberfläche jedes Trägerabschnitts kann so konfiguriert werden, dass er Licht reflektiert. Mindestens ein Teil der Oberfläche jedes Trägers 10402 und/oder mindestens ein Teil der Oberfläche jedes Trägerabschnitts kann so konfiguriert sein, dass er Licht absorbiert.
  • Diese Konfiguration kann den Effekt einer feineren Kontrolle über den Betrieb der optischen Vorrichtung 10302 bieten. Zur Veranschaulichung: Der Sensor-Controller 53 kann die Bewegung des Trägers (der Träger) 10402 und/oder des Trägerteils (der Trägerteile), der (die) für die Lenkung des Lichts zum Sensor 52 relevant ist (sind), auf der Grundlage des emittierten LIDAR-Lichts 10312 individuell steuern. Dies kann einen energieeffizienteren Betrieb der optischen Vorrichtung 10302 ermöglichen.
  • Die Träger 10402 der Vielzahl von Trägern 10402 können in einem regelmäßigen Muster angeordnet werden. Zum Beispiel können die Träger 10402 eine Reihe von Trägern 10402 bilden (wie z.B. in 105D dargestellt), z.B. können die Träger 10402 nebeneinander in einer Richtung parallel zur Abtastrichtung der Strahllenkungseinheit 10310 angeordnet werden. Die Träger 10402 der Vielzahl von Trägern 10402 können auch in einem Winkel zueinander angeordnet sein (z.B. können die Träger 10402 nicht oder nicht alle entlang einer Linie angeordnet sein).
  • Die Träger 10402 der Mehrzahl von Trägern 10402 und/oder die Teile der Mehrzahl von Trägerteilen können so konfiguriert werden, dass sie sich unabhängig voneinander bewegen (z.B. drehen). Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Träger 10402 der Vielzahl von Trägern 10402 und/oder die Teile der Vielzahl von Trägerabschnitten so steuert, dass sie mit der gleichen Frequenz bewegt werden oder mit unterschiedlichen Frequenzen bewegt werden.
  • Die Drehachse der Träger 10402 der Vielzahl von Trägern 10402 kann entlang einer Richtung senkrecht zur Abtastrichtung der Strahlsteuereinheit 10310 ausgerichtet sein. Die Träger 10402 der Vielzahl von Trägern 10402 können so angeordnet sein, dass das zum System reflektierte Licht 10406 auf die Träger 10402 auftreffen kann (z.B. sequentiell), abhängig von der Richtung, in die das Licht 10312 emittiert wird (z.B. entsprechend einem Emissionswinkel des emittierten Lichts 10312). Die Träger 10402 der Vielzahl von Trägern 10402 können so konfiguriert (z.B. angeordnet) werden, dass sie das reflektierte LIDAR-Licht 10406 in Übereinstimmung mit einem Emissionswinkel des emittierten Lichts 10312 empfangen. Veranschaulichend kann das reflektierte Licht 10406 auf einen (z.B. anderen) Träger 10402 auftreffen, abhängig von der Richtung, aus der das reflektierte Licht 10406 kommt (z.B. von der Position im Sichtfeld 10306, von der das Licht 10406 reflektiert wird). Beispielsweise kann das reflektierte Licht 10406 auf einen ersten Träger 10402 zu einem ersten Zeitpunkt, auf einen zweiten Träger 10402 zu einem zweiten Zeitpunkt, der auf den ersten Zeitpunkt folgt, auf einen dritten Träger 10402 zu einem dritten Zeitpunkt, der auf den zweiten Zeitpunkt folgt, usw. auftreffen. In der in 105D gezeigten Beispielkonfiguration kann sich das reflektierte Licht 10406 während des Scannens vom obersten Träger 10402 zum untersten Träger 10402 und dann zurück zum obersten Träger 10402 bewegen.
  • 106A und 106B zeigen jeweils ein Teil eines optischen Gerätes 10302 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. 106A zeigt eine Vorderansicht eines Trägers 10402. 106B zeigt eine Draufsicht auf den Träger 10402.
  • Der Träger 10402 kann ein bandförmiger Träger sein oder als solcher konfiguriert werden. Der bandförmige Träger 10402 kann sich in einer Richtung erstrecken, die im Wesentlichen parallel zur Abtastrichtung der Strahlsteuereinheit 10310 verläuft (z.B. in horizontaler Richtung). Zur Veranschaulichung: Der bandförmige Träger 10402 kann eine seitliche Abmessung entlang der (z.B. horizontalen) Richtung 10354 größer als eine seitliche Abmessung entlang der (z.B. vertikalen) Richtung 10356 haben.
  • Der bandförmige Träger 10402 kann eine oder mehrere reflektierende Flächen 10502 aufweisen (z.B. einen oder mehrere reflektierende Streifen). Ein oder mehrere Teile der (z.B. lichtabsorbierenden) Oberfläche 10402 des bandförmigen Trägers 10402 können so konfiguriert sein, dass sie Licht reflektieren (z.B. in Richtung des Sensors 52). Die eine oder mehrere reflektierende Oberflächen 10502 können sich entlang einer Richtung erstrecken, die im wesentlichen senkrecht zur Abtastrichtung der Strahllenkungseinheit 10310 verläuft (z.B. entlang der vertikalen Richtung). Die eine oder die mehreren reflektierenden Flächen 10502 können eine seitliche Abmessung entlang der (z.B. vertikalen) Richtung 10356 größer als eine seitliche Abmessung entlang der (z.B. horizontalen) Richtung 10354 haben. Zur Veranschaulichung: Die eine oder mehreren reflektierenden Flächen 10502 können sich entlang der Höhe (z.B. der gesamten Höhe) des bandförmigen Trägers 10402 erstrecken.
  • Der Träger 10402 kann so konfiguriert werden, dass er sich in einer Richtung im Wesentlichen parallel zur Abtastrichtung der Strahllenkungseinheit 10310 bewegt (z. B. kontinuierlich in einer Richtung bewegt oder hin- und herpendelt) (z. B. kann der Träger 10402 so konfiguriert werden, dass er sich in der Richtung 10354 bewegt, z. B. in der horizontalen Richtung). Auf diese Weise können die eine oder mehrere reflektierende Oberflächen 10502 in der Lage sein, Licht (z.B. das LIDAR-Licht 10406) zum Sensor 52 zu reflektieren. Das Umgebungslicht kann auf den lichtabsorbierenden Teilen der Oberfläche 10402s des bandförmigen Trägers 10402 absorbiert werden.
  • Der Träger 10402 kann auf einem (z.B. Halte-)Rahmen montiert werden, der die Bewegung des Trägers 10402 ermöglicht. Zum Beispiel kann der Rahmen eine oder mehrere rotierende Komponenten 10602 (z.B. eine oder mehrere Rollen) aufweisen. Das eine oder die mehreren rotierenden Komponenten 10602 können so konfiguriert sein, dass sie sich drehen. Die Drehung der einen oder mehreren rotierenden Komponenten 10602 (z.B. im oder gegen den Uhrzeigersinn) kann die (z.B. lineare) Bewegung des Trägers 10402 entlang der horizontalen Richtung definieren.
  • Illustrativ kann der Träger 10402 als Förderband konfiguriert werden, das sich kontinuierlich um eine oder mehrere Rollen 10602 bewegt. Der Träger 10402 kann einen (z.B. dünnen) Film oder eine Schicht aufweisen oder als solcher konfiguriert sein. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Rollen 10602 so steuert, dass sich der Film kontinuierlich um die Rollen 10602 bewegt (wie durch die Pfeile in 106B schematisch dargestellt). Als Beispiel kann sich ein Teil der Trägeroberfläche (z.B. ein Teil der lichtabsorbierenden Oberfläche 10402s oder eine reflektierende Oberfläche 10502) entlang einer linearen Bahn auf einer ersten Seite des Trägers 10402 bewegen. Der Oberflächenabschnitt kann sich dann um eine erste Rolle 10602 bewegen, z.B. in Richtung einer zweiten Seite des Trägers 10402 (z.B. gegenüber der ersten Seite). Der Oberflächenabschnitt kann sich dann entlang einer linearen Trajektorie auf einer zweiten Seite des Trägers 10402 bewegen. Der Oberflächenabschnitt kann sich dann um eine zweite Rolle 10602 bewegen und zur ersten Seite des Trägers 10402 zurückkehren.
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die lineare (z.B. kontinuierliche) Bewegung des Trägers 10402 in gleicher oder ähnlicher Weise steuert, wie oben für den einen oder mehrere Spiegel 10404 und/oder für die Drehbewegung des Trägers 10402 beschrieben. Als Beispiel kann der Sensor-Controller 53 so konfiguriert werden, dass er die lineare Bewegung des Trägers 10402 in Übereinstimmung (z.B. synchron) mit einer Abtastbewegung der Strahllenkungseinheit 10310 und/oder mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42 steuert.
  • 107 zeigt eine Sensoreinrichtung 10702 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Der Sensor 52 kann auf dem Träger 10402 angeordnet werden. Der Sensor 52 kann einen oder mehrere Sensorpixel 10704 aufweisen, die auf dem Träger 10402 montiert sind. Das eine oder die mehreren Sensorpixel 10704 können auf der lichtabsorbierenden Oberfläche 10402s des Trägers 10402 angebracht werden. In dieser Konfiguration kann die optische Vorrichtung 10302 als Sensorvorrichtung 10702 bezeichnet werden. Der Träger 10402 kann in jeder der oben beschriebenen Konfigurationen konfiguriert werden, zum Beispiel in Bezug auf 104A bis 106B.
  • Zur Veranschaulichung: Das eine oder die mehreren Sensorpixel 10704 können auf dem Träger 10402 in ähnlicher Weise angeordnet werden wie der eine oder die mehreren Spiegel 10404 der Spiegelstruktur. Der eine oder die mehreren Sensorpixel 10704 können (z.B. beweglich) auf dem einen oder den mehreren Tacks 10410 des Trägers 10402 angebracht werden. Die Bewegung des einen oder der mehreren Sensorpixel 10704 kann linear sein (z.B. entlang einer linearen Trajektorie). Als Beispiel können der eine oder die mehreren Sensorpixel 10704 so konfiguriert werden, dass sie sich in einer linearen Bahn entlang einer oder mehrerer Spuren 10410 bewegen (z.B. entlang einer oder mehrerer Spuren 10410, die in horizontaler Richtung 10354 orientiert sind, und/oder entlang einer oder mehrerer Spuren 10410, die in vertikaler Richtung 10356 orientiert sind). Die Bewegung des einen oder mehrerer Sensorpixel 10704 kann rotierend sein (z.B. um eine Rotationsachse). Beispielsweise können das eine oder die mehreren Sensorpixel 10704 so konfiguriert sein, dass sie um eine oder mehrere Spuren 10410 rotieren (oder oszillieren, z.B. hin und her) (z.B. um eine Spur 10410, die in horizontaler Richtung 10354 orientiert ist, und/oder entlang einer Spur 10410, die in vertikaler Richtung 10356 orientiert ist). Ein oder mehrere Aktoren (z.B. Piezoaktoren) der Sensorvorrichtung 10702 können so konfiguriert werden, dass sie einen oder mehrere Sensorpixel 10704 des Sensors 52 bewegen.
  • Der Sensor 52 (z.B. der eine oder mehrere Sensorpixel 10704) kann die lichtabsorbierende Fläche 10402s teilweise bedecken. Zur Veranschaulichung: Der Sensor 52 kann so angeordnet werden, dass mindestens ein Teil (z.B. ein bestimmter Prozentsatz der Gesamtfläche) der lichtabsorbierenden Fläche 10402s frei von den Sensorpixeln 10704 ist. Beispielsweise kann der Sensor 52 einen Teil von etwa 60 % (z.B. maximal 60 %, z.B. weniger als 60 %) der lichtabsorbierenden Fläche 10402s (z.B. die 60 % einer Fläche der lichtabsorbierenden Fläche 10402s) abdecken, z.B. von etwa 50 %, z.B. von etwa 40 %, z.B. von etwa 30 %, z.B. von etwa 20 %, z.B. von etwa 10 %.
  • Der Sensor 52 kann sich entlang einer vordefinierten Richtung entlang der lichtabsorbierenden Oberfläche 10402s des Trägers 10402s erstrecken. Zur Veranschaulichung: Ein oder mehrere Sensorpixel 10704 können entlang einer vordefinierten Richtung entlang der lichtabsorbierenden Oberfläche 10402s des Trägers 10402 angeordnet werden. Das eine oder die mehreren Pixel 10704 können sich entlang der lichtabsorbierenden Oberfläche 10402s des Trägers 10402 in einer Richtung im Wesentlichen senkrecht zur Abtastrichtung des LIDAR-Systems 10300 erstrecken. Zur Veranschaulichung: Das eine oder die mehreren Sensorpixel 10704 können als eine Pixelspalte entlang der vertikalen Richtung angeordnet sein. Beispielsweise können sich das eine oder die mehreren Sensorpixel 10704 mindestens etwa die 50% entlang der lichtabsorbierenden Fläche 10402s des Trägers 10404 in einer Richtung im wesentlichen senkrecht zur Lichtstrahl-Abtastrichtung des LIDAR-Systems 10300 erstrecken, z.B. mindestens etwa 60%, z.B. mindestens etwa 70%, z.B. mindestens etwa 75%, z.B. mindestens etwa 80%.
  • Das eine oder die mehreren Sensorpixel 10704 können sich entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 10300 erstrecken (z.B. in einer Richtung, entlang der sich das emittierte Licht 10312 erstreckt). Zum Beispiel können das eine oder die mehreren Sensorpixel 10704 eine Dimension (z.B. eine Höhe oder eine Länge) entlang einer Richtung senkrecht zur Abtastrichtung haben, die größer ist als eine Dimension (z.B. eine Breite) entlang einer Richtung parallel zur Abtastrichtung. Das eine oder die mehreren Sensorpixel 10704 können so angeordnet werden, dass das eine oder die mehreren Sensorpixel 10704 im Wesentlichen die gesamte lichtabsorbierende Oberfläche 10402s des Trägers 10402 in der Richtung senkrecht zur Abtastrichtung bedecken. Zur Veranschaulichung: Das eine oder die mehreren Sensorpixel 10704 können so angeordnet werden, dass im Wesentlichen das gesamte auf den Sensor 52 einfallende LIDAR-Licht erfasst werden kann. Beispielsweise können das eine oder die mehreren Sensorpixel 10704 so angeordnet werden, dass ein Abstand zwischen benachbarten Sensorpixeln 10704 in der Richtung senkrecht zur Abtastrichtung weniger als 1 mm beträgt, z.B. weniger als 0,5 mm, z.B. weniger als 0,1 mm (z.B. so, dass zwischen benachbarten Sensorpixeln 10704 entlang dieser Richtung im Wesentlichen kein Spalt vorhanden ist). Die Abmessung des einen oder der mehreren Sensorpixel 10704 entlang der Richtung parallel zur Abtastrichtung kann so gewählt werden, dass die Menge an Umgebungslicht 10408, die von dem einen oder den mehreren Sensorpixeln 10704 empfangen wird, minimiert wird. Zur Veranschaulichung: Die Abmessung des einen oder der mehreren Sensorpixel 10704 in dieser Richtung kann geringfügig größer sein (z.B. 2% oder 5% größer) als die Abmessung der emittierten Linie in dieser Richtung. Beispielsweise kann die Breite des einen oder der mehreren Sensorpixel 10704 so gewählt werden, dass sie etwas größer ist als die Breite der emittierten vertikalen Linie 10314.
  • Ein oder mehrere Sensorpixel 10704 können so konfiguriert werden, dass sie Licht vom LIDAR-System 10300 empfangen (z.B. von der Optikanordnung 10304 des LIDAR-Systems 10300). Die Bewegung des einen oder der mehreren Sensorpixel 10704 kann so gesteuert werden, dass mindestens ein (oder viele oder alle) Sensorpixel 10704 in der Lage sein können, das LIDAR-Licht 10406 zu empfangen. Die Bewegung des einen oder mehrerer Sensorpixel 10704 kann so gesteuert werden, dass das Umgebungslicht 10408 nicht auf ein Sensorpixel 10704 (sondern auf die lichtabsorbierende Oberfläche 10402s des Trägers 10402) trifft.
  • Der eine oder die mehreren Sensorpixel 10704 können in ähnlicher Weise beweglich konfiguriert sein wie der eine oder die mehreren Spiegel 10404. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die (z.B. kontinuierliche) Bewegung des einen oder der mehreren Sensorpixel 10704 in gleicher oder ähnlicher Weise steuert, wie oben für den einen oder die mehreren Spiegel 10404 beschrieben. Die Bewegung des einen oder der mehreren Sensorpixel 10704 kann kontinuierlich sein. Beispielsweise können das eine oder die mehreren Sensorpixel 10704 und/oder der Sensor-Controller 53 so konfiguriert sein, dass sich im Betrieb das eine oder die mehreren Sensorpixel 10704 nicht länger als 500 ns oder länger als 1 ms in derselben Position (z.B. in derselben Position entlang der Bewegungsrichtung, z.B. entlang der Richtung 10354 oder der Richtung 10356) befinden. Die Bewegung des einen oder mehrerer Sensorpixel 10704 kann auch schrittweise erfolgen. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung des einen oder der mehreren Sensorpixel 10704 um eine vordefinierte Verschiebung steuert. Die Auslenkung kann beispielsweise im Bereich von etwa 0,1 mm bis etwa 5 mm liegen, z.B. von etwa 0,5 mm bis etwa 3 mm.
  • Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung (z.B. die kontinuierliche Bewegung, wie z.B. die lineare kontinuierliche Bewegung und/oder die rotierende kontinuierliche Bewegung) eines oder mehrerer Sensorpixel 10704 in Übereinstimmung (z.B. in Synchronisation) mit einer Abtastbewegung der Strahllenkungseinheit 10310 des LIDAR-Systems 10300 steuert. Zusätzlich oder alternativ kann der Sensor-Controller 53 so konfiguriert werden, dass er die Bewegung des einen oder der mehreren Sensorpixel 10704 in Übereinstimmung (z.B. in Synchronisation) mit der Erzeugung des Lichtstrahls 10308 durch die Lichtquelle 42 des LIDAR-Systems 10300 steuert.
  • Für den Fall, dass der Sensor 52 eine Vielzahl von Sensorpixeln 10704 aufweist (z. B. zwei, fünf, zehn, fünfzig oder mehr als fünfzig Sensorpixel 10704), können die Sensorpixel 10704 so konfiguriert werden, dass sie unabhängig voneinander beweglich sind. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Bewegung der Sensorpixel 10704 aus der Vielzahl der Sensorpixel 107044 individuell steuert. Der Sensor-Controller 53 kann so konfiguriert werden, dass er die Sensorpixel 10704 so steuert, dass sie mit der gleichen Frequenz (z. B. 1 kHz oder 5 kHz) bewegt werden. Alternativ kann der Sensor-Controller 53 so konfiguriert werden, dass er die Sensorpixel 10704 so steuert, dass sie mit unterschiedlichen Frequenzen bewegt werden. Ein erstes Sensorpixel 10704 kann mit einer ersten Frequenz bewegt werden und ein zweites Sensorpixel 10704 kann mit einer zweiten Frequenz bewegt werden. Die zweite Frequenz kann gleich der ersten Frequenz sein, oder die zweite Frequenz kann sich von der ersten Frequenz unterscheiden (z.B. kleiner oder größer als die erste Frequenz). Als Beispiel kann das Verhältnis zwischen der ersten Frequenz und der zweiten Frequenz eine ganze Zahl sein (z.B. 1, 2, 3 usw.). Das Verhältnis kann auch eine nicht ganzzahlige Zahl sein (z.B. 0,5; 1,5; 2,8; 3,7 usw.).
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1p ist eine optische Vorrichtung für ein LIDAR-Sensorsystem. Die optische Vorrichtung kann einen Träger mit einer lichtabsorbierenden Oberfläche für Licht in einem vordefinierten Wellenlängenbereich und eine Vielzahl von optischen Komponenten aufweisen. Die Vielzahl optischer Komponenten kann eine Spiegelstruktur mit einem oder mehreren Spiegeln auf der lichtabsorbierenden Oberfläche des Trägers und/oder einen Sensor mit einem oder mehreren Sensorpixeln umfassen. Die optische Vorrichtung kann ferner einen Sensor-Controller aufweisen, der so konfiguriert ist, dass er eine kontinuierliche Bewegung einer oder mehrerer optischer Komponenten aus der Vielzahl optischer Komponenten in Übereinstimmung mit einer Abtastbewegung einer Strahllenkungseinheit des LIDAR-Sensorsystems steuert.
    • In Beispiel 2p kann der Gegenstand von Beispiel 1p optional umfassen, dass der Sensor-Controller weiter konfiguriert wird, um die kontinuierliche Bewegung einer oder mehrerer optischer Komponenten aus der Vielzahl der optischen Komponenten synchron mit der Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems zu steuern.
    • In Beispiel 3p kann der Gegenstand eines der Beispiele 1p oder 2p optional umfassen, dass der Sensor-Controller weiter konfiguriert wird, um die kontinuierliche Bewegung einer oder mehrerer optischer Komponenten aus der Vielzahl der optischen Komponenten synchron mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems zu steuern.
    • In Beispiel 4p kann der Gegenstand eines der Beispiele 1p bis 3p optional umfassen, dass die Mehrzahl der optischen Komponenten eine Spiegelstruktur mit einem oder mehreren Spiegeln auf der lichtabsorbierenden Oberfläche des Trägers und einen Sensor mit einem oder mehreren Sensorpixeln umfasst. Der Sensor und die Spiegelstruktur können relativ zueinander positioniert und so konfiguriert werden, dass der eine oder die mehreren Spiegel darauf auftreffendes Licht zu dem einen oder den mehreren Sensorpixeln des Sensors reflektieren.
    • In Beispiel 5p kann der Gegenstand von Beispiel 4p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die kontinuierliche Bewegung des einen oder mehrerer Spiegel der Spiegelstruktur synchron mit einer Abtastbewegung eines Abtastspiegels des LIDAR-Sensorsystems und synchron mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems steuert.
    • In Beispiel 6p kann der Gegenstand von Beispiel 5p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass ereine lineare kontinuierliche Bewegung des einen oder mehrerer Spiegel der Spiegelstruktur synchron mit einer Abtastbewegung eines Abtastspiegels des LIDAR-Sensorsystems und synchron mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems steuert.
    • In Beispiel 7p kann der Gegenstand von Beispiel 6p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die lineare kontinuierliche Bewegung des einen oder der mehreren Spiegel der Spiegelstruktur durch eine Verschiebung im Bereich von etwa 0,5 mm bis etwa 3 mm steuert.
    • In Beispiel 8p kann der Gegenstand eines der Beispiele 5p bis 7p optional umfassen, dass der Träger Spiegelschienen umfasst, auf denen ein oder mehrere Spiegel der Spiegelstruktur beweglich montiert sind. Die Spiegelspuren können im wesentlichen parallel zur Lichtstrahlabtastrichtung des LIDAR-Sensorsystems ausgerichtet sein.
    • In Beispiel 9p kann der Gegenstand von Beispiel 1p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er eine kontinuierliche Drehbewegung einer oder mehrerer optischer Komponenten der Vielzahl optischer Komponenten entsprechend einer Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems steuert.
    • In Beispiel 10p kann der Gegenstand von Beispiel 9p optional umfassen, dass der Sensor-Controller weiter konfiguriert wird, um die kontinuierliche Drehbewegung einer oder mehrerer optischer Komponenten aus der Vielzahl der optischen Komponenten synchron mit der Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems zu steuern.
    • In Beispiel 11 p kann der Gegenstand eines der Beispiele 9p oder 10p optional umfassen, dass der Sensor-Controller weiter konfiguriert wird, um die kontinuierliche Drehbewegung einer oder mehrerer optischer Komponenten aus der Vielzahl der optischen Komponenten synchron mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems zu steuern.
    • In Beispiel 12p kann der Gegenstand von Beispiel 1p optional umfassen, dass der Träger ein bandförmiger Träger ist.
    • In Beispiel 13p kann der Gegenstand eines der Beispiele 1p bis 12p optional umfassen, dass die Mehrzahl der optischen Komponenten eine Spiegelstruktur mit einem oder mehreren Spiegeln auf der lichtabsorbierenden Oberfläche des Trägers umfasst. Die Spiegelstruktur kann maximal einen Teil von etwa 60% der lichtabsorbierenden Oberfläche des Trägers bedecken, optional maximal einen Teil von etwa 50%, optional maximal einen Teil von etwa 40%, optional maximal einen Teil von etwa 30%, optional maximal einen Teil von etwa 20%, optional maximal einen Teil von etwa 10%.
    • In Beispiel 14p kann der Gegenstand eines der Beispiele 1p bis 13p optional umfassen, dass die Mehrzahl der optischen Komponenten eine Spiegelstruktur mit einem oder mehreren Spiegeln auf der lichtabsorbierenden Oberfläche des Trägers umfasst. Der eine oder die mehreren Spiegel der Spiegelstruktur können sich zu mindestens etwa 50% entlang der lichtabsorbierenden Oberfläche des Trägers in einer Richtung im wesentlichen senkrecht zu einer Lichtstrahlabtastrichtung des LIDAR-Sensorsystems erstrecken, optional mindestens etwa 60%, optional mindestens etwa 70%, optional mindestens etwa 75%, optional mindestens etwa 80%.
    • In Beispiel 15p kann der Gegenstand eines der Beispiele 1p bis 14p optional umfassen, dass die Mehrzahl der optischen Komponenten eine Spiegelstruktur mit einem oder mehreren Spiegeln auf der lichtabsorbierenden Oberfläche des Trägers umfasst. Die Spiegelstruktur kann eine Mehrzahl von Spiegeln umfassen, die unabhängig voneinander beweglich sind.
    • In Beispiel 16p kann der Gegenstand von Beispiel 15p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die Spiegel der Vielzahl von Spiegeln steuert, die mit derselben Frequenz bewegt werden sollen.
    • In Beispiel 17p kann der Gegenstand von Beispiel 15p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die Spiegel der Vielzahl von Spiegeln steuert, die mit unterschiedlichen Frequenzen bewegt werden sollen.
    • In Beispiel 18p kann der Gegenstand eines der Beispiele 1p bis 17p optional umfassen, dass die Mehrzahl der optischen Komponenten eine Spiegelstruktur mit einem oder mehreren Spiegeln auf der lichtabsorbierenden Oberfläche des Trägers umfasst. Die optische Vorrichtung kann ferner einen oder mehrere Piezoaktoren aufweisen, die so konfiguriert sind, dass sie den einen oder die mehreren Spiegel der Spiegelstruktur bewegen.
    • In Beispiel 19p kann der Gegenstand eines der Beispiele 1p bis 18p optional umfassen, dass der Träger zusätzlich eine lichtreflektierende Oberfläche aufweist. Die lichtreflektierende Oberfläche kann eine Breite im Bereich von etwa 0,25 mm bis etwa 1 mm und eine Länge im Bereich von etwa 10 mm bis etwa 20 mm haben.
    • In Beispiel 20p kann der Gegenstand eines der Beispiele 1p bis 19p optional umfassen, dass der Träger einen Trägerkörper und eine lichtabsorbierende Schicht über dem Trägerkörper umfasst, die die lichtabsorbierende Oberfläche bildet.
    • In Beispiel 21 p kann der Gegenstand eines der Beispiele 1p bis 19p optional umfassen, dass der Träger einen Trägerkörper aus einem lichtabsorbierenden Material aufweist, dessen Oberfläche die lichtabsorbierende Oberfläche bildet.
    • In Beispiel 22p kann der Gegenstand eines der Beispiele 1p bis 21p optional umfassen, dass der vordefinierte Wellenlängenbereich der Infrarot-Wellenlängenbereich ist.
    • In Beispiel 23p kann der Gegenstand von Beispiel 22p optional umfassen, dass der Infrarot-Wellenlängenbereich ein Wellenlängenbereich von etwa 860 nm bis etwa 2000 nm ist.
    • Beispiel 24p ist eine Sensorvorrichtung für ein LIDAR-Sensorsystem. Die Sensorvorrichtung kann einen Träger mit einer lichtabsorbierenden Oberfläche für Licht in einem vordefinierten Wellenlängenbereich aufweisen. Die Sensorvorrichtung kann einen Sensor mit einem oder mehreren Sensorpixeln aufweisen, die auf der lichtabsorbierenden Oberfläche des Trägers montiert sind. Das eine oder die mehreren Sensorpixel können so konfiguriert werden, dass sie das vom LIDAR-Sensorsystem empfangene Licht empfangen. Die Sensorvorrichtung kann einen Sensor-Controller aufweisen, der so konfiguriert ist, dass er eine kontinuierliche Bewegung des einen oder der mehreren Sensorpixel des Sensors entsprechend einer Abtastbewegung einer Strahllenkungseinheit des LIDAR-Sensorsystems steuert.
    • In Beispiel 25p kann der Gegenstand von Beispiel 24p optional umfassen, dass der Sensor-Controller weiter konfiguriert wird, um die kontinuierliche Bewegung eines oder mehrerer Sensorpixel des Sensors in Synchronisation mit einer Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems zu steuern.
    • In Beispiel 26p kann der Gegenstand eines der Beispiele 24p oder 25p optional umfassen, dass der Sensor-Controller weiter konfiguriert wird, um die kontinuierliche Bewegung eines oder mehrerer Sensorpixel des Sensors in Synchronisation mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems zu steuern.
    • In Beispiel 27p kann der Gegenstand eines der Beispiele 24p bis 26p optional umfassen, dass der Sensor-Controller weiterhin so konfiguriert ist, dass er eine kontinuierliche Bewegung des einen oder mehrerer Sensorpixel des Sensors synchron mit einer Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems und synchron mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems steuert.
    • In Beispiel 28p kann der Gegenstand von Beispiel 27p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er eine lineare kontinuierliche Bewegung eines oder mehrerer Sensorpixel des Sensors synchron mit einer Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems und synchron mit einer Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDAR-Sensorsystems steuert.
    • In Beispiel 29p kann der Gegenstand von Beispiel 28p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die lineare kontinuierliche Bewegung eines oder mehrerer Sensorpixel des Sensors durch eine Verschiebung im Bereich von etwa 0,5 mm bis etwa 3 mm steuert.
    • In Beispiel 30p kann der Gegenstand eines der Beispiele 24p bis 29p optional umfassen, dass der Träger Spuren aufweist, auf denen ein oder mehrere Sensorpixel des Sensors beweglich montiert sind. Die Spuren können im Wesentlichen parallel zur Lichtstrahlabtastrichtung des LIDAR-Sensorsystems ausgerichtet sein.
    • In Beispiel 31p kann der Gegenstand von Beispiel 24p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er eine kontinuierliche Drehbewegung eines oder mehrerer Sensorpixel des Sensors in Übereinstimmung mit einer Abtastbewegung einer Strahllenkungseinheit des LIDAR-Sensorsystems steuert.
    • In Beispiel 32p kann der Gegenstand von Beispiel 31p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er eine kontinuierliche Rotationsbewegung des einen oder mehrerer Sensorpixel des Sensors synchron mit einer Abtastbewegung der Strahllenkungseinheit des LIDAR-Sensorsystems steuert.
    • In Beispiel 33p kann der Gegenstand von Beispiel 32p optional umfassen, dass der Sensor-Controller weiterhin so konfiguriert wird, dass er eine kontinuierliche Drehbewegung eines oder mehrerer Sensorpixel des Sensors in Synchronisation mit der Erzeugung eines Lichtstrahls durch eine Lichtquelle des LIDARSensorsystems steuert.
    • In Beispiel 34p kann der Gegenstand von Beispiel 24p optional umfassen, dass der Träger ein bandförmiger Träger ist.
    • In Beispiel 35p kann der Gegenstand eines der Beispiele 24p bis 34p optional umfassen, dass der Sensor maximal einen Teil von etwa 60% der lichtabsorbierenden Oberfläche des Trägers bedeckt, optional maximal einen Teil von etwa 50%, optional maximal einen Teil von etwa 40%, optional maximal einen Teil von etwa 30%, optional maximal einen Teil von etwa 20%, optional maximal einen Teil von etwa 10%.
    • In Beispiel 36p kann der Gegenstand eines der Beispiele 24p bis 35p optional umfassen, dass sich das eine oder die mehreren Sensorpixel des Sensors zu mindestens etwa 50% entlang der lichtabsorbierenden Oberfläche des Trägers in einer Richtung im Wesentlichen senkrecht zu einer Lichtstrahlabtastrichtung des LIDAR-Sensorsystems erstrecken, optional mindestens etwa 60%, optional mindestens etwa 70%, optional mindestens etwa 75%, optional mindestens etwa 80%.
    • In Beispiel 37p kann der Gegenstand eines der Beispiele 24p bis 36p optional umfassen, dass der Sensor eine Vielzahl von Sensorpixeln aufweist, die unabhängig voneinander beweglich sind.
    • In Beispiel 38p kann der Gegenstand von Beispiel 37p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die Sensorpixel der Vielzahl von Sensorpixeln steuert, die mit der gleichen Frequenz bewegt werden sollen.
    • In Beispiel 39p kann der Gegenstand von Beispiel 37p optional umfassen, dass der Sensor-Controller so konfiguriert ist, dass er die Sensorpixel der Vielzahl von Sensorpixeln steuert, die mit unterschiedlichen Frequenzen bewegt werden sollen.
    • In Beispiel 40p kann der Gegenstand eines der Beispiele 24p bis 39p optional umfassen, dass die Sensorvorrichtung zusätzlich einen oder mehrere Piezoaktoren aufweist, die so konfiguriert sind, dass sie einen oder mehrere Sensorpixel des Sensors bewegen.
    • In Beispiel 41p kann der Gegenstand eines der Beispiele 24p bis 40p optional umfassen, dass der Träger zusätzlich eine lichtreflektierende Oberfläche aufweist. Die lichtreflektierende Oberfläche kann eine Breite im Bereich von etwa 0,25 mm bis etwa 1 mm und eine Länge im Bereich von etwa 10 mm bis etwa 20 mm haben.
    • In Beispiel 42p kann der Gegenstand eines der Beispiele 24p bis 41p optional umfassen, dass der Träger einen Trägerkörper und eine lichtabsorbierende Schicht über dem Trägerkörper aufweist, die die lichtabsorbierende Oberfläche bildet.
    • In Beispiel 43p kann der Gegenstand eines der Beispiele 24p bis 42p optional umfassen, dass der Träger einen Trägerkörper aus einem lichtabsorbierenden Material aufweist, dessen Oberfläche die lichtabsorbierende Oberfläche bildet.
    • In Beispiel 44p kann der Gegenstand eines der Beispiele 24p bis 43p optional umfassen, dass der vordefinierte Wellenlängenbereich der Infrarot-Wellenlängenbereich ist.
    • In Beispiel 45p kann der Gegenstand von Beispiel 44p optional umfassen, dass der Infrarot-Wellenlängenbereich ein Wellenlängenbereich von etwa 860 nm bis etwa 2000 nm ist.
    • Beispiel 46 ist ein LIDAR-Sensorsystem, das Folgendes umfasst: ein optisches Bauelement gemäß einem der Beispiele 1p bis 23p oder ein Sensorbauelement gemäß einem der Beispiele 24p bis 45p; und eine optische Empfängeranordnung, um empfangenes Licht auf das optische Bauelement oder auf das Sensorbauelement zu kollimieren.
    • In Beispiel 47p kann der Gegenstand von Beispiel 46p optional umfassen, dass das LIDAR-Sensorsystem zusätzlich eine Lichtquelle aufweist, die zur Erzeugung des Lichtstrahls konfiguriert ist.
    • In Beispiel 48p kann der Gegenstand von Beispiel 47p optional umfassen, dass die Lichtquelle als Laserlichtquelle konfiguriert ist.
    • In Beispiel 49p kann der Gegenstand eines der Beispiele 47p oder 48p optional umfassen, dass die Lichtquelle so konfiguriert ist, dass sie eine Vielzahl von Lichtpulsen als Lichtstrahl erzeugt.
    • In Beispiel 50p kann der Gegenstand eines der Beispiele 47p bis 49p optional umfassen, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
  • In einem konventionellen LIDAR-System kann die Lichtdetektion auf einem klassischen optischen Konzept basieren. Das Sichtfeld des LIDAR-Systems kann mittels dicker Linsen auf eine Sensorfläche (z.B. auf eine ebene Fotodetektor-Sensorfläche) abgebildet werden. Bei den Linsen kann es sich um optische Flächen handeln, die eine erhebliche Komplexität erfordern, um Aberrationen und andere unerwünschte optische Effekte auf der Sensoroberfläche zu entfernen. Zusätzlich können aufgrund des ungünstigen Seitenverhältnisses der in einem LIDAR-System üblicherweise verwendeten Sensorarrays komplexe und teure optische Systeme mit mehreren Linsen erforderlich sein. Beispielsweise kann ein konventionelles optisches System (z.B. eine konventionelle Korrektionsoptik) typischerweise 4 bis 8 (z.B. dicke) Linsen umfassen. Ein gekrümmter Sensor kann eine mögliche Lösung zur Reduzierung oder Beseitigung optischer Aberrationen sein. Ein gekrümmter Sensor kann jedoch aufgrund der Beschränkungen des Herstellungsprozesses (z.B. des lithografischen Herstellungsprozesses) äußerst kompliziert oder fast unmöglich mit zufriedenstellender Qualität und Produktionserträgen hergestellt werden.
  • Im Idealfall sollte in einem konventionellen LIDAR-System (z.B. in einem scannenden LIDAR-System), bei dem eine vertikale Laserlinie zur Abtastung der Szene (z.B. zur Abtastung des Sichtfeldes des LIDAR-Systems) ausgesendet wird, nur eine bestimmte vertikale Linie auf dem Sensor erkannt werden. Die vertikale Linie auf dem Sensor kann durch die Reflexion des ausgestrahlten Lichts (z.B. der ausgestrahlten Lichtpulse) von Objekten innerhalb des Sichtfeldes erzeugt werden. Zur Veranschaulichung: Es sollte nur ein relevanter Teil des Sensors aktiviert werden (z.B. die Zeile oder Spalte der Sensorpixel, auf die das zu detektierende Licht auftrifft). Ein herkömmlicher Sensor, der z.B. eine oder mehrere Lawinenfotodioden aufweist, kann jedoch entweder vollständig aktiviert oder vollständig deaktiviert sein (z.B. können alle Sensorpixel aktiviert oder kein Sensorpixel aktiviert sein). Folglich können bei der Detektion des LIDAR-Lichts auch Streu- und Hintergrundlicht gesammelt werden und auf den Sensor auftreffen. Dies kann zur Erzeugung eines Rauschsignals und zu einem niedrigeren SNR führen.
  • Darüber hinaus kann in einem konventionellen LIDAR-System die Intensität des gesammelten Lichts typischerweise sehr gering sein. Daher kann eine Verstärkung des gesammelten Lichts erforderlich sein. Die Verstärkung kann elektrisch im Sensor und elektronisch mit einem oder mehreren Verstärkern (z.B. einem oder mehreren Analogverstärkern) erfolgen. Dies kann jedoch dazu führen, dass ein erhebliches Maß an Rauschen in das Signal eingebracht wird, was zu einer Verschlechterung der Messung führen kann.
  • Verschiedene Aspekte der vorliegenden Anwendung können darauf ausgerichtet sein, die Unzulänglichkeiten des/der LIDAR-Detektionskanäle(s) zu verbessern oder wesentlich zu beseitigen. Der (die) Detektionskanal(e) kann (können) auch als Empfängerpfad(e) bezeichnet werden. In verschiedenen Ausführungsformen können ein oder mehrere Elemente in einem LIDAR-System (z.B. im Empfangspfad eines LIDAR-Systems) vorhanden sein und so konfiguriert werden, dass optische Aberrationen und andere unerwünschte optische Effekte reduziert oder wesentlich eliminiert werden können. In verschiedenen Ausführungsformen können ein oder mehrere Elemente vorgesehen werden, die eine Vereinfachung der Empfängeroptik (z.B. einer Empfängeroptik-Anordnung) des LIDAR-Systems ermöglichen, z.B. kann als Empfängeroptik ein einfaches und kostengünstiges Linsensystem vorgesehen werden. Es können ein oder mehrere Elemente vorgesehen werden, die eine Reduzierung des Rauschens (z.B. des Rauschsignals) bei der Detektion von LIDAR-Licht ermöglichen. Der Empfängerpfad des LIDAR-Systems kann dadurch verbessert werden.
  • Das LIDAR-System kann ein scannendes LIDAR-System sein (z.B. ein 1D-Strahl-Scan-LIDAR-System oder ein 2D-Strahl-Scan-LIDAR-System). Das emittierte Licht (z.B. ein emittierter Laserpunkt oder eine emittierte Laserlinie, wie z.B. eine vertikale Laserlinie) kann über das Sichtfeld des LIDAR-Systems gescannt werden. Das Sichtfeld kann ein zweidimensionales Sichtfeld sein. Das emittierte Licht kann entlang einer ersten (z.B. horizontalen) Richtung und/oder entlang einer zweiten (z.B. vertikalen) Richtung über das Sichtfeld gescannt werden. Das LIDAR-System kann auch ein Blitz-LIDAR-System sein.
  • Das Lichterkennungsprinzip kann auf einem Time-of-flight-(Flugzeit)-Prinzip basieren. Dabei können ein oder mehrere Lichtpulse (z.B. ein oder mehrere Laserpulse, z.B. kurze Laserpulse) ausgesendet und ein entsprechendes Echosignal (z.B. LIDAR-Echosignal) detektiert werden. Illustrativ kann das Echosignal als Licht verstanden werden, das von Objekten, auf die das emittierte Licht auftrifft, zum LIDAR-System zurückreflektiert wird. Das Echosignal kann durch eine elektronische Schaltung digitalisiert werden. Die elektronische Schaltung kann einen oder mehrere Verstärker (z.B. einen Analogverstärker, wie z.B. einen Transimpedanzverstärker) und/oder einen oder mehrere Wandler (z.B. einen Analog-Digital-Wandler, einen Time-Digital-Wandler und dergleichen) aufweisen. Alternativ kann das Detektionsprinzip des LIDAR-Systems auf einer kontinuierlichen Welle (z.B. einer frequenzmodulierten kontinuierlichen Welle) basieren.
  • Verschiedene Ausführungsformen können auf der Bereitstellung mindestens einer Wellenleiterkomponente zur Verwendung in einem LIDAR-System basieren. Die wellenleitende Komponente kann zwischen einer Anordnung der Empfängeroptik und einer Sensoranordnung (z.B. einem oder mehreren Sensoren) des LIDAR-Systems angeordnet werden. Die wellenleitende Komponente kann so konfiguriert werden, dass sie das von der optischen Empfängeranordnung empfangene Licht zur Sensoranordnung (z.B. zu einem Sensor, z.B. zu einem oder mehreren Sensorpixeln eines oder mehrerer Sensoren) leitet (mit anderen Worten: transportiert). Zur Veranschaulichung: Das aus dem Sichtfeld kommende Licht kann mit Hilfe der Wellenleiterkomponente erfasst (z.B. empfangen) werden, anstatt direkt auf den/die Sensor(en) abgebildet zu werden. Die wellenleitende Komponente kann eine oder mehrere wellenleitende Komponenten aufweisen (z.B. ein oder mehrere lichtleitende Elemente). Die wellenleitende Komponente kann eine wellenleitende Komponente (z.B. ein lichtleitendes Element) oder eine Mehrzahl von wellenleitenden Komponenten (z.B. eine Mehrzahl von lichtleitenden Elementen) sein oder aufweisen. Als Beispiel kann die wellenleitende Komponente einen oder mehrere (z.B. optische) Wellenleiter umfassen (z.B. einen oder mehrere Wellenleiter, wie Kanalwellenleiter oder planare Wellenleiter, die in einem Chip angeordnet oder integriert sind, z.B. in und/oder auf einem Block oder einem Substrat). Als weiteres Beispiel kann die wellenleitende Komponente eine oder mehrere optische Fasern aufweisen (z.B. photonische Fasern, photonische Kristallfasern usw.). Die wellenleitende Komponente kann auch eine Kombination von wellenleitenden Komponenten verschiedener Typen umfassen.
  • Die wellenleitende Komponente kann einen ersten und einen zweiten Teil umfassen. Der erste Teil kann so konfiguriert werden, dass er Licht von der optischen Empfängeranordnung empfängt. Der zweite Teil kann so konfiguriert werden, dass er das empfangene Licht zur Sensoranordnung leitet. Der erste Teil kann eine erste Art von wellenleitender Komponente aufweisen (z.B. eine oder mehrere optische Fasern, einen monolithischen Wellenleiterblock, einen oder mehrere Kanalwellenleiter oder ähnliches). Der zweite Teil kann eine zweite Art von wellenleitender Komponente aufweisen. Der zweite Teil kann so konfiguriert sein, dass er Licht aus dem ersten Teil empfängt (z.B. können die wellenleitenden Komponenten des zweiten Teils mit den wellenleitenden Komponenten des ersten Teils gekoppelt sein). Der erste Typ von wellenleitenden Komponenten kann derselbe wie der zweite Typ von wellenleitenden Komponenten sein. Alternativ kann sich der erste Typ von wellenleitenden Komponenten von dem zweiten Typ von wellenleitenden Komponenten unterscheiden.
  • Zum Beispiel kann die wellenleitende Komponente eine oder mehrere optische Fasern aufweisen. Die wellenleitende Komponente kann eine Vielzahl von optischen Fasern aufweisen. Die Mehrzahl von Lichtleitfasern kann in einem Faserbündel oder in einer Mehrzahl von Faserbündeln gruppiert sein. Das Sichtfeld kann auf die Oberfläche eines oder mehrerer Faserenden abgebildet werden (z.B. auf den jeweiligen Eingangsport einer oder mehrerer optischer Fasern). Zur Veranschaulichung können eine oder mehrere Lichtleitfasern und/oder ein oder mehrere Lichtleitfaserbündel zur Erfassung (z.B. zur Abbildung) des Sichtfeldes vorgesehen werden. Eine Lichtleitfaser kann so konfiguriert werden, dass sie Licht auf beliebige Weise leitet (z.B. kann die Form und der Umriss einer Lichtleitfaser auf beliebige Weise ausgewählt werden). Eine Lichtleitfaser kann an ihrem Ende (z.B. an ihrem Ausgangsanschluss) einen Auskoppelbereich aufweisen. Der Auskopplungsbereich kann so konfiguriert werden, dass er das Licht von der optischen Faser auf einen entsprechenden Sensor (z.B. auf ein entsprechendes Sensorpixel) bringt. Die Auskopplungsregion kann auf den jeweiligen Sensor (z.B. auf das jeweilige Sensorpixel) ausgerichtet werden, um einen effizienten (z.B. verlustfreien oder verlustminimierten) Lichttransfer zu ermöglichen. Um die Lichtverluste weiter zu reduzieren oder zu minimieren, kann z.B. anstelle eines rechteckigen Sensorpixels ein rundes Sensorpixel (z.B. ein Pixel mit kreisförmiger Oberfläche) vorgesehen werden. Ein rundes Sensorpixel kann einem optischen Modus der ihm zugeordneten optischen Faser entsprechen.
  • Als Beispiel kann die Wellenleiterkomponente einen oder mehrere Wellenleiter (z.B. Kanalwellenleiter) umfassen. Der eine oder die mehreren Wellenleiter können so konfiguriert werden, dass sie Licht aus dem Sichtfeld (z.B. von der Empfängeroptik) sammeln. Der eine oder die mehreren Wellenleiter können zusätzlich oder alternativ zu dem einen oder den mehreren Lichtwellenleitern vorgesehen werden. Der eine oder die mehreren Wellenleiter können durch ein lithographisches Verfahren (z.B. Ätzen und/oder Abscheidung) hergestellt werden. Der eine oder die mehreren Wellenleiter können auf einem Chip angeordnet oder (z.B. monolithisch) in und/oder auf einem Chip integriert sein. Der eine oder die mehreren Wellenleiter können z.B. in einem Block, z.B. einem monolithischen Wellenleiterblock, integriert sein. Als weiteres Beispiel können der eine oder die mehreren Wellenleiter auf einem Substrat (z.B. einem Siliziumsubstrat, wie einem Siliziumwafer, einem Titanoxidsubstrat, einem Siliziumnitridsubstrat oder ähnlichem) angeordnet oder in und/oder auf einem Substrat integriert sein. Zur Veranschaulichung: Der monolithische Wellenleiterblock kann einen Wellenleiterchip aufweisen. Der eine oder die mehreren Wellenleiter können entlang des Substrats angeordnet sein (z.B. können sie sich in einer Richtung im wesentlichen parallel zur Oberfläche des Substrats, z.B. der Oberfläche des Chips, erstrecken). Der eine oder die mehreren Wellenleiter können eine Dicke (z.B. eine flache Dicke) im Bereich von etwa 50 nm bis etwa 10 µm haben, z.B. von etwa 100 nm bis etwa 5 m. Der eine oder die mehreren Wellenleiter können eine Breite haben, die größer ist als die jeweilige Dicke.
  • Ein (z.B. photonischer) Chip-Ansatz kann kompakt sein und einen hohen Integrationsgrad bieten. Dies kann auch die Möglichkeit bieten, den Chip mit einem komplementären Metalloxid-Halbleiter-(CMOS-)Sensor und/oder mit einem Avalanche-Fotodioden-Fotodetektor zu kombinieren. Der eine oder mehrere Wellenleiter können innerhalb des Chips (z.B. innerhalb des Blocks oder innerhalb des Substrats) an verschiedene Stellen auf dem Chip geführt werden. Zum Beispiel kann ein Wellenleiter so konfiguriert (z.B. angeordnet) werden, dass er Licht zu einem entsprechenden Sensor (z.B. einem entsprechenden Sensorpixel) transportiert. Als weiteres Beispiel kann ein Wellenleiter so konfiguriert (z.B. angeordnet) werden, dass er Licht zu einem Detektionsbereich (z.B. einem Detektorbereich) des Chips transportiert. Ein weiteres Beispiel: Ein Wellenleiter kann so konfiguriert sein, dass er Licht zu einer oder mehreren optischen Fasern transportiert. Licht kann in eine oder mehrere optische Fasern (z.B. extern oder nicht in das Substrat integriert) eingekoppelt (z.B. ausgekoppelt) werden. Zur Veranschaulichung: Der Chip kann so konfiguriert werden, dass er das Sammeln von Licht an oder durch die Seite (z.B. die Seitenfläche) des Chips ermöglicht. Das Licht kann durch direkte Kopplung von Faserende zu Wellenleiter gesammelt werden (z.B. kann das Licht direkt in eine optische Faser fokussiert werden). Der Chip kann auch so konfiguriert werden, dass er dynamische Schaltmöglichkeiten bietet und somit komplexe Funktionalitäten ermöglicht.
  • Der Einsatz von Lichtleitfasern und/oder photonischer Chiptechnologie zusätzlich oder alternativ zu konventioneller Optik im Empfangspfad eines LIDAR-Systems kann in mehrfacher Hinsicht vorteilhaft sein. Beispielsweise kann die Anordnung der Empfängeroptik vereinfacht und damit kostengünstiger als bei einem konventionellen LIDAR-System sein. Als weiteres Beispiel können die Größe und die Kosten des Sensors (z.B. eines Fotodetektors) reduziert werden. Als weiteres Beispiel kann das Hintergrundlicht (z.B. solares Hintergrundlicht) reduziert werden. Ein weiteres Beispiel ist die Verstärkung des detektierten Lichts auf einfache Art und Weise (z.B. durch Infiber bzw. In-Faser). Als weiteres Beispiel kann das Licht auf flexible Weise geleitet werden (z.B. entlang einer gekrümmten und/oder schleifenförmigen Bahn). Als ein weiteres Beispiel kann das Signal-Rausch-Verhältnis erhöht werden. Als weiteres Beispiel kann die Reichweite (z.B. der Erfassungsbereich) des Sensors erhöht werden.
  • In verschiedenen Ausführungsformen kann einem Sensorpixel eine Wellenleiterkomponente zugeordnet sein (z.B. kann ein Sensorpixel so konfiguriert sein, dass es das von einer Wellenleiterkomponente erfasste Licht empfängt). Zusätzlich oder alternativ kann einem Sensorpixel auch mehr als eine wellenleitende Komponente zugeordnet sein. Zur Veranschaulichung: Eine oder mehrere Wellenleiterkomponenten können jeweils einem Sensorpixel zugeordnet werden. Die Zuordnung von mehr als einer wellenleitenden Komponente zu einem Sensorpixel kann parallele Messungen auf (oder mit) dem Sensorpixel ermöglichen, wie z.B. Korrelationsmessungen oder Rauschbestimmungsmessungen. Einem Sensorpixel kann beispielsweise eine Lichtleitfaser zugeordnet sein. Als weiteres Beispiel kann einem Sensorpixel ein Lichtleitfaserbündel zugeordnet sein (z.B. kann ein Sensorpixel so konfiguriert sein, dass es das vom Faserbündel erfasste Licht empfängt). Das eingefangene Licht kann in die optischen Fasern des Faserbündels verteilt werden.
  • Eine Wellenleiterkomponente kann so konfiguriert werden, dass sie Licht auf beliebige Weise leitet. Eine wellenleitende Komponente kann so konfiguriert werden, dass sie Licht entlang eines geraden Pfades (z.B. einer geraden Linie) transportiert. Zusätzlich oder alternativ kann eine wellenleitende Komponente so konfiguriert werden, dass sie Licht entlang eines gewundenen oder mäandernden Pfades (z.B. entlang eines gekrümmten und/oder schleifenförmigen Pfades) transportiert. Als Beispiel kann eine optische Faser so konfiguriert werden, dass sie gebogen oder gekrümmt ist. Als weiteres Beispiel kann ein Kanalwellenleiter so konfiguriert sein, dass er eine oder mehrere Biegungen aufweist. Zusätzlich oder alternativ kann ein Kanalwellenleiter in und/oder auf einem flexiblen Substrat angeordnet sein. Auf diese Weise kann eine ungleichmäßige oder nicht planare Führung (z.B. des Lichts) vorgesehen werden. Dies kann Flexibilität bei der Anordnung des Sensors (der Sensoren) bieten (z.B. bei der Anordnung der Sensorpixel).
  • Die Geometrie des Sensors (der Sensoren) kann frei eingestellt oder ausgewählt werden, z.B. kann der Sensor beliebig geformt und/oder beliebig angeordnet sein. Dies kann den Effekt haben, dass der Sensor im Vergleich zu einem konventionellen LIDAR-System vereinfacht werden kann. Der Sensor kann z.B. eine lineare Anordnung sein (z.B. kann er eine Anordnung von Sensorpixeln aufweisen). Als weiteres Beispiel kann der Sensor eine einzelne Zelle sein. Als ein weiteres Beispiel kann der Sensor ein 2D-Array sein (er kann ein zweidimensionales Array von Sensorpixeln aufweisen). Die Sensoroberfläche kann flach sein (z.B. alle Sensorpixel können in der gleichen Ebene angeordnet sein) oder sie kann in eine Vielzahl von Bereichen aufgeteilt sein (z.B. können die Sensorpixel von der optischen Achse weg angeordnet und/oder orientiert sein, z.B. des Sensors oder des LIDAR-Systems).
  • Die Sensorpixel können getrennt voneinander angeordnet und/oder miteinander verschmolzen werden. Die Sensorpixel können z.B. gedreht (z.B. in verschiedenen Winkeln, z.B. in Bezug auf eine optische Achse des LIDAR-Systems, gekippt) werden. Als weiteres Beispiel können die Sensorpixel gegeneinander verschoben sein (z.B. auf verschiedenen Ebenen angeordnet sein, z.B. in unterschiedlichem Abstand von einer Oberfläche des jeweiligen Sensors). Dies ist möglicherweise nicht möglich, wenn die direkte Abbildung verwendet wird. Dies kann dazu führen, dass weniger Material für die Herstellung des Sensors benötigt wird. Dies kann auch das Übersprechen zwischen zwei (z.B. benachbarten) Sensorpixeln dank der physischen Trennung der Sensorpixel (z.B. der jeweiligen, den Sensorpixeln zugeordneten Fotodetektoren) verringern. Dies kann es auch ermöglichen, Sensorpixel mit einer größeren Sensorfläche (z.B. einer größeren aktiven Fläche der Sensorpixel) zu versehen, was Vorteile in Bezug auf ein verbessertes Signal-Rausch-Verhältnis (SNR) bieten kann.
  • In verschiedenen Ausführungsformen kann die lichtleitende Wirkung (z.B. der Wellenleiteffekt) durch die Totalreflexion im Inneren eines Materials erzielt werden. Eine wellenleitende Komponente kann einen ersten und einen zweiten Bereich umfassen. Der zweite Bereich kann den ersten Bereich zumindest teilweise umgeben. Der erste Bereich kann einen Brechungsindex haben, der größer als der Brechungsindex des ersten Bereichs ist. Die optische(n) Mode(n) kann (können) um die erste Region zentriert sein (z.B. kann die Intensität der optischen Mode(n) in der ersten Region höher sein als in der zweiten Region). Als Beispiel kann eine optische Faser einen Kern (z.B. einen Kern mit hohem Brechungsindex) haben, der von einem Mantel (z.B. einem Mantel mit niedrigem Brechungsindex) umgeben ist. Als weiteres Beispiel kann ein Kanalwellenleiter ein wellenleitendes Material (z.B. einen Kern mit einem Material mit hohem Brechungsindex) aufweisen, das zumindest teilweise von einem Substrat (z.B. einem Material mit niedrigem Brechungsindex) und/oder von Luft umgeben ist. Illustrativ kann das wellenleitende Material in einer Schicht (z.B. einer Substratschicht, z.B. einer Isolierschicht) mit niedrigerem Brechungsindex als das wellenleitende Material vergraben sein (z.B. an mindestens drei oder mehr Seiten umgeben).
  • Das aus dem Sichtfeld auf das LIDAR-System auftreffende Licht kann so angepasst oder umgewandelt werden, dass es effizient an die optische(n) Mode(n) der wellenleitenden Komponente(n) angepasst wird (z.B. an die optische(n) Mode(n), die in der(den) wellenleitenden Komponente(n) transportiert werden können). Das LIDAR-System kann Sammeloptiken (z.B. ein oder mehrere Lichtübertragungselemente) aufweisen, die so konfiguriert sind, dass sie Licht (z.B. verlustfrei oder mit reduzierten Verlusten) aus dem Sichtfeld (z.B. von der Empfängeroptik) effizient in eine wellenleitende Komponente (z.B. in den Kern einer wellenleitenden Komponente) übertragen. Die Sammeloptik kann so konfiguriert werden, dass sie Licht auf den Kern einer wellenleitenden Komponente fokussiert.
  • Als Beispiel kann das LIDAR-System (z.B. die Wellenleiterkomponente) eine Linse (z.B. eine Mikrolinse) aufweisen, die vor dem Eingangsport einer optischen Faser angeordnet ist. Zusätzlich oder alternativ kann eine Spitze einer optischen Faser (z.B. der Teil, der der Empfängeroptik zugewandt ist) so konfiguriert werden, dass sie das auf die Faser auftreffende Licht in den Kern fokussiert (z.B. kann die Spitze als Linse konfiguriert werden, z.B. kann die Spitze in eine Linse eingeschmolzen werden).
  • Als Beispiel kann das LIDAR-System (z.B. die Wellenleiterkomponente) eine Koppelstruktur (z.B. einen Gitterkoppler, wie z.B. einen vertikalen Gitterkoppler) aufweisen. Die Koppelstruktur kann so konfiguriert werden, dass sie einen Lichtfleck/Lichtspot (z.B. einen großen Brennfleck, z.B. von Licht, das von der Empfängeroptik auf die Koppelstruktur fokussiert wird) in einen eingeschlossenen optischen Modus (z.B. in einen eingeschlossenen Wellenleiter-Modus) umwandelt. Die Kopplungsstruktur kann so konfiguriert werden, dass der eingeschränkte optische Modus auf einen (z.B. Kanal-) Wellenleiter gerichtet wird. Eine Koppelstruktur kann besonders gut für den Einsatz in einem LIDAR-System geeignet sein, da typischerweise nur eine einzige Wellenlänge detektiert werden kann (z.B. kann es möglich sein, eine Gitterstruktur, z.B. ihre Geometrie, basierend auf der zu detektierenden Wellenlänge, z.B. 905 nm, zu konfigurieren).
  • Zur Veranschaulichung: Eine oder mehrere Kopplungsstrukturen können in und/oder auf einem Chip mit einem oder mehreren Wellenleitern angeordnet oder integriert sein. Die eine oder mehrere Kopplungsstrukturen können in und/oder auf einem Substrat hergestellt oder integriert werden. Als Beispiel können die eine oder mehrere Kopplungsstrukturen auf der Oberfläche eines Substrats (z.B. eines Siliziumsubstrats) integriert sein. Die eine oder mehrere Kopplungsstrukturen können ein gewelltes Muster aufweisen (z.B. ein Gitter). Jedes gewellte Muster kann so konfiguriert sein (z.B. können seine Eigenschaften, wie z.B. seine Geometrie, angepasst werden), dass einfallendes Licht in einen entsprechenden Wellenleiter gebeugt wird (z.B. um Licht zu empfangen und in einen entsprechenden Wellenleiter zu lenken). Die Eigenschaften eines Gitters können auf der Grundlage der Eigenschaften des einfallenden Lichts ausgewählt werden (z.B. nach der Gittergleichung). So kann z.B. die Teilung des Gitters etwa die Hälfte der Wellenlänge des einfallenden Lichts betragen. Der eine oder die mehreren Wellenleiter können in einem Winkel (z.B. in einem geneigten oder vertikalen Winkel) in Bezug auf den Einfallswinkel angeordnet sein. Zur Veranschaulichung: Der eine oder die mehreren Wellenleiter können sich entlang einer Richtung erstrecken, die in Bezug auf die Richtung des auf den Chip auftreffenden Lichts geneigt ist (z.B. auf die eine oder die mehreren Koppelstrukturen).
  • In verschiedenen Ausführungsformen kann die Empfängeroptik des LIDAR-Systems so konfiguriert werden, dass sie eine gekrümmte Brennebene hat (z.B. zur Fokussierung des gesammelten Lichts in eine gekrümmte Brennebene). Die Fokalebene kann sphärisch gekrümmt sein. Als Beispiel kann die Empfängeroptik als Kugellinse (oder als Zylinderlinse, sphärische Linse, asphärische Linse, ellipsoidische Linse o.ä.) ausgeführt oder konfiguriert sein. Die Wellenleiterkomponente kann entlang der Brennebene (oder einem Teil der Brennebene) der Empfängeroptik angeordnet sein. Die wellenleitende Komponente kann entlang einer gekrümmten Oberfläche, z.B. der gekrümmten Brennebene, angeordnet sein (z.B. können die Eingangsöffnung(en) der wellenleitenden Komponente(n) entlang einer gekrümmten Oberfläche angeordnet sein). Die wellenleitende(n) Komponente(n) kann (können) auf die (z.B. gekrümmte) Brennebene ausgerichtet sein (z.B. kann (können) der (die) jeweilige(n) Eingang(e) oder Eingangsport(s) in der Brennebene angeordnet sein). Das Sichtfeld kann in eine Vielzahl von (z.B. winkligen) Abschnitten segmentiert werden (z.B. ein Abschnitt für jede Wellenleiterkomponente). Jede wellenleitende Komponente kann Licht aus einem bestimmten Winkelabschnitt (z.B. aus einer bestimmten Richtung) sammeln. Diese Konfiguration kann den Effekt haben, dass Aberrationen (z.B. sphärische Aberrationen) der Sammellinse (z.B. der Kugellinse) durch die Krümmung (z.B. die Anordnung entlang einer gekrümmten Oberfläche) der wellenleitenden Komponente(n) kompensiert werden können.
  • In einer oder mehreren Ausführungsformen kann eine Wellenleiterkomponente so konfiguriert werden, dass sie zusätzliche Funktionalitäten bietet. Eine Wellenleiterkomponente kann ein oder mehrere Segmente (d.h. eine oder mehrere Regionen) aufweisen (oder in diese unterteilt sein). Das eine oder die mehreren Segmente können so konfiguriert werden, dass sie eine gewünschte Funktionalität bieten (z.B. Verstärkung des in der Wellenleiterkomponente transportierten Lichts, Ermöglichung der vertikalen Kopplung mit einem Sensorpixel usw.). Illustrativ können passive und/oder aktive photonische Elemente in eine wellenleitende Komponente integriert werden, um die Leistung und/oder die Integration zu verbessern (z.B. kann eine engere Integration zwischen Signal und Sensor erreicht werden).
  • Beispielsweise kann eine wellenleitende Komponente dotiert sein (z.B. kann ein Segment dotiert sein, wie z.B. ein Lichtwellenleitersegment oder ein Kanalwellenleitersegment). Die dotierte wellenleitende Komponente kann für die optische Verstärkung des Signals konfiguriert werden (z.B. kann sie so konfiguriert werden, dass sie das in der wellenleitenden Komponente transportierte Licht verstärkt). Das (die) LIDAR-Echosignal(e) kann (können) von der Empfängeroptik gesammelt und durch die dotierte Wellenleiterkomponente geleitet werden, wo es verstärkt werden kann. Eine dotierte Wellenleiterkomponente kann in ihrem Kern (z.B. innerhalb des Kernmaterials) Seltene Erden-Atome aufweisen. Die zugehörigen atomaren Übergänge können eine Niveaustruktur (z.B. die Energieniveaus) liefern, die den Energieniveaus ähneln, die typischerweise für Laser vorgesehen sind (z.B. für stimulierte Lichtemission). Die Niveaustruktur kann ein stark absorbierendes Pumpband bei kurzen Wellenlängen mit einem schnellen Zerfall in einen laserähnlichen Übergangszustand enthalten. Angeregte Atome können sich über einen langen Zeitraum in diesem Übergangszustand aufhalten, bis ein eintreffendes Photon den Zerfall in einen niedrigeren Zustand, z.B. den Grundzustand, stimuliert. Der/die Dotierstoff(e) kann/können z.B. auf der Grundlage eines Pumplichts (z.B. auf der Wellenlänge des für die Anregung der Dotieratome verwendeten Lichts) und/oder auf der Grundlage eines gewünschten Wellenlängenbandes, innerhalb dessen Licht verstärkt werden kann, ausgewählt werden. Als Beispiel kann Erbium als Dotierstoff verwendet werden. Erbium kann eine starke Absorption von Licht bei einer Wellenlänge von 980 nm aufweisen. Erbium kann auch ein breites Verstärkungsspektrum haben, was beispielsweise zu einem Emissionswellenlängenband von etwa 1400 nm bis etwa 1600 nm führt. Innerhalb dieses Wellenlängenbandes kann das einfallende Licht durch stimulierte Emission vergrößert (z.B. verstärkt) werden. Es können auch andere Dotiermaterialien verwendet werden, die andere Wellenlängenbänder liefern können. Als Beispiel kann Ytterbium eine (z.B. starke) Absorption von Licht bei einer Wellenlänge von 980 nm und eine Verstärkung bei etwa 1000 nm aufweisen.
  • Zur Veranschaulichung kann die Operation wie folgt gesehen werden. Das LIDAR-Licht kann in eine erste wellenleitende Komponente eintreten (z.B. transportiert werden). Ein oder mehrere zusätzliche Eingangsports können vorgesehen werden. Pumpendes Licht kann über die zusätzliche(n) Eingangsöffnung(en) eingeführt werden. Beispielsweise kann mit jedem LIDAR-Lichtpuls (z.B. jedem LIDAR-Laserpuls) ein Pumplichttreiber (z.B. ein Anregungslaser) so konfiguriert werden, dass er blitzt (zur Veranschaulichung, um einen Pumplichtpuls zu emittieren). Das Pumplicht kann in einer zweiten, z.B. pumpenden, wellenleitenden Komponente eingekoppelt (z.B. transportiert) werden. Es können auch ein oder mehrere Kopplungsbereiche vorgesehen werden, um das Pumplicht mit dem Signallicht zu verschmelzen. Beispielsweise kann ein Koppler (z.B. ein Faserkoppler) beide Lichtquellen (z.B. die erste wellenleitende Komponente und die zweite wellenleitende Komponente) zu einer einzigen wellenleitenden Komponente (z.B. einer dritten wellenleitenden Komponente) kombinieren. Die dritte wellenleitende Komponente kann ein dotiertes Segment haben. Das Pumplicht kann so konfiguriert werden, dass es die Dotieratome anregt. Die Lebensdauer dieser angeregten Zustände kann im Vergleich zur Flugzeit des LIDAR-Lichts lang sein (z.B. kann die Lebensdauer einige Millisekunden betragen). Dies kann den Effekt haben, dass das LIDAR-Signal durch die stimulierte Emission der angeregten Atome verstärkt werden kann. Die dritte Wellenleiterkomponente kann so konfiguriert werden, dass sie das verstärkte Signal und das Pumpsignal zum Sensor leitet. Ein Filter (z.B. ein optisches Filter, wie z.B. ein optischer Langpassfilter) kann zwischen dem Ausgangsanschluss der dritten Wellenleiterkomponente und dem Sensor angeordnet werden. Der Filter kann so konfiguriert werden, dass das Pumplicht mit Hilfe des Filters zurückgewiesen (z.B. blockiert, z.B. wegreflektiert) wird. Der Filter kann so konfiguriert werden, dass das verstärkte Signal den Filter passieren kann (und in den Sensor eintritt oder auf den Sensor gelangt).
  • Beispielsweise kann eine wellenleitende Komponente als Gitterkoppler konfiguriert werden (z.B. kann ein Segment als Gitterkoppler konfiguriert werden), wie z.B. ein passiver Gitterkoppler. Die wellenleitende Komponente kann eine gewellte (z.B. äußere) Oberfläche haben (z.B. kann ein Segment einer wellenleitenden Komponente eine gewellte Oberfläche haben). Die gewellte Oberfläche kann zur Auskopplung oder zur Verbindung des wellenleitenden Bauteils mit einem Sensor (z.B. mit einem Sensorpixel) konfiguriert werden. Beispielsweise kann die gewellte Oberfläche einen vertikalen Austritt des geführten Lichts (z.B. des geführten Signals) ermöglichen.
  • In verschiedenen Ausführungsformen kann die wellenleitende Komponente eine erste Mehrzahl von wellenleitenden Komponenten und eine zweite Mehrzahl von wellenleitenden Komponenten umfassen. Das LIDAR-System (z.B. die wellenleitende Komponente) kann Sammeloptiken aufweisen, die so konfiguriert sind, dass sie das vertikale und horizontale Sichtfeld auf die wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten abbilden. Die wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten können sich entlang einer ersten Richtung (z.B. der horizontalen Richtung) erstrecken. Zur Veranschaulichung: Bei den wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten können die Eingangsports in die erste Richtung gerichtet (z.B. ausgerichtet) sein, um Licht zu empfangen. Die wellenleitenden Komponenten der zweiten Vielzahl von wellenleitenden Komponenten können sich entlang einer zweiten Richtung (z.B. der vertikalen Richtung) erstrecken. Die zweite Richtung kann sich von der ersten Richtung unterscheiden (z.B. kann die zweite Richtung im Wesentlichen senkrecht zur ersten Richtung verlaufen). Jede wellenleitende Komponente der ersten Mehrzahl von wellenleitenden Komponenten kann (z.B. in schaltbarer Weise) mit einer wellenleitenden Komponente der zweiten Mehrzahl von wellenleitenden Komponenten gekoppelt sein (z.B. kann sie so konfiguriert sein, dass sie Licht zu einer wellenleitenden Komponente der zweiten Mehrzahl von wellenleitenden Komponenten überträgt). Jede wellenleitende Komponente der zweiten Mehrzahl von wellenleitenden Komponenten kann einen oder mehrere Kopplungsbereiche zur Kopplung mit einer oder mehreren wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten aufweisen. Die wellenleitenden Komponenten der zweiten Mehrzahl von wellenleitenden Komponenten können so konfiguriert werden, dass sie das empfangene Licht zu einem entsprechenden Sensor (z.B. einem entsprechenden Sensorpixel) leiten.
  • Die Kopplungsbereiche können selektiv aktiviert werden (z.B. durch einen oder mehrere Koppler, wie z.B. Hohlleiterkoppler). Das LIDAR-System kann einen Controller aufweisen (z.B. gekoppelt mit der wellenleitende Komponente), der so konfiguriert ist, dass er die Kopplungsbereiche steuert (z.B. zur selektiven Aktivierung oder Deaktivierung eines oder mehrerer der Kopplungsbereiche). Dies kann den Effekt einer selektiven Aktivierung der wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten bewirken. Zur Veranschaulichung: Nur die einem aktiven Kopplungsbereich zugeordneten wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten können Licht zu der jeweils gekoppelten wellenleitenden Komponente der zweiten Mehrzahl von wellenleitenden Komponenten übertragen. Die Aktivierung kann in Übereinstimmung (z.B. synchronisiert) mit der Abtastung des emittierten LIDAR-Lichts (z.B. mit der Abtastung der vertikalen Laserlinie) erfolgen. Dadurch kann der Effekt erzielt werden, dass die wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten, die das LIDAR-Licht empfangen, in die Lage versetzt werden, es auf die jeweils gekoppelte wellenleitende Komponente der zweiten Mehrzahl von wellenleitenden Komponenten zu übertragen. Die wellenleitenden Komponenten der ersten Mehrzahl von wellenleitenden Komponenten, die Licht von anderen (z.B. Rauschen) Quellen empfangen, können daran gehindert werden, es auf die jeweils gekoppelte wellenleitende Komponente der zweiten Mehrzahl von wellenleitenden Komponenten zu übertragen. Dies kann zu einem verbesserten SNR der Detektion führen.
  • Als Beispiel kann die wellenleitende Komponente ein Array von optischen Fasern aufweisen (z.B. ein zweidimensionales Array, z.B. ein zweidimensionales Faserbündel, ein dreidimensionales Array). Das LIDAR-System kann ein Array von Linsen (z.B. Mikrolinsen) aufweisen, die so konfiguriert sind, dass sie das vertikale und horizontale Sichtfeld auf die optischen Fasern abbilden. Die optischen Fasern können entsprechende Eingangsports haben, die in eine erste Richtung gerichtet oder ausgerichtet sind. Die erste Richtung kann eine Richtung parallel zur optischen Achse des LIDAR-Systems sein (z.B. zur optischen Achse der Empfängeroptik). Zur Veranschaulichung: Die optischen Fasern können entsprechende Eingangsports haben, die (z.B. frontal) dem Sichtfeld des LIDAR-Systems zugewandt sind. Die wellenleitende Komponente kann ferner einen oder mehrere Wellenleiter umfassen. Die Wellenleiter können entlang einer zweiten Richtung angeordnet sein. Die zweite Richtung kann senkrecht zur ersten Richtung verlaufen. Jeder Kanalhohlleiter kann einen oder mehrere Kopplungsbereiche aufweisen. Die optischen Fasern können so konfiguriert werden, dass sie das empfangene Signal zu einem entsprechenden (z.B. schaltbaren) Koppelbereich leiten. Der Ausgangsport jeder optischen Faser kann an die jeweilige Koppelregion gekoppelt werden (z.B. mittels eines Kopplers). Eine Lichtwellenleiterleitung (z.B. eine Leitung von Lichtwellenleitern der Anordnung von Lichtwellenleitern) kann selektiv aktiviert werden. Die Aktivierung der Lichtwellenleiter-Strecke kann durch Aktivierung der jeweiligen Koppelregion (z.B. des jeweiligen Kopplers) erfolgen. Der (die) aktivierte(n) Koppler kann (können) so konfiguriert werden, dass das geführte Licht von der optischen Faser zum (z.B. Haupt-)Wellenleiter übertragen wird. Der (die) Wellenleiter kann (können) so konfiguriert werden, dass er (sie) das von den aktiven optischen Fasern empfangene Signal auf ein zugehöriges Sensorpixel (z.B. ein Sensorpixel eines 1D-Sensorarrays) leitet (leiten). Als Beispiel können die Sensorpixel in einer Richtung parallel zu einem vertikalen Sichtfeld des LIDAR-Systems ausgerichtet sein (z.B. kann der Sensor eine Spalte von Sensorpixeln aufweisen). Als weiteres Beispiel können die Sensorpixel in einer Richtung parallel zu einem horizontalen Sichtfeld des LIDAR-Systems ausgerichtet sein (z.B. kann der Sensor eine Reihe von Sensorpixeln umfassen). Die Sensorpixel können aufgrund der Flexibilität der optischen Fasern auch frei angeordnet sein (z.B. nicht in einer arrayähnlichen Struktur). Illustrativ kann das Signal über die Kopplungsregion(en) hinaus auf das dem Wellenleiter zugeordnete Sensorpixel geleitet werden.
  • Das (z.B. optische) Schalten der Koppler kann durch jedes geeignete Mittel erfolgen. Mechanische Schalter oder räumliche optische Schalter können z.B. durch mikromechanische Spiegel (z.B. MEMS-Spiegel) oder optische Richtkoppler (z.B. Mach-Zehnder-Interferometer mit Phasenverzögerungsarmen) realisiert werden. Die mikromechanischen Spiegel können so konfiguriert werden, dass das Signal zwischen den wellenleitenden Komponenten umgeleitet wird. Beispielsweise kann das Signal von einer wellenleitenden Quellkomponente (z.B. einer Lichtleitfaser) auf einen MEMS-Spiegel gerichtet (z.B. kollimiert) werden. Der MEMS-Spiegel kann so konfiguriert werden, dass er das Signal (z.B. den Lichtstrahl) in eine Reihe von Winkeln lenkt. Eine oder mehrere Zielwellenleiterkomponenten (z.B. Zielwellenleiter) können in jedem wählbaren Winkel platziert werden. Das Signal kann in mindestens eine Zielwellenleiterkomponente fokussiert werden. Zur Veranschaulichung: Der Interferenzkopplungsbereich kann mechanisch abgestimmt werden, um die Übertragung einer Mode (z.B. einer optischen Mode) zu erreichen.
  • Als weiteres Beispiel kann ein Interferenzschalter vorgesehen werden. Der Interferenzschalter kann so konfiguriert werden, dass er das Signal zwischen zwei wellenleitenden Komponenten umschaltet (z.B. zwischen einer optischen Faser und einem Wellenleiter). Eine Vielzahl von Schaltern kann in Reihe geschaltet werden, um das Signal zwischen mehr als zwei wellenleitenden Komponenten zu schalten (z.B. zwischen einem Wellenleiter und einer Vielzahl damit verbundener optischer Fasern). Ein Interferenzschalter kann einen ersten Kopplungsbereich aufweisen. In der ersten Kopplungsregion können zwei wellenleitende Komponenten relativ zueinander so angeordnet sein, dass sich die geführten optischen Moden überlappen können (z.B. kann der Abstand zwischen den beiden wellenleitenden Komponenten so sein, dass sich die geführten optischen Moden überlappen können). Die beiden wellenleitenden Komponenten können parallel zueinander angeordnet werden. In dieser Konfiguration können die beiden geführten optischen Moden miteinander interferieren. Die Energie der beiden geführten optischen Moden kann so zwischen den beiden wellenleitenden Komponenten über die Länge des ersten Kopplungsbereichs übertragen werden (z.B. hin und her). Der Energietransfer kann z.B. sinusförmig verlaufen. Der Interferenzschalter kann eine Trennzone aufweisen. Die Trennzone kann neben (z.B. nach) der ersten Kopplungszone angeordnet sein. In der Trennregion können die beiden wellenleitenden Komponenten relativ zueinander so angeordnet werden, dass sich die geführten optischen Moden nicht überlappen (z.B. kann der Abstand zwischen den beiden wellenleitenden Komponenten so vergrößert werden, dass sich die geführten optischen Moden nicht überlappen, z.B. Energie nicht übertragen wird). Der Interferenzschalter kann einen zweiten Kopplungsbereich aufweisen. Die zweite Kopplungsregion kann neben (z.B. nach) der Trennungsregion angeordnet werden. In der zweiten Kopplungsregion können die beiden wellenleitenden Komponenten wieder zusammengebracht werden, z.B. können sie relativ zueinander so angeordnet werden, dass sich die geführten optischen Moden (wieder) überlappen können. In der zweiten Kopplungsregion wird die Mode wieder in die ursprüngliche wellenleitende Komponente übertragen. Der Interferenzschalter kann ein schaltbares Element (z.B. ein thermisches Element) aufweisen, das in der Trennregion (z.B. zwischen der ersten Kopplungsregion und der zweiten Kopplungsregion) angeordnet ist. Das schaltbare Element kann so konfiguriert werden, dass es auf eine der Wellenleiterkomponenten einwirkt, so dass sich die Phase der Mode um einen vordefinierten Betrag verschiebt (z.B. um π). Beispielsweise kann ein thermisches Element eine der Wellenleiterkomponenten erwärmen, so dass sich die Phase der Mode um π verschiebt. Auf diese Weise kann in der zweiten Kopplungsregion eine destruktive Interferenz auftreten, und die Mode kann in der Wellenleiterkomponente verbleiben.
  • Die hier beschriebenen Komponenten können im Vergleich zu einem konventionellen LIDAR-System eine verbesserte Leistung und geringere Kosten bieten. Beispielsweise ermöglicht eine Anordnung von Lichtleitfasern entlang einer sphärisch gekrümmten Brennebene die Verwendung von einfachen und preiswerten sphärischen Linsen. Dies kann auch den Effekt haben, dass die Empfängeroptik für große Aperturen optimiert werden kann, wodurch eine hohe Lichtsammeleffizienz erreicht wird. Zusätzlich können die hier beschriebenen Komponenten die Detektionsfähigkeit der LIDAR-Echosignale verbessern. Die hier beschriebenen Komponenten können dem System auch zusätzliche Flexibilität verleihen. Als Beispiel können separate Sensoren oder trennbare Sensorpixel vorgesehen werden. Dies kann eine bessere Ausbeute im Vergleich zu einem einzelnen großen Sensor und ein besseres Seitenverhältnis der Sensorpixel (z.B. von Lawinenfotodiodenpixeln) bieten. Darüber hinaus kann die Anordnung der Sensorpixel willkürlich gewählt werden. So können z.B. beliebig große Lücken oder Abstände zwischen den Sensorpixeln vorgesehen werden (z.B. sowohl in horizontaler als auch in vertikaler Richtung). Der hier beschriebene Ansatz kann auch die Kombination mit Telekommunikationstechnik ermöglichen, wie z.B. Lichtverstärkung und Lichtführung. Dadurch kann die Leistung eines LIDAR-Systems verbessert werden, z.B. durch einen erhöhten Erfassungsbereich und reduziertes Hintergrundlicht. Die Implementierung einfacherer Empfängeroptiken und trennbarer Sensoren kann ebenfalls die Kosten des LIDAR-Systems senken. Die hier beschriebenen Komponenten können miteinander kombiniert oder separat in ein LIDAR-System (z.B. in ein LIDAR-Gerät) integriert werden.
  • 108 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit einer wellenleitenden Komponente 10802 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 10800 kann als LIDAR-Scansystem konfiguriert werden. Als Beispiel kann das LIDAR-System 10800 als LIDAR-Sensorsystem 10 konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Das LIDAR-System 10800 kann einen Emitterpfad aufweisen, z.B. eine oder mehrere Komponenten des Systems, die so konfiguriert sind, dass sie (z.B. LIDAR) Licht aussenden (z.B. eine Lichtquelle 42, eine Strahllenkungseinheit und ähnliches). Das LIDAR-System 10800 kann einen Empfängerpfad aufweisen, z.B. eine oder mehrere Komponenten, die so konfiguriert sind, dass sie Licht empfangen (z.B. reflektiert von Objekten in der Umgebung oder vor dem LIDAR-System 10800). Aus Gründen der Übersichtlichkeit der Darstellung ist in 108 nur ein Teil des LIDAR-Systems 10800 dargestellt, z.B. nur ein Teil des Empfängerpfades des LIDAR-Systems 10800. Der dargestellte Teil kann als zweites LIDAR-Sensorsystem 50 konfiguriert werden.
  • Das LIDAR-System 10800 kann eine Empfängeroptikanordnung 10804 (auch als Optikanordnung bezeichnet) aufweisen. Die Empfängeroptikanordnung 10804 kann so konfiguriert werden, dass sie Licht aus der Umgebung oder vor dem LIDAR-System 10800 empfängt (z.B. sammelt). Die Empfängeroptikanordnung 10804 kann so konfiguriert werden, dass sie das gesammelte Licht auf eine Brennebene der Empfängeroptikanordnung 10804 lenkt oder fokussiert. Die Empfängeroptikanordnung 10804 kann eine oder mehrere optische Komponenten aufweisen, die so konfiguriert sind, dass sie Licht empfangen und auf eine Brennebene der Empfängeroptikanordnung 10804 fokussieren oder kollimieren. Als Beispiel kann die Empfängeroptikanordnung 10804 eine Kondensoroptik (z.B. einen Kondensor) aufweisen. Als weiteres Beispiel kann die Empfängeroptikanordnung 10804 eine Zylinderlinse aufweisen. Ein weiteres Beispiel: Die Empfängeroptikanordnung 10804 kann eine Kugellinse aufweisen.
  • Die Empfängeroptikanordnung 10804 kann ein Sichtfeld 10806 der Empfängeroptikanordnung 10804 haben oder definieren. Das Sichtfeld 10806 der Empfängeroptikanordnung 10804 kann mit dem Sichtfeld des LIDAR-Systems 10800 zusammenfallen. Das Sichtfeld 10806 kann einen Bereich (oder einen Raumwinkel) definieren oder darstellen, durch den (oder von dem) die Empfängeroptikanordnung 10804 Licht empfangen kann (z.B. einen Bereich, der durch die Empfängeroptikanordnung 10804 sichtbar ist).
  • Zur Veranschaulichung: Licht (z.B. LIDAR-Licht), das vom LIDAR-System 10800 emittiert wird, kann von einem oder mehreren (z.B. systemexternen) Objekten, die sich im Sichtfeld 10806 befinden, reflektiert werden (z.B. zurück zum LIDAR-System 10800). Die Empfängeroptikanordnung 10804 kann so konfiguriert werden, dass sie das reflektierte ausgestrahlte Licht (z.B. das reflektierte LIDAR-Licht) empfängt und das empfangene Licht auf die wellenleitende Komponente 10802 abbildet (z.B. um das empfangene Licht in Richtung der wellenleitenden Komponente 10802 zu kollimieren).
  • Die wellenleitende Komponente 10802 kann hinter der Empfängeroptikanordnung 10804 angeordnet sein (z.B. in Bezug auf die Richtung des auf die Empfängeroptikanordnung 10804 auftreffenden Lichts). Die wellenleitende Komponente 10802 kann vor einem Sensor 52 des LIDAR-Systems 10800 angeordnet werden. Die wellenleitende Komponente 10802 kann z.B. zwischen der optischen Empfängeroptikanordnung 10804 und dem Sensor 52 angeordnet werden.
  • Die wellenleitende Komponente 10802 kann so konfiguriert (z.B. angeordnet und/oder orientiert) werden, dass sie Licht von der Empfängeroptikanordnung 10804 empfängt. Die wellenleitende Komponente 10802 kann so konfiguriert werden (z.B. angeordnet und/oder orientiert), dass sie das von der Empfängeroptikanordnung 10804 empfangene Licht zum Sensor 52 leitet (z.B. zu einem oder mehreren Sensorpixeln 10808 des Sensors 52). Das LIDAR-System 10800 kann mindestens eine wellenleitende Komponente 10802 aufweisen. Das LIDAR-System 10800 kann auch eine Vielzahl von wellenleitenden Komponenten 10802 aufweisen (z.B. kann die wellenleitende Komponente 10802 eine Vielzahl von wellenleitenden Komponenten 10802 aufweisen). Zum Beispiel kann jede wellenleitende Komponente 10802 aus der Vielzahl der wellenleitenden Komponenten 10802 so konfiguriert werden, dass sie das von der Empfängeroptikanordnung 10804 empfangene Licht zu einem entsprechenden Sensor 52 (oder einem entsprechenden Sensorpixel 10808) leitet, der der wellenleitenden Komponente 10802 zugeordnet ist.
  • Der Sensor 52 kann einen oder mehrere Sensorpixel 10808 aufweisen (z.B. kann er eine Vielzahl von Sensorpixeln 10808 aufweisen). Die Sensorpixel 10808 können so konfiguriert werden, dass sie ein Signal (z.B. ein elektrisches Signal, wie z.B. einen Strom) erzeugen, wenn Licht auf das eine oder die mehreren Sensorpixel 10808 auftrifft. Das erzeugte Signal kann proportional zur Lichtmenge sein, die vom Sensor 52 empfangen wird (z.B. die Lichtmenge, die auf die Sensorpixel 10808 eintrifft). Der Sensor 52 kann so konfiguriert werden, dass er in einem vordefinierten Wellenlängenbereich arbeitet (z.B. um ein Signal zu erzeugen, wenn Licht im vordefinierten Wellenlängenbereich auf den Sensor 52 auftrifft), z.B. im Infrarotbereich (z.B. von etwa 860 nm bis etwa 2000 nm, z.B. von etwa 860 nm bis etwa 1000 nm).
  • Zum Beispiel kann der Sensor 52 eine oder mehrere Fotodioden aufweisen. Zur Veranschaulichung: Jedes Sensor-Pixel 10808 kann eine Fotodiode aufweisen (z. B. vom gleichen Typ oder von verschiedenen Typen). Zumindest einige der Fotodioden können PIN-Fotodioden sein (z.B. kann jede Fotodiode eine PIN-Fotodiode sein). Zumindest einige der Fotodioden können auf Lawinenverstärkung basieren (z.B. jede Fotodiode kann auf Lawinenverstärkung basieren). Zum Beispiel können zumindest einige der Fotodioden eine Lawinenfotodiode aufweisen (z.B. kann jede Fotodiode eine Lawinenfotodiode aufweisen). Zumindest einige der Lawinenfotodioden können eine Einzelphotonen-Lawinenfotodiode sein oder aufweisen (z.B. jede Lawinenfotodiode kann eine Einzelphotonen-Lawinenfotodiode sein oder aufweisen). Der Sensor 52 kann ein Silizium-Fotomultiplier mit einer Vielzahl von Sensorpixeln 10808 mit Einzelphotonen-Lawinenfotodioden sein oder derart konfiguriert sein.
  • Zumindest einige der Sensorpixel 10808 können in einem Abstand (z.B. voneinander) angeordnet sein. Der Abstand kann ein Abstand parallel zu einer Sensorfläche 10810 (z.B. eine Hauptfläche des Sensors 52, z.B. die Fläche des Sensors 52, auf die die wellenleitende Komponente 10802 das Licht leitet) und/oder ein Abstand senkrecht zur Sensorfläche 10810 sein. Zur Veranschaulichung: Die Sensorpixel 10808 können versetzt oder getrennt voneinander angeordnet sein.
  • Als Beispiel kann ein erstes Sensorpixel 10808 in einem ersten Abstand d1 von einem zweiten Sensorpixel 10808 angeordnet werden. Der erste Abstand d1 kann senkrecht zur Sensorfläche 10810 stehen. Zur Veranschaulichung: Die Sensorfläche 10810 kann sich in einer Ebene senkrecht zu einer optischen Achse der Empfängeroptikanordnung 10804 erstrecken (die optische Achse kann z.B. in der Richtung 10852 liegen). Der erste Abstand d1 kann parallel zur optischen Achse verlaufen (z.B. kann es ein Abstand sein, der in einer Richtung parallel zur optischen Achse gemessen wird). Als Beispiel kann der erste Abstand d1 ein Mitte-Mitte-Abstand zwischen dem ersten Sensorpixel 10808 und dem zweiten Sensorpixel 10808 sein, gemessen in einer Richtung senkrecht zur Sensoroberfläche 10810 (z.B. in einer Richtung parallel zur optischen Achse). Als ein weiteres Beispiel kann der erste Abstand d1 ein Rand-zu-Rand-Abstand (z.B. ein Abstand oder eine Lücke) zwischen dem ersten Sensorpixel 10808 und dem zweiten Sensorpixel 10808 sein, gemessen in einer Richtung senkrecht zur Sensoroberfläche 10810 (z.B. in einer Richtung parallel zur optischen Achse).
  • Als Beispiel kann ein erstes Sensorpixel 10808 in einem zweiten Abstand d2 von einem zweiten Sensorpixel 10808 angeordnet werden. Der zweite Abstand d2 kann parallel zur Sensorfläche 10810 sein. Veranschaulichend kann der zweite Abstand d2 senkrecht zur optischen Achse der Empfängeroptikanordnung 10804 sein (z.B. kann es ein Abstand sein, der in einer Richtung senkrecht zur optischen Achse gemessen wird). Als Beispiel kann der zweite Abstand d2 ein Mitte-Mitte-Abstand zwischen dem ersten Sensorpixel 10808 und dem zweiten Sensorpixel 10808 sein, gemessen in einer Richtung parallel zur Sensoroberfläche 10810 (z.B. in einer Richtung senkrecht zur optischen Achse). Als weiteres Beispiel kann der zweite Abstand d2 ein Rand-zu-Rand-Abstand (z.B. ein Abstand oder eine Lücke) zwischen dem ersten Sensorpixel 10808 und dem zweiten Sensorpixel 10808 sein, gemessen in einer Richtung parallel zur Sensoroberfläche 10810.
  • Illustrativ kann ein erstes Sensorpixel 10808 in Bezug auf ein zweites Sensorpixel 10808 in einer ersten Richtung (z.B. eine Richtung senkrecht zur Sensorfläche 10810) und/oder in einer zweiten Richtung (z.B. eine Richtung parallel zur Sensorfläche 10810) verschoben sein. Das erste Sensorpixel 10808 kann in Bezug auf das zweite Sensorpixel 10808 diagonal verschoben sein. Der Abstand kann ein diagonaler Abstand sein, z.B. ein Abstand, der entlang einer diagonalen Richtung gemessen wird, z.B. entlang einer Achse (z.B. einer Linie), die durch den Mittelpunkt des ersten Sensorpixels 10808 und den Mittelpunkt des zweiten Sensorpixels 10808 verläuft.
  • Auf andere Weise angegeben, kann ein Sensorpixel 10808 an einem Satz von (z.B. x-y-z- ) Koordinaten angeordnet werden. Ein Sensorpixel 10808 kann eine erste Koordinate in einer ersten Richtung haben (z.B. die Richtung 10852). Ein Sensorpixel 10808 kann eine zweite Koordinate in einer zweiten Richtung haben (z.B. die Richtung 10854, z.B. die horizontale Richtung). Ein Sensorpixel 10808 kann eine dritte Koordinate in einer dritten Richtung haben (z.B. die Richtung 10856, z.B. die vertikale Richtung). Ein erstes Sensorpixel 10808 kann einen ersten Satz von Koordinaten haben. Ein zweites Sensorpixel 10808 kann einen zweiten Koordinatensatz haben. Jede Koordinate des ersten Koordinatensatzes kann sich von der entsprechenden Koordinate des zweiten Koordinatensatzes unterscheiden.
  • Ein Abstand zwischen zwei Sensorpixeln 10808 kann einen Mindestwert haben. Wenn beispielsweise zwei Sensorpixel 10808 voneinander beabstandet sind, können sie mindestens einen Mindestabstand voneinander haben (z.B. einen Mindestabstand parallel und/oder senkrecht zur Sensorfläche 10810). Als weiteres Beispiel kann jedes Sensorpixel 10808 von jedem anderen Sensorpixel 10808 um mindestens einen Mindestabstand beabstandet sein. Der Mindestabstand kann z. B. auf der Grundlage der Größe der Sensorpixel 10808 gewählt werden (z. B. auf der Grundlage einer seitlichen Abmessung der Sensorpixel 10808, wie der Breite oder der Höhe). Der Mindestabstand kann z.B. 5% der Breite eines Sensorpixels 10808 betragen (z.B. 10% der Breite, z.B. 25% der Breite).
  • 109 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit einer oder mehreren Lichtleitfasern 10902 in einer schematischen Darstellung entsprechend verschiedener Ausführungsformen.
  • Die wellenleitende Komponente 10802 kann eine oder mehrere optische Fasern 10902 aufweisen. Mindestens eine optische Faser 10902 (oder jede optische Faser 10902) kann eine Einmoden-Lichtleitfaser sein oder derart konfiguriert sein. Mindestens eine optische Faser 10902 (oder jede optische Faser 10902) kann eine Multimode-Lichtleitfaser sein oder derart konfiguriert werden.
  • Jede optische Faser 10902 kann einen Eingangsport 10902i (auch als Eingang bezeichnet) aufweisen. Der (die) Eingangsport(s) 10902i kann (können) so konfiguriert werden, dass er (sie) Licht empfangen kann (können). Der/die Eingangsport(s) 10902i kann/können z.B. so konfiguriert werden, dass er/sie Licht von der Empfängeroptikanordnung 10804 empfängt/empfangen (z.B. kann/können der/die Eingangsport(s) 10902i der Empfängeroptikanordnung 10804 zugewandt und/oder so ausgerichtet sein, dass er/sie Licht von der Empfängeroptikanordnung 10804 empfängt/empfangen kann/können). Die eine oder mehrere optische Fasern 10902 können so angeordnet werden, dass jeder Eingangsport 10902i im Wesentlichen in der Brennebene der Empfängeroptikanordnung 10804 liegt (z.B. ausgerichtet ist). Zur Veranschaulichung: Die eine oder mehrere optischen Fasern 10902 können so angeordnet werden, dass die Empfängeroptikanordnung 10804 Licht in den/die jeweiligen Kern(e) der einen oder mehreren optischen Fasern 10902 fokussieren oder kollimieren kann. Jede optische Faser 10902 kann einen Ausgangsanschluss 10902o (auch als Ausgang bezeichnet) aufweisen. Der (die) Ausgangsport(s) 10902o kann (können) so konfiguriert werden, dass er (sie) Licht (z.B. ein Signal) ausgibt (ausgeben), z.B. Licht, das von der entsprechenden optischen Faser 10902 transportiert wird.
  • Die eine oder mehrere optische Fasern 10902 können den gleichen Durchmesser haben (z.B. können die jeweiligen Eingangsports 10902i und/oder Ausgangsports 10902o den gleichen Durchmesser haben). Alternativ können die eine oder mehrere optische Fasern 10902 unterschiedliche Durchmesser haben (z.B. können die entsprechenden Eingangsports 10902i und/oder Ausgangsports 10902o einen unterschiedlichen Durchmesser haben). Zum Beispiel kann eine erste optische Faser 10902 einen ersten Durchmesser und eine zweite optische Faser 10902 einen zweiten Durchmesser haben. Der erste Durchmesser kann gleich dem zweiten Durchmesser sein oder sich vom zweiten Durchmesser unterscheiden.
  • Eine optische Faser 10902 kann eine oder mehrere lichttransportierende Fasern aufweisen (z.B. einen oder mehrere lichttransportierende Filamente). Zum Beispiel kann eine optische Faser 10902 als Faserbündel konfiguriert sein, z.B. kann eine optische Faser 10902 eine Vielzahl von lichttransportierenden Fasern aufweisen. Bei den lichttransportierenden Fasern der Vielzahl lichttransportierender Fasern können die jeweiligen Eingangsanschlüsse in die gleiche Richtung ausgerichtet sein (z.B. können sie so konfiguriert sein, dass sie Licht aus der gleichen Richtung empfangen). Bei den lichttransportierenden Fasern der Mehrzahl lichttransportierender Fasern können die jeweiligen Ausgangsanschlüsse in die gleiche Richtung ausgerichtet sein (z.B. können sie so konfiguriert sein, dass sie Licht in die gleiche Richtung transportieren und ausgeben).
  • Die eine oder mehrere optische Fasern 10902 können in geordneter Weise angeordnet werden. Die eine oder mehrere optischen Fasern 10902 können eine Anordnung (z.B. eine Gruppe) von optischen Fasern 10902 bilden (z.B. in einem Array). Die eine oder mehrere optische Fasern 10902 können z.B. in einem 1D-Array (z.B. in einer Spalte oder in einer Reihe oder einer Linie) angeordnet sein. Als weiteres Beispiel können die eine oder mehrere optische Fasern 10902 in einem 2D-Array (z.B. in einer Matrix) angeordnet sein. Zur Veranschaulichung: Die eine oder mehrere optische Fasern 10902 können so angeordnet werden, dass die jeweiligen Eingangsports 10902i in derselben Ebene angeordnet sind (z.B. in derselben Ebene senkrecht zur optischen Achse der Empfängeroptikanordnung 10804, z.B. auf derselben Koordinate entlang der Richtung 10852). Zusätzlich oder alternativ können die eine oder mehrere optische Fasern 10902 ungeordnet angeordnet sein. Zum Beispiel kann der Eingangsport 10902i einer ersten optischen Faser 10902 in einer anderen Ebene (z.B. entlang der Richtung 10852) angeordnet sein als der Eingangsport 10902i einer zweiten optischen Faser 10902 (oder aller anderen optischen Fasern 10902). Zur Veranschaulichung: Der Eingangsport 10902i der ersten optischen Faser 10902 kann näher an oder weiter entfernt von der Empfängeroptikanordnung 10804 angeordnet sein als der Eingangsport 10902i der zweiten optischen Faser 10902.
  • Das LIDAR-System 10800 kann eine Sammeloptik aufweisen. Die Sammeloptik kann zwischen der Empfängeroptikanordnung 10804 und einer oder mehreren optischen Fasern 10902 angeordnet werden. Die Sammeloptik kann so konfiguriert werden, dass sie das von der Empfängeroptikanordnung 10804 fokussierte oder kollimierte Licht so umwandelt, dass das Licht der Mode/den Moden der einen oder mehreren optischen Fasern 10902 entsprechen kann (z.B. dem Weg, auf dem sich das Licht in der einen oder den mehreren optischen Fasern 10902 bewegen kann). Zur Veranschaulichung: Die Sammeloptik kann so konfiguriert werden, dass sie das von der Empfängeroptikanordnung 10804 fokussierte oder kollimierte Licht so umwandelt, dass das Licht von der einen oder den mehreren optischen Fasern 10902 transportiert werden kann. Als Beispiel kann, wie im Einsatz 10904 dargestellt, das LIDAR-System 10800 (z.B. die wellenleitende Komponente 10802) mindestens eine Linse 10906 aufweisen (z.B. kann die Sammeloptik mindestens eine Linse 10906 sein oder aufweisen). Die mindestens eine Linse 10906 kann vor mindestens einer optischen Faser 10902 angeordnet sein (z.B. die Sammeloptik kann mindestens eine Linse 10906 aufweisen oder sein). Die mindestens eine Linse 10906 kann als Mikrolinse oder als Mikrolinsenarray konfiguriert sein. Beispielsweise kann sich genau eine Linse 10906 vor genau einer zugehörigen optischen Faser 10902 befinden. Zur Veranschaulichung: Das LIDAR-System 10800 kann eine oder mehrere Linsen 10906 aufweisen, und jede Linse 10906 kann sich vor genau einer zugehörigen optischen Faser 10902 befinden.
  • Mindestens eine optische Faser 10902 kann sich entlang eines linearen (z.B. geraden) Pfades erstrecken (z.B. kann das in der optischen Faser 10902 transportierte Licht einem linearen Weg/Pfad folgen, z.B. im wesentlichen ohne Krümmung). Mindestens eine optische Faser 10902 kann sich entlang eines Pfades erstrecken, der mindestens eine Krümmung aufweist (z.B. eine Krümmung oder eine Schleife). Das in der optischen Faser 10902 transportierte Licht kann einem Pfad folgen, der mindestens eine Krümmung aufweist. Zum Beispiel kann mindestens eine optische Faser 10902 so angeordnet werden, dass ihr Eingangsport 10902i auf einer anderen Höhe (z.B. auf einer anderen Koordinate entlang der Richtung 10856, z.B. einer anderen vertikalen Koordinate) liegt als ihr Ausgangsport 10902o. Als weiteres Beispiel kann mindestens eine optische Faser 10902 so angeordnet werden, dass ihr Eingangsport 10902i auf einer anderen Koordinate entlang der Richtung 10854 liegt (z.B. auf einer anderen vertikalen Koordinate) als ihr Ausgangsport 10902o. Die Flexibilität der einen oder mehreren optischen Fasern 10902 kann dazu führen, dass der Sensor 52 (z.B. die Sensorpixel 10808) in beliebiger Weise angeordnet werden kann.
  • Eine oder mehrere optische Fasern 10902 können jeweils einem Sensorpixel 10808 zugeordnet werden (z.B. eine oder mehrere optische Fasern 10902 können so konfiguriert sein, dass sie Licht zu einem entsprechenden Sensorpixel 10808 übertragen, z.B. eine oder mehrere optische Fasern 10902 können den Ausgangsanschluss 10902o mit einem entsprechenden Sensorpixel 10808 gekoppelt oder ausgerichtet haben). Zur Veranschaulichung: Einem Sensorpixel 10808 (z.B. einschließlich einer Fotodiode) kann eine optische Faser 10902 zugeordnet sein, oder einem Sensorpixel 10808 kann eine Vielzahl von optischen Fasern 10902 zugeordnet sein (z.B. eine Teilmenge der Anordnung der optischen Fasern 10902). Zusätzlich oder alternativ können eine oder mehrere optische Fasern 10902 einem entsprechenden Sensor 52 zugeordnet werden. Das LIDAR-System 10800 kann eine Vielzahl von Sensoren 52 aufweisen, und jedem Sensor 52 kann eine Lichtleitfaser 10902 oder eine Vielzahl von Lichtleitfasern 10902 zugeordnet sein (z.B. eine oder mehrere optische Fasern 10902 für jedes Sensor-Pixel 10808).
  • Beispielsweise können die eine oder mehrere optische Fasern 10902 so konfiguriert sein, dass sie Licht aus derselben Richtung empfangen (z. B. aus demselben Teil oder Segment des Sichtfeldes 10806). Zur Veranschaulichung: Bei der einen oder den mehreren optischen Fasern 10902 können die jeweiligen Eingangsports 10902i so angeordnet sein, dass die eine oder die mehreren optischen Fasern 10902 Licht aus derselben Richtung empfangen. Als weiteres Beispiel können die eine oder mehrere optische Fasern 10902 so konfiguriert sein, dass sie Licht aus verschiedenen Richtungen empfangen (z.B. aus verschiedenen Teilen oder Segmenten des Sichtfeldes 10806). Zur Veranschaulichung: Die entsprechenden Eingangsports 10902i der einen oder mehreren optischen Fasern 10902 können so angeordnet sein, dass jede optische Faser 10902 Licht aus einer entsprechenden Richtung empfängt (z.B. aus einem entsprechenden Segment des Sichtfeldes 10806). Es wird davon ausgegangen, dass auch eine Kombination der beiden Konfigurationen möglich ist. Eine erste Untergruppe (z.B. eine erste Mehrzahl) von optischen Fasern 10902 kann so konfiguriert werden, dass sie Licht aus einer ersten Richtung empfängt. Eine zweite Untergruppe von optischen Fasern 10902 kann so konfiguriert werden, dass sie Licht aus einer zweiten Richtung, die sich von der ersten Richtung unterscheidet, empfängt.
  • Wenn beispielsweise eine oder mehrere optische Fasern 10902 so konfiguriert sind, dass sie Licht aus derselben Richtung empfangen, kann jede optische Faser 10902 jeweils einem Sensorpixel 10808 zugeordnet werden. Falls die eine oder mehrere optische Fasern 10902 so konfiguriert sind, dass sie Licht aus verschiedenen Richtungen empfangen, kann mehr als eine optische Faser 10902 dem gleichen Sensor-Pixel 10808 zugeordnet werden (z.B. dem gleichen Sensor 52).
  • Für den Fall, dass mehrere optische Fasern 10902 (z.B. konfiguriert, um Licht aus verschiedenen Segmenten des Sichtfeldes zu empfangen) einem Sensor-Pixel 10808 zugeordnet sind, kann das LIDAR-System 10800 (z.B. der Sensor 52) so konfiguriert werden, dass es (z.B. zusätzliche) räumliche und/oder zeitliche Informationen auf der Basis des auf dem Sensor-Pixel 10808 empfangenen Lichts ermittelt. Beispielsweise kann das LIDAR-System 10800 so konfiguriert werden, dass es das von den mehreren optischen Fasern 10902 auf das Sensorpixel 10808 empfangene Licht gleichzeitig verarbeitet (z.B. kann das von den mehreren optischen Fasern 10902 kommende Licht ein Signal erzeugen, das durch die Summe der Einzelsignale gegeben ist). Als weiteres Beispiel kann das LIDAR-System 10800 so konfiguriert werden, dass es das von den mehreren optischen Fasern 10902 auf das Sensorpixel 10808 empfangene Licht mit einer Zeitverschiebung (d.h. innerhalb verschiedener Messzeitfenster) verarbeitet. Wird eine Vielzahl von optischen Fasern 10902 einem Sensor 52 zugeordnet (z.B. einem Sensorpixel 10808), können alle eintreffenden Lichtpulse innerhalb desselben (z.B. ersten) Messzeitfensters gemessen werden. Alternativ kann mindestens einer der eingehenden Lichtpulse von mindestens einer der mehreren optischen Fasern 10902 innerhalb eines zweiten Messzeitfensters gemessen werden, das sich vom ersten Messzeitfenster unterscheidet (z.B. zeitlich verschoben). Das von einer ersten optischen Faser 10902 empfangene Licht kann ein erstes Signal zu einem ersten Zeitpunkt erzeugen, und das von einer zweiten optischen Faser 10902 empfangene Licht kann ein zweites Signal zu einem zweiten, vom ersten Zeitpunkt verschiedenen Zeitpunkt erzeugen (z.B. nach 100 ns oder nach 1 ms).
  • 110 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit einer oder mehreren optischen Fasern 10902 in einer schematischen Ansicht, entsprechend verschiedenen Ausführungsformen.
  • Die eine oder mehrere optische Fasern 10902 können eine Vielzahl von optischen Fasern 10902 aufweisen. Die Eingangsports 10902i der Vielzahl von optischen Fasern 10902 können entlang einer gekrümmten Fläche 11002 angeordnet sein. Die Eingangsports 10902i der Vielzahl von optischen Fasern 10902 können zumindest teilweise um die Empfängeroptikanordnung 10804 herum angeordnet sein. Die gekrümmte Fläche 11002 kann eine sphärisch gekrümmte Fläche sein. Zur Veranschaulichung: Der Eingangsport 10902i einer ersten optischen Faser 10902 kann entlang einer ersten Richtung ausgerichtet sein. Der Eingangsport 10902i einer zweiten optischen Faser 10902 kann in einer zweiten Richtung ausgerichtet werden. Die erste Richtung kann in Bezug auf die zweite Richtung geneigt sein (z. B. um einen Winkel von etwa ±5°, von etwa ±10°, von etwa ±20° usw.).
  • Diese Konfiguration der Vielzahl von optischen Fasern 10902 kann insbesondere dann vorgesehen werden, wenn die Empfängeroptikanordnung 10804 eine gekrümmte Brennebene hat. Die Eingangsanschlüsse 10902i der Vielzahl von optischen Fasern 10902 können auf oder entlang der gekrümmten Brennebene der Empfängeroptikanordnung 10804 angeordnet sein (z.B. kann die gekrümmte Fläche 11002 zumindest teilweise mit der Brennebene der Empfängeroptikanordnung 10804 zusammenfallen). Dadurch kann der Effekt erzielt werden, dass Aberrationen (z.B. sphärische Aberrationen) der Empfängeroptikanordnung 10804 durch die Anordnung der Vielzahl von optischen Fasern 10902 korrigiert werden können.
  • Die Empfängeroptikanordnung 10804 kann so konfiguriert werden, dass sie Licht von mehreren Winkelsegmenten des Sichtfeldes 10806 empfängt. Die Empfängeroptikanordnung 10804 kann so konfiguriert werden, dass sie Licht von jedem Winkelsegment zu einer entsprechenden optischen Faser 10902 aus der Vielzahl der optischen Fasern 10902 leitet (z.B. eine optische Faser 10902, die dem Winkelsegment zugeordnet ist). Als Beispiel kann die Empfängeroptikanordnung 10804 eine Kugellinse 11004 aufweisen oder als solche konfiguriert sein. Die Eingangsports 10902i der Vielzahl von optischen Fasern 10902 können zumindest teilweise um die Kugellinse 11004 herum angeordnet sein. Die Kugellinse 11004 kann so konfiguriert werden, dass sie Licht von einer Vielzahl von Winkelsegmenten 11006 des Sichtfeldes empfängt und Licht von jedem Winkelsegment 11006 zu einer entsprechenden optischen Faser 10902 der Vielzahl von optischen Fasern 10902 leitet. Als weiteres Beispiel kann die Empfängeroptikanordnung 10804 eine kreisförmige Linse aufweisen oder als solche konfiguriert sein.
  • 111 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit einem Hohlleiterblock/Wellenleiterblock 11102 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das Hohlleiterbauteil/Wellenleiterbauteil 10802 kann einen Hohlleiterblock 11102 aufweisen (z.B. einen monolithischen Hohlleiterblock). Der Hohlleiterblock 11102 kann einen oder mehrere Wellenleiter 11104 aufweisen (z.B. einen oder mehrere Kanalhohlleiter). Zur Veranschaulichung: Der Wellenleiterblock 11102 kann einen oder mehrere Wellenleiter 11104 aufweisen, die in einer einzigen optischen Komponente geformt oder integriert (z.B. monolithisch integriert, z.B. vergraben) sind. Der eine oder die mehreren Wellenleiter 11104 können in geordneter Weise angeordnet werden (z.B. als 1D-Array, wie eine Spalte oder eine Zeile, oder als 2D-Array, wie eine Matrix). Mindestens ein Wellenleiter 11104 kann ein Monomode-Wellenleiter sein. Mindestens ein Wellenleiter 11104 kann ein Multimoden-Hohlleiter sein.
  • Der Hohlleiterblock 11102 kann ein geeignetes Material zur Durchführung der Wellenleitung aufweisen oder aus einem solchen bestehen. Zum Beispiel kann der Hohlleiterblock 11102 Glas aufweisen oder aus Glas bestehen (z.B. Quarzglas, amorphes Siliziumdioxid). Der eine oder mehrere Wellenleiter 11104 können im Glas ausgebildet sein. Zum Beispiel können der eine oder die mehreren Wellenleiter ein (z.B. wellenleitendes) Material aufweisen, dessen Brechungsindex höher ist als der Brechungsindex des Blockmaterials (z.B. der Brechungsindex von Glas). Zusätzlich oder alternativ können der eine oder die mehreren Wellenleiter 11004 durch lokale Änderung (z.B. Erhöhung) des Brechungsindex des Glasblocks (z.B. durch eine thermische Behandlung) gebildet werden. Als weiteres Beispiel kann der Hohlleiterblock 11102 Diamant aufweisen oder aus Diamant hergestellt sein.
  • Der Hohlleiterblock 11102 kann ein Hohlleiterchip/Wellenleiterchip oder derart konfiguriert sein. Der Wellenleiterchip kann einen oder mehrere Wellenleiter 11104 aufweisen, die in und/oder auf einem Substrat angeordnet sind. Zur Veranschaulichung: Der Wellenleiterchip kann ein in und/oder auf einem Substrat angeordnetes Wellenleitermaterial aufweisen. Der Brechungsindex des Wellenleitermaterials kann höher sein als der Brechungsindex des Substrats.
  • JederWellenleiter 11104 kann einen Eingangsanschluss 11104i (auch als Eingang bezeichnet) aufweisen. Der (die) Eingangsport(s) 11104i kann (können) so konfiguriert werden, dass er (sie) Licht empfangen kann (können). Der/die Eingangsport(s) kann/können z. B. so konfiguriert werden, dass er/sie Licht von der Empfängeroptikanordnung 10804 empfängt. Der eine oder die mehreren Wellenleiter 11104 können so angeordnet werden, dass jeder Eingangsport 11104i im Wesentlichen in der Brennebene der Empfängeroptikanordnung 10804 liegt (z.B. ausgerichtet ist). Zur Veranschaulichung: Der eine oder die mehreren Wellenleiter 11104 können so angeordnet werden, dass die Empfängeroptikanordnung 10804 Licht in den/die jeweiligen Kern(e) des einen oder der mehreren Wellenleiter 11104 fokussieren oder kollimieren kann. Jeder Wellenleiter 11104 kann einen Ausgangsanschluss 11104o (auch als Ausgang bezeichnet) aufweisen. Der/die Ausgangsport(s) 11104o kann/können so konfiguriert werden, dass er/sie Licht (z.B. ein Signal) ausgibt/ausgeben, z.B. Licht, das durch den jeweiligen Wellenleiter 11104 transportiert wird.
  • Mindestens ein Wellenleiter 11104 des einen oder mehrerer Wellenleiter 11104 (z.B. alle Wellenleiter 11104) kann so konfiguriert werden, dass er Licht an einen Sensor 52 (z.B. an einen Sensor Pixel 10808) ausgibt. Ein oder mehrere Wellenleiter 11104 können jeweils einem Sensorpixel 11108 zugeordnet werden. Zur Veranschaulichung: Der (die) Ausgang(e) 11104o eines oder mehrerer Wellenleiter 11104 kann (können) mit einem entsprechenden Sensorpixel 11108 gekoppelt werden. Zusätzlich oder alternativ kann mindestens ein Wellenleiter 11104 des einen oder der mehreren Wellenleiter 11104 so konfiguriert werden, dass er Licht an eine optische Faser 10902 ausgibt. Zur Veranschaulichung: Der Ausgang 111040 eines Wellenleiters 11104 kann mit dem Eingang 10902i einer optischen Faser 10902 gekoppelt werden. Eine oder mehrere optische Fasern 10902 können zwischen dem Wellenleiterblock 11102 und dem Sensor 52 angeordnet werden. Die eine oder mehreren optischen Fasern 10902 können so konfiguriert werden, dass sie Licht vom Wellenleiterblock 11102 (z.B. von einem entsprechenden Wellenleiter 11104) empfangen. Die eine oder die mehreren optischen Fasern 10902 können so konfiguriert werden, dass sie das empfangene Licht zum Sensor 52 leiten (z.B. zu einem entsprechenden Sensorpixel 10808).
  • Sammeloptiken können zwischen der Empfängeroptikanordnung 10804 und dem Hohlleiterblock 11102 angeordnet werden. Die Sammeeloptik kann so konfiguriert werden, dass sie das von der Empfängeroptikanordnung 10804 fokussierte oder kollimierte Licht so umwandelt, dass das Licht der (den) Mode(n), z.B. den Ausbreitungsmoden des einen oder der mehreren Wellenleiter 11104, entspricht. Als Beispiel kann das LIDAR-System 10800 einen Lichtkoppler, z.B. einen Gitterkoppler, aufweisen (wie z.B. in 112 dargestellt). Der Lichtkoppler kann so konfiguriert werden, dass er Licht empfängt (z.B. von der Empfängeroptikanordnung 10804). Der Lichtkoppler kann so konfiguriert werden, dass er das empfangene Licht in den einen oder mehrere Wellenleiter 11104 einkoppelt. Zusätzlich oder alternativ kann eine Sammeloptik zwischen dem Wellenleiterblock 11102 und dem Sensor 52 angeordnet werden. Die Sammeeloptik kann so konfiguriert werden, dass sie das von dem einen oder den mehreren Wellenleitern 11104 abgegebene Licht so umwandelt, dass es auf den Sensor 52 auftreffen kann (z.B. auf einen oder mehrere Sensorpixel 10808). Als Beispiel kann das LIDAR-System 10800 einen Gitterkoppler aufweisen, der so konfiguriert ist, dass er Licht aus dem einen oder den mehreren Wellenleitern 11104 auf ein Sensorpixel 10808 koppelt (z.B. auf ein oder mehrere Sensorpixel 10808). Das LIDAR-System 10800 kann auch eine Vielzahl von Lichtkopplern (z.B. von Gitterkopplern) aufweisen, die zwischen der Empfängeroptikanordnung 10804 und dem Wellenleiterblock 11102 und/oder zwischen dem Wellenleiterblock 11102 und dem Sensor 52 angeordnet sind. Als Beispiel kann das LIDAR-System 10800 einen Gitterkoppler aufweisen, der jedem Wellenleiter 11104 zugeordnet ist.
  • 112A und 112B zeigen eine wellenleitende Komponente 10802 mit einem Substrat 11202 und einem oder mehreren Wellenleitern 11204 in und/oder auf dem Substrat 11202 in einer schematischen Darstellung entsprechend verschiedener Ausführungsformen.
  • Die wellenleitende Komponente 10802 kann ein Substrat 11202 aufweisen. Die wellenleitende Komponente 10802 kann einen oder mehrere Wellenleiter 11204 in und/oder auf dem Substrat 11202 aufweisen. Illustrativ können der eine oder die mehreren Wellenleiter 11204 (z.B. das Wellenleitermaterial) auf dem Substrat 11202 abgeschieden werden, z.B. auf einer Oberfläche des Substrats 11202. Der eine oder die mehreren Wellenleiter 11204 (z.B. das Wellenleitermaterial) können in dem Substrat 11202 vergraben sein (z.B. können der eine oder die mehreren Wellenleiter 11204 an drei oder mehr Seiten von dem Substrat 11202 umgeben sein). Ein erster Wellenleiter 11204 kann auf dem Substrat 11202 angeordnet werden. Ein zweiter Wellenleiter 11204 kann auf dem Substrat 11202 angeordnet werden. Der eine oder die mehreren Wellenleiter 11204 können eine Dicke im Bereich von etwa 50 nm bis etwa 10 □m haben, zum Beispiel von etwa 100 nm bis etwa 5 □m. Der eine oder die mehreren Wellenleiter 11204 können eine Breite haben, die größer als die jeweilige Dicke ist.
  • Das Substrat 11202 kann ein Halbleitermaterial aufweisen. Als Beispiel kann das Substrat 11202 Silizium aufweisen (z.B. kann es ein Siliziumsubstrat sein, wie z.B. ein Siliziumwafer). Zusätzlich oder alternativ kann das Substrat 11202 ein Oxid (z.B. Titanoxid) aufweisen. Zusätzlich oder alternativ kann das Substrat 11202 ein Nitrid (z.B. Siliziumnitrid) aufweisen. Das Substrat 11202 kann eine erste Schicht 11202s und eine zweite Schicht 11202i aufweisen. Die zweite Schicht 11202i kann auf die erste Schicht 11202s aufgebracht werden. Der eine oder mehrere Wellenleiter können auf der zweiten Schicht 11202i angeordnet werden (wie z.B. in 112A dargestellt). Der eine oder die mehreren Wellenleiter können in der ersten Schicht 11202s und/oder in der zweiten Schicht 11202i angeordnet sein (wie z.B. in 112B dargestellt). Die erste Schicht 11202s kann eine Halbleiterschicht sein (z.B. eine Siliziumschicht oder ein Siliziumsubstrat). Die zweite Schicht 11202i kann eine isolierende Schicht sein (z.B. eine Oxidschicht, wie z.B. eine Siliziumoxid- oder Titanoxidschicht).
  • Das Substrat 11202 kann ein flexibles Substrat sein. Als Beispiel kann das Substrat 11202 ein oder mehrere polymere Materialien aufweisen. Das flexible Substrat 11202 kann zumindest teilweise um die Empfängeroptikanordnung 10804 des LIDAR-Systems 10800 gekrümmt sein. Veranschaulichend kann der eine oder mehrere Wellenleiter 11204 in ähnlicher Weise angeordnet sein wie die in 110 gezeigten optischen Fasern 10902. Das flexible Substrat 11202 kann entlang einer sphärischen Oberfläche gekrümmt sein (z.B. zumindest teilweise entlang einer gekrümmten Brennebene der Empfängeroptikanordnung 10804). Zum Beispiel kann das flexible Substrat 11202 zumindest teilweise um eine Zylinderlinse oder um eine Kugellinse gekrümmt sein.
  • Die wellenleitende Komponente 10802 kann einen oder mehrere Lichtkoppler 11206 (z.B. Gitterkoppler) aufweisen, die in und/oder auf dem Substrat 11202 angeordnet sind. Der eine oder die mehreren Lichtkoppler 11206 können so konfiguriert werden, dass das darauf empfangene Licht in einen oder mehrere Wellenleiter 11204 (z.B. in einen entsprechenden Wellenleiter 11204) eingekoppelt wird. Der eine oder die mehreren Lichtkoppler 11206 können so konfiguriert werden, dass sie einen großen Lichtfleck empfangen und ihn so umwandeln, dass er der Mode des einen oder der mehreren Wellenleiter 11204 (z.B. eines entsprechenden Wellenleiters 11204) entspricht. Der eine oder die mehreren Wellenleiter 11204 können entlang einer Richtung orientiert sein (z.B. können sie sich erstrecken), die in Bezug auf die Richtung des auf die wellenleitende Komponente 10802 auftreffenden Lichts geneigt ist (z.B. in Bezug auf die Richtung des auf den einen oder die mehreren Lichtkoppler 11206 auftreffenden Lichts).
  • Der eine oder mehrere Wellenleiter 11204 können willkürlich geformt sein. Zur Veranschaulichung: Ein Wellenleiter 11204 kann eine Form haben, die eine Lichtleitung für die gesamte Ausdehnung (z.B. die gesamte Länge) des Wellenleiters 11204 ermöglicht. Der eine oder mehrere Wellenleiter 11204 können so geformt sein, dass das empfangene Licht zu gewünschten Bereichen des Substrats 11202 geleitet wird. Zum Beispiel kann mindestens ein Wellenleiter 11204 so konfiguriert (z.B. geformt) sein, dass er das empfangene Licht zu einem Detektionsbereich 11208 des Substrats 11202 transportiert. Das Substrat 11202 (z.B. die Detektionsregion) kann einen Sensor 52 oder eine Komponente aufweisen, die so konfiguriert ist, dass sie beim Empfang von Licht aus dem Wellenleiter 11204 ein Signal erzeugt. Als weiteres Beispiel kann mindestens ein Wellenleiter 11204 so konfiguriert (z.B. geformt) sein, dass er das empfangene Licht zu einem Rand des Substrats 11202 transportiert (z.B. zu einer Auskopplungsregion, die sich an einem Rand des Substrats 11202 befindet). Mindestens ein Wellenleiter 11204 kann mit einem Sensor 52 oder mit einem Sensorpixel 10808 (z.B. außerhalb des Substrats) gekoppelt (z.B. ausgekoppelt) werden. Mindestens ein Wellenleiter 11204 kann mit einer optischen Faser 10902 gekoppelt (z.B. ausgekoppelt) werden. Auch diese Konfiguration kann den Effekt haben, dass die Sensorpixel 10808 beliebig angeordnet werden können.
  • Der eine oder mehrere Wellenleiter 11204 können so konfiguriert werden, dass sie Licht untereinander übertragen. Ein erster Wellenleiter 11204 kann so konfiguriert werden, dass er das empfangene Licht an einen zweiten Wellenleiter 11204 überträgt. Es können ein oder mehrere Koppelbereiche 11210 vorgesehen werden. In dem einen oder mehreren Koppelbereichen 11210 können zwei Wellenleiter relativ zueinander so angeordnet sein, dass Licht von einem ersten Wellenleiter 11204 zu einem zweiten Wellenleiter 11204 übertragen werden kann (z.B. kann ein Abstand zwischen den Wellenleitern 11204 so sein, dass Licht vom ersten Wellenleiter 11204 zum zweiten Wellenleiter 11204 übertragen werden kann).
  • 113 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit einer oder mehreren Lichtleitfasern/optischen Fasern 10902 in einer schematischen Ansicht, entsprechend verschiedenen Ausführungsformen.
  • Die eine oder mehrere optische Fasern 10902 (oder die Wellenleiter 11104 11204) können so konfiguriert werden, dass sie zusätzliche Funktionalitäten bieten. Zur Veranschaulichung: Ein oder mehrere Segmente einer optischen Faser 10902 können so konfiguriert werden, dass sie zusätzliche Funktionalitäten bieten.
  • Eine optische Faser 10902 kann so konfiguriert werden, dass das in der optischen Faser 10902 transportierte Licht verstärkt wird (z.B. um das transportierte Signal zu verstärken). Zum Beispiel kann eine optische Faser 10902 dotiert sein (z.B. kann eine optische Faser 10902 ein dotiertes Segment 11302 aufweisen, z.B. einen dotierten Teil). Zur Veranschaulichung: Die optische Faser 10902 kann in ihrem Kern einen Dotierstoff (z.B. Dotieratome wie Erbium) aufweisen.
  • Eine optische Faser 10902 kann so konfiguriert werden, dass sie Licht, das in der optische Faser 10902 transportiert wird, in eine Richtung auskoppelt, die in einem Winkel (z. B. im Wesentlichen senkrecht) zu der Richtung verläuft, entlang der das Licht in der optischen Faser 10902 transportiert wird. Illustrativ kann eine optische Faser 10902 so konfiguriert werden, dass sie Licht in die vertikale Richtung auskoppelt (z.B. zu einem Sensor 52 oder einem Sensorpixel 10808, die senkrecht zum Ausgangsanschluss 10902i der optischen Faser 10902 angeordnet sind). Als Beispiel kann eine optische Faser 10902 ein (z.B. zusätzliches) Auskopplungssegment 11304 aufweisen (z.B. einen Auskopplungsteil). Das Auskopplungssegment 11304 kann eine gewellte Oberfläche aufweisen oder als solche konfiguriert sein (z.B. können eine oder mehrere Schichten, die den Kern der optischen Faser 10902 umgeben, einen gewellten Abschnitt aufweisen). Das Auskopplungssegment 11304 kann einen Gitterkoppler aufweisen oder als solcher konfiguriert sein (z.B. ein passiver gewellter Gitterkoppler).
  • 114 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit einer wellenleitende Komponente 10802 mit einem Koppelelement 11402 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Die wellenleitende Komponente 10802 kann eine erste wellenleitende Komponente und eine zweite wellenleitende Komponente aufweisen. Die wellenleitende Komponente 10802 kann ein Kopplungselement 11402 aufweisen. Das Kopplungselement 11402 kann so konfiguriert werden, dass es die erste wellenleitende Komponente mit der zweiten wellenleitenden Komponente optisch koppelt. Zur Veranschaulichung: Das Koppelelement 11402 kann so konfiguriert werden, dass es das in (oder von) der ersten wellenleitenden Komponente transportierte Licht (z.B. das Signal) mit dem in der zweiten wellenleitenden Komponente transportierten Licht zusammenführt. Das Koppelelement 11402 kann so konfiguriert werden, dass es das zusammengeführte Licht zu einer dritten wellenleitenden Komponente leitet.
  • Zum Beispiel kann die wellenleitende Komponente 10802 eine erste optische Faser 10902 und eine zweite optische Faser 10902 aufweisen. Die wellenleitende Komponente 10802 kann einen Faserkoppler aufweisen, der so konfiguriert ist, dass er die erste optische Faser 10902 mit der zweiten optischen Faser 10902 optisch koppelt. Der Faserkoppler kann so konfiguriert werden, dass er das zusammengeführte Licht zu einer dritten optischen Faser 10902 leitet. Diese Konfiguration kann insbesondere für die Implementierung einer Lichtverstärkung vorgesehen werden, wie weiter unten näher beschrieben wird.
  • Das LIDAR-System 10800 (z.B. die wellenleitende Komponente 10802) kann eine Pumplichtquelle aufweisen. Zum Beispiel kann die erste wellenleitende Komponente (z.B. die erste optische Faser 10902) als Pumplichtquelle konfiguriert sein oder konfiguriert werden. Die erste wellenleitende Komponente kann so konfiguriert werden, dass sie Pumplicht empfängt und transportiert. Die zweite wellenleitende Komponente (z.B. die zweite optische Faser 10902) kann als Signallichtquelle konfiguriert sein oder konfiguriert werden. Die zweite wellenleitende Komponente kann so konfiguriert werden, dass sie Signallicht (z.B. LIDAR-Licht) empfängt und transportiert. Das Pumplicht kann so konfiguriert werden, dass es das Signallicht verstärkt (z.B. wenn es zusammengeführt wird, z.B. in der dritten Wellenleiterkomponente).
  • Das Koppelelement 11402 kann so konfiguriert werden, dass es Pumplicht zur Pumplichtquelle (z.B. zur ersten Wellenleiterkomponente) liefert. Als Beispiel kann das Koppelelement 11402 einen Laser 11404 aufweisen (z.B. einen Anregungslaser). Der Laser 11404 kann so konfiguriert werden, dass er Laserlicht emittiert (z.B. Anregungslicht). Der Laser 11404 kann so konfiguriert werden, dass er Laserlicht in die erste wellenleitende Komponente emittiert (z.B. kann der Ausgang des Lasers 11404 am Eingangsanschluss der ersten wellenleitenden Komponente gesammelt werden). Das LIDAR-System 10800 (z.B. die wellenleitende Komponente) kann einen Controller 11406 (z.B. einen Lasercontroller) aufweisen. Der Controller 11406 kann so konfiguriert werden, dass er den Laser 11404 steuert. Der Controller 11406 kann so konfiguriert werden, dass er den Laser 11404 in Übereinstimmung (z.B. in Synchronisation) mit der Erzeugung von LIDAR-Licht (z.B. mit der Erzeugung eines LIDAR-Lichtpulses, wie z.B. eines LIDAR-Laserpulses) steuert. Zur Veranschaulichung: Der Controller 11406 kann so konfiguriert werden, dass er den Laser 11404 so steuert, dass der Laser 11404 bei der Erzeugung jedes LIDAR-Lichtpulses Anregungslicht (z.B. einen Anregungslaserpuls) erzeugt.
  • Die dritte wellenleitende Komponente kann dotiert sein (z.B. kann sie ein dotiertes Segment haben). Zum Beispiel kann die dritte optische Faser 10902 dotiert sein (z.B. kann sie ein dotiertes Segment 11302 haben). Das Pumplicht kann so konfiguriert werden, dass die Dotieratome angeregt werden, so dass das LIDAR-Signal durch die stimulierte Emission der angeregten Atome verstärkt werden kann. Die dritte wellenleitende Komponente kann so konfiguriert werden, dass sie das verstärkte Signal und das Pumpsignal zu einem Sensorpixel 10808 (oder zu einem Sensor 52) leitet.
  • Das LIDAR-System 10800 (z.B. die wellenleitende Komponente 10802) kann einen Filter 11408 (z.B. einen optischen Filter, wie z.B. einen optischen Langpassfilter) aufweisen. Das Filter 11408 kann zwischen dem Ausgang der dritten wellenleitenden Komponente und dem Sensorpixel 10808 angeordnet werden. Der Filter 11408 kann so konfiguriert werden, dass er das Pumplicht blockiert (z.B. zurückweist). Der Filter 11408 kann so konfiguriert werden, dass das Signallicht (z.B. das verstärkte LIDAR-Licht) durch den Filter 11408 durchgelassen wird (und auf das Sensorpixel 10808 auftrifft).
  • 115 zeigt einen Ausschnitt eines LIDAR-Systems 10800 mit mehreren optischen Fasern 10902 und einem Wellenleiter 11502 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Die wellenleitende Komponente 10802 kann eine Vielzahl von optischen Fasern 10902 aufweisen. Die Eingangsports 10902i der optischen Fasern 10902 können in eine erste Richtung gerichtet werden, um Licht zu empfangen. Zum Beispiel können die Eingangsports 10902i in eine Richtung parallel zur optischen Achse der Empfängeroptikanordnung 10804 gerichtet sein (z.B. kann die erste Richtung die Richtung 10852 sein). Zur Veranschaulichung kann die Mehrzahl der optischen Fasern 10902 so angeordnet werden, dass die Eingangsports 10902i der Empfängeroptikanordnung 10804 zugewandt sind.
  • Die Mehrzahl der optischen Fasern 10902 (z.B. die jeweiligen Eingangsports 10902i) kann in einem 1D-Array (z.B. in einer Spalte oder in einer Reihe) angeordnet werden. Illustrativ können die optischen Fasern 10902 der Vielzahl von optischen Fasern 10902 entlang einer Richtung senkrecht zur optischen Achse der optischen Anordnung angeordnet sein (z.B. entlang der Richtung 10854 oder der Richtung 10856). Die Mehrzahl der optischen Fasern 10902 kann in einem 2D-Array (z.B. in einer Matrix) angeordnet werden. Illustrativ können die optischen Fasern 10902 der Vielzahl von optischen Fasern 10902 entlang einer ersten Richtung und einer zweiten Richtung angeordnet sein. Die erste Richtung und die zweite Richtung können senkrecht zur optischen Achse der optischen Anordnung verlaufen (z.B. kann die Mehrzahl der optischen Fasern 10902 entlang der Richtung 10854 und entlang der Richtung 10856 angeordnet sein).
  • Das LIDAR-System kann Sammeloptiken aufweisen, die vor der Vielzahl der optischen Fasern 10902 angeordnet sind (z.B. in Bezug auf die Richtung, aus der das LIDAR-Licht auf das LIDAR-System 10800 auftrifft). Zur Veranschaulichung: Die Sammeloptik kann zwischen der Empfängeroptikanordnung 10804 und der Vielzahl der optischen Fasern 10902 angeordnet sein. Als Beispiel kann die Sammeloptik eine Anordnung von Linsen 11508 sein oder eine solche aufweisen (z.B. eine Anordnung von Mikrolinsen, z.B. ein Mikrolinsenarray). Die Anordnung der Linsen 11508 kann eine Linse für jede optische Faser 10902 aus der Vielzahl der optischen Fasern 10902 aufweisen (z.B. kann jeder optischen Faser 10902 eine Linse, z.B. genau eine Linse, zugeordnet sein).
  • Die wellenleitende Komponente 10802 kann einen Wellenleiter 11502 aufweisen (z.B. einen monolithischen Wellenleiter). Der Wellenleiter 11502 kann eine Vielzahl von Wellenleitern 11504 umfassen. Als Beispiel kann der Wellenleiter 11502 als ein Wellenleiterblock konfiguriert sein oder konfiguriert werden. Ein weiteres Beispiel: Der Wellenleiter 11502 kann als Substrat konfiguriert sein oder konfiguriert werden, in und/oder auf dem eine Vielzahl von Wellenleitern 11504 angeordnet oder integriert sind. Jeder Wellenleiter 11504 kann einen oder mehrere Koppelbereiche 11506 aufweisen. Die Wellenleiter 11504 der Vielzahl von Wellenleitern 11504 können entlang einer zweiten Richtung angeordnet sein (z.B. sich erstrecken). Die zweite Richtung kann sich von der ersten Richtung unterscheiden. Die zweite Richtung kann in einem Winkel zur ersten Richtung verlaufen (z.B. 30°, 45°, 60° oder 90°). Die zweite Richtung kann im Wesentlichen senkrecht zur ersten Richtung verlaufen (z.B. kann die zweite Richtung die Richtung 10856 sein, z.B. die vertikale Richtung, oder die zweite Richtung kann die Richtung 10854 sein, die horizontale Richtung).
  • Eine oder mehrere optische Fasern 10902 (z.B. eine Vielzahl von optischen Fasern 10902 oder eine Teilmenge von optischen Fasern 10902) können an (oder mit) einem entsprechenden Wellenleiter 11504 der Vielzahl von Wellenleitern 11504 gekoppelt werden. Illustrativ kann ein Wellenleiter 11504 der Vielzahl von Wellenleitern 11504 mit einer Vielzahl von optischen Fasern 10902 gekoppelt sein (z.B. an einem entsprechenden Kopplungsbereich 10506). Der Ausgangsport 10902o jeder optischen Faser 10902 kann an eine der Kopplungsregionen 10506 angekoppelt werden. Zusätzlich oder alternativ kann ein Endabschnitt jeder optischen Faser 10902 mit einer der Kopplungsregionen 10506 gekoppelt werden. Falls ein Endabschnitt einer optischen Faser 10902 an eine Kopplungsregion 10506 gekoppelt wird, kann der entsprechende Ausgangsport 10902o einen Spiegel aufweisen oder als Spiegel konfiguriert werden. Jede optische Faser 10902 kann so konfiguriert werden, dass sie Licht von der optischen Faser 10902 in den jeweils gekoppelten Wellenleiter 11504 einkoppelt (z.B. zur Übertragung). Zur Veranschaulichung kann für jede Koppelregion 10506 ein Koppler oder eine Koppleranordnung vorgesehen werden.
  • Das LIDAR-System 10800 (z.B. die wellenleitende Komponente 10802) kann Schaltmittel zur Steuerung (z.B. zur selektiven Aktivierung) der Kopplung zwischen den optischen Fasern 10902 und den Wellenleitern 11504 aufweisen. Die Schaltmittel können so konfiguriert werden, dass eine optische Faser 10902 ausgewählt wird, um Licht in den jeweils gekoppelten Wellenleiter 11504 einzukoppeln (z.B. um den jeweiligen Koppler zu aktivieren). Zur Veranschaulichung kann für jeden Wellenleiter 11504 eine Schalteinrichtung vorgesehen werden (z.B. für jeden Koppelbereich 11506). Als Beispiel kann ein Wellenleiter 11504 eine erste optische Faser 11902 (z.B. der Ausgangsport 10902o einer ersten optischen Faser 10902) haben, die mit einem ersten Kopplungsbereich 11506a gekoppelt ist, eine zweite optische Faser 11902, die mit einem zweiten Kopplungsbereich 11506b gekoppelt ist, und eine dritte optische Faser 11902, die mit einem dritten Kopplungsbereich 11506c gekoppelt ist. Die Schaltmittel können so konfiguriert werden, dass die erste Kopplungsregion 11506a aktiviert werden kann (z.B. kann der ersten optischen Faser 10902 erlaubt werden, Licht in den Wellenleiter 11504 zu übertragen). Die Schalteinrichtung kann so konfiguriert werden, dass die zweite Kopplungsregion 11506b und die dritte Kopplungsregion 11506c deaktiviert werden können (z.B. können die zweite optische Faser 10902 und die dritte optische Faser 10902 daran gehindert werden, Licht in den Wellenleiter 11504 zu übertragen). Die Schalteinrichtung kann so konfiguriert werden, dass ein Wellenleiter 11504 Licht von einer einzelnen optischen Faser 10902 aus der Vielzahl der mit dem Wellenleiter 11504 gekoppelten optischen Fasern 10902 empfangen kann. Als Beispiel kann das Schaltmittel ein optischer Schalter sein (z.B. ein mechanisch-optischer Schalter, ein Interferenzschalter und dergleichen).
  • Die Wellenleiter 11504 der Vielzahl von Wellenleitern 11504 können so konfiguriert werden, dass sie Licht zu einem oder mehreren Sensorpixeln 10808 (oder zu einem oder mehreren Sensoren 52) leiten. Ein oder mehrere Wellenleiter 11504 können jeweils einem Sensorpixel 10808 zugeordnet werden.
  • Das LIDAR-System 10800 (z.B. die wellenleitende Komponente 10802) kann einen Regler 11510 (z.B. einen Koppelregler) aufweisen, der zur Steuerung der Schaltmittel konfiguriert ist. Der Controller 11510 kann so konfiguriert werden, dass er die Schaltmittel so steuert, dass eine Teilmenge der Vielzahl von optischen Fasern 10902 aktiviert werden kann (z.B. kann es erlaubt werden, Licht auf den jeweils gekoppelten Wellenleiter 11504 zu übertragen). Beispielsweise kann der Controller 11510 so konfiguriert werden, dass er die Schalteinrichtung so steuert, dass eine Linie von optischen Fasern 10902 aktiviert werden kann (z.B. eine Spalte oder eine Zeile, wie durch die Streifenlinsen in 115 dargestellt). Der Controller 11510 kann so konfiguriert werden, dass er die Schaltmittel in Übereinstimmung (z.B. in Synchronisation) mit einer Strahllenkungseinheit des LIDAR-Systems 10800 steuert. Der Controller 11510 kann so konfiguriert werden, dass er die Schaltmittel in Übereinstimmung (z.B. in Synchronisation) mit der Erzeugung von LIDAR-Licht steuert (z.B. in Synchronisation). Zur Veranschaulichung: Der Controller 11510 kann so konfiguriert werden, dass er die Schaltmittel so steuert, dass diejenigen optischen Fasern 10902 aktiviert werden können, auf die das LIDAR-Licht auftreffen soll (z.B. die optischen Fasern 10902, die LIDAR-Licht basierend auf dem Emissionswinkel empfangen können). Der Controller 11510 kann so konfiguriert werden, dass die anderen optischen Fasern 10902 deaktiviert werden können, so dass auf sie auftreffendes Rauschlicht nicht zur Erzeugung eines Signals führen darf. Auf diese Weise kann das SNR der Detektion verbessert werden, ohne den Sensor 52 oder die Sensorpixel 10808 zu aktivieren oder zu deaktivieren.
  • Die Konfiguration der wellenleitenden Komponente 10802, z.B. die Anordnung der optischen Fasern 10902 und des Wellenleiters 11502, kann ebenfalls vertauscht werden. So können z.B. die Wellenleiter 11504 entlang der ersten Richtung und die optischen Fasern 10902 entlang der zweiten Richtung angeordnet sein (oder sich in diese Richtung erstrecken). Bei den Wellenleitern 11504 können die jeweiligen Eingangsanschlüsse in die erste Richtung gerichtet sein. Bei den optischen Fasern 10902 können die entsprechenden Ausgangsanschlüsse 10902o in die zweite Richtung gerichtet sein. Die optischen Fasern 10902 können so konfiguriert werden, dass sie Licht zu einem oder mehreren Sensorpixeln 10808 (oder zu einem oder mehreren Sensoren 52) leiten. Eine oder mehrere optische Fasern 10902 können einem oder mehreren Sensorpixeln 10808 zugeordnet werden.
  • Es ist zu beachten, dass einer oder mehrere der Wellenleiter (oder eine oder mehrere der optischen Fasern) in Abhängigkeit von den Informationen ausgewählt werden können, die von einer digitalen Karte (z.B. jeder digitalen Karte, wie hier offengelegt) und/oder in Abhängigkeit von einem früheren/aktuellen/geschätzten Fahrzustand eines Fahrzeugs (z.B. jedes Fahrzeug, wie hier offenbart) bereitgestellt werden.
  • Darüber hinaus kann eine Vielzahl von optischen Fasern 10902 pro Sensor-Pixel bereitgestellt werden. Ein Schalter kann vorgesehen werden, um eine oder mehrere optische Fasern 10902 aus der Vielzahl der optischen Fasern 10902 auszuwählen.
  • In verschiedenen Ausführungsformen können eine oder mehrere zusätzliche Lichtquellen vorgesehen werden. Ein Steuergerät kann so konfiguriert sein, dass es individuell und selektiv ein oder ausgeschaltet werden kann, z.B. abhängig von den Informationen, die von einer digitalen Karte (z.B. einer beliebigen digitalen Karte, wie sie hier offen gelegt ist) und/oder abhängig von der Leistungsaufnahme des LIDAR-Sensorsystems.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1q ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine für den Lichtempfang konfigurierte Empfängeroptikanordnung, einen Sensor mit einem oder mehreren Sensorpixeln und mindestens eine wellenleitende Komponente aufweisen. Die mindestens eine wellenleitende Komponente kann zwischen der Empfängeroptikanordnung und dem Sensor angeordnet sein. Die mindestens eine wellenleitende Komponente kann so konfiguriert sein, dass sie das von der Empfängeroptikanordnung empfangene Licht zu einem oder mehreren Sensorpixeln leitet.
    • In Beispiel 2q kann der Gegenstand von Beispiel 1q optional umfassen, dass die Empfängeroptikanordnung eine Kondensoroptik oder eine Zylinderlinse oder eine Kugellinse umfasst.
    • In Beispiel 3q kann der Gegenstand eines der Beispiele 1q oder 2q optional umfassen, dass die mindestens eine wellenleitende Komponente eine oder mehrere optische Fasern umfasst.
    • In Beispiel 4q kann der Gegenstand von Beispiel 3q optional umfassen, dass das LIDAR-Sensorsystem weiterhin mindestens eine Linse vor mindestens einer optischen Faser der einen oder mehreren optischen Fasern aufweisen kann.
    • In Beispiel 5q kann der Gegenstand von Beispiel 4q optional umfassen, dass die mindestens eine Linse als Mikrolinse oder als Mikrolinsenarray konfiguriert ist.
    • In Beispiel 6q kann der Gegenstand eines der Beispiele 3q bis 5q optional umfassen, dass sich genau eine Linse vor genau einer zugehörigen optischen Faser der einen oder mehreren optischen Fasern befindet.
    • In Beispiel 7q kann der Gegenstand eines der Beispiele 1q bis 6q optional umfassen, dass eine oder mehrere Lichtleitfasern/optische Fasern jeweils einem Sensorpixel des einen oder der mehreren Sensorpixel zugeordnet werden.
    • In Beispiel 8q kann der Gegenstand von Beispiel 7q optional umfassen, dass eine oder mehrere optische Fasern eine Vielzahl von optischen Fasern aufweisen, wobei jede optische Faser einen Eingang zum Empfang von Licht hat. Die Eingänge der mehreren optischen Fasern können entlang einer gekrümmten Oberfläche zumindest teilweise um die Empfängeroptikanordnung herum angeordnet sein.
    • In Beispiel 9q kann der Gegenstand eines der Beispiele 1q bis 8q optional umfassen, dass die eine oder mehrere optische Fasern eine erste optische Faser und eine zweite optische Faser umfassen.
    • In Beispiel 10q kann der Gegenstand von Beispiel 9q optional umfassen, dass die erste optische Faser und die zweite optische Faser so konfiguriert sind, dass sie Licht aus der gleichen Richtung empfangen.
    • In Beispiel 11q kann der Gegenstand von Beispiel 10q optional umfassen, dass die erste optische Faser einem ersten Sensorpixel zugeordnet wird. Die zweite optische Faser kann einem zweiten Sensorpixel zugeordnet werden.
    • In Beispiel 12q kann der Gegenstand von Beispiel 9q optional umfassen, dass die erste optische Faser so konfiguriert ist, dass sie Licht aus einer ersten Richtung empfängt und die zweite optische Faser so konfiguriert ist, dass sie Licht aus einer zweiten Richtung empfängt, die sich von der ersten Richtung unterscheidet.
    • In Beispiel 13q kann der Gegenstand von Beispiel 12q optional umfassen, dass die erste optische Faser und die zweite optische Faser demselben Sensorpixel zugeordnet werden.
    • In Beispiel 14q kann der Gegenstand von Beispiel 13q optional umfassen, dass das LIDAR-Sensorsystem so konfiguriert wird, dass es das von der ersten optischen Faser kommende Licht in einem ersten Zeitfenster misst. Das LIDAR-Sensorsystem kann so konfiguriert werden, dass es das von der zweiten optischen Faser kommende Licht in einem zweiten Zeitfenster misst. Das erste Zeitfenster kann dem zweiten Zeitfenster entsprechen. Alternativ kann sich das erste Zeitfenster vom zweiten Zeitfenster unterscheiden.
    • In Beispiel 15q kann der Gegenstand eines der Beispiele 1q bis 14q optional umfassen, dass das eine oder die mehreren Sensorpixel eine Vielzahl von Sensorpixeln umfassen. Mindestens einige Sensorpixel der Vielzahl von Sensorpixeln können in einem Abstand angeordnet sein.
    • In Beispiel 16q kann der Gegenstand von Beispiel 15q optional umfassen, dass der Abstand ein Abstand parallel zur Sensoroberfläche und/oder ein Abstand senkrecht zur Sensoroberfläche ist.
    • In Beispiel 17q kann der Gegenstand eines der Beispiele 1q bis 16q optional umfassen, dass die mindestens eine wellenleitende Komponente einen monolithischen Wellenleiterblock mit einem oder mehreren Wellenleitern umfasst.
    • In Beispiel 18q kann der Gegenstand von Beispiel 17q optional umfassen, dass das LIDAR-Sensorsystem ferner einen Gitterkoppler zur Einkopplung des vom Gitterkoppler empfangenen Lichts in den einen oder die mehreren Wellenleiter und/oder einen Gitterkoppler zur Einkopplung des Lichts aus dem einen oder den mehreren Wellenleitern in ein Sensorpixel aufweist.
    • In Beispiel 19q kann der Gegenstand eines der Beispiele 17q oder 18q optional umfassen, dass der monolithische Wellenleiterblock aus Glas besteht.
    • In Beispiel 20q kann der Gegenstand eines der Beispiele 17q bis 19q optional umfassen, dass der monolithische Wellenleiterblock einen Wellenleiterchip mit einem in und/oder auf einem Substrat angeordneten Wellenleitermaterial aufweist. Der Brechungsindex des Wellenleitermaterials kann höher sein als der Brechungsindex des Substrats.
    • In Beispiel 21q kann der Gegenstand eines der Beispiele 17q bis 20q optional umfassen, dass die mindestens eine wellenleitende Komponente ein Substrat und einen oder mehrere Wellenleiter in und/oder auf dem Substrat umfasst.
    • In Beispiel 22q kann der Gegenstand von Beispiel 21q optional einschließen, dass das Substrat ein flexibles Substrat ist.
    • In Beispiel 23q kann der Gegenstand von Beispiel 22q optional umfassen, dass das flexible Substrat zumindest teilweise um die Empfängeroptikanordnung gekrümmt ist.
    • In Beispiel 24q kann der Gegenstand eines der Beispiele 2q und 22q oder 23q optional umfassen, dass das flexible Substrat zumindest teilweise um die Zylinderlinse oder die Kugellinse gekrümmt ist.
    • In Beispiel 25q kann der Gegenstand eines der Beispiele 1q bis 24q optional umfassen, dass die mindestens eine wellenleitende Komponente eine erste wellenleitende Komponente, eine zweite wellenleitende Komponente und ein Kopplungselement aufweist, das so konfiguriert ist, dass es die erste wellenleitende Komponente mit der wellenleitenden Komponente optisch koppelt.
    • In Beispiel 26q kann der Gegenstand von Beispiel 25q optional umfassen, dass das LIDAR-Sensorsystem zusätzlich eine Pumplichtquelle aufweist. Das Kopplungselement kann so konfiguriert werden, dass es Pumplicht für die Pumplichtquelle liefert.
    • In Beispiel 27q kann der Gegenstand eines der Beispiele 25q oder 26q optional umfassen, dass das Kopplungselement einen Anregungslaser aufweist.
    • In Beispiel 28q kann der Gegenstand von Beispiel 27q optional umfassen, dass das LIDAR-Sensorsystem zusätzlich einen Lasercontroller aufweist, der so konfiguriert ist, dass er den Anregungslaser in Übereinstimmung mit der Erzeugung eines LIDAR-Laserpulses aktiviert.
    • In Beispiel 29q kann der Gegenstand eines der Beispiele 1q bis 28q optional umfassen, dass die mindestens eine wellenleitende Komponente eine Vielzahl von optischen Fasern und einen Wellenleiter mit einer Vielzahl von Wellenleitern umfasst. Jede optische Faser kann einen Eingangsport und einen Ausgangsport aufweisen. Die Eingangsports können in eine erste Richtung gerichtet sein, um Licht zu empfangen. Jeder Wellenleiter kann einen oder mehrere Kopplungsbereiche aufweisen. Der Ausgangsport jeder optischen Faser kann mit einem der Kopplungsbereiche gekoppelt werden, um Licht von einer entsprechenden optischen Faser in den gekoppelten Wellenleiter zu koppeln.
    • In Beispiel 30q kann der Gegenstand von Beispiel 29q optional umfassen, dass der Wellenleiter ein monolithischer Wellenleiter ist.
    • In Beispiel 31q kann der Gegenstand eines der Beispiele 29q oder 30q optional umfassen, dass die Wellenleiter entlang einer zweiten Richtung angeordnet sind, die sich von der ersten Richtung unterscheidet.
    • In Beispiel 32q kann der Gegenstand von Beispiel 31q optional einschließen, dass die zweite Richtung im Wesentlichen senkrecht zur ersten Richtung verläuft.
    • In Beispiel 33q kann der Gegenstand eines der Beispiele 29q bis 32q optional umfassen, dass das LIDAR-Sensorsystem außerdem ein Mikrolinsen-Array aufweist, das stromaufwärts der Vielzahl der optischen Fasern angeordnet ist.
    • In Beispiel 34q kann der Gegenstand eines der Beispiele 29q bis 33q optional umfassen, dass eine Vielzahl von optischen Fasern an einen entsprechenden Wellenleiter der Vielzahl von Wellenleitern gekoppelt wird.
    • In Beispiel 35q kann der Gegenstand von Beispiel 34q optional umfassen, dass das LIDAR-Sensorsystem ferner mindestens einen optischen Schalter aufweist, der so konfiguriert ist, dass er eine optische Faser aus der Vielzahl von optischen Fasern auswählt, um Licht in den jeweils gekoppelten Wellenleiter der Vielzahl von Wellenleitern einzukoppeln.
    • In Beispiel 36q kann der Gegenstand eines der Beispiele 1q bis 35q optional umfassen, dass jedes Sensorpixel eine Fotodiode aufweist.
    • In Beispiel 37q kann der Gegenstand von Beispiel 36q optional umfassen, dass die Fotodiode eine PIN-Fotodiode ist.
    • In Beispiel 38q kann der Gegenstand von Beispiel 36q optional umfassen, dass die Fotodiode eine Fotodiode ist, die auf Lawinenverstärkung basiert.
    • In Beispiel 39q kann der Gegenstand von Beispiel 38q optional umfassen, dass die Fotodiode eine Lawinenfotodiode aufweist.
    • In Beispiel 40q kann der Gegenstand eines der Beispiele 38q oder 39q optional umfassen, dass die Lawinenfotodiode eine Einzel-Photonen-Lawinenfotodiode aufweist.
    • In Beispiel 41q kann der Gegenstand von Beispiel 40q optional umfassen, dass das LIDAR-Sensorsystem weiterhin einen Silizium-Fotomultiplier mit der Vielzahl von Sensorpixeln mit Einzelphotonen-Lawinen-Fotodioden aufweist.
  • In einem LIDAR-System, in dem die Szene spaltenweise beleuchtet und zeilenweise (d.h. mit einer Zeilenauflösung) empfangen wird, kann es erforderlich sein, eine breit abgetastete Szene auf ein schmales Fotodetektor-Array (das auch als Detektor oder Sensor (z.B. Sensor 52) bezeichnet wird) abzubilden. Daraus ergibt sich eine anamorphotische Optikanordnung, die in horizontaler Richtung eine kurze Brennweite und in vertikaler Richtung eine lange Brennweite hat. Der Detektor ist in der Regel in horizontaler Richtung eher klein, um das Übersprechen zwischen einzelnen Fotodioden so gering wie möglich zu halten. Dies kann dazu führen, dass auch das von jeder beleuchteten Säule auf die Sensorfläche auftreffende Licht durch eine schmale Blende passt, die etwa die gleiche Größenordnung hat wie die horizontale Brennweite des optischen Systems.
  • Die Blende kann im Allgemeinen eine beliebige Form haben, sie kann z.B. eine runde Form (z.B. elliptisch oder kreisförmig), eine rechteckige Form (z.B. quadratisch oder die Form eines Schlitzes), eine polygonale Form mit einer beliebigen Anzahl von Kanten und ähnliches haben.
  • Eine konventionelle LIDAR-Empfängeroptikanordnung kann so ausgelegt werden, dass die Abbildungsoptikanordnung (Abbildung in vertikaler Richtung und in der Regel mit der längeren Brennweite) azimutal um den Sensor herum angeordnet ist (z.B. als toroidale Linse). Der Betrachtungswinkel für eine solche Verkörperung entspricht in der Regel dem Winkel des horizontalen Gesichtsfeldes. Die Optikanordnung für die horizontale Richtung (meist mit kurzer Brennweite) wird in der Regel durch eine direkt vor dem Sensor angeordnete Zylinderlinse realisiert. Die Winkel für das horizontale Gesichtsfeld können im Bereich von etwa 60° und die Brennweite für die vertikale Richtung im Bereich von einigen Zentimetern liegen, so dass die erste Linse konventionell eine Abmessung von mehreren Quadratzentimetern hat. Und dies, obwohl die Blende für jede einzelne beleuchtete Säule deutlich kleiner ist.
  • Ein Aspekt dieser Offenbarung kann darin gesehen werden, dass das von einer Szene reflektierte Licht zunächst auf eine Optikanordnung trifft (auftrifft), die z.B. eine negative Brennweite in horizontaler Richtung hat. Dies kann zur Folge haben, dass das Licht, das auf den Sensor abgebildet wird und aus einem großen Winkelbereich kommt, nach der Optikanordnung einen bemerkenswert kleineren Winkelbereich hat. Weiterhin ist vor dem Sensor eine Optikanordnung mit positiver Brennweite in horizontaler Richtung vorgesehen, um das Licht auf den Sensor zu fokussieren.
  • Aufgrund des erheblich reduzierten horizontalen Winkelbereichs der Lichtstrahlen, die auf den Sensor abgebildet werden, kann die Anordnung der Abbildungsoptik in vertikaler Richtung für wesentlich kleinere horizontale Winkelbereiche dimensioniert bzw. konfiguriert werden. So kann eine konventionelle Zylinder- (oder A-Zylinder-) Optikanordnung verwendet werden. In der wesentlich kleineren Blende, die es erlaubt, die Einlassöffnung klein zu halten und eine geringere erforderliche geometrische Ausdehnung des optischen Systems zu erreichen, zeigen sich verschiedene Effekte verschiedener Ausführungsformen. Darüber hinaus sind die Linsen billiger, da sie nicht über ein so großes Volumen/Masse und nicht so große Oberflächen verfügen und da sie kleinere Volumina aufweisen.
  • Wir beziehen uns nun auf 33, das ein konventionelles optisches System 3300 für ein LIDAR-Sensorsystem zeigt. Das optische System 3300 umfasst eine breite Zylinderlinse 3302, die für eine vertikale Abbildung konfiguriert ist. Das optische System 3300 umfasst ferner in Richtung des optischen Pfades des einfallenden Lichts 3304 von der Zylinderlinse 3302 zum Sensor 52 eine horizontale Sammellinse 3306, gefolgt vom Sensor 52.
  • Der Sensor kann in Übereinstimmung mit jeder der in dieser Offenbarung vorgesehenen Ausführungsformen implementiert werden.
  • 34A zeigt eine dreidimensionale Ansicht eines optischen Systems 3400 für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen. Das optische System 3400 umfasst eine Optikanordnung 3402 mit einer negativen Brennweite in einer ersten Richtung oder einer positiven Brennweite in der ersten Richtung (nicht in 34A dargestellt), eine Abbildungsoptikanordnung 3404, die so konfiguriert ist, dass sie Licht in einer zweiten Richtung bricht. Die zweite Richtung bildet einen vordefinierten Winkel mit der ersten Richtung in einer Ebene senkrecht zur optischen Achse 3410 des optischen Systems 3400. Das optische System 3400 umfasst ferner eine Kollektoroptikanordnung 3406 stromabwärts im optischen Pfad 3304 der Optikanordnung 3402 und der Abbildungsoptikanordnung 3404 und ist so konfiguriert, dass es einen Lichtstrahl 3408, der von der Optikanordnung 3402 und der Abbildungsoptikanordnung 3404 kommt, entlang der ersten Richtung auf einen vorbestimmten Detektorbereich (z.B. den Sensor 52) fokussiert. Die folgenden Beispiele werden anhand der horizontalen Richtung als erste Richtung und der vertikalen Richtung als zweite Richtung dargestellt. Es ist jedoch zu beachten, dass jede andere Beziehung bezüglich des Winkels zwischen der ersten Richtung und der zweiten Richtung in verschiedenen Ausführungsformen gegeben sein kann. So kann z.B. in verschiedenen Ausführungsformen das gesamte optische System 3400 um einen beliebigen Winkel um die optische Achse 3410 in der Ebene senkrecht zur optischen Achse 3410 des optischen Systems 3400 gedreht werden, z.B. um 90°. In diesem Fall wäre die vertikale Richtung die erste Richtung und die horizontale Richtung die zweite Richtung. Der vordefinierte Winkel kann im Bereich von etwa 80° bis etwa 100° liegen, z.B. im Bereich von etwa 85° bis etwa 95°, z.B. im Bereich von etwa 88° bis etwa 92°, z.B. etwa 90°.
  • Das optische System 3400 kann nach verschiedenen Ausführungsformen sowohl eine Reduzierung des erforderlichen Gesamtraumes als auch eine Verkleinerung der Oberfläche der Linsen gegenüber einem konventionellen optischen System (wie z.B. gegenüber dem optischen System 3300 in 33) um den Faktor zwei oder sogar mehr erreichen. Das optische System 3400 kann so konfiguriert werden, dass es im nahen Infrarot (NIR) arbeitet (d.h. im Bereich von ca. 905 nm), und kann ein Sichtfeld (FoV) in horizontaler Richtung im Bereich von ca. 30° bis ca. 60° und ein Sichtfeld in vertikaler Richtung von ca. 10° haben. Das optische System 3400 kann in einer Kfz-Einrichtung oder in jeder Art von Fahrzeug oder Flugobjekt wie z.B. einem unbemannten (autonomen) Flugobjekt (z.B. einer Drohne) eingesetzt werden. Die Zylinderlinse 3302 des konventionellen optischen Systems, wie in 33 dargestellt, hat normalerweise eine Breite im Bereich von etwa 30 mm bis etwa 100 mm und im Vergleich dazu kann die Abbildungsoptikanordnung 3404 des optischen Systems 3400 von 34 eine Breite z.B. im Bereich von etwa 2 mm bis etwa 25 mm haben, z.B. im Bereich von etwa 5 mm bis etwa 20 mm. Die Höhe des optischen Systems 3400 gemäß 34 kann im Bereich von mehreren cm liegen, z.B. im Bereich von etwa 5 mm bis etwa 20 mm. Einige oder alle optischen Komponenten des optischen Systems 3400, wie z.B. die Optikanordnung 3402, die Abbildungsoptikanordnung 3404 und die Kollektoroptikanordnung 3406, können aus Glas bestehen. Als Alternative können einige oder alle optischen Komponenten des optischen Systems 3400, wie die Optikanordnung 3402, die Abbildungsoptikanordnung 3404 und die Kollektoroptikanordnung 3406, aus Kunststoff wie Poly(methylmethacrylat (PMMA) oder Polycarbonat (PC) bestehen.
  • 34B zeigt eine dreidimensionale Ansicht eines optischen Systems 3420 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen ohne Anordnung einer Kollektoroptik. 34C zeigt eine Draufsicht auf das optische System aus 34B und 34D eine Seitenansicht des optischen Systems aus 34B.
  • Verglichen mit dem optischen System 3400, wie in 34A dargestellt, hat das optische System 3420 von 34B nicht die Kollektoroptikanordnung 3406. Die Kollektoroptikanordnung 3406 ist optional, z.B. für den Fall, dass eine horizontale Fokussierung nicht erforderlich ist. Das in 34B gezeigte optische System 3420 ermöglicht ein einfacheres und damit kostengünstigeres Design für eine Abbildung in vertikaler Richtung.
  • 35 zeigt eine Draufsicht 3500 des optischen Systems 3400 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen. 36 zeigt eine Seitenansicht 3600 des optischen Systems 3400 für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsvarianten. Wie in 35 dargestellt, werden Lichtstrahlen 3504, die auf den Sensor abgebildet werden und durch eine Eintrittsöffnung, wie z.B. ein Fenster (nicht dargestellt), unter einem ziemlich großen Seitenwinkel (z.B. erste Lichtstrahlen 3504 wie in 35 dargestellt) in Richtung der optischen Achse 3410 des optischen Systems 3400 gebrochen. Mit anderen Worten: Lichtstrahlen 3504, die unter einem relativ großen Winkel zur optischen Achse 3410 durch das Fenster kommen (z.B. erste Lichtstrahlen 3504, wie in 35 gezeigt), werden in Richtung der optischen Achse 3410 des optischen Systems 3400 gebrochen.
  • Lichtstrahlen 3502, 3506, die unter einem kleineren Seitenwinkel durch das Fenster kommen, z.B. auch unter einem Seitenwinkel von fast 0° (z.B. zweiter Lichtstrahl 3506 oder dritter Lichtstrahl 3502 wie in 35 dargestellt) werden weniger in Richtung der optischen Achse 3410 des optischen Systems 3400 gebrochen. Aufgrund der Brechung durch die Optikanordnung 3402 mit z.B. negativer Brennweite in horizontaler Richtung kann die Abbildungsoptikanordnung 3404 für wesentlich kleinere horizontale Winkel ausgelegt werden. So kann die Abbildungsoptikanordnung 3404 als Zylinderlinse oder als asphärische Zylinderlinse ausgeführt werden. Wie in 35 gezeigt, kann die Abbildungsoptikanordnung 3404 in Bezug auf den Strahlengang hinter der Optik 3402 angeordnet sein. Die Kollektoroptikanordnung 3406 kann in Bezug auf den Lichtweg stromabwärts (in Bezug auf den Lichtweg) in Bezug auf die Abbildungsoptikanordnung 3404 angeordnet sein. Die Kollektoroptikanordnung 3406 kann so konfiguriert werden, dass sie den ersten und zweiten Lichtstrahl 3504, 3506 in Richtung des Sensors 52 fokussiert, so dass möglichst viel Licht des ersten und zweiten Lichtstrahls 3504, 3506 auf die Oberfläche des Sensors 52 und seine Sensorpixel trifft.
  • Wie in 36 dargestellt, werden die Lichtstrahlen 3502, 3504, 3506 (die Gesamtheit der Lichtstrahlen 3502, 3504, 3506 wird als Lichtstrahlen 3408 bezeichnet) in Richtung der Oberfläche des Sensors 52 abgelenkt. Die Abbildungsoptikanordnung 3404 ist also so konfiguriert, dass die Lichtstrahlen 3502, 3504, 3506 in Bezug auf die vertikale Richtung zum Sensor 52 hin fokussiert werden.
  • Wie bereits oben beschrieben, werden die Lichtstrahlen 3504, die unter einem relativ großen Seitenwinkel durch das Fenster 3502 kommen (z.B. erste Lichtstrahlen 3504 wie in 35 dargestellt), durch die Optikanordnung 3402 in Richtung der optischen Achse des optischen Systems 3400 gebrochen. Zur Veranschaulichung: Die Optikanordnung 3402 bricht Lichtstrahlen aus einem großen Sichtfeld in kleinere Winkel zu der vor dem Sensor 52 angeordneten Kollektoroptikanordnung 3406. Dadurch kann die Abbildungsoptikanordnung 3404 für wesentlich kleinere Winkelbereiche ausgelegt werden. Dies führt in verschiedenen Ausführungsvarianten zu einer Verringerung der Breite des optischen Systems 3400 um z.B. den Faktor sieben gegenüber dem konventionellen optischen System 3300, wie in 33 dargestellt.
  • 37A zeigt eine Draufsicht 3700 eines optischen Systems für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen. 37B zeigt eine Seitenansicht 3706 eines optischen Systems für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen.
  • Als Alternative kann, wie in 37B und 37C gezeigt, ein optisches System 3700 eine Optikanordnung 3702 mit einer positiven Brennweite in horizontaler Richtung aufweisen (z.B. als Sammellinse 3702 ausgeführt). Auch in diesem Fall kann die Abbildungsoptikanordnung 3404 für wesentlich kleinere horizontale Winkel ausgelegt sein. So kann die Abbildungsoptikanordnung 3404 als Zylinderlinse oder als asphärische Zylinderlinse ausgeführt sein. In diesem Beispiel wird ein virtuelles Bild 3704 vor der Kollektoroptikanordnung 3406 erzeugt (nur in der horizontalen Ebene). Die Kollektoroptikanordnung 3406 liefert eine Abbildung des virtuellen Bildes 3704 auf den Sensor 52. Es ist zu beachten, dass die Funktion der Optikanordnung 3702 mit positiver Brennweite in horizontaler Richtung die gleiche ist wie die der Optikanordnung 3402 mit negativer Brennweite in horizontaler Richtung: Die Lichtstrahlen werden so aufgeweitet, dass die Kollektoroptik 3406 so weit wie möglich (z.B. im wesentlichen vollständig) ausgeleuchtet wird und der Winkel zwischen den interessierenden Lichtstrahlen und der optischen Achse 3410 verkleinert wird. Ein Effekt dieser Verkörperungen ist darin zu sehen, dass das Licht durch eine sehr schmale Blende (mit einer Breite von nur wenigen mm) vor der Optikanordnung 3702 passt. Außerdem können die Blendenebenen in horizontaler und vertikaler Richtung sehr nahe beieinander liegen, was hinsichtlich der Blockierung störender Lichtstrahlen effizient sein kann. 37B zeigt, ähnlich wie 36, wie die Lichtstrahlen in vertikaler Richtung auf den Sensor (52) fokussiert werden.
  • 37C zeigt eine dreidimensionale Ansicht 3710 eines optischen Systems für ein LIDAR-Sensorsystem in Übereinstimmung mit verschiedenen Ausführungsformen einschließlich einer Optikanordnung 3704 mit positiver Brennweite in horizontaler Richtung.
  • Es ist zu beachten, dass sich die Optikanordnung 3402 auch stromabwärts in Bezug auf die Abbildungsoptikanordnung 3404, aber stromaufwärts in Bezug auf die Kollektoroptikanordnung 3406 befinden kann. In diesen Ausführungsformen kann der Effekt der Auslegung einiger optischer Komponenten für kleinere Winkelbereiche nur für diejenigen optischen Komponenten gelten, die sich zwischen der Optikanordnung 3402 und der Kollektoroptikanordnung 3406 befinden.
  • Darüber hinaus können alle im optischen System vorgesehenen optischen Anordnungen als ein oder mehrere Spiegel oder als eine oder mehrere optische Komponenten außer der einen oder mehreren Linsen ausgeführt sein.
  • Wie bereits oben angedeutet, kann die Optikanordnung in der ersten Richtung, z.B. in horizontaler Richtung, eine positive Brennweite haben. In diesem Fall wird ein reales Zwischenbild zwischen der Optikanordnung 3402 und der Kollektoroptikanordnung 3406 erzeugt. Die Kollektoroptikanordnung 3406 kann dann das reale Zwischenbild auf den Sensor 52 abbilden.
  • 37D zeigt eine dreidimensionale Ansicht 3720 eines optischen Systems für ein LIDAR-Sensorsystem nach verschiedenen Ausführungsformen, darunter eine Freiform-Optikanordnung 3722, die als Freiformlinse 3722 ausgeführt ist. 37E zeigt eine Draufsicht auf das optische System von 37D und 37F zeigt eine Seitenansicht des optischen Systems von 37D.
  • Zur Veranschaulichung: Die Optikanordnung 3402 und die Abbildungsoptikanordnung 3404 kann durch genau eine Freiformlinse 3722 (oder eine Vielzahl von Freiformlinsen) realisiert werden. Alternativ können die Optikanordnung 3402 und die Abbildungsoptikanordnung 3404 durch genau eine einzige brechende Fläche (oder mehrere brechende Flächen) und/oder durch genau eine einzige reflektierende Fläche (oder mehrere reflektierende Flächen) realisiert werden.
  • Verschiedene Ausführungsformen eignen sich für alle anamorphotischen Optikanordnungen. Die Effekte werden umso stärker, je größer die Unterschiede der Brennweiten in den verschiedenen Ebenen sind.
  • Das optische System 3400 kann Teil des zweiten LIDAR-Abtastsystems 50 sein. Das zweite LIDAR-Erfassungssystem 50 kann ferner einen Detektor (d.h. Sensor) 52 aufweisen, der stromabwärts im optischen Pfad des optischen Systems 3400 angeordnet ist. Der Sensor 52 kann eine Vielzahl von Sensorpixeln und somit eine Vielzahl von Fotodioden aufweisen. Wie oben beschrieben, können die Fotodioden PIN-Fotodioden, Lawinenfotodioden und/oder Einzelphotonen-Lawinenfotodioden sein. Das zweite LIDAR-Sensorsystem 50 kann ferner einen Verstärker (z.B. einen Transimpedanzverstärker) aufweisen, der so konfiguriert ist, dass er ein von der Vielzahl von Fotodioden geliefertes Signal verstärkt, sowie optional einen Analog-Digital-Wandler, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln. In verschiedenen Ausführungsformen kann das erste LIDAR-Abtastsystem 40 eine Abtastspiegelanordnung aufweisen, die zum Abtasten einer Szene konfiguriert ist. Die Abtastspiegelanordnung kann z.B. so konfiguriert sein, dass sie die Szene mit einem Laserstreifen abtastet, der sich in der zweiten (z.B. vertikalen) Richtung im Objektraum erstreckt.
  • In allen oben beschriebenen Ausführungsformen kann ein erstes Verhältnis eines Sichtfeldes des optischen Systems in horizontaler Richtung und eines Sichtfeldes des optischen Systems in vertikaler Richtung größer sein als ein zweites Verhältnis einer Breite des Detektorbereichs und einer Höhe des Detektorbereichs. Zum Beispiel kann das erste Verhältnis mindestens um den Faktor zwei, z.B. mindestens um den Faktor fünf, z.B. mindestens um den Faktor zehn, z.B. mindestens um den Faktor zwanzig, größer sein als das zweite Verhältnis. In einer Ausführung darf das Sichtfeld des optischen Systems in horizontaler Richtung etwa 60° und das Sichtfeld des optischen Systems in vertikaler Richtung etwa 12° betragen. Außerdem darf in einer Ausführung die Breite des Detektorbereichs etwa 2,5 mm und/oder die Höhe des Detektorbereichs etwa 14 mm betragen.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 33 bis 37 beschrieben, können mit den Ausführungsformen, wie unter Bezugnahme auf 120 bis 122 beschrieben, kombiniert werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1c ist ein optisches System für ein LIDAR-Sensorsystem. Das optische System umfasst eine Optikanordnung mit einer negativen Brennweite in einer ersten Richtung oder einer positiven Brennweite in der ersten Richtung, eine Abbildungsoptikanordnung, die so konfiguriert ist, dass sie Licht in einer zweiten Richtung bricht. Die zweite Richtung bildet einen vordefinierten Winkel mit der ersten Richtung in einer Ebene, die im Wesentlichen senkrecht zur optischen Achse des optischen Systems verläuft.
    • In Beispiel 2c kann der Gegenstand von Beispiel 1c optional umfassen, dass das optische System eine Kollektoroptikanordnung umfasst, die im optischen Pfad der Optikanordnung und der Abbildungsoptikanordnung nachgeschaltet und so konfiguriert ist, dass sie einen von der Optikanordnung und der Abbildungsoptikanordnung kommenden Lichtstrahl in der ersten Richtung auf einen vorbestimmten Detektorbereich fokussiert.
    • In Beispiel 3c kann der Gegenstand eines der Beispiele 1c oder 2c optional umfassen, dass der vordefinierte Winkel so gewählt wird, dass er in einem Bereich von etwa 80° bis etwa 100° liegt.
    • In Beispiel 4c kann der Gegenstand von Beispiel 3c optional umfassen, dass der vordefinierte Winkel so gewählt wird, dass er ungefähr 90° beträgt.
    • In Beispiel 5c kann der Gegenstand eines der Beispiele 1c bis 4c optional umfassen, dass ein erstes Verhältnis eines Sichtfeldes des optischen Systems in horizontaler Richtung und eines Sichtfeldes des optischen Systems in vertikaler Richtung größer ist als ein zweites Verhältnis einer Breite des Detektorbereichs und einer Höhe des Detektorbereichs.
    • In Beispiel 6c kann der Gegenstand von Beispiel 5c optional umfassen, dass das erste Verhältnis mindestens um den Faktor zwei, z.B. mindestens um den Faktor fünf, z.B. mindestens um den Faktor zehn, z.B. mindestens um den Faktor zwanzig, größer als das zweite Verhältnis ist.
    • In Beispiel 7c kann der Gegenstand eines der Beispiele 1c bis 6c optional umfassen, dass der vorgegebene Detektorbereich entlang der zweiten Richtung größer ist als in der ersten Richtung. Das Sichtfeld der Optikanordnung hat in der ersten Richtung eine größere Ausdehnung als in der zweiten Richtung, so dass die Optikanordnung einen anamorphotischen Charakter hat.
    • In Beispiel 8c kann der Gegenstand eines der Beispiele 1c bis 7c optional umfassen, dass die erste Richtung die horizontale Richtung des optischen Systems ist. Die zweite Richtung ist die vertikale Richtung des optischen Systems.
    • In Beispiel 9c kann der Gegenstand eines der Beispiele 1c bis 8c optional umfassen, dass die erste Richtung die vertikale Richtung des optischen Systems ist. Die zweite Richtung ist die horizontale Richtung des optischen Systems.
    • In Beispiel 10c kann der Gegenstand eines der Beispiele 1c bis 9c optional umfassen, dass die Optikanordnung so konfiguriert ist, dass das Licht in Richtung der optischen Achse des optischen Systems gebrochen wird.
    • In Beispiel 11c kann der Gegenstand eines der Beispiele 1c bis 10c optional umfassen, dass die Abbildungsoptikanordnung eine Zylinderlinse oder eine asphärische Zylinderlinse aufweist oder im Wesentlichen aus einer Zylinderlinse oder einer asphärischen Zylinderlinse besteht.
    • In Beispiel 12c kann der Gegenstand eines der Beispiele 1c bis 11c optional umfassen, dass die Abbildungsoptikanordnung eine Breite im Bereich von etwa 2 mm bis etwa 25 mm hat.
    • In Beispiel 13c kann der Gegenstand eines der Beispiele 1c bis 12c optional umfassen, dass die Abbildungsoptikanordnung eine Breite im Bereich von etwa 5 mm bis etwa 20 mm hat.
    • In Beispiel 14c kann der Gegenstand eines der Beispiele 1c bis 13c optional umfassen, dass das optische System eine Höhe im Bereich von etwa 1 cm bis etwa 8 cm hat.
    • In Beispiel 15c kann der Gegenstand eines der Beispiele 1c bis 14c optional umfassen, dass die Optikanordnung und/oder die Abbildungsoptikanordnung aus mindestens einem Material hergestellt ist, das aus einer Gruppe ausgewählt ist, die aus Glas, Polycarbonat und Poly(methylmethacrylat) besteht.
    • In Beispiel 16c kann der Gegenstand eines der Beispiele 2c bis 15c optional umfassen, dass die Optikanordnung des Kollektors aus mindestens einem Material besteht, das aus einer Gruppe ausgewählt wird, die aus Glas, Polycarbonat und Poly(methylmethacrylat) besteht.
    • In Beispiel 17c kann der Gegenstand eines der Beispiele 1c bis 16c optional umfassen, dass sich die Optikanordnung vor der Abbildungsoptikanordnung im Strahlengang der Optikanordnung befindet.
    • In Beispiel 18c kann der Gegenstand eines der Beispiele 1c bis 17c optional umfassen, dass sich die Optikanordnung stromabwärts der Abbildungsoptikanordnung und stromaufwärts der Kollektoroptikanordnung im optischen Pfad der Optikanordnung befindet.
    • In Beispiel 19c kann der Gegenstand eines der Beispiele 1c bis 18c optional umfassen, dass die Optikanordnung und/oder die Abbildungsoptikanordnung aus mindestens einem Spiegel und/oder mindestens einer Linse besteht.
    • In Beispiel 20c kann der Gegenstand eines der Beispiele 2c bis 19c optional umfassen, dass die Kollektoroptikanordnung aus mindestens einem Spiegel und/oder mindestens einer Linse besteht.
    • In Beispiel 21c kann der Gegenstand eines der Beispiele 1c bis 20c optional umfassen, dass die Optikanordnung und die Abbildungsoptikanordnung in einer einzigen Freiformoptikanordnung integriert sind.
    • In Beispiel 22c kann der Gegenstand eines der Beispiele 1c bis 21c optional umfassen, dass die Optikanordnung und die Abbildungsoptikanordnung in einer einzigen brechenden Oberfläche und/oder in einer einzigen reflektierenden Oberfläche integriert sind.
    • In Beispiel 23c kann der Gegenstand eines der Beispiele 1c bis 22c optional umfassen, dass das optische System als anamorphotisches optisches System konfiguriert ist.
    • Beispiel 24c ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem umfasst ein optisches System gemäß einem der Beispiele 1c bis 23c und einen Detektor, der im optischen Pfad des optischen Systems im Detektorbereich nachgeschaltet ist.
    • In Beispiel 25c kann der Gegenstand von Beispiel 24c optional umfassen, dass der Detektor eine Vielzahl von Fotodioden aufweist.
    • In Beispiel 26c kann der Gegenstand eines der Beispiele 24c oder 25c optional umfassen, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 27c kann der Gegenstand von Beispiel 26c optional umfassen, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 28c kann der Gegenstand eines der Beispiele 27c optional umfassen, dass das LIDAR-Sensorsystem zusätzlich einen Zeit-Digital-Wandler aufweist, der mit mindestens einer der Einzelphotonen-Lawinen-Fotodioden gekoppelt ist.
    • In Beispiel 29c kann der Gegenstand eines der Beispiele 24c bis 28c optional umfassen, dass das LIDAR-Sensorsystem ferner einen Verstärker aufweist, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 30c kann der Gegenstand von Beispiel 29c optional umfassen, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 31c kann der Gegenstand eines der Beispiele 29c oder 30c optional umfassen, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler aufweist, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln.
    • In Beispiel 32c kann der Gegenstand eines der Beispiele 25c bis 31c optional umfassen, dass das LIDAR-Sensorsystem darüber hinaus eine Abtastspiegelanordnung aufweist, die zum Abtasten einer Szene konfiguriert ist.
    • In Beispiel 33c kann der Gegenstand von Beispiel 32c optional umfassen, dass die Abtastspiegelanordnung so konfiguriert wird, dass die Szene von einem Laserstreifen abgetastet wird, der sich in der zweiten Richtung im Objektraum erstreckt.
    • In Beispiel 34c kann der Gegenstand von Beispiel 33c optional umfassen, dass die Abtastspiegelanordnung so konfiguriert wird, dass die Szene von einem Laserstreifen abgetastet wird, der sich in vertikaler Richtung im Objektraum erstreckt.
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einer LIDAR-Sensoreinrichtung zur Beleuchtung eines Umgebungsraumes kombiniert werden, die mit einer Lichtsteuereinheit verbunden ist.
  • LIDAR-Systeme können verwendet werden, um die Umgebung eines LIDAR-Gerätes zu ermitteln. Im Gegensatz zu passiven Lichtempfängern, wie CMOS-Kameras oder anderen passiven Sensorvorrichtungen, senden LIDAR-Geräte einen Lichtstrahl, im Allgemeinen Laserlicht, aus, der von einem Objekt reflektiert und gestreut wird und als reflektiertes Licht erkannt wird, das zu einem Detektor des LIDAR-Systems zurückläuft.
  • Das vom LIDAR-System in Form eines Lichtstrahls oder eines Lasers ausgesandte Licht hat nicht immer ein einheitliches oder ideales Profil. Beispielsweise kann die optische Ausgangsleistung eines LIDAR-Systems von Laserdiode zu Laserdiode variieren oder sich in Abhängigkeit von den Ansteuerbedingungen der Dioden ändern. Außerdem können alternde LIDAR-Systeme im Vergleich zu neuen LIDAR-Systemen unterschiedliche optische Leistungsprofile abgeben.
  • Gegenwärtige LIDAR-Systeme können Schwierigkeiten haben, eine sichere und konsistente optische Ausgangsleistung beizubehalten und dennoch eine präzise Detektion mit einem guten Signal-Rausch-Verhältnis zu erzielen. Mathematisch gesehen wird die optische Laserleistung um eins über das Quadrat der Entfernung reduziert. Daher liefert ein Objekt, das doppelt so weit entfernt ist wie ein anderes Objekt, ein optisches Leistungsprofil, das ein Viertel des optischen Leistungsprofils des näheren Objekts beträgt.
  • Es kann daher vorgesehen werden, die Ausgangsleistung des LIDAR-Systems zu erhöhen, um ein Objekt in der doppelten Entfernung eines anderen Objekts zu erkennen. Dadurch wird das Signal-Rausch-Verhältnis erhöht. Dies ist jedoch möglicherweise nicht durchführbar, ohne das nähere Objekt potenziell unerwünschten Laserenergien auszusetzen.
  • Gegenwärtige LIDAR-Systeme sind möglicherweise nicht in der Lage, Ungleichmäßigkeiten in der Laserleistung eines LIDAR-Systems oder Inkongruenzen im Laserstrahlsignal, das vom LIDAR-Detektor erfasst wird, zu kompensieren. Diese Inkongruenzen können durch eine nicht optimale Optik, das Alter der Laserdiode, die Umgebungsbedingungen des LIDAR-Systems oder durch Objekte in unterschiedlichen Abständen vom LIDAR-System verursacht werden.
  • In verschiedenen Ausführungsformen kann ein LIDAR-System durch den Einbau eines räumlichen Lichtmodulators zur Modulation der Laserausgangsleistung verbessert werden. Auf diese Weise lässt sich ein wohldefiniertes und anpassbares Laserstrahlprofil erzeugen. Der räumliche Lichtmodulator kann sich optisch hinter der Laserdiode oder dem Ursprung der Laserleistung befinden.
  • In verschiedenen Ausführungsformen kann der räumliche Lichtmodulator die Laserleistung Pixel für Pixel modulieren. Auf diese Weise kann die Laserleistungsabgabe modifiziert, geformt oder konturiert werden, um eine ideale oder gleichmäßige Leistungsabgabeverteilung zu erreichen. In anderen verschiedenen Ausführungsformen kann die Laserausgangsleistung absichtlich verzerrt werden, um die korrekte Beleuchtung von Objekten im LIDAR-Sichtfeld zu kompensieren oder anzupassen.
  • Das LIDAR-System kann so konfiguriert werden, dass die Laserleistung in Echtzeit überwacht und geregelt wird. Dies kann über eine Rückkopplungsschleife vom optischen LIDAR-Sensor zu einem räumlichen Lichtmodulator erfolgen. Die Modulation der Laserausgangsleistung in Echtzeit kann Pixel für Pixel über einen Raumlichtmodulator-Controller erfolgen.
  • Die Regelung der Laserausgangsleistung kann nicht nur zur Formung und Normalisierung der Laserausgangsleistung verwendet werden, sondern auch in Fällen, in denen eine Laserdiode verschleißt, ausfällt oder nicht gemäß den Spezifikationen funktioniert. Beispielsweise kann eine Lebensdauer von Laserdioden oder mehreren Dioden in einem LIDAR-Systempaket enthalten sein, so dass bei Verschleiß, Ausfall oder Fehlfunktion einer Laserdiode eine neue Laserdiode vorhanden sein kann, um gleichzeitig die nicht konforme Diode durch eine neue Diode zu ersetzen. So kann die Laserleistung der neuen Laserdiode durch den räumlichen Lichtmodulator so verändert werden, dass sie einer idealen Laserleistung oder alternativ der Leistung der vorherigen Laserdiode entspricht, bevor diese sich falsch verhalten hat.
  • In verschiedenen Ausführungsformen kann der räumliche Lichtmodulator verwendet werden, um ein LIDAR-Sichtfeld so zu formen, dass das Signal-Rausch-Verhältnis optimiert wird. Daher kann bei einem Objekt, das doppelt so weit vom LIDAR-System entfernt ist wie ein anderes Objekt, die Laserleistungsabgabe so eingestellt werden, dass die Leistungsabgabe in dem Bereich des Sichtfeldes, in dem sich das nähere Objekt befindet, geringer ist und die Leistungsabgabe in dem Sichtfeld, in dem sich das weiter entfernte Objekt befindet, höher wäre.
  • Darüber hinaus kann in Fällen, in denen ein Unbeteiligter durch das LIDAR-Sensorsystem über ein Objektklassifizierungssystem erkannt werden kann, die Laserleistung in diesem Bereich des Sichtfeldes des LIDAR-Systems gedämpft werden, um die Energiebelastung für die Umstehenden oder andere Verkehrsteilnehmer zu verringern und somit eine mögliche unerwünschte Belastung durch Laserstrahlung mit höherer Energie zu reduzieren. Dies kann als Ausfallsicherung dienen und die Sicherheitseigenschaften des LIDAR-Systems erhöhen, z.B. hinsichtlich der Augensicherheitseigenschaften.
  • Schließlich kann der räumliche Lichtmodulator eingesetzt werden, um das vom LIDAR-System emittierte Licht nach verschiedenen Ausführungsformen linear zu polarisieren. Daher kann das emittierte und zum Sensor des LIDAR-Systems zurückreflektierte Licht (d.h. das Licht im Senderpfad oder das Licht im Empfängerpfad) linear polarisiert oder zirkular polarisiert sein. In einer solchen Verkörperung kann der LIDAR-Systemsensor z.B. durch Verwendung von Polarisationsfiltern so konfiguriert werden, dass nur das plan oder zirkular polarisierte Licht erfasst wird, was das Signal-Rausch-Verhältnis erhöhen kann, da verschiedene andere Polarisationen des Umgebungslichts ausgefiltert werden können, bevor das Licht auf den LIDAR-Systemsensor fällt oder von diesem erfasst wird.
  • 59 zeigt ein LIDAR-Sensorsystem 5900 nach verschiedenen Ausführungsformen. In verschiedenen Ausführungsformen ist das LIDAR-Sensorsystem ein Flash-LIDAR-System. In verschiedenen Ausführungsformen ist das LIDAR-System ein Scanning-LIDAR-System. Das LIDAR-Sensorsystem 5900 kann eine Laserquelle 5902 mit mindestens einer Laserdiode zur Lichterzeugung, eine erste Optikanordnung 5906, einen räumlichen Lichtmodulator 5910, eine zweite Optikanordnung 5908 und einen räumlichen Lichtmodulator-Controller 5914 aufweisen. Es ist zu beachten, dass die Signalverarbeitung und/oder die Erzeugung von Steuersignalen zur Steuerung des räumlichen Lichtmodulators 5910 (z.B. durch den räumlichen Lichtmodulator-Controller 5914) mittels Künstlicher Intelligenz, z.B. durch Deep-Learning-Algorithmen (z.B. unter Verwendung eines oder mehrerer neuronaler Netze), realisiert werden kann. In Kombination erzeugen die Komponenten des LIDAR-Sensorsystems 5900 ein Sichtfeld 5912 des LIDAR-Systems 5900. Das LIDAR-Sensorsystem 5900 kann zusätzliche Komponenten aufweisen, die erforderlich sind, um ein optisches Profil mit einem klaren Signal und einem hohen Intensitätskontrast oder einem hohen Signal-Rausch-Verhältnis zu erkennen.
  • In verschiedenen Ausführungsformen emittiert die Laserquelle 5902 einen Laserstrahl mit einer Wellenlänge im infraroten Wellenlängenbereich und lenkt das Laserlicht in einen Laserweg 5904 in Richtung des Sichtfeldes 5912. Somit kann die erste Optikanordnung 5906 optisch hinter der Laserquelle 5902 angeordnet sein. Danach kann der räumliche Lichtmodulator 5910 optisch hinter der ersten Optikanordnung 5906 angeordnet sein. Die zweite Optikanordnung kann optisch hinter dem räumlichen Lichtmodulator 5910 angeordnet sein.
  • Die erste Optikanordnung 5906 und die zweite Optikanordnung 5908 können dazu dienen, das Licht vor und nach dem räumlichen Lichtmodulator 5910 zu brechen. Wenn der räumliche Lichtmodulator 5910 in gepixelte Bereiche unterteilt ist, kann die erste Optikanordnung 5906 dazu dienen, das Licht durch diese gepixelten Bereiche zu lenken, so dass das Licht durch den räumlichen Lichtmodulator 5910 durchgelassen wird. Die zweite Optikanordnung 5908 kann dazu dienen, das Licht hinter dem räumlichen Lichtmodulator 5910 zu brechen. Daher kann das Licht in verschiedene Bereiche des Sichtfeldes 5912 gelenkt werden. In verschiedenen Ausführungsformen kann die zweite Optikanordnung 5908 dazu dienen, das Licht so zu brechen, dass es sich in das Sichtfeld 5912 ausbreitet.
  • In verschiedenen Ausführungsformen kann es innerhalb der ersten Optikanordnung 5906 eine oder mehrere Linsen geben. Alternativ oder zusätzlich kann die erste Optikanordnung 5906 diffraktive optische Elemente (DOE) und/oder holographische optische Elemente (HOE) aufweisen. Darüber hinaus kann die zweite Optikanordnung 5908 eine oder mehrere Linsen aufweisen. Die erste Optiknordnung 5906 kann eine konvexe Linse sein. Die zweite Optiknordnung 5908 kann auch eine konvexe Linse sein. Nach verschiedenen Ausführungsformen können die erste Optikanordnung 5906 und die zweite Optikanordnung 5908 so konfiguriert sein, dass sie einen Krümmungswinkel aufweisen, der ideal für die Größe und Form des räumlichen Lichtmodulators 5910 und das Sichtfeld 5912 ist. Die erste Optikanordnung 5906 kann so konfiguriert werden, dass sie einen solchen Krümmungswinkel aufweist, dass das Licht in den räumlichen Lichtmodulator kollimiert werden kann. Darüber hinaus kann die zweite Optikanordnung 5908 so konfiguriert werden, dass das Licht in die optimalen Abmessungen des Sichtfeldes 5912 gebrochen wird.
  • Wie bereits erwähnt, kann der räumliche Lichtmodulator 5910 gepixelt werden, so dass Länge und Breite des räumlichen Lichtmodulators 5910 in Bereiche mit steuerbaren Eigenschaften segmentiert werden. Diese Pixelierung kann in Form von rechteckigen oder quadratischen Bereichen erfolgen, die als „Pixel“ des räumlichen Lichtmodulators 5910 zugeordnet werden können. Die Pixel können jedoch jede Form annehmen, die zur Segmentierung des räumlichen Lichtmodulators 5910 erforderlich ist.
  • Der räumliche Lichtmodulator 5910 kann die Form einer Flüssigkristallanzeige (LCD), einer Flüssigkristall-auf-Silizium-Vorrichtung (LCoS) oder eines Flüssigkristallvorrichtungspanels mit einer Flüssigkristallpixelanordnung haben. In verschiedenen Ausführungsformen kann die LCD aus Metamaterialien bestehen. In verschiedenen Ausführungsformen kann der räumliche Lichtmodulator 5910 eine Flüssigkristall-Metaseite (LCM) aufweisen. In verschiedenen Ausführungen kann der räumliche Lichtmodulator 5910 Flüssigkristall-Polarisationsgitter (LCPG) aufweisen, oder der räumliche Lichtmodulator 5910 kann eine oder mehrere digitale Spiegelvorrichtungen (DMD) aufweisen.
  • Der räumliche Lichtmodulator 5910 ist so konfiguriert, dass er die Laserausgangsleistung reguliert. Beispielsweise kann er verwendet werden, um die Laserleistung Pixel für Pixel zu regulieren. Der räumliche Lichtmodulator 5910 kann Hunderte, Tausende, Millionen oder Milliarden von Pixeln umfassen, ist jedoch nicht in der Anzahl der Pixel begrenzt, die den Regionen des räumlichen Lichtmodulators 5910 zugeordnet werden können. Die Pixel des räumlichen Lichtmodulators 5910 können mechanisch oder theoretisch definiert sein. Die Pixel selbst können Regionen eines kontinuierlichen und gleichmäßigen Anzeigebereichs sein, der als Pixel zuweisbar ist.
  • Der Controller für den räumlichen Lichtmodulator 5914 kann den räumlichen Lichtmodulator 5910 in Echtzeit steuern, obwohl es vorhersehbar sein kann, dass der räumliche Lichtmodulator 5910 periodisch kalibriert werden könnte, anstatt in Echtzeit moduliert zu werden, wie z.B. im Falle eines alterungsbedingten, nicht idealen Leistungsausgangsprofils. Daher kann der räumliche Lichtmodulator 5910 periodisch kalibriert werden, wenn das LIDAR-Sensorsystem 5900 und die LIDAR-Dioden altern. Darüber hinaus kann der räumliche Lichtmodulator 5910 zunächst kalibriert werden, bevor das LIDAR-Sensorsystem 5900, in dem er eingebaut ist, in Betrieb genommen wird. Von Zeit zu Zeit kann das LIDAR-Sensorsystem zusätzlich mit Upgrade-Parametern aufgerüstet werden, die in die Firmware des LIDAR-Sensorsystems 5900 geladen werden. Diese Upgrade-Parameter können das Sichtfeld 5912 oder das Laserstrahlprofil ändern oder die Konfiguration des räumlichen Lichtmodulators 5910 aktualisieren. So kann der räumliche Lichtmodulator 5910 von Zeit zu Zeit optimiert werden, um ein optimales Laserstrahlprofil zu erreichen.
  • Die Echtzeitsteuerung des räumlichen Lichtmodulators 5910 durch den räumlichen Lichtmodulator-Controller 5914 kann in der Größenordnung von Sekunden, Millisekunden, Mikrosekunden oder Nanosekunden erfolgen. Zum Beispiel kann die Steuerung und Echtzeit-Modulation einer Flüssigkristall-Metafläche, die als räumlicher Lichtmodulator 5910 arbeitet, auf einer Zeitskala von 1 bis 100 Mikrosekunden oder 500 Nanosekunden bis 1 Mikrosekunde erfolgen, wie es die Relaxationszeit der Metafläche erfordert. Die Steuerung und Echtzeit-Modulation eines digitalen Spiegelgeräts, das als räumlicher Lichtmodulator 5910 arbeitet, kann in der Größenordnung von 1 bis 100 Mikrosekunden oder 900 Nanosekunden bis 20 Mikrosekunden erfolgen, wie es die Relaxationszeit des Spiegels erfordert.
  • In verschiedenen Ausführungsformen erfolgt die Steuerung der einzelnen Pixel über elektromagnetische Signale. Zum Beispiel kann die Steuerung des räumlichen Lichtmodulators 5910 Pixel über eine an die einzelnen Pixel angelegte Spannungsdifferenz erfolgen. Sie kann zusätzlich in Abhängigkeit vom Strom zu den einzelnen Pixeln erfolgen.
  • In verschiedenen Ausführungsformen kann es wünschenswert sein, dem LIDAR-Sensorsystem 5900 eine Überwachungssensorschaltung hinzuzufügen, so dass die Überwachungssensorschaltung in Echtzeit den Prozentsatz der optischen Leistung auswerten kann, der von einem räumlichen Lichtmodulator absorbiert oder blockiert wird.
  • In verschiedenen Ausführungsformen entspricht das Sichtfeld 5912 des LIDAR-Sensorsystems 5900 der Blende der zweiten Optikanordnung 5908. In verschiedenen Ausführungsformen entspricht es der Blende des räumlichen Lichtmodulators 5910. Sie kann mit der Blende des LIDAR-Sensorsystems 5916 (z.B. des Sensors 52) korrespondieren, der zumindest Licht erfasst, das von Objekten innerhalb des Sichtfeldes der Blende des LIDAR-Sensorsystems 5900 reflektiert wird.
  • 60 zeigt die hohe räumliche Verteilungsvarianz der optischen Leistung der Laseremission in einer Entfernung von 1,5 m ohne Verwendung von Linsen, im Folgenden auch als optisches Leistungsgitter 6000 bezeichnet. Dieses Gitter ist in verschiedene Pixel unterteilt, die entlang der x-Achsen-Entfernung 6004 und der y-Achsen-Entfernung 6006 segmentiert sein können. Das Gitter kann verschiedene Pixel mit niedriger optischer Leistung, wie z.B. Pixel mit niedriger optischer Leistung 6008, und Pixel mit hoher optischer Leistung, wie z.B. Pixel mit hoher optischer Leistung 6010, umfassen. Das optische Leistungsgitter 6000 umfasst einen optischen Leistungsgradienten 6002, der hohen optischen Leistungswerten (z.B. 250-400) und niedrigem optischen Leistungsverbrauch (z.B. 0-200) entspricht. Eine Heatmap, wie sie z.B. beim Betrachten des optischen Leistungsgitters 6000 entlang der x-Achsen-Entfernung 6004 und der y-Achsen-Entfernung 6006 zu sehen ist, kann verwendet werden, um zu beurteilen, welche Pixel einem hohen optischen Leistungsverbrauch und einem niedrigen optischen Leistungsverbrauch entsprechen. Eine solche Wärmeabbildung kann die variierende optische Leistung, die an den räumlichen Lichtmodulator übertragen wird, auf einer Pixel-für-Pixel-Basis darstellen und kann verschiedenen dimensionalen Eigenschaften eines Flüssigkristall-Pixelarrays entsprechen. In verschiedenen Ausführungsformen kann die optische Leistung von einem hohen Spitzenwert von etwa 480 mW/m 9 bis zu einem niedrigen Spitzenwert von etwa 150 mW/m2 reichen.
  • Ein solches optisches Leistungsgitter 6000 kann die optische Leistung repräsentieren, die in das FOV übertragen wird und somit einen direkten Einfluss auf die optische Leistung hat, die durch den reflektierten Laser 5918 auf den Sensor 5916 des LIDAR-Systems einfällt. Eine solche Heatmap kann symbolisieren, dass die vom LIDAR-Systemsensor 5916 empfangene optische Leistung höchst ungleichmäßig ist. Beispielsweise variieren die Bereiche der Spitzenleistung von Laserdiode zu Laserdiode oder als Ergebnis der Ansteuerbedingungen der Laserdiode. So kann z. B. eine Differenz von bis zu 30 % oder mehr zwischen der an unterschiedlichen Pixeln erfassten optischen Leistung bestehen. Variationen in der optischen Leistung können z.B. am räumlichen Lichtmodulator 5910 vorhanden sein, wo die Laserdiode altert, oder die Leistungsvariationen können letztendlich am LIDAR-Systemsensor 5916 beobachtet werden. Weiterhin ist zu beachten, dass das auf den LIDAR-Systemsensor 5916 auftreffende Signal zusätzlich durch die Streueigenschaften der Objekte, von denen das Laserlicht zum LIDAR-Systemsensor 5916 reflektiert wird, beeinflusst werden kann.
  • Die Variationen der optischen Leistung, wie sie z.B. im optischen Leistungsgitter 6000 dargestellt sind, können nach verschiedenen Ausführungsformen auf eine Rückkopplungsschleife angewendet werden. Zum Beispiel kann der LIDAR-Systemsensor 5916 oder ein mit dem LIDAR-Systemsensor 5916 verbundener Prozessor eine Rückkopplungsschleife durch den Raumlichtmodulator-Controller 5914 senden, um die Pixel des Raumlichtmodulators 5910 so zu steuern, dass die Laserleistung hinter dem Raumlichtmodulator 5910 verändert wird. Diese Änderung kann eine Normalisierung der optischen Leistungsverteilung, eine Formung der optischen Leistungsverteilung oder eine andere gleichförmige oder ungleichförmige Änderung der optischen Ausgangsleistung sein. Das modifizierte Licht, das dem räumlichen Lichtmodulator 5910 optisch nachgeschaltet ist, kann als Laserstrahlprofil beschrieben werden, worauf später noch eingegangen wird. In verschiedenen Ausführungsformen kann ein erstes Laserstrahlprofil den Laser beschreiben, bevor er durch den räumlichen Lichtmodulator 5910 übertragen wird, und ein zweites Laserstrahlprofil kann sich auf den Laser beziehen, nachdem er durch den räumlichen Lichtmodulator 5910 übertragen wurde. Sofern nicht ausdrücklich als erstes Laserstrahlprofil bezeichnet, bezieht sich ein „Laserstrahlprofil“ auf das zweite Laserstrahlprofil.
  • In verschiedenen Ausführungsformen kann es ein erstes vordefiniertes Laserstrahlprofil und ein zweites vordefiniertes Laserstrahlprofil geben. Das erste vordefinierte Laserstrahlprofil kann horizontal und das zweite Laserstrahlprofil kann vertikal sein. Das erste oder zweite vordefinierte Laserstrahlprofil kann eine gleichmäßige oder ungleichmäßige Verteilung haben und das andere des ersten oder zweiten vordefinierten Laserstrahlprofils kann eine gleichmäßige oder ungleichmäßige Verteilung haben. Alternativ können sowohl das erste als auch das zweite vordefinierte Laserstrahlprofil eine gleichmäßige oder ungleichmäßige Verteilung aufweisen.
  • Das erste vordefinierte Laserstrahlprofil kann einer Fernfeldverteilung parallel zum p-n-Übergang der Laserdiode oder einer Fernfeldverteilung senkrecht zum p-n-Übergang der Laserdiode entsprechen. Das zweite vordefinierte Laserstrahlprofil kann alternativ einer Fernfeldverteilung parallel zum p-n-Übergang der Laserdiode oder einer Fernfeldverteilung senkrecht zum p-n-Übergang der Laserdiode entsprechen.
  • 61 zeigt eine Flüssigkristallvorrichtung 6100 nach verschiedenen Ausführungsformen. Zum Beispiel kann diese Flüssigkristallvorrichtung eine Modulation des Laserausgangs Pixel für Pixel durchführen, um das gewünschte Laserstrahlprofil zu konturieren, sei es eine Normalisierung oder eine andere.
  • Innerhalb der Flüssigkristallvorrichtung 6100 befinden sich Flüssigkristalle 6102. Solche Flüssigkristalle können die Polarisation oder die Intensität des Laserstrahls ändern, z.B. durch Ansprechen auf eine angelegte Spannung 6106 an der Flüssigkristallvorrichtung 6100. Eine angelegte Spannung 6106 kann Pixel für Pixel so gesteuert werden, dass verschiedene Bereiche der Flüssigkristallvorrichtung 6100 die optische Ausgangsleistung in Echtzeit verändern können.
  • Die optische Achse 6104 des Lichts wird als durch die Flüssigkristallvorrichtung 6100 verlaufend dargestellt. Dies kann dem Laserweg 5904 entsprechen, da der Laserstrahl die erste Optikanordnung 5906, den räumlichen Lichtmodulator 5910 und die zweite Optikanordnung 5908 optisch hinter der Laserquelle 5902 durchläuft. Die optischen Eigenschaften von Licht oder einer Laserleistung können geändert werden, wenn das Licht durch die Flüssigkristallvorrichtung 6100 läuft. Beispielsweise kann der Laserstrahl aufgrund der Ausrichtung der Flüssigkristalle 6102 aufgrund der angelegten Spannung 6106 linear polarisiert sein. Teile des Lichts können aufgrund verschiedener Eigenschaften der Flüssigkristalle 6102 reflektiert oder absorbiert werden. Es ist zu beachten, dass die Flüssigkristalle 6102 selbst keinen spezifischen Polarisationszustand erzeugen. Stattdessen können sie die Orientierung, z.B. von linear polarisiertem Licht, ändern.
  • 62 zeigt eine Flüssigkristallvorrichtung 6200 nach verschiedenen Ausführungsformen. Die Polarisationsvorrichtung, wie in dieser Abbildung gezeigt, kann einen Polarisationsfilter 6202 aufweisen. Dieser Polarisationsfilter 6202 kann so betrieben werden, dass er bis zur Hälfte des unpolarisierten Lichts, das durch den Filter geleitet wird, herausfiltert. Oder mit anderen Worten: Wenn unpolarisiertes Licht als Durchschnitt der Hälfte seiner Schwingungen in der horizontalen Ebene und der Hälfte seiner Schwingungen in der vertikalen Ebene betrachtet wird, würde ein vertikaler Polarisationsfilter 6202 alle Schwingungen in der horizontalen Ebene herausfiltern. Daher würde ein vertikaler Filter die Hälfte des unpolarisierten Lichts entfernen, das durch ihn geleitet wird. Oder mit anderen Worten: Der Polarisationsfilter 6202 lässt nur Licht mit einer bestimmten linearen Polarisation durch ihn hindurch.
  • Darüber hinaus könnte eine Vielzahl von Flüssigkristallorientierungen 6210 dazu dienen, die Polarisationsorientierung zu ändern oder das durch die Polarisationsvorrichtung 6200 gerichtete Licht abzuschwächen, z.B. wenn die Flüssigkristalle an einem Anfangspunkt 6204 orientiert sind, der parallel zum Polarisationsfilter 6202 liegt. Die Änderung der Orientierung der Flüssigkristalle 6206 führt zu einer Änderung der Polarisationsorientierung des Lichts, das die Flüssigkristallvorrichtung 6200 passiert, von einer vertikalen Polarisationsorientierung am Anfangspunkt 6204 zu einer horizontalen Polarisationsorientierung an einer Endpunkt 6208-Position, die senkrecht zum Polarisationsfilter 6202 ist.
  • 63 zeigt verschiedene optische Leistungsverteilungen nach verschiedenen Ausführungsformen. Gezeigt ist eine nicht-normierte Leistungsverteilung 6302 (auf der linken Seite von 63) mit einer Winkelachse 6312, wobei das Zentrum der Verteilung gleich einem Winkel von Null sein kann, und einer optischen Leistungsachse 6314. Eine normierte optische Leistungsverteilung 6304 ist gezeigt (auf der rechten Seite von 63), die ebenfalls eine Winkelachse 6312 und eine optische Leistungsachse 6314 aufweist. Die normierte optische Leistungsverteilung 6304 zeigt einen Bereich, der sich von der nicht normierten optischen Leistungsverteilung 6302 unterscheidet, weil er durch eine abgeschwächte optische Leistungszone 6306 gekennzeichnet ist, die innerhalb der gepunkteten Linie enthalten ist. Diese abgeschwächte optische Leistungszone 6306 ist ein Ergebnis des räumlichen Lichtmodulators 5910, der die optische Ausgangsleistung normiert. Eine zusätzliche Linie ist als Dämpfungsschwelle 6308 dargestellt, auf die die optische Leistung normiert ist. Schließlich sind ein erster Bereich und ein zweiter Bereich, die auf beiden Seiten außerhalb der abgeschwächten optischen Leistungszone 6306 angeordnet sind, Bereiche, in denen die optische Leistung unter dem Abschwächungsschwellenwert 6308 liegt und als optische Leistung 6310 (ungedämpft) unterhalb des Schwellenwertes bezeichnet werden kann. Die normierte optische Leistungsverteilung 6304 ähnelt einem sogenannten Flat-Hat-Design (Flachen-Hut-Design).
  • Ein normalisiertes Laserstrahlprofil kann, wie in 63 gezeigt, erreicht werden, wenn die Ausgangsleistung über einen Abschwächungsschwellenwert von 6308 abgeschwächt wird, oder ein normalisiertes Laserstrahlprofil kann eine Form haben, die konvex, konkav oder gaußförmig erscheint. Daher kann ein normalisiertes Laserstrahlprofil im Allgemeinen an eine bestimmte Situation oder Anwendung angepasst werden.
  • 64 zeigt die Laserstrahlprofilformung nach verschiedenen Ausführungsformen. Die Figur zeigt ein LIDAR-System ähnlich 59, das eine Laserquelle 5902, eine erste Optikanordnung 5906, eine zweite Optikanordnung 5908 und einen räumlichen Lichtmodulator 5910 zeigt. Das Sichtfeld 5912 ist mit zwei zusätzlichen Segmenten dargestellt, darunter ein Bereich mit niedriger Leistung 6406 und ein Bereich mit hoher Leistung 6408.
  • Nach der Laserquelle 5902 und vor dem räumlichen Lichtmodulator 5910 liegt eine ungeformte optische Leistungsverteilung 6402 vor. Mit anderen Worten, das gezeigte Profil 6402 stellt z.B. eine ungeformte Leistungsverteilung in einer horizontalen Ebene in der optischen Achse dar und kann für verschiedene horizontale Ebenen variieren. Nach dem räumlichen Lichtmodulator 5910 liegt eine geformte optische Leistungsverteilung 6404 vor. Mit anderen Worten, das gezeigte Profil 6404 stellt z.B. eine geformte Leistungsverteilung in einer horizontalen Ebene in der optischen Achse dar und kann für verschiedene horizontale Ebenen variieren. Jede dieser optischen Leistungsverteilungen kann der optischen Leistung vor dem räumlichen Lichtmodulator 5910, dargestellt durch die ungeformte optische Leistungsverteilung 6402, und der optischen Leistung nach dem räumlichen Lichtmodulator 5910, dargestellt durch die geformte optische Leistungsverteilung 6404, entsprechen. Die geformte optische Leistungsverteilung 6404 hat einen geformten Abschnitt 6412 und einen ungeformten Abschnitt 6410. Die Begriffe „geformt“ und „ungeformt“ beschreiben die Abschwächung eines Laserstrahls in einer bestimmten Winkelrichtung in einer jeweiligen horizontalen Ebene.
  • Nach einer Verkörperung, bei der die optische Leistungsverteilung geformt ist, kann der geformte Teil 6412 der optischen Leistungsabschwächung in der Niedrigleistungsregion 6406 des Sichtfeldes 5912 entsprechen, und der ungeformte Teil 6410 kann der Hochleistungsregion 6408 des Sichtfeldes 5912 entsprechen. Die Formgebung im Sichtfeld 5912 kann vorteilhaft sein, wenn Objekte unterschiedliche Abstände zum LIDAR-System haben, so dass eine im Wesentlichen gleichmäßige Laserleistung vom LIDAR-Systemsensor 5916 erfasst wird. Die Formgebung kann auch auftreten, wenn ein Unbeteiligter innerhalb des Sichtfeldes erkannt wird, wie später besprochen wird.
  • 65 zeigt ein Fahrzeug und ein Sichtfeld. In der Figur ist ein LIDAR-Fahrzeug 6502 dargestellt, das im Allgemeinen ein Auto ist, aber auch ein Boot, Flugzeug, Motorrad oder ähnliches sein kann. Innerhalb des Sichtfeldes 5912 befinden sich Pfeile, die eine Intensität entlang eines Intensitätsverteilungsmusters 6504 vom LIDAR-Fahrzeug 6502 aus darstellen. Wie in 64 gibt es einen geformten Teil 6412 und einen ungeformten Teil 6410 des Laserstrahlprofils im Sichtfeld 5912. Der geformte Teil 6412 kann einem Bereich 6406 niedriger Leistung entsprechen und der ungeformte Teil 6410 kann einem Bereich 6408 hoher Leistung entsprechen. Es ist zu beachten, dass 65 einen beispielhaften Querschnitt durch ein Intensitätsverteilungsmuster entlang einer horizontalen Richtung (z.B. einer Richtung parallel zur Fahrbahnoberfläche) zeigt. Entlang einer vertikalen Richtung (z.B. einer Richtung senkrecht zur Oberfläche einer Fahrbahn) können weitere Querschnittsebenen mit Intensitätsverteilungsmustern vorgestellt werden, die in der gleichen Weise wie oben erläutert geformt werden können, d.h. die entlang bestimmter Richtungen des Sichtfeldes emittierten Intensitäten können abgeschwächt (oder nicht abgeschwächt) werden, um entsprechend geformte (oder ungeformte) Abschnitte entlang dieser Richtungen zu erzeugen.
  • Wenn sich z.B. ein anderes Fahrzeug in geringer Entfernung 6504 vom LIDAR-Fahrzeug 6502 befindet, würde das Laserstrahlprofil nach verschiedenen Ausführungsformen so geformt sein, dass seinem Standort ein Bereich 6406 niedriger Leistung entspricht. Befindet sich jedoch ein anderes Fahrzeug in einer Entfernung 6504 weiter weg vom LIDAR-Fahrzeug 6502, würde das Laserstrahlprofil so geformt, dass ein Hochleistungsbereich 6408 seinem Standort entspricht. Dies kann durchgeführt werden, um die Reduzierung der Laserleistung um einen über das Quadrat der Entfernung 6504 hinausgehenden Bereich zu berücksichtigen, in dem sich ein anderes Fahrzeug vom LIDAR-Fahrzeug 6502 befindet.
  • Wenn ungleichmäßige oder unerwünschte Laserausgangsleistungen durch einen räumlichen Lichtmodulator 5910 normalisiert oder geformt werden, kann dies die Verzerrung oder Varianz des am Sensor 5916 des LIDAR-Systems empfangenen Lichts reduzieren. Eine solche Konturierung, Normierung oder Formung des Laserstrahlprofils ermöglicht es dem LIDAR-Sensorsystem 5900, Objekte in unterschiedlichen Entfernungen genau und optimal zu betrachten. Dadurch wird der Effekt minimiert, dass die Laserleistung um eins über das Quadrat der Entfernung 6504 reduziert wird, wenn ein anderes Fahrzeug vom LIDAR-Fahrzeug 6502 entfernt ist.
  • Ein weiteres anschauliches Beispiel für die Laserstrahlprofilformung ist in 66 zu finden. In diesem Beispiel befindet sich ein erstes Fahrzeug 6602 in kürzerer Entfernung vom LIDAR-Fahrzeug 6502, ein zweites Fahrzeug 6604 in größerer Entfernung vom LIDAR-Fahrzeug 6502 und Umstehende 6606 im Sichtfeld 5912 des LIDAR-Sensorsystems 5900. Ähnlich wie 65 würde das Laserstrahlprofil (in Bezug auf eine horizontale Richtung des FOV) so geformt sein, dass ein Bereich niedriger Leistung 6406 dem ersten Fahrzeug 6602 entspricht, das näher am LIDAR-Fahrzeug 6502 liegt, und ein Bereich hoher Leistung 6408 dem zweiten Fahrzeug 6604, das weiter vom Fahrzeug entfernt ist. Das Laserstrahlprofil kann weiter geformt werden, so dass im Bereich der Umstehenden 6606 eine Abschwächungszone 6610 vorhanden sein kann, so dass die optische Leistung abgeschwächt werden kann oder dass die Abschwächungszone 6610 den Bereich 6406 mit niedrigerer Leistung modellieren kann. Diese Dämpfungszone 6610 kann so konturiert sein, dass potenziell unerwünschte Strahlung nicht auf die umstehenden Personen 6606 gerichtet wird. Die Abschwächungszone 6610 kann zuweilen eine Zone sein, in der die Laseremission vollständig deaktiviert ist. Eine Abgrenzung 6608 kann die Außenkonturen der Schwächungszone 6610 markieren. Eine Objektklassifizierung kann verwendet werden, um Objekte im Sichtfeld 5912 wie Umstehende, Fahrzeuge, Gebäude usw. zu klassifizieren.
  • Diese Informationen, wie z.B. der Standort der Umstehenden 6606, des ersten Fahrzeugs 6602 und des zweiten Fahrzeugs 6604, können gitterartig abgebildet werden, die mit den Pixeln im räumlichen Lichtmodulator 5910 korrespondieren können. Diese Gitterdarstellung oder räumliche Lichtmodulator-Matrix 6612 könnte Pixel für Pixel mit den Pixeln des räumlichen Lichtmodulators 5910 korrespondieren, oder sie könnte einem Konglomerat von Pixelgruppen des räumlichen Lichtmodulators 5910 in größeren Regionen entsprechen.
  • 67 zeigt leichte Vibrationen und Polarisationen. Zur Veranschaulichung können wir sehen, dass das Umgebungslicht 6702 Lichtvibrationen in verschiedenen Richtungen aufweisen kann, z.B. in einer vertikalen optischen Achse 6708, einer horizontalen optischen Achse 6706 oder in den abgewinkelten optischen Achsen 6710 und 6712. Planpolarisiertes Licht 6704 kann jedoch eine Netto- oder mittlere Vektorsumme von Schwingungen in einer Achse aufweisen, wie z.B. in der hier gezeigten horizontalen optischen Achse 6706. Ein Reflexionspunkt 6714 kann ein Ort sein, an dem das Umgebungslicht 6702 je nach verschiedenen Eigenschaften der Reflexionsfläche linear polarisiert wird (z.B. eine nichtmetallische Oberfläche wie der Asphalt einer Fahrbahn, die Oberfläche eines lackierten Fahrzeugs oder das Wasser eines Teichs, wie hier dargestellt). Mit anderen Worten, 67 zeigt, wie unpolarisiertes Licht, z.B. Sonnenlicht, mit einer Polarisation polarisiert wird, die parallel zur Ebene der reflektierenden Oberfläche verläuft.
  • Die mittlere Vektorsumme von polarisiertem Licht kann auf eine oder mehrere Arten erklärt werden. Eine Möglichkeit, die mittlere Vektorsumme der Polarisationsschwingungen in der horizontalen optischen Achse 6706 zu interpretieren, ist die Betrachtung der abgewinkelten optischen Achsen 6710 und 6712. Beide abgewinkelten optischen Achsen, wie in 67 gezeigt, stehen senkrecht oder orthogonal zueinander, obwohl diese abgewinkelten Achsen eine Vielzahl von Winkeln zwischen der horizontalen optischen Achse 6706 und der vertikalen optischen Achse 6708 sein können. Wenn die beiden abgewinkelten optischen Achsen 6710 und 6712 jedoch orthogonal oder senkrecht zueinander stehen, kann die mittlere Vektorvibration in der horizontalen optischen Achse 6706 oder in der vertikalen optischen Achse 6708 liegen.
  • Wenn zum Beispiel die leichte Schwingung der Winkelachse 6710 45 Grad in der Koordinate der negativen x-Achse/positiven y-Achse und die leichte Schwingung der Winkelachse 6712 45 Grad in der Koordinate der positiven x-Achse/positiven y-Achse beträgt, liegt die Summe der Vektoren ihrer Schwingungen in der positiven y-Achse. Entsprechend würde, da ihre Schwingungen wellenförmig schwingen, die leichte Schwingung der Winkelachse 6710 45 Grad in der Koordinate der positiven x-Achse/negativen y-Achse und die leichte Schwingung der Winkelachse 6712 45 Grad in der Koordinate der negativen x-Achse/negativen y-Achse liegen, so dass die Summe der Vektoren ihrer Schwingungen in der negativen y-Achse liegen würde. Man kann also sagen, dass das Licht entlang der vertikalen optischen Achse 6708 polarisiert ist, weil die Summe der Vektoren ihrer Schwingungen entlang der y-Achse liegt.
  • In verschiedenen Ausführungsformen kann die Summe der Vektorschwingungen in der Winkelachse 6710 und in der Winkelachse 6712 eine erste Richtung sein. In verschiedenen Ausführungsformen kann die Summe der Vektorschwingungen in der Winkelachse 6710 und der Winkelachse 6712 eine zweite Richtung sein. In verschiedenen Ausführungsformen kann die Summe der Vektorschwingungen in der horizontalen optischen Achse 6706 und der vertikalen optischen Achse 6708 als eine erste oder zweite Richtung bezeichnet werden. In verschiedenen Ausführungsformen kann eine erste oder zweite Richtung nur durch die Summe der Vektorenvibrationen und nicht durch die Vektorenvibrationen selbst bezeichnet werden, so dass es möglicherweise nicht notwendig ist, die beiden orthogonalen Schwingungen, die zusammen gemittelt werden, zu diskutieren.
  • Umgebungslicht 6702 ist von Natur aus unpolarisiert oder höchstens schwach polarisiert. Das Umgebungslicht 6702 kann polarisiert werden, wenn es mit Materialien, Partikeln oder Oberflächen in Wechselwirkung tritt. Wenn z.B. Umgebungslicht 6702 von bestimmten Oberflächen, wie glatten, dielektrischen Oberflächen, reflektiert wird, erzeugt die Reflexion ein planparalleles Licht. Wenn das Umgebungslicht 6702 beispielsweise in einem Brewster-Winkel auf eine Oberfläche trifft, würde das reflektierte Licht parallel zur Oberfläche polarisiert werden. Beispielsweise kann eine Wasserlache eine Reflexion von Licht erzeugen, das in der horizontalen optischen Achse 6706 plan polarisiert ist. Solche Wechselwirkungen gehören möglicherweise zu den häufigsten Polarisationsereignissen für Umgebungslicht 6702. Umgebungslicht 6702 kann zusätzlich durch Streuung polarisiert werden. Wenn beispielsweise ein Streuwinkel orthogonal zur Achse des gestreuten Strahls ist, kann polarisiertes Licht erzeugt werden.
  • Ein solches Naturphänomen kann in verschiedenen Ausführungsformen vorteilhaft gestaltet werden. Zum Beispiel kann das in das Sichtfeld 5912 des LIDAR-Sensorsystems 5900 projizierte Licht optische Eigenschaften haben, die sich vom Umgebungslicht 6702 unterscheiden. Darüber hinaus kann das in das Sichtfeld 5912 des LIDAR-Sensorsystems 5900 projizierte Licht so konfiguriert sein, dass die Polarisationsachse des projizierten Lichts dem reflektierten Sonnenlicht entgegengesetzt ist.
  • In verschiedenen Ausführungsformen kann das Laserstrahlprofil in der horizontalen optischen Achse 6706 oder der vertikalen optischen Achse 6708 durch den räumlichen Lichtmodulator 5910 oder den räumlichen Lichtmodulator 5910 und einen oder mehrere Filter, die optisch vor oder hinter dem räumlichen Lichtmodulator 5910 angeordnet sind, polarisiert werden. Eine solche Polarisation kann das Signal-Rausch-Verhältnis des am LIDAR-Systemsensor 5916 empfangenen Signals erhöhen, da verschiedene Lichtvibrationen oder Polarisationen des Umgebungslichts 6702 aus dem Signal herausgefiltert werden können, bevor es auf den LIDAR-Systemsensor 5916 auftrifft. In verschiedenen Ausführungsformen kann das Laserstrahlprofil beispielsweise eine Polarisation in der vertikalen optischen Achse 6708 aufweisen, so dass jegliches Umgebungslicht, das in der horizontalen optischen Achse 6708 plan polarisiert ist, herausgefiltert werden kann, bevor es auf den LIDAR-Systemsensor 5916 trifft. Dies kann Signalrauschen aufgrund von reflektiertem Umgebungslicht 6702 herausfiltern.
  • Weiterhin kann das LIDAR-Sensorsystem 5900 in verschiedenen Ausführungsformen so konfiguriert werden, dass Umgebungslicht 6702 durch einen Filter ausgefiltert werden kann, wenn seine optische Achse oder der Mittelwert der Vektorsummenschwingungen seiner optischen Achse orthogonal oder senkrecht zur optischen Achse oder zum Mittelwert der Vektorsummenschwingungen der optischen Achse des Laserstrahlprofils steht.
  • Darüber hinaus kann das als Laserstrahlprofil in das Sichtfeld 5912 projizierte Licht eine zirkulare Polarisation aufweisen, die ihm durch den räumlichen Lichtmodulator 5910 verliehen wird. Der räumliche Lichtmodulator 5910 und ein oder mehrere Filter oder Schichten, die optisch vor oder hinter dem räumlichen Lichtmodulator 5910 angeordnet sind, können dieses zirkular polarisierte Licht vermitteln. Umgebungslicht ist selten zirkular polarisiert, was das Herausfiltern eines großen Teils des Fremdlichts 6702 aus der Umgebung ermöglichen kann, bevor das Signal auf den Sensor 5916 des LIDAR-Systems auftrifft.
  • Dem Laserstrahlprofil können verschiedene andere Polarisationen oder Polarisationskombinationen aufgeprägt werden, um das Signal-Rausch-Verhältnis des vom LIDAR-Sensorsystem 5900 empfangenen Signals zu erhöhen. In verschiedenen Ausführungsformen können vorbestimmte Teile des Laserstrahlprofils oder das gesamte Laserstrahlprofil polarisiert werden.
  • Für die Zwecke der Referenzierung des LIDAR-Sensorsystems 5900 und der Verwendung eines räumlichen Lichtmodulators 5910 zur Formung des Sichtfeldes 5912 des LIDAR-Sensorsystems 5900 kann „Licht“ als Laserlicht interpretiert werden.
  • Gemäß Beispiel A ist der räumliche Lichtmodulator 5910 in der Lage, die emittierte optische Leistung eines Lasers oder die empfangene optische Leistung, die auf einen Detektor trifft, aktiv und dynamisch zu korrigieren, zu normalisieren und anzupassen, wenn sich die Bedingungen ändern, wie z.B. Änderungen der beleuchteten Szene, der Temperatur, der externen Feuchtigkeit und der Alterung der Lasereigenschaften. Die Veränderungen in der beleuchteten Szene können z.B. mit Hilfe einer Kamera (VIS, IR) und/oder mit Hilfe des LIDAR-Sensorsystems 5900 und/oder unter Verwendung von digitalem Kartenmaterial u.ä. ermittelt werden.
  • Gemäß Beispiel B ist der räumliche Lichtmodulator 5910 in der Lage, einen genauen Prozentsatz der Laserausgangsleistung in einem definierten Bereich des Sichtfeldes durch Pixel auf der Flüssigkristalltafel als Funktion der Zeit zu absorbieren.
  • Gemäß Beispiel C ist der räumliche Lichtmodulator in der Lage, das auf einen Detektor einfallende Umgebungs- oder Hintergrundlicht zu reduzieren, indem er das für einen Empfänger oder Detektor zugängliche Sichtfeld steuert.
  • Im Folgenden sollen verschiedene Aspekte dieser Offenbarung veranschaulicht werden:
    • Beispiel 1g ist ein LIDAR-Sensorsystem mit einer Laserquelle, die so konfiguriert ist, dass sie mindestens einen Laserstrahl emittiert; einem räumlichen Lichtmodulator, der im Laserpfad der Laserquelle angeordnet ist und eine Vielzahl von Pixelmodulatoren aufweist; und einer Modulatorsteuerung, die so konfiguriert ist, dass sie den räumlichen Lichtmodulator so steuert, dass er das auf den räumlichen Lichtmodulator auftreffende Laserlicht Pixel für Pixel moduliert, um ein vordefiniertes Laserstrahlprofil im Sichtfeld des LIDAR-Sensorsystems zu erzeugen.
    • In Beispiel 2g kann der Gegenstand von Beispiel 1g optional umfassen, dass der räumliche Lichtmodulator eine Flüssigkristallvorrichtungsplatte mit einer Vielzahl von Flüssigkristallpixeln eines Flüssigkristallpixelarrays aufweist. Die Flüssigkristallpixel sind einzeln durch den Modulator-Controller steuerbar.
    • In Beispiel 3g kann der Gegenstand von Beispiel 2g optional umfassen, dass die Flüssigkristallvorrichtungsplatte einen Flüssigkristall auf Siliziumplatte aufweist.
    • In Beispiel 4g kann der Gegenstand eines der Beispiele 1g bis 3g optional umfassen, dass der räumliche Lichtmodulator Metamaterialien aufweist oder im Wesentlichen aus Metamaterialien besteht.
    • In Beispiel 5g kann der Gegenstand von Beispiel 4g optional umfassen, dass der räumliche Lichtmodulator eine Flüssigkristall-Metafläche (LCM) aufweist oder im Wesentlichen aus dieser besteht.
    • In Beispiel 6g kann der Gegenstand eines der Beispiele 1g bis 3g optional umfassen, dass der räumliche Lichtmodulator Flüssigkristall-Polarisationsgitter (LCPG) aufweist oder im Wesentlichen aus diesen besteht.
    • In Beispiel 7g kann der Gegenstand von Beispiel 1g optional umfassen, dass der räumliche Lichtmodulator einen oder mehrere digitale Spiegelvorrichtungen (DMD) aufweist oder im Wesentlichen aus diesen besteht.
    • In Beispiel 8g kann der Gegenstand eines der Beispiele 1g bis 7g optional umfassen, dass der Controller des räumlichen Lichtmodulators so konfiguriert ist, dass er den räumlichen Lichtmodulator so steuert, dass er das auf den räumlichen Lichtmodulator auftreffende Laserlicht Pixel für Pixel moduliert, um ein erstes vordefiniertes Laserstrahlprofil in einer ersten Richtung und ein zweites vordefiniertes Laserstrahlprofil in einer zweiten Richtung im Sichtfeld des LIDAR-Sensorsystems zu erzeugen.
    • In Beispiel 9g kann der Gegenstand von Beispiel 8g optional umfassen, dass die zweite Richtung senkrecht zur ersten Richtung verläuft.
    • In Beispiel 10g kann der Gegenstand eines der Beispiele 8g oder 9g optional umfassen, dass die erste Richtung die horizontale Richtung und die zweite Richtung die vertikale Richtung ist.
    • In Beispiel 11g kann der Gegenstand eines der Beispiele 1g bis 10g optional umfassen, dass der räumliche Lichtmodulator in einem Abstand von der Laserquelle im Bereich von etwa 1 cm bis etwa 10 cm angeordnet ist.
    • In Beispiel 12g kann der Gegenstand eines der Beispiele 1g bis 11g optional umfassen, dass das LIDAR-Sensorsystem ferner eine Optikanordnung zwischen der Laserquelle und dem räumlichen Lichtmodulator umfasst.
    • In Beispiel 13g kann der Gegenstand eines der Beispiele 1g bis 12g optional umfassen, dass der Controller des räumlichen Lichtmodulators so konfiguriert ist, dass er den räumlichen Lichtmodulator so steuert, dass er linear polarisiertes Licht mit einer Polarisationsebene liefert, die ungefähr senkrecht zur Polarisationsebene einer horizontalen Reflexionsfläche steht.
    • In Beispiel 14g kann der Gegenstand eines der Beispiele 8g bis 13g optional umfassen, dass das erste vordefinierte Laserstrahlprofil eine ungleichmäßige Leistungsverteilung hat und dass das zweite vordefinierte Laserstrahlprofil eine normalisierte Leistungsverteilung hat.
    • In Beispiel 15g kann der Gegenstand eines der Beispiele 1g bis 14g optional umfassen, dass die Laserquelle mindestens eine Laserdiode aufweist.
    • In Beispiel 16g kann der Gegenstand von Beispiel 15g optional umfassen, dass die Laserquelle eine Vielzahl von Laserdioden aufweist.
    • In Beispiel 17g kann der Gegenstand eines der Beispiele 1g bis 16g optional umfassen, dass die mindestens eine Laserquelle so konfiguriert ist, dass sie den Laserstrahl mit einer Wellenlänge im Infrarotbereich emittiert.
    • In Beispiel 18g kann der Gegenstand eines der Beispiele 1g bis 17g optional umfassen, dass das LIDAR-Sensorsystem als Blitz-LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 19g kann der Gegenstand eines der Beispiele 1g bis 17g optional umfassen, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 20g kann der Gegenstand von Beispiel 19g optional umfassen, dass das LIDAR-Sensorsystem zusätzlich einen Abtastspiegel aufweist, der zwischen der Laserquelle und dem räumlichen Lichtmodulator angeordnet ist.
    • In Beispiel 21g kann der Gegenstand eines der Beispiele 1g bis 20g optional umfassen, dass der räumliche Lichtmodulator den mindestens einen Laserstrahl linear polarisiert.
    • Beispiel 22g ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann das Emittieren mindestens eines Laserstrahls über eine Laserquelle und die Steuerung eines räumlichen Lichtmodulators zur Modulation des auf den räumlichen Lichtmodulator auftreffenden Laserlichts auf einer Pixel-für-Pixel-Basis umfassen, um ein vordefiniertes Laserstrahlprofil im Sichtfeld des LIDAR-Sensorsystems zu erzeugen, wobei der räumliche Lichtmodulator im Laserpfad der Laserquelle angeordnet ist und eine Vielzahl von Pixelmodulatoren umfasst.
    • In Beispiel 23g kann der Gegenstand von Beispiel 22g optional umfassen, dass der räumliche Lichtmodulator eine Flüssigkristallvorrichtungsplatte mit einer Vielzahl von Flüssigkristallpixeln eines Flüssigkristallpixelarrays aufweist. Der Modulator-Controller steuert die Flüssigkristallpixel einzeln.
    • In Beispiel 24g kann der Gegenstand von Beispiel 23g optional umfassen, dass die Flüssigkristallvorrichtungsplatte einen Flüssigkristall auf Siliziumplatte aufweist.
    • In Beispiel 25g kann der Gegenstand eines der Beispiele 22g bis 24g optional umfassen, dass der räumliche Lichtmodulator Metamaterialien aufweist oder im Wesentlichen aus Metamaterialien besteht.
    • In Beispiel 26g kann der Gegenstand von Beispiel 25g optional umfassen, dass der räumliche Lichtmodulator eine Flüssigkristall-Metafläche (LCM) aufweist oder im Wesentlichen aus dieser besteht.
    • In Beispiel 27g kann der Gegenstand eines der Beispiele 22g bis 24g optional umfassen, dass der räumliche Lichtmodulator Flüssigkristall-Polarisationsgitter (LCPG) aufweist oder im Wesentlichen daraus besteht.
    • In Beispiel 28g kann der Gegenstand eines der Beispiele 22g bis 24g optional umfassen, dass der räumliche Lichtmodulator einen oder mehrere digitale Spiegelvorrichtungen (DMD) aufweist oder im Wesentlichen aus diesen besteht.
    • In Beispiel 29g kann der Gegenstand eines der Beispiele 22g bis 28g optional umfassen, dass die Steuerung des räumlichen Lichtmodulators die Steuerung des räumlichen Lichtmodulators zur Modulation des auf den räumlichen Lichtmodulator auftreffenden Laserlichts auf einer Pixel-für-Pixel-Basis umfasst, um ein erstes vordefiniertes Laserstrahlprofil in einer ersten Richtung und ein zweites vordefiniertes Laserstrahlprofil in einer zweiten Richtung im Sichtfeld des LIDAR-Sensorsystems zu erzeugen.
    • In Beispiel 30g kann der Gegenstand von Beispiel 29g optional umfassen, dass die zweite Richtung senkrecht zur ersten Richtung verläuft.
    • In Beispiel 31g kann der Gegenstand eines der Beispiele 29g oder 30g optional umfassen, dass die erste Richtung die horizontale Richtung und die zweite Richtung die vertikale Richtung ist.
    • In Beispiel 32g kann der Gegenstand eines der Beispiele 22g bis 31g optional umfassen, dass der räumliche Lichtmodulator in einem Abstand von der Laserquelle im Bereich von etwa 1 cm bis etwa 10 cm angeordnet ist.
    • In Beispiel 33g kann der Gegenstand eines der Beispiele 22g bis 32g optional umfassen, dass der räumliche Lichtmodulator so gesteuert wird, dass er linear polarisiertes Licht mit einer Polarisationsebene liefert, die annähernd senkrecht zur Polarisationsebene einer horizontalen Reflexionsfläche steht.
    • In Beispiel 34g kann der Gegenstand eines der Beispiele 29g bis 33g optional umfassen, dass das erste vordefinierte Laserstrahlprofil eine ungleichmäßige Leistungsverteilung hat und dass das zweite vordefinierte Laserstrahlprofil eine normalisierte Leistungsverteilung hat.
    • In Beispiel 35g kann der Gegenstand eines der Beispiele 22g bis 34g optional umfassen, dass die Laserquelle mindestens eine Laserdiode aufweist.
    • In Beispiel 36g kann der Gegenstand von Beispiel 35g optional umfassen, dass die Laserquelle eine Vielzahl von Laserdioden aufweist.
    • In Beispiel 37g kann der Gegenstand eines der Beispiele 22g bis 36g optional umfassen, dass die mindestens eine Laserquelle den Laserstrahl mit einer Wellenlänge im infraroten Wellenlängenbereich emittiert.
    • In Beispiel 38g kann der Gegenstand eines der Beispiele 22g bis 37g optional umfassen, dass das LIDAR-Sensorsystem als Blitz-LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 39g kann der Gegenstand eines der Beispiele 22g bis 37g optional umfassen, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 40g kann der Gegenstand eines der Beispiele 22g bis 38g optional umfassen, dass der räumliche Lichtmodulator den mindestens einen Laserstrahl zirkular polarisiert.
    • Beispiel 41g ist ein Verfahren für ein LIDAR-Sensorsystem nach einem der Beispiele 22g bis 40g. Das LIDAR-Sensorsystem ist in ein LIDAR-Sensorgerät integriert, kommuniziert mit einem zweiten Sensorsystem und verwendet die Objektklassifizierung und/oder die Wahrscheinlichkeitsfaktoren und/oder Verkehrsrelevanzfaktoren, die vom zweiten Sensorsystem gemessen werden, zur Auswertung aktueller und zukünftiger Messungen und abgeleiteter Steuerparameter des LIDAR-Sensorgeräts in Abhängigkeit von diesen Faktoren.
    • Beispiel 42g ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht flüchtigen computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1g bis 21g ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 22g bis 41g auszuführen.
    • Beispiel 43g ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtigen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens ein Verfahren für ein LIDAR-Sensorsystem gemäß einem der oben genannten Verfahrensbeispiele oder ein LIDAR-Sensorsystem gemäß einem der oben genannten LIDAR-Sensorsystembeispiele ausführen kann.
  • Wie bereits oben beschrieben, kann ein LIDAR-Sensorsystem aus einer Sende- und einer Empfangseinheit bestehen. Verschiedene Ausführungsformen bieten Merkmale für eine Sendeeinheit. Diese Sendeeinheit projiziert eine vertikale Linie in das Sichtfeld (FOV), die horizontal über die Zielregion scannt.
  • Wenn man aus dem beleuchteten Bereich zurück in die Quelle blickt, muss die sichtbare scheinbare Quelle (virtuelle Quelle) wesentlich größer sein als ein typischer Abtastspiegel. Dies kann helfen, eine niedrige LASER-Klasse zu erreichen.
  • Für einige Systemarchitekturen kann es vorteilhaft sein, wenn Segmente der projizierten Linie unabhängig voneinander ein- und ausgeschaltet werden können.
  • Um die oben erwähnte Vergrößerung der scheinbaren Größe der LIDAR-Emitterquelle zu erreichen, können Abtastspiegel in Kombination mit streuenden Elementen verwendet werden. Dies führt zu projizierten Linien mit gaußförmigen Strahlungsintensitätsprofilen, was jedoch auch einen Lichtstreuung oberhalb und unterhalb der Zielregion verursacht. Da dieses Licht für die Anwendung verloren geht, führt das Verschütten von Licht zu einer signifikanten Reduzierung der Effizienz des LIDAR-Systems.
  • Für viele Anwendungen kann eine Emitterquelle vorgesehen werden, die in der Lage ist, Licht in verschiedene vertikale Segmente zu emittieren. Es versteht sich von selbst, dass die Segmente, die dann getrennt ein- und ausgeschaltet werden sollen, Licht von verschiedenen Laserstrahlern erhalten, die getrennt ein- und ausgeschaltet werden können. Eine Streuvorrichtung würde jedoch eine scharfe Trennung der Segmente der Laserlinie verhindern.
  • 89 zeigt eine optische Komponente 8900 in Übereinstimmung mit verschiedenen Ausführungsformen. Die optische Komponente 8900 kann als optische Komponente 8900 des ersten LIDAR-Sensorsystems 40 vorgesehen werden. Im Falle eines Abtastsystems kann das erste LIDAR-Abtastsystem 40 einen Abtastspiegel aufweisen.
  • Wie im Folgenden näher beschrieben wird, kann die optische Komponente 8900 ein optisches Element 8902 aufweisen (z. B. einen Körper 8902 - das optische Element 8902 kann jedoch ein oder mehrere separate Elemente aufweisen), das eine erste Hauptoberfläche 8904 und eine zweite Hauptoberfläche 8906 gegenüber der ersten Hauptoberfläche 8904 aufweist. Die optische Komponente 8900 kann ein erstes Linsenfeld 8908, das auf der ersten Hauptoberfläche 8904 ausgebildet ist, und/oder ein zweites Linsenfeld 8910, das auf der zweiten Hauptoberfläche 8906 ausgebildet ist, aufweisen. Somit kann die optische Komponente 8900 auf einer Hauptseite (auf einer Seite einer Hauptfläche 8904, 8906) oder auf beiden Hauptseiten (auf den Seiten der beiden Hauptflächen 8904, 8906) mit einem Linsenarray versehen sein. In verschiedenen Ausführungsformen kann die optische Komponente 8900 in einer ersten Richtung (in 89 durch einen Pfeil 8912 symbolisiert) des LIDAR-Sensorsystems 10 eine gekrümmte Form aufweisen (z.B. die horizontale Richtung, z.B. die Abtastrichtung des LIDAR-Sensorsystems 10).
  • Zur Veranschaulichung wird die optische Komponente 8900 mit einem einseitigen oder doppelseitigen Linsenarray (z. B. Mikrolinsenarray (MLA)) geliefert. Die optische Komponente 8900 kann auf beiden Seiten Zylinderlinsen 8914 aufweisen.
  • Wie oben beschrieben, kann die optische Komponente 8900 als Ganzes eine gekrümmte Form haben (z. B. entlang eines Kreisradius gebogen), so dass jedes Linslet (Lenslet, Mikrolinse) 8914 den gleichen Abstand oder im Wesentlichen den gleichen Abstand zu einem oszillierenden MEMS-Spiegel des LIDAR-Sensorsystems 10 hat. Für typische LIDAR-Anwendungen mit einem stark asymmetrischen Seitenverhältnis des Sichtfeldes (FOV) (z.B. ca. 10° in vertikaler Richtung und ca. 60° in horizontaler Richtung) darf die Krümmung nur entlang z.B. der horizontalen Richtung (z.B. Abtastrichtung) erfolgen, d.h. die optische Komponente 8900 darf eine rotationssymmetrische Achse haben, die vertikal zum FOV ausgerichtet ist. Zu den typischen Materialien für die optische Komponente 8900 können Polycarbonat (PC), Polymethylmetacrylat (PMMA), Silikon oder Glas gehören. Es ist zu beachten, dass im Allgemeinen jedes Material, das bei der jeweils verwendeten Wellenlänge transparent ist und verarbeitet werden kann, in verschiedenen Ausführungsformen verwendet werden kann.
  • 90 zeigt eine Draufsicht 9000 (entlang einer vertikalen Richtung des FOV) einer LIDAR-Emittereinheit 40 (d.h. des ersten LIDAR-Sensorsystems) mit einer Vielzahl von Laserdioden als Lichtquelle 42, einer Fast-Axis-Collimation-Linse (FAC) 9002 für alle Laserdioden zusammen (in diesem speziellen Beispiel), eine Kollimationslinse mit langsamer Achse (SAC) 9006 für alle Laserdioden zusammen (in diesem speziellen Beispiel), ein MEMS mit 1 D-Abtastung (das ein Beispiel für den beweglichen Spiegel 4608 ist) und ein doppelseitiges Mikrolinsen-Array (MLA) 9004 (das ein Beispiel für die optische Komponente 8900 ist). Eine Abtastrichtung (in diesem Beispiel die horizontale Richtung) des beweglichen Spiegels 4608 wird durch einen Abtastpfeil 9008 symbolisiert. Das von den Emittern erzeugte Licht wird auf den Abtastspiegel (z.B. mit Hilfe von Kollimationslinsen) 4608 gelenkt und durchläuft das Mikrolinsenarray 9004, nachdem es vom (beweglichen) Abtastspiegel 4608 abgelenkt wurde. Abhängig von der Neigung des beweglichen Spiegels 4608 wird das Licht quer zur horizontalen Richtung gescannt und durchläuft daher verschiedene Bereiche des Mikrolinsenarrays 9004. Die Rotationsachse des Abtastspiegels 4608 sollte (annähernd) mit der Rotationssymmetrieachse des MLA 9004 zusammenfallen. Somit ist die Wirkung des Mikrolinsenarrays 9004 aufgrund der Rotationssymmetrie für verschiedene Kippstellungen des beweglichen Spiegels 4608 praktisch gleich.
  • Die Mikrolinsen teilen die Lichtverteilung illustrativ in eine Vielzahl von Mikrolichtquellen auf, die zusammen vertikal ein größeres Profil ergeben (um eine vertikale Laserlinie zu bilden) und so die scheinbare Größe der (virtuellen) Quelle vergrößern. In horizontaler Richtung wird der Lichtstrahl 9010 in verschiedenen Ausführungsformen nicht geformt, um eine schmale Laserlinie zu erreichen. Daher haben die oben erwähnten Mikrolinsen 8914 in horizontaler Richtung eine zylindrische Form. Darüber hinaus können die Mikrolinsen die Laserlinie des emittierten Laserlichtstrahls homogenisieren, d.h. eine gleichmäßige Intensitätsverteilung entlang der vertikalen Richtung erzeugen.
  • 90 zeigt ferner eine vergrößerte Draufsicht auf einen Teil 9012 des MLA 9004 und den Lichtstrahl 9010. 90 zeigt, dass der Lichtstrahl 9010 beim Durchgang durch den MLA 9004 nicht in horizontaler Richtung abgelenkt wird.
  • 91 zeigt eine Seitenansicht 9100 des ersten LIDAR-Sensorsystems 40 in Übereinstimmung mit verschiedenen Ausführungsformen. Im Detail zeigt 91 eine Seitenansicht der LIDAR-Sendereinheit gemäß 90.
  • Um die Möglichkeit zu schaffen, dass Segmente der projizierten Linie (91 zeigt entsprechende Segmente entlang der vertikalen Richtung im MLA 9004 - beispielhaft sind vier Segmente dargestellt, nämlich ein erstes Segment 9102, ein zweites Segment 9104, ein drittes Segment 9106 und ein viertes Segment 9108) getrennt geschaltet werden können, können die Mikrolinsen 9110 funktionell entlang der vertikalen Richtung gruppiert werden. Es ist zu beachten, dass beliebig viele Segmente der projizierten Linie und entsprechende Segmente im MLA 9004 vorgesehen werden können. Jedes der Segmente der projizierten Linie entspricht einer Gruppe von Mikrolinsen 9110 auf der Eingangsseite des Mikrolinsenarrays 9004 (ein Beispiel für das erste Linsenarray 8908) und einer Gruppe von Mikrolinsen 9110 auf der Ausgangsseite des Mikrolinsenarrays 9004 (ein Beispiel für das zweite Linsenarray 8910). 91 zeigt eine vergrößerte Seitenansicht des ersten Segments 9102 des MLA 9004 einschließlich einer ersten Eingangsgruppe 9112 von Mikrolinsen 9110 und einer entsprechenden ersten Ausgangsgruppe 9114 von Mikrolinsen 9110. 91 zeigt auch eine vergrößerte Seitenansicht des zweiten Segments 9104 des MLA 9004 einschließlich einer zweiten Eingangsgruppe 9116 von Mikrolinsen 9110 und einer entsprechenden zweiten Ausgangsgruppe 9118 von Mikrolinsen 9110. Die beiden Gruppen (Eingangsgruppe 9112, 9116 und entsprechende Ausgangsgruppe 9114, 9118), die demselben Liniensegment 9102, 9104, 9106, 9108 entsprechen, sind einander gegenüberliegend. Jedem Segment der projizierten Linie entspricht eine Gruppe von einer Laser-Emitterquelle. Jeder Laser-Emitter kann eine oder mehrere Laserdioden oder einen oder mehrere Laser-VCSELs aufweisen. Jede Gruppe von Mikrolinsen versorgt hauptsächlich eines der Liniensegmente mit Licht, das daher separat geschaltet werden kann, indem der Laser-Emitter auf die Mikrolinsengruppe 9112, 9116 ausgerichtet wird. Jedes Segment oder jede Zone 9102, 9104, 9106, 9108 des MLA 9004 entspricht einem ersten Satz Mikrolinsen (z.B. die Eingangsgruppen 9112, 9116) und einem zweiten Satz Mikrolinsen (z.B. die Ausgangsgruppen 9114, 9118), die sich z.B. auf einem gemeinsamen Substrat 9120 befinden. Im Beispiel von 91 befinden sich der erste Satz Mikrolinsen (z.B. die Eingangsgruppen 9112, 9116) und der zweite Satz Mikrolinsen (z.B. die Ausgangsgruppen 9114, 9118) auf verschiedenen Seiten des Substrats 9120 (basierend auf der Richtung der Lichtausbreitung).
  • Darüber hinaus ist in 91 eine schematische Darstellung eines Querschnitts des Mikrolinsenarrays 9004 dargestellt. Der Übersichtlichkeit halber sind nur wenige Gruppen und Linsen pro Gruppe dargestellt. In verschiedenen Ausführungsformen kann es z.B. vier bis acht Gruppen 9112, 9114, 9116, 9118 von Mikrolinsen 9110 auf jeder Seite des Substrats 9120 und z.B. 20 bis 200 Mikrolinsen 9110 pro Gruppe 9112, 9114, 9116, 9118 geben. Das Mikrolinsen-Array 9004, auch Mikrolinsenplatte genannt, kann z.B. 30 mm (vertikal) x 150 mm (horizontal) x 3 mm (Dicke) betragen. In verschiedenen Ausführungsformen kann die vertikale Ausdehnung des Mikrolinsenarrays 9004 im Bereich von ca. 10 mm bis ca. 50 mm liegen, z.B. im Bereich von ca. 20 mm bis ca. 40 mm, z.B. im Bereich von ca. 25 mm bis ca. 35 mm. In verschiedenen Ausführungsformen kann die horizontale Ausdehnung des Mikrolinsenarrays 9004 im Bereich von ca. 50 mm bis ca. 300 mm liegen, z.B. im Bereich von ca. 100 mm bis ca. 200 mm, z.B. im Bereich von ca. 125 mm bis ca. 175 mm. In verschiedenen Ausführungsformen kann die Dicke des Mikrolinsenarrays 9004 im Bereich von etwa 1 mm bis etwa 5 mm liegen, z.B. im Bereich von etwa 2 mm bis etwa 4 mm, z.B. im Bereich von etwa 2,5 mm bis etwa 3,5 mm.
  • Eine Teilung (Abstand, Pitch) 9122 (siehe 91, rechte Seite) kann im Bereich von ca. 0,01 mm bis ca. 2 mm liegen, z.B. im Bereich von ca. 0,05 mm bis ca. 1,5 mm, z.B. im Bereich von ca. 0,1 mm bis ca. 1 mm, z.B. 0,11 mm. Die Teilung 9122 kann als die vertikale Ausdehnung einer Linse verstanden werden, z.B. die vertikale Ausdehnung einer Mikrolinse 9110). Der Krümmungsradius r einer (Mikro- )Linse kann im Bereich von etwa 0,25 mm bis etwa 5 mm liegen, z.B. im Bereich von etwa 0,5 mm bis etwa 3 mm, z.B. 1 mm. Ein (vertikaler) Shift 9124 (d.h. Verschiebung) zwischen einer (Mikro-)Linse 9110 einer Eingangsgruppe 9112, 9116 und einer entsprechenden (Mikro-)Linse 9110 einer Ausgangsgruppe 9114, 9118 kann im Bereich von etwa 20% bis etwa 90% liegen, z.B. im Bereich von etwa 30% bis etwa 80% der Teilung, z.B. 50%. In verschiedenen Ausführungsformen kann der (vertikale) Shift 9124 (d.h. die Verschiebung) zwischen einer (Mikro-)Linse 9110 einer Eingangsgruppe 9112, 9116 und einer entsprechenden (Mikro-)Linse 9110 einer Ausgangsgruppe 9114, 9118 im Bereich von etwa 0 mm bis etwa zum doppelten Pitch der (Mikro-)Linsen 9110 einer Ausgangsgruppe 9114, 9118 liegen.
  • In verschiedenen Ausführungsformen kann die Anzahl der (Mikro-)Linsen 9110 oder Linsen 8914 einer Eingangsgruppe 9112, 9116 und die Anzahl der (Mikro-)Linsen 9110 oder Linsen 8914 einer entsprechenden Ausgangsgruppe 9114, 9118 gleich sein. Die Anzahl der Linsen 8914 innerhalb einer einzelnen Gruppe 9112, 9114, 9116, 9118 ist eine Designwahl und kann von den Fertigungsmöglichkeiten abhängen.
  • Die Gruppen 9112, 9114, 9116, 9118 der Mikrolinsen 9110 können sich in ihren definierenden Parametern, z.B. Mikrolinsenabstand 9122 und Krümmung, unterscheiden. Die Brennweite der Mikrolinsen 9110 kann etwa gleich der Dicke der Mikrolinsenplatte 9004 sein. Die Teilung (Pitch) 9122 der Mikrolinsen 9110 bestimmt die vertikale Winkeldivergenz des Lichtstrahls, der eine bestimmte Gruppe 9112, 9114, 9116, 9118 der Mikrolinsen 9110 durchläuft. Innerhalb jeder Gruppe 9112, 9114, 9116, 9118 der Mikrolinsen 9110 kann der Abstand 9122 konstant sein. Ein vertikaler Shift 9124 zwischen Eingangslinsen und Ausgangslinsen bestimmt die Richtung des Lichtstrahls. Der Shift 9124 ist auch in 91 dargestellt. Beide zusammen, Pitch 9122 und Shift 9124, ermöglichen die Steuerung der vertikalen Segmentwinkelgröße und der vertikalen Segmentrichtung. Zum Beispiel können die vier vertikalen Zonen 9102, 9104, 9106, 9108 alle einen unterschiedlichen Shift 9124 besitzen, um alle vier resultierenden Segmente 9102, 9104, 9106, 9108 in einer vertikalen Linie zu positionieren.
  • 92 zeigt eine Seitenansicht 9200 eines Teils des ersten LIDAR-Sensorsystems 40 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • In dieser beispielhaften Implementierung kann das gesamte vertikale Sichtfeld (FOV) 9202 12° betragen und in vier Segmente 9204, 9206, 9208, 9210 von jeweils 3° segmentiert werden. Für jedes Segment 9204, 9206, 9208, 9210 gibt es eine MLA-Gruppe. Jede MLA-Gruppe empfängt Licht von einer Laser-Emitterquelle, die in diesem Beispiel zwei Laserdioden aufweist oder aus zwei Laserdioden besteht. Die ausgehende Winkelsegmentdivergenz wird durch den Abstand 9122 zwischen jedem Lenslet (Mikrolinse) 8914, den Brechungsindex des Materials und die Krümmung bestimmt.
  • 93A bis 93D zeigen die Winkelintensitätsverteilung für den doppelseitigen MLA 9004 mit vier Zonen.
  • Im Detail zeigt 93A Ergebnisse einer Simulation mit LightTools für die Winkelintensitätsverteilung eines beispielhaften MLA 9004 mit vier MLA-Segmenten und 93B zeigt einen Querschnittsschnitt 9302 entlang der vertikalen Richtung durch die Winkelintensitätsverteilung von 93A für den Fall, dass alle Zonen des MLA 9004 von 93A beleuchtet sind. In diesem Fall ist die resultierende Winkelintensitätsverteilung ein nahezu perfekt homogenisiertes Sichtfeld 9212. Zur Veranschaulichung: Alle vier Zonen im Sichtfeld 9212 überlappen lückenlos zu einer vertikalen Linie.
  • 93C zeigt darüber hinaus Simulationsergebnisse für den exemplarischen MLA 9004 mit vier MLA-Segmenten und 93D zeigt eine resultierende Winkelintensitätsverteilung 9304 für den Fall, dass nur die oberste Zone des MLA 9004 aus 93C beleuchtet wird. In diesem Fall zeigt die resultierende Winkelintensitätsverteilung 9302 eine sehr deutliche Zone im Sichtfeld 9212. Ein Übersprechen in eine andere Zone im Sichtfeld 9212 existiert in diesem Fall fast nicht.
  • In verschiedenen Ausführungsformen kann die optische Komponente 8900 in mehr als einer Richtung gekrümmt sein, z. B. in horizontaler Richtung und in vertikaler Richtung. Die Krümmung in horizontaler Richtung kann durch die Abtastbewegung der Strahllenkvorrichtung (z.B. MEMS-Spiegel 4608) hervorgerufen werden. Die horizontale Winkelbewegung übersteigt typischerweise die vertikale Divergenz. Wenn jedoch die vertikale Divergenz recht groß ist, um einen großen FOV in beiden Achsen zu erreichen, kann eine Krümmung des MLA 9004 in vertikaler Richtung vorgesehen werden, um den optischen Effekt über eine Gruppe hinweg gleich zu halten und/oder andere Strahlformmuster zu realisieren.
  • In verschiedenen Ausführungsformen könnte ein flacher Multigruppen-MLA 9004 (d.h. ein MLA 9004 ohne die oben erläuterte gekrümmte Form) verwendet werden, um die Herstellungskosten niedrig zu halten, aber auch um abweichende optische Effekte in horizontaler Richtung auszunutzen, die die Strahlform verändern, wenn der Strahl in horizontaler Richtung über das FOV 9212 gelenkt wird.
  • Durch eine horizontale Krümmung der (Mikro-)Linsen 9110 kann die Strahlform in horizontaler Richtung verändert werden. Die (Mikro-)Linsen 9110 sind in einem solchen Fall nicht zylindrisch, sondern toroidförmig oder mit einem sich anpassenden vertikalen Radius. Dieses Design bietet eine Vielzahl von nutzbaren Konstruktionen.
  • Jede Gruppe von (Mikro-)Linsen 9110 oder Linsen 8914 kann unterschiedliche Designparameter haben (z.B. Radius, Pitch, Shift):
    • - Unterschiedliche Neigungen (Pitches) und/oder Radien von (Mikro-)Linsen 9110 oder Linsen 8914 können zu unterschiedlichen vertikalen Divergenzen führen, z.B. 4° für beide äußeren Gruppen und 2° für beide inneren Gruppen. Schließlich kann dies zu unterschiedlichen Segmentgrößen im FOV führen.
    • - Unterschiedliche Verschiebungen (Shifts) von (Mikro-)Linsen 9110 oder Linsen 8914 können zu unterschiedlichen Richtungen aus jeder Gruppe führen. Dies bedeutet, dass die Segmente im Sichtfeld (FOV) 9212 getrennt oder überlappt sein können.
  • 94 zeigt eine Seitenansicht eines Teils 9400 des ersten LIDAR-Sensorsystems 40 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Bei einem Design mit zwei Gruppen von (Mikro-)Linsen 9110 oder Linsen (Lenslets) 8914, wobei jede Gruppe von (Mikro-)Linsen 9110 oder Linsen 8914 einen unterschiedlichen Pitch 9122 und einen unterschiedlichen Shift 9124 hat, können die vertikalen Segmente beispielsweise unterschiedliche Größen haben. Dies bedeutet, dass ein anderes vertikales FOV-Segment von der Emittergruppe eins und ein zweites kleineres vertikales FOV-Segment von der Emittergruppe zwei beleuchtet wird. Aufgrund der unterschiedlichen Abstände 9122 pro Gruppe von (Mikro-)Linsen 9110 oder Linsen 8914 können die vertikalen Divergenzen unterschiedlich sein.
  • Zusätzlich kann die Teilung 9122 in der horizontalen Achse des MLA 9004 verändert werden. Die Segmente 9402, 9404, 9406, 9408 wechseln in einem solchen Fall über das horizontale FOV zu den geänderten Segmenten 9410, 9412, 9414, 9416. Das Mikrolinsen-Array umfasst oder besteht aus zwei (oder mehr) Regionen, die nebeneinander angeordnet sind. Jede Region ist wie oben beschrieben aufgebaut. Zum Beispiel wird eine mittlere Region, die Licht in einen bestimmten vertikalen Winkelbereich lenkt, durch eine horizontale Seitenregion ergänzt, die Licht in einen größeren vertikalen Winkelbereich lenkt. Dadurch kann das LIDAR-Sensorsystem 10 eine angepasste Laserleistung in jeden horizontalen Bereich innerhalb des FOVs emittieren, wodurch eine größere Reichweite mit einem kleineren vertikalen FOV im mittleren Bereich und einer kürzeren Reichweite, aber einem größeren vertikalen FOV an den Seiten ermöglicht wird.
  • Anstelle eines doppelseitigen MLA 9004 kann auch ein einseitiger MLA 9004 verwendet werden. 95A, 95B und 95C zeigen drei Beispiele 9500, 9510, 9520 eines einseitigen MLA 9004.
  • 95A zeigt das Funktionsprinzip des MLA 9004 mit Bezug auf das erste Beispiel 9500 des einseitigen MLA 9004. Ähnlich wie beim doppelseitigen MLA 9004 kann eine gewisse Divergenz des austretenden Lichtstrahls 9502 in Abhängigkeit von der Teilung 9122 und dem Radius der einzelnen Linsen 8914 erreicht werden. 95B zeigt ein zweites Beispiel 9510 des einseitigen MLA 9004 mit einer konvexen Eintrittsfläche 9512, um den MLA 9004 mit einem bereits divergenten Lichtstrahl 9514 zu betreiben. 95C zeigt ein drittes Beispiel 9520 des einseitigen MLA 9004, das dasselbe wie das zweite Beispiel 9510 von 95B tut, mit einer Fresnellinsenfläche 9522 anstelle einer konvexen Linsenfläche 9514 an der Eintrittsseite.
  • Ein Effekt eines solchen einseitigen MLA ist die geringere Komplexität und damit geringere Kosten. Außerdem wird der Lichtstrahl nicht mehr wie beim doppelseitigen MLA 9004 auf die Außenfläche fokussiert (vgl. 91). Dadurch verringert sich die Leistungsdichte auf der Oberfläche, was bei sehr hohen Laserleistungen vorteilhaft sein kann.
  • 96A und 96B zeigen verschiedene Beispiele für eine Kombination der jeweiligen einseitigen MLA zu einer zweiteiligen doppelseitigen MLA in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Anstelle eines doppelseitigen MLA 9004, das aus einem Stück gefertigt ist, kann es in zwei einseitige MLAs aufgeteilt werden.
  • 96A zeigt ein erstes Beispiel 9600 eines doppelseitigen MLA einschließlich eines ersten Stücks 9602 eines einseitigen MLA. Die Lichteintrittsseite 9604 des ersten Stücks 9602 umfasst die (Mikro-)Linsen 9110 oder Linsen 8914 und die Lichtaustrittsseite des ersten Stücks 9602 kann eine ebene Oberfläche 9606 haben. Das erste Beispiel 9600 der doppelseitigen MLA kann ferner ein zweites Stück 9608 einer einseitigen MLA aufweisen. Die Lichteintrittsseite des zweiten Stücks 9608 kann eine flache Oberfläche 9610 haben und die Lichtaustrittsseite des zweiten Stücks 9608 kann die (Mikro-)Linsen 9110 oder Linsen 8914 aufweisen.
  • Dadurch können beide Elemente (also die Teile 9602, 9608) z.B. mit Hilfe einer piezoelektrischen Vorrichtung zueinander verschoben werden. Dies erlaubt eine aktive Lenkung der Richtung des Lichtstrahls entsprechend den verschiedenen Situationen.
  • 96B zeigt ein zweites Beispiel 9650 eines doppelseitigen MLA einschließlich eines ersten Stücks 9652 eines einseitigen MLA. Die Lichteintrittsseite 9654 des ersten Stücks 9652 enthält die (Mikro-)Linsen 9110 oder Linsen 8914 und die Lichtaustrittsseite des ersten Stücks 9652 kann eine flache Oberfläche 9656 haben. Das zweite Beispiel 9650 der doppelseitigen MLA kann ferner ein zweites Stück 9658 einer einseitigen MLA aufweisen. Die Lichteintrittsseite des zweiten Stücks 9658 kann eine flache Oberfläche 9660 haben und die Lichtaustrittsseite des zweiten Stücks 9658 kann die (Mikro-)Linsen 9110 oder Linsen 8914 aufweisen. Die (Mikro-)Linsen 9110 oder Brillengläser 8914 des ersten Teils 9652 und die (Mikro-)Linsen 9110 oder Brillengläser 8914 des zweiten Teils 9658 können um eine vordefinierte Verschiebung 9662 gegeneinander verschoben sein.
  • Um verschiedene Segmente der Laserlinie mit unterschiedlichen Strahlungsintensitäten zu versorgen, können die Emitter (d.h. die Elemente der Lichtquelle 42) mit unterschiedlichen Leistungen angesteuert werden. Wenn diejenigen Emitter, die einen bestimmten Teilbereich (Segment) des Zielbereichs mit Licht versorgen, gedimmt werden, können andere Emitter mit höherer Leistung betrieben werden, ohne die durchschnittliche thermische Belastung zu erhöhen. Auf diese Weise kann die Reichweite des LIDAR-Geräts für bestimmte wichtige Teile der Zielregion erhöht werden.
  • Eine weitere Option besteht darin, einen einzelnen Laserpuls (der in ein Segment emittiert wird) in zwei (oder mehr: N) zeitlich aufeinanderfolgende Laserpulse mit einer vordefinierten Zeitverzögerung aufzuteilen, wobei jeder Puls die Hälfte (oder 1/N) der optischen Leistung im Vergleich zu der Situation mit einem überlappenden Einzelpuls aufweist. In verschiedenen Ausführungsformen wird die maximale Reichweite reduziert. Durch die Analyse der Zeitverzögerung zwischen zwei (oder mehr) empfangenen Pulsen kann man jedoch zwischen Pulsen aus dem eigenen LiDAR-System und aus anderen externen Systemen unterscheiden.
  • In verschiedenen Ausführungsformen kann vorgesehen werden, dass die vertikale Ordnung der Regionen auch für unterschiedliche Wellenlängen ausgelegt ist. Es können zwei Laserquellen verwendet werden, die im mittleren und oberen Teil auf die MLA-Oberfläche gerichtet sind. Die MLA kann so konstruiert werden, dass die gleiche Segmentierung des vertikalen FOV wie oben beschrieben erreicht wird, aber diesmal muss jeder Bereich für eine andere Wellenlänge der Laserquelle angepasst werden, wodurch sich die Krümmung, der Abstand und die Verschiebung der Linsentaschen ändert. Dies könnte die parallele Beleuchtung eines vertikalen FOVs mit zwei verschiedenen Wellenlängen ermöglichen. Ein entsprechender Empfängerpfad, der entweder aus zwei verschiedenen Detektorpfaden oder aus optischen Filtern vor demselben Detektor besteht, kann die Rücklaufsignale aus den Segmenten parallel auslesen.
  • 97 zeigt einen Ausschnitt 9700 des zweiten LIDAR-Sensorsystems 50 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Die Segmentierung des vertikalen FOV kann mit einer entsprechenden Segmentierung (z.B. in Bezug auf vier Eingangssegmente 9702, 9704, 9706, 9708) im Empfängerpfad im zweiten LIDAR-Sensorsystem 50 kombiniert werden. Dabei wird das vertikale FOV auf einen vertikal ausgerichteten Fotodetektor abgebildet, der aus mehreren Pixeln besteht. Es ist zu beachten, dass diese Ausführungsformen mit den Beispielen wie in Verbindung mit 68 bis 72 beschrieben und mit den Beispielen 1h bis 22h kombiniert werden können. Die von jedem Pixel erfassten Analogsignale werden von einer TIA 9714 bzw. einem ADC 9716 verstärkt und digitalisiert. Ein Multiplexer 9712 reduziert die notwendige Anzahl der TIAs 9714 und ADCs 9716 (die die kostspieligsten Teile sind) und verbindet die Detektorpixel, deren FOV mit dem beleuchteten vertikalen Segment des oben erwähnten optischen Emittersystems zusammenfällt. Zum Beispiel kann (wie in 97 gezeigt) ein 16-Kanal-APD-Array 9710 in vier 4 Kanäle segmentiert werden, indem ein Vierkanal-Multiplexer 9712 verwendet wird, der nacheinander 4 TIA+ADC-Kanäle verbindet. Dadurch lässt sich die Anzahl der Elektronik und der erzeugten Daten, die in nachfolgenden Prozessen verarbeitet werden müssen, reduzieren.
  • Es ist zu beachten, dass diese oben beschriebenen Aspekte auch für verschiedene andere LIDAR-Typen gelten. Die gewonnene Designfreiheit erlaubt es, die FOV-Form für viele andere Anwendungen zu optimieren.
  • Weiterhin ist zu beachten, dass das First Sensing System 40 in diesen Ausführungsformen auch ein zweidimensionales Emitter-Array, z.B. einschließlich VCSELs, aufweisen kann.
  • Verschiedene Ausführungsformen können scharfe Enden in der projizierten Linie erreichen, was das Verschütten von Licht oberhalb und unterhalb der Zielregion verringern kann. Darüber hinaus kann das Gerät die Größe der sichtbaren scheinbaren Quelle (virtuelle Quelle) erhöhen und so dazu beitragen, die Augensicherheit auch bei hohen Laserausgangsleistungen zu erreichen. Darüber hinaus kann eine ziemlich scharfe Trennung zwischen Segmenten der Laserlinie erreicht werden, die getrennt ein- und ausgeschaltet werden können.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 89 bis 97 oben beschrieben, können mit den Ausführungsformen, wie unter Bezugnahme auf 68 bis 72 beschrieben, kombiniert werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1n ist eine optische Komponente für ein LIDAR-Sensorsystem. Die optische Komponente kann ein optisches Element mit einer ersten Hauptfläche und einer zweiten Hauptfläche gegenüber der ersten Hauptfläche, eine erste Linsenanordnung, die auf der ersten Hauptfläche ausgebildet ist, und/oder eine zweite Linsenanordnung, die auf der zweiten Hauptfläche ausgebildet ist, umfassen. Das optische Element hat eine gekrümmte Form in einer ersten Richtung des LIDAR-Sensorsystems.
    • In Beispiel 2n kann der Gegenstand von Beispiel 1n optional umfassen, dass die erste Richtung eine Abtastrichtung des LIDAR-Sensorsystems ist.
    • In Beispiel 3n kann der Gegenstand eines der Beispiele 1 n oder 2n optional umfassen, dass das optische Element eine gekrümmte Form in einer zweiten Richtung senkrecht zur ersten Richtung des LIDAR-Sensorsystems hat.
    • In Beispiel 4n kann der Gegenstand eines der Beispiele 1 n bis 3n optional umfassen, dass das erste Linsenarray ein erstes Mikrolinsenarray enthält und/oder dass das zweite Linsenarray ein zweites Mikrolinsenarray enthält.
    • In Beispiel 5n kann der Gegenstand eines der Beispiele 1 n bis 4n optional umfassen, dass das erste Linsenarray eine erste Mehrzahl von Zylinderlinsen aufweist, die entlang der Abtastrichtung des LIDAR-Sensorsystems angeordnet sind, und/oder dass das zweite Linsenarray eine zweite Mehrzahl von Zylinderlinsen aufweist, die entlang der Abtastrichtung des LIDAR-Sensorsystems angeordnet sind.
    • In Beispiel 6n kann der Gegenstand eines der Beispiele 1n bis 5n optional umfassen, dass das erste Linsenarray eine Vielzahl von ersten Linsen und das zweite Linsenarray eine Vielzahl von zweiten Linsen aufweist. Mindestens einige der zweiten Linsen haben die gleiche Teilung (Pitch) entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems in Bezug auf mindestens einige der ersten Linsen.
    • In Beispiel 7n kann der Gegenstand eines der Beispiele 1 n bis 6n optional umfassen, dass das erste Linsenarray eine erste Vielzahl von Linsen aufweist, die in eine Vielzahl von ersten Gruppen entlang einer vordefinierten Richtung gruppiert sind, und dass das zweite Linsenarray eine zweite Vielzahl von Linsen aufweist, die in eine Vielzahl von zweiten Gruppen entlang der vordefinierten Richtung gruppiert sind.
    • In Beispiel 8n kann der Gegenstand eines der Beispiele 1 n bis 7n optional umfassen, dass das erste Linsenarray eine Vielzahl von ersten Linsen und das zweite Linsenarray eine Vielzahl von zweiten Linsen aufweist. Mindestens einige der zweiten Linsen sind entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems in Bezug auf mindestens einige der ersten Linsen verschoben.
    • In Beispiel 9n kann der Gegenstand von Beispiel 7n optional umfassen, dass mindestens einige der zweiten Linsen mindestens einer Gruppe aus der Vielzahl der zweiten Gruppen in Bezug auf mindestens einige der ersten Linsen mindestens einer Gruppe aus der Vielzahl der ersten Gruppen entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems verschoben sind.
    • Beispiel 10n ist eine optische Komponente für ein LIDAR-Sensorsystem. Die optische Komponente kann ein optisches Element mit einer ersten Hauptoberfläche und einer der ersten Hauptoberfläche gegenüberliegenden zweiten Hauptoberfläche, ein auf der ersten Hauptoberfläche ausgebildetes Mikrolinsenarray und/oder ein auf der zweiten Hauptoberfläche ausgebildetes zweites Mikrolinsenarray umfassen.
    • In Beispiel 11n kann der Gegenstand von Beispiel 10n optional umfassen, dass das optische Element in einer Abtastrichtung des LIDAR-Sensorsystems eine gekrümmte Form hat.
    • In Beispiel 12n kann der Gegenstand eines der Beispiele 10n oder 11 n optional umfassen, dass das optische Element eine gekrümmte Form in einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems hat.
    • In Beispiel 13n kann der Gegenstand eines der Beispiele 10n bis 12n optional umfassen, dass das erste Mikrolinsenarray eine erste Mehrzahl von Zylinderlinsen aufweist, die entlang der Abtastrichtung des LIDAR-Sensorsystems angeordnet sind, und/oder dass das zweite Mikrolinsenarray eine zweite Mehrzahl von Zylinderlinsen aufweist, die entlang der Abtastrichtung des LIDAR-Sensorsystems angeordnet sind.
    • In Beispiel 14n kann der Gegenstand eines der Beispiele 10n bis 13n optional umfassen, dass das erste Mikrolinsenarray eine Vielzahl von ersten Linsen und das zweite Mikrolinsenarray eine Vielzahl von zweiten Linsen aufweist. Mindestens einige der zweiten Linsen haben die gleiche Teilung (Pitch) entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems in Bezug auf mindestens einige der ersten Linsen.
    • In Beispiel 15n kann der Gegenstand eines der Beispiele 10n bis 14n optional umfassen, dass das erste Mikrolinsenarray eine erste Vielzahl von Mikrolinsen umfasst, die in einer Vielzahl von ersten Gruppen entlang einer vordefinierten Richtung gruppiert sind, und/oder dass das zweite Mikrolinsenarray eine zweite Vielzahl von Mikrolinsen umfasst, die in einer Vielzahl von zweiten Gruppen entlang der vordefinierten Richtung gruppiert sind.
    • In Beispiel 16n kann der Gegenstand eines der Beispiele 10n bis 15n optional umfassen, dass das erste Mikrolinsenarray eine Vielzahl von ersten Mikrolinsen aufweist und/oder dass das zweite Mikrolinsenarray eine Vielzahl von zweiten Mikrolinsen aufweist. Mindestens einige der zweiten Linsen sind entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems in Bezug auf mindestens einige der ersten Linsen verschoben.
    • In Beispiel 17n kann der Gegenstand von Beispiel 15n optional umfassen, dass mindestens einige der zweiten Linsen mindestens einer Gruppe aus der Vielzahl der zweiten Gruppen in Bezug auf mindestens einige der ersten Linsen mindestens einer Gruppe aus der Vielzahl der ersten Gruppen entlang einer Richtung senkrecht zur Abtastrichtung des LIDAR-Sensorsystems verschoben sind.
    • Beispiel 18n ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine optische Komponente aus einem der Beispiele 1 n bis 17n und eine Lichtquelle aufweisen.
    • In Beispiel 19n kann der Gegenstand von Beispiel 18n optional umfassen, dass die Lichtquelle eine Vielzahl von Laserlichtquellen umfasst.
    • In Beispiel 20n kann der Gegenstand von Beispiel 19n optional umfassen, dass die Mehrzahl der Laserlichtquellen eine Mehrzahl von Laserdioden umfasst.
    • In Beispiel 21 n kann der Gegenstand von Beispiel 20n optional umfassen, dass die Mehrzahl von Laserdioden eine Mehrzahl von kantenemittierenden Laserdioden umfasst.
    • In Beispiel 22n kann der Gegenstand eines der Beispiele 20n oder 21 n optional umfassen, dass die Mehrzahl von Laserdioden eine Mehrzahl von oberflächenemittierenden Laserdioden mit vertikalem Hohlraum umfasst.
    • In Beispiel 23n kann der Gegenstand eines der Beispiele 18n bis 22n optional umfassen, dass das LIDAR-Sensorsystem außerdem ein abtastendes mikro-elektrisch-mechanisches System (MEMS) aufweist, das zwischen der Lichtquelle und der optischen Komponente angeordnet ist.
    • In Beispiel 24n kann der Gegenstand von Beispiel 23n optional umfassen, dass das LIDAR-Sensorsystem zusätzlich eine Kollimationslinse mit schneller Achse aufweist, die zwischen der Lichtquelle und dem MEMS angeordnet ist.
    • In Beispiel 25n kann der Gegenstand eines der Beispiele 18n bis 24n optional umfassen, dass die optische Komponente eine rotationssymmetrische Form hat. Das MEMS und die optische Komponente sind so zueinander angeordnet, dass die Drehachse des MEMS mit der Achse einer Rotationssymmetrie der optischen Komponente verbunden ist.
    • In Beispiel 26n kann der Gegenstand eines der Beispiele 18n bis 25n optional umfassen, dass die Lichtquelle so konfiguriert ist, dass sie Licht aussendet, um eine projizierte Linie in einem Sichtfeld des LIDAR-Sensorsystems zu erzeugen.
    • In Beispiel 27n kann der Gegenstand von Beispiel 26n optional umfassen, dass eine projizierte Lichtlinie, die von der Lichtquelle emittiert wird, eine Vielzahl von Liniensegmenten aufweist. Die projizierte Linie steht senkrecht zu einer Abtastrichtung des MEMS. Das erste Linsenarray umfasst eine erste Mehrzahl von Linsen, die entlang einer vordefinierten Richtung in eine Mehrzahl von ersten Gruppen gruppiert sind. Das zweite Linsenarray umfasst eine zweite Vielzahl von Linsen, die in einer Vielzahl von zweiten Gruppen entlang der vordefinierten Richtung gruppiert sind. Jedes Segment ist mit mindestens einer ersten Gruppe aus der Vielzahl der ersten Gruppen und mit mindestens einer zweiten Gruppe aus der Vielzahl der zweiten Gruppen verbunden.
    • In Beispiel 28n kann der Gegenstand von Beispiel 27n optional umfassen, dass die vordefinierte Richtung die vertikale Richtung ist.
    • In Beispiel 29n kann der Gegenstand eines der Beispiele 1 n bis 2n optional umfassen, dass mindestens eine Lichtquelle der Vielzahl von Lichtquellen mit mindestens einem Liniensegment der Vielzahl von Liniensegmenten assoziiert ist.
  • Gepulste Laserquellen können verschiedene Anwendungen haben. Ein wichtiges Anwendungsgebiet für gepulste Laserquellen können Flugzeit (Time-of-flight)-LIDAR-Sensoren oder LIDAR-Systeme sein. Bei einem Flugzeit-LIDAR-System kann ein Laserpuls ausgesendet werden, der Laserpuls kann von einem Zielobjekt reflektiert und der reflektierte Puls vom LIDAR-System wieder empfangen werden. Durch Messung der Zeit, die zwischen dem Aussenden des Laserpulses und dem Empfang des reflektierten Pulses verstrichen ist, kann eine Entfernung zum Objekt berechnet werden. Für eine LIDAR-Anwendung (z.B. in einem LIDAR-System) können verschiedene Arten von Lasern oder Laserquellen verwendet werden. Beispielsweise kann ein LIDAR-System einen kantenemittierenden Diodenlaser, einen oberflächenemittierenden Laser mit vertikalem Resonator (VCSEL), einen Faserlaser oder einen Festkörperlaser (z.B. einen Nd:YAG-diodengepumpten Kristalllaser, einen Scheibenlaser und ähnliches) umfassen. Ein kantenemittierender Diodenlaser oder ein VCSEL kann z.B. für kostengünstige Anwendungen zur Verfügung gestellt werden.
  • Für den Betrieb einer Laserdiode im Pulsbetrieb kann eine spezielle Treiberschaltung vorgesehen werden. Ein relativ hoher elektrischer Strompuls kann innerhalb kurzer Zeit (normalerweise in der Größenordnung von einigen Pikosekunden bis zu einigen Mikrosekunden) durch die Laserdiode geschickt werden, um einen kurzen und intensiven optischen Laserpuls zu erzielen. Die Treiberschaltung kann einen Speicherkondensator zur Bereitstellung der elektrischen Ladung für den Strompuls aufweisen. Die Treiberschaltung kann eine Schaltvorrichtung (z.B. einen oder mehrere Transistoren) zur Erzeugung des Strompulses aufweisen. Eine direkte Verbindung zwischen der Laserquelle und einer Stromquelle kann einen überhöhten Strom liefern (z.B. einen viel zu großen Strom). Kondensatoren auf Siliziumbasis (z.B. Grabenkondensatoren oder Stapelkondensatoren) können in ein Hybrid- oder Systempaket integriert werden, um eine höhere Integration der Lasertreiber zu erreichen. Die Schalteinrichtung zum Aktivieren des Strompulses durch die Laserdiode kann ein vom Kondensator getrenntes Element sein.
  • Der Speicherkondensator und die Schaltung können sich in einem gewissen Abstand von der Laserdiode befinden. Dies kann mit den Abmessungen der verschiedenen elektrischen Komponenten im Kondensator und in der Schaltvorrichtung zusammenhängen. Beispielsweise kann bei diskreten Bauteilen ein Mindestabstand in der Größenordnung von Millimetern vorhanden sein. Die Verlötung der diskreten Komponenten auf einer Leiterplatte (PCB) und die Leiterbahnen, die die Komponenten auf der Leiterplatte (PCB) verbinden, können verhindern, dass dieser Mindestabstand weiter verringert wird. Dadurch können sich die parasitären Kapazitäten und Induktivitäten im System erhöhen.
  • Verschiedene Ausführungsformen können auf der Integration von einem oder mehreren Ladungsspeicherkondensatoren, einem oder mehreren Schaltgeräten (auch als Schalter bezeichnet) und einem oder mehreren Laserlichtemittern (z.B. einer oder mehreren Laserdioden) in einem gemeinsamen Substrat basieren. Zur Veranschaulichung kann ein System mit einer Vielzahl von Kondensatoren, einer Vielzahl von Schaltvorrichtungen (z.B. eine Schaltvorrichtung für jeden Kondensator) und einer oder mehreren Laserdioden, die in oder auf einem gemeinsamen Substrat integriert sind, vorgesehen werden. Die Anordnung der Kondensatoren und der Schaltvorrichtungen in unmittelbarer Nähe zu der einen oder den mehreren Laserdioden (z.B. im gleichen Substrat) kann zu reduzierten parasitären Induktivitäten und Kapazitäten (z.B. eines elektrischen Pfades für einen Treiberstromfluss) führen. Dies kann zu verbesserten Pulscharakteristiken führen (z.B. eine reduzierte Mindestpulsbreite, ein erhöhter Maximalstrom bei einer bestimmten Pulsbreite, ein höherer Grad an Einfluss auf die tatsächliche Pulsform oder eine gleichmäßigere Form des Pulses).
  • In verschiedenen Ausführungsformen kann ein optisches Gehäuse (Package, Paket) vorgesehen werden (auch als Laserdiodensystem bezeichnet). Das optische Gehäuse kann ein Substrat aufweisen (z.B. ein Halbleitersubstrat, z.B. ein Substrat aus Verbindungshalbleitermaterial). Das Substrat kann ein Array aus einer Vielzahl von Kondensatoren aufweisen, die in dem Substrat ausgebildet sind. Das Substrat kann eine Vielzahl von Schaltern aufweisen. Jeder Schalter kann zwischen mindestens einem Kondensator und mindestens einer Laserdiode angeschlossen sein. Das optische Gehäuse kann die mindestens eine auf dem Substrat montierte Laserdiode aufweisen. Das optische Gehäuse kann einen Prozessor (z.B. eine Lasertreiber-Steuerschaltung oder einen Teil einer Lasertreiber-Steuerschaltung) aufweisen, der so konfiguriert ist, dass er die Mehrzahl von Schaltern steuert, um einen ersten Stromfluss zum Laden der Mehrzahl von Kondensatoren zu steuern. Der Prozessor kann so konfiguriert sein, dass er die Mehrzahl von Schaltern steuert, um einen zweiten Stromfluss zum Treiben der mindestens einen Laserdiode mit einem Strom zu steuern, der von mindestens einem Kondensator entladen wird (z.B. ein Strompuls durch die Laserdiode). Zur Veranschaulichung: Der Prozessor kann so konfiguriert werden, dass er die Mehrzahl von Schaltern steuert, um den zweiten Stromfluss zur Entladung der Mehrzahl von Kondensatoren zu steuern. Das optische Gehäuse kann z.B. für LIDAR-Anwendungen vorgesehen werden. Zur Veranschaulichung: Das optische Gehäuse kann auf einem array-verteilten Ansatz für die Kondensatoren und Schalter basieren.
  • Der erste Stromfluss kann derselbe sein wie der zweite Stromfluss. Zur Veranschaulichung: Der zum Laden der Kondensatoren verwendete Strom kann derselbe sein wie der von den Kondensatoren entladene Strom. Alternativ kann sich der erste Stromfluss vom zweiten Stromfluss unterscheiden (z.B. wenn ein Teil der in den Kondensatoren gespeicherten Ladung abgeflossen ist, wie weiter unten im Detail beschrieben).
  • Die Anordnung der Komponenten des optischen Package (z. B. die Kondensatoren, die Schalter und die mindestens eine Laserdiode) kann der Anordnung der Komponenten eines dynamischen Randomzugriffsspeichers (DRAM) ähnlich sein. Beispielsweise kann jedem Schalter genau ein entsprechender Kondensator zugeordnet sein. Ein Schalter-Kondensator-Paar (z. B. in Kombination mit der zugehörigen Laserdiode) kann einer Speicherzelle eines DRAM-Arrays ähnlich sein (z. B. kann eine Speicherzelle z. B. einen Speicherkondensator, einen Transistor und elektrische Verbindungen umfassen).
  • Die Vielzahl von Kondensatoren und die Vielzahl von Schaltern kann als Treiberschaltung (zur Veranschaulichung: als Teil einer Treiberschaltung, z.B. einer DRAM-ähnlichen Treiberschaltung) der mindestens einen Laserdiode verstanden werden. Die Laserdiode kann die Treiberschaltung teilweise abdecken (z. B. zumindest einen Teil der Anordnung der Kondensatoren). Zur Veranschaulichung: Die Treiberschaltung kann unter der Laserdiode angeordnet sein. Die Treiberschaltung kann elektrisch mit der Laserdiode verbunden sein (z.B. durch ein Verfahren der 3D-Integration integrierter Schaltungen, wie Bump-Bonden). Die Kondensatoren (z.B. DRAM-ähnliche Kondensatoren) können eine ausreichende Kapazität haben, um der Laserdiode genügend Strom für eine Hochleistungs-Laseremission zu liefern, z.B. für die Emission in Flugzeit-LIDAR-Anwendungen. In einer beispielhaften Anordnung können der Laserdiode etwa 500000 Kondensatoren (z.B. jeder mit einer Kapazität von etwa 100 fF) zugeordnet werden (z.B. einem VCSEL, z.B. mit einem Durchmesser von etwa 100 pm). Die Anordnung der Kondensatoren direkt unter der Laserdiode kann kleine parasitäre Induktivitäten und Kapazitäten ergeben. Dies kann die Erzeugung eines kurzen und starken Laserpulses vereinfachen (z.B. basierend auf einem Strompuls von etwa 40 A in der beispielhaften Anordnung). Als Beispiel kann eine Verbindung (z.B. ein elektrischer Pfad) zwischen einem Kondensator (und/oder einem Schalter) und der Laserdiode eine Induktivität von weniger als 100 pH aufweisen.
  • Die in den Kondensatoren gespeicherte Ladung kann sich bei Nichtbenutzung der Ladung, z.B. nach einer gewissen Zeit, verflüchtigen. Eine regelmäßige Aufladung (z.B. eine Auffrischung) der Kondensatoren kann vorgesehen werden (z.B. in vordefinierten Zeitintervallen). Die Ladungsableitung kann das Risiko einer unbeabsichtigten Emission eines Laserpulses verringern. Das optische Gehäuse/Package kann mit oder ohne einen hochohmigen Widerstand geliefert werden, der so konfiguriert ist, dass die Speicherkondensatoren über Zeiträume entladen werden, die größer als die Laserpulsrate sind.
  • Die Treiberschaltung kann mit DRAM-Herstellungsverfahren hergestellt werden, z. B. mit Verfahren der CMOS-Technologie. Bei den Kondensatoren kann es sich um Tiefe-Graben (Deep-Trench)-Kondensatoren oder Stapelkondensatoren handeln (zur Veranschaulichung: mindestens ein Kondensator kann ein Tiefer-Graben-Kondensator und/oder mindestens ein Kondensator ein Stapelkondensator sein). Jeder Schalter kann einen Transistor aufweisen, z.B. einen Feldeffekttransistor (z.B. einen Metalloxid-Halbleiter-Feldeffekttransistor, wie z.B. einen komplementären Metalloxid-Halbleiter-Feldeffekttransistor). Die Treiberschaltung kann auf kosteneffiziente Weise bereitgestellt (und hergestellt) werden (z.B. ohne teure Hochleistungs-Hochgeschwindigkeitsleistungstransistoren, wie z.B. ohne GaN-FET).
  • Die Laserdiode kann ein Ill-V-Halbleitermaterial als aktives Material aufweisen (z.B. aus der AlGaAs- oder GaN-Halbleiterfamilie). Als Beispiel kann die Laserdiode eine kantenemittierende Laserdiode aufweisen. Als weiteres Beispiel kann die Laserdiode eine oberflächenemittierende Laserdiode mit vertikalem Resonator aufweisen (z.B. kann das optische Gehäuse ein VCSEL-Gehäuse sein).
  • In verschiedenen Ausführungsformen kann der Prozessor so konfiguriert werden, dass er die Mehrzahl von Schaltern einzeln steuert, um den ersten Stromfluss zum Laden der Mehrzahl von Kondensatoren zu steuern.
  • In verschiedenen Ausführungsformen kann der Prozessor so konfiguriert werden, dass er die an die Laserdiode abzugebende Ladungsmenge steuert. Der Prozessor kann so konfiguriert werden, dass er die Mehrzahl von Schaltern zur Steuerung des zweiten Stromflusses individuell steuert, um die mindestens eine Laserdiode mit einem von mindestens einem Kondensator entladenen Strom anzusteuern. Zur Veranschaulichung: Der Prozessor kann so konfiguriert werden, dass er die Schalter einzeln so steuert, dass eine variable Anzahl von der Laserdiode zugeordneten Kondensatoren (zur Veranschaulichung: zu einem bestimmten Zeitpunkt) entladen werden kann, um die Laserdiode anzusteuern (z.B. nur ein Kondensator oder einige Kondensatoren oder alle Kondensatoren). Dadurch kann der Gesamtstrom für den Strompuls und die Intensität des ausgehenden Laserpulses gesteuert werden. Es kann eine variable Laserausgangsleistung bereitgestellt werden, z.B. basierend auf einer genau eingestellten Stromwellenform.
  • Beispielsweise kann das optische Gehäuse eine oder mehrere Zugangsleitungen (z. B. ähnlich einer DRAM-Schaltung) zum selektiven Laden und/oder selektiven Entladen der Kondensatoren aufweisen (z. B. zum Laden und/oder Entladen einer Teilmenge oder einer Untergruppe von Kondensatoren).
  • In verschiedenen Ausführungsformen kann das optische Gehäuse/Package eine Vielzahl von Laserdioden aufweisen, z.B. angeordnet als eindimensionales Array (z.B. ein Line-Array) oder als zweidimensionales Array (z.B. ein Matrix-Array). Als Beispiel kann das optische Gehäuse ein VCSEL-Array aufweisen. Jede Laserdiode kann mit einem entsprechenden Teil der Treiberschaltung verbunden sein (z.B. angesteuert durch) (z.B. entsprechende Kondensatoren und Schalter, z.B. entsprechende 500000 Kondensatoren).
  • In verschiedenen Ausführungsformen kann das optische Package eine oder mehrere Wärmeableitungskomponenten aufweisen, wie z.B. ein oder mehrere Durchkontaktierungen, z.B. Durchkontaktierungen aus Silizium (TSV), eine oder mehrere Metallschichten und/oder eine oder mehrere Wärmesenken. Beispielsweise kann das optische Package eine oder mehrere Wärmesenkenvorrichtungen aufweisen, die unter dem Substrat angeordnet sind (z.B. in direktem physischen Kontakt mit dem Substrat). Als weiteres Beispiel kann das optische Package eine oder mehrere Durchkontaktierungen aus Silizium aufweisen, die außerhalb und/oder innerhalb eines Bereichs des Substrats einschließlich der Schalter und Kondensatoren angeordnet sind. Das eine oder die mehreren Durchkontaktierungen aus Silizium können für eine verbesserte (z.B. größere) Wärmeleitung von der Laserdiode zu einer unteren Oberfläche des Substrats sorgen (z.B. die Montagefläche unter dem Kondensator/Schalterarray). Als weiteres Beispiel kann das optische Package eine Metallschicht aufweisen, die zwischen den Kondensatoren und den Schaltern angeordnet ist. Die Metallschicht kann die Wärmeübertragung zu den Seiten des optischen Package verbessern. Die Metallschicht kann eine zusätzliche elektrische Funktionalität haben, wie z.B. den elektrischen Kontakt einiger der Kondensatoren mit den Seiten des optischen Package. Die Wärmeableitungskomponenten können vorgesehen werden, um die thermische Last abzuleiten, die mit der Integration der Komponenten des optischen Package mit hoher Dichte zusammenhängt (z.B. Laserdiode und Treiberschaltung).
  • 155A zeigt ein optisches Gehäuse/Package 15500 in einer schematischen Seitenansicht nach verschiedenen Ausführungsformen.
  • Das optische Package 15500 kann ein Substrat 15502 aufweisen. Das Substrat 15502 kann ein Halbleitersubstrat sein. Zum Beispiel kann das Substrat 15502 Silizium aufweisen oder im Wesentlichen aus Silizium bestehen. Als weiteres Beispiel kann das Substrat 15502 ein Verbindungshalbleitermaterial (z.B. GaAs, InP, GaN oder ähnliches) aufweisen oder im Wesentlichen aus einem solchen bestehen.
  • Das Substrat 15502 kann eine Vielzahl von Kondensatoren 15504 aufweisen. Die Kondensatoren 15504 können im Substrat 15502 gebildet werden, z.B. können die Kondensatoren 15504 monolithisch in das Substrat 15502 integriert sein. Illustrativ kann ein Kondensator 15504 an drei oder mehr Seiten von dem Substrat 15502 umgeben sein (z.B. vom Substratmaterial). Die Kondensatoren 15504 können z. B. mit Hilfe von DRAM-Herstellungsverfahren hergestellt werden.
  • Zum Beispiel kann mindestens ein Kondensator 15504 (oder mehr als ein Kondensator 15504 oder alle Kondensatoren 15504) ein Tiefer-Graben (Deep-Trench)-Kondensator sein. Illustrativ kann ein Graben (oder mehrere Gräben) in das Substrat 15502 geformt werden (z.B. durch Ätzen). In den Graben kann ein dielektrisches Material abgeschieden werden. Es kann eine Platte gebildet werden, die einen unteren Teil des Grabens umgibt. Die Platte kann als erste Elektrode für den Kondensator des tiefen Grabens dienen. Die Platte kann z.B. ein dotierter Bereich (z.B. ein undotierter Bereich) im Substrat 15502 sein. Auf die dielektrische Schicht kann ein Metall (z.B. ein p-Typ-Metall) aufgebracht werden. Das Metall kann als zweite Elektrode für den Tiefer-Graben-Kondensator dienen oder dienen können.
  • Ein weiteres Beispiel: Mindestens ein Kondensator 15504 (oder mehr als ein Kondensator 15504 oder alle Kondensatoren 15504) kann ein Stapelkondensator sein. Illustrativ kann eine aktive Fläche (oder eine Vielzahl von separaten aktiven Flächen) im Substrat gebildet werden. Eine Gate-Dielektrikumsschicht kann auf die aktive Fläche aufgebracht werden (z.B. auf jede aktive Fläche). Eine Folge von leitfähigen Schichten und dielektrischen Schichten kann auf die Gatedielektrikumsschicht aufgebracht werden. Elektrische Kontakte können z.B. durch einen Maskierungs- und Ätzprozess mit anschließender Metallabscheidung hergestellt werden.
  • Die Kondensatoren 15504 können in geordneter Weise im Substrat 15502 angeordnet werden, z.B. kann die Mehrzahl der Kondensatoren 15504 ein Array bilden. Zum Beispiel können die Kondensatoren 15504 in einer Richtung angeordnet werden, um ein eindimensionales Kondensatorfeld zu bilden. Als weiteres Beispiel können die Kondensatoren 15504 in zwei Richtungen angeordnet werden, um ein zweidimensionales Kondensatorarray zu bilden. Illustrativ können die Kondensatoren 15504 der Kondensatoranordnung 15504 in Zeilen und Spalten angeordnet sein (z.B. eine Anzahl N von Zeilen und eine Anzahl M von Spalten, wobei N gleich M oder verschieden von M sein kann). Es wird davon ausgegangen, dass die Mehrzahl der Kondensatoren 15504 Kondensatoren 15504 desselben Typs oder verschiedener Typen (z.B. ein oder mehrere Tiefer-Graben-Kondensatoren und ein oder mehrere gestapelte Kondensatoren) umfassen kann, z.B. verschiedene Typen von Kondensatoren 15504 in verschiedenen Teilen des Arrays (z.B. in verschiedenen Unterarrays).
  • Das Substrat 15502 kann eine Vielzahl von Schaltern 15506 aufweisen. Die Schalter 15506 können im Substrat 15502 ausgebildet sein, z.B. können die Schalter 15506 monolithisch in das Substrat 15502 integriert sein. Jeder Schalter 15506 kann zwischen mindestens einen Kondensator 15504 und mindestens eine Laserdiode 15508 geschaltet sein (z.B. kann jeder Schalter 15506 mit mindestens einem Kondensator 15504 und mindestens einer Laserdiode 15508 elektrisch gekoppelt sein). Zur Veranschaulichung: Ein Schalter 15506 kann entlang eines elektrischen Pfades angeordnet sein, der einen Kondensator 15504 mit der Laserdiode 15508 verbindet.
  • Ein Schalter 15506 kann gesteuert werden (z.B. geöffnet oder geschlossen), um einen Stromfluss vom zugehörigen Kondensator 15504 zur Laserdiode 15508 zu steuern. Als Beispiel kann jeder Schalter 15506 einen Transistor aufweisen. Mindestens ein Transistor (oder mehr als ein Transistor oder alle Transistoren) kann ein Feldeffekttransistor sein, wie z.B. ein Metalloxid-Halbleiter-Feldtransistor (z.B. ein komplementärer Metalloxid-Halbleiter-Feldtransistor). Es wird davon ausgegangen, dass die Mehrzahl der Schalter 15506 Schalter 15506 desselben Typs oder verschiedener Typen umfassen kann.
  • Ein Schalter 15506 kann mehr als einem Kondensator 15504 zugeordnet werden (z.B. kann ein Schalter 15506 gesteuert werden, um einen Stromfluss zwischen mehr als einem Kondensator 15504 und der Laserdiode 15508 zu steuern). Alternativ kann jeder Schalter 15506 genau einem entsprechenden Kondensator 15504 zugeordnet werden. Zur Veranschaulichung: Das Substrat 15502 kann eine Vielzahl von Schalter-Kondensator-Paaren aufweisen (z.B. ähnlich wie eine Vielzahl von DRAM-Zellen). Dies kann durch die Schaltungsäquivalente veranschaulicht werden, die z.B. in 155B und 155C dargestellt sind. Ein Schalter 15506s kann gesteuert werden (z.B. über einen Steueranschluss 15506g, wie z.B. einen Gate-Anschluss), um einen Stromfluss vom zugeordneten Kondensator 15504c zur Laserdiode 15508d (oder zu einer zugehörigen Laserdiode, wie in 155C gezeigt) zuzulassen oder zu verhindern.
  • Die Schalter 15506 können eine gleiche oder ähnliche Anordnung wie die Kondensatoren 15504 haben (z.B. kann das Substrat 15502 ein Array von Schaltern 15506 aufweisen, wie z.B. ein eindimensionales Array oder ein zweidimensionales Array).
  • Das optische Package 15500 kann die mindestens eine Laserdiode 15508 aufweisen. Die Laserdiode 15508 kann auf dem Substrat 15502 montiert werden (z.B. kann die Laserdiode 15508 auf einer Oberfläche des Substrats 15502, wie einer Oberseite, z.B. auf einer Isolierschicht des Substrats 15502, angeordnet werden). Die Laserdiode 15508 kann seitlich mindestens einen Teil der Vielzahl von Kondensatoren 15504 bedecken. Zur Veranschaulichung: Die Laserdiode 15508 kann auf dem Substrat 15502 entsprechend (z.B. direkt darüber) der Vielzahl von Kondensatoren 15504 oder zumindest einem Teil der Vielzahl von Kondensatoren 15504 montiert werden. Dadurch kann eine niedrige Induktivität für einen elektrischen Pfad zwischen einem Kondensator 15504 (oder einem Schalter 15506) und der Laserdiode 15508 erreicht werden. Der elektrische Pfad (z.B. zwischen einem Kondensator 15504 und der Laserdiode 15508 und/oder zwischen einem Schalter 15502 und der Laserdiode 15508) kann eine Induktivität in einem Bereich zwischen 70 pH und 200 pH haben, z.B. niedriger als 100 pH.
  • Bei der Laserdiode 15508 kann es sich um eine für LIDAR-Anwendungen geeignete Laserdiode handeln (z.B. kann das optische Package 15500 in einem LIDAR-System, z.B. im LIDAR-Sensorsystem 10, enthalten sein). Zum Beispiel kann die Laserdiode 15508 eine kantenemittierende Laserdiode sein oder eine solche aufweisen. Als weiteres Beispiel kann die Laserdiode 15508 eine oberflächenemittierende Laserdiode mit vertikalem Resonator sein oder eine solche aufweisen.
  • Die Laserdiode 15508 kann so konfiguriert werden, dass sie den von den Kondensatoren 15504 entladenen Strom empfängt. Zum Beispiel kann das Substrat 15502 eine Vielzahl von elektrischen Kontakten aufweisen (z.B. kann jeder elektrische Kontakt mit einem entsprechenden Kondensator 15504 verbunden sein, z.B. über den entsprechenden Schalter 15506). Die Laserdiode 15508 kann auf den elektrischen Kontakten montiert oder elektrisch mit den elektrischen Kontakten verbunden sein. So kann z.B. ein erster Anschluss der Laserdiode 15508 elektrisch mit den elektrischen Kontakten verbunden sein, z.B. über eine elektrisch leitende gemeinsame Leitung 15510, wie weiter unten näher beschrieben wird (z.B. kann der erste Anschluss der Laserdiode 15508 elektrisch mit der gemeinsamen Leitung 15510 gekoppelt sein). Ein zweiter Anschluss der Laserdiode 15508 kann elektrisch mit einem zweiten Potential, z.B. mit Masse, verbunden sein.
  • Die Laserdiode 15508 kann mit einer Reihe von Kondensatoren 15504 zur Bereitstellung einer vordefinierten Laserausgangsleistung verbunden (assoziiert) werden. Die Laserdiode 15508 kann z.B. so konfiguriert werden, dass sie den von einer Anzahl von Kondensatoren 15504 entladenen Strom empfängt, so dass eine vordefinierte Laserausgangsleistung bereitgestellt werden kann, z.B. über einem vordefinierten Schwellenwert. Anders ausgedrückt, die Laserdiode 15508 kann so konfiguriert werden, dass sie Strom empfängt, der von einer Anzahl von Kondensatoren 15504 entladen wird, so dass ein vordefinierter Strom in oder durch die Laserdiode 15508 fließen kann, z.B. ein Strom oberhalb eines Stromschwellenwertes. Zum Beispiel kann die Laserdiode 15508 mit einer Anzahl von Kondensatoren 15504 im Bereich von einigen hundert Kondensatoren 15504 bis zu einigen Millionen Kondensatoren 15504 verbunden sein, zum Beispiel im Bereich von etwa 100000 Kondensatoren 15504 bis zu etwa 1000000 Kondensatoren 15504, zum Beispiel im Bereich von etwa 400000 Kondensatoren 15504 bis zu etwa 600000 Kondensatoren 15504, zum Beispiel etwa 500000 Kondensatoren 15504. Jeder Kondensator 15504 kann eine Kapazität im Femtofarad-Bereich haben, z.B. im Bereich von etwa 50 fF bis etwa 200 fF, z.B. etwa 100 fF. Die Kapazität eines Kondensators 15504 kann in Abhängigkeit von der Anzahl der zur Laserdiode 15508 gehörenden Kondensatoren 15504 ausgewählt oder angepasst werden (zur Veranschaulichung: Die Kapazität kann bei abnehmender Anzahl der zugehörigen Kondensatoren 15504 zunehmen und bei zunehmender Anzahl der zugehörigen Kondensatoren 15504 abnehmen). Die Kapazität eines Kondensators 15504 kann in Abhängigkeit vom Stromfluss zur Ansteuerung der Laserdiode 15508 ausgewählt oder angepasst werden (z.B. in Kombination mit der Anzahl der zugehörigen Kondensatoren 15504). Mindestens ein Kondensator 15504 oder einige Kondensatoren 15504 oder alle Kondensatoren 15504, die mit der Laserdiode 15508 verbunden sind, können entladen werden (z.B. für jede Laserpuls-Emission). Dies kann eine Kontrolle über den emittierten Laserpuls ermöglichen, wie weiter unten näher beschrieben wird.
  • Das optische Package 15500 kann mehr als eine Laserdiode 15508 (z.B. eine Vielzahl von Laserdioden) desselben Typs oder verschiedener Typen aufweisen. Jeder Laserdiode kann eine entsprechende Anzahl von Kondensatoren 15504 zugeordnet sein (z.B. eine entsprechende Anzahl von Kondensatoren, z.B. im Bereich von etwa 400000 bis etwa 60000, z.B. etwa 500000).
  • Die Laserdiode 15508 kann so konfiguriert werden, dass sie Licht (z.B. einen Laserpuls) aussendet, wenn der von den zugehörigen Kondensatoren 15504 entladene Strom in der Laserdiode 15508 fließt. Die Laserdiode kann so konfiguriert werden, dass sie Licht in einem vordefinierten Wellenlängenbereich emittiert, z.B. im nahen Infrarot oder im infraroten Wellenlängenbereich (z.B. im Bereich von ca. 800 nm bis ca. 1600 nm, z.B. bei ca. 905 nm oder bei ca. 1550 nm). Die Dauer eines emittierten Laserpulses kann von einer Zeitkonstante der Kondensatoren 15504 abhängig sein. Beispielsweise kann ein emittierter Laserpuls eine Pulsdauer (d.h. eine Pulsbreite) im Bereich von unter 1 ns bis zu mehreren Nanosekunden haben, beispielsweise im Bereich von etwa 5 ns bis etwa 20 ns, also etwa 10 ns.
  • Das optische Package 15500 kann eine elektrisch leitende gemeinsame Leitung 15510 aufweisen (z.B. eine Metallleitung). Die gemeinsame Leitung 15510 kann mindestens einige der Kondensatoren 15504 der Vielzahl von Kondensatoren 15504 verbinden. Illustrativ kann die gemeinsame Leitung 15510 die elektrischen Kontakte von mindestens einigen Kondensatoren 15504 der Vielzahl von Kondensatoren 15504 verbinden (z.B. elektrisch mit ihnen verbunden sein). Als Beispiel kann die gemeinsame Leitung 15510 alle Kondensatoren 15504 der Vielzahl von Kondensatoren 15504 verbinden. Als weiteres Beispiel kann das optische Package 15500 eine Vielzahl von gemeinsamen Leitungen 15510 aufweisen, von denen jede mindestens einige Kondensatoren 15504 der Vielzahl von Kondensatoren 15504 verbindet.
  • Das optische Package 15500 kann eine Stromquelle 15512 aufweisen (z.B. eine Quelle, die so konfiguriert ist, dass sie einen Strom liefert, z.B. eine Batterie). Die Stromquelle 15512 kann elektrisch an die gemeinsame Leitung 15512 (oder an jede gemeinsame Leitung) angeschlossen werden. Die Stromquelle 15512 kann so konfiguriert werden, dass sie Strom zum Laden der mehreren Kondensatoren 15504 liefert (z.B. die Kondensatoren 15504, die an die gemeinsame Leitung 15510 angeschlossen sind).
  • Das optische Package 15500 kann einen Prozessor 15514 aufweisen. Zum Beispiel kann der Prozessor 15514 auf dem Substrat 15502 montiert werden. Als weiteres Beispiel kann der Prozessor 15514 monolithisch in das Substrat 15502 integriert werden. Alternativ kann der Prozessor 15514 auf die Leiterplatte 15602 montiert werden (siehe 156). Der Prozessor kann so konfiguriert werden, dass er die Vielzahl der Schalter 15506 steuert (z.B. zum Öffnen oder Schließen der Vielzahl der Schalter). Als Beispiel kann das optische Package 15500 (oder das Substrat 15502) eine Vielzahl von Zugangsleitungen aufweisen, die elektrisch mit den Steueranschlüssen der Schalter 15506 verbunden sind (z. B. ähnlich wie Wortleitungen in einem DRAM). Der Prozessor 15514 kann so konfiguriert werden, dass er die Schalter 15506 steuert, indem er ein Steuersignal (z.B. eine Spannung, wie z.B. eine Steuerspannung oder ein elektrisches Potential) an die Vielzahl von Zugangsleitungen (oder an einige Zugangsleitungen oder an eine einzelne Zugangsleitung) liefert. Der Prozessor 15514 kann so konfiguriert werden, dass er die Schalter 15506 individuell steuert, z.B. indem er individuelle Steuersignale an die Zugangsleitung oder -leitungen liefert, die mit dem Schalter 15506 oder den zu steuernden Schaltern 15506 verbunden sind. Beispielsweise kann der Prozessor 15514 eine Spannungsversorgungsschaltung aufweisen oder so konfiguriert werden, dass er eine Spannungsversorgungsschaltung steuert, die für die Lieferung von Steuerspannungen an die Zugriffsleitungen verwendet wird (nicht abgebildet).
  • Der Prozessor 15514 kann so konfiguriert werden, dass er die Vielzahl von Schaltern 15506 steuert (z.B. zur individuellen Steuerung), um einen ersten Stromfluss zum Laden der Vielzahl von Kondensatoren 15504 zu steuern. Zur Veranschaulichung: Der Prozessor 15514 kann so konfiguriert werden, dass er die Mehrzahl der Schalter 15506 öffnet, so dass Strom von der gemeinsamen Leitung 15510 (zur Veranschaulichung: von der Stromquelle 15512) in die Kondensatoren 15504 fließen kann.
  • Der Prozessor 15514 kann so konfiguriert werden, dass er die Vielzahl der Schalter 15506 steuert (z.B. zur individuellen Steuerung), um einen zweiten Stromfluss zur Entladung der Vielzahl der Kondensatoren 15504 zu steuern. Zur Veranschaulichung: Der Prozessor 15514 kann so konfiguriert werden, dass er die Mehrzahl der Schalter 15506 öffnet, so dass die Kondensatoren 15504 entladen werden können (z.B. kann Strom von den Kondensatoren 15504 zur Laserdiode 15508 fließen). Der erste Stromfluss kann gleich dem zweiten Stromfluss sein oder sich vom zweiten Stromfluss unterscheiden (z.B. kann der erste Stromfluss größer als der zweite Stromfluss sein).
  • Der Prozessor 15514 kann so konfiguriert werden, dass er die Mehrzahl der Schalter 15506 steuert (z.B. zur individuellen Steuerung), um den zweiten Stromfluss zur Ansteuerung der Laserdiode 15508 mit Strom zu steuern, der von mindestens einem Kondensator 15504 entladen wird. Der Prozessor 15514 kann so konfiguriert werden, dass er einen Stromfluss durch die Laserdiode 15508 einstellt (z.B. zum Einstellen einer Laserausgangsleistung), indem er die Schalter 15506 steuert (z.B. Öffnen) (z.B. durch Entladen einer bestimmten Anzahl der Kondensatoren 15504, die der Laserdiode 15508 zugeordnet sind). Zur Veranschaulichung: Der zweite Stromfluss zur Ansteuerung der mindestens einen Laserdiode 15508 kann einen Strom aufweisen, der proportional zur Anzahl der entladenen Kondensatoren 15504 ist (z.B. ein Strom im Bereich von einigen Milliampere bis etwa 100 A, z.B. im Bereich von etwa 10 mA bis etwa 100 A, z.B. von etwa 1 A bis etwa 50 A, z.B. etwa 40 A).
  • Der Prozessor 15514 kann so konfiguriert werden, dass er einen ausgesendeten Lichtpuls steuert. Der Prozessor kann so konfiguriert werden, dass er die Eigenschaften eines ausgesendeten Lichtpulses (z.B. eine Form, eine Dauer und eine Amplitude eines ausgesendeten Lichtpulses) steuert oder auswählt, indem er die Anordnung und/oder die Anzahl der zu entladenden Kondensatoren 15504 (z.B. von entladenen Kondensatoren 15504) steuert. Als Beispiel kann eine Form des ausgesendeten Lichtpulses durch Entladungskondensatoren 15504 gesteuert werden, die an verschiedenen Stellen innerhalb einer Anordnung von Kondensatoren 15504 angeordnet sind. Als weiteres Beispiel kann eine Amplitude des ausgesendeten Lichtpulses durch die Entladung einer höheren (oder niedrigeren) Anzahl von Kondensatoren 15504 erhöht (oder verringert) werden.
  • Der Prozessor 15514 kann so konfiguriert werden, dass er die Vielzahl der Schalter 15506 so steuert, dass zumindest einige Kondensatoren 15504 entladen werden, um die Laserdiode 15508 so anzusteuern, dass sie einen Lichtpuls (z.B. einen Laserpuls) mit einer vordefinierten Pulsform (mit anderen Worten, einen Lichtpuls mit einer bestimmten Wellenform) aussendet. Beispielsweise kann der Prozessor 15514 so konfiguriert werden, dass er Daten in den emittierten Lichtpuls kodiert (z.B. um eine Form auszuwählen, die den zu übertragenden Daten zugeordnet ist). Zur Veranschaulichung: Der ausgesandte Lichtpuls kann moduliert (z.B. elektrisch moduliert) werden, so dass Daten im Lichtpuls kodiert werden können. Der Prozessor 15514 kann so konfiguriert werden, dass er die Entladung der Kondensatoren 15504 steuert, um eine Amplitude des ausgesendeten Lichtpulses zu modulieren, z.B. um ein oder mehrere höckerartige Strukturelemente in den ausgesendeten Lichtpuls einzubeziehen (wie z.B. in Bezug auf 145A bis 149E beschrieben). Der Prozessor 15514 kann Zugriff auf einen Speicher haben, der Daten (z.B. zu übertragende Daten) speichert, die mit einer entsprechenden Pulsform verbunden sind (z.B. ein Codebuch, das Abbildungsdaten mit einer entsprechenden Pulsform speichert).
  • Der Prozessor 15514 kann so konfiguriert werden, dass er die Vielzahl der Schalter 15506 so steuert, dass zumindest einige Kondensatoren 15504 entladen werden, um die Laserdiode 15508 so anzusteuern, dass sie einen Lichtpuls in Abhängigkeit von einem Lichtemissionsschema emittiert. Beispielsweise kann der Prozessor 15514 so konfiguriert werden, dass er die Entladung der Kondensatoren 15504 steuert, um die Laserdiode 15508 so anzusteuern, dass sie eine Folge von Lichtpulsen aussendet, die beispielsweise als Rahmen strukturiert ist (zur Veranschaulichung: die zeitliche Anordnung der ausgesendeten Lichtpulse kann Daten kodieren oder beschreiben), wie z.B. in Bezug auf 131A bis 137 und/oder in Bezug auf 138 bis 144 beschrieben.
  • Das optische Package 15500 kann eine oder mehrere weitere Komponenten aufweisen, die in 155A nicht abgebildet sind. Als Beispiel kann das optische Package 15500 (z.B. das Substrat 15502) einen oder mehrere zusätzliche Schalter aufweisen (z.B., wie z.B. im Schaltungsäquivalent in 155C dargestellt). Ein erster zusätzlicher Schalter (oder eine Vielzahl von ersten zusätzlichen Schaltern) kann gesteuert werden (z.B. geöffnet oder geschlossen), um selektiv einen Weg von der Stromquelle 15512 zu den Kondensatoren 15504 zu schaffen. Ein zweiter zusätzlicher Schalter (oder eine Vielzahl von zweiten zusätzlichen Schaltern) kann so gesteuert werden, dass er selektiv einen Pfad von der Laserdiode 15508 zu einem elektrischen Kontakt herstellt (weiter unten im Detail beschrieben).
  • Wie in 155C dargestellt, könnte ein beispielhafter Betrieb des optischen Package 15500 wie folgt aussehen. Ein erster zusätzlicher Schalter SWB kann geöffnet werden, um die Stromquelle von den Kondensatoren 11504c zu trennen (illustrativ kann die Stromquelle mit dem Knoten B, z.B. dem Anschluss B, in 155B und 155C, gekoppelt werden). Der Knoten A, z.B. der Anschluss A, in 155B und 155C kann auf das Substrat hinweisen (z.B. kann mit dem Substrat gekoppelt sein). Ein zweiter zusätzlicher Schalter SWC kann geöffnet werden, um die Laserdiode 15508d von dem zugehörigen elektrischen Kontakt zu trennen (illustrativ kann der elektrische Kontakt mit dem Knoten C, z.B. dem Anschluss C, in 155B und 155C, gekoppelt sein). Als Beispiel kann der zweite zusätzliche Schalter SWC geöffnet werden, um jede Laserdiode 15508d von dem zugehörigen elektrischen Kontakt zu trennen. Als weiteres Beispiel kann jeder Laserdiode 15508d ein entsprechender zusätzlicher Schalter und/oder ein entsprechender elektrischer Kontakt zugeordnet sein. Die zu ladenden Kondensatoren 15504c können ausgewählt werden, indem ein entsprechendes Steuersignal an die jeweilige Zugangsleitung angelegt wird (z.B. durch Anlegen einer Steuerspannung an den Steueranschluss des zugehörigen Schalters 15506s), die in 155B und 155C illustrativ mit dem Knoten D, z.B. dem Anschluss D, gekoppelt ist. Der erste zusätzliche Schalter SWB kann geschlossen werden, um die ausgewählten Kondensatoren zu laden. Die Zugangsleitungen (z.B. Steuerleitungen) können nach erfolgter Ladung deaktiviert werden. Der erste zusätzliche Schalter SWB kann geöffnet werden. Der zweite zusätzliche Schalter SWC kann geschlossen werden, um einen elektrischen Pfad von der Laserdiode 15508d (z.B. von jeder Laserdiode 15508d) zu dem zugehörigen elektrischen Kontakt herzustellen. Die zu entladenden Kondensatoren 15504c können ausgewählt werden, indem ein entsprechendes Steuersignal an die jeweilige Zugangsleitung gegeben wird. Die ausgewählten Kondensatoren 15504c können über die zugehörige Laserdiode 15508d entladen werden.
  • 156 zeigt eine Draufsicht auf das optische Package/Gehäuse 15500 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das optische Package 15500 kann einen Basisträger, z.B. eine Leiterplatte 15602, aufweisen. Das Substrat 15502 kann auf die Leiterplatte 15602 montiert werden (z.B. in die Leiterplatte 15602 integriert). Der Prozessor 15514 kann auf die Leiterplatte 15602 montiert werden.
  • Die Leiterplatte 15602 kann einen ersten elektrischen Kontakt 15604 aufweisen. Der erste elektrische Kontakt 15604 kann (z.B. elektrisch gekoppelt) mit der gemeinsamen Leitung 15510 des Substrats 15502 verbunden sein (mit anderen Worten, mit der gemeinsamen Leitung 15510 des optischen Package 15500), wie z.B. in 155A gezeigt. Als Beispiel kann der erste elektrische Kontakt 15604 mit der gemeinsamen Leitung 15510 drahtgebondet werden. Die Stromversorgung zum Laden der Kondensatoren 15504 kann über den ersten elektrischen Kontakt 15604 der Leiterplatte 15602 erfolgen. Als Beispiel kann eine Stromquelle auf der Leiterplatte 15602 montiert und mit dem ersten elektrischen Kontakt 15604 elektrisch gekoppelt werden.
  • Die Leiterplatte 15602 kann einen zweiten elektrischen Kontakt 15606 aufweisen. Der zweite Anschluss 15608 der Laserdiode 15508 kann mit dem zweiten elektrischen Kontakt 15606 der Leiterplatte 15602 elektrisch gekoppelt werden. Zum Beispiel kann der zweite elektrische Kontakt 15606 der Leiterplatte 15602 mit dem zweiten Anschluss 15608 der Laserdiode 15508 drahtgebondet sein. Der zweite elektrische Kontakt 15606 kann einen Pfad für den Stromfluss durch die Laserdiode 15508 bilden.
  • Es wird davon ausgegangen, dass die in 156 gezeigte Anordnung als Beispiel dargestellt ist und andere Konfigurationen des optischen Package 15500 vorgesehen werden können. Als Beispiel kann das optische Package 15500 eine Vielzahl von Laserdioden 15508 aufweisen, die z.B. in einem eindimensionalen Array oder in einem zweidimensionalen Array (z.B. in einem Matrix-Array) über dem Basisträger angeordnet sind. Das optische Package 15500 kann eine Vielzahl von ersten elektrischen Kontakten 15604 und/oder eine Vielzahl von zweiten elektrischen Kontakten 15606 aufweisen. Als Beispiel kann das optische Package 15500 einen ersten elektrischen Kontakt 15604 und einen zweiten elektrischen Kontakt 15606 aufweisen, die jeder Laserdiode 15508 zugeordnet sind. Als weiteres Beispiel kann das optische Package 15500 einen ersten elektrischen Kontakt 15604 für jede Zeile in einer Anordnung von Laserdioden 15508 aufweisen.
  • 157A und 157B zeigen eine Seitenansicht bzw. eine Draufsicht auf ein optisches Package/Gehäuse 15700 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. In 157B sind entsprechend der Darstellung in 157A Komponenten des optischen Package 15700 dargestellt, die auf verschiedenen Ebenen angeordnet sein können, z.B. an verschiedenen vertikalen Positionen innerhalb des optischen Package 15700 oder innerhalb des Substrats.
  • Das optische Package 15700 kann als das optische Package 15500 konfiguriert werden, das z.B. in Bezug auf 155A bis 156 beschrieben ist. Zur Veranschaulichung: Das optische Package 15700 kann eine beispielhafte Realisierung des optischen Package 15500 sein.
  • Das optische Package 15700 kann ein Substrat 15702 aufweisen. Das optische Package 15700 kann eine Vielzahl von Speicherkondensatoren 15704 aufweisen, die in dem Substrat 15702 gebildet (z.B. monolithisch integriert) sind (z.B. ein Array von Speicherkondensatoren 15704, z.B. ein zweidimensionales Array). Das optische Package 15700 kann eine Vielzahl von Schaltern 15706 aufweisen, die (z.B. monolithisch integriert) im Substrat 15702 ausgebildet (z.B. monolithisch integriert) sind, z.B. eine Vielzahl von Transistoren (z.B. Feldeffekttransistoren). Jeder Schalter 15706 kann zwischen mindestens einen Kondensator 15704 (z.B. genau einen Kondensator 15704) und eine Laserdiode 15708 geschaltet werden. Das Substrat 15702 kann eine Basis 15702s aufweisen, die z.B. Silizium enthält oder im Wesentlichen aus Silizium besteht. Das Substrat 15702 kann eine Isolierschicht 15702i aufweisen, die z.B. ein Oxid, wie Siliziumoxid, enthält oder im Wesentlichen aus Silizium besteht.
  • Bei der Laserdiode 15708 kann es sich um eine oberflächenemittierende Laserdiode mit vertikalem Resonator handeln (z. B. die Licht von einer Oberseite der Laserdiode 15708 emittiert), die z. B. die Form einer Pyramide hat. Die Laserdiode 15708 kann auf dem Substrat 15702 montiert werden (z.B. auf der Isolierschicht 15702i). Die Laserdiode 15708 kann eine aktive Schicht 15708a aufweisen (zur Veranschaulichung: eine Schicht aus aktivem Material).
  • Die Laserdiode 15708 kann eine oder mehrere optische Strukturen 15708o aufweisen, die über und/oder unter der aktiven Schicht 15708a angeordnet sind. Zum Beispiel kann die Laserdiode 15708 eine erste optische Struktur 15708o aufweisen, die über der aktiven Schicht 15708a angeordnet ist (z.B. in direktem physischen Kontakt mit der aktiven Schicht 15708a). Die erste optische Struktur 15708o kann ein oberer Bragg-Spiegel sein (z.B. eine Folge von abwechselnd dünnen Schichten dielektrischer Materialien mit hohem und niedrigem Brechungsindex). Die Laserdiode 15708 kann eine zweite optische Struktur 15708o aufweisen, die unterhalb der aktiven Schicht 15708a angeordnet ist (z.B. in direktem physikalischen Kontakt mit der aktiven Schicht 15708a). Die zweite optische Struktur 15708o kann ein unterer Bragg-Spiegel sein.
  • Das optische Package 15700 kann eine Leiterplatte 15710 aufweisen. Das Substrat 15702 kann auf die gedruckte Leiterplatte 15710 montiert werden. Die Laserdiode 15708 kann mit der Leiterplatte 15710 elektrisch verbunden sein (z.B. mit einem elektrischen Kontakt der Leiterplatte 15710), z.B. über einen oder mehrere Bonddrähte 15712. Als Beispiel kann die Laserdiode 15708 eine (z.B. zweite) Klemme/Anschluss 15714 aufweisen, die oben auf der Laserdiode 15708 angeordnet ist (z.B. ein oberer Kontakt). Der Anschluss 15714 kann eine ringförmige Mesastruktur sein (z.B. um die Emission des Laserlichts zu ermöglichen), wie z.B. in 157B dargestellt. Der eine oder mehrere Bonddrähte 15712 können an den Anschluss 15714 angeschlossen werden.
  • Die Laserdiode 15708 kann eine weitere (z.B. erste) Klemme/Anschluss 15716 aufweisen, die an einer Unterseite der Laserdiode 15708 angeordnet ist (z.B. ein Bodenkontakt). Der Anschluss 15716 kann elektrisch mit einer Verbinderstruktur 15718 gekoppelt sein (z.B. eine Verbinderstruktur 15718, die im Substrat 15702 ausgebildet ist). Die Verbinderstruktur 15718 kann eine elektrische Kopplung (z.B. einen elektrischen Pfad) mit den Schaltern 15706 und den Kondensatoren 15704 herstellen (z.B. zwischen dem Anschluß 15716 und den Schaltern 15706 und den Kondensatoren 15704). Als Beispiel kann die Verbinderstruktur 15718 eine Vielzahl von elektrischen Kontakten 15718c aufweisen, z.B. eine Gitterstruktur mit einzelnen stiftähnlichen Elementen. Jeder elektrische Kontakt 15718c kann mit einem entsprechenden Kondensator 15704 verbunden werden, z.B. über den entsprechenden Schalter 15706. Veranschaulichend kann die Verbinderstruktur 15718 selektiv mit der Vielzahl von Speicherkondensatoren 15706 (z.B. stiftähnliche Speicherkondensatoren) durch die Vielzahl von Schaltvorrichtungen 15706 gekoppelt werden. Die Verbinderstruktur 15718 kann ein Beispiel für die gemeinsame Leitung 15510 sein.
  • Die Verbinderstruktur 15718 kann zum Laden der Vielzahl von Kondensatoren 15704 verwendet werden. Als Beispiel kann die Verbinderstruktur 15718 elektrisch mit einer Stromquelle gekoppelt werden. Als weiteres Beispiel kann die Verbinderstruktur 15718 elektrisch mit der Leiterplatte 15710 gekoppelt werden, zum Beispiel über einen oder mehrere Bonddrähte 15720. Die Verbinderstruktur 15718 kann elektrisch mit einem elektrischen Anschluss der gedruckten Leiterplatte 15710 gekoppelt werden. Eine Stromquelle kann elektrisch mit dem elektrischen Anschluss der gedruckten Leiterplatte 15710 gekoppelt sein. Zur Veranschaulichung: Die Verbinderstruktur 15718 kann eine kammartige Anordnung mit einer Vielzahl von Verbinderleitungen haben (wie in 157B gezeigt). Jede Verbinderleitung kann optional einen entsprechenden Schalter (z.B. einen Feldeffekttransistor) aufweisen oder mit einem solchen verbunden sein, um eine zusätzliche Kontrolle über die Auswahl der zu ladenden Kondensatoren zu ermöglichen (z.B. zusätzlich zur Auswahl mittels der Zugangsleitungen 15722).
  • Das Substrat 15702 kann eine Vielzahl von Zugangsleitungen 15722 aufweisen (zur Veranschaulichung: eine Vielzahl von Wortleitungen). Jede Zugangsleitung kann elektrisch mit einem oder mehreren Schaltern 15706 gekoppelt sein (z.B. mit entsprechenden Steueranschlüssen, z.B. Gate-Anschlüssen, von einem oder mehreren Schaltern 15706). Die Zugangsleitungen 15722 können zur Steuerung (z.B. Öffnen oder Schließen) des einen oder der mehreren damit gekoppelten Schalter 15706 verwendet werden.
  • Das optische Package 15700 kann einen Prozessor aufweisen, der wie der oben beschriebene Prozessor 15514 konfiguriert ist, zum Beispiel in Bezug auf 155A bis 156. Der Prozessor kann so konfiguriert werden, dass er die Schalter 15706 steuert, indem er ein Steuersignal (z.B. eine Vielzahl von Steuersignalen) über die Vielzahl der Zugriffsleitungen 15522 liefert.
  • Das optische Package 15700 (z.B. das Substrat 15702) kann eine oder mehrere Durchkontaktierungen 15724 (z.B. Silizium-Durchkontaktierungen) aufweisen, als Beispiel für eine Wärmeableitungskomponente. Als Beispiel kann sich ein Durchgangsvias 15724 in vertikaler Richtung durch das Substrat erstrecken (z.B. durch die Basis 15702s und durch die Isolierschicht 15702i). Das Durchgangsloch 15724 kann mit einem wärmeableitenden oder wärmeleitenden Material, wie z.B. einem Metall, gefüllt sein (z.B. in das Durchgangsloch 15724 eingebracht oder eingewachsen). Die Durchkontaktierung 15724 kann außerhalb des Bereichs angeordnet werden, in dem die Vielzahl von Kondensatoren 15704 und/oder die Vielzahl von Schaltern 15706 in dem Substrat 15702 gebildet werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ad ist ein optisches Gehäuse/Package. Das optische Package kann ein Substrat aufweisen. Das Substrat kann ein Array aus einer Vielzahl von Kondensatoren aufweisen, die in dem Substrat ausgebildet sind. Das Substrat kann eine Vielzahl von Schaltern aufweisen, die in dem Substrat ausgebildet sind. Jeder Schalter kann zwischen mindestens einer Laserdiode und mindestens einem Kondensator aus einer Vielzahl von Kondensatoren angeschlossen sein. Das optische Package kann die mindestens eine auf dem Substrat montierte Laserdiode aufweisen. Das optische Package kann einen Prozessor aufweisen, der so konfiguriert ist, dass er die Mehrzahl von Schaltern steuert, um einen ersten Stromfluss zum Laden der Mehrzahl von Kondensatoren zu steuern. Der Prozessor kann so konfiguriert sein, dass er die Mehrzahl von Schaltern steuert, um einen zweiten Stromfluss zu steuern, um die mindestens eine Laserdiode mit Strom zu treiben, der von mindestens einem Kondensator der Mehrzahl von Kondensatoren entladen wird.
    • In Beispiel 2ad kann der Gegenstand von Beispiel 1ad optional umfassen, dass die Mehrzahl der Kondensatoren und die Mehrzahl der Schalter monolithisch in das Substrat integriert sind.
    • In Beispiel 3ad kann der Gegenstand eines der Beispiele 1ad oder 2ad optional umfassen, dass jeder Schalter der Mehrzahl von Schaltern genau einem entsprechenden Kondensator der Mehrzahl von Kondensatoren zugeordnet ist.
    • In Beispiel 4ad kann der Gegenstand von Beispiel 3ad optional umfassen, dass der Prozessor so konfiguriert ist, dass er die Mehrzahl von Schaltern einzeln steuert, um den ersten Stromfluss zum Laden der Mehrzahl von Kondensatoren zu steuern. Der Prozessor kann so konfiguriert werden, dass er die Mehrzahl von Schaltern individuell steuert, um den zweiten Stromfluss zur Ansteuerung der mindestens einen Laserdiode mit Strom zu steuern, der von mindestens einem Kondensator der Mehrzahl von Kondensatoren entladen wird.
    • In Beispiel 5ad kann der Gegenstand jedes der Beispiele 1ad bis 4ad optional umfassen, dass jeder Schalter der Vielzahl von Schaltern einen Transistor aufweist.
    • In Beispiel 6ad kann der Gegenstand von Beispiel 5ad optional umfassen, dass mindestens ein Transistor aus der Vielzahl der Transistoren ein Feldeffekttransistor ist.
    • In Beispiel 7ad kann der Gegenstand von Beispiel 6ad optional umfassen, dass mindestens ein Feldeffekttransistor aus der Vielzahl der Transistoren ein Metalloxid-Halbleiter-Feldeffekttransistor ist.
    • In Beispiel 8ad kann der Gegenstand von Beispiel 7ad optional umfassen, dass mindestens ein Metalloxid-Halbleiter-Feldeffekttransistor aus der Vielzahl der Transistoren ein komplementärer Metalloxid-Halbleiter-Feldeffekttransistor ist.
    • In Beispiel 9ad kann der Gegenstand eines der Beispiele 1ad bis 8ad optional umfassen, dass die Anordnung der Kondensatoren eine Anzahl von Kondensatoren im Bereich von etwa 400000 Kondensatoren bis etwa 600000 Kondensatoren umfasst, die mit der mindestens einen Laserdiode verbunden sind.
    • In Beispiel 10ad kann der Gegenstand eines der Beispiele 1ad bis 9ad optional umfassen, dass mindestens ein Kondensator der Anordnung von Kondensatoren eine Kapazität im Bereich von etwa 50 fF bis etwa 200 fF hat.
    • In Beispiel 11 ad kann der Gegenstand eines der Beispiele 1 ad bis 10ad optional umfassen, dass der Stromfluss zur Ansteuerung der mindestens einen Laserdiode einen Strom im Bereich von etwa 10 mA bis etwa 100 A umfasst.
    • In Beispiel 12ad kann der Gegenstand eines der Beispiele 1ad bis 11 ad optional umfassen, dass ein elektrischer Pfad zwischen einem Kondensator und der mindestens einen Laserdiode eine Induktivität von weniger als 100 pH aufweist.
    • In Beispiel 13ad kann der Gegenstand eines der Beispiele 1ad bis 12ad optional umfassen, dass mindestens ein Kondensator der Kondensatoranordnung ein Tiefer-Graben-Kondensator ist.
    • In Beispiel 14ad kann der Gegenstand eines der Beispiele 1ad bis 13ad optional umfassen, dass mindestens ein Kondensator der Kondensatoranordnung ein Stapelkondensator ist.
    • In Beispiel 15ad kann der Gegenstand eines der Beispiele 1ad bis 14ad optional umfassen, dass die Kondensatoren der Kondensatoranordnung in Reihen und Spalten angeordnet sind.
    • In Beispiel 16ad kann der Gegenstand eines der Beispiele 1ad bis 15ad optional eine elektrisch leitende gemeinsame Leitung umfassen, die zumindest einige Kondensatoren der Vielzahl von Kondensatoren verbindet.
    • In Beispiel 17ad kann der Gegenstand von Beispiel 16ad optional eine Stromquelle umfassen, die elektrisch mit der gemeinsamen Leitung verbunden und so konfiguriert ist, dass sie die Leistung zum Laden der Mehrzahl von Kondensatoren liefert.
    • In Beispiel 18ad kann der Gegenstand eines der Beispiele 1ad bis 17ad optional eine Leiterplatte aufweisen. Das Substrat kann auf die Leiterplatte montiert werden.
    • In Beispiel 19ad kann der Gegenstand eines der Beispiele 16ad oder 17ad optional eine Leiterplatte aufweisen. Das Substrat kann auf die Leiterplatte montiert sein. Die Leiterplatte kann einen elektrischen Kontakt aufweisen, der elektrisch mit der gemeinsamen Leitung des Substrats verbunden ist.
    • In Beispiel 20ad kann der Gegenstand von Beispiel 19ad optional umfassen, dass der elektrische Kontakt der Leiterplatte mit der gemeinsamen Leitung des Substrats drahtgebondet ist.
    • In Beispiel 21ad kann der Gegenstand eines der Beispiele 16ad bis 20ad optional eine Leiterplatte aufweisen. Das Substrat kann auf die Leiterplatte montiert werden. Ein erster Anschluss der mindestens einen Laserdiode kann elektrisch mit der gemeinsamen Leitung gekoppelt werden. Ein zweiter Anschluss der mindestens einen Laserdiode kann elektrisch mit einem elektrischen Kontakt der Leiterplatte gekoppelt sein.
    • In Beispiel 22ad kann der Gegenstand von Beispiel 21ad optional umfassen, dass der elektrische Kontakt der Leiterplatte mit dem zweiten Anschluss der mindestens einen Laserdiode drahtgebondet wird.
    • In Beispiel 23ad kann der Gegenstand eines der Beispiele 1ad bis 22ad optional das Substrat umfassen, das Silizium enthält oder im Wesentlichen aus Silizium besteht.
    • In Beispiel 24ad kann der Gegenstand eines der Beispiele 1ad bis 23ad optional umfassen, dass die mindestens eine Laserdiode seitlich mindestens einen Teil der Vielzahl von Kondensatoren abdeckt.
    • In Beispiel 25ad kann der Gegenstand eines der Beispiele 1ad bis 24ad optional umfassen, dass die mindestens eine Laserdiode eine kantenemittierende Laserdiode aufweist.
    • In Beispiel 26ad kann der Gegenstand eines der Beispiele 1ad bis 24ad optional umfassen, dass die mindestens eine Laserdiode eine oberflächenemittierende Laserdiode mit vertikalem Resonator aufweist.
    • In Beispiel 27ad kann der Gegenstand eines der Beispiele 1ad bis 26ad optional umfassen, dass der Prozessor monolithisch in das Substrat integriert ist.
    • In Beispiel 28ad kann der Gegenstand eines der Beispiele 19ad bis 26ad optional umfassen, dass der Prozessor auf der Leiterplatte montiert ist.
    • In Beispiel 29ad kann der Gegenstand eines der Beispiele 19ad bis 28ad optional umfassen, dass der Prozessor so konfiguriert ist, dass er die Mehrzahl von Schaltern steuert, um mindestens einige der Kondensatoren der Mehrzahl von Kondensatoren zu entladen, um die mindestens eine Laserdiode so anzusteuern, dass sie einen Laserpuls mit einer vordefinierten Pulsform emittiert.
    • In Beispiel 30ad kann der Gegenstand von Beispiel 29ad optional umfassen, dass der Laserpuls eine Pulsdauer von etwa 10 ns hat.
    • In Beispiel 31ad kann der Gegenstand eines der Beispiele 29ad oder 30ad optional umfassen, dass der Prozessor so konfiguriert ist, dass er die Mehrzahl von Schaltern steuert, um mindestens einige der Kondensatoren der Mehrzahl von Kondensatoren zu entladen, um die mindestens eine Laserdiode so anzusteuern, dass sie abhängig von einem Lichtemissionsschema einen Laserpuls emittiert.
    • In Beispiel 32ad kann der Gegenstand eines der Beispiele 29ad bis 31ad optional umfassen, dass der Prozessor so konfiguriert ist, dass er die Mehrzahl von Schaltern steuert, um mindestens einige der Kondensatoren der Mehrzahl von Kondensatoren zu entladen, um die mindestens eine Laserdiode so anzusteuern, dass sie einen Laserpuls mit einer vordefinierten Pulsform emittiert.
    • Beispiel 33ad ist ein LIDAR-Sensorsystem mit einem optischen Package aus einem der Beispiele 1 ad bis 32ad.
  • Ein scannendes LIDAR-System (z.B. ein eindimensionales scannendes LIDAR-System) kann darin eingeschränkt sein, wie klein der vom System gelieferte Beleuchtungswinkel sein darf. Zur Veranschaulichung kann es einen minimal erreichbaren Wert für den Winkel geben, unter dem das LIDAR-Licht vom LIDAR-System emittiert werden darf. Dieser Mindestwert kann z.B. im Bereich von etwa 10° bis etwa 20° liegen. Die Begrenzung kann mit den Komponenten auf der Emitterseite des LIDAR-Systems zusammenhängen, z.B. mit der Größe der Komponenten, die für die Aussendung des abtastenden LIDAR-Lichts vorgesehen sind (z.B. die Größe einer Lichtquelle und/oder die Größe eines Strahlführungselements, z.B. eines Spiegels eines mikroelektromechanischen Systems (MEMS)). Kleinere Beleuchtungswinkel können z.B. durch die Verwendung kleinerer Lichtquellen oder durch Blockieren eines Teils des von der Lichtquelle emittierten Lichts (z.B. durch eine Blende) erreicht werden, was jedoch zu Verlusten im emittierten Licht führen kann.
  • Verschiedene Ausführungsformen können sich auf die Konfiguration oder Anpassung einer Optikanordnung für ein LIDAR-System (z.B. für das LIDAR-Sensorsystem 10) beziehen, um einen kleinen Beleuchtungswinkel (z.B. kleiner als 10°, z.B. kleiner als 5° oder kleiner als 3°) zu erreichen. Die hier beschriebene Optikanordnung kann Licht unter einem kleinen Winkel aussenden, ohne einen Teil des von einer Lichtquelle der Optikanordnung ausgesandten Lichts zu schneiden oder zu blockieren. Der kleine Beleuchtungswinkel kann einen größeren (z.B. längeren) Erfassungsbereich für ein LIDAR-System einschließlich der hier beschriebenen Optikanordnung bieten.
  • 170 zeigt eine Seitenansicht einer Optikanordnung 17000 für ein (z.B. scannendes) LIDAR-System in einer schematischen Darstellung nach verschiedenen Ausführungsformen. Die Optikanordnung 17000 kann (z.B. integriert oder eingebettet) in das LIDAR-Sensorsystem 10 (z.B. in ein scannendes LIDAR-Sensorsystem 10) aufgenommen werden.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 eine Fokussieroptik aufweisen (z.B. zum Lenken oder Kollimieren oder Fokussieren des von einer Lichtquelle emittierten Lichts auf einen Aktuator, wie weiter unten näher beschrieben). Die Optikanordnung 17000 kann eine Kollimatorlinse 17002 aufweisen, z.B. eine Zylinderlinse. Die Kollimatorlinse 17002 kann eine Vielzahl von Eingangslichtstrahlen 17004i, die unter einer Vielzahl von Eingangswinkeln eintreten, auf eine Vielzahl von Ausgangslichtstrahlen 17004o unter einer Vielzahl von Ausgangswinkeln abbilden (mit anderen Worten: konvergieren). Illustrativ kann die Kollimatorlinse 17002 eine Vielzahl von Eingangslichtstrahlen 17004i empfangen, die jeweils unter einem entsprechenden Eingangswinkel eintreffen (z.B. unter einem entsprechenden Einfallswinkel, den der Eingangslichtstrahl 17004i mit einer Senkrechten auf die Oberfläche der Kollimatorlinse 17002 bildet). Die Kollimatorlinse 17002 kann so konfiguriert werden, dass jeder empfangene Eingangslichtstrahl 17004i von der Kollimatorlinse 17002 als Ausgangslichtstrahl 17004o ausgegeben wird, der mit der Senkrechten auf die Oberfläche der Kollimatorlinse 17002 einen entsprechenden Ausgangswinkel bildet.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 einen Aktuator 17006 aufweisen. Der Aktuator 17006 kann hinter der Kollimatorlinse 17002 angeordnet sein (z.B. in Bezug auf die Richtung, in der sich die Lichtstrahlen ausbreiten, z.B. in Bezug auf eine erste Richtung 17052, z.B. entlang der eine optische Achse 17008 der Optikanordnung 17000 ausgerichtet werden kann). Der Aktuator 17006 kann so konfiguriert werden, dass er die Vielzahl der Ausgangslichtstrahlen 17004o von der Kollimatorlinse 17002 in ein Emissionsfeld 17010 umlenkt. Ein umgelenkter Lichtstrahl 17004r kann mit einem ersten Ausgangswinkel in Bezug auf die optische Achse 17008 der Optikanordnung 17000 umgelenkt werden (nur als Beispiel, ein erster Ausgangswinkel in Bezug auf eine Schwingungsachse des Aktuators 17006, wie weiter unten im Detail beschrieben). Zusätzlich kann der Aktuator 17006 so konfiguriert oder gesteuert werden, dass er das Emissionsfeld 17010 mit den umgelenkten Lichtstrahlen 17004r entlang einer Abtastrichtung abtastet, z.B. ausgerichtet entlang einer zweiten Richtung 17054, senkrecht zur ersten Richtung 17052, z.B. einer horizontalen Richtung.
  • Der Aktuator 17006 kann eine seitliche Ausdehnung, z.B. eine Höhe M (z.B. ein Durchmesser), entlang der Richtung der Achse des Aktuators 17006 haben (z.B. entlang der vertikalen Richtung, z.B. kann die Höhe M die Höhe eines MEMS-Spiegels sein). Als Beispiel kann die Achse des Aktuators eine MEMS-Achse sein, z.B. eine Achse, um die ein MEMS-Spiegel oszilliert, wie weiter unten näher beschrieben. Der Aktuator 17006 kann eine zweite seitliche Ausdehnung haben, z.B. eine Breite M' (z.B. einen Durchmesser), entlang einer Richtung senkrecht zur Achse des Aktuators 17006 (z.B. entlang der horizontalen Richtung), wie in 171B dargestellt.
  • Das Emissionsfeld 17010 kann auch als Sichtfeld der Optikanordnung 17000 bezeichnet werden. Zur Veranschaulichung: Das Emissionsfeld 17010 kann ein Sichtfeld sein, in das Licht von der Optikanordnung 17000 emittiert werden kann. Das Emissionsfeld 17010 kann ein Sichtfeld des LIDAR-Sensorsystems 10 sein oder im Wesentlichen einem Sichtfeld des LIDAR-Sensorsystems 10 entsprechen, wenn das LIDAR-Sensorsystem 10 die Optikanordnung 17000 enthält.
  • In 170 (sowie in 171A und 171B und in 172A bis 172C, die weiter unten näher beschrieben werden) ist aus Gründen der Lesbarkeit der Darstellung der Aktuator 17006 als transmittierend oder umlenkend (z.B. brechend oder beugend) der Lichtstrahlen von der Lichtquelle 42 weg (und von der Kollimatorlinse 17002 weg) dargestellt, z.B. ist der Aktuator 17006 zwischen der Lichtquelle 42 und dem Emissionsfeld 17010 angeordnet dargestellt. Es wird davon ausgegangen, dass der Aktuator 17006 zusätzlich oder alternativ so konfiguriert werden kann, dass er die Lichtstrahlen auf ein Emissionsfeld reflektiert oder umlenkt, das sich im Vergleich zum Emissionsfeld 17010 auf einer gegenüberliegenden Seite befindet, z.B. ein Emissionsfeld, das sich illustrativ auf der gleichen Seite wie die Lichtquelle 42 befindet. Es kann auch möglich sein, einen Aktuator (oder mehrere Aktuatoren) zu haben, der die Lichtstrahlen teilweise auf das Emissionsfeld 17010 und teilweise auf ein Emissionsfeld umlenkt, das sich im Vergleich zum Emissionsfeld 17010 an einer entgegengesetzten Stelle befindet.
  • In verschiedenen Ausführungsformen kann der Aktuator 17006 ein Winkel-Lenkelement sein (auch als Strahl-Lenkelement bezeichnet). Das Winkel-Lenkelement kann konfiguriert oder gesteuert werden, um den Winkel der umgelenkten Lichtstrahlen 17004r zu steuern (z.B. zu variieren). Als Beispiel kann der Aktuator 17006 ein Feinwinkelsteuerelement sein, illustrativ ein Winkelsteuerelement, das eine feine Auflösung liefert (z.B. Auflösung bei der Bereitstellung eines Ausgangswinkels für einen umgelenkten Lichtstrahl 17004r, z.B. eine Auflösung von etwa 0,5° oder etwa 1°).
  • Zum Beispiel kann der Aktuator 17006 ein mikroelektromechanisches System sein oder ein solches aufweisen, z.B. kann der Aktuator 17006 ein MEMS- Aktuator sein. Als Beispiel kann das mikroelektromechanische System ein optisches Phased Array (phasengesteuertes Feld) sein oder ein solches aufweisen. Als weiteres Beispiel kann das mikroelektromechanische System eine Metamaterialoberfläche sein, z.B. kann das mikroelektromechanische System ein Metamaterial aufweisen. Als ein weiteres Beispiel kann das mikroelektromechanische System ein Spiegel sein (auch als MEMS-Spiegel bezeichnet). Der MEMS-Spiegel kann eine Oszillationsachse haben, d.h. eine Achse, um die der MEMS-Spiegel oszilliert, z.B. eine Achse, die im Wesentlichen senkrecht zur optischen Achse 17008 der Optikanordnung 17000 verläuft (z.B. eine Oszillationsachse, die im Wesentlichen entlang der dritten Richtung 17056 verläuft, z.B. eine Achse, die nicht genau senkrecht zur optischen Achse verläuft, um eine Rückreflexion der vom MEMS-Spiegel reflektierten Strahlen in Richtung der Lichtquelle 42 zu verhindern). Der MEMS-Spiegel kann so konfiguriert werden, dass er um eine Achse (1 D-MEMS) oder um zwei Achsen (2D-MEMS) gekippt werden kann.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 eine Lichtquelle (z.B. eine Halbleiterlichtquelle) aufweisen, z.B. die Lichtquelle 42. Die Lichtquelle 42 kann eine Vielzahl von Lichtstrahlen auf die Kollimatorlinse 17002 als die Vielzahl der Eingangslichtstrahlen 17004i aussenden. Zur Veranschaulichung: Die Lichtquelle 42 kann so konfiguriert sein, dass sie Licht ausstrahlt, z.B. im sichtbaren Wellenlängenbereich oder im infraroten Wellenlängenbereich (z.B. im Bereich von etwa 700 nm bis etwa 2000 nm, z.B. im Bereich von etwa 860 nm bis etwa 1600 nm, z.B. bei etwa 905 nm). Die Lichtquelle 42 kann so konfiguriert oder angeordnet sein, dass sie Licht in Richtung der Kollimatorlinse 17002 emittiert (zur Veranschaulichung: die Kollimatorlinse 17002 kann hinter der Lichtquelle 42 angeordnet sein, z.B. entlang der ersten Richtung 17052). Falls es sich bei der Lichtquelle 42 um eine Infrarot-Lichtquelle handelt, können die optischen Komponenten (z.B. die Kollimatorlinse 17002 und andere unten näher beschriebene Komponenten) der Optikanordnung 17000 für den Betrieb im infraroten Wellenlängenbereich (z.B. im Bereich von etwa 700 nm bis etwa 2000 nm) konfiguriert werden.
  • In verschiedenen Ausführungsformen kann die Lichtquelle 42 so konfiguriert werden, dass sie Laserlicht (z.B. infrarotes Laserlicht) emittiert. Die Lichtquelle 42 kann eine oder mehrere Laserlichtquellen aufweisen (z.B. konfiguriert als die Laserquelle 5902, die z.B. in Bezug auf 59 beschrieben wird). Die eine oder die mehreren Laserlichtquellen können beispielsweise mindestens eine Laserdiode aufweisen, z.B. eine oder mehrere Laserdioden (z.B. eine oder mehrere kantenemittierende Laserdioden und/oder eine oder mehrere oberflächenemittierende Laserdioden mit vertikalem Resonator). Als Beispiel kann die Lichtquelle 42 ein Array (z.B. ein eindimensionales Array oder ein zweidimensionales Array) von Laserdioden sein oder ein solches aufweisen, z.B. kann die Lichtquelle 42 ein Laserbarren/Laserstab sein oder einen solchen aufweisen.
  • Die Lichtquelle 42 kann eine seitliche Abmessung oder Ausdehnung, z.B. eine Länge L, haben (z.B. eine Abmessung entlang einer Richtung senkrecht zur optischen Achse 17008 der Optikanordnung 17000, z.B. entlang einer dritten Richtung 17056 parallel zu einer Betätigungsachse des Aktuators 17006, z.B. entlang einer vertikalen Richtung senkrecht zur ersten Richtung 17052 und zur zweiten Richtung 17054). Illustrativ kann die seitliche Ausdehnung eine Länge der Lichtquelle 42 sein, z.B. einer emittierenden Fläche der Lichtquelle 42. Als Beispiel kann die Lichtquelle 42 eine Vielzahl von Laserquellen aufweisen, die entlang der Länge L angeordnet sind (z.B. kann die Laserquelle 42 ein Laserstab der Länge L sein).
  • In verschiedenen Ausführungsformen kann die Brennweite (auch Brennweite genannt) der Fokussieroptik, z.B. die Brennweite der Kollimatorlinse 17002 (z.B. als Brennweite f1 bezeichnet), von der Größe des Aktuators 17006 abhängig sein (z.B. der Größe eines MEMS-Spiegels) und vom Strahlungswinkel der Lichtquelle 42 (bezeichnet mit dem Symbol α, auch als Divergenzwinkel bezeichnet), z.B. dem Winkel, unter dem ein Lichtstrahl von der Lichtquelle 42 emittiert wird. Der Winkel α kann der Divergenzwinkel entlang der langsamen Achse der Lichtquelle 42 sein, z.B. der Strahlungswinkel entlang der langsamen Achse eines Laserbarrens), wie weiter unten näher beschrieben. Illustrativ kann die langsame Achse der Lichtquelle 42 entlang der dritten Richtung 17056 ausgerichtet sein.
  • Die Brennweite fi der Kollimatorlinse 17002 kann in Übereinstimmung mit den anderen Komponenten der Optikanordnung 17000 gewählt werden. Die Brennweite fi der Kollimatorlinse 17002 kann die Entfernung von der Kollimatorlinse 17002 beschreiben (z.B. entsprechen), auf die das Licht fokussiert wird, z.B. fokussiert entlang einer Achse des Aktuators 17006 (z.B. entlang einer MEMS-Achse, z.B. parallel zur langsamen Achse der Lichtquelle 42). Die Kollimatorlinse 17002 kann hinter der Lichtquelle 42 in einem ersten Abstand I entlang der ersten Richtung 17052 angeordnet werden. Der Aktuator 17006 kann stromabwärts der Kollimatorlinse 17002 in einem zweiten Abstand m entlang der ersten Richtung 17052 angeordnet werden. Die Brennweite fi der Kollimatorlinse 17002 kann gleich der ersten Entfernung I und der zweiten Entfernung m sein, wie unten beschrieben.
  • Die Beschreibung und die nachfolgenden Berechnungen können für die durch die Lichtrichtung (z.B. die erste Richtung 17052, entlang der eine optische Achse 17008 der optischen Anordnung 17000 ausgerichtet werden kann) und die Aktuatorachse (z.B. die Achse, um die der Aktuator 17006 oszilliert, z.B. ausgerichtet entlang der dritten Richtung 17056) definierte Ebene geliefert werden.
  • Die folgenden Beziehungen können bestimmt werden, f 1 = l = m
    Figure DE112020001131T5_0006
    f 1 = m = L/ ( 2 * tan ( β / 2 ) )
    Figure DE112020001131T5_0007
    M = 2 * l * tan ( α / 2 ) ,
    Figure DE112020001131T5_0008
    f 1 = l = M/ ( 2 * tan ( α / 2 ) )
    Figure DE112020001131T5_0009
    wobei der Winkel beta β der Winkel sein oder dem Winkel entsprechen kann, mit dem das Licht vom Aktor 17006 austritt (z.B. der Ausgangsstrahlwinkel hinter dem Aktor 17006, z.B. hinter dem MEMS-Spiegel). Der Winkel β kann der Winkel in Bezug auf die optische Achse 17008 (in der oben definierten Ebene) sein oder dem Winkel entsprechen, unter dem ein umgelenkter Lichtstrahl 17004r durch den Aktuator 17006 ausgegeben wird. In der in 170 dargestellten Konfiguration kann der Winkel beta β der Beleuchtungswinkel sein, der von der Optikanordnung 17000 bereitgestellt wird (z.B. der Beleuchtungswinkel eines LIDAR-Systems einschließlich der Optikanordnung 17000 auf der Emitterseite).
  • Als Zahlenbeispiel kann die seitliche Ausdehnung der Lichtquelle 42 (z.B. die Länge L, z.B. die Länge eines Laserbarrens) im Bereich von ca. 1 mm bis ca. 10 mm liegen. Als weiteres numerisches Beispiel kann der Strahlungswinkel α im Bereich von etwa 5° bis etwa 45° liegen. Als weiteres numerisches Beispiel kann die seitliche Ausdehnung des Aktors 17006 (z.B. die Höhe M) im Bereich von etwa 1 mm bis etwa 3 mm liegen. Nach solchen beispielhaften Zahlenwerten kann die Brennweite fi der Kollimatorlinse 17002 im Bereich von etwa 3 mm bis etwa 10 mm liegen.
  • Wie durch die obigen Gleichungen (12ak) bis (15ak) beschrieben, kann die Brennweite fi der Kollimatorlinse 17002 durch oder in Abhängigkeit vom Beleuchtungswinkel β und der Abmessung der Lichtquelle 42, z.B. der Länge L, definiert werden. Die Abmessung des Aktuators 17006, z.B. die Höhe M (illustrativ, die erforderliche Höhe, um das vom Laserbarren 17002 emittierte Licht zu sammeln), kann durch den Strahlungswinkel α der Lichtquelle 42 definiert werden. Falls der Aktor 17006 kleiner (z.B. kürzer) als die erforderliche Höhe ist, kann ein Teil des (z.B. Laser-)Lichts blockiert werden, z.B. durch eine Blende. Zur Veranschaulichung: Ein Teil des von der Lichtquelle 42 unter größeren Winkeln ausgestrahlten Lichts kann blockiert werden, da dieser Teil nicht auf den Aktor 17006 auftreffen würde. Im Prinzip sollte bei der in 170 gezeigten Optikanordnung 17000 der Etendue der Lichtquelle 42 in der oben beschriebenen Ebene (z.B. L*α) gleich (oder kleiner) dem Etendue des Aktuators 17006 (z.B. M*β) sein. Der Etendual-Grenzwert kann die Bereitstellung kleiner Beleuchtungswinkel (z.B. kleiner als 10°) verhindern.
  • Wie oben beschrieben, kann der Aktuator 17006 eine seitliche Ausdehnung (z.B. die Höhe M, z.B. ein Durchmesser) im Millimeterbereich haben. Die Abmessung des Aktuators 17006 sollte z.B. im Falle einer schnellen Betätigung des Aktuators 17006 (z.B. mit einer Abtastrate von mehr als 1 kHz) im Millimeterbereich liegen, so dass die einwirkenden Kräfte gering gehalten werden können. Angesichts dieser Einschränkung und unter Berücksichtigung der obigen Gleichungen (12ak) bis (15ak) kann also ein kleiner Beleuchtungswinkel β (z.B. im Bereich von etwa 1° bis etwa 5°, z.B. kleiner als 3°, z.B. ein Winkel, der vorzusehen ist, wenn die optische Anordnung ein Flüssigkristall-Polarisationsgitter (LCPG) enthält), eine Länge L einer Lichtquelle größer als 4 mm und ein Divergenzwinkel α von etwa 15° nicht ohne inhärente Verluste realisiert werden. Illustrativ kann ein solch kleiner Beleuchtungswinkel nicht ohne hohe Verluste im emittierten Licht (z.B. hohe Leistungsverluste) realisiert werden, z.B. durch Blockieren eines Teils des Lichts. Alternativ können kleine Lichtquellen mit kleinen Abstrahlwinkeln eingesetzt werden (z.B. kleine oder kurze Laserbarren), die jedoch Licht mit geringer Leistung oder Verluste auf der Emitterseite liefern können. Darüber hinaus kann ein Laserbarren für den Betrieb mit einem LCPG zu groß sein, z.B. kann der mit einem Laserbarren erreichbare Strahlungswinkel für den Betrieb mit einem LCPG zu groß sein. Verschiedene hier beschriebene Ausführungsformen können eine Überwindung einer solchen Begrenzung des Beleuchtungswinkels ermöglichen und eine Optikanordnung bieten, die in der Lage ist, einen kleinen Beleuchtungswinkel zu liefern, wie weiter unten näher beschrieben.
  • 171A zeigt eine Seitenansicht der Optikanordnung 17000 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. 171B zeigt eine Draufsicht auf die Optikanordnung 17000 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Die in 171A und 171B dargestellte Optikanordnung 17000 kann gegenüber der in 170 dargestellten Konfiguration eine zusätzliche optische Komponente (und optional weitere zusätzliche Komponenten) aufweisen, z.B. um einen kleineren Beleuchtungswinkel zu erreichen, wie weiter unten näher beschrieben. Die Beschreibung der bereits in Bezug auf 170 beschriebenen Komponenten entfällt.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 eine Korrekturlinse 17102 aufweisen. Die Korrekturlinse 17102 kann hinter dem Stellglied 17006 angeordnet sein (z.B. entlang der ersten Richtung 17052, illustrativ in Bezug auf die Richtung, in die die Mehrzahl der umgelenkten Lichtstrahlen 17004r läuft, z.B. entlang einer Richtung, entlang der die optische Achse 17008 der optischen Anordnung 17000 ausgerichtet werden kann). Die Korrekturlinse 17102 kann so konfiguriert werden, dass der erste Ausgangswinkel eines (z.B. umgelenkten) Lichtstrahls 17004r stromabwärts des Aktuators 17006, der in die Korrekturlinse 17102 eintritt, reduziert wird, um den Lichtstrahl 17004r in das Emissionsfeld 170010 mit einem zweiten Ausgangswinkel in Bezug auf die optische Achse 17008 der Optikanordnung 17000 zu lenken. Illustrativ kann die Korrekturlinse 17102 die Lichtstrahlen empfangen, die nach dem Aktuator 17006 in Richtung des Emissionsfeldes 17010 ausgegeben werden (z.B. jeweils unter einem entsprechenden Einfallswinkel). Die Korrekturlinse 17102 kann so konfiguriert werden, dass jeder empfangene Lichtstrahl 17004r von der Korrekturlinse 17102 als Ausgangslichtstrahl ausgegeben wird, der mit der Senkrechten auf die Oberfläche der Korrekturlinse 17102 einen entsprechenden (z.B. zweiten) Ausgangswinkel bildet (illustrativ kann die Senkrechte auf die Oberfläche entlang der ersten Richtung 17052 ausgerichtet sein). Der (zweite) Ausgangswinkel von der Korrekturlinse 17102 kann der (z.B. angepasste oder reduzierte) Beleuchtungswinkel der Optikanordnung 17000 (z.B. des LIDAR-Sensorsystems 10) sein. Der (zweite) Ausgangswinkel der Korrekturlinse 17102 kann kleiner sein als der (erste) Ausgangswinkel des Aktors 17006.
  • Die Korrekturlinse 17102 (z.B. ihre optischen Eigenschaften, wie die Brennweite f2) kann in verschiedenen Ausführungsformen entsprechend einem zu erzielenden Ausgangswinkel (z.B. entsprechend einem zu erzielenden Beleuchtungswinkel) konfiguriert werden, wie weiter unten näher beschrieben wird. Es wird davon ausgegangen, dass die Korrekturlinse 17102 in 171 A, 171B und 171C nur als Beispiel für eine Einzellinse dargestellt ist. Die Korrekturlinse 17102 kann eine Vielzahl von optischen Elementen sein oder aufweisen, z.B. kann die Korrekturlinse 17102 ein optisches System sein, das eine Vielzahl von optischen Elementen (z.B. eine Vielzahl von Linsen) enthält oder aus einer Vielzahl von optischen Elementen besteht.
  • Die Korrekturlinse 17102 kann eine Brennweite haben, die z.B. als Brennweite f2 bezeichnet wird. Die Korrekturlinse 17102 kann hinter dem Stellglied 17006 in einem dritten Abstand a entlang der ersten Richtung 17052 angeordnet werden. Ein Abstand b (z.B. bezeichnet mit dem Symbol b) kann ein vierter Abstand zwischen der Korrekturlinse 17102 und dem Punkt im Emissionsfeld 17010 sein, auf den ein Lichtstrahl gerichtet ist, z.B. auf den der Lichtstrahl fokussiert wird. Die Brennweite f2 der Korrekturlinse 17102 kann gleich dem dritten Abstand a und dem vierten Abstand b sein.
  • Die folgenden zusätzlichen Beziehungen zwischen den Eigenschaften der Komponenten der Optikanordnung 17000 können bestimmt werden (z.B. zur Anordnung oder Konfiguration der Komponenten, z.B. zur Konfiguration der Korrekturlinse 17102), a = b = f 2 ,
    Figure DE112020001131T5_0010
    f 2 = M/ ( 2 * tan ( y/ 2 ) ) ,
    Figure DE112020001131T5_0011
  • Der Winkel γ kann den Winkel in Bezug auf die optische Achse 17008 angeben, unter dem ein Lichtstrahl von der Korrekturlinse 17102 ausgegeben wird (zur Veranschaulichung: der Winkel γ kann der zweite Ausgabewinkel sein, z.B. der Beleuchtungswinkel, z.B. ein gewünschter oder vordefinierter Ausgabewinkel).
  • Wie bereits erwähnt, können die Winkel α, β und γ Winkel in der Ebene sein, die durch die erste Richtung 17052, in die sich die Lichtstrahlen in Richtung des Emissionsfeldes 17010 bewegen (z.B. die erste Richtung 17052, entlang der die optische Achse 17008 ausgerichtet werden kann), und die dritte Richtung 17056, entlang der die Betätigungsachse des Stellantriebs 17006 ausgerichtet werden kann, gebildet wird. Als Beispiel können die oben beschriebenen Winkel α, β und γ um die optische Achse 17008 symmetrisch sein.
  • Die hier beschriebene Optikanordnung 17000, illustrativ die Korrekturlinse 17102, kann eine realisierbare Emitteroptik (illustrativ, ohne das emittierte Licht zu blockieren) auch dann bieten, wenn das Produkt aus der lateralen Abmessung L der Lichtquelle 42 mit dem Emissionswinkel α größer ist als das Produkt aus der lateralen Abmessung M des Stellglieds 17006 und dem Beleuchtungswinkel γ (z.B. der Winkel im Fernfeld). Zur Veranschaulichung: Der Grenzwert kann eingehalten werden, und ein kleinerer Beleuchtungswinkel γ kann mit der Korrekturlinse 17102 erreicht werden. Darüber hinaus kann die hier beschriebene Optikanordnung 17000 den Effekt haben, dass die virtuelle Größe der emittierenden Fläche der Lichtquelle 42 vergrößert wird, wodurch sich die zulässige Strahlungsleistung (z.B. die zulässige Laserstrahlungsleistung zur Einhaltung einer bestimmten Laserklasse) erhöhen kann.
  • Der Ausgangswinkel γ der Korrekturlinse 17102 (z.B. jeder beliebige Winkel) kann durch Bereitstellung einer Korrekturlinse 17102 mit einer entsprechenden Brennweite f2 (unter Berücksichtigung der anderen Parameter) gewählt werden. Die Blende der Korrekturlinse 17102 kann sich bei Verringerung des Ausgangswinkels γ vergrößern. Eine Vergrößerung der Blende der Korrekturlinse 17102 ist jedoch möglicherweise nicht physikalisch begrenzt, wie es stattdessen bei der Größe eines MEMS in einer reinen MEMS-Optikanordnung der Fall wäre.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 (z.B. die Korrekturlinse 17102) so konfiguriert werden, dass der erste Austrittswinkel eines in die Korrekturlinse 17102 eintretenden Lichtstrahls des Aktuators 17006 in Bezug auf die optische Achse 17008 auf einen Winkel (z.B. einen ersten Winkel, z.B. einen ersten korrigierten Winkel) von maximal etwa 5° reduziert wird. Illustrativ kann die Korrekturlinse 17102 (und die anderen Komponenten) so konfiguriert oder angeordnet werden, dass sie einen Ausgangswinkel von etwa 5° liefert, z.B. einen Beleuchtungswinkel von etwa 5°.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 (z.B. die Korrekturlinse 17102) so konfiguriert werden, dass der erste Austrittswinkel eines in die Korrekturlinse 17102 eintretenden Lichtstrahls aus dem Stellglied 17006 in Bezug auf die optische Achse 17008 auf einen Winkel von maximal etwa 3° reduziert wird (z.B. auf einen zweiten Winkel, der kleiner als der erste Winkel ist, z.B. auf einen zweiten korrigierten Winkel, der kleiner als der erste korrigierte Winkel ist). Illustrativ kann die Korrekturlinse 17102 (und die anderen Komponenten) so konfiguriert oder angeordnet werden, dass sie einen Ausgangswinkel von etwa 3° liefert, z.B. einen Beleuchtungswinkel von etwa 3°.
  • In verschiedenen Ausführungsformen, wie in 171B und 171C (zeigt eine Korrekturlinse 17102 in einer schematischen Darstellung), kann die Korrekturlinse 17102 eine zylindrische Symmetrie um die Achse des Aktuators 17006 aufweisen (nur als Beispiel um die Schwingungsachse eines MEMS-Spiegels). Als Beispiel kann die Korrekturlinse 17102 eine gekrümmte Oberfläche 17102s haben (z.B. eine erste gekrümmte Oberfläche und eine zweite gekrümmte Oberfläche, die einander entlang der ersten Richtung 17052 entgegengesetzt sind).
  • Die Korrekturlinse 17102 kann eine Abbildung des Aktuators 17006 bei Unendlich liefern, z.B. kann die Korrekturlinse 17102 so konfiguriert werden, dass sie den Aktuator 17006 (zur Veranschaulichung: entlang der Richtung der Achse des Aktuators 17006) bei Unendlich abbildet. Dies kann den Effekt haben, dass die Winkelverteilung der Strahlung im Fernfeld im Wesentlichen der Intensitätsverteilung am Aktuator 17006 entspricht (nur als Beispiel, auf dem MEMS).
  • In verschiedenen Ausführungsformen kann die Kollimatorlinse 17002 eine Kollimatorlinse mit langsamer Achse sein, zum Beispiel eine Zylinderlinse. Die Kollimatorlinse mit langsamer Achse kann so konfiguriert oder vorgesehen sein, dass sie den kleineren Divergenzwinkel (illustrativ der Winkel α) der von der Lichtquelle 42 emittierten Lichtstrahlen kollimiert (illustrativ, um den Winkel in der Ebene der langsamen Achse der Lichtquelle 42 zu kollimieren, z.B. einer kantenemittierenden Laserdiode). Wie oben beschrieben, kann in der in 171A und 171B gezeigten Beispielkonfiguration die langsame Achse der Lichtquelle 42 entlang der dritten Richtung 17056, z.B. der vertikalen Richtung, ausgerichtet sein. Die schnelle Achse der Lichtquelle 42 kann entlang der zweiten Richtung 17054, z.B. der horizontalen Richtung, orientiert sein. Der Winkel δ in 171B kann den Divergenzwinkel der schnellen Achse der Lichtquelle 42 angeben (z.B. in einer Ebene, die durch die erste Richtung 17052 und die zweite Richtung 17054 gebildet wird), wobei die schnelle Achse entlang der zweiten Richtung 17054 ausgerichtet sein kann.
  • Zur Veranschaulichung: Die Kollimatorlinse 17002 kann Abbildungseigenschaften in Bezug auf eine Richtung parallel zur langsamen Achse der Lichtquelle 42 haben (z.B. die dritte Richtung 17056). Die Kollimatorlinse 17002 kann in einer Richtung parallel zur schnellen Achse der Lichtquelle 42 (z.B. die zweite Richtung 17054) keine Abbildungseigenschaften haben (z.B. kann es eine nicht abbildende Optik sein).
  • Es wird davon ausgegangen, dass die hier dargestellte Ausrichtung der langsamen Achse und der schnellen Achse der Lichtquelle 42 als Beispielkonfiguration vorgesehen ist. Die Lichtquelle 42 kann auch gedreht werden, z.B. um 90°, so dass die langsame Achse der Lichtquelle 42 entlang der zweiten Richtung 17054 (z.B. entlang der Abtastrichtung des Aktuators) und die schnelle Achse entlang der dritten Richtung 17056 ausgerichtet ist. Wenn die Lichtquelle 42 z.B. ein Monomode-Laser ist oder einen Monomode-Laser aufweist, kann die Ausrichtung der langsamen Achse und der schnellen Achse (z.B. die Ausrichtung des Lasers) beliebig gewählt werden.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 optional eine weitere Kollimatorlinse 17104 aufweisen, zum Beispiel eine Zylinderlinse. Die weitere Kollimatorlinse 17104 kann stromabwärts der Lichtquelle 42 und stromaufwärts der Kollimatorlinse 17002 angeordnet sein (illustrativ zwischen der Lichtquelle 42 und der Kollimatorlinse 17002). Die weitere Kollimatorlinse 17104 kann so konfiguriert oder vorgesehen werden, dass sie die von der Lichtquelle 42 emittierten Lichtstrahlen auf die Kollimatorlinse 17002 kollimiert (zur Veranschaulichung als der eine oder mehrere Eingangslichtstrahlen 17004i).
  • Als Beispiel kann die weitere Kollimatorlinse 17104 eine Kollimatorlinse mit schneller Achse (Fast Axis) sein. Die Fast-Axis-Kollimatorlinse kann so konfiguriert werden, dass sie den größeren Divergenzwinkel (illustrativ der Winkel δ) der von der Lichtquelle 42 emittierten Lichtstrahlen kollimiert (illustrativ, um den Winkel in der Ebene der schnellen Achse der Lichtquelle 42 zu kollimieren).
  • 172A bis 172C zeigen die Optikanordnung 17000 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 ein grobwinkliges Lenkelement aufweisen. Das Grobwinkel-Lenkelement kann eine Variation des Winkels (z.B. hauptsächlich um eine Achse nahe der zweiten Richtung 17054) der vom Grobwinkel-Lenkelement abgegebenen Lichtstrahlen mit einer groben Auflösung (z.B. mit geringerer Auflösung als das Feinwinkel-Lenkelement, z.B. 3° oder 5°) bewirken.
  • Das Grobwinkel-Lenkelement kann hinter der Korrekturlinse 17102 angeordnet werden. Das Grobwinkel-Lenkelement kann einen Ausgabewinkel für die Lichtausgabe des Grobwinkel-Lenkelements liefern, der größer ist als der Ausgabewinkel γ der Korrekturlinse 17102, zum Beispiel für den Fall, dass die Korrekturlinse 17102 einen Ausgabewinkel liefert, der kleiner ist als ein gewünschter Ausgabewinkel (z.B. kleiner als ein gewünschter Beleuchtungswinkel).
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 ein Multilinsen-Array 17202 aufweisen, das Multilinsen-Array 17202 kann z.B. als das in 89 bis 97 beschriebene Multilinsen-Array konfiguriert sein oder konfiguriert werden. Das Multilinsen-Array 17202 kann hinter der Korrekturlinse 17102 angeordnet sein (z.B. zwischen der Korrekturlinse 17102 und dem Emissionsfeld 17010), wie in 172A beschrieben. In dieser Konfiguration kann das Multilinsen-Array 17202 einen Akzeptanzwinkel haben, der im Wesentlichen dem Ausgangswinkel γ der Korrekturlinse 17102 entspricht.
  • Zusätzlich oder alternativ kann das Multilinsen-Array 17202 (z.B. ein weiteres Multilinsen-Array) zwischen der Lichtquelle 42 und der Kollimatorlinse 17002 angeordnet werden, wie in 172B gezeigt (z.B. zwischen dem Kollimator mit langsamer Achse und dem Kollimator mit schneller Achse). Veranschaulichend kann das Multilinsen-Array 17202 eine Vielzahl von virtuellen Lichtquellen erzeugen, die Licht in Richtung eines entsprechenden Teils oder Segments des Emissionsfeldes 17010 oder eines entsprechenden Teils oder Segments der Kollimatorlinse 17002 emittieren.
  • Als Beispiel kann das Multilinsen-Array 17202 eine Vielzahl von Linsen (z.B. Mikrolinsen) aufweisen, die jeweils die Form (z.B. gekrümmt) der in 171C gezeigten Korrekturlinse 17102 haben. Für den Fall, dass die Lichtquelle 42 infrarotes Licht emittiert, kann das Multilinsen-Array 17202 so konfiguriert werden, dass es im Infrarot-Lichtbereich arbeitet.
  • Das hinter der Korrekturlinse 17102 angeordnete Multilinsen-Array 17202 kann z.B. dann vorgesehen werden, wenn eine im Wesentlichen rechteckige Winkelverteilung der Intensität des ausgestrahlten Lichts vorgesehen ist (z.B. entlang der dritten Richtung 17056), wie in dem Diagramm 17204 dargestellt. Das Diagramm 17204 kann eine erste Achse 17204a in Verbindung mit dem Emissionswinkel und eine zweite Achse 17204i in Verbindung mit der Lichtintensität enthalten. Das Diagramm 17204 kann eine Kurve 17204d enthalten, die die Winkelverteilung der Intensität des emittierten Lichts darstellt. Es kann auch möglich sein, mit Hilfe einer Strahlformungslinse direkt auf dem Aktuator 17006 ein rechteckiges Intensitätsprofil zu erzeugen.
  • Für den Fall, dass das Multilinsen-Array 17202 zwischen der Lichtquelle 42 und der Kollimatorlinse 17002 angeordnet ist, kann das Multilinsen-Array 17202 kleiner gemacht werden als für den Fall, dass das Multilinsen-Array 17202 hinter der Korrekturlinse 17102 angeordnet ist (z.B. kann das Multilinsen-Array 17202 eine geringere Anzahl von Mikrolinsen enthalten).
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 zusätzlich oder alternativ optional ein diffusives Element/Streuelement 17206 aufweisen, wie in 172C dargestellt. Das Streuelement 17206 kann hinter der Korrekturlinse 17102 angeordnet sein (z.B. zwischen der Korrekturlinse 17102 und dem Emissionsfeld 17010). Das Streuelement 17206 kann die Winkelverteilung der Intensität des ausgestrahlten Lichts homogenisieren (z.B. hauptsächlich entlang der dritten Richtung 17056), wie im Diagramm 17208 dargestellt. Das Diagramm 17208 kann eine erste Achse 17208a in Verbindung mit dem Emissionswinkel und eine zweite Achse 17208i in Verbindung mit der Lichtintensität enthalten. Das Diagramm 17208 kann eine Kurve 17208d enthalten, die die Winkelverteilung der Intensität des emittierten Lichts darstellt, das von einem diffusiven Element/Streuelement, z.B. dem Streuelement 17206, geliefert wird. Das Streuelement 17206 kann ein eindimensionales Streuelement sein, z.B. eine Streuscheibe oder ein Streuschirm. Für den Fall, dass die Lichtquelle 42 infrarotes Licht emittiert, kann das Streuelement 17206 so konfiguriert werden, dass es im Infrarotlichtbereich arbeitet.
  • In verschiedenen Ausführungsformen kann die Optikanordnung 17000 optional ein Flüssigkristall-Polarisationsgitter 17210 aufweisen. Das Flüssigkristall-Polarisationsgitter 17210 kann, wie in 172C dargestellt, hinter der Korrekturlinse 17102 angeordnet werden (z.B. hinter dem Streuelement 17206, falls ein solches Element vorhanden ist). Das Flüssigkristall-Polarisationsgitter 17210 kann so konfiguriert werden, dass es das Licht in Richtung des Emissionsfeldes 17010 ablenkt, z.B. in diskreten Schritten. Für den Fall, dass die Lichtquelle 42 infrarotes Licht emittiert, kann das Flüssigkristall-Polarisationsgitter 17210 so konfiguriert werden, dass es im infraroten Lichtbereich arbeitet.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ak ist eine Optikanordnung für ein LIDAR-Sensorsystem. Die Optikanordnung kann eine Kollimatorlinse aufweisen, die eine Vielzahl von Eingangslichtstrahlen, die unter einer Vielzahl von Eingangswinkeln eintreten, auf eine Vielzahl von Ausgangslichtstrahlen unter einer Vielzahl von Ausgangswinkeln abbildet. Die Optikanordnung kann einen Aktuator aufweisen, der stromabwärts der Kollimatorlinse angeordnet und so konfiguriert ist, dass er die Vielzahl von Ausgangslichtstrahlen von der Kollimatorlinse in ein Emissionsfeld umlenkt. Ein umgelenkter Lichtstrahl kann mit einem ersten Ausgangswinkel in Bezug auf eine optische Achse der Optikanordnung umgelenkt werden. Die Optikanordnung kann eine Korrekturlinse aufweisen, die stromabwärts des Aktuators angeordnet und so konfiguriert ist, dass sie den ersten Ausgangswinkel eines Lichtstrahls stromabwärts des Aktuators, der in die Korrekturlinse eintritt, reduziert, um den Lichtstrahl mit einem zweiten Ausgangswinkel in Bezug auf die optische Achse der Optikanordnung in das Emissionsfeld zu lenken.
    • In Beispiel 2ak kann der Gegenstand von Beispiel 1ak optional eine Lichtquelle aufweisen, um eine Vielzahl von Lichtstrahlen als die Vielzahl der Eingangslichtstrahlen auf die Kollimatorlinse zu emittieren.
    • In Beispiel 3ak kann der Gegenstand von Beispiel 2ak optional umfassen, dass die Lichtquelle eine oder mehrere Laserlichtquellen umfasst.
    • In Beispiel 4ak kann der Gegenstand von Beispiel 3ak optional umfassen, dass die Lichtquelle eine oder mehrere Laserdioden umfasst.
    • In Beispiel 5ak kann der Gegenstand eines der Beispiele 1ak bis 4ak optional umfassen, dass das Kollimatorobjektiv ein Kollimatorobjektiv mit langsamer Achse ist.
    • In Beispiel 6ak kann der Gegenstand eines der Beispiele 1ak bis 5ak optional ein weiteres Kollimatorobjektiv aufweisen.
    • In Beispiel 7ak kann der Gegenstand von Beispiel 6ak optional umfassen, dass das weitere Kollimatorobjektiv ein Kollimatorobjektiv mit schneller Achse ist.
    • In Beispiel 8ak kann der Gegenstand eines der Beispiele 1ak bis 7ak optional umfassen, dass der Aktuator ein Winkel-Lenkelement ist. Als Beispiel kann das Winkel-Lenkelement ein Feinwinkel-Lenkelement sein.
    • In Beispiel 9ak kann der Gegenstand von Beispiel 8ak optional umfassen, dass das Winkelsteuerelement ein mikroelektromechanisches System ist.
    • In Beispiel 10ak kann der Gegenstand von Beispiel 9ak optional umfassen, dass es sich bei dem mikroelektromechanischen System um ein optisches Phased Array, eine Metamaterialoberfläche oder einen Spiegel handelt.
    • In Beispiel 11ak kann der Gegenstand eines der Beispiele 1ak bis 10ak optional ein Grobwinkel-Lenkelement umfassen, das hinter der Korrekturlinse angeordnet ist.
    • In Beispiel 12ak kann der Gegenstand von Beispiel 11ak optional ein Flüssigkristall-Polarisationsgitter umfassen, das hinter der Korrekturlinse angeordnet ist.
    • In Beispiel 13ak kann der Gegenstand eines der Beispiele 1ak bis 12ak optional ein Multilinsen-Array und/oder ein Streuelement umfassen.
    • In Beispiel 14ak kann der Gegenstand von Beispiel 13ak optional umfassen, dass das Multilinsen-Array zwischen der Lichtquelle und der Kollimatorlinse angeordnet ist.
    • In Beispiel 15ak kann der Gegenstand eines der Beispiele 13ak oder 14ak optional umfassen, dass das Multilinsen-Array und/oder die Streuscheibe hinter der Korrekturlinse angeordnet ist/sind.
    • In Beispiel 16ak kann der Gegenstand eines der Beispiele 1ak bis 15ak optional umfassen, dass die Optikanordnung so konfiguriert ist, dass der erste Austrittswinkel eines Lichtstrahls vom Aktuator, der in die Korrekturlinse eintritt, in Bezug auf die optische Achse der Optikanordnung auf einen ersten Winkel reduziert wird. Der erste Winkel kann zum Beispiel maximal etwa 5° betragen.
    • In Beispiel 17ak kann der Gegenstand von Beispiel 16ak optional umfassen, dass die Optikanordnung so konfiguriert ist, dass der erste Ausgangswinkel eines Lichtstrahls vom Aktuator, der in die Korrekturlinse eintritt, in Bezug auf die optische Achse der Optikanordnung auf einen zweiten Winkel reduziert wird, der kleiner als der erste Winkel ist. Der zweite Winkel kann beispielsweise etwa 3° betragen.
    • Beispiel 18ak ist ein LIDAR-Sensorsystem mit einer oder mehreren Optikanordnungen von einem der Beispiele 1ak bis 17ak.
  • KAPITEL „DETEKTIONSSYSTEME‟
  • LIDAR-Sensorsysteme müssen genaue und zeitnahe Rückkopplungssignale (Feedback-System) liefern, um eine schnelle und zuverlässige Objekterkennung für die Fahrzeugsteuerung (LIDAR-Sensorgerät) sowie für andere fahrzeugbasierte Anwendungen (Anwendungsfälle) zu ermöglichen. Die LIDAR-Datenanalyse erfordert ein ausreichendes Signal/Rausch-Verhältnis (SNR) für die effiziente Berechnung (Computerprogrammgerät, Datenspeichergerät, Soft- und Hardware) von Informationen über das beobachtete Objekt, z.B. Punktwolken (Punktwolke), und die Erkennung von Objekten (Datenanalyse, Objekterkennung, Objektklassifizierung), die innerhalb des Sichtfeldes (FOV) erkannt werden.
  • Um diese Anforderungen zu erfüllen, insbesondere um das SNR zu erhöhen, kann es vorteilhaft sein, nicht nur einen LIDAR-Laserstrahl zum Scannen zu verwenden, sondern mehr als einen, z.B. drei von vier, möglicherweise bis zu 10 oder 20 oder mehr.
  • In Kombination mit einem MEMS-Spiegelsystem emittiert ein erster (Infrarot-)Laser zu einem ersten Zeitpunkt durch Reflexion am MEMS-Spiegelsystem einen Puls (und dann auch nachfolgende Pulse) in einen ersten Raumwinkel, der in einem ersten FOV-Winkelbereich liegt, und ein zweiter Laser emittiert einen Laserpuls (und anschließend weitere Pulse) in Richtung des MEMS-Spiegelsystems unter einem leicht verschobenen Winkel (in Bezug auf die MEMS-Oberfläche), z.B. mit einer Winkeldifferenz von weniger als 0,24°, so dass der reflektierte (zweite) Laserstrahlpuls (Strahlung) noch innerhalb des ersten FOV-Winkelbereichs liegt. Der Unterschied in der Winkelausrichtung zwischen zwei Laserdioden kann 2-dimensional, d.h. in allen Winkelrichtungen, sein.
  • Laserwellenlängen, aber auch Pulsformen und -intensitäten, können identisch oder unterschiedlich sein, wobei die Wellenlängen in einigen Implementierungen zwischen 800 nm und 1600 nm liegen.
  • Beide Laserdioden können ihre Pulse gleichzeitig oder zu leicht unterschiedlichen Zeiten (ns bis µs-Zeitskala) emittieren.
  • Der Vorteil ist, dass die kombinierte Pulsstärke bei gleichzeitiger Aussendung höher ist als eine einzelne, was zu einem erhöhten SNR-Wert führt, oder, bei Aussendung zu leicht unterschiedlichen Zeitpunkten, zu reflektierten Laserpulsen, deren Sensorsignale zeitlich korreliert werden können, so dass das kombinierte Sensorsignal von anderer externer Infrarotstrahlung (Rauschen) unterschieden werden kann und somit auch den SNR-Wert verbessert. Natürlich kann auch eine höhere Anzahl von Laserdioden in ähnlicher Weise verwendet werden.
  • Dies bedeutet, dass ein LIDAR-Sensorsystem zur Objekterkennung mit einer Vielzahl von Laser-Emissionssystemen (mindestens zwei / erstes LIDAR-Sensorsystem), mit mindestens einer Sensoreinheit (zweites LIDAR-Sensorsystem) zur Messung objektreflektierter LIDAR-Pulse, mit einem räumlich einstellbaren Spiegelsystem ausgestattet ist, wobei ein erster Laser sequentiell Laserpulse über das Spiegelsystem in einen ersten, zweiten usw. Raumwinkel emittiert und mindestens ein zweiter Laser, der gleichzeitig oder sequentiell zu dem ersten Laserpuls einen Laserpuls über das Spiegelsystem in einen der Raumwinkel des ersten Laserstrahls emittiert. Abhängig von den Emissionsmethoden kann ein Sensorsystem so konfiguriert werden, dass es reflektierte Laserpulse orts- und/oder winkelaufgelöst messen kann.
  • Wie bereits beschrieben, ist es für ein LIDAR-Sensorsystem wichtig, eine schnelle und zuverlässige Objekterkennung zu ermöglichen. Es kann von Vorteil sein, wenn mehrere Laser gleichzeitig oder nacheinander ihre Strahlung in den gleichen Raumwinkel (Winkelpixel) emittieren und so den SNR-Wert verbessern. Der Detektor (zweites LIDAR-Sensorsystem, Sensorsystem, Optik), in einigen Implementierungen ein CCD- oder CMOS-Array, ist so konfiguriert, dass er rückgestreute LIDAR-Impulse aus verschiedenen Raumwinkeln (Winkelpixel, Winkelauflösung) des Sichtfeldes (Field of View, FOV) auflöst. Das LIDAR-Sensorsystem kann die Strahlung in das gesamte Sichtfeld (Field of View, FOV) oder nur in dessen Winkelsegmente emittieren.
  • Abhängig von den Emissionsmethoden kann ein Sensorsystem (zweites LIDAR-Sensorsystem) konfiguriert werden, um reflektierte Laserpulse orts- und/oder winkelaufgelöst zu messen.
  • Eine Kombination aus der Erfassung des gesamten FOV sowie zusätzlich eines Winkelsegments davon kann zu einem verbesserten SNR-Wert führen. Die Position und Größe der Winkelsegmente kann z.B. in Abhängigkeit von fahrzeugexternen oder fahrzeuginternen Bedingungen (LIDAR-Sensorgerätbedingungen), wie z.B. Fahrzeugdichte, kritische Umgebungsbedingungen, Fahreraufmerksamkeit und ähnliches, sowie in Abhängigkeit von Verfahren der Signalverarbeitung angepasst werden.
  • Das erste LIDAR-Sensorsystem kann in Bezug auf ein LIDAR-Sensorgerät (z.B. Fahrzeug) fest montiert oder beweglich, kippbar und drehbar angebracht werden. Das erste LIDAR-Sensorsystem kann Spiegelsysteme, z.B. ein MEMS- oder DMD-Spiegelsystem, verwenden.
  • Ein solches erstes LIDAR-Sensorsystem kann Laserpulse zeitsequentiell in geordneter, vordefinierter und strukturierter Weise oder stochastisch emittieren. Alternativ oder in Kombination/Zusatz können die Laserpulse ihre Pulsintensitäten und Pulsformen (-gestalten) variieren, was eine Signalcodierung und über das Detektionssystem eine Signaldecodierung und damit eine Verbesserung des SNR-Verhältnisses ermöglicht. Die Laserwellenlängen, aber auch die Pulsformen und -intensitäten können identisch oder unterschiedlich sein, wobei die Wellenlängen in einigen Implementierungen zwischen 800 nm und 1600 nm liegen.
  • Dies bedeutet, dass ein LIDAR-Sensorsystem zur Objekterkennung mit einer Vielzahl von ersten LIDAR-Sensorsystemen (mindestens zwei) ausgestattet ist, mit mindestens einer winkelsensitiven Sensoreinheit zur Messung der objektreflektierten LIDAR-Pulse (zweites LIDAR-Sensorsystem), wobei mindestens zwei aus der Vielzahl der Laser-Emitter (Lichtquelle) Strahlung in mindestens zwei Raumwinkel (Winkelpixel) emittieren, die sich in ihrer Winkelorientierung und/oder Größe unterscheiden, und wobei die Laserpulse gleichzeitig oder nacheinander emittiert werden. Die Laserpulse können sich in der Intensität, der Pulsform oder anderen physikalischen Merkmalen sowie in ihrer Emissionszeit und zeitlichen Abfolge unterscheiden und liefern so kodierte Signale zur Verbesserung des SNR-Verhältnisses.
  • Wie bereits oben erwähnt, ist es für ein LIDAR-Sensorsystem wichtig, ein hohes Signal-Rausch-Verhältnis (SNR) zu liefern, um eine schnelle und zuverlässige Objekterkennung zu ermöglichen. Dies ist insbesondere dann wichtig, wenn sich mit LIDAR-Systemen ausgerüstete Fahrzeuge aufeinander zubewegen und es dadurch zu einer Situation kommt, in der sich die jeweiligen LIDAR-Systeme insofern gegenseitig stören können, als dass die LIDAR-Detektoren eines Fahrzeuges innerhalb ihrer üblichen Wartezeit (Messfenster), typischerweise im Bereich von 2 ps, Laserpulse von anderen Fahrzeugen empfangen können, nachdem ein eigener Laserpuls ausgesendet wurde, was zu einer Fehlerkennung eines (nicht vorhandenen) Objektes führt.
  • Eine Lösung für dieses Problem besteht darin, dass ein LIDAR-Lasersystem Laserpulse zeitstochastisch emittiert und das jeweilige Detektor(sensor)-Signal mit dem Zeitstempel der Pulsemission korreliert. Ein stochastischer Zeitstempel kann mit bekannten mathematischen (z.B. basierend auf Fibonacci-Sequenzen) oder physikalischen (z.B. basierend auf thermischem Rauschen, das von einem Halbleiterbauelement geliefert wird) Verfahren erzeugt werden.
  • Es kann vorteilhaft sein, dass die Emissionszeitpunkte (Zeitstempel) zweier aufeinanderfolgender Pulse eine definierte (minimale) Zeitdifferenz aufweisen. Dies hilft, die einzeln emittierten Laserpulse zu identifizieren (keine zeitliche Überlappung), aber auch, eine verbrauchte Laserdiode nicht zu überlasten (verteilte Leistungslast). Es kann vorteilhaft sein, dass die Emissionspunkte (Zeitstempel) zweier aufeinanderfolgender Laserpulse eine definierte (vorgewählte, minimale) Zeitdifferenz aufweisen, die größer ist als die Verzögerungszeit zwischen zwei Detektionszeitfenstern (Messfenstern), wodurch eine Überlastbedingung des Lasers weiter vermieden wird.
  • Es kann vorteilhaft sein, dass die Emissionspunkte (Zeitstempel) zweier aufeinanderfolgender Laserpulse innerhalb eines minimalen und eines maximalen Zeitdifferenzwertes (Variationsamplitude) des Detektionsfensters (Messfensters) variieren, ansonsten aber die oben beschriebenen Zeitbedingungen erfüllen. Es kann besonders vorteilhaft sein, wenn die Variationsamplitude (wie zuvor definiert) eine Funktion eines qualitätsanzeigenden Parameters ist, wie z.B. ein Auflösungsmaß eines Rückkopplungssignals oder eines SNR-Wertes. Ein weiteres Verfahren besteht darin, die Zeitstempel der eingehenden Laserpulse als Funktion der (bekannten) Emissionspunkte der eigenen Laserpulse in einer Art Histogrammanalyse zu verfolgen.
  • Es kann ferner von Vorteil sein, wenn die Variationsamplitude (wie zuvor definiert) einen Wert hat, der größer ist als der Mittelwert (Durchschnittswert) der oben genannten eigenpulskorrelierten oder eigenpulsunkorrelierten Zeitstempel (oder das Äquivalent eines Mittelwertes der zugehörigen Fourier-transformierten Frequenz). Andere vorteilhafte Verfahren verwenden die Histogrammanalyse einer Reihe von aufeinander folgenden Pulsen und/oder von nur Pulsen, die nur dann gezählt werden, wenn sie einen vordefinierten oder berechneten Schwellenwert überschreiten.
  • Dies bedeutet, dass ein LIDAR-Sensorsystem für die Objekterkennung so konfiguriert ist, dass die Zeitdifferenz zwischen aufeinanderfolgenden Erkennungszeitfenstern (Messfenstern) variiert wird. Das Timing zwischen zwei aufeinanderfolgenden Laserpulsen kann stochastisch sein und/oder größer als eine definierte Minimalwertvariation, die größer als ein Detektionszeitfenster sein kann. Der Betrag der Variation kann größer als ein Referenzwert sein, z.B. ein SNR-Wert und/oder ein definierter Schwellenwert.
  • Ein LIDAR-Sensorsystem, bei dem die Winkelinformation (Objekterkennung) über die Umgebung durch die Verwendung eines winkelsensitiven Detektors gewonnen wird, wird als Flash/Blitz-LIDAR-Sensorsystem bezeichnet, im Gegensatz zu einem scannenden LIDAR-Sensorsystem, bei dem die Winkelinformation durch die Verwendung eines beweglichen Spiegels gewonnen wird, der den Laserstrahl über das Sichtfeld (FOV) scannt (winklig emittiert) und somit eine Winkelreferenz für den emittierten und den reflektierten Laserstrahl hat.
  • Ein Flash-Lasersystem verwendet ein Array oder eine Matrix von Detektoren (Detektionssegmente, Sensorpixel), die mit Optiken verwendet werden, die eine Winkelauflösung liefern. Es ist von Vorteil, wenn die verschiedenen Detektorsegmente (Sensorpixel) keine Lücken zwischen sich haben, da dies die Gesamtbildauflösung reduzieren würde. Auf der anderen Seite ist die Verwendung von Sensorpixeln mit vergrößertem Erfassungsbereich kostspielig.
  • Eine vorteilhafte Lösung für dieses Problem ist die Verwendung eines Sensorsystems, das mindestens eine bewegliche Komponente aufweist, z.B. eine optische Komponente wie eine Linse oder ein Linsensystem. Eine andere Lösung ist ein LIDAR-Sensorsystem, bei dem die Sensorpixel beweglich sind. Natürlich können beide Ausführungsformen kombiniert werden. Beispielsweise werden die Sensorpixel (seitlich oder diagonal) so bewegt, dass die Bewegungsstrecke der Hälfte einer Sensorpixellänge oder weniger entspricht.
  • Eine andere Möglichkeit besteht darin, eine optische Komponente, wie eine Linse oder ein Linsensystem, (seitlich oder diagonal) relativ zur Sensormatrix (Sensorpixel) zu bewegen. Eine laterale oder diagonale Bewegung auf die oben beschriebene Weise hilft, tote Sensorräume zu reduzieren und die Bildauflösung zu verbessern. LIDAR-Messungen werden dann in einer ersten Position (d.h. einer ersten geometrischen Beziehung zwischen Sensorpixel und optischen Komponenten) und dann in einer zweiten Position, die sich von der ersten unterscheidet, durchgeführt. Die beiden Detektionssignale werden dann (mathematisch) kombiniert und/oder korreliert, was zu einem erhöhten SNR-Verhältnis und einer höheren Bildauflösung führt. In einigen Ausführungsformen können die lateralen Bewegungen so ausgeführt werden, dass die entsprechenden Winkelabschnitte innerhalb des FOV (auch Voxel bzw. Volumenelemente genannt) voneinander verschieden sind, aber eine gewisse Winkelüberlappung aufweisen können.
  • Ein anderes bevorzugtes Verfahren ist die Anwendung einer Bewegung mit einer Bewegungsrichtung, die eine senkrechte Komponente in Bezug auf die zuvor erwähnte seitliche Bewegung hat.
  • Es ist auch vorteilhaft, eine Bedingung anzuwenden, bei der eine Bewegungsdistanz und/oder eine minimale Bewegungsdistanz und/oder eine maximale Bewegungsdistanz jeweils auf stochastische Weise ausgewählt werden.
  • Das bedeutet, dass ein LIDAR-Sensorsystem zur Objekterkennung mit einer gepixelten Detektionseinheit (Sensorsystem) und einer optischen Komponente oder mehreren Komponenten ausgestattet ist, die seitlich und/oder diagonal relativ zueinander bewegt werden, um an jeder dieser Positionen eine LIDAR-Messung durchzuführen. Ein Sensordatenanalysesystem (LIDAR-Datenverarbeitungssystem) kann dann diese Messsignale kombinieren und/oder korrelieren, was zu einer höheren Bildauflösung und einem verbesserten SNR-Verhältnis führt.
  • Wichtig ist, dass sich LIDAR-Sensorsysteme, die vom eigenen LIDAR-Sensorgerät (z.B. Fahrzeug) emittieren, und solche, die von anderen LIDAR-Sensorgeräten (z.B. Fahrzeugen) emittieren, nicht gegenseitig stören, da dies zu einer falschen (positiven) Erkennung eines (nicht existierenden) Objektes führen könnte.
  • Dieses vorteilhafte Verfahren beschreibt ein System von mindestens zwei LIDAR-Sensorsystemen desselben Fahrzeugs, die so miteinander synchronisiert sind, dass sie Laserpulse in unterschiedlichen, sich nicht überlappenden Messzeitfenstern emittieren und detektieren. Dieses Messverfahren ist auf mehr als zwei LIDAR-Sensorsysteme anwendbar, z.B. auf 8 oder 20 LIDAR-Sensorsysteme.
  • Für den Einsatz eines solchen Messsystems ist es notwendig, dass die mindestens zwei LIDAR-Sensorsysteme zeitsynchronisiert sind. Dies kann z.B. beim Starten eines Fahrzeugs oder zu bestimmten Zeiten während der Fahrt geschehen.
  • Es ist von Vorteil, wenn jedes der mindestens zwei LIDAR-Sensorsysteme über eine Kommunikationsschnittstelle verfügt, die eine bidirektionale Kommunikation ermöglicht, und wenn ein hochgenauer interner Taktgeber (interner Zeitgeber) Synchronisationssignale übermittelt, so dass die mindestens zwei LIDAR-Sensorsysteme synchronisiert arbeiten.
  • Die Synchronisation kann auch optisch erfolgen, z.B. wenn ein LIDAR-Sensorsystem einen kodierten LIDAR-Laserpuls oder zeitlich sequentiell kodierte LIDAR-Laserpulse aussendet, der bzw. die dann von dem anderen der mindestens zwei LIDAR-Sensorsysteme detektiert wird bzw. werden, und durch Dekodierung der Pulsinformation die Synchronisation anpassen kann.
  • Vorteilhaft ist es auch, wenn die einzelnen Startpunkte der jeweiligen Zeitmessfenster statistisch auftreten, jedoch unter der Bedingung, dass das gleiche LIDAR-Sensorsystem nicht in unmittelbar aufeinander folgenden Zeitfenstern messen soll. Die mathematische Verarbeitung der Messsignale von Messfenstern, die eine solche stochastische Zeiteinstellung haben, erhöht den SNR-Wert und führt so zu einer besseren (und wahrscheinlich schnelleren) Objekterkennung.
  • Es ist auch von Vorteil, wenn die nachfolgenden Startzeiten des Zeitmessfensters eines Lasers eine Verzögerungszeit aufweisen, die viel länger ist als das Zeitmessfenster selbst, z.B. um den Faktor 5 oder 10 oder 20 oder länger. Ein Faktor von 5 bedeutet, dass 5 LIDAR-Sensorsysteme verwendet werden können, die Pulse innerhalb eines Zeitmessfensters von 2 µs emittieren und messen. Dies entspricht gut einer Laserpulsfrequenz von 100 kHz.
  • Es ist auch vorteilhaft, wenn eine Länge des Messzeitfensters dynamisch in Abhängigkeit von der Fahrzeuggeschwindigkeit angepasst wird. Wird z.B. ein nahes Objekt detektiert und ein scannendes LIDAR-Spiegelsystem verwendet, kann die Länge der Messzeitfenster verkürzt und damit die Zeitdifferenz zwischen aufeinanderfolgenden Pulsen vergrößert werden, wodurch Verwechslungen mit nicht korrespondierenden eingehenden LIDAR-Pulsen von anderen LIDAR-Sensorsystemen weiter vermieden werden.
  • Ein weiterer Vorteil bei der Verwendung von dynamisch einstellbaren Messzeitfenstern besteht darin, dass z.B. für die Vermessung eines 300 m entfernten Objekts bei Verwendung eines 100 kHz-Lasers 5 verschiedene LIDAR-Lasersensorsysteme eingesetzt werden können, und dass z.B. für ein nur 150 m entferntes Objekt 10 verschiedene LIDAR-Lasersensorsysteme verwendet werden können. Dies ermöglicht die Erhöhung der Bildauflösung und der SNR-Werte bei kurzen Objektentfernungen. Ein weiterer Vorteil eines solchen synchronisierten LIDAR-Messsystems besteht darin, dass, da die Sensor-Messzeitfenster und der Zeitpunkt der Emission der verschiedenen Laserpuls-Systeme bekannt sind, ein bestimmtes Messzeitfenster zur Messung des Pulses eines anderen LIDAR-Sensorsystems desselben LIDAR-Sensorsystem-Arrays verwendet werden kann.
  • Eine Sequenz besteht beispielsweise darin, dass der erste Laser einen Puls aussendet, der innerhalb des mit diesem Laser korrelierten ersten Messzeitfensters detektiert wird, und ein zweiter Laser einen Laserpuls aussendet, der innerhalb des zweiten und des ersten erweiterten Messzeitfensters detektiert wird, wodurch die effektive Sensorfläche und damit der SNR-Wert und die Robustheit eines LIDAR-Sensorsystems erhöht werden, insbesondere wenn es sich um eine Reflexion an spiegelnden oder meist spiegelnd reflektierenden Objektoberflächen handelt, da der ursprüngliche Laserstrahl möglicherweise nicht in das entsprechende Sensormesszeitfenster zurückreflektiert wird, sondern stattdessen innerhalb des entsprechenden Sensormesszeitfensters detektiert werden kann.
  • Dieses vorteilhafte Verfahren beschreibt ein System von mindestens zwei LIDAR-Sensorsystemen, die so miteinander synchronisiert sind, dass sie Laserpulse in unterschiedlichen Zeitfenstern emittieren und messen, die sich nicht überlappen und deren Messzeitfenster und/oder die Verzögerungszeit zwischen aufeinander folgenden Messzeitfenstern dynamisch angepasst werden und sogar erlauben, dass ein erstes Messzeitfenster synchronisierte Laserpulse messen kann, die von einem zweiten Lasersystem stammen, das während eines nachfolgend folgenden zweiten Messzeitfensters emittiert. Darüber hinaus erlaubt dieses vorteilhafte Verfahren, die Anzahl der verwendeten Lasersensorsysteme in Abhängigkeit von der Objektentfernung einzustellen und so die Bildauflösung und den SNR-Wert weiter zu erhöhen.
  • Wie bereits in anderen Aspekten dieser Offenbarung beschrieben, ist es wichtig, dass ein LIDAR-Sensorsystem in der Lage ist, ein Objekt schnell und zuverlässig zu erkennen. Probleme dabei sind z.B. Aliasing-Artefakte, die auftreten, wenn eine Abtastrate kleiner als das Zweifache der höchsten Frequenz eines Signals ist (Nyquist-Shannon-Sampling-Theorem), oder wenn Stroboskop-Effekte zu einer verzerrten Signalerfassung führen.
  • Die vorteilhafte Lösung wendet die stochastische Emission und/oder die stochastische Detektionsmethode oder eine Kombination von beiden an. Eine stochastische Sequenz kann mit bekannten mathematischen (z.B. basierend auf Fibonacci-Sequenzen) oder physikalischen (z.B. basierend auf thermischem Rauschen, das von einem Halbleiterbauelement geliefert wird) Verfahren erzeugt werden, wie es Standardwissen ist.
  • LIDAR-Sensorsysteme können ein sogenanntes Flash-Puls-System, ein Scan-Puls-System oder eine Kombination aus beiden (Hybrid-LIDAR) verwenden. Das vorteilhafte Verfahren ist auf alle anwendbar.
  • Bei Abtastsystemen werden in der Regel MEMS-Spiegelsysteme eingesetzt, die mit einer definierten Frequenz im Bereich von kHz bis MHz schwingen.
  • Ein scannendes LIDAR-Sensorsystem, das dieses vorteilhafte Verfahren verwendet, emittiert Laserpulse auf zeitstochastische Weise. Dies führt dazu, dass die Laserpulse in verschiedene ‚stochastische‘ Richtungen innerhalb des Sichtfelds (FOV) emittiert werden und somit das FOV winkelstochastisch abtasten. Dieses Verfahren reduziert die auf dem Nyquist-Shannon-Sampling-Theorem basierenden Aliasing-Effekte. Ein Effekt dieser Messmethode ist, dass Objekte mit höherer Wahrscheinlichkeit schneller erkannt werden als mit der üblichen nicht-stochastischen Pulsmethode.
  • Eine Variante der stochastischen Methode ist die Verwendung einer bestimmten Laserpuls-Triggerfunktion, die mit einer stochastischen Zeitvariation überlagert wird. Diese Variante reduziert die Möglichkeit, dass stochastische Laserpulse innerhalb des FOVs unglücklicherweise in die gleiche Richtung emittiert werden.
  • Eine andere Variante ist, wenn ein Laserpuls, stochastisch oder regelmäßig, so emittiert wird, dass er zufällig auf eines von vielen Spiegelelementen (MEMS oder DMD) fällt, die den Laserstrahl in das FOV reflektieren und so zu einem stochastischen Abtastprozess führen.
  • Eine andere Variante liegt vor, wenn entweder die Lichtquelle oder das Abtastsystem (Licht-Scanner) oder beide seitlich oder räumlich stochastisch gegeneinander bewegt werden, was zu einem stochastischen Abtastprozess innerhalb des FOV führt. Diese Variante kann mit allen oben genannten stochastischen Emissionsverfahren kombiniert werden.
  • Weitere Varianten sind möglich, wenn zwei solcher LIDAR-Sensorsysteme kombiniert werden, z.B. so, dass das erste (stochastische) LIDAR-Sensorsystem ein Objekt mit dem FOV detektiert und ein zweites LIDAR-Sensorsystem dann innerhalb des objektbezogenen Winkelraums mit einer feineren räumlichen Auflösung scannt. Die beiden LIDAR-Sensorsysteme können miteinander kommunizieren. Sie müssen nicht innerhalb ein und desselben Fahrzeugs eingesetzt werden, sie können in verschiedenen Fahrzeugen verwendet werden, müssen aber so konfiguriert werden, dass sie miteinander kommunizieren können. Für alle oben genannten Ausführungsformen ist es vorteilhaft, ein LIDAR-Detektorsystem und ein Datenanalysesystem zu verwenden, das die Pixelinformation des Detektors mit Hilfe eines Datendekonvolutionsverfahrens oder anderer geeigneter Verfahren transformiert, die aus der Bildverarbeitung und Signalverarbeitung bekannt sind, einschließlich neuronaler und tiefer Lerntechniken.
  • Sensorsystem und zugehöriges Verfahren zum Betreiben eines abtastenden LIDAR-Sensorsystems, das stochastische Variation entweder der zeitbasierten Laseremission, der winkelbasierten Laseremission, der räumlichen Beziehung zwischen Emitter und Detektor oder einer Kombination aller dieser Faktoren verwendet.
  • Wie bereits in anderen Aspekten dieser Offenbarung beschrieben, ist es wichtig, dass ein LIDAR-Sensorsystem in der Lage ist, ein Objekt schnell und zuverlässig zu erkennen und dass LIDAR-Pulse von verschiedenen LIDAR-Sensorsystemen voneinander unterschieden werden können, um eine falsch positive Objekterkennung zu vermeiden. Das vorteilhafte Verfahren einer zuverlässigen LIDAR-Pulsdiskriminierung ist das Variieren oder Modulieren, einschließlich stochastischer Modulation, von LIDAR-Laserpulsformen, z.B. Gauß-, Lorentz- oder Sägezahnformen, Pulsanstiegszeiten, Pulsabfallzeiten, Pulsbreiten, einschließlich stochastischer Modulationen einer Kombination einiger oder aller dieser Parameter.
  • Darüber hinaus kann dieses Verfahren mit einer Variation, insbesondere einer stochastischen Variation, von Pulslänge, Pulsabstand und Abstand der nachfolgenden Messfenster kombiniert werden. Alle Laserpulsparameter sowie alle anderen Parameter wie oben beschrieben werden aufgezeichnet und können z.B. mit Hilfe von Standard-Kreuzrelationsanalysefunktionen analysiert werden, um eine zuverlässige Korrelation von reflektierten Pulsen mit den entsprechenden emittierten Pulsen zu ermöglichen.
  • Eine vorteilhafte LIDAR-Sensoreinheit emittiert Laserpulse, deren Pulsformen, -formen, Anstiegszeiten, Abfallzeiten oder eine Kombination einiger oder aller dieser Parameter moduliert werden, insbesondere auf stochastische Weise.
  • Wie bereits in anderen Aspekten der Beschreibung beschrieben, können MEMS- oder DMD-Spiegelsysteme als Abtastelemente und/oder für eine bestimmte Winkelverteilung eines Laserstrahls verwendet werden. Ein DMD-Mikrospiegelarray kann eine Vielzahl von matrixartig angeordneten winzigen Spiegelpixeln haben, z.B. 854 × 480 oder 1920 × 1080 oder 4096 × 2160.
  • In einer vorteilhaften Ausführungsform können sowohl MEMS als auch DMD, zumindest in einer Spiegelposition, verwendet werden, um objektreflektierte LIDAR-Strahlung auf ein Sensorsystem zu reflektieren. Das bedeutet, dass optische Systeme wie MEMS oder DMD eine doppelte Rolle spielen können, da sie nicht nur Laserstrahlen in das Sichtfeld (Field-of-View, FOV) reflektieren, sondern auch dazu verwendet werden können, zumindest an einer Spiegelposition rückgestreute Laserstrahlpulse auf einen Sensor zu reflektieren, vorzugsweise auf ein Sensorarray mit mehreren Sensorsegmenten.
  • Mit anderen Worten: Jeder der DMD-Spiegel kann drei Winkelpositionen (EIN, flach, AUS) einnehmen und so konfiguriert werden, dass er Laserstrahlung in ein FOV reflektiert, wenn er sich im EIN-Zustand befindet, und rückgestreute Strahlung in eine(n) Strahlenkopf/Strahlenfalle reflektiert, wenn er sich im AUS-Zustand befindet, und rückgestreute Laserpulse auf einen Sensor reflektiert, wenn er sich im flachen Zustand befindet.
  • Ein weiterer Aspekt ist die Verwendung eines Spiegelgeräts (MEMS, DMD), um sowohl sichtbares Licht (weiß, RGB) als auch Laser-Infrarotlicht (850 nm bis 1600 nm) zeitlich nacheinander in dasselbe Sichtfeld (Field-of-View, FOV) zu lenken, wobei auf die Emission des infraroten Laserstrahls ein Messzeitfenster folgt, in dem keine sichtbare Strahlung vom Spiegelgerät reflektiert wird. Dies ermöglicht die Verwendung desselben Spiegelgeräts für die Projektion von weißem oder farbigem Licht, z.B. für die Projektion von Schildern und Mitteilungen auf eine Straße, sowie von Laserstrahlung, d.h. bevorzugten Infrarot-LIDAR-Pulsen für die Objekterfassung, auf zeitsequenzielle Weise. Die rückgestreuten LIDAR-Pulse werden dann von einem Sensorgerät, zum Beispiel einer APD, gemessen. Das Spiegelsystem ist adaptiv, d.h. jedes Spiegelpixel kann einzeln angesteuert werden und je nach Aufgabenstellung und Zweck eine von drei Spiegelpositionen (EIN, flach, AUS) einnehmen.
  • Ein weiterer Aspekt ist, dass die Spiegelpixel des verwendeten DMDs in Gruppen und Untergruppen zusammengefasst werden können, die gleichzeitig in einer der beiden Betriebsarten Sichtbares Licht und Infrarot-LIDAR-Licht gesteuert werden können.
  • Ein weiterer Aspekt ist die Bereitstellung von Mitteln, um den Zeitpunkt einer LIDAR-Pulsemission an ein Sensorsystem zu übermitteln, da dies eine genaue Zeitbasis für das Zeitfenster der Sensormessung ermöglicht, das für einen verbesserten SNR-Wert und eine verbesserte Emitter/Sensor-Kalibrierung notwendig ist. Um dieses Ziel zu erreichen, wird ein Teil des emittierten Laserstrahls durch ein optisches System, z.B. eine Linse oder einen separaten Spiegel, geteilt oder gebrochen und dann direkt oder indirekt über Reflexion an einer reflektierenden Oberfläche zum Sensor gebracht. Diese optische Kopplung hat keine Verzögerungszeit, da sich der Laserstrahl mit der Lichtgeschwindigkeit ausbreitet, wodurch eine korrekte Synchronisierung der Laser-Emissionszeit und der Startzeit des Messzeitfensters des Sensorelements ermöglicht wird.
  • Ein weiterer Aspekt ist die Verwendung eines multispektralen Ansatzes, bei dem ein LIDAR-Sensorsystem Laserpulse emittiert und misst, die unterschiedliche Wellenlängen haben und gleichzeitig oder zeitlich nacheinander emittiert und gemessen werden. Dies ermöglicht eine bessere Objekterkennung, da die Objektreflektivität eine Funktion der Laserwellenlänge sein kann und somit eine bessere Objekterkennung ermöglicht.
  • Ein weiterer Aspekt ist die Verwendung einer fischaugenförmigen optischen Komponente, z.B. einer Linse oder eines Linsensystems, das die verschiedenen räumlichen Segmente des Sichtfelds (FOV) auf eine 1-dimensionale oder 2-dimensionale oder 3-dimensionale Sensorbildebene projiziert. Die Sensorbildebene kann Sensorelemente fester Größe und/oder Sensorpixel aufweisen, die adaptiv zu größeren oder kleineren Sensorflächen gruppiert werden können. Die räumlichen Segmente können gleich oder ungleich in ihrer Größe und/oder Form und/oder Entfernung sein, gemessen in einer Ebene, die senkrecht zur optischen Achse eines Sensorarrays liegt. Je nach den optischen Eigenschaften des Fischaugen-Linsensystems können die verschiedenen räumlichen Segmente (FOV) gleich oder ungleich auf die Bildebene projiziert werden, d.h. ihre Bilder können gleich groß und/oder gleich geformt sein oder nicht.
  • Bei ungleicher Projektion werden gleiche Raumsegmente verzerrt (Fischaugenlinseneffekt) und damit ihr Bild auf dem Bildplan (Sensor) in Größe und/oder Form unterschiedlich. In einigen Ausführungsformen werden einige der gleichen Raumsegmente auf die Bildebene mit größerer Bildgröße projiziert, wobei die korrelierte Sensorfläche (z.B. der Verbund verschiedener Sensorpixel) der Bildgröße und/oder -form entspricht. Besonders vorteilhaft ist es, die vertikal ausgerichteten äußeren Raumsegmente (FOV) auf kleinere Sensorflächen zu projizieren, wie es bei Raumsegmenten der Fall wäre, die näher an der Mitte des vertikalen FOV liegen. Dadurch werden die zentralen Raumsegmente mit größeren Sensorflächen in Beziehung gesetzt, was zu Signalen mit besseren SNR-Werten führt.
  • In einer bevorzugten Ausführung ist die Form und/oder die Beugungseigenschaften des Fischauges anpassbar, zum Beispiel als Funktion der Fahrzeuggeschwindigkeit, der Umgebungsbedingungen, des einfallenden Infrarotrauschens, des regulären SNR und der detektierten Objekte. Der Begriff anpassungsfähig umfasst die zumindest teilweise Formgebung der Linse und/oder die Drehung der Fischaugenlinse um eine optische oder eine andere Achse und/oder durch Bewegen und/oder Kippen der Linse in Bezug auf die Sensorfläche. Es ist dann vorteilhaft, die tatsächliche Linsencharakteristik mit der effektiven Fläche eines Sensorfeldes zu korrelieren, insbesondere durch Gruppierung verschiedener Sensorpixel zu einer größeren Sensorfläche.
  • Eine Fischaugenlinse kann Segmente haben, die verzerrungsfreie Eigenschaften haben, und andere, die kissen- oder tonnenförmige Verzerrungseigenschaften aufweisen.
  • Darüber hinaus können verschiedene Teile der Fischaugenlinse nur innerhalb eines definierten Wellenlängenbereichs (z.B. 905 nm) wirksam sein, andere Teile können für andere Laserwellenlängen, z.B. 1550 nm, optimiert werden.
  • Es ist weiterhin vorteilhaft, die beiden LIDAR-Sensorsysteme mit zwei Abtastspiegeln (MEMS) zu kombinieren. Zum einen können die Spiegelsysteme synchron schwingen, so dass zwei Laserstrahlen synchron zueinander abgetastet werden und auf den gleichen Punkt auf einem Objekt treffen. Dadurch werden zwei Messsignale erzeugt, wodurch die Signalstärke und das Signal-Rausch-Verhältnis verbessert werden.
  • Ein weiterer Aspekt ist, dass die beiden LIDAR-Laser infrarote Laserpulse mit unterschiedlichen Wellenlängen aussenden können, aber über das Spiegelsystem immer noch synchron auf den gleichen Objektfleck fallen. Die beiden rückgestreuten Laserpulse werden dann auf zwei Sensorelemente gerichtet, die jeweils für die entsprechende Laserwellenlänge empfindlich sind. Die richtige Analyse der gemessenen Signale führt zu einer besseren Objekterkennung, da die beiden unterschiedlichen Wellenlängen, infrarot oder sichtbar, z.B. blau, unterschiedlich reflektiert werden.
  • In einem weiteren Aspekt können sich die beiden Laserpulse hinsichtlich Laserwellenlänge, Pulsform, Pulslänge, Strahlpolarisation und ähnlichem unterscheiden und bieten somit noch mehr Möglichkeiten für eine kombinierte Signalmessung. Ein anderer Aspekt ist, dass beim Einsatz von mindestens zwei Lasern mit unterschiedlichen Wellenlängen die beiden (oder mehr) Spiegelsysteme mit einer Phasenverzögerung oder sogar entgegengesetzt zueinander abgetastet werden können, d.h. ein Spiegel von links nach rechts und der andere umgekehrt.
  • Es ist vorteilhaft, Sensordaten verschiedener Sensorsysteme, wie Radar, Kamera, Ultraschall, zu kombinieren, um eine zuverlässigere Objektinformation abzuleiten. Dies wird Sensorfusion genannt.
  • Für ein Fahrzeug, als ein LIDAR-Sensorgerät, ist es besonders bei Nachtfahrten von Vorteil, da dann das Kamera-Sensorsystem die Scheinwerfer des Fahrzeugs (Auto, Motorrad, Fahrrad) sehr leicht erkennen kann und nun mit einem LIDAR-Sensorsystem zusammenarbeiten kann. Eine Kamera kann einen Scheinwerfer sowohl anhand seiner Helligkeit, auch im Kontrast zu den angrenzenden Helligkeitsverhältnissen, als auch hinsichtlich seiner Lichtfarbe und/oder Lichtmodulation erkennen. Detektion bedeutet, dass ein Kamerasensor (CCD, CMOS) bestimmte Pixel-Signaldaten misst.
  • In einem Aspekt kann das Kamerasystem die Signaldaten in ein nachfolgendes Kameradatenanalyse- und Objekterkennungsgerät eingeben, das eine Objektklassifizierung ermöglicht, die in einem späteren Schritt zur Fahrzeugsteuerung verwendet werden kann.
  • Nachts würde ein Kamerasensor zwei Beleuchtungs-Hot-Spots messen, die von den beiden Fahrzeugscheinwerfern ausgehen, und diese Informationen auf indirektem Weg über die Kameradatenanalyse und die Kameraobjekterkennung an das LIDAR-Sensorsystem weiterleiten, oder auf direktem Weg, d.h. ohne vorher die Kameraanalyse-Werkzeuge zu durchlaufen. Es ist vorteilhaft, die Daten des Kamerasensors direkt dem LIDAR-Steuergerät zur Verfügung zu stellen, ohne vorher sowohl die Kamera als auch die LIDAR-Datenanalysegeräte zu durchlaufen, so dass das Steuergerät sofort auf diese Eingabe reagieren kann. Besonders vorteilhaft ist es, wenn ein Kamerasensor (CCD, CMOS) direkt mit dem LIDAR-Datenanalysegerät und/oder einem LIDAR-Sensorarray fest verdrahtet ist, das insbesondere bei Nachtfahrten diese Informationen als direkte Eingabe für seine eigenen Analysefunktionen nutzen kann. Anstatt die Helligkeit der Kamerapixel zu verwenden, können die Ausgabedaten von jedem der Farbpixel (RGB) des Kamerasensors verwendet werden. Dies ermöglicht die Beeinflussung der LIDAR-Messung und/oder der LIDAR-Objekterkennung auf der Grundlage der Kamerafarbbilddaten. Dieses Verfahren ist auch für die Messung von Rückleuchten, anderen Frontscheinwerfern wie Tagfahrlicht (DRL) oder Blinkleuchten anwendbar.
  • Es ist bekannt, dass autonom fahrende Fahrzeuge auf mehr als eine Sensortechnologie angewiesen sind, um eine zuverlässige Objekterkennung und Lenksteuerung durchzuführen. Daher ist es notwendig, die Fusion der verschiedenen Datenströme von mehreren Sensoren so schnell und zuverlässig wie möglich durchzuführen. Besonders hilfreich ist es, wenn das Bilderkennungssystem einer Kamera mit den vom LIDAR-Sensorsystem generierten Daten korreliert und eine schnelle und zuverlässige Datenanalyse, einschließlich der Objekterkennung und -erkennung, ermöglicht.
  • 1 beschreibt die Komponenten sowie die Daten- und Informationsflussverbindungen eines LIDAR-Sensorsystems 10, um das vorgeschlagene Datenanalyseverfahren und die Steuerung der Fahrzeuglenkung durch das Kontroll- und Kommunikationssystem 70 zu ermöglichen.
  • Das LIDAR-Sensorsystem 10 umfasst ein erstes LIDAR-Sensorsystem 40 und ein zweites LIDAR-Sensorsystem 50. Darüber hinaus können ein oder mehrere Schaltkreise und/oder ein oder mehrere Prozessoren in das LIDAR-Sensorsystem 10 integriert werden, um die nachfolgende Daten- und Signalverarbeitung 60, 61 zu ermöglichen.
  • Die Generierung aussagekräftiger Sensordaten durch das erste LIDAR-Sensorsystem 40 und das zweite LIDAR-Sensorsystem 50 zusammen mit der anschließenden Daten- und Signalverarbeitung 60, 61 sowie der anschließenden Informationsanalyse 62, die eine zuverlässige Fahrzeuglenkung ermöglicht, sollte so schnell und zuverlässig wie möglich erfolgen.
  • All dies sollte auf einer Zeitskala von Millisekunden (ms) oder schneller erfolgen und darüber hinaus zuverlässig sein, um den Grad der Unsicherheit bei der Objekterkennung zu reduzieren und auch um die jedem Sensor innewohnenden Ungenauigkeiten und technischen Beschränkungen zu kompensieren. Darüber hinaus sollte die Synchronisation der verschiedenen Sensordatenverarbeitung angesprochen werden.
  • Jeder kombinierte Sensoransatz sollte in der Lage sein, Objekte besser zu erkennen und die Fahr- und Umgebungssituation schneller und zuverlässiger zu beurteilen - auch bei ungünstigen Witterungsbedingungen (z.B. Nebel, Regen, Schnee, etc.), aber auch bei verschiedenen Tag- und Nachtsituationen, z.B. starker Blendung durch horizontnahen Sonnenstand, aufkommenden Verkehr in der Nacht, etc.
  • Mit anderen Worten, sowohl LIDAR-Sensorelemente (auch als LIDAR-Sensoren oder Sensoren bezeichnet) 52 als auch Kamerasensoren führen ihre jeweilige Sichtfeld (FoV)-Analyse unabhängig voneinander durch und kommen zu getrennten (individuellen) Mess- und Analyseergebnissen, z.B. zwei verschiedenen Punktwolken (dreidimensional (3D) für LIDAR, zweidimensional (2D) für eine normale Kamera oder 3D für eine Stereokamera) und getrennten Objekterkennungs- und/oder Klassifizierungsdaten. Dies führt zu den Ergebnissen A (LIDAR) und B (Kamera) für ein System, das aus dem ersten LIDAR-Sensorsystem 40 und dem zweiten LIDAR-Sensorsystem 50 sowie einem Kamerasensorsystem 81 besteht. In verschiedenen Ausführungsformen können mehr als ein LIDAR-Sensorsystem 10 und mehr als ein Kamerasensorsystem 81, zum Beispiel ein Stereokamerasystem, zur Verfügung gestellt werden. Die Kamera 81 kann sich irgendwo an einem Fahrzeug oder im gleichen Modul oder Gerät wie das erste LIDAR-Sensorsystem 40 oder das zweite LIDAR-Sensorsystem 50 befinden oder sogar in das LIDAR-Sensorelement 52 eingebettet oder gemeinsam mit diesem hergestellt sein. Es ist auch möglich, dass die LIDAR-Sensorelemente und die Kamera-Sensorelemente die gleichen sind. Abhängig von den verwendeten Sensorsystemen und mathematischen Modellen können Sensorpunktwolken die gleiche oder unterschiedliche Dimensionalität haben. Der im Folgenden verwendete Begriff „mehrdimensional“ sollte alle derartigen Kombinationen von Punktwolken-Dimensionalitäten umfassen.
  • Nachdem jeder Sensor 52 und die anschließende Datenanalyseverarbeitung 60, 61 eine Objekterkennung (2D- oder 3D-Punktwolke) und/oder Objektklassifikation durchgeführt haben, werden beide Ergebnisse (Kamera und LIDAR) miteinander verglichen, z.B. durch das LIDAR-Datenverarbeitungssystem 60, und ein gemeinsames Analyseergebnis (z.B. Ergebnis C = Ergebnis A * Ergebnis B) erzeugt, z.B. basierend auf mathematischen Verfahren, Mustererkennungsmethoden und dem Einsatz von Prädiktionsmethoden wie einer Bayes'schen Inferenzmethode.
  • Mit anderen Worten, das erste LIDAR-Sensorsystem 40 (d.h. das Emissionsgerät) und das zweite LIDAR-Sensorsystem 50 (d.h. das Detektionsgerät) erzeugen eine Punktwolke, die die gescannte/getestete Umgebung darstellt. Anschließend können die Signalverarbeitung 61, die Datenanalyse und die Berechnung 62 erfolgen, um eine Objekterkennung und -klassifizierung durchzuführen, die zu einem LIDAR-Datensatz (LIDAR Data Set, LDS) führt. In ähnlicher Weise ist das Kamerasystem 81 so konfiguriert, dass es seine Daten an das Datenverarbeitungs- und Analysegerät der Kamera ausgibt, was zu einem entsprechenden Kameradatensatz (CDS) führt.
  • Sowohl LIDAR- als auch Kamerasensorsignale benötigen in der Regel zu einem bestimmten Zeitpunkt eine Digitalisierung.
  • Kamera-Sensor-Pixel-Lavout und Farbcodierunasfilter
  • Elektronische Kameras, die optische Filter zur Farbtrennung und Übertragung der Restwellenlängen verwenden, sind bekannt, z.B. als CCD- oder CMOS-Kameras, die in Smartphones eingesetzt werden. Es ist auch bekannt, die Farbfilter solcher CCD-Kameras zu optimieren, um weiße Autoscheinwerfer besser zu erkennen oder Autorücklichter zu lesen.
  • Normfarbwertanteile und Leuchtdichtefaktoren für retroreflektierende Verkehrszeichen werden nach DIN EN 12899-1 und DIN 6171-1 festgelegt. Die Farbkoordinaten von Fahrzeugscheinwerfern (Abblend- und Fernlicht, Tagfahrlicht) sind durch das ECE-Weißfeld (CIE-Diagramm) der Automobilindustrie definiert. Gleiches gilt für Signalfarben, deren Farbkoordinaten z.B. durch ECE-Farbgrenzen definiert sind. Siehe auch CIE Nr. 2.2 (TC-1.6) 1975, oder auch BGBI. 11 - herausgegeben am 12. August 2005 - Nr. 248). Es können auch andere nationale oder regionale Spezifikationsstandards gelten.
  • Dementsprechend sollten die Transmissionskurven der verwendeten Sensor-Pixel-Farbfilter den jeweiligen farbbezogenen Verkehrsregeln entsprechen. Sensorelemente mit Sensorpixeln mit Farbfilter müssen nicht nur in einem Bayer-Muster angeordnet werden, sondern es können auch andere Musterkonfigurationen verwendet werden, z.B. eine X-trans-Matrix-Pixel-Filterkonfiguration.
  • Darüber hinaus können auch andere Arten von Farbfilterkombinationen wie CYMG (Cyan, Gelb, Grün und Magenta), RGBE (Rot, Grün, Blau und Smaragd), CMYW (Cyan, Magenta, Gelb und Weiß) verwendet werden. Die Farbfilter können eine Bandbreite (FWHM) im Bereich von etwa 50 nm bis etwa 200 nm haben.
  • Im Folgenden werden verschiedene Ansätze zur Lösung dieses Problems oder zur Verbesserung technischer Lösungen beschrieben.
  • Verarbeitung vor-analvsierter Kameradaten.
  • 73 zeigt einen Ausschnitt 7300 des LIDAR-Sensorsystems 10 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Verschiedene Ausführungsformen können mit Vorteil auf Nachtfahrbedingungen angewendet werden. Der Grund dafür ist, dass Scheinwerfer und andere Leuchten (Rücklichter, Bremslichter, Signalleuchten) von vorausfahrenden und entgegengesetzt fahrenden Fahrzeugen beleuchtet werden und somit von einem Kamerasystem leicht erkannt werden können, während bei einem LIDAR-System kein großer Unterschied zwischen Tages- und Nachtlichtsituationen besteht. Da die Hintergrund-(Geräusch-)Beleuchtungsstärken in der Regel sehr viel schwächer sind als der Scheinwerfer eines Autos (oder die Brems-, Schluss- und Signallampen eines Autos oder Straßenlaternen, Straßenpfosten, Ampeln oder Reflexionen von Straßenschildern), kann die entsprechende Signalverarbeitung und SNR-Optimierung durch eine Kamera einfacher durchgeführt werden.
  • Das bedeutet, wenn die Pixel-Signale der Kamera durch das Kamera-Datenanalysesystem verarbeitet werden, können diese beiden hellen Lichtpunkte, oder allgemein jeder helle Lichtpunkt (z.B. von Verkehrsschildern oder Ampeln), leicht als Auto oder ein anderes Fahrzeug (Motorrad, Fahrrad) oder jedes andere Licht emittierende oder reflektierende Verkehrsobjekt identifiziert werden (weitere Informationen zu diesem Verfahren finden sich weiter unten), z.B. durch Vergleich und Abgleich mit einer Objektdatenbank (die geometrische Informationen der Leuchten eines Fahrzeugs sowie von Ampeln, Motorrädern, Fahrrädern usw. enthält).
  • Da die Fahrzeugleuchtenpaare voneinander beabstandet sind, werden auch die aktivierten Kamerapixel oder entsprechende Gruppen von Kamerapixeln voneinander beabstandet. Es wird vorgeschlagen, einen solchen farbcodierten Pixelabstand als Hinweis auf ein Fahrzeugleuchtenpaar und damit auf ein Fahrzeug zu verwenden. In einem Nachbearbeitungsprozess kann dann das Zentrum der jeweiligen Pixelgruppen und ihr Pixelabstand von Mitte zu Mitte berechnet werden. Darüber hinaus könnten die farbcodierten Abstandswerte mit einer Datenbank verglichen werden, die solche Informationen pro Fahrzeugtyp enthält. Die Nachbearbeitung kann z.B. durch die Datenverarbeitungseinheit der Kamera und das Datenspeicher- und Handhabungssystem erfolgen.
  • Prinzipiell sind verschiedene Ausführungsformen auch für tageslichtempfindliche Kameras anwendbar, da sie ebenfalls Farbfilter vor ihren Sensoren einsetzen oder z.B. eine Foveon-Farbtiefenmethode verwenden, und daher alle gemessenen Lichtpunkte in der Regel auch farbkorrelierte Signale erzeugen. Das bedeutet, dass diese Methode nach verschiedenen Ausführungsformen auch für Tagfahrbedingungen angewendet werden kann, um z.B. die Lichtquellenpaare des Tagfahrlichts (DRL) zu erkennen.
  • AII dies führt zu einem differenzierten Kameradatensatz (DCDS), der die Messdaten zusammen mit den Bewertungsinformationen der jeweiligen Fahrzeuge oder anderer beleuchteter und identifizierter Verkehrsobjekte enthält und somit ein vorteilhaftes Verfahren ermöglicht.
  • Beide Datensätze (LDS und DCDS) können an das Datenverarbeitungs- und Analysegerät 60 des LIDAR gesendet werden, das so konfiguriert ist, dass es die bereitgestellten Informationen vergleicht und, basierend auf mathematischen Methoden, eine kombinierte Objekterkennung und -klassifizierung durchführt oder sich einfach auf die Objekterkennung und -bewertung der Kamera verlässt und diese nur mit den vom LIDAR generierten Messdaten abgleicht.
  • Dieser Datensatz kann erneut getestet werden, ob er bestimmte Anforderungen erfüllt, z.B. Pixelvergleich, Kanten- und Formvergleich, um als zuverlässig zu gelten, und wenn nicht, kann eine neue Messung und/oder eine neue Berechnung oder ein neues Abtastverfahren durchgeführt werden.
  • Wie bereits erwähnt, führen sowohl die Kamera als auch das LIDAR-Sensorsystem die Datenmessung und -analyse selbständig durch. Wie jedoch im Folgenden beschrieben wird, wird ein Kamerasystem, das für die Fahrzeugerkennung unter Nachtfahrbedingungen optimiert ist, die Objekterkennung und die anschließende Fahrzeugkontrolle verbessern.
  • LIDAR-Messungen erzeugen 3D-Punktwolkendaten, die zur Objekterkennung und -klassifizierung verwendet werden können. Kameramessungen erzeugen einen 2D- oder im Falle einer Stereokamera einen 3D-Farbdatensatz, der auch zur Objekterkennung und -klassifikation verwendet werden kann. Eine anschließende Sensordatenfusion kann die Objekterkennung verbessern.
  • Bei nächtlichen Fahrten (einschließlich Dämmerung und Morgengrauen) kann es vorteilhaft sein, die Offenbarung des oben zitierten Standes der Technik umzusetzen. Es ist möglich, die Empfindlichkeit der farbcodierten Pixel oder die Empfindlichkeit des nachfolgenden Auslesevorgangs zu verringern, so dass nur stärkere Signale gemessen werden. Dies bedeutet, dass nur (oder hauptsächlich) die starken Signale gemessen werden, die z.B. von den beiden weißen Scheinwerfern oder den beiden roten Rücklichtern oder den beiden gelben Blinkleuchten oder von dem von den rot- oder weißreflektierenden Teilen eines Straßenschildes etc. zurückgestreuten Licht kommen, da nur diese die angewandte farbkodierte Signalerkennungsschwelle überschreiten.
  • Andererseits ist es auch möglich, die Empfindlichkeit der farbcodierten Pixel oder die Empfindlichkeit des nachfolgenden Ausleseprozesses zu erhöhen, da die Hintergrundbeleuchtung bei Nacht reduziert wird.
  • Wie bereits oben erläutert, ist es vorgesehen, einen solchen farbcodierten Pixelabstand als Hinweis auf ein Paar von Fahrzeugleuchten und damit auf ein Fahrzeug zu verwenden.
  • Die Empfindlichkeit der farbcodierten Pixel und/oder die Empfindlichkeit des anschließenden Auslesevorgangs kann in Abhängigkeit von der Umgebungslichtsituation, die von der Kamera selbst oder von einem separaten Umgebungslichtsensor, der mit der Kamera in Verbindung steht, beurteilt werden kann, aber auch in Abhängigkeit von der Fahrgeschwindigkeit des Fahrzeugs und dem Abstand zwischen Fahrzeug und Fahrzeug eingestellt werden.
  • Die Kamera 81 kann Teil des ersten LIDAR-Sensorsystems 40 und/oder des zweiten LIDAR-Sensorsystems 50 sein, oder sie kann ein eigenständiges Gerät sein, dann aber immer noch an die LIDAR-Sensorsysteme 40, 50 und/oder an andere Komponenten, wie z.B. den Sensor 52, den Sensor-Controller 53, das Datenverarbeitungs- und Analysegerät 60 und Funktionen des LIDAR-Sensorsystems 10 angeschlossen sein und kann Teil des gesteuerten LIDAR-Sensorsystems 20 sein. Die Kamera 81 kann an den Sensor 52 und/oder an den Sensor-Controller 53 und/oder an das LIDAR-Datenverarbeitungssystem 60 und/oder an ein LIDAR-Sensormanagementsystem 90 angeschlossen werden.
  • In verschiedenen Ausführungsformen kann die Kamera 81 hinsichtlich der Nachtsichtbedingungen optimiert werden. Kameras, die für den Nachtsichtbetrieb optimiert sind, können über Sensorpixel mit ausreichender (einstellbarer) Empfindlichkeit im infraroten und thermischen Wellenlängenbereich verfügen. Darüber hinaus können solche Kameras IR-Sperrfilter aufweisen, die bei geringem Umgebungslicht aus dem Kamera-Bildgebungssystem entfernt werden können. Beispielsweise können die Ausleseschwellen der Pixel in Abhängigkeit von den Nachtsichtbedingungen (Nachtbetrieb) oder in Abhängigkeit von den Dämmerungsbedingungen (Dämmerungsbetrieb) eingestellt werden. Als Beispiel kann in diesem Fall ein Nachtsichtgerät der Kamera 81 aktiv sein.
  • In verschiedenen Ausführungsformen erkennt die Kamera 81 (Block 7302 in 73) farbkodierte Pixel-Sensorsignale 7304 und leitet diese an eine kamerainterne Pixel-Analysekomponente 7306 weiter. Die kamerainterne Pixel-Analysekomponente 7306 ist so konfiguriert, dass sie die empfangenen farbcodierten Pixel-Sensorsignale 7304 analysiert (z.B. eine ausschließlich kamerabasierte vorläufige Objekterkennung und/oder Objektsegmentierung durchführt) und das Kamera-Analyseergebnis 7308 an das Datenverarbeitungs- und Analysegerät 60 des LIDAR-Sensorsystems 10 liefert. Darüber hinaus kann das zweite LIDAR-Sensorsystem 50 so konfiguriert werden, dass es die LIDAR-Sensorsignale 7310 erkennt und die erkannten LIDAR-Sensorsignale 7310 an das Datenverarbeitungs- und Analysegerät 60 liefert. Das Datenverarbeitungs- und Analysegerät 60 kann so konfiguriert werden, dass es eine LIDAR-Datenanalyse (Block 7312) der empfangenen LIDAR-Sensorsignale 7310 durchführt und das LIDAR-Analyseergebnis 7314 an eine LIDAR-interne Datenfusions- und Analysekomponente 7316 liefert (z.B. eine ausschließlich LIDAR-basierte vorläufige Objekterkennung und/oder Objektsegmentierung durchführt). Die LIDAR-interne Datenfusions- und Analysekomponente 7316 kann so konfiguriert werden, dass sie eine Datenfusion und Analyse des empfangenen Kamera-Analyseergebnisses 7308 und des LIDAR-Analyseergebnisses 7314 sowie ein Datenfusions-Analyseergebnis 7318 an das Steuerungs- und Kommunikationssystem 70 und das LIDAR-Sensormanagementsystem 90 liefert. Das Kontroll- und Kommunikationssystem 70 und das LIDAR-Sensormanagementsystem 90 können so konfiguriert werden, dass sie ein Fahrzeug und/oder das LIDAR-Sensorsystem 10 auf der Grundlage des empfangenen Fusionsanalyse-Ergebnisses 7318 steuern.
  • Verarbeitung von Kameradaten durch das LIDAR-Datenverarbeitungssystem oder das LIDAR-Datenverwaltunassvstem
  • 74 zeigt einen Ausschnitt 7400 des LIDAR-Sensorsystems 10 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen kann die Kamera 81 hinsichtlich der Nachtsichtbedingungen optimiert werden. Beispielsweise können die Ausleseschwellen der Pixel in Abhängigkeit von den Nachtsichtbedingungen (Nachtbetrieb) oder in Abhängigkeit von den Dämmerungsbedingungen (Dämmerungsbetrieb) eingestellt werden. Als Beispiel kann eine Nachtsichtausrüstung der Kamera 81 in diesem Fall aktiv sein.
  • In verschiedenen Ausführungsformen werden die von der Kamera 81 gelieferten Daten nicht weiter verarbeitet (über die reine Signalverarbeitung wie z.B. Analog-Digital-Wandlung hinaus) und/oder mit Hilfe von elektronischen Komponenten der Kamera 81 analysiert. Im Gegensatz dazu können elektronische Komponenten des LIDAR-Sensorsystems 10 wie z.B. des LIDAR-Datenverarbeitungssystems 60 und/oder des LIDAR-Sensormanagementsystems 90 zur digitalen Signalverarbeitung und/oder -analyse der von der Kamera 81 gelieferten Kamerasignale verwendet werden. Diese Ausführungsformen sind besonders interessant, wenn die Kamera 81 hinsichtlich der Nachtsichtbedingungen optimiert wird. In einem solchen Fall kann eine spezielle Nachtsichtsignalverarbeitung und/oder -analyse vorgesehen werden. Die Kamera 81 kann (fest verdrahtet oder drahtlos) farbcodierte Pixeldaten (digital oder analog) an das LIDAR-Datenverarbeitungssystem 60 und/oder an das LIDAR-Sensormanagementsystem 90 übertragen. Das LIDAR-Datenverarbeitungssystem 60 und/oder das LIDAR-Sensormanagementsystem 90 analysiert die „rohen“ farbcodierten Kameradaten und kann dann eine Sensordatenfusion mit den vom LIDAR-Sensor 52 empfangenen Sensordaten durchführen. In verschiedenen Ausführungsformen kann die Kamera 81 ein Gehäuse und eine Kameraschnittstelle (nicht abgebildet) aufweisen. Die Kamera 81 kann so konfiguriert werden, dass sie die „rohen“ farbcodierten Kameradaten über die Kameraschnittstelle an das LIDAR-Datenverarbeitungssystem 60 und/oder an das LIDAR-Sensormanagementsystem 90 zur weiteren Verarbeitung und/oder Analyse überträgt. Eine oder mehrere Komponenten (z.B. ein oder mehrere Prozessoren) des LIDAR-Datenverarbeitungssystems 60 und/oder des LIDAR-Sensormanagementsystems 90 sind so konfiguriert, dass sie die empfangenen „rohen“ farbcodierten Kameradaten weiterverarbeiten und/oder analysieren. Beispielsweise können die eine oder mehrere Komponenten so konfiguriert werden, dass sie eine Objekterkennung auf der Grundlage der „rohen“ farbcodierten Kameradaten (d.h. der RGB-Werte oder der CMY-Werte, die den jeweiligen Pixeln zugeordnet sind - oder anderer Werte, die vom verwendeten Farbraum abhängen) durchführen. Die eine oder mehrere Komponenten können aus den „rohen“ farbcodierten Kameradaten Kamera-Pixel-Abstandsdaten ermitteln und diese Kamera-Pixel-Abstandsdaten als Grundlage für die Objekterkennung verwenden.
  • Mit anderen Worten, in verschiedenen Ausführungsformen gibt der Kamerasensor (der ein CCD-Array und/oder ein CMOS-Array sein oder aufweisen kann) seine Signaldaten mit oder ohne vorherige Digitalisierung direkt an das LIDAR-Datenverarbeitungssystem 60 und/oder an das LIDAR-Sensormanagementsystem 90 aus, ohne zuvor vom kameraeigenen Datenanalysesystem verarbeitet zu werden. Dieser Datentransfer kann z.B. durch ein gemultiplextes Auslesen der Kamerapixel erfolgen.
  • Dieser Informationsfluss kann durch den LIDAR-Sensor-Controller 53 oder das LIDAR-Datenverarbeitungssystem 60 gesteuert werden, so dass die Kamera 81 und die LIDAR-Auslesungen zeitsequentiell unterschieden werden können. Zeitsequentiell kann bedeuten, dass sich die Auslesefrequenzen der beiden Sensorsignale (erstes Sensorsignal vom LIDAR-Sensor 51 und zweites Sensorsignal von der Kamera 81) auf einer Zeitskala von z.B. Mikrosekunden (|js) für einen LIDAR-Puls unterscheiden, gefolgt von einem kurzen Zeitintervall, das das Auslesen von Kamerapixeln ermöglicht (Pixel-Auslesezeitskala von ns/GHz bis ps/THz; Auslesen des gesamten Kamerabildes in der Größenordnung von 10 ms bei einer Bildfrequenz von 100 fps). Diese (oder jede andere) zeitdifferenzierte Signalbehandlung gewährleistet Datenidentität und Synchronität. Prinzipiell kann die Kamera- und LIDAR-Signalverarbeitung auch parallel erfolgen, wenn die Systeme so konfiguriert sind.
  • Das Datenverarbeitungs- und Analysegerät 60 des LIDAR kann so konfiguriert werden, dass es die von der Kamera 81 und dem LIDAR-Sensor 52 gelieferten Informationen vergleicht und, basierend auf mathematischen Verfahren, eine kombinierte Objekterkennung und -klassifikation durchführt. Dazu kann das bereits beschriebene Pixel-Mittenabstand-Messverfahren gehören. Erfüllen die objekterkennenden Daten bestimmte Anforderungen, z.B. Pixelvergleich, Kanten- und Formvergleich, gelten sie als zuverlässig, andernfalls muss eine neue Messung und/oder eine neue Berechnung oder ein neues Abtastverfahren durchgeführt werden.
  • Das LIDAR-Datenverarbeitungssystem 60 kann dann, basierend entweder auf den Kameraergebnissen (B) oder den LIDAR-Ergebnissen (A) oder den kombinierten Ergebnissen (C = A * B), Rückmeldung an das LIDAR-Sensormanagementsystem 90 geben, um den Abtastvorgang zu beeinflussen, z.B. einen Abtastvorgang zu wiederholen oder einen bestimmten FoV-Bereich mit höherer Intensität oder Genauigkeit abzutasten).
  • Sowohl LIDAR-Sensorsignale als auch Kamerasensorsignale benötigen in der Regel zu einem bestimmten Zeitpunkt eine Digitalisierung.
  • Das oben beschriebene Verfahren wird nun ausführlicher erläutert.
    • - Kamera-Pixelzuordnung:
      • Für eine gegebene Kamera-Optik-Kombination ist die Beziehung zwischen jedem farbcodierten Kamera-Sensorpixel und dem zugehörigen Winkel-Kamera-Sichtfeld (ACV) bekannt. Der pixelbezogene ACV-Wert entspricht dem Sichtfeld-Raumwinkel, der auf ein bestimmtes CCD-Pixel projiziert wird. Ändert sich eine Kamera-Optik-Kombination (Objektiv, Blende, Fokus), weil sie während des Messvorgangs angepasst wird, sind diese Winkelbeziehungen ebenfalls bekannt und können durch einen neuen ACVi-Wert dargestellt werden, mit Index i = tatsächliche Kamerakonfiguration.
    • - Abbildung der CCD-Pixel der Kamera mit dem jeweiligen Blickwinkel und Speicherung der Daten:
      • Solche (konstanten oder sich ändernden) Pixel-ACV-Beziehungen können durch die Erzeugung einer Kamera-Sensor-Pixel-ACV-Beziehungs-Matrix (CSPACVM) abgebildet werden. Das Speichermedium für eine solche Matrix oder Matrizen kann sich innerhalb der Kamera 81 befinden oder, als Teil der unten beschriebenen Aspekte dieser Offenbarung, an einen anderen Ort im Fahrzeug übertragen und dort gespeichert werden, z.B. in den Sensor-Controller 53 oder das LIDAR-Datenverarbeitungssystem 60.
    • - Abbildung von LIDAR-Sensorpixeln mit entsprechendem Blickwinkel:
      • Da darüber hinaus für eine bestimmte LIDAR-Sensoroptik auch die Beziehung zwischen jedem LIDAR-Sensorpixel und seinen Winkel-LIDAR-Sichtfeldwerten (ALV) zu einem bestimmten Zeitpunkt bekannt ist, können diese Beziehungen ebenfalls in einer LIDAR-Sensor-Pixel-ALV-Beziehungs-Matrix (LSPALVM) gespeichert werden.
    • - Für Flash/Blitz-Gerät oder Scan-Gerät:
      • Bei einem LIDAR-Blitzmessverfahren ändert sich diese LSPALVM-Beziehung mit der Zeit nicht, da sich die Anordnung(en) der LIDAR-Sensoroptik(en) nicht ändert (ändern). Bei einem LIDAR-Abtastverfahren sind die Winkelbeziehungen für jeden Messzeitpunkt bekannt und können wiederum als zeitabhängige LIDAR-Sensor-Pixel-ALV-Beziehungs-Matrizen (LSPALVM) gespeichert werden. Eine solche Matrix oder Matrizen können wie oben beschrieben z.B. in den LIDAR-Sensor-Controller 53 oder in das LIDAR-Datenverarbeitungssystem 60 übertragen und gespeichert werden.
    • - LIDAR-Voxel-Matrix gespeichert werden:
      • Das LIDAR-Laufzeitverfahren misst den Abstand zu detektierten Objekten, d.h. jedem detektierten Objekt oder Teil eines Objekts kann ein Abstandswert zugeordnet werden. Diese Abstandswerte definieren zusammen mit den LIDAR-Sensor-Pixel-ALV-Beziehungs-Matrizen (LSPALVM) einen Gitterpunkt in einem 3-dimensionalen Raum, auch Voxel genannt, dessen Koordinaten im Raum dann berechnet werden können. Diese relationalen Daten können dann in einer LIDAR-Sensor-Pixel-Voxel-Beziehungs-Matrix (LSPVM) gespeichert werden.
  • Die Kamera-Sensor-Pixel-ACV-Beziehungs-Matrix (CSPACVM) und die LIDAR-Sensor-Pixel-Voxel-Beziehungs-Matrix (LCPVM) können zueinander in Relation gesetzt werden und diese Relationswerte können in einer Kamera-LIDAR-Voxel-Beziehungs-Matrix (CLVRM) gespeichert werden.
  • Es ist zu beachten, dass solche Kamera-Pixel-LIDAR-Voxel-Beziehungen möglicherweise keine 1 :1-Beziehung sind, da es normalerweise eine unterschiedliche Anzahl von Kamera-Sensorpixeln und LIDAR-Sensorpixeln oder Voxels gibt. Daher muss z.B. mindestens eine einmalige Zuordnung von Pixel zu Voxel vorgenommen werden, aber die Zuordnung kann im Laufe einer Messung angepasst werden.
  • In jedem Fall basieren einige der unten beschriebenen Aspekte dieser Offenbarung auf solchen relationalen Datenmatrizen.
  • Es ist zu beachten, dass Kameras nur für Nachtsichtanwendungen oder für Tageslicht- und Nachtsichtanwendungen ausgelegt sein können, wenn auch dann mit unterschiedlicher Farbempfindlichkeit.
  • Es ist auch möglich, Pixel-Filter-Muster zu verwenden, die für die Erkennung von Scheinwerferstrahlung, Bremslichtstrahlung, gelber Anzeige- oder Signalbeleuchtung usw. optimiert sind. Zum Beispiel kann das Pixel-Filter-Muster einen höheren Anteil an rot- oder gelbgefilterten Pixeln haben, z.B. 25% grün, 50% rot und 25% gelb oder 25% grün, 25% rot und 50% gelb, und/oder ein optimiertes Muster von farbcodierten Pixeln, wie eine Gruppierung von gleichfarbigen Pixeln.
  • Es wird auch verstanden, dass Kamera- und LIDAR-Pixel ausgelesen werden müssen, z.B. mittels A/D-Wandler und bitaufgelöster Digitalisierung.
  • Um den in 74 dargestellten Prozessablauf in verschiedenen Ausführungsformen zusammenzufassen, erkennt die Kamera 81 farbkodierte Pixel-Sensorsignale 7304 und leitet diese an eine Analysekomponente 7402 des Datenverarbeitungs- und Analysegerätes 60 des LIDAR-Sensorsystems 10 weiter. Darüber hinaus kann das zweite LIDAR-Sensorsystem 50 so konfiguriert werden, dass es die LIDAR-Sensorsignale 7310 erfasst und die erfassten LIDAR-Sensorsignale 7310 an die Analysekomponente 7402 des Datenverarbeitungs- und Analysegeräts 60 des LIDAR-Sensorsystems 10 weiterleitet. Die Analysekomponente 7402 ist so konfiguriert, dass sie die empfangenen farbcodierten Pixel-Sensorsignale 7304 analysiert (z.B. eine ausschließlich kamerabasierte vorläufige Objekterkennung und/oder Objektsegmentierung durchführt) und das Kamera-Analyseergebnis 7308 an die LIDAR-interne Datenfusions- und Analysekomponente 7316 liefert. Die Analysekomponente 7402 des Datenverarbeitungs- und Analysegerätes 60 kann ferner so konfiguriert werden, dass sie eine LIDAR-Datenanalyse der empfangenen LIDAR-Sensorsignale 7310 durchführt (z.B. eine ausschließlich LIDAR-basierte vorläufige Objekterkennung und/oder Objektsegmentierung durchführt) und das LIDAR-Analyseergebnis 7314 der LIDAR-internen Datenfusions- und Analysekomponente 7316 zuführt. Die LIDAR-interne Datenfusions- und Analysekomponente 7316 kann so konfiguriert werden, dass sie eine Datenfusion und Analyse des empfangenen Kamera-Analyseergebnisses 7308 und des LIDAR-Analyseergebnisses 7314 sowie ein Datenfusions-Analyseergebnis 7318 an das Steuerungs- und Kommunikationssystem 70 und das LIDAR-Sensormanagementsystem 90 liefert. Das Steuer- und Kommunikationssystem 70 und das LIDAR-Sensormanagementsystem 90 können so konfiguriert werden, dass sie ein Fahrzeug und/oder das LIDAR-Sensorsystem 10 auf der Grundlage des empfangenen Fusionsanalyse-Ergebnisses 7318 steuern.
  • Verarbeitung von Kameradaten durch das zweite LIDAR-Sensorsystem
  • 75 zeigt einen Ausschnitt 7500 des LIDAR-Sensorsystems 10 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen kann die Kamera 81 hinsichtlich der Nachtsichtbedingungen optimiert werden. Beispielsweise können die Ausleseschwellen der Pixel in Abhängigkeit von den Nachtsichtbedingungen (Nachtbetrieb) oder in Abhängigkeit von den Dämmerungsbedingungen (Dämmerungsbetrieb) eingestellt werden. Der Begriff Nachtsicht umfasst hier die gesamten Lichtverhältnisse zwischen Dämmerung und Tagesanbruch, die natürliche und künstliche Beleuchtungsszenarien umfassen. Als Beispiel kann in diesem Fall ein Nachtsichtgerät der Kamera 81 aktiv sein.
  • In verschiedenen Ausführungsformen darf weder im LIDAR-Sensor 52 noch in der Kamera 81 eine Datenanalyse durchgeführt werden. Die „rohen“ Kameradaten können von einer oder mehreren Komponenten (z.B. einem oder mehreren Prozessoren) des zweiten LIDAR-Sensorsystems 50 weiterverarbeitet und/oder analysiert werden. Dies kann in einem Beispiel vorteilhaft sein, in dem die Kamera 81 wie oben beschrieben für den Nachtsicht-Betriebsmodus optimiert ist. Die Kamera 81 kann die farbcodierten Pixeldaten (digitale oder analoge Pixeldaten) direkt an den Ausleseanschluss des LIDAR-Sensors Pixel 52 übertragen. In diesem Fall wird davon ausgegangen, dass der Auslesevorgang der LIDAR-Sensor-Pixel vom LIDAR-Sensor-Controller 53 gesteuert und ausgeführt wird. Um dies zu erreichen, können ein oder mehrere Kameraschalter im LIDAR-Sensorsystem 10 vorgesehen werden, um den Kamerasensor direkt mit z.B. dem LIDAR-Sensor-Controller 53 oder dem LIDAR-Datenverarbeitungssystem 60 und/oder dem LIDAR-Sensor-Management-System 90 zu verbinden.
  • Im Falle einer LIDAR-Messung wird der LIDAR-Schalter geschlossen und der Kameraschalter geöffnet, so dass nur die LIDAR-Sensorsignale ausgelesen werden.
  • Im Falle einer Kameramessung ist der LIDAR-Schalter geöffnet und der Kameraschalter geschlossen, so dass nur die (evtl. vorverarbeiteten) Kamerasensorsignale ausgelesen und von den Komponenten des zweiten LIDAR-Sensorsystems 50 weiterverarbeitet werden.
  • Das zweite LIDAR-Sensorsystem 50 kann eine oder mehrere nachfolgende LIDAR-Messungen auf der Grundlage der Kamerasensordaten ändern.
  • In verschiedenen Ausführungsformen sind eine Vielzahl von Schaltern vorgesehen, um ein Kamerasensor-Pixel direkt mit einem zugehörigen LIDAR-Sensor-Pixel 52 zu verbinden. Dazu ist eine Kamera-Pixel-zu-LIDAR-Pixel-Abbildung vorgesehen, die z.B. in einer Entwurfsphase der Schaltungen vorgegeben werden kann.
  • In der Nachtsicht-Betriebsart (z.B. während einer Nachtfahrt) und damit unter Nachtsichtbedingungen kann die Ausleseempfindlichkeit der Kamerapixel bei der Kameramessung oder dem Auslesevorgang der Kamerapixel erheblich reduziert sein. In diesem Fall nur die starken Signale von Scheinwerfern eines Fahrzeugs (z.B. weißes Licht), von Rücklichtern eines Fahrzeugs (z.B. rotes Licht), von Signalleuchten eines Fahrzeugs (z.B. gelbes Licht). Dies kann die Signalanalyse und -auswertung vereinfachen. Die Ausleseempfindlichkeit der Kamerapixel kann in Abhängigkeit vom Dämmerungsgrad eingestellt werden. Beispielsweise kann ein Kamera-Sensorpixel ausgelesen werden (z.B. durch das zweite LIDAR-Sensorsystem 50), wenn das Kamera-Sensorpixelsignal die jeweils zugehörige Ausleseschwelle überschreitet.
  • In verschiedenen Ausführungsformen kann eine direkte Verdrahtung und Datenübertragung von ausgelesenen Kamerapixel zu den kartierten LIDAR-Sensorpixeln vorgesehen werden. Eine Verwendung einer einmaligen Abbildung, z.B. für ein Flash-LIDAR, wird im Folgenden näher beschrieben.
  • Die farbcodierten Pixel der Kamera oder eine Gruppe solcher Pixel werden auf die Sensorpixel des LIDAR-Sensorelements 52 abgebildet, die auf die gleichen Sichtfeld-Segmente oder Voxels wirken, und elektrisch verbunden (fest verdrahtet oder monolithisch). Für die Abbildung kann eine der oben beschriebenen (konstanten) relationalen Matrizen verwendet werden. Dabei ist es günstig, wenn Kamera- und LIDAR-Sensorelemente möglichst nahe beieinanderliegen, z.B. auf dem gleichen Substrat oder sogar monolithisch hergestellt werden, so dass die Festverdrahtung vereinfacht wird. Ein solches Pixel-Voxel-Mapping kann einmalig beim Entwurf und der Implementierung des Kamera-LIDAR-Systems (d.h. des LIDAR-Sensorsystems 10) durchgeführt werden. Unter elektrisch verbunden ist zu verstehen, dass die Kamera-Sensorpixel oder die Gruppe von Kamera-Sensorpixeln mit den jeweiligen LIDAR-Sensor-Ausleseanschlüssen verbunden sind, allerdings nicht direkt, sondern über einen elektronischen Schalter. Die Signale der Kamera-Sensorpixel stören somit eine laufende LIDAR-Messung nicht (LIDAR-Schalter geschlossen, Kamera-Schalter offen), sondern werden nur innerhalb des Kamera-Messzeitfensters (Kamera-Schalter geschlossen, LIDAR-Schalter offen) verwendet und können dann von der LIDAR-Daten- und Signalverarbeitung 60 und/oder dem LIDAR-Sensor-Management-System 90 verarbeitet werden.
  • Das Kamerasensorsystem 81 und das erste LIDAR-Sensorsystem 40 sowie das zweite LIDAR-Sensorsystem 50 können sequentiell arbeiten, d.h. nach einer bestimmten Anzahl von LIDAR-Messungen werden ein (oder mehrere) Zeitschlitz(e) für Kameramessungen und Auslesungen, auch Bildfrequenz genannt, reserviert. Bei einer Kamera 81 mit 100 fps (Rahmen/Frames pro Sekunde) kann jeder Rahmen/Frame, der Tausende von Sensorpixeln enthält, mit 1/100 Sekunden oder 10 ms aufgenommen werden. Eine höhere Kamerabildfrequenz kann zu einem kürzeren Ausleseintervall führen. Wenn die farbcodierten Kamera-Sensorpixel ein Signal messen, werden deren abgebildete Sensorsignale an die jeweils angeschlossenen LIDAR-Sensorpixel (d.h. Fotodioden, z.B. Fotodioden 2602) übertragen, während das erste LIDAR-Sensorsystem 40 keinen Laserpuls aussendet, und können dann mit dem LIDAR-Auslesegerät des LIDAR-Sensorcontrollers 53 gemessen und dann mit dem LIDAR-Datenverarbeitungssystem 60 und/oder dem LIDAR-Sensormanagementsystem 90 weiterverarbeitet werden.
  • Während der Kamera-Auslesezeit oder nach einer ersten Kamera-Auslesezeit kann der LIDAR-Sensor-Controller 53 die Einstellungen der LIDAR-Sensoren 52 oder des LIDAR-Sensor-Auslesegeräts ändern. Das bedeutet, dass der LIDAR-Sensor-Controller 53 in einer nachfolgenden LIDAR-Messperiode z.B. die Empfindlichkeit des zugehörigen LIDAR-Sensorpixels erhöhen und/oder einen höheren Verstärkungsfaktor auf die zugehörigen Sensorpixel anwenden und/oder den Verstärkungsfaktor anderer Pixelelemente, die nicht mit den von der Kamera identifizierten farbigen Sichtfeld-Voxeln korreliert sind, reduzieren kann, um die Latenzzeit und Genauigkeit der Objekterkennung zu verbessern.
  • Die Kamerasignale können vorverarbeitet werden, um sie an die LIDAR-Sensorerkennungsfähigkeiten des zweiten LIDAR-Sensorsystems 50 anzupassen.
  • In verschiedenen Ausführungsformen gibt, wie bereits erläutert, ein Kamerasensor 81 (CCD, CMOS) die Signaldaten mit oder ohne vorherige Digitalisierung direkt an das LIDAR-Sensorelement 52 aus, z.B. durch direkte Verdrahtung der Kamerasensorchips mit den LIDAR-Sensorchips 52 und/oder direkt an den Sensorcontroller 53 des zweiten LIDAR-Sensorsystems 50, um ohne das kameraeigene, in der Regel fortgeschrittene Analyseverfahren der Kamera verwendet werden zu können und so zu schnelleren Ergebnissen zu führen.
  • Mit anderen Worten: Anstatt die Daten des Kamerasensors durch ein Kameradatenverarbeitungs- und -analysegerät oder an das LIDAR-Datenverarbeitungssystem 60 zu leiten, werden sie direkt an das LIDAR-Sensorelement 52 oder an den LIDAR-Sensor-Controller 53 gesendet, so dass dessen Daten in Kombination mit sequentiell gewonnenen LIDAR-Signaldaten zur Erstellung einer (gemeinsamen) Punktwolke verwendet werden können. Diese Methode hat den Vorteil, dass die Kameradaten direkt und unmittelbar genutzt werden können.
  • Die Datenübertragung vom Kamerasensor 81 zu einem LIDAR-Sensorchip 52 und/oder zum LIDAR-Sensor-Controller 53 kann z.B. durch gemultiplextes Auslesen der Pixel des Kamerasensors erfolgen. Dieser Informationsfluss kann auch durch den Lidar-Sensor-Controller 53 gesteuert werden, so dass die Kamera- und LIDAR-Auslesungen voneinander unterschieden werden können.
  • In beiden Fällen kann der Lidar-Sensor-Controller 53 dann eine zeitsequenzielle Messung der LIDAR-Sensorinformationen und der Kamerasensorinformationen durchführen. Zeitsequentiell kann bedeuten, dass die Auslesefrequenzen der beiden Sensorsignale auf einer Zeitskala von z.B. Mikrosekunden (|js) für einen LIDAR-Impuls unterschiedlich sind, gefolgt von einem kurzen Zeitintervall, das das Auslesen von Kamerapixel (Zeitskala von ns/GHz bis ps/THz) oder von Rahmen/Frames (ms) ermöglicht.
  • Die LIDAR- und Kameradaten können dann an das LIDAR-Datenverarbeitungssystem 60 gesendet werden, das die Sensorfusionsfunktion 63 enthält, und auf verschiedenen Zeitskalen verarbeitet werden, z.B. Mikrosekunden (ps) für eine LIDAR-Impulsmessung, gefolgt von einem kurzen Zeitintervall, das das Auslesen von Kamerapixeln (Zeitskala von ns/GHz bis ps/THz) oder das Auslesen von Rahmen/Frames (ms) ermöglicht - es sei denn, die Datenanalyse- und Recheneinheit 62 ist in der Lage, eine parallele Datenanalyse durchzuführen. Diese zeitdifferenzierte Signalbehandlung gewährleistet Datenidentität und Synchronität.
  • Das Lidar-Datenverarbeitungssystem 60 kann dann, basierend entweder auf den Kamera-Ergebnissen (B) oder den LIDAR-Ergebnissen (A) oder den kombinierten Ergebnissen (C = A * B), Rückmeldung an das LIDAR-Sensormanagement-System 90 geben, um den Abtastvorgang zu beeinflussen, z.B. einen Abtastvorgang zu wiederholen oder einen bestimmten FoV-Bereich mit höherer Intensität und besserer Genauigkeit abzutasten.
  • Um den Prozessablauf wie in 75 dargestellt zusammenzufassen, erkennt die Kamera 81 in verschiedenen Ausführungsformen die farbcodierten Pixel-Sensorsignale 7304 und leitet diese an das zweite LIDAR-Sensorsystem 50 weiter, z.B. direkt an die LIDAR-Sensorpixel (mit einer 1-zu-1-Abbildung (in der Regel mit einer n-zu-m-Abbildung) der Kamera-Sensorpixel und der LIDAR-Sensorpixel). Der Sensor-Controller 53 kann so konfiguriert werden, dass entweder die farbcodierten Pixel-Sensorsignale 7304 der Kamera (in einem ersten Auslesemodus) (Block 7502) oder die vom LIDAR-Sensor 52 erfassten und bereitgestellten LIDAR-Sensorsignale 7310 (in einem zweiten Auslesemodus) (Block 7504) sequentiell ausgelesen werden. Der LIDAR-Sensor 52 detektiert keine LIDAR-Signale, wenn der Sensor-Controller 52 das zweite LIDAR-Sensorsystem 50 im ersten Auslesemodus betreibt. Mit anderen Worten, im ersten Auslesemodus werden die farbcodierten Pixelsignale von der Kamera 81 direkt an die LIDAR-interne Datenfusions- und Analysekomponente 7316 weitergeleitet. Das zweite LIDAR-Sensorsystem 50 kann so konfiguriert werden, dass es die ausgelesenen Signale an die LIDAR-interne Datenfusions- und Analysekomponente 7316 sendet. Die LIDAR-interne Datenfusions- und Analysekomponente 7316 kann so konfiguriert werden, dass sie eine Datenfusion und Analyse der empfangenen kamerafarbencodierten Pixel-Sensorsignale 7304 und der detektierten LIDAR-Sensorsignale 7310 sowie ein Datenfusions-Analyseergebnis 7318 an das Steuer- und Kommunikationssystem 70 und das LIDAR-Sensormanagementsystem 90 liefert. Das Steuer- und Kommunikationssystem 70 und das LIDAR-Sensormanagementsystem 90 können so konfiguriert werden, dass sie ein Fahrzeug und/oder das LIDAR-Sensorsystem 10 auf der Grundlage des empfangenen Fusionsanalyse-Ergebnisses 7318 steuern.
  • Wie in verschiedenen Ausführungsformen beschrieben, kann eine grundlegende Vorverarbeitung durch das kameraeigene Datenverarbeitungs- und Analysegerät, wie z.B. Filtern, Glätten und Zusammenführen von Datensignalen zu Metadaten, vorgesehen werden. In diesem Fall kann der LIDAR-Sensor-Controller 53 die Kamerasignale unterschiedlich behandeln.
  • In verschiedenen Ausführungsformen können das Kamerasensorsystem und das LIDAR-Sensorsystem das gleiche Sensorelement verwenden, zum Beispiel für einen blauen LIDAR-Strahl.
  • In verschiedenen Ausführungsformen können das Kamerasensorsystem und das LIDAR-Sensorsystem das gleiche Detektor-(Sensorelement) Layout und/oder die gleiche geometrische und/oder funktionelle Architektur aufweisen.
  • In verschiedenen Ausführungsformen können das Kamerasensorsystem und das LIDAR-Sensorsystem das gleiche Detektor-(Sensorelement) Layout und/oder die gleiche geometrische und/oder funktionelle Architektur aufweisen, sich aber hinsichtlich ihrer Empfindlichkeit für eine bestimmte Wellenlänge (z.B. 850 nm gegenüber 905 nm) unterscheiden.
  • In verschiedenen Ausführungsformen kann der Informationsfluss und der Datenanalyseprozess umgekehrt werden, z.B. basierend auf vordefinierten Priorisierungseinstellungen, so dass (unverarbeitete oder vorverarbeitete) LIDAR-Pixelinformationen einem Kamera-Sensor-Controller zugeführt werden, um das Auslesen der Pixel zu beeinflussen.
  • Sowohl LIDAR-Sensorsignale als auch Kamerasensorsignale benötigen in der Regel zu einem bestimmten Zeitpunkt eine Digitalisierung.
  • Alle oben beschriebenen Ausführungsformen und Verfahren eignen sich besonders für den Umgang mit nächtlichen Fahrbedingungen. Der Grund dafür ist, dass Scheinwerfer und andere Leuchten (Schluss-, Brems-, Signallicht) von vorausfahrenden und entgegengesetzt fahrenden Fahrzeugen beleuchtet werden und somit von einem Kamerasystem leicht erkannt werden können, während bei einem LIDAR-System kein großer Unterschied zwischen Tages- und Nachtlichtsituationen besteht. Da die Hintergrund-(Geräusch-)Beleuchtungsstärken in der Regel viel schwächer sind als das Scheinwerferlicht eines Autos (oder die Brems-, Schluss- und Signallampen eines Autos oder Straßenlaternen, Straßenpfosten, Ampeln oder Reflexionen von Straßenschildern), kann die entsprechende Signalverarbeitung und SNR-Optimierung durch eine Kamera einfacher durchgeführt werden.
  • Natürlich können diese Verfahren auch tagsüber vorteilhaft eingesetzt werden, wenn Autos mit beleuchteten Scheinwerfern oder mit Rück-, Nebel-, Schluss-, Rück- und Blinkleuchten fahren, denn ein Kamerasensor sieht grundsätzlich ein oder zwei helle Punkte.
  • Es ist natürlich auch möglich, eine infrarotempfindliche Kamera zu verwenden, die dann in ähnlicher Weise ein oder zwei helle Infrarotpunkte erkennt. Bei der dualen Nutzung von sichtbaren und infraroten Kamerafunktionen können die jeweiligen Sichtfelder unterschiedlich sein.
  • In einem zweiten (parallelen) Weg können die Kameradaten natürlich auch konventionell verarbeitet werden.
  • Dieser direkte ein- oder bidirektionale (siehe unten) Datenaustausch wird als Datenverbindungen 82a und 82b bezeichnet.
  • Alle beschriebenen Ausführungsformen können für die Steuerung und Lenkung eines Fahrzeugs verwendet werden.
  • Um die oben beschriebenen Ansätze zu ermöglichen, sind die folgenden Beschreibungen und Verfahrendetails zu verstehen und zu befolgen.
  • Komponenten einer CCD / CMOS Kamera:
  • Die Kamera 81 verwendet ein CCD- oder CMOS-Sensorarray.
    • - Filter: In der Regel befinden sich oben auf dem Sensorarray Farb- oder Infrarotfilter (in verschiedenen Layouts, z.B. verschiedene Bayer-Filter-Konfigurationen). Alternativ oder zusätzlich kann eine Kamera eine Foveon-Farbabtastmethode verwenden.
    • - Ein Mikrolinsenarray kann auf einem Farbfilter-Pixelarray platziert werden, z.B. so, dass jede Mikrolinse des Mikrolinsenarrays mindestens einem Farbfilter-Pixel des Farbfilter-Pixelarrays entspricht.
    • - Vor all dem kann ein (eventuell verstellbares) Kameraobjektiv platziert werden.
    • - Pixelsignale (Active Pixel Sensor (APS)) können auch mit einem Analog-Digital-Wandler (ADC) digitalisiert werden.
  • Ausrichtung von Kamera-Sichtfeld und LIDAR-Sichtfeld
  • Um einige der vorgeschlagenen Ausführungsformen zu ermöglichen, sollte die Beziehung zwischen Kamerapixeln und ihrem jeweiligen Sichtfeld bekannt sein. Dies kann durch eine einmalige Kalibrierung erfolgen, die zu einer bekannten Beziehung zwischen einem Kamerapixel (Anzahl xy eines Pixelarrays) oder einer Kamera-Metapixelgruppe und dem korrelierten FoV führt.
  • Bei abweichenden Pixelauflösungen, da die Auflösung eines Kamerasystems in der Regel deutlich höher ist als die eines LIDAR-Systems, können die Pixel des einen Sensorsystems, z.B. der Kamera 81, zu größeren Super-Pixeln (Meta-Pixeln) zusammengeführt werden, um eine identische Auflösung wie das andere Sensorsystem, z.B. das LIDAR-Sensorsystem, zu erreichen. Da ein LIDAR-Sensor (Flash/Blitz oder Scan) auch zeitkorreliert zu einem Voxel ist, kann eine Korrelation zwischen Kamera und LIDAR-Voxel hergestellt werden (wie oben beschrieben).
  • In verschiedenen Ausführungsformen können eine Stereokamera und/oder viele Kameras verwendet werden, um die korrekte Voxel-Beziehung zwischen LIDAR-Kamera und Voxel weiter zu etablieren.
  • Es könnte sogar eine kontinuierliche adaptive Justage der optischen Kamerakomponenten (Linse, Spiegel, Filter) erfolgen, z.B. durch Schwingspulen, die die genannten optischen Teile bewegen, z.B. vibrieren, und das LIDAR-Sensorsystem, das mit der Kamerasensorik kommuniziert und diese z.B. in Bezug auf Abstand/Reichweite der detektierten Objekte und/oder in Abhängigkeit von der Fahrzeuggeschwindigkeit beeinflusst und so eine Justage der optischen Kamerateile initiiert, so dass LIDAR-Voxel- und Kamera-FoV-Werte korreliert und adaptiv für eine aktuelle Fahr- oder Messsituation optimiert werden.
  • Signal auslesen
  • Wie in verschiedenen Ausführungsformen beschrieben, können die Signale der Kamera-Sensorpixel (oder Meta-Pixel) direkt dem LIDAR-Sensorelement 52 und/oder dem LIDAR-Sensor-Controller 53 und/oder dem LIDAR-Datenverarbeitungsgerät 60 zugeführt werden. Dies kann in sequentieller Weise durch ein Kamera-Multiplexer-Auslesegerät erfolgen. Dies bedeutet, dass der LIDAR-Sensor-Controller 53 und/oder die LIDAR-Datenverarbeitungseinrichtung 60 identifizierbare (FoV-korrelierte) pixelbezogene Signale von der Kamera 81 empfangen.
  • LlDAR-Sensor-Controller und/oder das LIDAR-Datenverarbeitungsgerät
  • Nach dem Empfang der Pixel-Signale der Kamera kann jedes dieser Geräte die Pixel-Impulshöhe oder Pixel-Intensität bewerten. Darüber hinaus kennen diese Geräte aufgrund der oben erwähnten Vorkalibrierung auch die zugehörigen Kamera-FoV- und LIDAR-Voxel-Beziehungen und können dann diese Kamerapixelsignale den voxelkorrelierten LIDAR-Pixelsignalen überlagern (überlagern). Die Überlagerung kann eine 1:1-Summierung sowie Summierungen mit anderen, z.B. gewichteten Beziehungen beinhalten, um bestimmte Aspekte hervorzuheben oder um die Signale des einen oder anderen Sensors zu priorisieren. Als Ergebnis dieser Überlagerung weisen die kombinierten Signale (CS) eine überlegene Datenqualität auf, z.B. in Bezug auf SNR (Signal-Rausch-Verhältnis) und Kontrast (z.B. Verhältnis zwischen hellen und dunklen Pixeln).
  • Darüber hinaus können entweder die Kamerasignale oder, in verschiedenen Ausführungsformen, die kombinierten Signale dem LIDAR-Sensormanagement-System zugeführt werden, das dann entscheiden kann, wie darauf zu reagieren ist. Dies kann z.B. zu einer präziseren Abtastung des angezeigten Fahrzeug-Voxels, z.B. mit einer höheren Winkelauflösung, oder zu einer Abtastung mit höherer LIDAR-Impulsintensität (oder mit einer alternativen oder zusätzlichen Wellenlänge) führen.
  • Ein weiterer Effekt besteht darin, dass die Kamera die Scheinwerfer (Abblend- und Fernlicht) von entgegengesetzt sich nähernden Fahrzeugen leicht erkennt und diese Informationen (wie oben beschrieben) direkt an den LIDAR-Sensor-Controller und/oder das LIDAR-Datenverarbeitungsgerät weiterleitet. Da die korrelierten Kamera-FoV-Werte bekannt sind und diese entweder innerhalb oder ausserhalb des LIDAR-FoV liegen können, können entsprechende Maßnahmen ergriffen werden.
  • In verschiedenen Ausführungsformen kann das Auslesen der Kamera (z.B. zeitsequentiell) als Funktion des farbgefilterten Sensorsignals erfolgen. Dies ermöglicht eine weitere Signalverarbeitung, da bestimmte Objekte (wie ein Autoscheinwerfer, eine Straßenlampe, ein Bremslicht, ein Verkehrsschild) weißes / gelbes / rotes Licht mit einer bestimmten Farbtemperatur oder einem bestimmten Farbpunkt abstrahlen (oder reflektieren). Das bedeutet, dass die Kamera farbgefilterte, z.B. zeitsequentiell gefilterte Pixel-Signale an den LIDAR-Sensor senden kann.
  • Darüber hinaus kann Infrarotstrahlung, die mit der Beleuchtung eines Scheinwerfers oder einer anderen Beleuchtungseinrichtung verbunden ist, in gleicher Weise verwendet werden.
  • Übertragung von Kamerasignalen
  • Die Pixel-Signale der Kamera können über die elektronische Steuereinheit (ECU) des Fahrzeugs oder, wenn Kamera und LIDAR nebeneinander angeordnet oder anderweitig kombiniert sind, über direkte Festverdrahtung an den LIDAR-Sensor-Controller und/oder das LIDAR-Datenverarbeitungsgerät übertragen werden. Auch drahtlose Kommunikation ist möglich. In einer Ausführung können ein LIDAR-Sensorpixel und ein IR-Kamera-Sensorpixel gleich sein und/oder sich auf dem gleichen Substrat befinden.
  • Prioritätensetzung
  • Im Idealfall können sowohl die Pixel-Signale des Kamera-Sensors als auch die Pixel-Signale des LIDAR-Sensors mit der gleichen Priorität vom (zentralen oder peripheren) Datenanalyse- und Kommunikationssystem (Rechensystem) 60 oder vom LIDAR-Sensor-Management-System 90 verarbeitet werden. Es könnte jedoch der Fall eintreten, dass nicht genügend Rechenleistung zur Verfügung steht oder die Ressourcen anderweitig begrenzt sind, was zu einer Engpasssituation bei der Datenverarbeitung und/oder -analyse führt. Daher kann eine Priorisierung der Datenverarbeitung vorgenommen werden. So könnten z.B. unterschiedliche Sensorergebnisse bei der Konstruktion einer 3D-Punktwolke und der anschließenden Datenanalyse berücksichtigt und/oder in unterschiedlicher (zeitsequentiellen) Reihenfolge gewichtet werden, um eine zuverlässige Abbildung der Umgebung zu erzeugen. Auch hier können solche Sensor-Punktwolken im Allgemeinen mehrdimensional sein.
  • Je nach äußeren Bedingungen wie Wetter, Tageszeit, Umgebungslicht, aber auch Geschwindigkeit (wegen der Reichweite) könnten verschiedene Priorisierungsmethoden optimal sein (Priorisierungsmatrix). So könnte z.B. bei Regen und geringer Geschwindigkeit in der Nacht ein Radar die höchste Priorität haben, während tagsüber bei gutem Wetter und mittlerer Geschwindigkeit die Sensordaten der Kamera eine höhere Priorität haben könnten, oder ein LIDAR-Sensorsystem bei hoher Geschwindigkeit oder starker Blendung (z.B. durch sichtbares Licht).
  • Es ist zu verstehen, dass Aspekte dieser Offenbarung in beliebiger Reihenfolge und in beliebiger Kombination kombiniert werden können, insbesondere können FoV-korrelierte Kamera-Sensorpixeldaten direkt an das LIDAR-Sensorelement 52 und an den LIDAR-Sensorcontroller 53 übermittelt werden, wodurch die Wahrscheinlichkeit einer zuverlässigen Objekterkennung erhöht wird. Eine andere Kombination ist, wenn voxel-korrelierte Kamerasensor-Pixeldaten direkt an den LIDAR-Sensor-Controller 53 und an das LIDAR-Datenverarbeitungsgerät 60 gesendet werden.
  • Es ist zu verstehen, dass die in dieser Offenbarung beschriebenen Ausgestaltungen in einem nicht flüchtigen computerlesbaren Medium verkörpert sein können.
  • Grundlegende Beschreibung des LIDAR-Sensorsystems
  • Das LIDAR-Sensorsystem 10 kann das erste LIDAR-Sensorsystem 40 aufweisen, das eine Lichtquelle 42 aufweisen kann, die so konfiguriert ist, dass sie elektromagnetische oder andere Strahlung 120 aussendet, z.B. eine kontinuierliche oder gepulste Laserstrahlung im blauen und/oder infraroten Wellenlängenbereich, einen Lichtquellen-Controller 43 und zugehörige Software, Strahlsteuerungs- und Modulationsgeräte 41, z.B. Lichtlenk- und Reflexionsgeräte, z.B. Mikromechanische Spiegelsysteme (MEMS), mit einer zugehörigen Steuereinheit 150, optische Komponenten 80, z.B. Linsen und/oder holographische Elemente und/oder Kamerasensoren, und ein LIDAR-Sensor-Management-System 90, das so konfiguriert ist, dass es Ein- und Ausgabedaten verwaltet, die für den ordnungsgemäßen Betrieb des ersten LIDAR-Sensorsystems erforderlich sind.
  • Das erste LIDAR-Sensorsystem 40 kann mit anderen LIDAR-Sensorsystemgeräten verbunden werden, z.B. mit einem Steuerungs- und Kommunikationssystem 70, das so konfiguriert ist, dass es Eingangs- und Ausgangsdaten verwaltet, die für den ordnungsgemäßen Betrieb des ersten LIDAR-Sensorsystems 40 erforderlich sind.
  • Das LIDAR-Sensorsystem 10 kann darüber hinaus das zweite LIDAR-Sensorsystem 50 enthalten, das für den Empfang und die Messung elektromagnetischer oder anderer Strahlung konfiguriert ist und eine Vielzahl von Sensorelementen 52 und den Sensor-Controller 53 verwendet.
  • Das zweite LIDAR-Sensorsystem 50 kann Detektionsoptik 82 sowie Aktuatoren zur Strahllenkung und -steuerung 51 umfassen.
  • Das LIDAR-Sensorsystem 10 kann ferner das LIDAR-Datenverarbeitungssystem 60 enthalten, das die Signalverarbeitung 61, Datenanalyse und -berechnung 62, Sensorfusion und andere Sensorfunktionen 63 durchführt.
  • Das LIDAR-Sensorsystem 10 kann ferner das Steuer- und Kommunikationssystem 70 enthalten, das eine Vielzahl von Signalen und Steuerdaten 160 empfängt und ausgibt und als Gateway zwischen verschiedenen Funktionen und Geräten des LIDAR-Sensorsystems 10 dient.
  • Das LIDAR-Sensorsystem 10 kann ferner ein oder mehrere Kamerasysteme 80 enthalten, die entweder einzeln oder in Kombination mit einer anderen Komponente des LIDAR-Sensorsystems 10 oder in eine andere Komponente des LIDAR-Sensorsystems 10 eingebettet sind und die mit verschiedenen anderen Geräten datentechnisch verbunden sind, wie z.B. mit Komponenten des zweiten LIDAR-Sensorsystems 50 oder mit Komponenten des LIDAR-Datenverarbeitungssystems 60 oder mit dem Steuerungs- und Kommunikationssystem 70.
  • Das LIDAR-Sensorsystem 10 kann in eine LIDAR-Sensorvorrichtung 30 integriert oder eingebettet werden, z.B. in ein Gehäuse, ein Fahrzeug, einen Fahrzeugscheinwerfer.
  • Das gesteuerte LIDAR-Sensorsystem 20 kann so konfiguriert werden, dass es das LIDAR-Sensorsystem 10 und seine verschiedenen Komponenten und Geräte steuert und die Navigation des LIDAR-Sensorsystems 30 durchführt oder zumindest unterstützt. Das gesteuerte LIDAR-Sensorsystem 20 kann ferner so konfiguriert werden, dass es z.B. mit einem anderen Fahrzeug oder einem Kommunikationsnetzwerk kommuniziert und somit die Navigation der LIDAR-Sensoreinrichtung 30 unterstützt.
  • Wie oben erläutert, ist das LIDAR-Sensorsystem 10 so konfiguriert, dass es elektromagnetische oder andere Strahlung aussendet, um die Umgebung 100 nach anderen Objekten wie Autos, Fußgängern, Verkehrszeichen und Straßenhindernissen zu untersuchen. Das LIDAR-Sensorsystem 10 ist ferner so konfiguriert, dass es elektromagnetische oder andere Arten von objektreflektierter oder objektsender Strahlung 130, aber auch andere erwünschte oder unerwünschte elektromagnetische Strahlung 140 empfängt und misst, um Signale 110 zu erzeugen, die für die Umgebungskartierung verwendet werden können, wobei in der Regel eine Punktwolke erzeugt wird, die repräsentativ für die erfassten Objekte ist.
  • Verschiedene Komponenten des gesteuerten LIDAR-Sensorsystems 20 verwenden andere Komponenten oder Software 150, um die Signalerkennung und -verarbeitung sowie die Signalanalyse durchzuführen. Dieser Prozess kann die Verwendung von Signalinformationen beinhalten, die von anderen Sensorgeräten stammen.
  • In verschiedenen Ausführungsformen ist ein LIDAR-Sensorsystem 10 vorgesehen, das mindestens ein erstes LIDAR-Sensorsystem 40 umfasst, wobei das mindestens eine erste LIDAR-Sensorsystem mindestens eine Lichtquelle und mindestens einen Treiber, der mit der mindestens einen Lichtquelle verbunden ist, und mindestens eine Schnittstelle umfasst, die mit dem mindestens einen ersten LIDAR-Sensorsystem 40 verbunden und so konfiguriert ist, dass sie Datensignale empfängt und/oder aussendet und/oder speichert.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorsystem 10 zusätzlich mindestens ein zweites LIDAR-Sensorsystem 50 aufweisen, z.B. resistiv, kapazitiv, induktiv, magnetisch, optisch, chemisch.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorsystem 10 außerdem einen Kamerasensor 81 aufweisen, der so konfiguriert ist, dass er seine Signale direkt an eines der folgenden Geräte ausgibt: LIDAR-Sensorelement 52, LIDAR-Sensor-Controller 53 und LIDAR-Datenverarbeitungssystem 60.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorsystem 10 außerdem einen Kamerasensor 81 aufweisen, dessen Sensorpixel mit dem LIDAR-Sensorelement 52 voxel-korreliert sind.
  • In verschiedenen Ausführungsformen kann ein gesteuertes LIDAR-Sensorsystem 10 umfassen: mindestens ein LIDAR-Sensorsystem 10 entsprechend einer oder mehrerer der vorhergehenden Ausführungsformen, ein LIDAR-Datenverarbeitungssystem 60, das so konfiguriert ist, dass es eine Lichtsteuersoftware zur Steuerung des mindestens einen LIDAR-Sensorsystems 40, 50 ausführt, mindestens eine Hardwareschnittstelle 90, die mit dem LIDAR-Datenverarbeitungssystem 60 und/oder dem Lichtquellen-Controller 43 und/oder dem Sensor-Controller 53 und/oder dem Steuer- und Kommunikationssystem 70 verbunden ist.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorgerät 10 mit mindestens einem gesteuerten LIDAR-Sensorsystem 20 bereitgestellt werden.
  • In verschiedenen Ausführungsformen wird ein Verfahren für ein LIDAR-Sensorsystem bereitgestellt. Das Verfahren kann Folgendes umfassen: mindestens ein gesteuertes LIDAR-Sensorsystem 20, und die Verfahren zur Steuerung des von dem mindestens einen LIDAR-Sensorsystem emittierten Lichts durch Bereitstellung von verschlüsselten oder unverschlüsselten Lichtsteuerdaten an die Hardwareschnittstelle des LIDAR-Sensorsystems 10 und/oder Abtastung der Sensoren und/oder Steuerung der Aktoren des LIDAR-Sensorsystems über das LIDAR-Sensormanagementsystem 90.
  • In verschiedenen Ausführungsformen wird ein Computerprogrammprodukt zur Verfügung gestellt. Das Computerprogrammprodukt kann Folgendes umfassen: eine Vielzahl von Programmbefehlen, die bei Ausführung durch ein Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einer der vorhergehenden Ausführungsformen das gesteuerte LIDAR-Sensorsystem veranlassen, das Verfahren für ein LIDAR-Sensorsystem auszuführen.
  • In verschiedenen Ausführungsformen wird ein Datenspeichergerät mit einem Computerprogramm bereitgestellt, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem gemäß einer der obigen Verfahrensausführungsformen, ein LIDAR-Sensorsystem gemäß einer der obigen kontrollierten LIDAR-Sensorsystemausführungsformen ausführen kann.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorgerät 30 so konfiguriert werden, dass es eine Kamera 81 entsprechend einer der vorhergehenden Ausführungsformen oder Beispiele bedient.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 73 bis 75 beschrieben, können mit den Ausführungsformen, wie unter Bezugnahme auf 51 bis 58 beschrieben, kombiniert werden. Diese Kombination kann den Effekt haben, dass beide Systeme das gleiche FOV teilen und dass die Sensorpixel im Wesentlichen identisch sind.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1i ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen LIDAR-Sensor, eine Kamera und ein Speichergerät aufweisen, in dem eine Kamera-LIDAR-Beziehungs-Matrix (z.B. eine Kamera-LIDAR-Voxel-Beziehungs-Matrix) gespeichert ist, die eine Abbildung einer vorgegebenen Kamera-Sensor-Pixel-ACV-Beziehungs-Matrix der Kamera und einer vorgegebenen LIDAR-Sensor-Beziehungs-Matrix (z.B. einer vorgegebenen LIDAR-Sensor-Pixel-Voxel-Beziehungs-Matrix) des LIDAR-Sensors beschreibt. Ein solches Speichergerät kann jedes physikalische Gerät sein, das in der Lage ist, Informationen temporär wie RAM (Speicher mit wahlfreiem Zugriff) oder permanent wie ROM (Festwertspeicher) zu speichern. Speichergeräte verwenden integrierte Schaltkreise und werden von Betriebssystemen, Software und Hardware verwendet. Die vorgegebene Kamera-Sensor-Pixel-ACV-Beziehungs-Matrix beschreibt die Beziehung zwischen jedem Sensor-Pixel der Kamera und dem zugehörigen Winkel-Kamera-Sichtfeld. Die vorgegebene LIDAR-Sensor-Beziehungs-Matrix beschreibt ein Gitter in einem mehrdimensionalen Raum und kann Objekte und für jedes Voxel des Gitters einen Abstand vom LIDAR-Sensor zum Objekt enthalten.
    • In Beispiel 2i kann der Gegenstand von Beispiel 1i optional umfassen, dass die Kamera eine zweidimensionale Kamera und/oder eine dreidimensionale Kamera umfasst.
    • In Beispiel 3i kann der Gegenstand von Beispiel 1i optional umfassen, dass die Kamera eine zweidimensionale Kamera und der LIDAR-Sensor einen zweidimensionalen LIDAR-Sensor aufweist.
    • In Beispiel 4i kann der Gegenstand von Beispiel 1i optional umfassen, dass die Kamera eine zweidimensionale Kamera und der LIDAR-Sensor einen dreidimensionalen LIDAR-Sensor umfasst.
    • In Beispiel 5i kann der Gegenstand von Beispiel 1i optional umfassen, dass die Kamera eine dreidimensionale Kamera und der LIDAR-Sensor einen zweidimensionalen LIDAR-Sensor aufweist.
    • In Beispiel 6i kann der Gegenstand von Beispiel 1i optional umfassen, dass die Kamera eine dreidimensionale Kamera und der LIDAR-Sensor einen dreidimensionalen LIDAR-Sensor aufweist.
    • In Beispiel 7i kann der Gegenstand eines jeden der Beispiele 1i bis 6i optional umfassen, dass die Kamera im Nachtsicht-Betriebsmodus betrieben wird.
    • In Beispiel 8i kann der Gegenstand von Beispiel 7i optional umfassen, dass die Pixel-Ausleseschwellen der Kamera in Übereinstimmung mit den Nachtsichtbedingungen eingestellt werden.
    • In Beispiel 9i kann der Gegenstand eines der Beispiele 1i bis 8i optional umfassen, dass die Kamera so konfiguriert ist, dass sie erkannte Kamerasignale analysiert.
    • In Beispiel 10i kann der Gegenstand von Beispiel 9i optional umfassen, dass die Kamera so konfiguriert ist, dass sie Farbinformationen von einem Fahrzeug erkennt und Fahrzeugidentifizierungsinformationen auf der Grundlage der erkannten Farbinformationen bestimmt.
    • In Beispiel 11i kann der Gegenstand von Beispiel 10i optional umfassen, dass die Farbinformation Informationen über einen Abstand zwischen einem Paar von zwei funktionell ähnlichen Fahrzeugleuchten aufweist.
    • In Beispiel 12i kann der Gegenstand von Beispiel 11i optional umfassen, dass das Paar von zwei funktionell ähnlichen Fahrzeugleuchten aus einer Gruppe ausgewählt wird, die aus einem Paar Rückleuchten, einem Paar Scheinwerfern, einem Paar Bremsleuchten und einem Paar Signalleuchten besteht.
    • In Beispiel 13i kann der Gegenstand eines der Beispiele 1i bis 8i optional umfassen, dass das LIDAR-Sensorsystem zusätzlich ein LIDAR-Datenverarbeitungssystem und/oder ein LIDAR-Sensormanagementsystem umfasst. Die Kamera ist so konfiguriert, dass sie erkannte Kamerasignale zur weiteren Verarbeitung an das LIDAR-Datenverarbeitungssystem und/oder das LIDAR-Sensormanagementsystem weiterleitet.
    • In Beispiel 14i kann der Gegenstand von Beispiel 13i optional umfassen, dass die Kamera so konfiguriert ist, dass sie Farbinformationen von einem Fahrzeug erkennt. Das LIDAR-Datenverarbeitungssystem und/oder das LIDAR-Sensormanagementsystem sind/ist so konfiguriert, dass es Fahrzeugidentifizierungsinformationen auf der Grundlage der erfassten Farbinformationen ermittelt.
    • In Beispiel 15i kann der Gegenstand von Beispiel 14i optional umfassen, dass die Farbinformation Informationen über einen Abstand zwischen einem Paar von zwei funktionell ähnlichen Fahrzeugleuchten aufweist.
    • In Beispiel 16i kann der Gegenstand von Beispiel 15i optional umfassen, dass das Paar von zwei funktionell ähnlichen Fahrzeugleuchten aus einer Gruppe ausgewählt wird, die aus einem Paar Rückleuchten, einem Paar Scheinwerfern, einem Paar Bremsleuchten und einem Paar Signalleuchten besteht.
    • In Beispiel 17i kann der Gegenstand eines der Beispiele 1i bis 11i optional umfassen, dass das LIDAR-Sensorsystem zusätzlich ein LIDAR-Datenverarbeitungssystem und/oder ein LIDAR-Sensormanagementsystem umfasst. Die Kamera ist so konfiguriert, dass sie erkannte Kamerasignale an den Sensor weiterleitet. Der Sensor-Controller ist so konfiguriert, dass er entweder in einem ersten Auslesemodus die detektierten Kamerasignale ausliest oder in einem zweiten Auslesemodus das detektierte LIDAR-Sensorsignal ausliest und die ausgelesenen Signale zur weiteren Verarbeitung an das LIDAR-Datenverarbeitungssystem und/oder das LIDAR-Sensormanagementsystem weiterleitet.
    • In Beispiel 18i kann der Gegenstand von Beispiel 17i optional umfassen, dass die Kamera so konfiguriert ist, dass sie Farbinformationen von einem Fahrzeug erkennt. Das LIDAR-Datenverarbeitungssystem und/oder das LIDAR-Sensormanagementsystem sind/ist so konfiguriert, dass es Fahrzeugidentifizierungsinformationen auf der Grundlage der erfassten Farbinformationen ermittelt.
    • In Beispiel 19i kann der Gegenstand von Beispiel 18i optional umfassen, dass die Farbinformation Informationen über einen Abstand zwischen einem Paar von zwei funktionell ähnlichen Fahrzeugleuchten aufweist.
    • In Beispiel 20i kann der Gegenstand von Beispiel 19i optional umfassen, dass das Paar von zwei funktionell ähnlichen Fahrzeugleuchten aus einer Gruppe ausgewählt wird, die aus einem Paar Rückleuchten, einem Paar Scheinwerfern, einem Paar Bremsleuchten und einem Paar Signalleuchten besteht.
    • In Beispiel 21 i kann der Gegenstand eines der Beispiele 1 i bis 20i optional umfassen, dass der Sensor so konfiguriert ist, dass er Lichtstrahlen im blauen Wellenlängenbereich erkennt. Die Kamera und das zweite LIDAR-Sensorsystem teilen sich den Sensor, um entweder Kamerasensorsignale oder LIDAR-Sensorsignale zu erkennen.
    • In Beispiel 22i kann der Gegenstand eines der Beispiele 1 i bis 21 i optional umfassen, dass die Kamera ein Kamerasensor-Pixelarray aufweist. Der Sensor umfasst ein LIDAR-Sensor-Pixelarray. Die Pixelmatrix des Kamerasensors und die Pixelmatrix des LIDAR-Sensors haben das gleiche Schaltungslayout und/oder die gleiche geometrische Architektur und/oder die gleiche funktionale Architektur.
    • In Beispiel 23i kann der Gegenstand von Beispiel 22i optional umfassen, dass das Kamerasensor-Pixelarray und das LIDAR-Sensor-Pixelarray in mindestens einem Wellenlängenbereich, z.B. im Bereich von etwa 850 nm bis etwa 905 nm, unterschiedliche Empfindlichkeiten aufweisen.
  • Insbesondere mit dem Aufkommen von teilweise oder vollständig autonom fahrenden Fahrzeugen besteht ein Bedarf an schneller und zuverlässiger Fahrzeugerkennung und -identifizierung. Es wäre wünschenswert, wenn ein Fahrzeug sich selbst identifizieren und daher leicht und eindeutig erkannt werden könnte. Aus dem gleichen Grund wäre dies auch für reguläre (nicht-autonom fahrende) Fahrzeuge wünschenswert.
  • Verschiedene Aspekte ergänzen eine Funktionalität im Hinblick auf eine Übertragung von (codierten) Informationen von einem Fahrzeug zu einem anderen Verkehrsteilnehmer, um eine einfache, zuverlässige und schnelle Objekterkennung zu ermöglichen. Die Systemkomponenten sind ähnlich denen, die unter Bezugnahme auf 73 bis 75 beschrieben sind, mit der Ausnahme, dass verschiedene Ausführungsformen zusätzlich aktive Infrarotlicht emittierende Lichtquellen und Fahrzeugoberflächen zur Verfügung stellen. Die Aspekte, die unter Bezugnahme auf 81 bis 84 beschrieben werden, können mit jedem der Aspekte, die unter Bezugnahme auf 73 bis 75 beschrieben werden, kombiniert werden.
  • In verschiedenen Ausführungsformen wird vorgeschlagen, in der Kabine installierte Infrarot-Lichtquellen und zugehörige Infrarot-Leuchtflächen und/oder Infrarot-Leuchtquellen und zugehörige Leuchtflächen, die sich an der Außenseite eines Fahrzeugs befinden, zur besseren Fahrzeugerkennung zu verwenden. Das ausgestrahlte Infrarotlicht kann kontinuierlich oder in Zeitintervallen (fest oder einstellbar) ausgestrahlt werden. Optional kann das ausgestrahlte Infrarotlicht kodierte Signale tragen.
  • Einmal übertragen, kann das ausgestrahlte Infrarotlicht und, falls verwendet, seine signalcodierten Informationen von einem anderen Fahrzeug oder einem anderen geeigneten Detektionsgerät erkannt und zur Fahrzeug- und Verkehrssteuerung verwendet werden.
  • Eine signalcodierte Lichtübertragung kann Fahrzeug-Identifikationsdaten wie Fahrzeugtyp, Geschwindigkeit, Belegung, Fahrtroute, Reiseverlauf und ähnliches aufweisen. Solche Fahrzeug-Identifikationsdaten können durch ein geeignetes Fahrzeug-Datenverarbeitungsgerät auf der Grundlage von Fahrzeug-Sensordaten und allen anderen zugänglichen Informationen (wie GPS-Signale, Beschleunigungs- und Orientierungssensoren, Fahrzeug-BCU-Daten oder Metadaten) erzeugt werden.
  • Auch ein Benutzer eines solchen Fahrzeugs kann aussagekräftige Daten erzeugen und in ein solches Datenverarbeitungsgerät zur Signalcodierung eingeben.
  • Eine Fahrzeugkabine kann mit Infrarot-Lichtquellen ausgestattet sein. Diese Lichtquellen können an verschiedenen Stellen innerhalb eines Fahrzeugs positioniert werden, z.B. entfernt hinter der Frontscheibe oder in der Nähe von Seiten- und Heckfenstern, oder irgendwo innerhalb des Fahrgastraums oder an einem transparenten Dach angebracht sein. Die Lichtquellen können auch am Rand einer Fensterscheibe angebracht oder teilweise in eine Glasscheibe integriert sein und so den Innenraum beleuchten. Eine geeignete elektrische Verbindung zwischen einer entsprechenden Lichtquelle und einem oder mehreren Prozessoren (die als Lichtquellensteuerungen fungieren können) ist zumindest bei geschlossener Fensterscheibe gegeben, aber es ist auch möglich, eine teilweise geöffnete Autoscheibe durch Seitenkontakte am Rahmen oder eingebettete leitfähige Beschichtungen (wie ITO-Streifen) o.ä. zu verwenden. Für eine einwandfreie Lichtauskopplung können solche Fensterscheiben oder lichtdurchlässige Außenteile oder sogar transparente Teile eingebettete oder angebrachte optische Strukturen aufweisen, die hinterleuchtete oder seitlich beleuchtete Strahlung nach außen reflektieren.
  • Es wird davon ausgegangen, dass im infraroten Wellenlängenbereich die Durchlässigkeit der üblicherweise verwendeten automobilzertifizierten Glastypen, möglicherweise mit einer zusätzlichen Farbtönung (Folie oder Beschichtung), in Richtung längerer Wellenlängen begrenzt ist.
  • Wie bereits erwähnt, kann alternativ oder zusätzlich mindestens eine Lichtquelle der einen oder mehreren Lichtquellen an der Außenseite eines Fahrzeugs angebracht werden (was weiter unten näher beschrieben wird). In diesen Ausführungsformen gelten keine Einschränkungen für die Wellenlängenübertragung.
  • Die Anordnung und Ausrichtung (in der Regel die Konfiguration) der einen oder mehreren Lichtquellen ist so gewählt, dass ihre Infrarotstrahlung (also das abgestrahlte Licht) auf lichtdurchlässige (oder auch transparente) Fahrzeugteile gerichtet und durch diese hindurchgeleitet wird, so dass diese Teile (d.h. ihre IR-Strahlung) von außen, d.h. von anderen (äußeren) Verkehrsteilnehmern oder anderen fahrzeugexternen Sensoreinrichtungen, erkennbar bzw. wahrnehmbar werden.
  • Solche beleuchteten (und daher infrarotes Licht emittierenden) Teile könnten z.B. eine Fensterscheibe, ein transparentes Dach, ein äußeres lichtdurchlässiges (oder sogar transparentes) Fahrgestellrahmenteil, ein äußeres lichtdurchlässiges (oder sogar transparentes) Zierteil, ein lichtdurchlässiger (oder sogar transparenter) Spoilerrahmen sowie Außenspiegelvorrichtungen und ähnliches sein. Diese Teile sollten (z.B. vollständig) lichtdurchlässig (oder sogar transparent) sein, da sie auch als Rahmen für solche lichtdurchlässigen (oder sogar transparenten) Teile dienen können.
  • Der Begriff „gerichtet“ umfasst sowohl die Abstrahlung von Licht auf eine Ebene oder eine Oberfläche, z.B. durch optische Komponenten wie Linsen, als auch die Lichtleitfähigkeit innerhalb eines Materials, z.B. durch Lichtleiterausbreitung und Front- oder Seitenemissionstechniken.
  • Eine lichtemittierende Fläche (innen oder außen) sollte eine ziemlich große Ausdehnung haben, um sie leicht erkennbar zu machen. Eine solche ziemlich große lichtemittierende Oberfläche ist so konfiguriert, dass sie Infrarotstrahlung in ein breites äußeres Beleuchtungsfeld emittiert. Dies hat den Effekt, dass diese Strahlung, unkodiert oder als Folge von Infrarot-Lichtimpulsen und/oder als modulierte Infrarot-Strahlung, von fahrzeugexternen Infrarot-Sensoren, wie sie z.B. in Nachtsichtkameras oder anderen Geräten mit CCD-, CMOS-, APD-, SPAD- usw. Sensoren verwendet werden, leicht detektierbar ist, d.h. auch LIDAR-Sensoren sind enthalten.
  • In verschiedenen Ausführungsformen ist vorgesehen, dass ein Fahrzeug eine solche (ziemlich große) Infrarotlicht emittierende Oberfläche verwendet, um sich selbst leicht erkennbar zu machen. Die Lichtaustrittsfläche sollte eine Fläche von mindestens 100 cm2, z.B. mindestens 400 cm2, z.B. mindestens 2500 cm2 oder z.B. sogar bis zu 10.000 cm2 bedecken. Es ist zu beachten, dass solche Flächen nicht eben sein müssen, sondern beliebig geformt und gestaltet werden können.
  • Anwendungen im Automobilbereich erfordern, dass Lichtquellen in einem recht großen Temperaturbereich funktionieren, z.B. im Bereich von etwa -40 °C bis etwa 120 °C oder sogar darüber. Wenn die Temperaturen zu hoch werden, wird in verschiedenen Ausführungsformen für die richtige Kühlung gesorgt.
  • Der Begriff Infrarot (IR)-Strahlung (oder Infrarot-Lichtemission) erstreckt sich von einem Wellenlängenbereich von ca. 780 nm bis in den Wellenlängenbereich von ca. 1 mm bis 2 mm, eventuell weiter in den angrenzenden Mikrowellenbereich. In verschiedenen Ausführungsformen kann z.B. eine Lichtquelle der einen oder mehreren Lichtquellen enthalten sein: IR-LED, IR-Laserdioden, IR-VCSEL-Laser, LARP-infrarot-emittierende, auf Phosphorkonversion basierende Lichtquellen und dergleichen. LED-Lichtquellen können Emissionslinien mit einer FWHM von etwa 20 bis 100 nm haben, während Laser-IR-Dioden typischerweise kleinere FWHM-Bandbreitenwerte aufweisen. Beispielsweise sind die LED der OSRAM OSLON Black Series so konfiguriert, dass sie etwa 1,8 W bei 850 nm Strahlung emittieren. Jede emittierende Oberfläche kann mehrere solcher IR-emittierender LEDs verwenden. Aus Sicherheitsgründen können IR-LED-Lichtquellen anstelle von Infrarot-Laserdioden vorgesehen werden.
  • In einem Aspekt wird die IR-Strahlung stationär, d.h. kontinuierlich betrieben. Zum anderen wird die IR-Emitterstrahlung gepulst, d.h. sie sendet Impulsfolgen aus. Zum anderen wird die IR-Emitterstrahlung PWM-moduliert, um ein Signal zu übertragen. Zum anderen wird die IR-Emitterstrahlung stochastisch emittiert.
  • In einem Aspekt kann die emittierte Infrarotstrahlung von einer emittierenden Fläche (Fläche 1 EIN) auf eine zweite, benachbarte Fläche (Fläche 2 EIN) umgeschaltet werden, wobei die Fläche 1 AUS geschaltet werden oder EIN bleiben kann oder eine zeitliche Überlappung haben kann. Darüber hinaus können mehrere solcher Flächen sogar Symbole, Zahlen, Zeichen, Logos oder Animationen (z.B. wie fließende oder geschwungene Pfeile) bilden, wenn sie in einer bestimmten zeitlichen Abfolge eingeschaltet werden; alle diese Ausgestaltungen können zur Darstellung von Informationen verwendet werden, die von Infrarot-Außendetektoren gelesen werden können.
  • In ähnlicher Weise kann die Infrarotstrahlung von einer emittierenden Fläche auf eine oder auf viele andere (entweder parallel oder sequentiell) umgeschaltet werden. Ein zyklisches Umschalten von einer emittierenden Fläche auf eine andere kann im oder gegen den Uhrzeigersinn (bezogen auf das Fahrzeug) erfolgen. Die verschiedenen emittierenden Flächen können unterschiedliche Informationen übertragen.
  • In verschiedenen Ausführungsformen können zwei emittierende Flächen auf gegenüberliegenden Seiten des Fahrzeugs, z.B. eines Autos, angeordnet und synchron oder alternierend betrieben werden. In verschiedenen Ausführungsformen werden die Infrarot-Lichtquellen, die im Inneren des Fahrzeugs, z.B. im Fahrzeuginnenraum, angebracht sind, gegenüber außen angebrachten Infrarot-Strahlern, z.B. alternierend, betrieben. In verschiedenen Ausführungsformen können alle Fahrzeugoberflächen so konfiguriert sein, dass sie die gleiche Art von Strahlung (Wellenlänge, Impulsfolgen und/oder modulierend) aussenden und somit lichtemittierende Flächen bilden. In verschiedenen Ausführungen können die verschiedenen lichtemittierenden Fahrzeugoberflächen so konfiguriert sein, dass sie unterschiedliche Strahlungsarten (Wellenlänge, Impulsfolgen und/oder modulierend) aussenden.
  • Die Signalstärke des ausgestrahlten Lichts kann je nach Ort der Emission variieren, z.B. mit höherer Leistung nach vorne und hinten und mit geringerer Leistung seitlich. Außerdem können auf der linken und rechten Seite eines Fahrzeugs Lichtquellen mit unterschiedlichen Wellenlängen, Intensitäten, Blinkfrequenzen und ähnlichem verwendet werden, wodurch eine einfache Erkennung der Fahrtrichtung (vorwärts und rückwärts) erleichtert wird, wenn solche Einstellungen etwas standardisiert sind.
  • Auch hier sind je nach Gestaltung und Bedarf viele Optionen und Variationen möglich. Die Signalstärke des ausgestrahlten Lichts kann eine Funktion der Signalinformation, der Fahrzeugbewegung, der Fahrzeugposition, der Fahrzeugsteuerdaten und ähnlichem sein. Die Signalstärke kann eine Funktion einer etablierten Fahrzeug-zu-Fahrzeug-Kommunikation sein, z.B. einer Personenkraftfahrzeug-zu-Personenkraftfahrzeug-Kommunikation, oder einer Fahrzeug-zu-Umwelt-Kommunikation, z.B. einer Personenkraftfahrzeug-zu-Umwelt-Kommunikation.
  • Die verwendeten Infrarot-Strahler (d.h. die eine oder mehrere Lichtquellen) können so konfiguriert werden, dass sie Licht mit gleichen oder unterschiedlichen Wellenlängen, Abstrahlwinkeln und anderen optischen Eigenschaften aussenden. Einige oder alle der einen oder mehreren Lichtquellen können so konfiguriert sein, dass sie mit den Wellenlängen des nahen Infrarot arbeiten, einige oder alle der einen oder mehreren Lichtquellen können so konfiguriert sein, dass sie mit den Wellenlängen des fernen Infrarot arbeiten. Einige oder alle der einen oder mehreren Lichtquellen können so konfiguriert sein, dass sie mit Infrarot-Wellenlängen arbeiten, die mit den typischerweise verwendeten LIDAR-IR-Wellenlängen, z.B. 850 nm, 905 nm oder 1550 nm, zusammenfallen oder sich überlappen. Dies hat den Effekt, dass auch ein LIDAR-Sensor die emittierte Infrarotstrahlung erkennen kann. Einige oder alle der einen oder mehreren Lichtquellen können so konfiguriert werden, dass sie mit Infrarot-Wellenlängen arbeiten, die nicht mit den typischerweise verwendeten LIDAR-IR-Wellenlängen übereinstimmen oder sich mit diesen überlappen, z.B. außerhalb des Bereichs von 850 nm, 905 nm oder 1550 nm, z.B. mit einem Mindestwellenlängenabstand von 20 nm. Dies hat den Effekt, dass ein LIDAR-Sensor durch die emittierte Infrarotstrahlung nicht beeinflusst wird.
  • Ein Fahrzeug kann mit einer Mehrzahl, z.B. einer Vielzahl von mindestens fünf, z.B. mindestens zehn, z.B. mindestens zwanzig, z.B. mindestens fünfzig, z.B. mindestens fünfundsiebzig, z.B. mindestens 100 oder sogar mehr solcher Infrarot-Strahler (Lichtquellen) mit unterschiedlichen Emissionseigenschaften ausgestattet sein. Hinsichtlich der emittierten Wellenlänge können einige oder alle Strahler (Lichtquellen) mit einer bestimmten Emissionswellenlänge synchron oder abwechselnd mit Strahlern (Lichtquellen) unterschiedlicher Wellenlänge betrieben werden. Eine Anordnung von Infrarot-Strahlern (Lichtquellen) mit unterschiedlichen Wellenlängen kann in einem (einstellbaren) Frequenzwobbelmodus betrieben werden, d.h. Umschaltung von Strahlern (Lichtquellen) mit der Infrarotfrequenz 1 auf andere mit der Infrarotfrequenz 2 usw. Eine solche frequenzabtastende Anordnung wird die Zuverlässigkeit der Objekterkennung weiter erhöhen, da die Datenverarbeitung diese Frequenzen herausfiltern kann und durch die Infrarot-Rauschuntergrundstrahlung nicht negativ beeinflusst wird.
  • Verschiedene Fahrzeugtypen können Wellenlängen, Impulsfolgen, schaltende Emissionsflächen usw. verwenden (wie oben beschrieben) je nach Fahrzeugtyp, z.B. leichtes oder schweres Fahrzeug, Marke, Modell, Größe (Breite, Höhe) usw. Die ausgesendeten Infrarotsignale können einfach als „Präsenzfeuer“ arbeiten, d.h. ein Objekt (entweder stehend oder fahrend) mit einem Puls aus sich wiederholenden Signalen ohne weitere Signalcodierung markieren. Die ausgesendeten Infrarotsignale können für allgemeine oder spezifische Kommunikationszwecke verwendet werden. Die ausgesendeten Infrarotsignale können Informationen enthalten über: Fahrzeugkennzeichen, Fahrzeugidentifikations- oder -kennzeichen, Versicherungsdaten, (persönliche) Fahrerdaten (Name, Gesundheitszustand, Erfahrung), Insassenbelegungsdaten, Fahrer, Fahrzeughistorie (wie viele Unfälle), SAE-Fahrstufe (0 bis 5) und vieles mehr. Die übertragenen Daten können verschlüsselt und die Verschlüsselungsschlüssel über verschiedene Übertragungskanäle übertragen werden. Alle zu übertragenden Daten können voreingestellt werden, z.B. einmal durch den Fahrzeugbesitzer, den Fahrer oder den Hersteller, oder sie können von einem Benutzer ausgewählt und eingestellt werden (z.B. über eine grafische Benutzeroberfläche).
  • Das Fahrzeug kann ein beliebiger Fahrzeugtyp wie oben beschrieben sein. Die vorgeschlagenen Produkte, Konfigurationen und Verfahren können auch als Nachrüstlösungen für Fahrzeuge verwendet werden.
  • Darüber hinaus sollten die Strahlungsintensität und die Richtung der Emission allen anwendbaren Sicherheits- und/oder Normungsnormen entsprechen. Es wird vorgeschlagen, dass die emittierte Infrarotstrahlung, wie oben beschrieben, mit den Sensoren eines anderen Fahrzeugs, wie einem LIDAR-Detektor oder einer Kamera, oder einfach mit einer einfachen infrarotempfindlichen Fotodiode erfasst wird. Das detektierende Fahrzeug (oder ein beliebiger externer Detektor) muss über eine Signalspeicher- und Verarbeitungseinheit verfügen, die in der Lage ist, die präsentierten Signalinformationen zu erkennen. Abhängig von der Komplexität eines solchen Detektors können nur eine oder einige oder viele der dargestellten Informationen und Strahlungseigenschaften erkannt und verarbeitet werden. Diese Werte können für Tag- oder Nachtfahrbedingungen angepasst oder eingestellt werden.
  • Die emittierte Infrarotstrahlung kann mit infrarotempfindlichen Fotodetektoren erfasst werden, die z.B. in einer oder mehreren Nachtsichtkameras verwendet werden. Der Kamera-Detektor (CCN, CMOS) kann mit einem Infrarot-Bandpfadfilter ausgestattet sein, der unerwünschte sichtbare Wellenlängen abschneidet. Die Infrarotstrahlung könnte auch mit LIDAR-Detektoren erfasst werden (wenn die emittierten Wellenlängen innerhalb des Empfindlichkeitsbereichs des LIDAR-Sensors liegen).
  • Nach der Erkennung und Datenverarbeitung kann eine Recheneinheit solche Informationen zur (einfachen) Objekterkennung und -erkennung nutzen. Wie unter Bezugnahme auf 73 bis 75 beschrieben, können Kamera- und LIDAR-Informationsverarbeitungssysteme auf verschiedene Weise arbeiten, um die Berechnung der richtigen Steuersignale für die Fahrzeuglenkung und -steuerung vorzubereiten. Das vorgeschlagene Verfahren verbessert die Sensorfusion und reduziert die Zeit für die Objektdetektion und -erkennung. Nach der Detektion und Datenverarbeitung kann eine Recheneinheit diese Informationen zur (einfachen) Objektdetektion und -erkennung nutzen. Wie unter Bezugnahme auf 73 bis 75 beschrieben, können Kamera- und LIDAR-Informationsverarbeitungssysteme auf verschiedene Weise arbeiten, um die Berechnung der richtigen Steuersignale für die Fahrzeuglenkung und -steuerung vorzubereiten. Das vorgeschlagene Verfahren verbessert die Sensorfusion und reduziert die Zeit für die Objektdetektion und -erkennung.
  • Sobald ein anderes Fahrzeug (z.B. Auto) die Informationen des emittierenden Fahrzeugs empfangen hat, kann es Antwortsignale über Funk, Bluetooth, WiFi usw. an das emittierende Fahrzeug zurückmelden.
  • Zu den Systemkomponenten können gehören: Infrarotsender; infrarotaussendende Oberflächen; Steuereinheiten (d.h. ein oder mehrere Prozessoren und/oder ein oder mehrere Steuerungen) zur Berechnung der erforderlichen Codiersignale und deren Anwendung als Betriebseinstellungen für die lichtemittierenden Geräte; ein oder mehrere Lichtquellentreiber; Fotodetektoren; Signalmess- und -analysegeräte; Sensorfusionsgeräte; Fahrzeugsteuergeräte; und/oder eine oder mehrere Benutzerschnittstellen.
  • Das Fahrzeug kann mit einer Vielzahl von (ähnlichen oder unterschiedlichen) Infrarotsendern (und Sensoren) ausgerüstet (oder nachgerüstet) werden, die so konfiguriert sind, dass sie (codierte) Infrarotstrahlung nach außen abgeben, um von anderen Verkehrsteilnehmern oder verkehrsrelevanten Objekten (z.B. Elementen der Straßeninfrastruktur) erkannt zu werden und/oder um Informationsdaten zu diesen zu transportieren. Die lichtemittierenden Flächen können auf verschiedene Weise adressiert werden (überhaupt keine spezifische Kodierung, voreingestellte Kodierung, einstellbare Kodierung, dynamisch adressierbare Flächen, Musterbildung etc.). Eine weitere Signalcodierung (Wellenlänge, Impulse, Signalzeit usw.) hilft bei der Identifizierung des Fahrzeugs, des Fahrers usw.
  • Die offenbarten Aspekte können für große Fahrzeuge mit ausgedehnten IR-lichtabstrahlenden Oberflächen und für Fahrzeuge hilfreich sein, deren Reflexionsvermögen für Infrarot- (LIDAR) oder Radarstrahlung etwas reduziert ist, so dass sie für diese Verfahren weniger sichtbar sind. Das vorgeschlagene Verfahren verwendet aktiv emittierende Oberflächen, die unter normalen und ungünstigen Wetterbedingungen vorteilhaft sind.
  • Ein Fahrzeug, das mit geeigneten Infrarotsensoren (LIDAR, Kamera, Fotodioden) sowie Hard- und Software (Recheneinheiten, Datenspeicher, Softwareprogramme usw.) ausgestattet ist, kann von einer einfachen Signalerkennung, einer anschließenden Objekterkennung und anschließenden Fahrzeugkontrollfunktionen profitieren.
  • 81 zeigt eine Seitenansicht eines Fahrzeugs 8100 nach verschiedenen Ausführungsformen. 82 zeigt eine Draufsicht auf das Fahrzeug 8100 aus 81.
  • Das Fahrzeug 8100 kann einen Fahrzeugaufbau 8102 und Räder 8104 umfassen. Darüber hinaus kann das Fahrzeug 8100 eine Vielzahl von z.B. zwei oder vier Seitenscheiben 8106, eine Frontscheibe 8202 und eine Heckscheibe 8204 umfassen.
  • Das Fahrzeug 8100 kann ferner eine oder mehrere Lichtquellen 8108 aufweisen, die an einer Außenfläche 8112 des Fahrzeugaufbaus 8102 und/oder innerhalb des Fahrzeugaufbaus 8102 (d.h. in der Fahrzeugkabine) angebracht und so konfiguriert sind, dass sie Licht im Infrarot- oder nahen Infrarot-Wellenlängenbereich aussenden, und/oder eine oder mehrere lichtemittierende Oberflächenstrukturen 8110 über der Außenfläche 8112 des Fahrzeugaufbaus 8102, die so konfiguriert sind, dass sie Licht im Infrarot- oder nahen Infrarot-Wellenlängenbereich aussenden. Die Lichtquellen 8108, die sich innerhalb des Fahrzeugaufbaus 8102 befinden, können an einem Rahmenteil des Fahrzeugaufbaus 8102 oder an jedem anderen Bauteil des Fahrzeugs 8100, wie z.B. an einem Fahrzeugarmaturenbrett 8206, angebracht werden. Die jeweilige Lichtquelle 8108 darf so angebracht werden, dass das ausgestrahlte Licht in einer Hauptemissionsrichtung abgestrahlt wird, die auf einen lichtdurchlässigen oder transparenten Teil des Fahrzeugs trifft, z.B. auf eines der Fahrzeugfenster 8106, 8202, 8204. Die Lichtquellen 8108 können als aktive Lichtquellen wie Laserdioden, Leuchtdioden und/oder organische Leuchtdioden konfiguriert sein. Darüber hinaus können die eine oder mehrere lichtemittierende Oberflächenstruktur(en) 8110 als passive oder aktive Lichtquellen konfiguriert sein, die so konfiguriert sind, dass sie (z. B. indirekt) Licht z. B. über die Außenfläche 8112 der Fahrzeugkarosserie 8102 ausstrahlen.
  • Das Fahrzeug 8100 kann ferner einen oder mehrere Lichtsensoren 52, 81 aufweisen, die an der Außenfläche 8112 der Fahrzeugkarosserie 8102 angebracht und so konfiguriert sind, dass sie Licht im Infrarot- oder nahen Infrarot-Wellenlängenbereich erkennen. Der eine oder die mehreren Lichtsensoren 52, 81 können einen oder mehrere LIDAR-Sensoren 52 und/oder einen oder mehrere Kamerasensoren 81 und/oder infrarotempfindliche Fotodioden 81 aufweisen.
  • Das Fahrzeug 8100 kann außerdem einen oder mehrere Prozessoren 8208 und/oder einen oder mehrere Controller 8208 aufweisen. Der eine oder die mehreren Prozessoren 8208 und der eine oder die mehreren Controller 8208 können als separate Hardware- und/oder Softwareeinheiten oder als eine gemeinsame Hardware- und/oder Softwareeinheit implementiert werden.
  • Der eine oder die mehreren Prozessoren 8208 können so konfiguriert werden, dass sie Fahrzeug-Identifizierungsdaten (z. B. die Fahrzeug-Identifizierungsdaten wie oben beschrieben) erzeugen und die Fahrzeug-Identifizierungsdaten dem ausgestrahlten Licht einer entsprechenden Lichtquelle 8108 und/oder einer entsprechenden lichtemittierenden Oberflächenstruktur 8110 als Teil des kodierten Signals hinzufügen. Das eine oder die mehreren Steuergeräte 8208 können so konfiguriert werden, dass sie die eine oder die mehreren Lichtquellen 8108 und/oder die eine oder die mehreren lichtemittierenden Oberflächenstrukturen 8110 steuern. Der eine oder die mehreren Prozessoren 8208 und/oder der eine oder die mehreren Controller 8208 können mit der einen oder den mehreren Lichtquellen 8108 und/oder mit der einen oder den mehreren lichtemittierenden Oberflächenstrukturen 8110 elektrisch gekoppelt sein.
  • Der eine oder mehrere Prozessoren 8208 können so konfiguriert werden, dass ein Teil oder das gesamte LIDAR-Datenverarbeitungssystem 60 so konfiguriert werden kann, dass es Signalverarbeitung 61 und/oder Datenanalyse und/oder Berechnung 62 und/oder Sensorsignalfusion durchführt.
  • 83 zeigt ein Flussdiagramm 8300, das ein im ersten LIDAR-Sensorsystem (d.h. im Emissionspfad) 40 durchgeführtes Verfahren nach verschiedenen Ausführungsformen zeigt.
  • In 8302 kann ein Benutzer die IR-Emissionskonfigurationen der einen oder mehreren Lichtquellen 8108 und/oder der einen oder mehreren lichtemittierenden Oberflächenstrukturen 8110 voreinstellen oder anpassen, z.B.
    • - verschiedene Merkmale 8304 der Abstrahlung (Emittierung) einer oder mehrerer Lichtquellen 8108;
    • - eine Art/Typ der Informations- und Datenkommunikation 8306; und/oder
    • - eine Auswahl von einer oder mehreren der einen oder mehreren lichtemittierenden Oberflächenstrukturen 8110 und deren Emissionscharakteristik 8308.
  • In 8310 können der eine oder mehrere Controller 8208 die Emitter (d.h. die eine oder mehrere Lichtquellen 8108 und/oder die eine oder mehrere lichtemittierende Oberflächenstrukturen 8110) so steuern, dass sie Licht im IR- und/oder NIR-Wellenlängenbereich emittieren. Das emittierte Licht kann kodierte Informationen (kodiertes Signal) aufweisen, die auf ein Trägersignal moduliert werden können. Die kodierten Informationen können Fahrzeug-Identifikationsdaten wie Fahrzeugtyp, Geschwindigkeit, Belegung, Fahrtroute, Reiseverlauf und ähnliches aufweisen. Solche Fahrzeug-Identifikationsdaten können durch ein geeignetes Fahrzeug-Datenverarbeitungsgerät auf der Grundlage von Fahrzeug-Sensordaten und jeder anderen zugänglichen Information (wie GPS-Signale, Beschleunigungs- und Orientierungssensoren, Fahrzeug-BCU-Daten oder Metadaten) erzeugt werden.
  • Das Licht kann direkt in die Umgebung (Block 8312) und/oder über die emittierenden Oberflächen (d. h. die eine oder mehrere lichtemittierende Oberflächenstruktur(en) 8110) in die Umgebung (Block 8314) abgestrahlt werden.
  • 84 zeigt ein Flussdiagramm 8400, das einen im zweiten LIDAR-Sensorsystem (d.h. im Detektionspfad) 50 durchgeführten Prozess in Übereinstimmung mit verschiedenen Ausführungsformen darstellt.
  • In verschiedenen Ausführungsformen können in 8402 die LIDAR-Sensoren 52 und/oder die Kamerasensoren 81 und/oder infrarotempfindliche Fotodioden 81 Lichtsignale erfassen, z.B. Licht, das von einem anderen Fahrzeug auf die gleiche Weise wie oben beschrieben abgestrahlt werden kann. Darüber hinaus kann in 8404 eine Signalanalyse und/oder Objekterkennung und/oder Objekterkennung durchgeführt werden. Darüber hinaus kann in 8406 eine Sensorfusion und/oder Fahrzeugsteuerung durchgeführt werden (z.B. durch den einen oder mehrere Prozessoren 8208). In 8408 kann ein Antwortsignal erzeugt werden (z. B. als ein auf ein Lichtsignal aufmoduliertes Signal in ähnlicher Weise wie oben beschrieben), auf ein Lichtsignal moduliert und ausgesendet werden, z. B. an das Fahrzeug, von dem das detektierte Signal ausgesendet wurde.
  • Verschiedene Ausführungsformen, wie sie unter Bezugnahme auf 81 bis 84 oben beschrieben sind, können die Emitterpunkte so steuern, dass sie mit einer Frequenz blinken, die gleich der Resonanzfrequenz des MEMS-Spiegels ist, und können verwendet werden, um das eigene LIDAR-Sensorsystem von einem anderen LIDAR-Sensorsystem zu trennen oder sogar die Emitterfrequenz des eigenen LIDAR-Sensorsystems zu ändern.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1k ist ein Fahrzeug. Das Fahrzeug kann eine Fahrzeugkarosserie und eine oder mehrere Lichtquellen umfassen, die an einer Außenfläche der Fahrzeugkarosserie und/oder innerhalb der Fahrzeugkarosserie angebracht und so konfiguriert sind, dass sie Licht im infraroten oder nahen Infrarot-Wellenlängenbereich aussenden, und/oder eine oder mehrere lichtemittierende Oberflächenstrukturen, die über die Außenfläche der Fahrzeugkarosserie verteilt und so konfiguriert sind, dass sie Licht im infraroten oder nahen Infrarot-Wellenlängenbereich aussenden.
    • In Beispiel 2k kann der Gegenstand von Beispiel 1k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende(n) Fläche(n) so konfiguriert sind, dass sie kontinuierlich Licht emittieren.
    • In Beispiel 3k kann der Gegenstand von Beispiel 1k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende(n) Oberfläche(n) so konfiguriert sind, dass sie Licht in einer Vielzahl von nicht kontinuierlichen Zeitintervallen emittieren.
    • In Beispiel 4k kann der Gegenstand von Beispiel 3k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende(n) Oberfläche(n) so konfiguriert sind, dass sie Licht in einer Vielzahl von nicht kontinuierlichen Zeitintervallen emittieren. Die Zeitintervalle sind festgelegt.
    • In Beispiel 5k kann der Gegenstand von Beispiel 3k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende(n) Oberfläche(n) so konfiguriert sind, dass sie Licht in einer Vielzahl von nicht kontinuierlichen Zeitintervallen emittieren. Die Zeitintervalle sind veränderbar.
    • In Beispiel 6k kann der Gegenstand eines jeden der Beispiele 1k bis 5k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende(n) Fläche(n) so konfiguriert sind, dass sie Licht emittieren. Das emittierte Licht enthält ein kodiertes Signal.
    • In Beispiel 7k kann der Gegenstand eines der Beispiele 1k bis 6k optional umfassen, dass das Fahrzeug ferner einen oder mehrere Lichtsensoren aufweist, die an einer Außenfläche der Fahrzeugkarosserie angebracht und so konfiguriert sind, dass sie Licht im infraroten oder nahen Infrarot-Wellenlängenbereich erkennen.
    • In Beispiel 8k kann der Gegenstand von Beispiel 7k optional umfassen, dass der eine oder die mehreren Lichtsensoren mindestens einen LIDAR-Sensor (52) aufweisen.
    • In Beispiel 9k kann der Gegenstand eines der Beispiele 7k oder 8k optional umfassen, dass der eine oder die mehreren Lichtsensoren mindestens einen Kamerasensor aufweisen (81).
    • In Beispiel 10k kann der Gegenstand eines der Beispiele 6k bis 9k optional umfassen, dass das Fahrzeug ferner einen oder mehrere Prozessoren aufweist, die so konfiguriert sind, dass sie Fahrzeug-Identifikationsdaten erzeugen und die Fahrzeug-Identifikationsdaten dem ausgestrahlten Licht als Teil des kodierten Signals hinzufügen.
    • In Beispiel 11k kann der Gegenstand eines der Beispiele 1k bis 10k optional umfassen, dass das Fahrzeug ferner einen oder mehrere Regler aufweist, die so konfiguriert sind, dass sie die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende Oberflächenstruktur(en) steuern.
    • In Beispiel 12k kann der Gegenstand eines der Beispiele 1k bis 11 k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehreren lichtemittierenden Oberflächenstrukturen so konfiguriert sind, dass sie Licht in einem Wellenlängenbereich emittieren, der zumindest teilweise auch für LIDAR vorgesehen ist.
    • In Beispiel 13k kann der Gegenstand eines der Beispiele 1k bis 11 k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehreren lichtemittierenden Oberflächenstrukturen so konfiguriert sind, dass sie Licht in einem Wellenlängenbereich emittieren, der außerhalb eines für LIDAR vorgesehenen Wellenlängenbereichs liegt.
    • In Beispiel 14k kann der Gegenstand eines der Beispiele 1k bis 13k optional beinhalten, dass mindestens eine Lichtquelle der einen oder mehreren Lichtquellen hinter einer Frontscheibe des Fahrzeugs angeordnet und so konfiguriert ist, dass sie das Licht durch die Frontscheibe des Fahrzeugs ausstrahlt.
    • In Beispiel 15k kann der Gegenstand eines der Beispiele 1k bis 14k wahlweise umfassen, dass mindestens eine Lichtquelle der einen oder mehreren Lichtquellen hinter einem Seitenfenster des Fahrzeugs angeordnet und so konfiguriert ist, dass sie das Licht durch das Seitenfenster des Fahrzeugs ausstrahlt.
    • In Beispiel 16k kann der Gegenstand eines der Beispiele 1k bis 15k optional umfassen, dass mindestens eine Lichtquelle der einen oder mehreren Lichtquellen hinter einer Heckscheibe des Fahrzeugs angeordnet und so konfiguriert ist, dass sie das Licht durch die Heckscheibe des Fahrzeugs ausstrahlt.
    • In Beispiel 17k kann der Gegenstand eines der Beispiele 1k bis 16k optional umfassen, dass das Fahrzeug ferner ein LIDAR-Datenverarbeitungssystem (60) aufweist, das für die Durchführung der Signalverarbeitung (61) und/oder Datenanalyse und/oder Berechnung (62) und/oder Sensorsignalfusion konfiguriert ist.
    • In Beispiel 18k kann der Gegenstand eines der Beispiele 1k bis 17k optional umfassen, dass mindestens eine Lichtquelle der einen oder mehreren Lichtquellen eine Laserdiode und/oder eine Leuchtdiode aufweist.
    • In Beispiel 19k kann der Gegenstand von Beispiel 18k optional umfassen, dass mindestens eine Lichtquelle der einen oder mehreren Lichtquellen eine gepulste Laserdiode und/oder eine gepulste lichtemittierende Diode aufweist.
    • In Beispiel 20k kann der Gegenstand von Beispiel 19k optional umfassen, dass die gepulste Laserdiode und/oder die gepulste Leuchtdiode so konfiguriert ist, dass sie eine Impulsfolge mit einer Vielzahl von Laserimpulsen emittiert.
    • Beispiel 21k ist ein Fahrzeug. Das Fahrzeug kann eine Fahrzeugkarosserie und einen oder mehrere Lichtsensoren umfassen, die an einer Außenfläche der Fahrzeugkarosserie angebracht und so konfiguriert sind, dass sie Licht im infraroten oder nahen Infrarot-Wellenlängenbereich erkennen.
    • In Beispiel 22k kann der Gegenstand von Beispiel 21k optional umfassen, dass der eine oder die mehreren Lichtsensoren mindestens einen LIDAR-Sensor (52) aufweisen.
    • In Beispiel 23k kann der Gegenstand eines der Beispiele 21k oder 22k optional umfassen, dass der eine oder die mehreren Lichtsensoren mindestens einen Kamerasensor aufweisen (81).
    • In Beispiel 24k kann der Gegenstand eines der Beispiele 21k bis 23k optional umfassen, dass das Fahrzeug ferner ein LIDAR-Datenverarbeitungssystem (60) aufweist, das so konfiguriert ist, dass es Signalverarbeitung (61) und/oder Datenanalyse und/oder Berechnung (62) und/oder Sensorsignalfusion durchführt.
    • Beispiel 25k ist ein Verfahren. Das Verfahren kann eine oder mehrere Lichtquellen, die an einer Außenfläche einer Fahrzeugkarosserie und/oder innerhalb der Fahrzeugkarosserie angebracht sind, und/oder eine oder mehrere lichtemittierende Oberflächenstrukturen, die über die Außenfläche der Fahrzeugkarosserie verteilt sind und Licht im infraroten oder nahen infraroten Wellenlängenbereich emittieren, und einen oder mehrere Regler umfassen, die die eine oder mehrere Lichtquellen und/oder die eine oder mehrere lichtemittierende Oberflächenstrukturen so steuern, dass sie Licht mit einem lichtquellenspezifischen Zeitschema und/oder Amplitudencodierungsschema emittieren.
    • In Beispiel 26k kann der Gegenstand von Beispiel 25k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehreren lichtemittierenden Oberflächenstrukturen eine Laserdiode und/oder eine Leuchtdiode aufweisen.
    • In Beispiel 27k kann der Gegenstand von Beispiel 26k optional umfassen, dass die eine oder mehrere Lichtquellen und/oder die eine oder mehreren lichtemittierenden Oberflächenstrukturen eine gepulste Laserdiode und/oder eine gepulste Leuchtdiode aufweisen.
    • In Beispiel 28k kann der Gegenstand von Beispiel 27k optional umfassen, dass die mindestens eine gepulste Laserdiode und/oder die gepulste lichtemittierende Diode eine Laserpulsfolge emittiert, die eine Vielzahl von Laserpulsen umfasst.
    • Beispiel 29k ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht flüchtigen computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines Fahrzeugs gemäß einem der Beispiele 1k bis 24k ausgeführt werden, das Fahrzeug veranlassen, das Verfahren gemäß einem der Beispiele 25k bis 28k auszuführen.
    • Beispiel 30k ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht flüchtien computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein Fahrzeug nach einem der oben genannten Beispiele für ein Verfahren, nach einem der oben genannten Beispiele für ein Fahrzeug ausführt.
  • Wie bereits oben erwähnt, verwendet ein LIDAR-Sensorsystem elektromagnetische Strahlung (sichtbar, infrarot), die von einer Lichtquelle (z.B. IR-Laserdiode, IR-VCSEL) emittiert wird, um Informationen über Objekte in der Umgebung des LIDAR-Sensorsystems zu ermitteln. In einer beispielhaften Anwendung werden solche LIDAR-Sensorsysteme an einem Fahrzeug (LIDAR-Sensorgerät) angeordnet, um Informationen über Objekte auf einer Fahrbahn oder in der Nähe einer Fahrbahn zu ermitteln.
  • Zu diesen Objekten können andere Verkehrsteilnehmer (z.B. Fahrzeuge, Fußgänger, Radfahrer usw.), Elemente der Straßeninfrastruktur (z.B. Verkehrsschilder, Ampeln, Fahrbahnmarkierungen, Leitplanken, Verkehrsinseln, Gehsteige, Brückenpfeiler usw.) und allgemein alle Arten von Objekten gehören, die absichtlich oder unabsichtlich auf einer Fahrbahn oder in der Nähe einer Fahrbahn gefunden werden können. Die über ein solches LIDAR-Sensorsystem gewonnenen Informationen können den Abstand, die Geschwindigkeit, die Beschleunigung, die Bewegungsrichtung, die Flugbahn, die Pose und/oder andere physikalische oder chemische Eigenschaften dieser Objekte umfassen.
  • Alternativ kann das LIDAR-Sensorsystem auch in der Fahrerkabine installiert werden, um Fahrerüberwachungsfunktionen wie z.B. Belegungserkennung, Blickverfolgung, Gesichtserkennung, Müdigkeitserkennung, Zugangsberechtigung, Gestensteuerung usw.) durchzuführen.
  • Um solche Informationen abzuleiten, kann das LIDAR-Sensorsystem die Laufzeit (TOF) der emittierten elektromagnetischen Strahlung oder Variationen der physikalischen Eigenschaften wie Phase, Amplitude, Frequenz, Polarisation usw. der von mindestens einer Lichtquelle emittierten elektromagnetischen Strahlung bestimmen und nachdem die emittierte Strahlung von mindestens einem Objekt im Beleuchtungsfeld (Field of Illumination, FOI) / Emissionsfeld (Field of Emission, FOE) reflektiert oder gestreut und von einem Photodetektor und/oder einem LIDAR-Sensorsystem detektiert wurde, kann ein vordefiniertes Punktmuster emittiert werden, das verzerrt werden kann, wenn es von einer gekrümmten Oberfläche (oder nicht, wenn die Oberfläche flach ist) reflektiert und von einer Kamera und/oder einem LIDAR-Sensorsystem gemessen wird, kann das LIDAR-Sensorsystem Informationen über die oben genannten Objekte mittels Triangulationsmethoden bestimmen.
  • Um weit entfernte Objekte (z.B. Objekte in einer Entfernung von mehr als 200 m) zu erkennen, kann die mindestens eine Lichtquelle des LIDAR-Sensorsystems in der Lage sein, Strahlung mit hoher Strahlungsleistung auszusenden. Ein LIDAR-Sensorsystem kann daher mit einem Satz von Laserstrahlern (eine oder mehrere Lichtquellen) ausgestattet sein, die jeweils in der Lage sind, Strahlung mit einer optischen Leistung von 100 W oder mehr zu emittieren. Typischerweise werden solche LIDAR-Sensorsysteme gepulst betrieben, z.B. mit Pulsdauerlängen im Bereich von einigen Nanosekunden bis zu einigen zehn Nanosekunden und Pulswiederholungszeiten, d.h. Laser-AUS-Zeiten, im Bereich von einigen hundert Nanosekunden bis zu einigen Mikrosekunden.
  • Da die Expositionszeit gegenüber gefährlicher Strahlung einer der kritischen Faktoren für die Augensicherheit ist, können gepulste Lichtquellen mit Impulsdauerlängen im Nanosekundenbereich trotz ihrer hohen optischen Ausgangsleistung im Allgemeinen ein vergleichsweise geringes Risiko für die Augensicherheit darstellen. Viele LIDAR-Sensorsysteme verwenden jedoch Strahllenkungseinheiten, bei denen ein oszillierendes Element verwendet wird, um den Lichtstrahl über das Beleuchtungsfeld (Field of Illumination, FOI) abzutasten, z.B. ein MEMS-System, das in einem Schwingungsmodus mit sinusförmiger Charakteristik (resonanter oder nicht-resonanter Modus) betrieben wird. Typische Spiegelschwingungsfrequenzen liegen im kHz-Bereich, d.h., dass intensive Laserstrahlung alle paar Millisekunden (oder weniger) in ein und denselben Winkelsektor gerichtet wird.
  • Besonders kritisch ist diese Situation an der Peripherie des Beleuchtungsfelds (FOI), da Abtastspiegel mit sinusförmigem Schwingungsverhalten durch eine nicht konstante Abtastgeschwindigkeit gekennzeichnet sind. Die Abtastgeschwindigkeit ist in der Nähe der Nullposition (oder Flat-State-Position) am höchsten und an den Umkehrpunkten am niedrigsten. Dies bedeutet, dass der Spiegel deutlich länger in Positionen nahe dem Umkehrpunkt verbleibt und daher höhere Strahlungsmengen nahe der Peripherie des FOI emittiert werden.
  • Dies kann zu erheblichen Augensicherheitsproblemen führen, da sich häufig am Rande des FOI Objekte mit besonderen Anforderungen an die Augensicherheit befinden können, z.B. Fußgänger auf einem Bürgersteig oder Radfahrer in der Nähe des Straßenrandes. Es sollte auch berücksichtigt werden, dass die Sicherheitsvorschriften von der Verwendung von LIDAR-Sensorsystemen zur Überwachung von Fahrzeugen vorne, hinten, in Kurven und an den Seiten abhängen können, oder wenn ein LIDAR-Sensorsystem in einen Scheinwerfer oder eine andere Fahrzeugleuchte integriert ist.
  • Gegenstand der vorliegenden Offenbarung ist es, ein Verfahren zur Erhöhung der Augensicherheit, z.B. in Randbereichen des Sichtfelds (FOV) oder Beleuchtungsfelds (FOI) von LIDAR-Sensorsystemen mit Abtastspiegeln, bereitzustellen, die in Abhängigkeit von verschiedenen äußeren oder inneren Bedingungen einstellbar ist. Darüber hinaus ist es Gegenstand der vorliegenden Offenbarung, Mittel zur Verfügung zu stellen, um einen zuverlässigen Betrieb des Sicherheitsverfahrens unter realen Betriebsbedingungen und ein hohes Signal/Rausch-Verhältnis zu gewährleisten.
  • Um diese Anforderungen zu erfüllen, wird ein LIDAR-Sensorsystem vorgeschlagen, bei dem die Winkelemissionscharakteristik einer Scanspiegel-Strahllenkvorrichtung dynamisch angepasst werden kann.
  • Die dynamische Anpassung kann eine Blendenvorrichtung umfassen, deren Fläche des offenen Durchgangs (Öffnung der Blende) durch Zuführung einer entsprechenden Steuerspannung verändert werden kann. Aus grundsätzlicher Sicht kann eine solche Blendenvorrichtung einer dynamischen Blendenvorrichtung ähneln, die z.B. für dynamische Dimmoperationen in Videoprojektionssystemen verwendet wird. Während jedoch in Projektionssystemen der Lichtstrahl durch eine Irisblende mit runder Form verändert werden kann, kann die Situation in einem LIDAR-Sensorsystem mit Abtastspiegel ganz anders sein, z.B. in einem 1-dimensionalen Abtastsystem, bei dem ein oder zwei MEMS-Spiegel um eine oder zwei Achsen oszillieren.
  • In diesem Fall könnte es ausreichend sein, die FOI über Blendenelemente zu begrenzen, die auf beiden Seiten des Schwenkspiegels angeordnet sind und die entlang von Richtungen beweglich sind, die überwiegend senkrecht zu einer Mittellinie der FOI orientiert sind. Mit den beweglichen Blendenelementen ist es möglich, die Öffnung der dynamischen Blende zu verändern. Die Blendenelemente können z.B. rechteckige oder quadratische Formen haben. Sie können flache oder gekrümmte Oberflächen haben, z.B. mit sphärischen, elliptischen oder parabolischen Konturen. Hinsichtlich der optischen Eigenschaften können die Blendenelemente absorbierende Eigenschaften haben (in Bezug auf die Wellenlänge der LIDAR-Lichtquelle), um die gesamte Strahlung, die in der Nähe der FOI-Grenzlinien emittiert wird, wirksam abzuschirmen. Alternativ können die Blendenelemente reflektierende oder teilreflektierende optische Eigenschaften aufweisen (z.B. dichroitische Elemente oder Schichten).
  • Die Blendenelemente können so konfiguriert werden, dass an ihrer Oberfläche eine spiegelnde Reflexion stattfindet, oder sie können diffusive oder mikrolinsenähnliche Strukturen aufweisen. Alternativ können sie auch Mikrolöcher oder Ausschnitte aufweisen, um einen Teil der Strahlung durchzulassen. Darüber hinaus können die Blendenelemente Dotierstoffe oder andere Materialien enthalten, die zur Modifizierung der optischen Eigenschaften des reflektierten (ausgekoppelten) Lichts verwendet werden. Zum Beispiel können Phosphormaterialien oder Materialien zur Wellenlängenkonversion hinzugefügt werden, um die Wellenlänge des auftreffenden Lichts zu verändern, entweder durch Aufwärtskonversion (z.B. in den VIS-Bereich) oder Abwärtskonversion (z.B. von 850 nm oder 905 nm auf eine Wellenlänge im Bereich von 1500 nm).
  • In verschiedenen Ausführungsformen kann dies zusammen mit Detektoren verwendet werden, die in verschiedenen Wellenlängenbereichen empfindlich sind. Aktoren wie piezoelektrische Elemente oder Schwingspulensysteme (mit Frequenzen im Bereich von Hunderten von Hz, aber auch bis zu 2 kHz oder sogar 20 kHz) können verwendet werden, um die Elemente der dynamischen Blendenvorrichtung zu bewegen. Die Öffnung der dynamischen Blende kann durch die Aktivierung eines Aktors verändert werden, der eine Positionsänderung der Blendenelemente bewirkt. Es ist auch möglich, den offenen Durchgang der dynamischen Blende zu verändern, indem eine entsprechende Steuerspannung zugeführt wird, die eine Positionsänderung der Blendenelemente bewirkt.
  • Neben der oben erwähnten mechanischen Veränderung der Fläche des offenen Durchgangs (Öffnung der dynamischen Blendenvorrichtung) kann die dynamische Blendenvorrichtung elektrochrome Materialien enthalten, bei denen das Verhältnis zwischen optischer Transmission und Reflexion der dynamischen Blendenvorrichtung durch Anlegen einer entsprechenden Steuerspannung verändert werden kann. Alternativ kann die dynamische Blendenvorrichtung so konfiguriert werden, dass ein Orientierungswinkel angepasst werden kann, um das Verhältnis zwischen optischer Transmission und Reflexion der Elemente zu ändern. Solche Blendenvorrichtungen können sich permanent in die FOI hinein erstrecken, während ihre Eigenschaften weiterhin dynamisch veränderbar sein können.
  • In verschiedenen Ausführungsformen/Implementierungen kann die dynamische Blendenvorrichtung ein oder mehrere Blendenelemente aufweisen. In verschiedenen Ausführungsformen kann das Blendenelement identische und/oder unterschiedliche Blendenelemente aufweisen, die ein plattenartiges Element, ein schildartiges Element oder ähnliches sein können.
  • In verschiedenen Ausführungsformen wird die dynamische Blendenvorrichtung als Flüssigkristallvorrichtung (z.B. Flüssigkristallvorrichtung 6100, 6200) oder als räumlicher Lichtmodulator (z.B. räumlicher Lichtmodulator 5910) konfiguriert, wie in 59 bis 67 beschrieben.
  • Je nach der genauen Ausführung der dynamischen Blendenvorrichtung (siehe Absatz oben) kann die abgeschirmte Strahlung für weitere Zwecke verwendet werden. Zum Beispiel kann das Licht, das von der Blende der LIDAR-Lichtquelle reflektiert wird, weiter verwendet werden:
    • - auf einen Detektor (z.B. eine einfache Fotodiode) reflektiert, um zumindest qualitativ zu überwachen, ob die dynamische Blende sich in einer Position befindet, in der sie einen Teil des FOI abschirmt oder nicht. Dies hilft, die Zuverlässigkeit des Systems zu erhöhen, z.B. im Hinblick auf die oben erwähnte Augensicherheitsfunktionalität. Ein solcher Aufbau würde es z.B. ermöglichen, Abweichungen von einem erwarteten Verhalten zu erkennen und mögliche Abweichungen zu kompensieren, z.B. durch eine allgemeine Verringerung der LIDAR-Impulshöhe, eventuell auch in Abhängigkeit von der Fahrzeuggeschwindigkeit oder der Entfernung zu Objekten.
    • - in Richtung des LIDAR-Hauptdetektors reflektiert, wodurch mehr quantitative Analysen möglich sind. Das reflektierte Licht kann z.B. für Referenzzwecke (Zeit- oder Taktsynchronisation) verwendet werden. Abgesehen von solchen Überwachungs- und Zuverlässigkeitsaufgaben könnte das reflektierte Licht auch dazu verwendet werden, Informationen über den Status der LIDAR-Lichtquelle und der LIDAR-Strahllenkungseinheit abzuleiten. Für solche Zwecke kann die dynamische Blende z.B. in regelmäßigen Zeitabständen geschlossen werden, unabhängig oder zusätzlich zu den oben genannten Augensicherheitsfunktionen (z.B. zu Zeiten, in denen der äußerste Rand des Beleuchtungsfeldes beleuchtet wird (max. vertikaler und horizontaler Winkel), was zumindest in bestimmten Situationen ein weniger interessanter Bereich des Beleuchtungsfeldes sein kann). Auf diese Weise kann festgestellt werden, ob die Lichtquelle noch Lichtimpulse mit den erwarteten Eigenschaften aussendet (die z.B. in Abhängigkeit von der Temperatur oder der Alterung variieren können) und ob die Strahllenkereinheit immer noch wie erwartet funktioniert (Abweichungen können z.B. durch mechanische Vibrationen und Stöße oder durch Alterungsphänomene auftreten).
    • - zu anderen optischen Elementen wie Lichtleitern reflektiert, die das Licht zu anderen lichtbasierten Anwendungen übertragen können. Solche anderen lichtbasierten Anwendungen können Systeme zur Fahrerüberwachung (z.B. Belegungserkennung, Blickverfolgung, Gesichtserkennung, Schläfrigkeitserkennung, Zugangsberechtigung, Gestensteuerung usw.) oder Systeme zur lichtbasierten Kommunikation (die es ermöglichen, entweder mit internen oder externen Partnern zu kommunizieren, z.B. auf der Grundlage einer Signalcodierung über Impulsfolgen mit unterschiedlichen Impulshöhen und/oder Impulslängen und/oder Impulsformen) umfassen.
  • Weitere Funktionalitäten sind im konkreten Fall denkbar, wenn die Blendenelemente teilreflektierende und teiltransparente optische Eigenschaften aufweisen, z.B. durch dichroitische Elemente. Solche Elemente können in Kombination mit einer Lichtquelle verwendet werden, die in der Lage ist, mindestens zwei verschiedene Wellenlängen zu emittieren. Als Beispiel kann die Lichtquelle Lichtemitter mit einer kürzeren Wellenlänge (z.B. nahe 900 nm) und einer größeren Wellenlänge (z.B. über 1000 nm oder über 1500 nm) umfassen. Das dichroitische Blenden-Element kann dann so konfiguriert werden, dass es die kürzere Wellenlänge reflektiert (die bekanntermaßen kritischer für die Augensicherheit ist), während die längere Wellenlänge durchgelassen wird (und die bekanntermaßen weniger kritisch für die Augensicherheit ist).
  • Auf diese Weise steht an der Peripherie des FOI immer eine gewisse Strahlungsmenge für eine frühzeitige Erkennung gefährdeter Objekte zur Verfügung, zumindest Strahlung mit der höheren Wellenlänge für den Fall, dass die dynamische Blende geschlossen ist. Abgesehen von Überlegungen zur Augensicherheit kann der Einsatz von Lichtstrahlern mit einer höheren Wellenlänge eine Verbesserung der Systemzuverlässigkeit bei ungünstigen Wetterbedingungen wie Nebel, Schnee, Regen usw. ermöglichen. Abhängig von der Wellenlängendifferenz zwischen der höheren und der kürzeren Wellenlänge kann nur ein LIDAR-Detektor ausreichen, um Signale von beiden Arten von Strahlern (wenn auch mit unterschiedlicher Empfindlichkeit) zu erkennen. Im Falle größerer Wellenlängenunterschiede können zwei verschiedene Arten von Detektoren verwendet werden. Beide Wellenlängen können entweder den gleichen FOI oder verschiedene Teile des gesamten FOI beleuchten, während z.B. die höhere Wellenlänge nur den Sperrbereich der dynamischen, dichroitischen Blende beleuchten kann.
  • Es gibt verschiedene externe oder interne Bedingungen und Faktoren, die als Eingangsparameter für eine Anpassung der dynamischen Blendenvorrichtung verwendet werden können. Äußere Bedingungen beschreiben in diesem Zusammenhang Zustände, die außerhalb des LIDAR-Sensorsystems vorliegen, während interne Bedingungen Zustände sind, die innerhalb des LIDAR-Sensorsystems vorliegen.
  • Beispiele für interne Bedingungen können sein:
    • - Temperaturbedingungen (z.B. untypisch niedrige Temperaturen können zu untypisch hohen Laserleistungen und damit zu einer erhöhten Wahrscheinlichkeit für Augensicherheitsprobleme führen);
    • - Vibrationen (z.B. Vibrationen mit großen Amplituden oder mit Frequenzen, von denen bekannt ist, dass sie für das Strahllenkungssystem kritisch sind);
    • - plötzliche Beschleunigungen (Schlaglöcher in der Straße);
    • - Lichtquellenparameter (z.B. eine Ausgangsleistung nahe der maximalen Nennleistung des Lasers).
  • Äußere Bedingungen können sich auf das Gerät (z.B. das Fahrzeug) beziehen, zu dem das LIDAR-Sensorsystem gehört, oder auf Bedingungen, die außerhalb des LIDAR-Sensorgerätes (z.B. das Fahrzeug), zu dem das LIDAR-Sensorsystem gehört, vorhanden sind.
  • Beispiele für äußere Bedingungen im Zusammenhang mit dem LIDAR-Sensorgerät (z.B. dem Fahrzeug) können sein:
    • - Fahrzeugbedingungen wie Geschwindigkeit, Beschleunigung, Vibrationen;
    • - Fahrerbedingungen (z. B. Öffnungsgröße der Fahrerschülerpupille (auch unter Berücksichtigung des Tragens von Brillen oder Kontaktlinsen), die bekanntermaßen von der Umgebungsbeleuchtung, aber auch von persönlichen Merkmalen abhängt); solche Faktoren sind relevant, wenn das LIDAR-System für Detektionsfunktionen innerhalb der Fahrerkabine verwendet wird (z. B. Fahrerüberwachungsfunktionen wie Belegungserkennung, Blickverfolgung, Gesichtserkennung, Müdigkeitserkennung, Zugangsberechtigung, Gestenkontrolle usw.).
  • Beispiele für äußere Bedingungen, die außerhalb der LIDAR-Sensoreinrichtung (z.B. dem Fahrzeug), zu der das LIDAR-Sensorsystem gehört, vorliegen:
    • - Fahrzeugumgebung (Autobahn, innerhalb der Stadtgrenzen, in der Nähe von Fußgängerzonen, in der Nähe von Parkplätzen, in Parkhäusern usw.). Je nach der spezifischen Umgebung ist es mehr oder weniger wahrscheinlich, dass gefährdete Objekte in die Peripherie des FOI gelangen. Informationen über diese Umgebung können von verschiedenen anderen Geräten empfangen werden (z.B. von anderen Sensoren wie RADAR, Ultraschall, Kameras usw., sowie von anderen am Fahrzeug vorhandenen LIDAR-Sensoren, Kommunikationssystemen (C2C, C2X), Kartenmaterial oder Navigationssystemen usw.
    • - Objektklassifikation, d.h. Informationen über die Art der Objekte, die sich in der Nähe befinden. Solche Informationen können sowohl aus der Datenanalyse anderer Sensoren (siehe oben), als auch aus der Datenanalyse des LIDAR-Sensorsystems selbst abgeleitet werden.
    • - Umweltparameter wie Umgebungslichtbedingungen (die sich auf die Größe der Pupillen von Personen auswirken) und Wetterbedingungen (von denen bekannt ist, dass sie sich auf die optischen Eigenschaften wie Reflexion und Streuung des von der LIDAR-Lichtquelle emittierten Lichts auswirken), z. B. Eis oder Regentropfen auf der Oberfläche eines Autos.
    • - Daten, die bei früheren Fahrten auf derselben Strecke gesammelt, aufgezeichnet und ausgewertet wurden und die Informationen über statische Straßenstrukturen (wie Gebäude, Bäume, Infrastrukturelemente wie Lärmschutzwände usw.) enthalten können, die in Bezug auf die Augensicherheit unkritisch sind, sowie Informationen über Straßenstrukturen (wie Fußgängerüberwege, Fußgängerampeln usw.) mit erhöhter Wahrscheinlichkeit für kritische Situationen in Bezug auf die Augensicherheit.
  • Die dynamische Blende des offenbarten LIDAR-Sensorsystems wird von einem Sensor-Controller gesteuert, der Lenkbefehle von einem LIDAR-Datenverarbeitungssystem und/oder von einem LIDAR-Sensormanagementsystem empfangen kann.
  • Wie bereits oben erwähnt, besteht ein Effekt der vorliegenden Offenbarung darin, die Augensicherheit zu verbessern und gleichzeitig das System an interne und externe Bedingungen anzupassen, die sich auf Situationen mit unterschiedlichen Anforderungen an die Augensicherheit beziehen. Ein weiterer Effekt ist, dass Optionen für die weitere Nutzung des abgeschirmten Lichts für alternative oder zusätzliche lichtbasierte Anwendungen und Funktionalitäten bereitgestellt werden.
  • 2 zeigt eine Ausgestaltung [B_1] des vorgeschlagenen LIDAR-Sensorsystems mit einer dynamischen Blendenvorrichtung.
  • Das LIDAR-Sensorsystem 10 umfasst eine Lichtquelle 42, die einen Lichtstrahl 260 aussendet, der über die Strahllenkungsvorrichtung 41 (z.B. MEMS, LCD) und das Fenster 250 (Eintritts- und Austrittsöffnung) in den FOI (Raumwinkelsektor mit durch gestrichelte Linien 280a & 280b begrenztem Öffnungswinkel) gelenkt und/oder übertragen werden kann. Der gerichtete und/oder durchgelassene Lichtstrahl 120 kann dann an einem Objekt 100 in der FOI reflektiert werden, was zu einem rückgestreuten Lichtstrahl 130 führt. Wenn der rückgestreute Lichtstrahl 130 aus einem Raumwinkelsektor innerhalb des Öffnungswinkels austritt, kann der Streulichtstrahl 130 über eine Empfängeroptik (z.B. Linse) 80 gesammelt und auf den Detektor 240 (Photodiode, APD, SPAD, SiPM, etc.) fokussiert werden.
  • Das elektronische Gerät 230 ist so konfiguriert, dass es Signale vom Detektor 240 empfängt und verarbeitet. Die Signalverarbeitung kann das Verstärken, Dämpfen, Filtern, Vergleichen, Speichern oder die anderweitige Verarbeitung elektrischer oder elektronischer Signale umfassen. Für diese Zwecke kann die Vorrichtung 230 eine anwendungsspezifische integrierte Schaltung (ASIC) umfassen. Die elektronische Vorrichtung 230 wird von der Steuervorrichtung 220 gesteuert, die eine Prozessoreinheit aufweisen kann und die auch den Treiber 210 steuert (Treiber für Lichtquelle 42 und Scanner 41).
  • Je nach Ausführung wird eine dynamische Blendenvorrichtung 270 hinter der Strahlführungseinheit 41 und vor oder in der Nähe des Sensorfensters 250 positioniert. In verschiedenen Ausführungsformen enthält die dynamische Blendenvorrichtung 270 zwei plattenförmige Elemente 270a & 270b. In der Situation, die in 2 dargestellt ist, sind beide plattenartigen Elemente so positioniert, dass sie sich teilweise mit dem maximalen FOI (dargestellt durch die gestrichelten Linien 280a & 280b) überlappen, der über die Strahllenkungseinheit 41 (ein eindimensional abtastendes MEMS) zugänglich ist. An dieser Position schirmt das dynamische Blendenelement 270 einen Teil des von der Strahllenkungseinheit 41 emittierten Lichts ab und begrenzt so den effektiven FOI auf einen Winkelsektor, der kleiner ist als der maximal zugängliche Winkelsektor mit Öffnungswinkel. Wie in 2 dargestellt, wird der Lichtstrahl 261, der durch das dynamische Blendenelement 270 abgeschirmt wird, am plattenförmigen Element 270b reflektiert und als Lichtstrahl 262 auf den LIDAR-Detektor 240 gerichtet und/oder übertragen. Wie oben beschrieben, kann das reflektierte Signal 262 als Referenzsignal (zur Zeit- und Taktsynchronisation) verwendet werden. Alternativ oder zusätzlich kann es zur Ableitung von Informationen über den aktuellen Zustand der LIDAR-Lichtquelle 42 und/oder der LIDAR-Strahllenkeinheit 41 sowie über den Blendenrahmen selbst verwendet werden. Alternativ oder zusätzlich kann die dynamische Blendenvorrichtung 270 in das Fenster 250 des LIDAR-Sensorsystems 10 integriert werden. Die dynamische Blendenvorrichtung 270 kann somit innerhalb oder außerhalb des Fensters 250 des LIDAR-Sensorsystems 10 angeordnet werden.
  • Wie bereits im allgemeinen Teil der Beschreibung erläutert, sind verschiedene Ausführungsformen denkbar hinsichtlich der Form der Elemente, aus denen die dynamische Blendenvorrichtung besteht, ihrer optischen Eigenschaften und der Möglichkeiten, für die auf diese Elemente auftreffende Strahlung verwendet werden kann. Es sind auch verschiedene Positionen denkbar, an denen die dynamische Blende positioniert werden kann. Bei einigen Implementierungen wird sie innerhalb des LIDAR-Sensorsystems 10 positioniert (um sie vor Verunreinigungen und Ähnlichem zu schützen). Es ist aber auch denkbar, sie außerhalb des LIDAR-Sensorsystems 10 zu platzieren. Es kann aber auch in das Sensorfenster 250 integriert werden, entweder als mechanische Vorrichtung oder als Material mit elektrochromen Eigenschaften. Weiterhin können die Blendenelemente 270a & 270b unabhängig voneinander betrieben werden, was zu einer asymmetrischen Abschirmung des FOI führt. Wie oben beschrieben, kann auch eine runde Blende (Iris) zur konzentrischen Strahlsperrung oder -veränderung verwendet werden.
  • 3 zeigt eine Verkörperung [B_2] des vorgeschlagenen LIDAR-Sensorsystems mit einer dynamischen Blendenvorrichtung.
  • In der Ausführungsform [B_2] haben die lichtabschirmenden Elemente 270a & 270b der dynamischen Blendenvorrichtung 270 eine gekrümmte, reflektorartige Form. Die durch diese Elemente abgeschirmten Lichtstrahlen 261 und 263 werden als Strahlen 262 und 264 in die Lichtleitelemente 290a & 290b reflektiert und fokussiert. Während der Lichtleiter 290b den Lichtstrahl 262 zum LIDAR-Detektor 240 überträgt (ähnlich der obigen Ausführungsform [B_1] ), überträgt der Lichtleiter 290a den Lichtstrahl 264 zu alternativen lichtbasierten Anwendungen, die außerhalb des LIDAR-Sensorsystems 10 vorgesehen sind, oder zu einem zweiten Detektor, der sich innerhalb des LIDAR-Sensorsystems 10 befindet.
  • Wie bereits im allgemeinen Teil der Beschreibung erläutert, gibt es verschiedene Optionen, für die der Lichtstrahl 264 verwendet werden kann. Weiterhin können Ausführungsformen der Ausführungsform [B_1] mit Ausführungsformen der Ausführungsform [B_2] kombiniert werden.
  • Es ist zu beachten, dass verschiedene Ausführungsformen, wie unter Bezugnahme auf 2 und 3 oben beschrieben, bereitgestellt werden können, um die „dynamische Blende“ verschiedener Ausführungsformen, wie unter Bezugnahme auf 59 bis 67 beschrieben, zu implementieren.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1z ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann Folgendes umfassen:
      • - mindestens eine Lichtquelle, wobei die Lichtquelle so konfiguriert ist, dass sie einen Lichtstrahl aussendet,
      • - mindestens einen Aktuator, wobei der Aktuator so konfiguriert ist, dass er Erfassungslicht in ein Beleuchtungsfeld lenkt,
      • - mindestens ein zweites Erfassungssystem, das eine Optik und einen Detektor umfasst, wobei die Optik und der Detektor so konfiguriert sind, dass sie einen von einem Objekt gestreuten Lichtstrahl empfangen. Das Lidar-Sensorsystem kann ferner eine dynamische Blendenvorrichtung aufweisen.
    • In Beispiel 2z kann der Gegenstand von Beispiel 1z optional umfassen, dass die dynamische Blendenvorrichtung ein Blendenelement aufweist und das Blendenelement so konfiguriert ist, dass es eine Öffnung der dynamischen Blendenvorrichtung verändert.
    • In Beispiel 3z kann der Gegenstand von Beispiel 2z optional umfassen, dass das Blendenelement eine ebene oder gekrümmte Oberfläche aufweist.
    • In Beispiel 4z kann der Gegenstand eines der Beispiele 2z oder 3z optional umfassen, dass die Oberfläche des Blendenelements spiegelnde und/oder diffuse Reflexionseigenschaften aufweist.
    • In Beispiel 5z kann der Gegenstand eines der Beispiele 2z bis 4z optional umfassen, dass das Blendenelement Mikrolöcher aufweist.
    • In Beispiel 6z kann der Gegenstand eines der Beispiele 2z bis 5z optional umfassen, dass das Blendenelement ein wellenlängenkonvertierendes Material aufweist, um die optischen Eigenschaften des reflektierten Lichts zu modifizieren.
    • In Beispiel 7z kann der Gegenstand eines der Beispiele 2z bis 6z optional umfassen, dass das Blendenelement und ein zweites Blendenelement so konfiguriert sind, dass sie unabhängig voneinander betrieben werden können.
    • In Beispiel 8z kann der Gegenstand eines der Beispiele 2z bis 7z optional umfassen, dass die Öffnung der dynamischen Blendenvorrichtung durch Aktivierung eines Aktuators, der eine Positionsänderung des Blendenelements bewirkt, und/oder durch Zuführung einer entsprechenden Steuerspannung, die eine Positionsänderung des Blendenelements bewirkt, geändert werden kann.
    • In Beispiel 9z kann der Gegenstand eines jeden der Beispiele 1z bis 8z optional umfassen, dass die dynamische Blendenvorrichtung ein elektrochromes Material enthält.
    • In Beispiel 10z kann der Gegenstand von Beispiel 9z optional umfassen, dass das Verhältnis zwischen optischer Transmission und Reflexion der dynamischen Blendenvorrichtung durch Anlegen einer entsprechenden Steuerspannung verändert werden kann.
    • In Beispiel 11z kann der Gegenstand eines der Beispiele 1z bis 10z optional umfassen, dass das LIDAR-Sensorsystem zusätzlich mindestens ein Fenster aufweist, wobei die dynamische Blendenvorrichtung innerhalb oder außerhalb des Fensters des LIDAR-Sensorsystems angeordnet ist.
    • In Beispiel 12z kann der Gegenstand eines der Beispiele 1z bis 11z optional umfassen, dass das LIDAR-Sensorsystem ferner einen Detektor aufweist, der so angeordnet ist, dass er die an der dynamischen Blendenvorrichtung reflektierte Strahlung einfängt, wobei die reflektierte Strahlung der dynamischen Blendenvorrichtung zur Überwachung der Funktion des LIDAR-Sensorsystems und/oder zur Erhöhung der Zuverlässigkeit des LIDAR-Sensorsystems verwendet wird.
    • In Beispiel 13z kann der Gegenstand eines der Beispiele 1z bis 12z optional umfassen, dass das LIDAR-Sensorsystem ferner einen Lichtleiter aufweist, der so angeordnet ist, dass er die an der dynamischen Blendenvorrichtung reflektierte Strahlung einfängt, wobei die reflektierte Strahlung der dynamischen Blendenvorrichtung zur Überwachung der Funktion des LIDAR-Sensorsystems und/oder zur Erhöhung der Zuverlässigkeit des LIDAR-Sensorsystems verwendet wird.
    • In Beispiel 14z kann der Gegenstand eines jeden der Beispiele 1z bis 13z optional umfassen, dass die reflektierte Strahlung der dynamischen Blendenvorrichtung für die Verwendung in anderen lichtbasierten Anwendungen konfiguriert ist.
  • Ein weiterer Aspekt des LIDAR-Sensorsystems bezieht sich auf ein LIDAR-Sensorgerät (z.B. Fahrzeug), das mit einem LIDAR-Sensorsystem (und höchstwahrscheinlich auch mit anderen Sensorgeräten wie Radar, Kamera, Ultraschall, Trägheitsmessgeräten (IMU) und anderen) ausgestattet ist und ständig die Aufgabe hat, die Umgebung (vorne, in der Kurve, seitlich, hinten, oben) zu überwachen und das Fahrverhalten und die verkehrsbezogene Entscheidungsfindung entsprechend zu beeinflussen, entweder halbautomatisch über ADAS oder über direkte Information an den Fahrer, oder vollautomatisch (SAE-Stufen 4, 5). Alle fahrzeugbezogenen Sensoren (z.B. LIDAR) sowie deren Interaktionen und Datenfusion werden als Fahrzeugsensorik (VS) bezeichnet.
  • Ein Problem besteht darin, dass z.B. an kritischen Punkten (Kreuzungen, unübersichtliche Straßen, starker Fußgängerverkehr, nicht oder unzureichend kartierte Bereiche, Off-Road-Bedingungen) die Sensorsysteme zuverlässig arbeiten müssen, d.h. u.a. eine schnelle Objekterkennung durchführen und beurteilen müssen, ob das detektierte Objekt in Bezug auf die bestehende Verkehrssituation und die geplante Reiseroute eine relevante Rolle spielt.
  • Dabei können die folgenden Szenarien auftreten:
    • a) Fahrer oder Fahrzeug fahren zum ersten Mal eine Strecke.
    • b) Fahrer oder Fahrzeug fahren eine Strecke, die zuvor gefahren wurde (durch einen Zeitstempel oder viele Zeitstempel gekennzeichnet), z.B. einmal oder mehrmals oder sehr oft (z.B. der Weg zur Arbeit oder wiederholte berufliche Fahrten zur Beförderung von Personen oder Gütern). Das Sensorsystem muss jedes Mal die gesamte Fahrsituation neu bewerten, einschließlich statischer Objekte wie Häuser, Bäume, Infrastrukturelemente (wie Ampeln, Verkehrszeichen) und dergleichen, die bereits früher erkannt und klassifiziert wurden.
    • c) Der Fahrer wechselt ein Fahrzeug und fährt gemäß a) oder b) mit einem anderen („neuen“) Fahrzeug, möchte aber möglicherweise die zuvor (durch das frühere Fahrzeug) generierten (GNSS/GPS-kodierten) Zeitstempel und Anwesenheitswahrscheinlichkeitsfaktoren (PPF) weiterhin verwenden, siehe unten.
  • Ein Problem in diesen Szenarien ist, dass jedes Mal energie- und zeitaufwendige Berechnungen von Objekten durchgeführt werden müssen, die mit hoher Wahrscheinlichkeit permanent statisch sind.
  • Straßenkreuzungen, kritische Punkte usw. sind in verschiedener Hinsicht mit fahrzeugexternen Sensorvorrichtungen ausgestattet. Diese Geräte sind z.B. an Verkehrsinfrastrukturelementen (z.B. Ampeln, Verkehrszeichen, Straßenbeleuchtung usw.) angeordnet und bezüglich ihrer GNSS/GPS-Koordinaten stationär, können aber dennoch bis zu einem gewissen Grad mobil sein, z.B. in Bezug auf Orientierung und/oder Neigung und/oder Zoom, und umfassen z.B. LIDAR-Sensorsysteme und andere Sensoren (wie Kameras). Natürlich können auch mobile LIDAR-Sensorsysteme verwendet werden (z.B. tragbare LIDAR-Referenzsysteme und andere mobile Systeme, die auf Autos, Drohnen, fahrerlosen Transportsystemen entlang einer Fahrbahn montiert sind), die derzeit möglicherweise wechselnde GNSS/GPS-Koordinaten haben. Diese fahrzeugexternen Geräte werden hier als Überwachungsgeräte (Monitoring Devices, MD) bezeichnet. Sie können eine Objekterfassungssensoreinheit, eine Auswerteeinheit, eine Speichereinheit, eine Kommunikations-Sende-/Empfangseinheit (CU), eine GNSS/GPS-Kommunikationseinheit aufweisen oder im Wesentlichen aus einer solchen bestehen.
  • Das Überwachungsgerät (MD), aber auch das Fahrzeugsensorsystem (VS) kann folgende Aufgaben erfüllen:
    • a) Erkennung und Klassifizierung von festen oder statischen Objekten (wie Häuser, Bäume). Diese Objekte können dann einen Zeitstempel tragen, d.h. jedes Mal, wenn ein Objekt detektiert wird, kann ein GNSS/GPS-kodierter Zeitstempel erstellt und lokal oder extern gespeichert werden (z.B. in einer nicht-flüchtigen computerlesbaren digitalen Karte), und das MD kann auch die Zeitspanne zwischen aufeinanderfolgenden Zeitstempeln berechnen. Es kann bevorzugt werden, dass die Zeitstempel GNSS/GPS-kodiert sind. Je häufiger eine Messung das Vorhandensein (z.B. GNSS/GPS-kodierte Zeitstempel) eines Objekts bestätigt, desto höher ist ein berechneter oder referenzierter GNSS/GPS-kodierter Anwesenheitswahrscheinlichkeitsfaktor (PPF), der dem Objekt zugeordnet wird. Eine digitale Karte ist eine Sammlung von Daten, die verwendet werden können, um zu einem virtuellen Bild formatiert zu werden. Die primäre Funktion einer digitalen Karte besteht darin, genaue Darstellungen von Messdatenwerten zu liefern. Die digitale Karte ermöglicht auch die Berechnung der geometrischen Abstände von einem Objekt, wie es durch seinen Datensatz dargestellt wird, zu einem anderen Objekt. Eine digitale Karte kann auch als virtuelle Karte bezeichnet werden.
    • b) Anwesenheitswahrscheinlichkeitsfaktoren (PPF) können eine Skala von (frei definierbaren) Werten annehmen, z.B. von
      • 1 = bewegtes Objekt (z.B. ein anderes Fahrzeug), das nur einen (GNSS/GPS-kodierten) Zeitstempel trägt,
      • 2 = statisch, aber zum ersten Mal gemessen (z.B. geparktes Fahrzeug);
      • 3 = statisch und über eine bestimmte Zeitspanne (z.B. Minuten oder Stunden) gemessen als statisch (Stunden, z.B. Baukran, Straßenverengung durch eine Baustelle); ein solches Objekt wird mehr als 1 oder viele (GNSS/GPS-kodierte) Zeitstempel tragen
      • 4 = statisch und über einen langen Zeitraum als statisch gemessen (Tage, Wochen); ein solches Objekt wird viele (GNSS/GPS-kodierte) Zeitstempel tragen
      • 5 = gemessen über sehr lange Zeiträume (wie Monate, Jahre) als statisch (wie Häuser), wird ein solches Objekt mehr als 1 oder viele (GNSS/GPS-kodierte) Zeitstempel tragen.
      Unterkriterien können sein: statisch, aber formveränderlich (wie Bäume); statisch, aber farbveränderlich (Plakatwände, Hausfassaden). Ein Sonderfall könnten Objekte sein, die sich sehr langsam bewegen und als quasi-statisch gelten (z.B. Transport einer Brücke, Oberflächenverformung einer Straße). Ein solches Objekt wird mehr als 1 oder viele (GNSS/GPS-kodierte) Zeitstempel tragen.
    • c) Berechnung des Abstands und des Blickwinkels zwischen dem Messsystem und dem statischen Objekt (TOF), evtl. unter Verwendung von Triangulationsverfahren (evtl. auch mit anderen MD), Kameras oder Stereokameras, Kameraanalyse der Verzerrungen von einem projizierten Muster auf die statische Objektmatrix (VCSEL).
    • d) Das erkannte statische Objekt kann auch von anderen Sensoren erkannt werden.
    • e) Zusammenführen der Sensordaten und Auswertung. Es ist auch ein Vergleich mit einer Datenbank möglich, in der z.B. PPF-Faktoren für bekannte statische und nicht-statische Objekte gespeichert sind. Die Datenbank kann lokal im MD auf einem Speicherchip vorhanden sein oder über eine Cloud-Verbindung (über drahtgebundene oder drahtlose Kommunikation) zugänglich sein.
    • f) Bestimmung der Objektdaten (Umriss, Farbe, Linienformen, absolute GNSS/GPS-Daten, relative Standortdaten, usw.)
    • g) Messung eines sich bewegenden Objekts (Fahrzeug, Fussgänger, etc.) mittels der MD in der entsprechenden Umgebung. Erfassung des Standorts und der Trajektorien (Geschwindigkeit, Beschleunigung usw.) des gemessenen beweglichen Objekts.
    • h) Berechnung der visuellen Objektdaten der oben genannten statischen Objekte aus der Sicht des Fahrzeugs (der Objekte) (Punkttransformation).
    • i) Kommunikation mit einem Fahrzeug, das mit dem MD über ein eigenes Kommunikationsgerät (CU) kommunizieren kann. Benachrichtigung vom MD an die CU über die primär gemessenen Originaldaten (Objekt, Ort) und/oder die bereits konvertierten (transformierten) Daten sowie die jeweiligen objektbezogenen Anwesenheitswahrscheinlichkeitsfaktoren.
    • j) Sich näherndes Fahrzeug kann diese Informationen empfangen und nutzen, speichern und für spätere Zwecke verwenden.
  • Ein mit dem MD kommunizierendes Fahrzeug (mit eigener Sensorik, aber theoretisch auch ohne eigene Sensorik) kann in verschiedener Hinsicht die Daten (eigene, fremde) speichern und auswerten und (zu späteren Zeitpunkten) an andere MDs und CUs anderer Fahrzeuge übertragen oder bei einem Fahrzeugwechsel über loT- oder Cloud-Services auf das neue Fahrzeug übertragen oder einem anderen Fahrer/Fahrzeug zur Verfügung stellen. In verschiedenen Ausführungsformen kann auch ein Fahrzeug ohne eigene Sensorik über eine CU Daten aufzeichnen und verarbeiten und so z.B. einen Fahrer warnen (Head-up-Display HUD, Signalanzeige, etc.).
  • In verschiedener Hinsicht nimmt ein Fahrzeug die Messungen, Objektklassifikationen und Zuordnungen von Anwesenheitswahrscheinlichkeitsfaktoren selbst vor und kann bei einer späteren Fahrt wieder auf diese Daten zugreifen. In diesem Fall werden jedem Objekt auch ein PPF-Wert und eine Ortskoordinate zugeordnet (berechnet z.B. aus der GNSS/GPS-Position oder der Triangulationsmethode des Fahrzeugs zu einem Zeitpunkt t und den zu diesem Zeitpunkt gemessenen Entfernungen und Winkelwerten). Darüber hinaus können jedem Objekt TR-Werte zugeordnet werden (TR = Verkehrsrelevanz), die über eine Werteskala anzeigen, ob für ein Objekt ein hoher Einfluss auf die Verkehrssituation zu erwarten ist (z.B. eine Ampel oder ein in die Fahrbahn ragendes Hindernis, z.B. eine Verkehrsinsel, oder eine Baustellenmarkierung mit Fahrbahneinengung) oder ob ein Objekt voraussichtlich einen geringeren Einfluss auf den Verkehr haben wird (z.B. ein Baum, ein Haus).
  • Bei verschiedenen Aspekten führt ein Fahrzeug selbst die Messungen, Objektklassifikationen und die Zuordnung von Anwesenheitswahrscheinlichkeitsfaktoren durch und kann später auf diese Daten zugreifen. Darüber hinaus wird in einem nicht völlig autonom fahrenden Fahrzeug die Blickrichtung, die Dauer der Blickrichtung des Fahrers erfasst und über den Blickwinkel den im Sichtfeld befindlichen Objekten zugeordnet. Zusätzlich wird eine im Fahrzeuginnenraum angeordnete Messeinrichtung (LIDAR, Eyetracking, Kamera) eingesetzt. Die Objekte erhalten eine Indexierung (Blickrichtung, Betrachtungsdauer). Da die Position des Fahrzeugs bekannt ist (GNSS/GPS oder über eine lokale Referenzierung, d.h. über einen Austausch der CU mit MDs oder anderen Infrastrukturelementen oder Fahrzeugen), kann die Indizierung auch bei einem fahrenden Fahrzeug erfolgen. Auch hier werden den Objekten Anwesenheitswahrscheinlichkeitsfaktoren und/oder Verkehrsrelevanzwerte zugeordnet. Wie bereits oben beschrieben, ist ein Abgleich mit einer Datenbank möglich, um falsche Zuordnungen zu vermeiden.
  • So kann ein Fahrzeug in verschiedenen Aspekten (über eine Voreinstellung) aufgrund der Korrelation der z.B. von einem MD detektierten oder kommunizierten Objekte mit den jeweiligen Anwesenheitswahrscheinlichkeitsfaktoren entscheiden:
    • a) ob eine Messung teilweise oder vollständig neu durchgeführt werden sollte.
    • b) ob die Fahrzeugkontrolle ohne Neuvermessung fortgesetzt werden soll.
    • c) ob eine Messung mit reduzierten Anforderungen (z.B. geringere Auflösung, kürzere Mittelungszeit usw.) durchgeführt werden soll.
  • In verschiedener Hinsicht kann erhöhte Vorsicht geboten sein, wenn einem Objekt, das mit einem hohen Anwesenheitswahrscheinlichkeitsfaktor (PPF) ausgestattet ist, nun aufgrund neuer Messungen oder Informationen (VS) oder durch aufgezeichnete externe Informationen ein reduzierter PPF-Wert zugewiesen wird. Ein Kontrollsystem bewirkt eine erneute Messung. Ein Fahrzeug mit CU wird dann auch darüber informiert, dass sich der PPF-Wert geändert hat (z.B. sich verringert hat) und wird zu einer Selbstmessung aufgefordert.
  • Ein mit einem VS ausgerüstetes Fahrzeug zeichnet in verschiedener Hinsicht bei jeder Fahrt objektbezogene Daten (LIDAR, Ultraschall, (Stereo-)Kamera, Radar usw.) auf, eventuell auch die extern übertragenen PPF-Werte. Bei Fahrten auf einem mehrfach oder sehr oft benutzten Lastzug werden die aufgezeichneten Daten einem Analyseprogramm (z.B. mit Hilfe der Künstlichen Intelligenz KI) zugeführt, das dann (bei jeder erneuten Aufzeichnung) eine verbesserte Objekterkennung und Objektklassifikation sowie die Berechnung des PPF-Wertes erreichen kann. Darüber hinaus kann jedem Objekt ein Wert zugeordnet werden, der die Verkehrsrelevanz (TR) des Objekts angibt, z.B. Straßenschild = hoch, Baum neben der Straße = mittel, Haus weit von der Straße entfernt = niedrig). Ein Plakat neben der Straße kann z.B. als nicht primär verkehrsrelevant kategorisiert werden.
  • Ist ein Fahrzeug mit einem Eye-Tracking (Augenverfolgungs)-System für den Fahrer ausgestattet, kann unter verschiedenen Aspekten die Augenposition und damit der Blickwinkel und die Dauer des Auges erfasst werden. In Zusammenarbeit mit der externen Objekterkennung können dann Aufmerksamkeitskorrelationen ermittelt werden. Die Objekte haben einen zugeordneten TR-Wert. Dies ist insbesondere bei Wiederholungsfahrten sinnvoll und machbar. Die VS kann dann z.B. der Sensorerfassung von Objekten, denen bei früheren Fahrten hohe TR-Werte oder hohe Aufmerksamkeitskorrelationen zugeordnet wurden, höhere Priorität einräumen (z.B. frühere zeitliche Priorität, höhere Auflösung, längere Mittelung, höhere Laserleistung usw.).
  • Fällt der Augenfokus des Fahrers (> 1 Sek.) auf ein für die Verkehrssicherheit unwichtiges Objekt (oder zu lang), kann das Fahrzeugüberwachungssystem (VS, MD) das Fahrzeug über eine erhöhte Gefahrenstufe informieren und sinnvolle Aktionen auslösen (genauere Messung im Sichtfeld; Reduzierung der Fahrgeschwindigkeit; Aktivierung eines Frühwarnsystems). Dies ist insbesondere dann der Fall, wenn die Sicht für längere Zeit (> 1 sec) auf bekannte, nicht verkehrsrelevante Objekte (wie z.B. Plakatwände) fällt.
  • In verschiedenen Aspekten haben statische Objekte, z.B. Verkehrsinfrastrukturelemente (Ampeln, Baustellenmarkierungen, etc.) anstelle eines komplexen MD ein einfacheres Informationssystem installiert, in dem ihre Eigenschaften (Objektklasse, Standort, PPF-Wert, TR-Wert, etc.) gespeichert sind und z.B. per CU an Fahrzeuge übermittelt werden können (Nachteil: Stromversorgung notwendig). Alternativ ist auch denkbar, dass die Informationen nur passiv zur Verfügung stehen (vergleichbar z.B. mit einem Strich- oder QR-Code oder einem holographischen Muster) und vom VS ausgelesen werden können (z.B. mittels einer Kamera oder über eine NFC-Kommunikation).
  • In verschiedenen Aspekten erlaubt das Messverfahren auch die Kombination, Mittelwertbildung, Zuführung zu einer KI o.ä. der von vielen Fahrzeugen erhaltenen Messungen und Wertbestimmung. Dadurch kann die Fahrsicherheit weiter erhöht werden.
  • Das Messverfahren erlaubt es in verschiedenen Aspekten, unnötigen Rechenaufwand zu vermeiden oder zumindest zu reduzieren, da nicht bei jeder Vorbeifahrt eines Fahrzeugs an einem Objekt mit gleichem Tiefenniveau alle üblicherweise erforderlichen Umweltanalyseverfahren durchgeführt werden müssen bzw. begrenzt werden können. Dies trägt dazu bei, den Berechnungsaufwand und damit den Stromverbrauch zu reduzieren. Dies ist notwendig, da der Energieverbrauch insbesondere für das autonome Fahren von Elektrofahrzeugen einen begrenzenden Faktor darstellen kann, da es eine ganze Reihe von energieverbrauchenden Geräten wie Sensoren, z.B. RADAR, LIDAR, Kamera, Ultraschall, Globales Navigationssatellitensystem (GNNS/GPS), Sensor-Fusionsgeräte, Rechenleistung, mobile Unterhaltungsgeräte, Heizung, Lüfter, Heizung, Lüftung und Klimaanlage (HVAC), Fahrzeug-zu-Fahrzeug- (C2C) und Fahrzeug-zu-Umwelt- (C2X) Kommunikation, Datenver- und -entschlüsselung und viele andere gibt, die alle zu einem hohen Energieverbrauch führen. Insbesondere Datenverarbeitungseinheiten sind sehr stromhungrig. Daher ist es notwendig, alle Geräte und Datenanalysemethoden zu optimieren und solche Geräte und Verfahren intelligent einzusetzen, damit eine hohe Batterielaufleistung aufrechterhalten werden kann.
  • Wenn ein Fahrzeug zum ersten Mal eine Strecke befährt, erfolgt daher die Messung und Objekterkennung und -klassifizierung mit dem Fahrzeugsensorsystem (VS) und die Datenkommunikation (CU) mit dem Überwachungsgerät (MD) des Fahrzeugs. Den Verkehrsobjekten werden ein Anwesenheitswahrscheinlichkeitsfaktor (PPF) und Verkehrsrelevanzwerte (TR) zugeordnet.
  • Vorgeschlagen wird ein Verfahren, bei dem, wenn ein Fahrzeug eine Strecke mehrmals oder häufig befahren hat, die Messung und Objektbestimmung mit einem Fahrzeugsensorsystem (VS) einschließlich Datenkommunikation (CU) mit verschiedenen Komponenten des LIDAR-Sensorsystems unter Berücksichtigung zuvor ermittelter PPF- und TR-Werte durchgeführt wird. Diese Daten werden dann an ein Fahrzeugsteuerungssystem und/oder einen Fahrer übermittelt.
  • 85 zeigt ein System 8500 mit einem Fahrzeug 8502, einem oder mehreren Überwachungsgeräten (MD) 8506 und einem (zu erfassenden) externen Objekt 8512 entsprechend verschiedener Ausführungsformen in einer Verkehrssituation.
  • Das Fahrzeug 8502 kann ein Fahrzeugsensorsystem 8504 aufweisen. Das Fahrzeugsensorsystem 8504 kann einen oder mehrere (z.B. verschiedene Typen) von Sensoren aufweisen, wie z.B. einen oder mehrere LIDAR-Sensoren 52 sowie einen oder mehrere Sensor-Controller 53. Das Fahrzeug kann ferner eine Kommunikationseinheit 8510 (die auch als zweite Kommunikationseinheit 8510 bezeichnet werden kann) aufweisen.
  • Das System 8500 kann ferner eine oder mehrere fahrzeugexterne Überwachungseinrichtungen (MD) 8506 (wie oben beschrieben) aufweisen, die auch mit einer Kommunikationseinheit 8508 (die auch als erste Kommunikationseinheit 8508 bezeichnet werden kann) ausgestattet sein können. Jedes MD 8506 kann einen oder mehrere Prozessoren (z.B. programmierbare Prozessoren oder Mikrocontroller) aufweisen, die zur Implementierung einer oder mehrerer der oben beschriebenen Funktionen konfiguriert sind. Die Kommunikationseinheiten 8508, 8510 können eine (Funk-) Kommunikationsverbindung zwischen dem MD 8506 und dem Fahrzeug 8502 herstellen, z.B. zum Austausch von Informationen über ein erkanntes Objekt 8512 (z.B. durch das Fahrzeugsensorsystem 8504) und ein erkanntes oder klassifiziertes Objekt 8512 (z.B. durch das MD 8506) und/oder den oben beschriebenen Anwesenheitswahrscheinlichkeitsfaktor und/oder den oben beschriebenen Verkehrsrelevanzwert für das erkannte oder klassifizierte Objekt 8512 und/oder Steuerinformationen zur Steuerung des Fahrzeugs 8502 oder einer Komponente (wie z.B. einer Warnleuchte oder eines Fahrerassistenzsystems) des Fahrzeugs 8502.
  • 86 zeigt ein Verfahren 8600 in Übereinstimmung mit verschiedenen Ausführungsformen in einem Flussdiagramm. Das Verfahren 8600 kann in 8602 die Erkennung eines Objekts, in 8604 die Bestimmung eines Ortes des Objekts, in 8606 die Bestimmung eines Anwesenheitswahrscheinlichkeitsfaktors für das Objekt, wobei der Anwesenheitswahrscheinlichkeitsfaktor eine Wahrscheinlichkeit für die Anwesenheit des Objekts an dem bestimmten Ort im Laufe der Zeit beschreibt, und in 8608 die Zuordnung des Anwesenheitswahrscheinlichkeitsfaktors zu dem Objekt beinhalten.
  • 87 zeigt ein Verfahren 8700 in Übereinstimmung mit verschiedenen Ausführungsformen im Detail.
  • Bei diesem Verfahren 8700 wird angenommen, dass das Fahrzeug 8502 zum ersten Mal eine Strecke befährt (Block 8702). In diesem Fall misst in 8704 das Fahrzeugsensorsystem 8504 die Umgebung des Fahrzeugs, um darin befindliche Objekte zu erkennen. Falls ein oder mehrere Objekte in der Reichweite des Fahrzeugsensorsystems 8504 bestimmt werden, bestimmt das Fahrzeugsensorsystem 8504 oder eine andere geeignete Komponente die (z.B. globale oder lokale) Position des/der detektierten Objekts/e, z.B. unter Verwendung der oben beschriebenen Geräte, wie z.B. GPS (in 8706). Das Verfahren 8700 kann ferner umfassen, dass in 8708 das Fahrzeug 8502 und/oder die Überwachungseinrichtung 8506 (z.B. zusammen z.B. unter Verwendung der Kommunikationseinheiten 8508, 8510 des Fahrzeugs 8502 und der Überwachungseinrichtung 8506) das (die) detektierte(n) Objekt(e) 8512 erkennen, z.B. das (die) detektierte(n) Objekt(e) 8512 klassifizieren. In 8710 kann das Fahrzeug 8502 und/oder die Überwachungseinrichtung 8506 für jedes detektierte und erkannte Objekt 8512 einen Anwesenheitswahrscheinlichkeitsfaktor und optional auch einen Verkehrsrelevanzwert bestimmen. Darüber hinaus kann in 8712 das Verfahren 8700 die Steuerung des Fahrzeugs 8502 unter Berücksichtigung des/der ermittelten Anwesenheitswahrscheinlichkeitsfaktors(en) und optional auch des/der ermittelten Verkehrsrelevanzwertes/-werte für das/die erkannte(n) Objekt(e) 8512 beinhalten. Die Steuerung kann die einfache Warnung des Fahrers des Fahrzeugs 8502 vor einem möglicherweise bevorstehenden gefährlichen Verkehrsszenario oder sogar die Steuerung des Fahrens des Fahrzeugs 8502 (Steuerung, z.B. Änderung der Fahrtrichtung oder -geschwindigkeit des Fahrzeugs 8502) umfassen.
  • 88 zeigt ein Verfahren 8800 in Übereinstimmung mit verschiedenen Ausführungsformen im Detail.
  • Bei diesem Verfahren 8800 wird davon ausgegangen, dass das Fahrzeug 8502 auf einer Strecke fährt, die es schon einmal gefahren ist (Block 8802). In diesem Fall misst in 8804 das Fahrzeugsensorsystem 8504 die Umgebung des Fahrzeugs, um darin befindliche Objekte zu erkennen. In verschiedenen Ausführungsformen kann die Messung unter Berücksichtigung früherer Messungen, zuvor detektierter und erkannter Objekt(e) 8512 und des/der jeweils zugeordneten Anwesenheitswahrscheinlichkeitsfaktors(en) und/oder Verkehrsrelevanzfaktors(en) erfolgen, z.B. durch Messung bestimmter Orte mit höherer oder niedrigerer Genauigkeit. Für jedes erkannte Objekt 8512 in 8806 kann das Fahrzeug 8502 und/oder die Überwachungseinrichtung 8506 den Standort des/der erkannten Objekts/e bestimmen. In verschiedenen Ausführungsformen darf der Standort nur für diejenigen detektierten Objekte neu bestimmt werden, die vorher nicht detektiert wurden und/oder für die der (die) zugeordnete(n) Anwesenheitswahrscheinlichkeitsfaktor(en) nicht ausreichend hoch und/oder der (die) zugeordnete(n) Verkehrsrelevanzfaktor(en) ausreichend hoch ist (sind). Darüber hinaus erkennen in 8808 das Fahrzeug 8502 und/oder die Überwachungseinrichtung 8506 (z.B. zusammen z.B. mit den Kommunikationseinheiten 8508, 8510 des Fahrzeugs 8502 und der Überwachungseinrichtung 8506) das (die) detektierte(n) Objekt(e) 8512, z.B. klassifizieren das (die) detektierte(n) Objekt(e) 8512 unter Berücksichtigung des (der) zuvor ermittelten und zugeordneten Anwesenheitswahrscheinlichkeitsfaktor(en) und/oder des (der) zugeordneten Verkehrsrelevanzfaktors (-faktoren). Darüber hinaus kann in 8810 das Verfahren 8800 die Steuerung des Fahrzeugs 8502 unter Berücksichtigung des (der) ermittelten Anwesenheitswahrscheinlichkeitsfaktor(en) und wahlweise des (der) ermittelten Verkehrsrelevanzwertes (-werte) für das (die) erkannte(n) Objekt(e) 8512 umfassen. Die Steuerung kann die einfache Warnung des Fahrers des Fahrzeugs 8502 vor einem möglicherweise bevorstehenden gefährlichen Verkehrsszenario oder sogar die Steuerung des Fahrens des Fahrzeugs 8502 umfassen (Steuerung, z.B. Änderung der Fahrtrichtung oder -geschwindigkeit des Fahrzeugs 8502).
  • Auf die „dynamische Blende“ der Ausführungsformen, wie in Bezug auf 85 bis 88 beschrieben, können verschiedene Ausführungsformen, wie in Bezug auf 59 bis 67 beschrieben, angewendet werden, z.B. um die Einstellung der Blende einzustellen und/oder anzupassen.
  • Darüber hinaus können auf die digitalen Karten (z.B. Verkehrskarten) der Ausgestaltungen, wie in Bezug auf 127 bis 130 und oder 123 beschrieben, verschiedene Ausführungsformen, wie in Bezug auf 85 bis 88 beschrieben, angewendet werden.
  • Weiterhin können verschiedene Ausführungsformen, wie in Bezug auf 85 bis 88 beschrieben, zur Ansteuerung eines räumlichen Lichtmodulators (SLM) verwendet werden, z.B. der SLM in den Ausführungsformen, wie in Bezug auf 59 bis 67 beschrieben.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1m ist ein Verfahren. Das Verfahren kann die Erkennung eines Objekts, die Bestimmung des Standorts des Objekts, die Bestimmung eines Anwesenheitswahrscheinlichkeitsfaktors für das Objekt, wobei der Anwesenheitswahrscheinlichkeitsfaktor eine Wahrscheinlichkeit für die Anwesenheit des Objekts am bestimmten Standort beschreibt, und die Zuordnung des Anwesenheitswahrscheinlichkeitsfaktors zum Objekt umfassen.
    • In Beispiel 2m kann der Gegenstand von Beispiel 1m optional umfassen, dass der Anwesenheitswahrscheinlichkeitsfaktor eine Wahrscheinlichkeit für das Vorhandensein des Objekts an dem bestimmten Ort im Laufe der Zeit beschreibt.
    • In Beispiel 3m kann der Gegenstand eines der Beispiele 1 m oder 2m optional umfassen, dass das Verfahren weiterhin die Speicherung des Anwesenheitswahrscheinlichkeitsfaktors und Informationen, die seine Zuordnung zum Objekt beschreiben, umfasst.
    • In Beispiel 4m kann der Gegenstand eines der Beispiele 1m bis 3m optional umfassen, dass das Verfahren ferner die Übertragung des Anwesenheitswahrscheinlichkeitsfaktors und Informationen, die seine Zuordnung zu dem Objekt beschreiben, an eine andere Einrichtung umfasst.
    • In Beispiel 5m kann der Gegenstand eines der Beispiele 1m bis 4m optional umfassen, dass das Verfahren ferner die Speicherung des Objekts in einer digitalen Karte und das Hinzufügen der ermittelten Position des Objekts zur digitalen Karte umfasst.
    • In Beispiel 6m kann der Gegenstand eines der Beispiele 1m bis 5m optional umfassen, dass das Verfahren weiterhin die Speicherung des Anwesenheitswahrscheinlichkeitsfaktors zusammen mit dem Objekt in einer digitalen Karte umfasst.
    • In Beispiel 7m kann der Gegenstand eines der Beispiele 1m bis 6m optional umfassen, dass das Verfahren ferner die Bestimmung weiterer Merkmale, die das Objekt beschreiben, und die Zuordnung der weiteren Merkmale zu dem Objekt umfasst.
    • In Beispiel 8m kann der Gegenstand eines der Beispiele 1m bis 7m optional umfassen, dass das Verfahren ferner die Bestimmung eines Verkehrsrelevanzwertes für das Objekt, wobei der Verkehrsrelevanzwert die Relevanz des Objekts innerhalb einer Verkehrssituation beschreibt, und die Zuweisung des Verkehrsrelevanzwertes zu dem Objekt umfasst.
    • In Beispiel 9m kann der Gegenstand eines der Beispiele 1m bis 8m optional umfassen, dass das Verfahren weiterhin die Übertragung von Informationen über das Objekt, den Standort des Objekts und den Anwesenheitswahrscheinlichkeitsfaktor an ein anderes Kommunikationsgerät beinhaltet.
    • In Beispiel 10m kann der Gegenstand eines der Beispiele 8m bis 6m optional umfassen, dass das Verfahren ferner die Steuerung eines Fahrzeugs unter Berücksichtigung des Objekts, des Standorts des Objekts und des Anwesenheitswahrscheinlichkeitsfaktors umfasst.
    • In Beispiel 11m kann der Gegenstand eines der Beispiele 1m bis 10m optional umfassen, dass der Anwesenheitswahrscheinlichkeitsfaktor unter Berücksichtigung eines oder mehrerer der folgenden Aspekte bestimmt wird: ob sich das Objekt bewegt; Geschwindigkeit des Objekts; Anzahl der Male, die das Objekt zuvor am selben Ort erkannt wurde; und Anzahl der Male, die das Objekt zuvor am selben Ort innerhalb einer vordefinierten Zeitspanne erkannt wurde.
    • In Beispiel 12m kann der Gegenstand eines jeden der Beispiele 1m bis 11m optional umfassen, dass das Verfahren weiterhin die Bestimmung einschließt, ob mit der weiteren Bestimmung des Objekts begonnen werden soll.
    • In Beispiel 13m kann der Gegenstand eines der Beispiele 1m bis 12m optional umfassen, dass mit der weiteren Bestimmung des Objekts begonnen werden sollte, und zwar mindestens eines der folgenden: Bestimmung, ob eine Messung teilweise oder vollständig erneut durchgeführt werden sollte, Bestimmung, ob eine Kontrolle ohne erneute Messung fortgesetzt werden sollte, Bestimmung, ob eine Messung mit reduzierten Anforderungen durchgeführt werden sollte.
    • In Beispiel 14m kann der Gegenstand eines der Beispiele 5m bis 9m optional umfassen, dass das Verfahren weiterhin die Verwendung der digitalen 1 Karte in einem computerimplementierten Navigationssystem umfasst.
    • Beispiel 15m ist ein Gerät. Das Gerät kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie ein Verfahren eines der Beispiele 1m bis 10m ausführen können.
    • Beispiel 16m ist ein Fahrzeug. Das Fahrzeug kann ein Gerät von Beispiel 15m aufweisen.
    • Beispiel 17m ist ein Computerprogramm. Das Computerprogramm kann Befehle aufweisen, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, ein Verfahren eines der Beispiele 1m bis 14m implementieren.
  • Ein weiterer Aspekt des LIDAR-Sensorsystems befasst sich mit der Lichterkennung und der Lichtreichweite. In solchen Systemen wird elektromagnetische Strahlung (sichtbar, infrarot), die von einer Lichtquelle bzw. Lichtquelle emittiert wird, verwendet, um Informationen über Objekte in der Umgebung des LIDAR-Sensorsystems abzuleiten. In einer beispielhaften Anwendung werden solche LIDAR-Sensorsysteme an einem Fahrzeug (LIDAR Sensor Vorrichtung) angeordnet, um Informationen über Objekte auf einer Fahrbahn oder in der Nähe einer Fahrbahn abzuleiten. Solche Objekte können andere Verkehrsteilnehmer (z.B. Fahrzeuge, Fußgänger, Radfahrer, etc.), Elemente der Straßeninfrastruktur (z.B. Verkehrszeichen, Ampeln, Fahrbahnmarkierungen, Leitplanken, Verkehrsinseln, Gehwege, Brückenpfeiler, etc.) und generell alle Arten von Objekten sein, die sich absichtlich oder unabsichtlich auf einer Fahrbahn oder in der Nähe einer Fahrbahn befinden. Die über ein solches LIDAR-Sensorsystem gewonnenen Informationen können den Abstand, die Geschwindigkeit, die Bewegungsrichtung, die Flugbahn, die Pose und/oder andere physikalische oder chemische Eigenschaften dieser Objekte umfassen. Um diese Informationen abzuleiten, kann das LIDAR-Sensorsystem die Laufzeit (TOF) oder Variationen physikalischer Eigenschaften wie Phase, Amplitude, Frequenz, Polarisation usw. der elektromagnetischen Strahlung bestimmen, die von einer Lichtquelle emittiert wird, nachdem die emittierte Strahlung von mindestens einem Objekt im Beleuchtungsfeld (FOI) reflektiert oder gestreut und von einem Photodetektor detektiert wurde.
  • Neben den oben beschriebenen Funktionen des LIDAR-Sensorsystems besteht generell ein großer Bedarf an lichtbasierten Funktionalitäten in modernen Fahrzeugen, z.B. in autonom oder teilautonom fahrenden Fahrzeugen (z.B. SAE Automation Level 1-5). Ein konventionelles System kann für jede dieser Anwendungen ein separates LIDAR-Sensorsystem verwenden, das jeweils mit einer entsprechenden Lichtquelle ausgestattet ist. Es stellt sich jedoch heraus, dass Hochleistungslichtquellen sehr teuer sind und daher einen großen Anteil an den Gesamtsystemkosten ausmachen.
  • In aktuellen LIDAR-Sensorsystemen wird das Licht der Lichtquelle typischerweise ausschließlich zur Ableitung der oben beschriebenen Informationen über Objekte in der LIDAR-Umgebung verwendet. Es sind keine dedizierten Mehrfachnutzungsszenarien bekannt.
  • Das vorgeschlagene LIDAR-Sensorsystem basiert auf der Beobachtung, dass die Lichtquelle eines LIDAR-Sensorsystems einerseits eine der teuersten Komponenten in einem LIDAR-Sensorsystem ist, während es andererseits viele weitere Situationen gibt, in denen lichtbasierte Funktionalitäten dazu beitragen würden, die Sicherheit und Zuverlässigkeit autonom oder teilautonom fahrender Fahrzeuge weiter zu verbessern.
  • Die Grundidee des vorgeschlagenen LIDAR-Sensorsystems besteht darin, das von der Lichtquelle des „LIDAR-Sensorsystems A“ emittierte Licht nicht nur für die Detektion und Entfernungsmessung des „LIDAR-Sensorsystems A“ zu nutzen, sondern dieses Licht zumindest teilweise für andere Zwecke (d.h. für alternative Funktionen oder zusätzliche Anwendungsfälle) zu verwenden. Der Begriff „teilweise“ umfasst in diesem Zusammenhang beide der folgenden Aspekte: sowohl „teilweise“ als auch einen „Teil des Lichtstrahls“. Beide Arten der Nutzung können zusammen oder nacheinander, d.h. unabhängig voneinander, durchgeführt werden.
  • Es folgt eine Liste von lichtbasierten Funktionen, die „teilweise“ mit dem Licht des „LIDAR-Sensorsystems A“ bedient werden können:
    • - Lichtbasierte Referenzsignale (z.B. für den Photodetektor des gleichen „LIDAR-Sensorsystem A“ wie die Lichtquelle oder für einen anderen „LIDAR-Sensor B“).
    • - Andere laserbasierte Anwendungen, z.B. Systeme zur Fahrerüberwachung, Systeme zur Fahrgastüberwachung.
    • - Lichtbasierte Kommunikationssignale entweder mit internen oder externen Kommunikationsgeräten/Partnern (z.B. basierend auf einer Signalcodierung über Impulsfolgen mit unterschiedlichen Impulshöhen und/oder Impulslängen und/oder Impulsformen).
    • - Andere LIDAR-Sensorsysteme, z.B. „LIDAR-Sensorsystem B“, „LIDAR-Sensorsystem C“, etc.
  • Die „Teil“-Leuchte des „LIDAR-Sensorsystem A“ darf ausschließlich zum Betrieb einer oder mehrerer dieser alternativen oder zusätzlichen lichtbasierten Funktionen verwendet werden, oder die „Teil“-Leuchte des „LIDAR-Sensorsystem A“ darf vorübergehend zur Unterstützung oder Verstärkung einer oder mehrerer dieser alternativen oder zusätzlichen lichtbasierten Funktionen verwendet werden.
  • Um diese vielfältigen Anwendungsfälle zu ermöglichen, weist das „LIDAR-Sensorsystem A“ ein oder mehrere optische Elemente auf, die a) so vorgesehen sind oder die b) so angepasst werden können, dass Licht „teilweise“ aus dem Hauptstrahl des „LIDAR-Sensorsystems A“ ausgekoppelt werden kann. Beispiele für solche Elemente sind Linsen, Spiegel, Lichtleiter usw. Weitere Einzelheiten werden im Folgenden beschrieben.
  • Die Lichtquelle für „LIDAR-Sensorsystem A“-Anwendungen liefert im Allgemeinen elektromagnetische Strahlung bzw. Licht, das zur Ableitung von Informationen über Objekte in der Umgebung des LIDAR-Sensorsystems verwendet wird. In verschiedenen Ausführungsformen emittiert die Lichtquelle Strahlung in einem nicht sichtbaren Wellenlängenbereich, z.B. Infrarotstrahlung (IR, 850-1600 nm). In verschiedenen Ausführungsformen emittiert die Lichtquelle Strahlung in einem engen Bandbreitenbereich. Die Lichtquelle kann gepulste Strahlung emittieren, die aus Einzelimpulsen mit gleicher Impulshöhe oder aus Folgen von Mehrfachimpulsen mit einheitlicher Impulshöhe oder mit unterschiedlichen Impulshöhen besteht. Typische Pulsdauern können 2 ns bis 50 ns betragen, wobei die Pulse nach einer typischen AUS-Zeit (z.B. aufgrund thermischer Beschränkungen) im Bereich von 500 ns bis 2 µs wiederholt werden. Um das Signal-Rausch-Verhältnis (SNR) zu verbessern, können mehrere Messergebnisse (z.B. in der Größenordnung von 10-100) gemittelt werden.
  • Die Impulse können eine symmetrische Impulsform haben, z.B. eine rechteckige Impulsform. Alternativ können die Impulse asymmetrische Impulsformen haben, mit Unterschieden in ihren jeweiligen steigenden und fallenden Flanken. Die Mehrzahl der Impulse kann sich auch zumindest teilweise überlappen. Abgesehen von einem solchen gepulsten Betrieb kann die Lichtquelle zumindest zeitweise auch in einem Dauerstrichbetrieb betrieben werden. Im Dauerstrichbetrieb kann die Lichtquelle so angepasst werden, dass Phase, Amplitude, Frequenz, Polarisation usw. der emittierten Strahlung variiert werden können. Die Lichtquelle kann Festkörperlichtquellen umfassen (z.B. kantenemittierende Laser, oberflächenemittierende Laser, Halbleiterlaser, VCSEL, VECSEL, LEDs, Super-Lumineszenz-LEDs usw.). Die Lichtquelle kann ein oder mehrere lichtemittierende Elemente (des gleichen Typs oder verschiedener Typen) aufweisen, die in linearen Streifen oder in zwei- oder dreidimensionalen Arrays angeordnet sein können. Die Lichtquelle kann ferner aktive oder passive Wärmeableitungselemente aufweisen. Die Lichtquelle kann mehrere Schnittstellen haben, die elektrische Verbindungen zu einer Vielzahl von elektronischen Geräten wie Stromquellen, Treibern, Controllern, Prozessoren usw. ermöglichen.
  • Ein Effekt ist der effiziente Einsatz von teuren Laserlichtquellen. Weitere Effekte hängen vom konkreten Anwendungsfall ab. Details siehe unten zusammen mit der allgemeinen Beschreibung der verschiedenen Anwendungsfälle.
  • In einer Ausgestaltung [C_1 / 4] wird das Licht des „LIDAR-Sensorsystems A“ teilweise extrahiert und zum Photodetektor von „LIDAR A“ übertragen, um ein optisches Referenzsignal zu liefern. Das „LIDAR-Sensorsystem A“ ist in diesem Beispiel ein scannendes LIDAR-System mit einem 1D-MEMS-Scanner, der das Licht in das sogenannte Field of Illumination (FOI), d.h. einen Raumwinkelsektor, in dem Objekte detektiert werden können, lenkt und/oder überträgt. Das FOI ist entlang einer horizontalen Richtung auf einen Öffnungswinkel □H und entlang einer vertikalen Richtung auf einen Öffnungswinkel □V begrenzt. Geeignete optische Elemente befinden sich außerhalb dieses Raumwinkelsektors, aber in unmittelbarer Nähe der Raumwinkelgrenzen. In verschiedenen Ausführungsformen befinden sich diese optischen Elemente in der Nähe des Abtastspiegels. Zu diesen optischen Elementen können gehören:
    • - Lichtleiter;
    • - Lichtleiter zusammen mit Fokussierlinsen;
    • - Reflektoren (z.B. ein Planspiegel oder elliptische oder parabolische Reflektoren); und/oder
    • - reflektierende Strukturen am Sensorgehäuse.
  • In verschiedenen Ausführungsformen/Implementierungen enthält das optische Element ein Dotierungsmaterial, um die optischen Eigenschaften des teilweise extrahierten und durchgelassenen Lichts zu modifizieren.
  • Die Ausgestaltung [C_1] zeigt ein LIDAR-Sensorsystem mit Lichtquelle, die einen Lichtstrahl aussendet, der über eine Strahllenkvorrichtung und ein Fenster in das FOI geleitet und/oder übertragen werden kann (begrenzt durch gestrichelte Linien für den Raumwinkelsektor mit Öffnungswinkel. Der durchgelassene Lichtstrahl kann dann an einem Objekt im FOI reflektiert werden, was zu einem rückgestreuten Lichtstrahl führt. Tritt der rückgestreute Lichtstrahl aus einem Raumwinkelsektor mit Öffnungswinkel β aus, kann der Streulichtstrahl über eine Empfängeroptik (z.B. Linse) gesammelt und auf einen Detektor (z.B. Photodetektor) fokussiert werden. In verschiedenen Ausführungsformen/Implementierungen umfasst die Strahllenkvorrichtung ein optisches Phased Array oder eine Scanfaser.
  • Das elektronische Gerät ist so konfiguriert, dass es Signale vom Detektor empfängt und verarbeitet. Die Signalverarbeitung kann das Verstärken, Dämpfen, Filtern, Vergleichen, Speichern oder die anderweitige Verarbeitung elektrischer oder elektronischer Signale umfassen. Für diese Zwecke kann das Gerät einen anwendungsspezifischen integrierten Schaltkreis (ASIC) aufweisen. Die elektronische Einrichtung wird durch eine Steuereinrichtung gesteuert, die eine Prozessoreinheit aufweisen kann und die auch den Treiber steuert (Treiber für Lichtquelle und Scanner).
  • Basierend auf der vorgeschlagenen Ausführungsform kann die Strahllenkvorrichtung so gesteuert werden, dass der Spiegel zu bestimmten Zeiten (z.B. in regelmäßigen Abständen wie alle 1ms oder alle 1s oder alle 10s) weiter als in einer Standardbetriebsart gekippt wird, um Licht entlang der Strahlrichtung zu extrahieren. Der Lichtstrahl wird dann am Spiegel (in diesem speziellen Beispiel mit einer planaren Geometrie) reflektiert und als Lichtstrahl auf den Detektor gerichtet.
  • Auf diese Weise kann dem Detektor zu „bestimmten Zeiten“ ein Referenzsignal zur Verfügung gestellt werden. Das Referenzsignal kann zur Überprüfung auf Abweichungen im Zeit- oder Taktsystem verwendet werden. Es kann auch zur Überprüfung der Lichtleistung der Lichtquelle verwendet werden, um unerwartete Abweichungen (z.B. lebensdauerabhängiges Abklingen, temperaturabhängiger Wirkungsgrad usw.) ausgleichen zu können. Mit anderen Worten, das Referenzsignal kann für ein funktionierendes Kontrollsystem verwendet werden.
  • Die oben erwähnten „bestimmten Zeiten“ können vordefinierte, regelmäßige Zeitintervalle sein. Alternativ können die Zeitintervalle auch in Abhängigkeit von anderen Parametern wie Fahrzeuggeschwindigkeit, Objektklassifizierung (z.B. Fußgänger, erhöhte Aufmerksamkeit für die Augensicherheit) usw. gewählt werden.
  • In einer anderen Ausführungsform [C_2 / 5] wird ein Teil des Lichts des „LIDAR-Sensorsystems A“ über einen Lichtleiter ausgekoppelt und an eine andere lichtbasierte Anwendung weitergeleitet. Der Lichtleiter kann auch an anderen Positionen außerhalb der FOI vorgesehen werden. Im Allgemeinen kann der Lichtleiter auch innerhalb des FOI (nahe der gestrichelten Grenzlinie) vorgesehen werden. In einem solchen Fall würde bei jedem Scan ein Teil des Lichts einmal extrahiert werden, was zu einer asymmetrischen FOI führen kann. Um eine gute Kopplungseffizienz zu ermöglichen, können Fokussierungselemente wie z.B. Sammellinsen vor dem Lichtleiter verwendet werden. Lichtleiter können Durchmesser im Bereich von ca. 10 µm bis zu mehreren 100 µm oder sogar 1000 µm und größer haben, wobei Materialien verwendet werden können, die z.B. Materialien auf Glas-, Polymer-, Silika- oder Saphirbasis aufweisen oder im Wesentlichen daraus bestehen. Darüber hinaus können Dotiermaterialien verwendet werden, um die optischen Eigenschaften des ausgekoppelten Lichts zu modifizieren. Beispielsweise können Phosphormaterialien oder Materialien zur Wellenlängenkonversion hinzugefügt werden, um die Wellenlänge des ausgekoppelten Lichts zu verändern, entweder durch Aufwärts- oder Abwärtskonversion (z.B. von 850 nm oder 905 nm auf eine Wellenlänge im Bereich von 1500 nm). In verschiedenen Ausführungsformen kann dies zusammen mit Detektoren verwendet werden, die in verschiedenen Wellenlängenbereichen empfindlich sind.
  • Zu den „sonstigen lichtbasierten Anwendungen“ können Fahrerüberwachungssysteme oder Belegungserkennungssysteme gehören, die den Fahrer im Fahrgastraum beobachten, z. B. auf der Grundlage von Methoden wie Blickverfolgung, Gesichtserkennung (Auswertung der Kopfdrehung oder -neigung), Messung von Augenblinzelereignissen usw. Dieselben Methoden können auch zur Überwachung des Fahrgastes eingesetzt werden. Alternativ kann das vom Lichtleiter extrahierte Licht auch auf den Photodetektor „anderer LIDAR-Sensorsysteme B“ übertragen werden, um ein Signal für Referenz- und Zeitsynchronisationszwecke zu liefern. Alternativ kann das durch den Lichtleiter extrahierte Licht zur lichtbasierten Kommunikation mit internen oder externen Kommunikationsgeräten/Partnern verwendet werden. Kommunikationssignale können Kodierungstechniken verwenden, die auf Impulsfolgen mit unterschiedlichen Impulshöhen und/oder Impulslängen und/oder Impulsformen basieren).
  • Es ist auch möglich, dass das teilweise ausgekoppelte Licht als Lichtquelle (8108) oder als Lichtquelle für die lichtemittierenden Oberflächenstrukturen (8110) konfiguriert wird, wie bei 81 bis 84 beschrieben.
  • In verschiedenen Ausführungsformen muss die „sonstige lichtbasierte Anwendung“ nicht ständig, sondern nur zu bestimmten Zeiten mit Licht vom „LIDAR-Sensorsystem A“ versorgt werden (siehe auch entsprechende Beschreibung unter Ausführungsform [C_1] ).
  • In einer anderen Ausführungsform [C_3 / 6] wird ein optisches Element zwischen Lichtquelle und Strahllenkungseinheit (das kann ein Abtastspiegel oder andere strahlablenkende Elemente sein) platziert. In einer Ausführungsform kann das optische Element ein Spiegel mit teilweise durchlässigen und teilweise reflektierenden Eigenschaften sein, mit einem vorgegebenen Verhältnis zwischen Transmission und Reflexion. In einer anderen Ausführungsform kann das optische Element ein elektrochromer Spiegel sein, bei dem das Verhältnis zwischen Transmission und Reflexion durch Anlegen einer entsprechenden Steuerspannung verändert werden kann. In weiteren Ausführungsformen kann das optische Element drehbare Elemente (z.B. ein Chopperrad), kippbare Elemente (z.B. Einzelspiegel oder Mehrfachspiegelvorrichtungen wie DMDs) oder Elemente, die entlang mindestens einer Richtung linear bewegt werden können, umfassen. Solche Elemente können Spiegel, Linsen, transparente Keile, transparente Platten usw. sein. Je nach den optischen Eigenschaften des Elements sollte die Orientierung zwischen Lichtquelle und Scanner angepasst werden.
  • Im Vergleich zu den Ausführungsformen [C_1] und [C_2] erlauben die Ausführungsformen [C_3] ein vollständiges Umschalten zwischen „LIDAR-Sensorsystem A“ und der „anderen lichtbasierten Anwendung“. Dies bedeutet, dass in Zeitintervallen, in denen „LIDAR-Sensorsystem A“ nicht benötigt wird, das gesamte Licht von „LIDAR-Sensorsystem A“ für andere Anwendungen genutzt werden kann, z.B. für „LIDAR-Sensorsystem B“, das nur in bestimmten spezifischen Situationen betrieben werden darf (z.B. LIDAR auf der Rückseite zum Einparken). Oder das „LIDAR-Sensorsystem A“ und das „LIDAR-Sensorsystem B“ können unterschiedliche Einsatzszenarien haben, in denen sie größere und kleinere Lichtmengen benötigen. Beispielsweise kann „LIDAR-Sensorsystem A“ an der Fahrzeugfront eingesetzt werden, z.B. für Langstreckeneinsätze bei hohen Fahrzeuggeschwindigkeiten auf Autobahnen, während „LIDAR-Sensorsystem B“ an einer seitlichen Position des Fahrzeugs eingesetzt werden kann, wo die höheren Lichtanteile nur bei kleineren Geschwindigkeiten benötigt werden, z.B. innerhalb von Städten oder Fußgängerzonen.
  • In einer anderen Ausführungsform [C_4 / 7] wird der Lichtstrahl über ein optisches Element (z.B. einen Planspiegel) als Lichtstrahl in Richtung Sensorfenster reflektiert extrahiert. In verschiedenen Ausführungsformen wird der Lichtstrahl unter streifendem Einfall über das Sensorfenster geführt. Für den Fall, dass sich Verunreinigungspartikel (z.B. Staub, Schmutz) an der Außenfläche des Fensters befinden, wird der Lichtstrahl an diesen Verunreinigungspartikeln gestreut, und zwar grundsätzlich in alle Richtungen. Ein Teil dieses Streulichts kann als Indikator für solche Verunreinigungen verwendet werden. In einer Ausführungsform wird der Teil des Streulichts, der in das Fenster eintritt, durch Totalreflexion (TIR) zum Detektor übertragen. Der Detektor kann ein einfacher IR-empfindlicher Detektor sein, der so Verunreinigungen sowohl qualitativ als auch quantitativ erkennen kann. In einer anderen Ausführungsform wird das von den Verunreinigungspartikeln gestreute Licht gesammelt und über geeignete optische Elemente (Spiegel, Reflektor, Lichtleiter) zum Detektor des LIDAR-Sensorsystems übertragen. In diesem Beispiel ist der Detektor so konfiguriert, dass der Detektor während bestimmter Zeiten (d.h. wenn der Lichtstrahl extrahiert wird) für ein kurzes Messfenster von weniger als etwa 30 ns aktiv ist, in dem das von den Verunreinigungspartikeln gestreute Licht detektiert werden kann. In einer weiteren Ausführungsform könnte das optische Element innerhalb des LIDAR-Sensorsystems platziert werden, so dass das Detektionssystem selbst vor Verunreinigungen geschützt ist. In diesem Fall kann der Lichtstrahl ein Fenster durchlassen und wird an den Verunreinigungspartikeln gestreut. Streulicht kann mit verschiedenen Detektionsaufbauten (siehe oben) erneut detektiert werden. In einer weiteren Ausführungsform wird das vom Lichtstrahl (der periodisch über das Sensorfenster gescannt wird) gestreute Licht direkt als Detektionssignal für mögliche Verunreinigungen verwendet. In diesem Fall ist es auch möglich, Informationen über den Ort möglicher Verunreinigungspartikel zu erhalten.
  • 4 zeigt eine Ausgestaltung [C_1] des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion.
  • Das LIDAR-Sensorsystem 10 enthält eine Lichtquelle 42, die einen Lichtstrahl 260 aussendet, der über eine Strahllenkvorrichtung 41 und ein Fenster 250 in das FOI geleitet und/oder übertragen werden kann (begrenzt durch gestrichelte Linien für den Raumwinkelsektor mit Öffnungswinkel α□. Der durchgelassene Lichtstrahl 120 kann dann an einem Objekt 100 im FOI reflektiert werden, was zu einem rückgestreuten Lichtstrahl 130 führt. Tritt der rückgestreute Lichtstrahl 130 aus einem Raumwinkelsektor mit Öffnungswinkel β aus, kann der Streulichtstrahl 130 über eine Empfängeroptik (z.B. Linse 80) aufgefangen und auf den Detektor 240 fokussiert werden.
  • Das elektronische Gerät 230 ist so konfiguriert, dass es Signale vom Detektor 240 empfängt und verarbeitet. Die Signalverarbeitung kann das Verstärken, Dämpfen, Filtern, Vergleichen, Speichern oder die anderweitige Verarbeitung elektrischer oder elektronischer Signale umfassen. Für diese Zwecke kann die Vorrichtung 230 eine anwendungsspezifische integrierte Schaltung (ASIC) aufweisen. Die elektronische Vorrichtung 230 wird von der Steuervorrichtung 220 gesteuert, die eine Prozessoreinheit aufweisen kann und die auch den Treiber 210 steuert (Treiber für Lichtquelle 42 und Scanner 41).
  • Aufgrund der vorgeschlagenen Ausführungsform kann die Strahllenkvorrichtung 41 so gesteuert werden, dass zu bestimmten Zeiten (z.B. in regelmäßigen Abständen wie z.B. alle 1ms oder alle 1s oder alle 10s) das optische Element 410 weiter als in einer Standardbetriebsart gekippt wird, um Licht entlang der Strahlrichtung 261 zu extrahieren. Der Lichtstrahl 261 wird dann am optischen Element 410 (in diesem speziellen Beispiel ein Spiegel mit planarer Geometrie) reflektiert und als Lichtstrahl 262 auf den Detektor 240 gerichtet.
  • Auf diese Weise kann dem Detektor 240 zu „bestimmten Zeiten“ ein Referenzsignal zur Verfügung gestellt werden. Das Referenzsignal kann zur Überprüfung auf Abweichungen im Zeit- oder Taktsystem verwendet werden. Es kann auch verwendet werden, um die Lichtleistung der Lichtquelle 42 zu überprüfen, um unerwartete Abweichungen (z.B. lebensdauerabhängiges Abklingen, temperaturabhängiger Wirkungsgrad usw.) ausgleichen zu können. Mit anderen Worten, das Referenzsignal kann für ein funktionierendes Kontrollsystem verwendet werden.
  • Die oben erwähnten „bestimmten Zeiten“ können vordefinierte, regelmäßige Zeitintervalle sein. Alternativ können die Zeitintervalle auch in Abhängigkeit von anderen Parametern wie Fahrzeuggeschwindigkeit, Objektklassifizierung (z.B. Fußgänger, erhöhte Aufmerksamkeit für die Augensicherheit) usw. gewählt werden.
  • 5 zeigt eine Ausgestaltung [C_2] des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion
  • In der Ausführungsform [C_2] wird ein Teil des Lichts des „LIDAR-Sensorsystems A“ über das optische Element 510 (in diesem konkreten Beispiel Lichtleiter) ausgekoppelt und an eine andere lichtbasierte Anwendung weitergeleitet. Der Lichtleiter 510 kann auch an anderen Positionen ausserhalb des FOI vorgesehen werden. Im Allgemeinen kann der Lichtleiter 510 auch innerhalb des FOI (nahe der gestrichelten Grenzlinie) vorgesehen werden. In einem solchen Fall würde bei jedem Scan ein Teil des Lichts einmal extrahiert, was zu einer asymmetrischen FOI führen kann. Um eine gute Kopplungseffizienz zu ermöglichen, können Fokussierungselemente wie z.B. Sammellinsen vor dem Lichtleiter verwendet werden. Lichtleiter können Durchmesser im Bereich von ca. 10 µm bis zu mehreren 100 µm oder sogar 1000 µm und größer haben, wobei Materialien wie z.B. Materialien auf Glas-, Polymer-, Silika- oder Saphirbasis verwendet werden können. Darüber hinaus können Dotierungsmaterialien verwendet werden, um die optischen Eigenschaften des ausgekoppelten Lichts zu modifizieren. Zum Beispiel können Phosphormaterialien oder Materialien zur Wellenlängenkonversion hinzugefügt werden, um die Wellenlänge des ausgekoppelten Lichts zu verändern, entweder durch Aufwärts- oder Abwärtskonversion (z.B. von 850 nm oder 905 nm auf eine Wellenlänge im Bereich von 1500 nm). In einigen Implementierungen kann dies zusammen mit Detektoren verwendet werden, die in verschiedenen Wellenlängenbereichen empfindlich sind.
  • Andere lichtbasierte Anwendungen können Fahrerüberwachungssysteme oder Belegungserkennungssysteme sein, die den Fahrer im Fahrgastraum beobachten, z. B. auf der Grundlage von Methoden wie Blickverfolgung, Gesichtserkennung (Auswertung der Kopfdrehung oder -neigung), Messung von Augenblinzelereignissen usw. Dieselben Methoden können auch zur Überwachung des Fahrgastes eingesetzt werden. Alternativ kann das vom Lichtleiter extrahierte Licht auch auf den Photodetektor „anderer LIDAR-Sensorsysteme B“ übertragen werden, um ein Signal für Referenz- und Zeitsynchronisationszwecke zu liefern. Alternativ kann das durch den Lichtleiter extrahierte Licht zur lichtbasierten Kommunikation mit internen oder externen Kommunikationsgeräten/Partnern verwendet werden. Kommunikationssignale können Kodierungstechniken verwenden, die auf Impulsfolgen mit unterschiedlichen Impulshöhen und/oder Impulslängen und/oder Impulsformen basieren).
  • Es ist auch möglich, dass das teilweise extrahierte Licht als Lichtquelle (8108) oder als Lichtquelle für die lichtemittierenden Oberflächenstrukturen (8110) konfiguriert wird, wie in 81 bis 84 beschrieben.
  • Bei einigen Implementierungen muss die „sonstige lichtbasierte Anwendung“ nicht ständig, sondern nur zu bestimmten Zeiten mit Licht vom „LIDAR-Sensorsystem A“ versorgt werden (siehe auch entsprechende Beschreibung unter 4).
  • 6 zeigt eine Ausgestaltung [C_3] des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion
  • In der Ausführung [C_3] ist das optische Element 610 zwischen der Lichtquelle 42 und der Strahllenkungseinheit 41 angeordnet (dies kann ein Abtastspiegel 41 oder andere Strahlablenkungselemente sein). In einer Ausführung kann das optische Element 610 ein Spiegel mit teils transmittierenden und teils reflektierenden Eigenschaften sein, mit einem voreingestellten Verhältnis zwischen Transmission und Reflexion. In einer anderen Ausführungsform kann das optische Element 610 ein elektrochromer Spiegel sein, bei dem das Verhältnis zwischen Transmission und Reflexion durch Anlegen einer entsprechenden Steuerspannung verändert werden kann. In weiteren Ausführungsformen könnte das optische Element 610 drehbare Elemente (z.B. ein Chopperrad), kippbare Elemente (z.B. Einzelspiegel oder Mehrfachspiegelvorrichtungen wie DMDs) oder Elemente, die linear entlang mindestens einer Richtung bewegt werden können, umfassen. Solche Elemente können Spiegel, Linsen, transparente Keile, transparente Platten usw. sein. Je nach den optischen Eigenschaften des optischen Elements 610 sollte die Orientierung zwischen Lichtquelle 42 und Scanner 41 angepasst werden.
  • Gegenüber der Ausführungsform [C_1 / 4] und der Ausführungsform [C_2 / 5] erlaubt die dritte Ausführungsform [C_3 / 6] ein vollständiges Umschalten zwischen „LIDAR-Sensorsystem A“ und der „anderen lichtbasierten Anwendung“. Dies bedeutet, dass in Zeitintervallen, in denen „LIDAR-Sensorsystem A“ nicht benötigt wird, das gesamte Licht von „LIDAR-Sensorsystem A“ für andere Anwendungen genutzt werden kann, z.B. für „LIDAR-Sensorsystem B“, das nur in bestimmten Situationen betrieben werden darf (z.B. LIDAR auf der Rückseite zum Einparken). Oder das „LIDAR-Sensorsystem A“ und das „LIDAR-Sensorsystem B“ können unterschiedliche Einsatzszenarien haben, in denen sie größere und kleinere Lichtmengen benötigen. Beispielsweise kann „LIDAR-Sensorsystem A“ an der Fahrzeugfront eingesetzt werden, z.B. für Langstreckeneinsätze bei hohen Fahrzeuggeschwindigkeiten auf Autobahnen, während „LIDAR-Sensorsystem B“ an einer seitlichen Position des Fahrzeugs eingesetzt werden kann, wo die höheren Lichtanteile nur bei kleineren Geschwindigkeiten benötigt werden, z.B. innerhalb von Städten oder Fußgängerzonen.
  • 7 zeigt eine Ausgestaltung [C_4] des vorgeschlagenen LIDAR-Sensorsystems mit teilweiser Strahlextraktion
  • In der Ausführungsform [C_4] wird der Lichtstrahl 261 über das optische Element 610 (z.B. ein Planspiegel) als Lichtstrahl 262 zum Sensorfenster 250 reflektiert extrahiert. In einigen Ausführungsformen wird der Lichtstrahl 262 unter streifendem Einfall über das Sensorfenster 250 geführt. Für den Fall, dass Verunreinigungspartikel (z.B. Staub, Schmutz) an der Außenfläche des Fensters 250 vorhanden sind, wird der Lichtstrahl 262 von diesen Verunreinigungspartikeln gestreut, und zwar im Prinzip in alle Richtungen. Ein Teil dieses Streulichts kann als Indikator für solche Verunreinigungen verwendet werden. In einer Ausgestaltung wird der Teil des Streulichts, der in das Fenster 250 eintritt, durch Totalreflexion (TIR) zum Detektor 720 durchgelassen. Der Detektor 720 kann ein einfacher IR-empfindlicher Detektor sein, der so Verunreinigungen sowohl qualitativ als auch quantitativ erkennen kann. In einer anderen Ausführungsform wird das von den Verunreinigungspartikeln gestreute Licht gesammelt und über geeignete optische Elemente (Spiegel, Reflektor, Lichtleiter) zum Detektor 720 des LIDAR-Sensorsystems 10 übertragen. In diesem Beispiel ist der Detektor 720 so konfiguriert, dass der Detektor zu bestimmten Zeiten (d.h. wenn der Lichtstrahl 261 extrahiert wird) für ein kurzes Messfenster von weniger als ca. 30 ns aktiv ist, in dem das von den Störpartikeln 710 gestreute Licht detektiert werden kann. In einer weiteren Ausführungsform könnte das optische Element 610 innerhalb des LIDAR-Sensorsystems 10 platziert werden, so dass das Verunreinigungsdetektionssystem selbst vor Verunreinigungen geschützt ist. In diesem Fall kann der Lichtstrahl 261 das Fenster 250 durchlassen und wird an den Verunreinigungspartikeln 710 gestreut. Streulicht kann mit verschiedenen Detektionsaufbauten (siehe oben) erneut detektiert werden. In einer weiteren Ausführungsform wird das vom Lichtstrahl 260 (der periodisch über das Sensorfenster 250 gescannt wird) gestreute Licht direkt als Detektionssignal für mögliche Verunreinigungen verwendet. In diesem Fall ist es auch möglich, Informationen über den Ort möglicher Verunreinigungspartikel zu erhalten.
  • Es ist zu beachten, dass in verschiedenen Ausführungsformen, wie unter Bezugnahme auf 4 bis 7 beschrieben, teilweise extrahiertes Licht zu Emitterpunkten verschiedener Ausführungsformen, wie unter Bezugnahme auf 81 bis 84 beschrieben, geleitet werden kann. Somit kann das teilweise extrahierte Licht illustrativ als Lichtquelle dienen.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1y ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann aufweisen:
      • - mindestens eine Lichtquelle, wobei die Lichtquelle so konfiguriert ist, dass sie einen Lichtstrahl aussendet,
      • - mindestens einen Aktuator, wobei der Aktuator so konfiguriert ist, dass er Erfassungslicht in ein Beleuchtungsfeld lenkt,
      • - mindestens ein zweites Erfassungssystem mit einer Optik und einem Detektor, wobei die Optik und der Detektor so konfiguriert sind, dass sie einen von einem Objekt gestreuten Lichtstrahl empfangen,
      • - mindestens ein optisches Element, das so angeordnet ist, dass es mindestens teilweise den von der Lichtquelle ausgesandten und/oder vom Aktuator gelenkten Lichtstrahl empfängt, um den empfangenen Lichtstrahlanteil einer alternativen lichtbasierten Funktion und/oder einer zusätzlichen lichtbasierten Anwendung zuzuführen.
    • In Beispiel 2y kann der Gegenstand von Beispiel 1y optional beinhalten, dass das mindestens eine optische Element vor oder nach der Ausrichtung durch den Aktuator im Lichtstrahlengang angeordnet wird.
    • In Beispiel 3y kann der Gegenstand eines jeden der Beispiele 1y oder 2y optional beinhalten, dass das mindestens eine optische Element beweglich angeordnet ist.
    • In Beispiel 4y kann der Gegenstand eines der Beispiele 1y bis 3y optional beinhalten, dass das mindestens eine optische Element in einem Stück geformt ist oder eine Vielzahl von Elementen umfasst.
    • In Beispiel 5y kann der Gegenstand von Beispiel 4y optional beinhalten, dass die Mehrzahl der Elemente beweglich zueinander angeordnet sind.
    • In Beispiel 6y kann der Gegenstand eines der Beispiele 1y bis 5y optional beinhalten, dass das mindestens eine optische Element einen optischen Spiegel und/oder einen elektrochromen Spiegel enthält.
    • In Beispiel 7y kann der Gegenstand eines der Beispiele 1y bis 5y optional beinhalten, dass das mindestens eine optische Element einen Lichtleiter und/oder einen Lichtleiter mit einer Fokussierlinse enthält.
    • In Beispiel 8y kann der Gegenstand eines der Beispiele 1y bis 5y optional beinhalten, dass das mindestens eine optische Element einen Reflektor enthält.
    • In Beispiel 9y kann der Gegenstand eines der Beispiele 1y bis 8y optional beinhalten, dass das mindestens eine optische Element ein Dotierungsmaterial enthält, um die optischen Eigenschaften des zumindest teilweise empfangenen Lichtstrahls zu modifizieren.
    • In Beispiel 10y kann der Gegenstand eines der Beispiele 1y bis 9y optional beinhalten, dass der von der Lichtquelle emittierte und/oder vom Aktuator gerichtete Lichtstrahl zumindest teilweise durch das mindestens eine optische Element in einem bestimmten Zeitintervall und/oder als Bruchteil der Strahlintensität extrahiert wird.
    • In Beispiel 11y kann der Gegenstand von Beispiel 10y optional beinhalten, dass das Zeitintervall basierend auf mindestens einem Eingangsparameter des LIDAR-Sensorsystems vordefiniert oder angepasst wird.
    • In Beispiel 12y kann der Gegenstand von Beispiel 10y optional beinhalten, dass der Anteil der Strahlintensität basierend auf mindestens einem Eingangsparameter des LIDAR-Sensorsystems vordefiniert oder angepasst wird.
    • In Beispiel 13y kann der Gegenstand eines der Beispiele 1y bis 12y optional beinhalten, dass der mindestens eine Aktuator ein MEMS (Micro-Electro-Mechanical System) und/oder ein optisches Phased Array und/oder eine Abtastfaser enthält.
    • In Beispiel 14y kann der Gegenstand eines der Beispiele 1y bis 13y optional beinhalten, dass die alternative lichtbasierte Funktion und/oder zusätzliche lichtbasierte Anwendung die Erzeugung eines Referenzsignals für das LIDAR-Sensorsystem und/oder für ein zusätzliches LIDAR-Sensorsystem und/oder ein Funktionssteuerungssystem beinhaltet.
    • In Beispiel 15y kann der Gegenstand eines der Beispiele 1y bis 13y optional beinhalten, dass die alternative lichtbasierte Funktion und/oder zusätzliche lichtbasierte Anwendung eine Fahrerüberwachung und/oder eine Fahrgastüberwachung und/oder eine Belegungserkennung beinhaltet.
    • In Beispiel 16y kann der Gegenstand eines jeden der Beispiele 1y bis 13y optional beinhalten, dass die alternative lichtbasierte Funktion und/oder zusätzliche lichtbasierte Anwendung eine lichtbasierte Kommunikation mit einer internen und/oder externen Kommunikationseinrichtung beinhaltet.
    • In Beispiel 17y kann der Gegenstand eines der Beispiele 1y bis 13y optional beinhalten, dass die alternative lichtbasierte Funktion und/oder zusätzliche lichtbasierte Anwendung eine Nutzung des zumindest teilweise extrahierten Strahls für ein zusätzliches Lidarsensorsystem beinhaltet.
    • In Beispiel 18y kann der Gegenstand eines der Beispiele 1y bis 5y optional beinhalten, dass das LIDAR-Sensorsystem ferner ein LIDAR-Sensorsystemgehäuse umfasst, wobei das mindestens eine optische Element eine reflektierende Struktur am LIDAR-Sensorsystemgehäuse aufweist.
  • In einem LIDAR-Sensor ist das im Empfangspfad platzierte optische System aufgrund der Anforderungen an die Abbildungs- und Erfassungsfähigkeiten des LIDAR-Sensors 52 typischerweise das größte Element.
  • Verschiedene Ausführungsformen können die optische Leistung des LIDAR-Sensors verbessern, indem ein herkömmliches sperriges, fehlerhaftes LIDAR-Linsensystem durch eine rechnerisch optimierte Optikanordnung mit ebenen sogenannten Metaflächen ersetzt wird. Darüber hinaus können dem System bei Verwendung solcher Meta-Oberflächen weitere Funktionalitäten des LIDAR-Ranging-Systems hinzugefügt werden. Es sind verschiedene Ausführungsformen denkbar, da die Meta-Flächen kreative, funktional verbesserte und kostengünstige Designs ermöglichen.
  • Eine optische Meta-Oberfläche kann als eine oder mehrere strukturierte Sub-Wellenlängen-Schichten verstanden werden, die mit Licht interagieren und so die Möglichkeit bieten, bestimmte Lichteigenschaften über eine Sub-Wellenlängen-Dicke zu verändern. Eine konventionelle optische Anordnung beruht auf Lichtbrechung und -ausbreitung. Eine optische Meta-Oberfläche bietet ein Verfahren der Lichtmanipulation, die auf der Streuung an kleinen Nanostrukturen oder Nano-Wellenleitern beruht. Solche Nanostrukturen oder Nano-Wellenleiter können mit dem Licht in Resonanz treten und dadurch bestimmte Lichteigenschaften wie Phase, Polarisation und Ausbreitung des Lichts verändern, wodurch die Bildung von Lichtwellen mit bisher unerreichter Genauigkeit ermöglicht wird. Die Größe der Nanostrukturen oder Nano-Wellenleiter ist kleiner als die Wellenlänge des auf die optische Meta-Oberfläche auftreffenden Lichts. Die Nanostrukturen oder Nano-Wellenleiter sind so konfiguriert, dass sie die Eigenschaften des auf die optische Meta-Oberfläche auftreffenden Lichts verändern. Eine optische Meta-Oberfläche weist Ähnlichkeiten mit frequenzselektiven Oberflächen und kontrastreichen Gittern auf. Die Nanostrukturen oder Nano-Wellenleiter können je nach Strukturform eine Größe im Bereich von etwa 1 nm bis etwa 100 nm haben. Sie können eine Phasenverschiebung des Lichts von bis zu zwei π. Die mikroskopische Oberflächenstruktur ist so ausgelegt, dass eine gewünschte makroskopische Wellenfrontzusammensetzung für das die Struktur passierende Licht erreicht wird. In verschiedenen Ausführungsformen kann die Gestaltung der optischen Meta-Oberfläche mit sogenannten Finite-Elemente-Methoden erfolgen. Die jeweiligen einzelnen Nanostrukturen und/oder Nanowellenleiter können unterschiedliche Längen und/oder unterschiedliche Materialien und/oder unterschiedliche Strukturen und/oder unterschiedliche Dicken und/oder unterschiedliche Orientierungen und/oder unterschiedliche Abstände zwischen zwei Nanostrukturen aufweisen.
  • Eine konventionelle LIDAR-Empfangspfad-Optikanordnung kann einen oder mehrere der folgenden Nachteile aufweisen:
    • -eine LIDAR-Empfangspfadoptik-Anordnung ist in der Regel groß und schwer, was einen Nachteil in Bezug auf die Größe des Endprodukts (Grundfläche, Volumen, Gewicht) darstellt und negative Auswirkungen auch in Bezug auf die mechanische Stabilität haben kann;
    • -eine langsame Leistung aufgrund von Einzelpuls-Serienmessungen; und
    • -eine asymmetrische Optikanordnung, um Aberrationsfehler zu begrenzen, was einen kostspieligen Entwurfs- und Herstellungsprozess von Linsen erfordert.
  • Die aktuellen LIDAR-Entwicklungsbemühungen verwenden ein klassisches optisches Konzept, bei dem dicke Linsen verwendet werden, um das Sichtfeld (FOV) des LIDAR auf einen Photodetektor, d.h. den LIDAR-Sensor 52, abzubilden. Die Linsen sind unpolarisierte Optiken mit einer einzigen Brennweite. In einem Lichtzeitsystem wird ein einziger Lichtpuls mit einer einzigen Wellenlänge in das FOV emittiert und dann von der Optikanordnung gesammelt und vom LIDAR-Sensor 52 erfasst. Die Laufzeit des Echoimpulses bestimmt die Dauer einer Einzelmessung und begrenzt natürlich die Wiederholungsrate von LIDAR-Messungen. Um eine gewünschte Auflösung (Anzahl der einzelnen Abstandsmessungen) eines LIDAR-Sensors zu erreichen, können verschiedene Systemarchitekturen eingesetzt werden, wie z.B. Blitz-LIDAR, Zeilen-LIDAR und Punkt-LIDAR. Zusätzlich ergeben nur Mehrfachechos vom gleichen Objekt eine statistisch signifikante Distanzmessung, was die Anzahl der mit einem einzelnen LIDAR-Sensor erreichbaren Distanzmessungen weiter einschränkt. Ein Kompromiss zwischen Abstandsgenauigkeit und Messgeschwindigkeit tritt bei allen Systemen auf, und es wird ein erheblicher technischer Aufwand betrieben, um diese physikalischen Grenzen zu umgehen. Die Wellenlänge kann im Infrarotbereich (IR) liegen, z.B. im nahen Infrarotbereich (NIR).
  • Um dennoch die erforderliche Messgenauigkeit und Auflösung zu erreichen, kann ein hybrides LIDAR-System zwischen Flash-LIDAR und Punkt-Scanning-Architekturen entworfen werden. Die üblicherweise benötigten großflächigen Hochpixel-Zähldetektoren und Einstrahl-LIDAR-Systeme werden jedoch auf Kosten der Komplexität und der Systemkosten eingesetzt. Aktuelle LIDAR-Lösungen sind aus diesen Gründen auf Auflösungen von typischerweise 256 * 64 Pixeln beschränkt, weit unter dem, was selbst das billigste moderne Kamerasystem ohne weiteres erreichen kann.
  • Um die Anzahl der Einzelmessungen weiter zu erhöhen, ist eine Parallelisierung der Messungen wünschenswert, bei der mehr als ein Laserpuls gleichzeitig in das FOV emittiert und unabhängig voneinander detektiert werden kann.
  • Unter Ausnutzung der physikalischen Eigenschaften „Wellenlänge“ und/oder „Polarisation“ des emittierten Lichtes sind sie aufgrund der Optik des Sensors, die nicht in der Lage ist, zwischen diesen Eigenschaften zu unterscheiden, in der Regel nicht zugänglich.
  • In verschiedenen Ausführungsformen wird ein LIDAR-Sensorsystem zur Verfügung gestellt. Das LIDAR-Sensorsystem kann eine optische Anordnung aufweisen, die sich im Empfangspfad des LIDAR-Sensorsystems befindet. Die optische Anordnung umfasst zur Veranschaulichung einen Träger, bei dem mindestens ein Bereich als Meta-Oberfläche konfiguriert ist.
  • In verschiedenen Ausführungsformen kann eine „Region“ im Zusammenhang mit dieser Offenbarung verstanden werden als eine Oberfläche eines Gegenstandes oder einer Schicht, ein Teil einer Oberfläche eines Gegenstandes oder einer Schicht, ein Gegenstand, eine Schicht, eine Zwischenschicht innerhalb einer Schichtstruktur mit einer Vielzahl von Schichten und dergleichen.
  • Im Gegensatz zu der oben erwähnten traditionellen optischen Anordnung kann eine Meta-Oberfläche so gestaltet werden, dass sie Transmissionseigenschaften aufweist, die für verschiedene Polarisationen und Wellenlängen des einfallenden Lichts sehr unterschiedlich sind. Eine Meta-Oberfläche ist eine dünne diffraktive optische Struktur, die so konfiguriert ist, dass sie die optische Wellenfront des einfallenden Lichts auf einem Sub-Wellenlängenniveau manipuliert. Materialien mit hohem Brechungsindex, wie TiO2, können zu Nanostrukturen oder Nano-Wellenleitern geformt werden, die eine Resonanz für nur ein einziges passendes optisches Feld aufweisen. Nur dieser Teil des optischen Feldes koppelt an die Nanostruktur oder die Nanowellenleiter und wird anschließend in Ausbreitungsrichtung gestreut. Durch die Verwendung von Computermodellen für die optische Reaktion im kleinen Maßstab können großflächige Muster solcher Nanostrukturen oder Nanowellenleiter so gestaltet werden, dass sie eine kollektive Reaktion für Licht mit einer übereinstimmenden Eigenschaft, wie Polarisation, Ausbreitungsrichtung, Wellenlänge, Einfallswinkel usw., aufweisen. Die Streustärke und -richtung ist räumlich, aber auch wellenlängen- und polarisationsabhängig. Herkömmliche dielektrische Linsen wurden erfolgreich durch solche flachen Strukturen ersetzt und in den optischen Abbildungseigenschaften sogar übertroffen. Es wurden sehr viel komplexere Linsen entwickelt, die in der Lage sind, Licht mit unterschiedlichen Eigenschaften unabhängig voneinander zu fokussieren, z.B. zeigt linkszirkular polarisiertes Licht einen Brennfleck oberhalb der optischen Achse der Meta-Oberfläche, während rechtszirkular polarisiertes Licht einen Brennfleck unterhalb der optischen Achse der Meta-Oberfläche zeigt. Dies ermöglicht sehr komplexe optische Funktionselemente, die in verschiedenen Ausführungsformen zur Verfügung stehen können. Die Möglichkeit, die Form und die Eigenschaften einer solchen Oberfläche rechnerisch zu entwerfen, ermöglicht eine Vielzahl neuer LIDAR-Systemarchitekturen in Übereinstimmung mit verschiedenen Ausführungsformen, die im Vergleich zu aktuellen Lösungen eine höhere Leistung aufweisen. Die Polarisation kann linear oder zirkular sein.
  • Typische Designwellenlängen liegen im Bereich von ca. 450 nm bis ca. 1100 nm, z.B. im Bereich von ca. 600 nm bis ca. 950 nm. Dieser Bereich ist breit genug, um mehrere Laser-Wellenlängenbereiche zu unterstützen und erlaubt auch die Verwendung von Standard-Silizium-Detektoren (z.B. Silizium-Photodioden). Ein Design für eine Wellenlänge von etwa 1550 nm kann die Verwendung verschiedener Detektormaterialien erfordern.
  • In verschiedenen Ausführungsformen wird vorgeschlagen, technisierte, (hoch) nichtlineare Metaflächen zu verwenden, um die Grenzen der Beschränkung auf eine einzige Wellenlänge und Polarisation zu überwinden. Das Lasersystem kann in der Lage sein, Licht mit mehreren Eigenschaften zu emittieren, entweder in Polarisation oder Wellenlänge, aber auch Kombinationen davon. Die Meta-Oberfläche des Trägers einer optischen Anordnung im Detektor-(Empfangs-)Pfad kann so gestaltet sein, dass sie eine angepasste Reaktion auf die verwendeten Laserquellen zeigt. Es gibt mehrere Realisierungen davon in verschiedenen Ausführungsformen, aber im Allgemeinen fügt diese Kombination der Detektoroptik eine Funktionalität hinzu, die das LIDAR-Sensorsystem verbessern kann.
  • In verschiedenen Ausführungsformen werden zwei Anwendungsfälle betrachtet:
    • - Verwendung der Meta-Oberfläche als klassische Detektionsoptik:
      • Die flache Optik reduziert das Gewicht und die Kosten der optischen Komponenten in einem LIDAR-Gerät.
      • Die flache Optik kann so ausgelegt werden, dass sie die optische Leistung herkömmlicher Optiken in Bezug auf optische Aberrationen und numerische Apertur übertrifft und dadurch mehr Licht mit besseren Abbildungseigenschaften auf kleinerem Bauraum sammelt.
    • - Verwendung von Meta-Oberflächen, um dem Sensor(empfangs)pfad Funktionalität hinzuzufügen:
      • Die zusätzliche Funktionalität kann die Sensorleistung und Messgenauigkeit verbessern, indem die Anzahl der Messungen durch parallele Beleuchtung erhöht wird.
  • 76 zeigt einen Ausschnitt 7600 eines LIDAR-Sensorsystems in Übereinstimmung mit verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen ist eine flache Optikanordnung mit mehreren Wellenlängen und mehreren Polarisationsfokussierungen vorgesehen.
  • Wie inFIG. 76 dargestellt, kann der Teil 7600 eines LIDAR-Sensorsystems eine erste Laserquelle 7602 und eine zweite Laserquelle 7604 aufweisen, die so konfiguriert sind, dass sie Laserlicht mit unterschiedlichen Wellenlängen und/oder unterschiedlichen Polarisationen aussenden. Mit anderen Worten, die erste Laserquelle 7602 kann so konfiguriert sein, dass sie erstes Laserlicht 7606 mit einer ersten Wellenlänge und/oder einer ersten Polarisation emittiert. Die zweite Laserquelle 7604 kann so konfiguriert werden, dass sie zweites Laserlicht 7608 mit einer zweiten Wellenlänge und/oder einer zweiten Polarisation emittiert. Die zweite Wellenlänge kann sich von der ersten Wellenlänge und/oder die zweite Polarisation kann sich von der ersten Polarisation unterscheiden.
  • Wie in 76 dargestellt, können die Laserquellen 7602 und 7604 so gegeneinander gekippt werden, dass die jeweiligen Emissionen der Laserlichtstrahlen 7606, 7608 durch eine Strahllenkungseinheit 7610 in verschiedene Winkelbereiche des FOV 7612 des LIDAR-Sensorsystems gelenkt werden. Mit anderen Worten, die erste Laserquelle 7602 kann so konfiguriert werden, dass sie eine erste optische Achse hat und die zweite Laserquelle 7604 kann so konfiguriert werden, dass sie eine zweite optische Achse hat, die sich von der ersten optischen Achse unterscheidet. Eine optische Achse kann so verstanden werden, dass sie eine Richtung darstellt, in die vorwiegend Licht emittiert wird. So schließen die erste optische Achse und die zweite optische Achse illustrativ einen Winkel α ein (z.B. von weniger als 90°, z.B. im Bereich von etwa 5° bis etwa 80°, z.B. im Bereich von etwa 15° bis etwa 70°, z.B. im Bereich von etwa 25° bis etwa 60°, z.B. im Bereich von etwa 35° bis etwa 50°).
  • Bei den beiden Laserquellen 7602 und 7604 kann der Kippwinkel so gewählt werden, dass jede der Laserlichtemissionen während des Scanvorgangs jeweils die Hälfte des horizontalen FOV 7612 abdeckt, d.h. jeder Laserlichtstrahl 7606, 7608 scannt jeweils die Hälfte des FOV (z. B. die Emission des ersten Laserlichtstrahls 7606 kann eine erste Hälfte des horizontalen FOV 7612 abdecken und die Emission des zweiten Laserlichtstrahls 7608 kann eine zweite Hälfte des horizontalen FOV 7612 abdecken, so dass das gesamte FOV 7612 abgedeckt wird). Die erste Laserquelle 7602 kann so konfiguriert werden, dass sie einen ersten Laserstrahl 7606 mit einer ersten Wellenlänge und/oder einer ersten Polarisation emittiert. Die zweite Laserquelle 7604 kann so konfiguriert werden, dass sie einen zweiten Laserstrahl 7608 mit einer zweiten Wellenlänge und/oder einer zweiten Polarisation emittiert. Die zweite Wellenlänge kann sich von der ersten Wellenlänge und/oder die zweite Polarisation kann sich von der ersten Polarisation unterscheiden. In verschiedenen Ausführungsformen kann die zweite Polarisation orthogonal zur ersten Polarisation sein. Das Strahlführungssystem 7610 kann bereitgestellt werden, um den ersten Laserstrahl 7606 und den zweiten Laserstrahl 7608 von den Laserquellen 7602, 7604 in das FOV 7612 zu scannen. Ein erster gescannter Laserstrahl 7614 (z.B. in eine erste Hälfte des FOV 7612 gescannt), der erste Laserpulse enthält, kann von einem ersten Objekt 7616 als erster reflektierter Laserstrahl 7618 reflektiert werden. Ein zweiter gescannter Laserstrahl 7620 (z.B. gescannt in eine zweite Hälfte des FOV 7612), der zweite Laserpulse enthält, kann von einem zweiten Objekt 7622 als zweiter reflektierter Laserstrahl 7624 reflektiert werden. Die Laserquellen 7602 und 7604 und das Strahlführungssystem 7610 können Teil des ersten LIDAR-Sensorsystems 40 sein. Der erste reflektierte Laserstrahl 7618 und der zweite reflektierte Laserstrahl 7624 werden von den optischen Anordnungen der Empfängerstrecke des LIDAR-Sensorsystems 10, also vom Zweiten LIDAR-Sensorsystem 50, empfangen.
  • Das zweite LIDAR-Sensorsystem 50 kann eine optionale Sammellinse 7626 (entweder klassische Optik oder Meta-Oberfläche) aufweisen, die so konfiguriert ist, dass sie das vom FOV 7612 kommende Licht auf eine optische Komponente 7628 (als Beispiel eines Trägers) kollimiert, die einen oder mehrere Oberflächenbereiche (die sich im Empfangslichtpfad befinden) haben kann, die als ein oder mehrere Nanostrukturbereiche konfiguriert sind, wobei jeder Nanostrukturbereich eine Vielzahl von Nanostrukturen oder Nanowellenleitern enthält, die auf mindestens einer Seite des Trägers vorgesehen sind. Die Größe der Nanostrukturen oder Nano-Wellenleiter ist kleiner als die Wellenlänge des von der ersten Lichtquelle emittierten Lichts und kleiner als die Wellenlänge des von der zweiten Lichtquelle emittierten Lichts. Die Nanostrukturen oder Nano-Wellenleiter sind so konfiguriert, dass sie die Eigenschaften des von den Lichtquellen emittierten Lichts verändern. Beispielsweise kann die optische Komponente 7628 einen oder mehrere Oberflächenbereiche (die sich im Empfangslichtpfad befinden) aufweisen, die als eine oder mehrere Meta-Oberflächen konfiguriert sind. In verschiedenen Ausführungsformen kann die optische Komponente 7628 einen oder mehrere Oberflächenbereiche (die sich im Empfangslichtpfad befinden) aufweisen, die als Meta-Oberfläche mit zwei Brennpunkten konfiguriert sind, welche die Lichtechos wellenlängen- und/oder polarisationsabhängig auf jeweils einen ersten Sensor 7630 und einen zweiten Sensor 7632 fokussiert. Alternativ kann die optische Komponente 7628 mit einer oder mehreren (z.B. Multi-Fokus-) Meta-Flächen so konfiguriert werden, dass die Lichtechos polarisationsabhängig auf jeden der ersten Sensoren 7630 und 7632 fokussiert werden.
  • In verschiedenen Ausführungsformen können mehr als zwei gekippte Laserquellen 7602, 7604 zur Verfügung gestellt werden. Die jeweiligen Neigungswinkel können je nach Systemaufbau und der gewünschten Abdeckung eines bestimmten FOV 7612 mit einer bestimmten Wellenlänge und/oder Polarisation des Laserstrahls oder einer anderen Strahlcharakteristik (wie der Strahlintensität) variieren. Das bedeutet, dass die einzelnen Neigungswinkel nicht gleich sein müssen (aber sein können). In verschiedenen Ausführungsformen können mehr als zwei Detektoren vorgesehen werden.
  • Eine Meta-Oberflächen-Optikanordnung mit getrennten Brennpunkten für verschiedene Wellenlängen und/oder Polarisationen kann vorgesehen werden. Dies kann die Verwendung von zwei Laserquellen 7602, 7604 mit unterschiedlichen Wellenlängen ermöglichen, die das FOV 7612 gleichzeitig abtasten. Die Messzeit eines LIDAR-Systems kann um einen Faktor der jeweiligen Anzahl der verwendeten Laserquellen 7602, 7604 verringert werden, da zwei (bzw. mehr) Distanzmessungen gleichzeitig wie bei einem normalen LIDAR-System durchgeführt werden können.
  • Alternativ kann zwischen den Emissionen der beiden Laserquellen 7602, 7604 eine einstellbare und/oder stochastisch variierte Zeitdifferenz bestehen, die z.B. für ein abwechselndes Auslesen der jeweiligen Sensoren 7630, 7632 verwendet werden kann (unter Verwendung der gleichen Auslese- und Signalverarbeitungsgeräte wie TIA, ADC, TDC (Zeit-Digital-Konverter (Time-to-Digital Converter)), etc.
  • In einer solchen Anordnung kann die Szene mit zwei (oder mehr) Laserstrahlen 7606, 7608 gleichzeitig abgetastet werden, was die Messzeit eines vollständigen Scans verringert, was entweder zur Erhöhung der Bildfrequenz eines LIDAR-Scans oder der Präzision durch Nutzung des Zeitgewinns für eine zusätzliche Mittelwertbildung genutzt werden kann. Beispielsweise können in diesem Fall zwei Laserquellen 7602, 7604 mit jeweils 100kHz Wiederholrate parallel verwendet werden, die jeweils die Hälfte des gesamten FOV 7612 abdecken. Während in einer konventionellen Konfiguration ein einziger Laser das gesamte FOV 7612 mit einer bestimmten Mittelung über jedes Pixel abdecken musste, muss nun die Hälfte des FOV 7612 in der gleichen Zeit fertiggestellt werden. Die gewonnene Zeit kann zur Erhöhung der Auflösung, der Bildrate oder der Mittelung/Präzision verwendet werden.
  • 77 zeigt einen Ausschnitt 7700 eines LIDAR-Sensorsystems in Übereinstimmung mit verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen, wie in 77 dargestellt, können die Laserquellen 7602, 7604 so konfiguriert werden, dass sie im Emissionspfad Laserlichtstrahlen 7606, 7608 erzeugen, die auf einen oder mehrere dichroitische Spiegel 7702 oder polarisierte Strahlteiler (PBS) gerichtet sind, so dass die beiden Laserlichtstrahlen 7602, 7604 als zwei parallele und sich zumindest teilweise überlappende Laserlichtstrahlen 7704, 7706 in das FOV 7612 emittiert werden. Mit anderen Worten, die beiden parallelen Laserlichtstrahlen 7704, 7706 werden überwiegend in dieselbe Richtung emittiert, d.h. sie folgen demselben Weg und treffen auf dasselbe Ziel (nicht in 77 dargestellt). Die Sammeeloptik und die Metafläche im Empfangspfad würden dann die jeweiligen Echos auf die Sensoren aufspalten. Daraus lassen sich zwei unabhängige Messungen in der gleichen Zeitspanne eines einzelnen Laserpulses extrahieren.
  • Die detektierten Echos können dann zur Erhöhung des SNR durch Mittelwertbildung der Messungen verwendet werden, was wiederum die Messzeit/Bildrate des LIDAR erhöhen kann. Darüber hinaus ist es möglich, Wellenlängen zu verwenden, die für verschiedene Umgebungsbedingungen, wie z.B. atmosphärische oder Wetterbedingungen, optimiert sind. Eine Wellenlänge im Bereich von etwa 850 nm bis etwa 1000 nm zeigt bei ungünstigen Wetterbedingungen (Regen, Schnee, Nebel) nur geringe atmosphärische Wechselwirkungen, während eine Wellenlänge im Bereich von etwa 1200 nm bis etwa 1600 nm bei ungünstigen Wetterbedingungen (Regen, Schnee, Nebel) intensivere Wechselwirkungen zeigt.
  • 78 zeigt einen Ausschnitt 7800 eines LIDAR-Sensorsystems in Übereinstimmung mit verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen wird eine winkelkonvergente mehrschichtige Sammellinse angeboten.
  • In verschiedenen Ausführungsformen wird die Meta-Fläche auf einer oder mehreren Flächen zur Verfügung gestellt (z.B. auf zwei gegenüberliegenden Flächen) einer optischen Komponente des Zweiten LIDAR-Sensorsystems 50 (also einer optischen Komponente im Empfangspfad des LIDAR-Sensorsystems 10) vorgesehen, um die Echos (reflektierter Laserstrahl bzw. reflektierte Laserstrahlen) von einem breiten FOV 7612 auf einen LIDAR-Sensor 52 mit einer geringen Größe z.B. in Bezug auf eine horizontale Richtung zu sammeln (im Falle eines typischen LIDAR-Systems für Automobilanwendungen mit einem breiten FOV 7612 in horizontaler Richtung).
  • Im Falle eines LIDAR-Systems mit konventioneller Optikanordnung und einem FOV 7612 von z.B. 12° in vertikaler Richtung und 60° in horizontaler Richtung können typische Sensorelemente eine Größe von 0,3 mm in vertikaler Richtung und 2,5 mm in horizontaler Richtung haben, d.h. ein großes Seitenverhältnis von 8,33 aufweisen. Im Falle einer winkelkonvergenten Mehrschichtsammellinse kann das FOV 7612 auf ein Sensorelement 52 mit einem viel kleineren Seitenverhältnis, z.B. mindestens kleiner als 5, bis hinunter zu einem Seitenverhältnis von 1, z.B. einem quadratischen Sensorelement 52, fokussiert werden. Dies kann einen kleineren Sensor ermöglichen und den Verlust der optischen Effizienz in den Ecken des FOV 7612 vermeiden. Eine solche Meta-Linse kann konstruiert werden, indem eine erste Oberfläche einer optischen Komponente und eine zweite Oberfläche der optischen Komponente (gegenüber der ersten Oberfläche) als Meta-Oberfläche vorgesehen wird.
  • Wie in 78 dargestellt, das nur eine Laserquelle zeigt, ist z.B. die erste Laserquelle 7602 so konfiguriert, dass sie den ersten Laserstrahl 7606 aussendet, der auf eine Strahllenkvorrichtung 7802 gerichtet ist. Der abgelenkte Laserstrahl 7804 verlässt das erste LIDAR-Erfassungssystem 40 und tritt in das FOV 7612 und den Erfassungsbereich 7812 einer Meta-Linse 7812 ein und trifft auf ein darin befindliches Zielobjekt 7806. Die Echos des Zielobjekts 7806 (mit anderen Worten ein reflektierter Laserstrahl 7808) können von der Meta-Linse 7812 (z.B. eine optische Komponente mit einem Träger, von dem zwei gegenüberliegende Oberflächen als Meta-Oberflächen konfiguriert sind) auf eine kleine Sensorfläche 7814 des Sensors 52 gesammelt werden. Die Größe des Sensors 52 kann verringert werden, was die Ansprechzeit und Empfindlichkeit des Sensors 52 verbessern kann.
  • Eine Meta-Linse 7812 für verschiedene Ausführungsformen kann mehr als eine Schicht mit Meta-Materialstrukturen aufweisen, z.B. kann sie mehr als zwei Schichten aufweisen, z.B. mehr als drei Schichten, z.B. im Bereich von etwa drei Schichten bis etwa fünf Schichten. Mit einer solchen Konfiguration ist es möglich, Echolicht, das von verschiedenen einfallenden Winkelsegmenten kommt, auf den gleichen Fokuspunkt zu fokussieren.
  • 79 zeigt einen Aufbau 7900 eines Doppellinsens mit zwei Meta-Flächen nach verschiedenen Ausführungsformen.
  • In verschiedenen Ausführungsformen ist eine doppelseitige Meta-Linse 7902 vorgesehen, um den FOV eines einzelnen Detektors für verschiedene Lichtstrahlen (z.B. verschiedene Laserstrahlen) zu ändern.
  • Die doppelseitige Meta-Linse 7902 kann einen (optisch transparenten oder transluzenten) Träger 7904 aufweisen, von dem eine erste Fläche 7906 als erste Meta-Fläche 7906 und eine zweite Fläche 7908 als zweite Meta-Fläche 7908 konfiguriert ist. Die zweite Fläche 7908 liegt der ersten Fläche 7906 gegenüber. Die zweite Fläche 7908 und die erste Fläche 7906 befinden sich beide im Strahlengang der empfangenen Lichtstrahlen (z.B. empfangener Laserstrahl bzw. empfangene Laserstrahlen). Die erste Meta-Oberfläche 7906 ist so konfiguriert, dass sie Licht mit unterschiedlichem Charakter (z.B. in Bezug auf Wellenlänge und/oder Polarisation) konvergent und divergent in Richtung der zweiten Meta-Oberfläche 7908 beugt. Zum Beispiel werden zuerst empfangene Lichtstrahlen 7910 mit einer ersten Wellenlänge und einer ersten Polarisation von der ersten Meta-Oberfläche 7906 um einen ersten Beugungswinkel in eine Richtung weg von einem einzelnen Brennpunkt 7916 einer einzelnen Brennebene 7914 gebeugt, um erste gebeugte Lichtstrahlen 7918 innerhalb des Trägers 7904 zu bilden. Darüber hinaus werden zweite empfangene Lichtstrahlen 7912 mit einer zweiten Wellenlänge und einer zweiten Polarisation von der ersten Meta-Oberfläche 7906 unter einem zweiten Beugungswinkel in Richtung auf den einzigen Brennpunkt 7916 der Brennebene 7914 gebeugt, um zweite gebeugte Lichtstrahlen 7920 innerhalb des Trägers 7904 zu bilden. Die ersten und zweiten gebeugten Lichtstrahlen 7918, 7920 werden von der ersten Meta-Oberfläche 7906 durch den Träger 7904 und schließlich in Richtung der zweiten Meta-Oberfläche 7908 durchgelassen.
  • Die zweite Metafläche 7908 ist so konfiguriert, dass sie Licht unterschiedlichen Charakters (z.B. Wellenlänge, Polarisation) konvergent und divergent in Richtung des einzigen Brennpunktes 7916 der Brennebene 7914 beugt. Zum Beispiel werden die ersten gebeugten Lichtstrahlen 7918, die von innerhalb des Trägers 7904 auf die zweite Meta-Oberfläche 7908 treffen, von der zweiten Meta-Oberfläche 7908 unter einem dritten Beugungswinkel in eine Richtung zum einzigen Brennpunkt 7916 der Brennebene 7914 gebeugt, um dritte gebeugte Lichtstrahlen 7922 außerhalb des Trägers 7904 zu bilden. Darüber hinaus werden die zweiten gebeugten Lichtstrahlen 7920, die von innerhalb des Trägers 7904 auf die zweite Meta-Oberfläche 7908 treffen, von der zweiten Meta-Oberfläche 7908 um einen vierten Beugungswinkel in eine Richtung zum einzigen Brennpunkt 7916 der Brennebene 7914 gebeugt, um vierte gebeugte Lichtstrahlen 7924 außerhalb des Trägers 7904 zu bilden.
  • Mit anderen Worten, an der zweiten Oberfläche 7908 wird das Licht gebeugt und in eine einzige Brennebene kollimiert. Zur Veranschaulichung: Die erste Metafläche 7906 bildet eine erste optische Linse und die zweite Metafläche 7908 bildet eine zweite optische Linse mit der optischen Achse 7936. Im Beispiel von 79 ist die erste Metafläche 7906 so konfiguriert, dass sie Licht mit einer ersten optischen Eigenschaft (z.B. erste Wellenlänge und/oder erste Polarisation) divergent (in Bezug auf die optische Achse 7936) in Richtung der zweiten Metafläche 7908 beugt und Licht mit einer zweiten optischen Eigenschaft (z.B. zweite Wellenlänge und/oder zweite Polarisation) konvergent (in Bezug auf die optische Achse 7936) in Richtung der zweiten Metafläche 7906 beugt. Die zweite Meta-Oberfläche 7908 ist so konfiguriert, dass sie Licht mit beiden optischen Eigenschaften (erste optische Eigenschaft und zweite optische Eigenschaft) in Richtung derselben Brennebene 7914 und sogar in Richtung desselben einzigen Brennpunkts 7916 kollimiert.
  • 79 zeigt ferner eine Eintrittsöffnung D 7928 für die einfallenden Lichtstrahlen 7910 und 7912. 7930 zeigt einen Querschnitt der oberen Hälfte einer solchen Doppelfokuslinse, die sich entlang der z-Richtung 7932 und der x-Richtung 7934 erstreckt. Entlang der z-Richtung 7932 können die Meta-Materialstrukturen der ersten Meta-Fläche 7906 nur bis zum Punkt D/2 ausgedehnt werden, während die Meta-Materialstrukturen der zweiten Meta-Fläche 7908 über den Punkt D/2 hinaus ausgedehnt werden können. Basierend auf den oben beschriebenen Ausführungsformen kann daher das Licht der beiden unterschiedlichen Licht(laser)quellen 7602, 7604 mit einer unterschiedlichen Vergrößerung auf den Sensor 52 abgebildet werden, was ein selektives Zoomen ermöglicht. Dies könnte genutzt werden, um das FOV 7612 des Sensors 52 dynamisch zwischen verschiedenen Vergrößerungen umzuschalten, indem die Licht(laser)quellen 7602, 7604 selektiv betrieben werden.
  • So können verschiedene Ausführungsformen verwendet werden, um einen Zoom-Effekt zu erzielen, da verschiedene Wellenlängen zur Verfügung gestellt werden können, um verschiedene FOVs zu erzielen. Es ist zu beachten, dass, um das gleiche Basismaterial für den Sensor 52 (für Si oder GaAs) verwenden zu können, die Wellenlängen des von den Lichtquellen (z.B. Lichtquellen 7602, 7604) abgestrahlten Lichts nicht zu stark voneinander abweichen sollten. Beispielsweise kann die erste Lichtquelle 7602 so konfiguriert sein, dass sie (Laser-)Licht mit einer Wellenlänge von etwa 900 nm emittiert, und die zweite Lichtquelle 7604 kann so konfiguriert sein, dass sie (Laser-)Licht mit einer Wellenlänge von etwa 800 nm emittiert.
  • 80 zeigt einen Ausschnitt 8000 eines LIDAR-Sensorsystems in Übereinstimmung mit verschiedenen Ausführungsformen.
  • 80 zeigt das LIDAR-Sensorsystem mit der ersten Laserquelle 7602 mit ersten optischen Eigenschaften (z.B. der ersten Wellenlänge und der ersten Polarisation) und der zweiten Laserquelle 7604 mit zweiten optischen Eigenschaften (z.B. der zweiten Wellenlänge und der zweiten Polarisation). Die Emission (d.h. der erste Laserstrahl 7606 und der zweite Laserstrahl 7608) der beiden Laserquellen 7602, 7604 kann räumlich überlappt werden, z.B. mit einer Technik wie in 77 gezeigt. Alternativ können die Laserquellen 7602, 7604 auch gegeneinander gekippt werden.
  • Wie in 80 dargestellt, scannen die Laserquellen 7602 und 7604 das FOV 7612, wobei nur eine Laserquelle (z.B. die erste Laserquelle 7602) der beiden Laserquellen 7602, 7604 aktiviert und die andere Laserquelle der beiden Laserquellen 7602, 7604 stummgeschaltet ist. Ein Laserstrahl 8002, 8004 des ersten Laserstrahls 7606 und des zweiten Laserstrahls 7608 wird in Richtung des Objekts 7806 reflektiert und das Echo (reflektierter Laserstrahl 8006, 8008) wird von der Dual-FOV-Meta-Linse 7910 gesammelt, so dass ein großes FOV (gekennzeichnet durch die gestrichelten ersten Linien 7810 in 80 und entsprechend den Lichtstrahlen mit der ersten optischen Eigenschaft in 79) auf dem Sensor 52 abgebildet wird.
  • In verschiedenen Ausführungsformen kann die zweite Laserquelle 7604 eingeschaltet werden, während der erste Laser 7602 ausgeschaltet ist, und ein kleineres FOV (gekennzeichnet durch die zweiten Zeilen 8010 in 80, und entsprechend den Lichtstrahlen mit der zweiten optischen Eigenschaft in 79) wird in diesem Fall auf dem gleichen Sensor 52 unter Verwendung der gleichen Sensorfläche abgebildet. Dies ermöglicht Zoomeffekte, d.h. die kleineren FOV (graue Linien) werden mit einer größeren Vergrößerung abgebildet.
  • In verschiedenen Ausführungsformen kann der Abtastvorgang für beide Laserquellen 7602, 7604 unverändert sein, d.h. das FOV hat in beiden Fällen die gleiche Winkelbreite. Alternativ kann der Abtastvorgang durch Verringerung des Abtastwinkels der zweiten Laserquelle 7604 reduziert werden, falls die erste Laserquelle 7602 im obigen Beispiel die erste optische Eigenschaft aufweist. Die Anordnung der Sammeloptik bildet inhärent ein kleineres FOV ab, und das Zielobjekt 7806 wird auf dem LIDAR-Sensor 52 größer abgebildet.
  • Es ist zu beachten, dass der Nanostrukturbereich oder die Meta-Oberfläche nicht unbedingt an einer exponierten Oberfläche vorgesehen werden muss. Es kann auch eine Mehrschichtstruktur vorgesehen werden, bei der die Nanostrukturregion oder die Meta-Oberfläche an einer Grenzfläche zwischen zwei Schichten der Mehrschichtstruktur vorgesehen ist. Dies kann natürlich mit einer zusätzlichen Nanostrukturregion oder Meta-Oberfläche kombiniert werden, die an einer freiliegenden Oberfläche der Mehrschichtstruktur vorgesehen ist.
  • Darüber hinaus kann es in verschiedenen Ausführungsformen eine zusätzliche Optikanordnung mit einem Träger und mindestens einem Nanostrukturbereich oder einer Meta-Oberfläche im Sendepfad des LIDAR-Sensorsystems 10 geben, also z.B. im ersten LIDAR-Sensorsystem 40. Die Zusatzoptik kann vor der Strahllenkungseinrichtung oder Strahllenkungskomponente, z.B. 7802, angeordnet werden. Darüber hinaus kann auch die Strahlführungseinrichtung oder Strahlführungskomponente mindestens einen Nanostrukturbereich oder eine Meta-Oberfläche aufweisen.
  • Weiterhin ist zu erwähnen, dass die in Verbindung mit 76 beschriebenen Ausführungsformen und die in Verbindung mit 78 beschriebenen Ausführungsformen miteinander kombiniert werden können.
  • Nachgeschaltet an den Sensor 52 oder an jeden Sensor 7632, 7630 der Vielzahl von Sensoren kann ein Verstärker (z.B. ein Transimpedanzverstärker) vorgesehen sein, der so konfiguriert ist, dass er ein von dem einen oder den mehreren Sensoren geliefertes Signal verstärkt. Weiter stromabwärts angeschlossen kann ein Analog-Digital-Wandler (ADC) und/oder ein Zeit-Digital-Wandler (TDC) vorgesehen sein.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1j ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine erste Lichtquelle und eine zweite Lichtquelle sowie eine optische Anordnung im Empfangspfad des LIDAR-Sensorsystems umfassen. Die optische Anordnung umfasst einen Träger und mindestens einen Nanostrukturbereich mit einer Vielzahl von Nanostrukturen oder Nanowellenleitern, die sich auf mindestens einer Seite des Trägers befinden. Die Größe der Nanostrukturen oder Nano-Wellenleiter ist kleiner als die Wellenlänge des von der ersten Lichtquelle emittierten Lichts und kleiner als die Wellenlänge des von der zweiten Lichtquelle emittierten Lichts. Die Nanostrukturen oder Nano-Wellenleiter sind so konfiguriert, dass sie die Eigenschaften des von den Lichtquellen emittierten Lichts verändern.
    • In Beispiel 2j kann der Gegenstand von Beispiel 1j optional beinhalten, dass die Nanostrukturen oder Nano-Wellenleiter so konfiguriert sind, dass sie die Eigenschaften des von den Lichtquellen emittierten Lichts verändern, indem sie eine Resonanz mit dem von der ersten Lichtquelle emittierten Licht und/oder mit dem von der zweiten Lichtquelle emittierten Licht und/oder durch Wellenleitereffekte für beide Quellen aufweisen.
    • In Beispiel 3j kann der Gegenstand eines der Beispiele 1j oder 2j optional beinhalten, dass der mindestens eine Nanostrukturbereich mindestens eine Meta-Oberfläche bildet, die auf mindestens einer Seite des Trägers vorgesehen ist. Es ist zu beachten, dass eine Meta-Oberfläche sowohl für ein Transmissionsszenario als auch für ein Reflexionsszenario bereitgestellt oder verwendet werden kann (mit anderen Worten, eine Meta-Oberfläche kann eine Resonanz mit Licht aufweisen oder Licht mit einer vordefinierten spezifischen Eigenschaft transmittieren).
    • In Beispiel 4j kann der Gegenstand eines der Beispiele 1j bis 3j optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich mindestens einen Sensor enthält. Die mehreren Nanostrukturen oder Nanowellenleiter sind so konfiguriert, dass sie das von der ersten Lichtquelle emittierte Licht in die Richtung des mindestens einen Sensors ablenken.
    • In Beispiel 5j kann der Gegenstand von Beispiel 4j optional beinhalten, dass der mindestens eine Sensor einen ersten Sensor und einen zweiten Sensor umfasst. Die Vielzahl von Nanostrukturen oder Nanowellenleitern sind so konfiguriert, dass sie das von der ersten Lichtquelle emittierte Licht in Richtung des ersten Sensors ablenken. Die mehreren Nanostrukturen oder Nanowellenleiter sind so konfiguriert, dass sie das von der zweiten Lichtquelle emittierte Licht in die Richtung des zweiten Sensors ablenken.
    • In Beispiel 6j kann der Gegenstand eines der Beispiele 1j bis 5j optional beinhalten, dass das LIDAR-Sensorsystem außerdem einen Lichtquellen-Controller enthält, der so konfiguriert ist, dass er die erste Lichtquelle und die zweite Lichtquelle so steuert, dass sie Licht in unterschiedlichen Zeiträumen emittieren.
    • In Beispiel 7j kann der Gegenstand eines der Beispiele 1j bis 5j optional beinhalten, dass das LIDAR-Sensorsystem außerdem einen Lichtquellen-Controller enthält, der so konfiguriert ist, dass er die erste Lichtquelle und die zweite Lichtquelle so steuert, dass sie während zumindest teilweise überlappender Zeiträume Licht emittieren.
    • In Beispiel 8j kann der Gegenstand eines der Beispiele 1j bis 7j optional beinhalten, dass das LIDAR-Sensorsystem ferner eine Sammeloptik enthält, die vor der Optikanordnung angeordnet und so konfiguriert ist, dass sie das empfangene Licht in die Richtung der Optikanordnung ablenkt.
    • In Beispiel 9j kann der Gegenstand eines der Beispiele 1j bis 8j optional beinhalten, dass die erste Lichtquelle mindestens eine erste Laserquelle umfasst und/oder dass die zweite Lichtquelle mindestens eine zweite Laserquelle umfasst.
    • In Beispiel 10j kann der Gegenstand eines der Beispiele 1j bis 9j optional beinhalten, dass die erste Lichtquelle und die zweite Lichtquelle so konfiguriert sind, dass sie Licht unterschiedlicher Wellenlängen und/oder unterschiedlicher Polarisationen emittieren.
    • In Beispiel 11j kann der Gegenstand eines der Beispiele 1j bis 10j optional beinhalten, dass die erste Lichtquelle mit einer ersten optischen Achse und die zweite Lichtquelle mit einer zweiten optischen Achse so gegeneinander geneigt sind, dass die erste optische Achse und die zweite optische Achse nicht parallel zueinander verlaufen.
    • In Beispiel 12j kann der Gegenstand eines der Beispiele 1j bis 10j optional beinhalten, dass die erste Lichtquelle und die zweite Lichtquelle so konfiguriert sind, dass sie Licht in Richtungen emittieren, die im Wesentlichen parallel zueinander verlaufen. Das LIDAR-Sensorsystem enthält eine Strahllenkungskomponente, die so konfiguriert ist, dass sie Licht von der ersten Lichtquelle in eine erste Richtung ablenkt und Licht von der zweiten Lichtquelle in eine zweite, von der ersten Richtung verschiedene Richtung ablenkt.
    • In Beispiel 13j kann der Gegenstand eines der Beispiele 1j bis 12j optional beinhalten, dass eine weitere optische Anordnung im Übertragungspfad des LIDAR-Sensorsystems angeordnet ist, wobei die optische Anordnung einen Träger und mindestens einen Nanostrukturbereich mit einer Vielzahl von Nanostrukturen oder Nanowellenleitern, die auf mindestens einer Seite des Trägers vorgesehen sind, umfasst, wobei die Größe der Nanostrukturen oder Nano-Wellenleiter kleiner als die Wellenlänge des von der ersten Lichtquelle emittierten Lichts und kleiner als die Wellenlänge des von der zweiten Lichtquelle emittierten Lichts ist, und wobei die Nanostrukturen oder Nano-Wellenleiter so konfiguriert sind, dass sie die Eigenschaften des von den Lichtquellen emittierten Lichts verändern.
    • In Beispiel 14j kann der Gegenstand eines der Beispiele 4j bis 13j optional beinhalten, dass der mindestens eine Sensor eine Vielzahl von Fotodioden enthält.
    • In Beispiel 15j kann der Gegenstand von Beispiel 14j optional beinhalten, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 16j kann der Gegenstand von Beispiel 15j optional beinhalten, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind. In verschiedenen Ausführungsformen kann die Mehrzahl der Fotodioden einen Silizium-Fotomultiplikator (SiPM) aufweisen. Als weitere Alternative kann der Sensor Multi-Pixel-Photonen-Zähler (MPPC), ein oder mehrere ladungsgekoppelte Bauelemente (CCD) aufweisen. Darüber hinaus können die Fotodioden in CMOS-Technologie (Complementary Metal Oxide Semiconductor) ausgeführt werden.
    • In Beispiel 17j kann der Gegenstand eines der Beispiele 14j bis 16j optional beinhalten, dass das LIDAR-Sensorsystem außerdem einen Verstärker enthält, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 18j kann der Gegenstand von Beispiel 17j optional beinhalten, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 19j kann der Gegenstand eines der Beispiele 17j oder 18j optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler enthält, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln. Darüber hinaus kann das LIDAR-Sensorsystem ferner einen Zeit-Digital-Wandler aufweisen, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes analoges Impulsflankensignal in einen digitalen Zeitgeberwert umzuwandeln.
    • In Beispiel 20j kann der Gegenstand eines der Beispiele 17j bis 19j optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Zeit-Digital-Wandler enthält, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes analoges Impulsflankensignal in einen digitalen Zeitwert umzuwandeln.
    • In Beispiel 21j kann der Gegenstand eines der Beispiele 1j bis 20j optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich eine Abtastspiegelanordnung enthält, die so konfiguriert ist, dass sie eine Szene abtastet.
    • Beispiel 22j ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann mindestens eine Lichtquelle und eine optische Anordnung im Empfangspfad des LIDAR-Sensorsystems umfassen. Die optische Anordnung umfasst einen Träger und mindestens einen ersten Nanostrukturbereich und einen zweiten Nanostrukturbereich, die auf mindestens einer Seite des Trägers vorgesehen sind, wobei jeder Nanostrukturbereich eine Vielzahl von Nanostrukturen oder Nanowellenleitern umfasst und die Größe der Nanostrukturen oder Nanowellenleiter kleiner als die Wellenlänge des von der Lichtquelle emittierten Lichts ist. Die Nanostrukturen oder Nano-Wellenleiter sind so konfiguriert, dass sie eine Resonanz mit dem von der Lichtquelle emittierten Licht aufweisen.
    • In Beispiel 23j kann der Gegenstand von Beispiel 22j optional beinhalten, dass der erste Nanostrukturbereich eine erste Meta-Oberfläche bildet. Der zweite Nanostrukturbereich bildet eine zweite Meta-Oberfläche.
    • In Beispiel 24j kann der Gegenstand eines der Beispiele 22j oder 23j optional beinhalten, dass der erste Nanostrukturbereich und der zweite Nanostrukturbereich auf der gleichen Seite des Trägers vorgesehen sind.
    • In Beispiel 25j kann der Gegenstand eines der Beispiele 22j bis 24j optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich mindestens einen Sensor enthält. Der erste Nanostrukturbereich ist so konfiguriert, dass das über einen ersten Empfangswinkel empfangene Licht in die Richtung des mindestens einen Sensors abgelenkt wird. Der zweite Nanostrukturbereich ist so konfiguriert, dass er das über einen zweiten Empfangswinkel, der sich vom ersten Empfangswinkel unterscheidet, empfangene Licht in die Richtung des mindestens einen Sensors ablenkt.
    • In Beispiel 26j kann der Gegenstand eines der Beispiele 22j oder 23j optional beinhalten, dass der erste Nanostrukturbereich und der zweite Nanostrukturbereich auf verschiedenen Seiten des Trägers vorgesehen sind. In diesem Zusammenhang ist zu beachten, dass die gesamte Struktur, die unter anderem durch den ersten Nanostrukturbereich und den zweiten Nanostrukturbereich gebildet wird, einen ersten Brennpunkt für die erste Lichtquelle bildet. Gleichzeitig bildet die gesamte Struktur, die unter anderem durch den ersten Nanostrukturbereich und den zweiten Nanostrukturbereich gebildet wird, einen zweiten Brennpunkt, der sich vom ersten Brennpunkt unterscheiden kann, für die erste Lichtquelle.
    • In Beispiel 27j kann der Gegenstand von Beispiel 26j optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich mindestens einen Sensor enthält. Der erste Nanostrukturbereich ist so konfiguriert, dass er Licht einer ersten Wellenlänge und/oder einer ersten Polarisation in die Richtung des mindestens einen Sensors ablenkt und Licht einer zweiten Wellenlänge, die sich von der ersten Wellenlänge unterscheidet, und/oder einer zweiten Polarisation, die sich von der ersten Polarisation unterscheidet, in eine andere Richtung weg von dem mindestens einen Sensor ablenkt. Der zweite Nanostrukturbereich ist so konfiguriert, dass Licht der zweiten Wellenlänge und/oder der zweiten Polarisation in die Richtung des mindestens einen Sensors abgelenkt wird.
    • In Beispiel 28j kann der Gegenstand von Beispiel 27j optional beinhalten, dass der erste Nanostrukturbereich so konfiguriert ist, dass er Licht einer ersten Wellenlänge und/oder einer ersten Polarisation in Richtung einer optischen Achse ablenkt, die senkrecht zu einer Oberfläche des mindestens einen Sensors steht, und dass er Licht einer zweiten Wellenlänge, die sich von der ersten Wellenlänge unterscheidet, und/oder einer zweiten Polarisation, die sich von der ersten Polarisation unterscheidet, von der optischen Achse, die senkrecht zur Oberfläche des mindestens einen Sensors steht, weg ablenkt.
    • In Beispiel 29j kann der Gegenstand von Beispiel 28j optional beinhalten, dass der erste Nanostrukturbereich so konfiguriert ist, dass Licht der ersten Wellenlänge und/oder der ersten Polarisation zu einem vordefinierten ersten Brennpunkt abgelenkt wird. Der zweite Nanostrukturbereich ist so konfiguriert, dass Licht der zweiten Wellenlänge und/oder der zweiten Polarisation zu einem vordefinierten zweiten Brennpunkt abgelenkt wird.
    • In Beispiel 30j kann der Gegenstand eines der Beispiele 22j oder 29j optional beinhalten, dass die mindestens eine Lichtquelle eine erste Lichtquelle umfasst, die so konfiguriert ist, dass sie Licht der ersten Wellenlänge und/oder der ersten Polarisation emittiert, und eine zweite Lichtquelle, die so konfiguriert ist, dass sie Licht der zweiten Wellenlänge und/oder der zweiten Polarisation emittiert.
    • In Beispiel 31j kann der Gegenstand von Beispiel 30j optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Lichtquellen-Controller enthält, der so konfiguriert ist, dass er die erste Lichtquelle und die zweite Lichtquelle so steuert, dass sie Licht zu unterschiedlichen Zeitpunkten emittieren.
    • In Beispiel 32j kann der Gegenstand eines der Beispiele 30j oder 31j optional beinhalten, dass die erste Lichtquelle mindestens eine erste Laserquelle umfasst und/oder wobei die zweite Lichtquelle mindestens eine zweite Laserquelle umfasst.
    • In Beispiel 33j kann der Gegenstand eines jeden der Beispiele 30j bis 32j optional beinhalten, dass die erste Lichtquelle und die zweite Lichtquelle gegeneinander geneigt sind, so dass sie so konfiguriert sind, dass sie Licht in verschiedenen Winkeln ausstrahlen.
    • In Beispiel 34j kann der Gegenstand eines der Beispiele 30j bis 32j optional beinhalten, dass die erste Lichtquelle und die zweite Lichtquelle so konfiguriert sind, dass sie Licht in zueinander parallelen Richtungen emittieren. Das LIDAR-Sensorsystem enthält eine Strahllenkungskomponente, die so konfiguriert ist, dass sie Licht von der ersten Lichtquelle in eine erste Richtung und Licht von der zweiten Lichtquelle in eine zweite, von der ersten Richtung verschiedene Richtung ablenkt.
    • In Beispiel 35j kann der Gegenstand eines der Beispiele 27j bis 34j optional beinhalten, dass der mindestens eine Sensor eine Vielzahl von Fotodioden enthält.
    • In Beispiel 36j kann der Gegenstand von Beispiel 35j optional beinhalten, dass zumindest einige Fotodioden aus der Vielzahl der Fotodioden Lawinenfotodioden sind.
    • In Beispiel 37j kann der Gegenstand von Beispiel 36j optional beinhalten, dass zumindest einige Lawinenfotodioden der Vielzahl von Fotodioden Einzelphotonen-Lawinenfotodioden sind.
    • In Beispiel 38j kann der Gegenstand eines der Beispiele 35j bis 37j optional beinhalten, dass das LIDAR-Sensorsystem außerdem einen Verstärker enthält, der so konfiguriert ist, dass er ein von der Vielzahl der Fotodioden geliefertes Signal verstärkt.
    • In Beispiel 39j kann der Gegenstand von Beispiel 38j optional beinhalten, dass der Verstärker ein Transimpedanzverstärker ist.
    • In Beispiel 40j kann der Gegenstand eines der Beispiele 38j oder 39j optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Analog-Digital-Wandler enthält, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes Analogsignal in ein digitalisiertes Signal umzuwandeln. Darüber hinaus kann das LIDAR-Sensorsystem ferner einen Zeit-Digital-Wandler aufweisen, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes analoges Impulsflankensignal in einen digitalen Zeitgeberwert umzuwandeln.
    • In Beispiel 41j kann der Gegenstand eines der Beispiele 38j bis 40j optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Zeit-Digital-Wandler enthält, der dem Verstärker nachgeschaltet ist, um ein vom Verstärker geliefertes analoges Impulsflankensignal in einen digitalen Zeitwert umzuwandeln.
    • In Beispiel 42j kann der Gegenstand eines der Beispiele 22j bis 41j optional beinhalten, dass das LIDAR-Sensorsystem außerdem eine Abtastspiegelanordnung enthält, die so konfiguriert ist, dass sie eine Szene abtastet.
    • Beispiel 43j ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Lichtquelle und eine Optik aufweisen, die sich im Empfangspfad des LIDAR-Sensorsystems befinden. Die optische Anordnung umfasst einen Träger und mindestens einen Nanostrukturbereich, der auf mindestens einer Seite des Trägers vorgesehen ist, wobei jeder Nanostrukturbereich eine Vielzahl von Nanostrukturen oder Nanowellenleitern umfasst, wobei die Größe der Nanostrukturen oder Nanowellenleiter kleiner als die Wellenlänge des von der Lichtquelle emittierten Lichts ist. Die Nanostrukturen oder Nano-Wellenleiter sind so konfiguriert, dass sie eine Resonanz mit dem von der Lichtquelle emittierten Licht aufweisen.
    • Beispiel 44j ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems eines der Beispiele 1j bis 21j. Das Verfahren kann die Steuerung der ersten Lichtquelle und der zweiten Lichtquelle umfassen, um Licht zu unterschiedlichen Zeitperioden auszusenden.
    • Beispiel 45j ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems eines der Beispiele 1j bis 21j. Das Verfahren kann die Steuerung der ersten Lichtquelle und der zweiten Lichtquelle umfassen, so dass diese Licht in zumindest teilweise überlappenden Zeitabschnitten emittieren.
    • Beispiel 46j ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems eines der Beispiele 31j bis 42j. Das Verfahren kann die Steuerung der ersten Lichtquelle und der zweiten Lichtquelle umfassen, um Licht zu unterschiedlichen Zeitperioden auszusenden.
    • Beispiel 47j ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen aufweisen kann, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1j bis 21j ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 44j oder 45j auszuführen.
    • Beispiel 48j ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen aufweisen kann, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 31j bis 42j ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß Beispiel 46j auszuführen.
    • Beispiel 49j ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem nach einem der oben genannten Verfahrensbeispiele ausführt.
  • In einem konventionellen (z.B. scannenden) LIDAR-System kann ein Scan-Spiegel (z.B. ein 1D-MEMS-Spiegel) mit einem Sensor-Array (z.B. einem 1D-Sensor-Array, wie z.B. einem Säulensensor) kombiniert werden. Es kann wünschenswert sein, dass ein Sensor des LIDAR-Systems (z.B. der Sensor 52) ein großes Sichtfeld (z.B. 60° oder mehr als 60° in Scanrichtung, z.B. in horizontaler Richtung), eine hohe Auflösung (z.B. 0,1° oder 0,05° in horizontaler Richtung und/oder in vertikaler Richtung) und eine große Reichweite (z.B. mindestens 100 m oder mindestens 200 m) hat. Wenn ein Sensor ein grosses Sichtfeld und eine hohe Auflösung in horizontaler Richtung hat, können die einzelnen Sensorpixel eine proportional grosse Ausdehnung in horizontaler Richtung haben (z.B. grösser als in vertikaler Richtung, z.B. 5 mal grösser oder 10 mal grösser). Zum Beispiel kann ein Pixel eine Abmessung in vertikaler Richtung (z.B. eine Höhe) von etwa 0,2 mm und eine Abmessung in horizontaler Richtung (z.B. eine Breite) von etwa 2,5 mm haben.
  • Während des Abtastvorgangs kann sich der Laserpunkt (oder die Laserlinie), der von einem Objekt reflektiert und vom Sensor erfasst (d. h. empfangen) wird, über das (die) Sensorpixel in derselben Richtung bewegen, in der der Laserpunkt abgetastet wird (z. B. in horizontaler Richtung). Dementsprechend kann für jede ortsaufgelöste Laufzeit-Messung nur eine kleine Sensorfläche (mit anderen Worten: eine kleine Sensorfläche) eines einzelnen Sensorpixels effektiv genutzt werden, was zu einem unzureichenden (z.B. niedrigen) Signal-Rausch-Verhältnis (SNR) führt. Zur Veranschaulichung: Für einen festen (z.B. horizontalen) Raumwinkelbereich kann nur ein kleiner Teil der Sensorfläche genutzt werden (z.B. beleuchtet durch das reflektierte LIDAR-Licht), während die restliche Sensorfläche Umgebungslicht oder Streulicht (z.B. Licht von systemexternen Lichtquellen, wie z.B. Sonnenlicht oder LIDAR-Licht von anderen Fahrzeugen) sammeln kann. Außerdem kann ein großer und damit teurer Sensor erforderlich sein. Beispielsweise kann ein großer Sensor für die Abbildung eines großen Sichtfeldes erforderlich sein (z.B. kann aus verschiedenen Richtungen kommendes Licht an verschiedenen Positionen auf den Sensor auftreffen), aber für jeden Winkel kann der Sensor schlecht (z.B. nur teilweise) beleuchtet sein. Außerdem kann ab einer bestimmten Pixelgröße des Sensors die Kapazität zu hoch werden, was zur Folge haben kann, dass sich die Geschwindigkeit der Messung verringert und das Übersprechen zwischen benachbarten Sensorpixeln schlechter wird.
  • Eine mögliche Lösung zur Verbesserung der oben genannten Situation könnte die Bereitstellung eines rotierenden LIDAR-Systems sein. Bei einem rotierenden LIDAR-System können der/die Lichtsender (z.B. der Lasersender) und der/die Lichtempfänger (z.B. der Sensor) auf einer gemeinsamen Plattform (z.B. einem gemeinsamen beweglichen Träger) angeordnet werden, die sich typischerweise um 360° drehen kann. In einem solchen System sieht der Lichtempfänger (mit anderen Worten: Flächen) zu jedem Zeitpunkt in die gleiche Richtung, in die der Lichtsender Licht (z.B. LIDAR-Licht) ausgesandt hat. Daher erfasst der Sensor zu einem Zeitpunkt immer nur einen kleinen horizontalen Raumwinkelbereich. Dies kann das oben beschriebene Problem reduzieren oder verhindern. Gleiches kann für ein System gelten, bei dem das detektierte Licht mit Hilfe eines beweglichen Spiegels (z.B. ein zusätzlicher MEMS-Spiegel im Empfängerpfad) oder einer anderen ähnlichen (z.B. beweglichen) Komponente erfasst wird. Ein rotierendes LIDAR-System und/oder ein System mit einem zusätzlichen beweglichen Spiegel erfordert jedoch bewegliche Komponenten (z.B. bewegliche Teile). Dies kann die Komplexität, die Anfälligkeit für mechanische Instabilitäten und die Kosten des Systems erhöhen.
  • Eine andere mögliche Lösung kann die Bereitstellung einer Anordnung der Empfängeroptik für ein LIDAR-System sein, wie z.B. in Bezug auf 98 bis 102B beschrieben.
  • Verschiedene Ausführungsformen können darauf beruhen, das Umgebungslicht oder Streulicht (z.B. Rauschlicht) vom Nutzlicht zu trennen. Das Nutzlicht kann als das Lichtsignal (z.B. LIDAR-Licht) verstanden werden, das vom System ausgesendet und zum System zurückreflektiert wird (z.B. von einem Objekt im Sichtfeld des Systems). Es können eine oder mehrere Komponenten vorgesehen sein, die so konfiguriert sind, dass sie das Lichtsignal erkennen und das Umgebungslicht oder Streulicht ausblenden. Zur Veranschaulichung kann eine oder mehrere Komponenten vorgesehen und so konfiguriert sein, dass ein (z.B. Detektions-)Signal erzeugt wird (z.B. kann eine Laufzeit bestimmt werden), falls das (z.B. reflektierte oder gestreute) Lichtsignal auf einen Sensor des LIDAR-Systems auftrifft, und kein Signal erzeugt wird, falls Umgebungslicht oder Streulicht auf den Sensor auftrifft.
  • In verschiedenen Ausführungsformen kann der Sensor ein oder mehrere Sensorpixel aufweisen (z.B. eine Vielzahl von Sensorpixeln). Ein erstes Sensorpixel (z.B. eine dem ersten Sensorpixel zugeordnete erste Fotodiode) kann in einem Abstand von einem zweiten Sensorpixel (z.B. eine dem zweiten Sensorpixel zugeordnete zweite Fotodiode) angeordnet sein. Das von einem Objekt reflektierte (oder gestreute) Lichtsignal kann eine erste Strecke zurücklegen, um auf das erste Sensorpixel aufzutreffen, und eine zweite Strecke, um auf das zweite Sensorpixel aufzutreffen. Zur Veranschaulichung: Das erste Sensorpixel und das zweite Sensorpixel können jeweils einen Teil des von einem Objekt reflektierten (oder gestreuten) Lichts empfangen. Folglich kann es eine erste Zeit dauern, bis das Lichtsignal vom Objekt zum ersten Sensorpixel gelangt, und eine zweite Zeit, bis es vom Objekt zum zweiten Sensorpixel gelangt. Für jeden Emissionswinkel ungleich 0° kann die erste Entfernung von der zweiten Entfernung abweichen (z.B. größer oder kleiner, je nach Emissionswinkel). Daher kann sich auch der erste Zeitpunkt vom zweiten Zeitpunkt unterscheiden (z.B. länger oder kürzer, je nach Abstrahlwinkel). Es kann eine Zeitdifferenz zwischen dem Empfang des Lichtsignals am ersten Sensorpixel und dem Empfang des Lichtsignals am zweiten Sensorpixel vorliegen (z.B. kann es eine Zeitdifferenz zwischen einem ersten Signal, das vom ersten Sensorpixel erzeugt wird, und einem zweiten Signal, das vom zweiten Sensorpixel erzeugt wird, geben). Das erste Sensorpixel kann in einem Abstand vom zweiten Sensorpixel in einer ersten Richtung (z.B. der horizontalen Richtung) angeordnet sein.
  • Der Sensor kann einen oder mehrere Sensoren umfassen, z.B. einen oder mehrere Subsensoren. Ein Sub-Sensor kann einen oder mehrere Sensorpixel umfassen. Ein Sub-Sensor kann ein eindimensionales Sensorarray sein (z.B. kann ein Sub-Sensor ein oder mehrere Sensorpixel aufweisen, die entlang einer einzigen Zeile angeordnet sind, wie z.B. eine Spalte von Sensorpixeln). Alternativ kann ein Sub-Sensor ein zweidimensionales Sensorarray sein (z.B. kann ein Sub-Sensor eine Vielzahl von Sensorpixeln aufweisen, die in einer Matrixkonfiguration angeordnet sind, z.B. in einer oder mehreren Zeilen und einer oder mehreren Spalten). Ein erster Sub-Sensor kann das erste Sensorpixel und ein zweiter Sub-Sensor kann das zweite Sensorpixel aufweisen. Zur Veranschaulichung: Das erste Sensorpixel und das zweite Sensorpixel können in der gleichen Position innerhalb des jeweiligen Subsensors angeordnet sein (z.B. in der gleichen Position innerhalb des jeweiligen eindimensionalen Arrays oder zweidimensionalen Arrays). Ein Abstand zwischen dem ersten Sensorpixel und dem zweiten Sensorpixel kann als Abstand zwischen dem ersten Sub-Sensor und dem zweiten Sub-Sensor verstanden werden.
  • Der erste Subsensor kann in einem Abstand vom zweiten Subsensor in der ersten Richtung angeordnet werden. Der erste Subsensor kann eine Vielzahl von Pixeln des ersten Sensors aufweisen. Der zweite Subsensor kann eine Vielzahl von zweiten Sensorpixeln aufweisen. Die Mehrzahl der ersten Sensorpixel kann entlang einer zweiten Richtung angeordnet sein, die sich von der ersten Richtung unterscheidet (z.B. entlang der vertikalen Richtung). Die Mehrzahl von zweiten Sensorpixeln kann entlang der zweiten Richtung angeordnet sein. Jedes Sensorpixel der ersten Vielzahl von Sensorpixeln kann in einem Abstand von einem entsprechenden zweiten Sensorpixel der Vielzahl von zweiten Sensorpixeln angeordnet sein. Der Abstand kann für jedes Paar von Sensorpixeln der gleiche sein. Alternativ kann der Abstand für verschiedene Paare von Sensorpixeln unterschiedlich sein.
  • Alternativ können das erste Sensorpixel und das zweite Sensorpixel in einem gleichen (z.B. 1D- oder 2D-) Sensorarray angeordnet werden (z.B. in einem gleichen Untersensor). Das erste Sensorpixel und das zweite Sensorpixel können in einem Abstand innerhalb des Sensorarrays angeordnet werden. Zum Beispiel können das erste Sensorpixel und das zweite Sensorpixel in verschiedenen Spalten (oder Zeilen) des Sensorarrays angeordnet sein.
  • In verschiedenen Ausführungsformen kann der Emissionswinkel bekannt (oder bestimmt) sein. Der Emissionswinkel kann z.B. beschrieben werden als der Winkel zwischen der Richtung, in die Licht emittiert wird (z.B. die Richtung, in die ein oder mehrere einzelne Lichtpulse emittiert werden, wie z.B. ein oder mehrere einzelne Laserpulse) und der optischen Achse des LIDAR-Systems (z.B. des scannenden LIDAR-Systems). Der Abstrahlwinkel kann in Bezug auf eine vorgegebene Richtung (z.B. die horizontale Richtung oder die vertikale Richtung) bestimmt werden.
  • Eine Schaltung (z.B. eine Pixelsignal-Auswahlschaltung) kann vorgesehen werden. Die Schaltung kann so konfiguriert werden, dass sie die Zeitdifferenz zwischen einem ersten Signal, das durch das erste Sensorpixel erzeugt wird, und einem zweiten Signal, das durch das zweite Sensorpixel erzeugt wird, bestimmt. Die Schaltung kann so konfiguriert werden, dass die Signale als „authentisch“ oder „relevant“ klassifiziert werden (z.B. als LIDAR-Signale, z.B. als rauschfreie Signale). Die Klassifizierung kann darauf basieren, dass überprüft wird, ob die Zeitdifferenz ein vordefiniertes Kriterium erfüllt (z.B. ein vordefiniertes Koinzidenzkriterium). Das vordefinierte Kriterium kann vom aktuellen Abstrahlwinkel abhängig sein. Die Schaltung kann so konfiguriert werden, dass die Signale als „authentisch“ klassifiziert werden, wenn die Zeitdifferenz mit dem aktuellen Abstrahlwinkel übereinstimmt (z.B. wenn die Zeitdifferenz in einem vordefinierten Verhältnis zum aktuellen Abstrahlwinkel steht). Zur Veranschaulichung: Die Schaltung kann so konfiguriert werden, dass sie auf der Grundlage der Zeitdifferenz zwischen dem ersten und dem zweiten Signal bestimmt, ob das erste und das zweite Signal durch LIDAR-Licht erzeugt wurden, das auf das erste und das zweite Sensorpixel auftrifft. Für den Fall, dass die Zeitdifferenz das vordefinierte Kriterium erfüllt, kann die Schaltung so konfiguriert werden, dass sie feststellt, dass das erste Signal und das zweite Signal aufgrund von LIDAR-Licht erzeugt wurden, z.B. aufgrund des Lichtsignals (z.B. aufgrund von LIDAR-Licht, das vom System emittiert und zum System zurück reflektiert wird). Erfüllt die Zeitdifferenz beispielsweise das vordefinierte Kriterium, kann die Schaltung so konfiguriert werden, dass sie feststellt, dass das erste Signal und das zweite Signal durch LIDAR-Licht erzeugt wurden, das von einem fahrzeugeigenen ersten LIDAR-Sensorsystem ausgesendet wurde. Zur Veranschaulichung: Die Schaltung kann so konfiguriert werden, dass sie auf der Grundlage der Erfüllung des Koinzidenzkriteriums zwischen systemeigenem LIDAR-Licht und externem LIDAR-Licht (z.B. LIDAR-Licht, das von einem anderen System, z.B. von einem anderen Fahrzeug, abgestrahlt wird) unterscheidet. Für den Fall, dass die Zeitdifferenz das vordefinierte Kriterium nicht erfüllt, kann die Schaltung so konfiguriert werden, dass bestimmt wird, dass das erste Signal und/oder das zweite Signal Rauschsignal(e) ist/sind.
  • Die Zeitdifferenz kann unabhängig oder im Wesentlichen unabhängig von der Entfernung zwischen dem Objekt und dem LIDAR-System sein. Dies kann der Fall sein, wenn der Abstand signifikant groß ist (z.B. größer als 50 cm, größer als 1 m, größer als 5 m oder größer als 20 m). Dies kann z.B. der Fall sein, wenn dieser Abstand größer ist als der Abstand zwischen dem ersten Sensorpixel und dem zweiten Sensorpixel (z.B. mehr als 5 mal größer, z.B. mehr als 10 mal größer, z.B. mehr als 100 mal größer). Dies kann z.B. der Fall sein, wenn das LIDAR-System an einem Fahrzeug montiert ist (z.B. kann der Abstand zwischen einem Objekt und dem Fahrzeug größer sein als der Abstand zwischen dem ersten Sensorpixel und dem zweiten Sensorpixel).
  • Der Abstand zwischen dem Objekt und dem ersten Sensorpixel kann mit dem Symbol d bezeichnet werden. Der Abstand zwischen dem Objekt und dem zweiten Sensorpixel kann durch den Abstand d zwischen dem Objekt und dem ersten Sensorpixel plus einem zusätzlichen Abstand x bestimmt werden. Der Abstand (z.B. der horizontale Abstand) zwischen dem ersten Sensorpixel und dem zweiten Sensorpixel kann mit dem Symbol b bezeichnet werden (z.B. unter der Annahme, dass das erste Sensorpixel und das zweite Sensorpixel in einer ersten Richtung, z.B. in horizontaler Richtung, ausgerichtet sind). Der Emissionswinkel (z.B. der Winkel zwischen der Emissionsrichtung und der optischen Achse des LIDAR-Systems) kann mit dem Symbol α bezeichnet werden.
  • Die folgende Gleichung (1r) kann bestimmt werden, ( d + x ) 2 = d 2 + b 2 2 bd cos ( 90 ° + α ) = d 2 + b 2 + 2 bd sin ( α )
    Figure DE112020001131T5_0012
  • Dann kann festgestellt werden, dass, x = d 2 + b 2 + 2 bd sin ( α ) d = d 1 + b 2 d 2 + 2 b d sin α d .
    Figure DE112020001131T5_0013
  • Für den Fall, dass d»b mag es wahr sein, dass 1 + y 1 + y 2 .
    Figure DE112020001131T5_0014
    Wenn man also annimmt, dass b 2 d 2 ~ 0,
    Figure DE112020001131T5_0015
    kann festgestellt werden, dass, x d ( 1 + b d sin ( α ) ) d = b sin α
    Figure DE112020001131T5_0016
  • Die zusätzliche Zeit, die das Licht benötigen kann, um die zusätzliche Strecke x zurückzulegen (z.B. die Zeitdifferenz), kann mit dem Symbol tx bezeichnet werden. Aus den obigen Gleichungen kann bestimmt werden, dass t x ( α ) = b sin α c .
    Figure DE112020001131T5_0017
  • Das Symbol c in Gleichung (4r) kann die Lichtgeschwindigkeit darstellen (z.B. 299792458 m/s). Die Zeitdifferenz, tx, kann also vom Emissionswinkel abhängig sein, α. Die Zeitdifferenz, tx, kann unabhängig von der Entfernung sein, d. Die Zeitdifferenz, tx, kann im Bereich von etwa 10 ps bis etwa 5000 ps liegen, z.B. von etwa 20 ps bis etwa 1000 ps, z.B. von etwa 50 ps bis etwa 200 ps. Illustrativ kann die Zeitdifferenz, tx, eine erwartete (z.B. Referenz) Zeitdifferenz sein (z.B. bekannt oder bestimmt auf der Grundlage des Emissionswinkels, α, und des Abstands zwischen Sensorpixeln, b).
  • Die Zeitdifferenz tx kann proportional (z.B. linear proportional) zum Abstand b zwischen Sensorpixeln sein (z.B. zwischen dem ersten Sensorpixel und dem zweiten Sensorpixel). Die Zeitdifferenz, tx, kann mit zunehmendem Abstand, b, zunehmen. Vom Standpunkt der Messung der Zeitdifferenz, tx, kann es wünschenswert sein, den Abstand, b, so gross wie möglich zu haben. Zum Beispiel kann in einem Fahrzeug das erste Sensorpixel in einem ersten Scheinwerfer oder Scheinwerfer (z.B. dem linken Scheinwerfer) und das zweite Sensorpixel in einem zweiten Scheinwerfer (z.B. dem rechten Scheinwerfer) angeordnet sein.
  • Wenn z.B. der Abstand b zwischen dem ersten Sensorpixel und dem zweiten Sensorpixel 10 cm und der Abstrahlwinkel α 10° beträgt, kann die Zeitdifferenz tx etwa 58 ps betragen. Ein weiteres Beispiel: Wenn der Abstand b 1 m und der Abstrahlwinkel, α, 10° beträgt, kann die Zeitdifferenz tx etwa 580 ps betragen. Ein weiteres Beispiel: Wenn der Abstand b 10 cm und der Abstrahlwinkel, α, 20° beträgt, kann die Zeitdifferenz tx etwa 114 ps betragen. Ein weiteres Beispiel: Wenn der Abstand b 1 m und der Abstrahlwinkel α 20° beträgt, kann die Zeitdifferenz tx etwa 1140 ps betragen. Ein weiteres Beispiel: Wenn der Abstand b 10 cm und der Abstrahlwinkel α 30° beträgt, kann die Zeitdifferenz tx etwa 167 ps betragen. Ein weiteres Beispiel: Wenn der Abstand b 1 m und der Abstrahlwinkel α 30° beträgt, kann die Zeitdifferenz tx etwa 1670 ps betragen. Die gleichen Werte können auch erreicht werden, wenn der Winkel α negativ ist (z.B. wenn die Emissionsrichtung entlang der horizontalen Richtung in Bezug auf die optische Achse gespiegelt ist). Im Falle, dass der Winkel α negativ ist, kann das reflektierte Licht zuerst auf das zweite Sensorpixel und dann auf das erste Sensorpixel auftreffen (z.B. kann der Abstand zwischen dem Objekt und dem zweiten Sensorpixel kleiner sein als der Abstand zwischen dem Objekt und dem ersten Sensorpixel).
  • In verschiedenen Ausführungsformen kann die Schaltung eine Komparatorstufe aufweisen (z.B. eine analoge Komparatorstufe, z.B. ein oder mehrere analoge Komparatoren). Die Komparatorstufe kann mit den Sensorpixeln gekoppelt sein. Beispielsweise können ein oder mehrere analoge Komparatoren mit jeweils einem oder mehreren Sensorpixeln gekoppelt sein (z.B. stromabwärts gekoppelt). Die Komparatorstufe kann so konfiguriert werden, dass sie (z.B. als ein oder mehrere Eingangssignale) ein oder mehrere Signale empfängt, die von den Sensorpixeln ausgegeben werden (z.B. ein oder mehrere Sensorpixelsignale, z.B. Ausgabe von einem oder mehreren Subsensoren). Die Komparatorstufe kann so konfiguriert werden, dass sie ein oder mehrere Signale (z.B. ein oder mehrere Komparatorausgänge) auf der Grundlage einer Beziehung zwischen dem einen oder den mehreren Eingangssignalen und einem vordefinierten Wert (z.B. einem Schwellenwert) ausgibt. Die Komparatorstufe kann so konfiguriert werden, dass sie das eine oder die mehreren Eingangssignale mit einem entsprechenden Schwellenwert vergleicht. Beispielsweise kann die Komparatorstufe so konfiguriert werden, dass sie ein Signal ausgibt, wenn (oder sobald) ein Eingangssignal des einen oder der mehreren Eingangssignale den entsprechenden Schwellenwert überschreitet. Der Schwellenwert kann auf der Grundlage eines Rauschpegels ausgewählt werden. Der Schwellenwert kann z.B. auf der Grundlage eines bekannten (z.B. vordefinierten) Rauschpegels vordefiniert werden. Als weiteres Beispiel kann der Schwellenwert auf der Grundlage eines bestimmten (z.B. gemessenen) Lärmpegels definiert werden. Die Präzision der Schaltung kann durch Variation (z.B. durch Herabsetzen) des Schwellenwertes erhöht werden. Das Vorhandensein der Komparatorstufe kann den Effekt haben, dass eine Digitalisierung des (z.B. rohen) Ausgangssignals der Sensorpixel (z.B. von Lawinenfotodioden) vermieden werden kann. Eine solche Digitalisierung und die weitere digitale Signalverarbeitung kann aufwendig und kostspielig sein (z.B. in Bezug auf die Systemressourcen), aufgrund der notwendigen Bandbreite, die größer als 10 GHz sein kann, wenn die Zeitdifferenz kleiner als 100 ps ist.
  • Die Schaltung kann eine Konverterstufe (z.B. einen oder mehrere Zeit-Digital-Konverter) aufweisen. Die Konverterstufe kann (z.B. nachgeschaltet) mit der Komparatorstufe gekoppelt sein. Die Konverterstufe kann so konfiguriert werden, daß sie als einen ersten Eingang (z.B. als einen oder mehrere erste Eingänge) den einen oder die mehreren Komparatorausgänge der Komparatorstufe empfängt (z.B. als einen oder mehrere erste Eingänge). Als Beispiel kann die Wandlerstufe einen oder mehrere Zeit-Digital-Wandler aufweisen, die mit einem entsprechenden analogen Komparator des einen oder der mehreren analogen Komparatoren gekoppelt sind. Der eine oder die mehreren Zeit-Digital-Konverter können so konfiguriert werden, dass sie als ersten Eingang den Ausgang des jeweiligen Analogkomparators empfangen. Die Wandlerstufe kann so konfiguriert werden, daß sie als zweiten Eingang ein Signal empfängt, das darstellen oder anzeigen kann, daß das Lichtsignal erzeugt wurde (z.B. daß ein Lichtpuls, wie z.B. ein Laserpuls, ausgesandt wurde). Der zweite Eingang kann ein Triggersignal sein oder darstellen (z.B. ein Lasertriggersignal). Der eine oder die mehreren Zeit-Digital-Konverter können so konfiguriert werden, dass sie das Triggersignal als zweiten Eingang empfangen. Der zweite Eingang kann der Konverterstufe z.B. durch einen Controller und/oder einen Prozessor, der mit einer Lichtquelle des LIDAR-Systems gekoppelt ist, zur Verfügung gestellt werden. Die Wandlerstufe kann so konfiguriert werden, daß sie einen digitalen Ausgang bereitstellt (z.B. einen oder mehrere digitale Ausgänge, z.B. für jeden Zeit-Digital-Wandler). Der eine oder die mehreren Zeit-Digitalwandler können z.B. in eine Zeitschaltung des LIDAR-Systems eingebunden werden, wie z.B. im Zusammenhang mit 19A bis 19C beschrieben.
  • Der erste Eingang und der zweite Eingang können die Laufzeit der Konverterstufe bestimmen (z.B. die Laufzeit eines jeweiligen Zeit-Digital-Konverters). Der zweite Eingang kann z.B. ein Start (z.B. eine Aktivierung) der Konverterstufe (z.B. eines oder mehrerer Zeit-Digital-Konverter) sein oder definieren. Der erste Eingang kann ein Stopp (z.B. eine Deaktivierung) der Konverterstufe sein oder definieren (z.B. der eine oder mehrere erste Eingänge können einen Stopp des jeweiligen Zeit-Digital-Konverters definieren). Illustrativ kann ein Zeit-Digital-Wandler (oder jeder Zeit-Digital-Wandler) so konfiguriert werden, dass er mit der Messung eines Zeitintervalls beginnt, sobald er den zweiten Eingang empfängt, und so konfiguriert werden kann, dass er die Messung des Zeitintervalls beendet, sobald er den ersten Eingang vom jeweiligen Analogkomparator empfängt.
  • In verschiedenen Ausführungsformen kann die Schaltung einen oder mehrere Prozessoren aufweisen (z.B. einen oder mehrere Controller, wie einen oder mehrere Mikrocontroller). Der eine oder die mehreren Prozessoren können mit der Wandlerstufe gekoppelt (z.B. nachgeschaltet) sein. Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie ein oder mehrere Signale (z.B. ein oder mehrere digitale oder digitalisierte Signale) von der Konverterstufe (z.B. ein oder mehrere digitale Ausgänge der Konverterstufe) empfangen. Das eine oder die mehreren Signale von der Konverterstufe können die Laufzeit der Konverterstufe sein oder darstellen (z.B. die jeweiligen Laufzeiten des einen oder der mehreren Zeit-Digital-Konverter, z.B. die jeweiligen gemessenen Zeitintervalle). Die Laufzeit kann die Dauer der Zeitspanne sein oder darstellen, in der die Konverterstufe (z.B. der jeweilige Zeit-Digital-Wandler) aktiv war (z.B. die Zeitspanne zwischen dem Empfang des zweiten Eingangs und dem Empfang des ersten Eingangs). Als Beispiel kann ein Mikrocontroller so konfiguriert werden, dass er ein erstes Signal von einem ersten Zeit-Digital-Wandler empfängt, das die Laufzeit des ersten Zeit-Digital-Wandlers repräsentiert. Der Mikrocontroller kann so konfiguriert werden, dass er ein zweites Signal von einem zweiten Zeit-Digital-Konverter empfängt, das die Laufzeit des zweiten Zeit-Digital-Konverters darstellt. Illustrativ kann die Laufzeit mit der Laufzeit (TOF) eines Laserpulses von einer Laserquelle zu einem Objekt und, nach Reflexion am Objekt, vom Objekt zu einem Sensor (z.B. zu einem Subsensor) oder Sensorpixel korrelieren oder diese darstellen.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die Laufzeit (z.B. die individuellen Laufzeiten) aus den empfangenen ein oder mehreren Signalen bestimmen (z.B. berechnen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine oder mehrere Zeitdifferenzen zwischen den einzelnen Laufzeiten bestimmen (z.B. berechnen). Beispielsweise kann der Mikrocontroller so konfiguriert werden, dass er eine Zeitdifferenz zwischen der Laufzeit des ersten Zeitdigitalwandlers und der Laufzeit des zweiten Zeitdigitalwandlers ermittelt (z.B. eine Zeitdifferenz zwischen einer ersten Laufzeit und einer zweiten Laufzeit).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie auswerten, ob die ermittelte(n) eine oder mehrere Zeitdifferenz(en) mit dem (z.B. aktuellen) Emissionswinkel, α, übereinstimmt (z.B. dem Emissionswinkel zum Zeitpunkt der Übertragung des Triggersignals). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie auswerten, ob die ermittelte(n) eine oder mehrere Zeitdifferenz(en) einer vorgegebenen Beziehung mit dem Emissionswinkel entsprechen, α. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie auswerten, ob die ermittelte(n) eine oder mehrere Zeitdifferenz(en) im Wesentlichen der erwarteten Zeitdifferenz entspricht (entsprechen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie auswerten, ob die ermittelte Zeitdifferenz mit dem Emissionswinkel α in Bezug auf den Absolutwert und/oder das Vorzeichen übereinstimmt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie auswerten, ob die ermittelte Zeitdifferenz mit dem ersten Signal des ersten Sensorpixels und dem zweiten Signal des zweiten Sensorpixels kompatibel ist, die beide durch das LIDAR-Licht erzeugt werden (z.B. durch das Lichtsignal, z.B. das emittierte LIDAR-Licht, das zum LIDAR-System zurückreflektiert wird).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen Abstand (z.B. einen Abstandswert, z.B. einen gültigen Abstandswert) zwischen einem Objekt (z.B. dem Objekt, das das LIDAR-Licht reflektiert hat) und mindestens einem der Sensorpixel (z.B. dem ersten Sensorpixel und/oder dem zweiten Sensorpixel) bestimmen (z.B. berechnen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen solchen Abstand bestimmen, falls der eine oder die mehreren Prozessoren eine Zeitdifferenz in Übereinstimmung mit dem Emissionswinkel, α, bestimmen (z.B. für den Fall, dass der eine oder die mehreren Prozessoren eine gültige Zeitdifferenz bestimmen, z.B. eine Zeitdifferenz unter einem vorgegebenen Schwellenwert, wie z.B. unter 50 ps oder unter 10 ps). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen solchen Abstand auf der Grundlage der jeweils ermittelten Laufzeit bestimmen (z.B. auf der Grundlage der Laufzeit des Zeit-Digital-Wandlers, der einem Sensorpixel zugeordnet ist). Zum Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen ersten Abstand d zwischen dem Objekt und dem ersten Sensorpixel bestimmen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen zweiten Abstand, d+x, zwischen dem Objekt und dem zweiten Sensorpixel bestimmen.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass das erste Signal des ersten Sensorpixels und/oder das zweite Signal des zweiten Sensorpixels als „ungültige“ Signale (z.B. als Rauschsignal(e)) klassifiziert werden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine solche Klassifizierung vornehmen, falls die ermittelte Zeitdifferenz nicht mit dem Emissionswinkel α übereinstimmt (z.B. falls die ermittelte Zeitdifferenz nicht der vorgegebenen Beziehung entspricht). Zum Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie eine solche Klassifizierung liefern, falls die ermittelte Zeitdifferenz von der erwarteten Zeitdifferenz abweicht (z.B. um mehr als 10 ps oder mehr als 50 ps). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine solche Klassifizierung liefern, wenn die ermittelte Zeitdifferenz über einem Schwellenwert liegt, z.B. über 10 ps oder über 50 ps. Eine solche „ungültige“ Zeitdifferenz (z. B. ein solches „ungültiges“ erstes Signal und/oder zweites Signal von den Sensorpixeln) kann durch Rauschsignal(e) wie Umgebungslichtsignal(e) und/oder Streulichtsignal(e) (z. B. direktes Sonnenlicht, reflektiertes Sonnenlicht, von einem anderen Fahrzeug ausgesandte Laserpulse usw.) bereitgestellt werden. Das (die) Rauschsignal(e) kann (können) aus anderen Winkelbereichen auf das LIDAR-System auftreffen. Das Rauschlicht kann so beschaffen sein, dass beim Auftreffen auf ein Sensorpixel ein Signal (z.B. Rauschen) erzeugt wird, dessen Signalamplitude über dem Schwellenwert der Komparatorstufe liegt.
  • Illustrativ kann das hier beschriebene Messprinzip auf einer bedingten Koinzidenzschaltung beruhen (z.B. auf einem Koinzidenzkriterium). Statt einer Gleichzeitigkeit der Signale kann auch ein zeitlicher Abstand der Signale (z.B. erzeugt durch die Sensorpixel) bestimmt und ausgewertet werden. Es kann bestimmt werden, ob der zeitliche Abstand eine emissionswinkelabhängige Beziehung erfüllt ()). Bildlich gesprochen kann das hier beschriebene Messprinzip als eine Art „Richtungshören“ beschrieben werden.
  • Die ermittelte Zeitdifferenz kann kürzer sein als die Impulsdauer des Signals (z.B. des gemessenen Signals, z.B. des von einem Sensorpixel erzeugten Signals). Dies kann insbesondere bei kurzen Zeitdifferenzen (z.B. kürzer als 20 ps oder kürzer als 15 ps) der Fall sein. Das Messprinzip wird dadurch jedoch weder verändert noch beeinträchtigt. Die Komparatorstufe (z.B. der eine oder mehrere analoge Komparatoren) kann so konfiguriert werden, dass sie empfindlich auf die steigende Flanke (d.h. die steigende Flanke) eines Signals (z.B. des von einem entsprechenden Sensorpixel kommenden Signals) reagiert. Die Komparatorstufe kann so konfiguriert werden, dass sie das Signal aufzeichnet, sobald das Signal den vorgegebenen Wert (z.B. den jeweiligen Schwellenwert) überschreitet.
  • In verschiedenen Ausführungsformen kann die Schaltung einen oder mehrere Spitzenwertdetektoren aufweisen (auch als „Spitzenwertdetektor und Halteschaltungen“ bezeichnet). Der eine oder die mehreren Spitzenwertdetektoren können so konfiguriert werden, dass sie einen oder mehrere Signalausgänge von dem einen oder den mehreren Sensorpixeln empfangen (z.B. Ausgang von einem oder mehreren Subsensoren). Der eine oder die mehreren Spitzenwert-Detektoren können so konfiguriert werden, dass sie die Signalamplitude bestimmen (z.B. die Amplitude des ersten Signals vom ersten Sensorpixel und/oder die Amplitude des zweiten Signals vom zweiten Sensorpixel). Die Schaltung kann ferner einen oder mehrere Analog-Digital-Wandler aufweisen, die mit dem einen oder den mehreren Spitzenwertdetektoren gekoppelt (z.B. stromabwärts gekoppelt) sind. Der eine oder die mehreren Analog-Digital-Umsetzer können so konfiguriert werden, dass sie das von einem entsprechenden Spitzenwertdetektor ausgegebene Signal empfangen. Der eine oder die mehreren Analog-Digital-Wandler können so konfiguriert werden, dass sie das empfangene Signal digitalisieren (mit anderen Worten: digitalisieren). Der eine oder die mehreren Analog-Digital-Umsetzer können so konfiguriert werden, dass sie ein oder mehrere digitale Ausgangssignale (z.B. eine oder mehrere digitale Amplituden) an den einen oder die mehreren Prozessoren liefern. Der eine oder die mehreren Prozessoren (z.B. der Mikrocontroller) können so konfiguriert werden, dass sie den einen oder die mehreren Spitzenwertdetektoren zurücksetzen (z.B. nach jedem erfassten Signal oder Signalimpuls). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Erfüllung des vordefinierten Kriteriums auf der Grundlage der empfangenen einen oder mehreren Signalamplituden bestimmen.
  • In verschiedenen Ausführungsformen kann die Messung über (oder mit) mehreren Lichtpulsen (z.B. mehreren Laserpulsen) durchgeführt werden. Dies kann zu einem verbesserten (z.B. größeren) SNR führen. Der eine oder mehrere Prozessoren können so konfiguriert werden, dass ein Histogramm (z.B. eine Verteilung, z.B. eine Häufigkeitsverteilung) der ermittelten Laufzeiten ermittelt wird. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die ermittelten Laufzeiten gruppieren (z. B. zur Erstellung eines Histogramms auf der Grundlage der Gruppierung der ermittelten Laufzeiten). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie das eine oder die mehreren Sensorpixelsignale auf der Grundlage des ermittelten Histogramms klassifizieren. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass eine Laufzeit mit einem emittierten Lichtimpuls verbunden ist, falls eine Akkumulation (z.B. eine Frequenzakkumulation) für diese Laufzeit besteht. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, dass eine Laufzeit mit dem Lichtsignal (z.B. mit der Vielzahl der emittierten Lichtpulse, wie z.B. Laserpulse) verbunden ist, falls eine Vielzahl von Laufzeiten im Wesentlichen den gleichen Wert haben. Solche Laufzeiten können mit einem realen Objekt assoziiert sein (z.B. mit der Reflexion von LIDAR-Licht von einem Objekt).
  • Das hier beschriebene Messprinzip kann auf mehr als zwei Sensorpixel ausgedehnt werden (z.B. mehr als zwei Sensoren, mehr als zwei Subsensoren, mehr als zwei Fotodioden). Dadurch kann die Empfindlichkeit gegenüber Streulicht oder Umgebungslicht weiter reduziert werden. Für den Fall, dass das LIDAR-System ein 2D-Scan-LIDAR-System ist oder als 2D-Scan-LIDAR-System konfiguriert ist, können die Sensorpixel in einer ersten Richtung und/oder in einer zweiten Richtung (z.B. in horizontaler Richtung und/oder in vertikaler Richtung) beabstandet angeordnet sein. Als Beispiel kann das hier beschriebene Messprinzip für zwei getrennte LIDAR-Systeme (z.B. mit getrennten Empfängerpfaden), die kommunikativ miteinander gekoppelt sind, vorgesehen werden.
  • In verschiedenen Ausführungsformen kann das LIDAR-System ein 2D-Emitter-Array aufweisen (z.B. ein VCSEL-Array). Das 2D-Emitter-Array kann so konfiguriert werden, dass es Licht emittiert. Das 2D-Emitter-Array kann so konfiguriert werden, dass es Licht in einem bekannten (oder vorgegebenen) Winkelbereich emittiert. Das 2D-Emitter-Array kann so konfiguriert werden, dass mindestens zwei Emitter des Arrays (z. B. alle Emitter in einer Spalte oder in einer Zeile des Arrays) gleichzeitig Licht emittieren können. Eine winkelabhängige Zeitdifferenz kann auch in dieser Konfiguration bestimmt werden. Zusätzlich oder alternativ kann das 2D-Emitter-Array so konfiguriert werden, dass mindestens zwei Emitter (z.B. ein erster Emitter und ein zweiter Emitter) des Arrays zu unterschiedlichen Zeitpunkten (z.B. mit einer bekannten oder vorgegebenen Zeitdifferenz) Licht emittieren. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Signale von den Sensorpixeln auch auf der Grundlage der Zeitdifferenz zwischen der Lichtemission des ersten Emitters und des zweiten Emitters auswerten.
  • In verschiedenen Ausführungsformen kann das LIDAR-System mehrere Lichtquellen umfassen (z.B. eine erste Lichtquelle und eine zweite Lichtquelle). Die Vielzahl der Lichtquellen kann so konfiguriert sein, dass sie Licht mit unterschiedlichen Wellenlängen emittieren. Der eine oder die mehreren Sensorpixel (z.B. der eine oder die mehreren Subsensoren) können so konfiguriert werden, dass sie in verschiedenen Wellenlängenbereichen arbeiten (z.B. zur Erfassung unterschiedlicher Wellenlängen oder zur Erfassung von Wellenlängen in verschiedenen Bereichen).
  • Als Beispiel kann die erste Lichtquelle so konfiguriert werden, dass sie Licht mit einer ersten Wellenlänge emittiert. Die zweite Lichtquelle kann so konfiguriert werden, dass sie Licht mit einer zweiten Wellenlänge emittiert. Die erste Wellenlänge kann sich von der ersten Wellenlänge unterscheiden. Das erste Sensorpixel (z.B. der erste Subsensor) kann so konfiguriert werden, dass es in einem Wellenlängenbereich arbeitet, der die erste Wellenlänge einschließt (z.B. kann es so konfiguriert werden, dass es ein Signal erzeugt, falls Licht mit im Wesentlichen der ersten Wellenlänge auf das Sensorpixel auftrifft). Das zweite Sensorpixel (z.B. der zweite Subsensor) kann so konfiguriert werden, dass es in einem Wellenlängenbereich arbeitet, der die zweite Wellenlänge einschließt (z.B. kann es so konfiguriert werden, dass es ein Signal erzeugt, falls Licht mit im Wesentlichen der zweiten Wellenlänge auf das Sensorpixel auftrifft).
  • Ein LIDAR-System, wie es hier beschrieben wird (z.B. einschließlich einer Schaltung wie hier beschrieben), kann eine große Reichweite (z.B. Erfassungsbereich) und ein großes Sichtfeld haben. Die große Reichweite und das große Sichtfeld können auch unter Tageslichtbedingungen (z.B. auch bei Vorhandensein von Umgebungslicht und/oder Streulicht, z.B. Sonnenlicht) gegeben sein.
  • 116 zeigt ein LIDAR-System 11600 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 11600 kann als LIDAR-Scansystem konfiguriert werden. Als Beispiel kann das LIDAR-System 11600 als LIDAR-Sensorsystem 10 konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Das LIDAR-System 11600 kann einen Emitterpfad aufweisen, z.B. eine oder mehrere Komponenten des LIDAR-Systems 11600, die zum Aussenden von Licht (z.B. LIDAR) konfiguriert sind. Das ausgestrahlte Licht kann zur Beleuchtung (z.B. zur Abfrage) des Bereichs um das LIDAR-System 11600 herum oder vor dem LIDAR-System 11600 bereitgestellt werden. Das LIDAR-System 11600 kann einen Empfängerpfad aufweisen, z.B. eine oder mehrere Komponenten, die so konfiguriert sind, dass sie Licht aus der Umgebung oder vor dem LIDAR-System 11600 empfangen (z.B. Licht, das von Objekten in diesem Bereich reflektiert oder gestreut wird). Das LIDAR-System 11600 kann auch als Blitz-LIDAR-System konfiguriert sein oder konfiguriert werden.
  • Das LIDAR-System 11600 kann eine Optikanordnung 11602 aufweisen (auch als Empfängeroptikanordnung oder Sensoroptik bezeichnet). Die Optikanordnung 11602 kann so konfiguriert werden, dass sie Licht aus der Umgebung oder vor dem LIDAR-System 11600 empfängt (z.B. sammelt). Die Optikanordnung 11602 kann so konfiguriert werden, dass sie das empfangene Licht auf einen Sensor 52 des LIDAR-Systems 11600 richtet (z.B. fokussiert oder kollimiert). Die Optikanordnung 11602 kann eine oder mehrere optische Komponenten (z.B. eine oder mehrere Linsen, ein oder mehrere Objektive, einen oder mehrere Spiegel u.ä.) aufweisen, die so konfiguriert sind, dass sie das Licht empfangen und auf eine Brennebene der Optikanordnung 11602 fokussieren. Als Beispiel kann die optische Anordnung 11602 wie die optische Anordnung 9802, die in Bezug auf 98 bis 102B beschrieben ist, konfiguriert sein oder konfiguriert werden.
  • Die Optikanordnung 11602 kann ein Sichtfeld 11604 der Optikanordnung 11602 haben oder definieren. Das Sichtfeld 11604 der Optikanordnung 11602 kann mit dem Sichtfeld des LIDAR-Systems 11600 zusammenfallen. Das Sichtfeld 11604 kann einen Bereich (oder einen Raumwinkel) definieren oder darstellen, durch den (oder von dem) die optische Anordnung 11602 Licht empfangen kann (z.B. einen Bereich, der durch die optische Anordnung 11602 sichtbar ist). Die optische Anordnung 11602 kann so konfiguriert werden, dass sie Licht aus dem Sichtfeld 11604 empfängt (z. B. ein Bereich, der durch die optische Anordnung 11602 sichtbar ist). Zur Veranschaulichung: Die optische Anordnung 11602 kann so konfiguriert werden, dass sie Licht (z. B. ausgestrahlt, reflektiert, gestreut usw.) von einer Quelle oder einem Objekt (oder vielen Objekten oder allen Objekten) empfängt, das sich im Sichtfeld 11604 befindet.
  • Das Sichtfeld 11604 kann eine erste Winkelausdehnung in einer ersten Richtung haben (z.B. die horizontale Richtung, z.B. die Richtung 11654 in 116). Beispielsweise kann das Sichtfeld 11604 der Optikanordnung 11602 etwa 60° in horizontaler Richtung betragen (z.B. von etwa -30° bis etwa +30° in Bezug auf eine optische Achse 11606 der Optikanordnung 11602 in horizontaler Richtung), z.B. etwa 50°, z.B. etwa 70°, z.B. etwa 100°. Das Gesichtsfeld 11604 kann eine zweite Winkelausdehnung in einer zweiten Richtung haben (z.B. die vertikale Richtung, z.B. die Richtung 11656 in 116). Beispielsweise kann das Sichtfeld 11604 der Optikanordnung 11602 etwa 10° in vertikaler Richtung betragen (z.B. von etwa -5° bis etwa +5° in Bezug auf die optische Achse 11606 in vertikaler Richtung), z.B. etwa 5°, z.B. etwa 20°, z.B. etwa 30°. Die erste Richtung und die zweite Richtung können senkrecht zur optischen Achse 11606 der optischen Anordnung 11602 verlaufen (zur Veranschaulichung: die optische Achse 11606 kann entlang der Richtung 11652 in 116 ausgerichtet oder orientiert sein). Die erste Richtung kann senkrecht zur zweiten Richtung verlaufen. Die Definition der ersten Richtung und der zweiten Richtung (z.B. von horizontaler Richtung und vertikaler Richtung) kann willkürlich gewählt werden, z.B. in Abhängigkeit vom gewählten Koordinatensystem (z.B. Referenzsystem). Die optische Achse 11606 der Optikanordnung 11602 kann mit der optischen Achse des LIDAR-Systems 11600 zusammenfallen.
  • Das LIDAR-System 11600 kann mindestens eine Lichtquelle 42 aufweisen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht aussendet, z.B. ein Lichtsignal (z.B. zur Erzeugung eines Lichtstrahls 11608). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge, z.B. in einem vordefinierten Wellenlängenbereich, emittiert. Die Lichtquelle 42 kann z.B. so konfiguriert werden, dass sie Licht im Infrarot- und/oder Nahinfrarotbereich emittiert (z.B. im Bereich von etwa 700 nm bis etwa 5000 nm, z.B. im Bereich von etwa 860 nm bis etwa 2000 nm, z.B. 905 nm). Die Lichtquelle 42 kann so konfiguriert werden, dass sie LIDAR-Licht emittiert (z.B. kann das Lichtsignal LIDAR-Licht sein). Die Lichtquelle 42 kann eine Lichtquelle und/oder eine Optik zur gerichteten Aussendung von Licht aufweisen, z.B. zur Aussendung von kollimiertem Licht (z.B. zur Aussendung von Laserlicht). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht kontinuierlich oder gepulst emittiert (z.B. zur Aussendung einer Folge von Lichtpulsen, wie z.B. einer Folge von Laserpulsen). Als Beispiel kann die Lichtquelle 42 so konfiguriert werden, dass sie das Lichtsignal einschließlich einer Vielzahl von Lichtimpulsen emittiert. Das LIDAR-System 11600 kann auch mehr als eine Lichtquelle 42 aufweisen, die z.B. so konfiguriert ist, dass sie Licht in verschiedenen Wellenlängenbereichen und/oder mit unterschiedlichen Raten (z.B. Pulsraten) emittiert.
  • Als Beispiel kann die Lichtquelle 42 als Laserlichtquelle konfiguriert werden. Die Lichtquelle 42 kann mindestens eine Laserlichtquelle 5902 aufweisen (z.B. konfiguriert wie beschrieben, z.B. in Bezug auf 59). Die Laserquelle 5902 kann mindestens eine Laserdiode aufweisen, z.B. kann die Laserquelle 5902 eine Vielzahl von Laserdioden aufweisen, z.B. eine Vielzahl, z.B. mehr als zwei, mehr als fünf, mehr als zehn, mehr als fünfzig oder mehr als hundert Laserdioden. Die Laserquelle 5902 kann so konfiguriert werden, dass sie einen Laserstrahl mit einer Wellenlänge im Infrarot- und/oder nahen Infrarot-Wellenlängenbereich emittiert.
  • Das LIDAR-System 11600 kann eine Abtasteinheit 11610 (z.B. eine Strahlsteuereinheit) aufweisen. Die Abtasteinheit 11610 kann so konfiguriert werden, dass sie das von der Lichtquelle 42 ausgesandte Lichtsignal empfängt. Die Abtasteinheit 11610 kann so konfiguriert werden, dass sie das empfangene Lichtsignal auf das Sichtfeld 11604 der Optikanordnung 11602 richtet. Im Zusammenhang mit der vorliegenden Anwendung kann das von der Abtasteinheit 11610 ausgegebene (oder von der Abtasteinheit 11610 ausgegebene) Lichtsignal (z.B. das von der Abtasteinheit 11610 auf das Sichtfeld 11604 gerichtete Lichtsignal) als Lichtsignal 11612 oder als emittiertes Lichtsignal 11612 bezeichnet werden.
  • Die Abtasteinheit 11610 kann so konfiguriert werden, dass sie das emittierte Lichtsignal 11612 so steuert, dass ein Bereich des Sichtfeldes 11604 durch das emittierte Lichtsignal 11612 beleuchtet wird. Der beleuchtete Bereich kann sich über das gesamte Sichtfeld 11604 in mindestens einer Richtung erstrecken (z.B. kann der beleuchtete Bereich als eine Linie gesehen werden, die sich entlang des gesamten Sichtfeldes 11604 in horizontaler oder vertikaler Richtung erstreckt). Alternativ kann der beleuchtete Bereich auch ein Punkt (z.B. ein kreisförmiger Bereich) im Sichtfeld 11604 sein.
  • Die Abtasteinheit 11610 kann so konfiguriert werden, dass sie das emittierte Lichtsignal 11612 so steuert, dass das Sichtfeld 11604 mit dem emittierten Lichtsignal 11612 abgetastet wird (z.B. um nacheinander verschiedene Teile des Sichtfeldes 11604 mit dem emittierten Lichtsignal 11612 zu beleuchten). Die Abtastung kann entlang einer Abtastrichtung erfolgen (z.B. einer Abtastrichtung des LIDAR-Systems 11600). Die Abtastrichtung kann eine Richtung senkrecht zu der Richtung sein, in der sich der beleuchtete Bereich erstreckt. Die Abtastrichtung kann die horizontale Richtung oder die vertikale Richtung sein. Zur Veranschaulichung: Die Abtasteinheit 11610 kann so konfiguriert werden, dass sie einen Emissionswinkel, α, des emittierten Lichtsignals 11612 steuert, um das Sichtfeld 11604 abzutasten (z.B. kann die Abtasteinheit 11610 so konfiguriert werden, dass der Emissionswinkel über einen Bereich von Winkeln variiert werden kann). Der Emissionswinkel, α, kann ein Winkel zwischen der Richtung, in die das Lichtsignal emittiert wird, und der optischen Achse 11606 der optischen Anordnung 11602 sein. Der Emissionswinkel, α, kann ein Winkel in Bezug auf eine vordefinierte Richtung sein. Die vordefinierte Richtung kann die Abtastrichtung sein. Die vordefinierte Richtung kann die horizontale Richtung oder die vertikale Richtung sein.
  • Die Abtasteinheit 11610 kann eine geeignete (z.B. steuerbare) Komponente oder eine geeignete Konfiguration zur Abtastung des Sichtfeldes 11604 mit dem emittierten Licht 11612 aufweisen. Als Beispiel kann die Abtasteinheit 11610 einen oder mehrere 1D-MEMS-Spiegel, einen 2D-MEMS-Spiegel, einen rotierenden Polygonspiegel, ein optisches Gefastes (Phased) Array, ein Strahlführungselement auf der Basis von Meta-Materialien oder ähnliches aufweisen.
  • Zusätzlich oder alternativ kann die Abtasteinheit 11610 ein Emitter-Array aufweisen, wie z.B. ein 2D-Emitter-Array (z.B. ein VCSEL-Array). Die Abtasteinheit 11610 kann eine oder mehrere optische Komponenten aufweisen, die vor dem Emitter-Array angeordnet sind (z.B. so konfiguriert, dass sie Licht vom Emitter-Array empfängt und es auf das Sichtfeld richtet). Eine optische Komponente kann z.B. vor einer entsprechenden Spalte eines VCSELarrays angeordnet sein. Die eine oder mehrere optische Komponenten können so konfiguriert werden, dass verschiedene Teile des Emitter-Arrays verschiedenen Teilen des Sichtfeldes 11604 zugeordnet werden. Die eine oder mehreren optischen Komponenten können beispielsweise so konfiguriert werden, dass jede Spalte des VCSEL-Arrays einem entsprechenden Winkelbereich zugeordnet ist (z.B. jede Spalte lenkt Licht in einen ihr zugeordneten Winkelbereich des Sichtfeldes 11604). Das Emitter-Array kann so konfiguriert werden, dass verschiedene Teile des Emitter-Arrays (z.B. verschiedene Spalten des VCSEL-Arrays) Licht mit unterschiedlichen Wellenlängen emittieren. Auf diese Weise können verschiedene Wellenlängen verschiedenen Winkelbereichen des Sichtfeldes 11604 zugeordnet werden.
  • Ein oder mehrere Objekte 11614, 11616 können sich im Sichtfeld 11604 befinden. Zur Veranschaulichung: Ein Objekt im Sichtfeld 11604 kann als Lichtquelle gesehen werden, die Licht auf das LIDAR-System 11600 richtet oder ausstrahlt. Beispielsweise kann ein erstes Objekt 11614 das emittierte Lichtsignal 11612 zurück in Richtung des LIDAR-Systems 11600 reflektieren oder streuen (z.B. kann die Optikanordnung 11602 vom ersten Objekt 11614 ein reflektiertes Lichtsignal 11612r empfangen, z.B. Echolicht, z.B. ein Echosignal oder LIDAR-Echosignal). Als weiteres Beispiel kann ein zweites Objekt 11616 Streulicht oder Umgebungslicht 11618 auf das LIDAR-System 11600 lenken oder aussenden (z.B. kann das zweite Objekt 11616 eine Rauschquelle sein). Das zweite Objekt 11618 kann die Sonne sein, oder eine Oberfläche, die Sonnenlicht reflektiert, oder ein Fahrzeug, das Licht (z.B. LIDAR-Licht) aussendet, usw.
  • Das LIDAR-System 11600 kann so konfiguriert werden, dass es ein Objekt im Sichtfeld 11604 erkennt. Das LIDAR-System 11600 kann so konfiguriert werden, dass es ein Objekt im Sichtfeld 11604 identifiziert (z.B. um dem Objekt eine vordefinierte Kategorie zuzuweisen). Das LIDAR-System 11600 kann so konfiguriert werden, dass es einen Abstand zwischen einem Objekt im Sichtfeld 11604 und dem LIDAR-System 11600 bestimmt (z.B. wie weit das Objekt vom LIDAR-System 11600 entfernt ist). Das LIDAR-System 11600 kann so konfiguriert werden, dass die Detektion nach dem TOF-Prinzip (Laufzeit) erfolgt. Zur Veranschaulichung: Die Entfernung zwischen einem Objekt und dem LIDAR-System 11600 kann auf der Grundlage der Zeit zwischen dem Aussenden des Lichtsignals 11612 und dem Empfang (z.B. der Detektion) des Echosignals 11612r (z.B. des reflektierten Lichts, das dem ausgesendeten Lichtsignal 11612 entspricht oder diesem zugeordnet ist) bestimmt werden.
  • Das System 11600 kann mindestens einen Sensor 52 aufweisen (z.B. einen Lichtsensor, z.B. einen LIDAR-Sensor). Der Sensor 52 kann so konfiguriert werden, dass er Licht von der Optikanordnung 11602 empfängt (z. B. kann der Sensor 52 in der Brennebene der Optikanordnung 11602 angeordnet sein). Der Sensor 52 kann so konfiguriert werden, dass er externe Objekte des Systems erkennt (z.B. Objekte im Sichtfeld 11604). Der Sensor 52 kann so konfiguriert werden, dass er in einem vordefinierten Wellenlängenbereich arbeitet, z.B. im Infrarotbereich und/oder im nahen Infrarotbereich (z.B. von ca. 860 nm bis ca. 2000 nm, z.B. von ca. 860 nm bis ca. 1000 nm).
  • Der Sensor 52 kann ein oder mehrere Sensorpixel 11620 aufweisen (z.B. ein erstes Sensorpixel 116201 und ein zweites Sensorpixel 116202). Das eine oder die mehreren Sensorpixel 11620 können so konfiguriert werden, dass sie ein Signal erzeugen, z.B. ein oder mehrere Sensorpixelsignale 11622 (z.B. das erste Sensorpixel 116201 kann so konfiguriert werden, dass es ein erstes Sensorpixelsignal 116221 erzeugt, das zweite Sensorpixel 116202 kann so konfiguriert werden, dass es ein zweites Sensorpixelsignal 116222 erzeugt). Das eine oder die mehreren Sensorpixelsignale 11622 können ein Analogsignal (z.B. ein elektrisches Signal, wie z.B. ein Strom) sein oder aufweisen. Das eine oder die mehreren Sensorpixelsignale 11622 können proportional zur Lichtmenge sein, die vom Sensor 52 gesammelt wird (z.B. zur Lichtmenge, die auf das jeweilige Sensorpixel 11620 trifft). Als Beispiel kann der Sensor 52 eine oder mehrere Fotodioden aufweisen. Zur Veranschaulichung: Jedes Sensorpixel 11620 kann eine entsprechende Fotodiode (z.B. des gleichen Typs oder verschiedener Typen) aufweisen oder damit verbunden sein. Zumindest einige der Fotodioden können Pin-Fotodioden sein (z.B. kann jede Fotodiode eine Pin-Fotodiode sein). Zumindest einige der Fotodioden können auf Lawinenverstärkung basieren (z.B. jede Fotodiode kann auf Lawinenverstärkung basieren). Zum Beispiel können zumindest einige der Fotodioden eine Lawinenfotodiode aufweisen (z.B. kann jede Fotodiode eine Lawinenfotodiode aufweisen). Zumindest einige der Lawinenfotodioden können eine Einzelphotonen-Lawinenfotodiode sein oder aufweisen (z.B. kann jede Lawinenfotodiode eine Einzelphotonen-Lawinenfotodiode sein oder aufweisen).
  • Der eine oder mehrere Sensorpixel 11620 können die gleiche Form und/oder Größe haben. Alternativ können das eine oder die mehreren Sensorpixel 11620 eine andere Form und/oder eine andere Größe haben (z.B. kann das erste Sensorpixel 116201 eine andere Form und/oder Größe als das zweite Sensorpixel 116202 haben). Als Beispiel können das eine oder die mehreren Sensorpixel 11620 eine rechteckige Form haben (z.B. mit einer größeren seitlichen Abmessung in einer Richtung parallel zu einer Abtastrichtung des LIDAR-Systems 11600). Ein weiteres Beispiel ist, dass das eine oder die mehreren Sensorpixel 11620 so konfiguriert (z.B. geformt) sein können, dass ein Übersprechen zwischen dem einen oder den mehreren Sensorpixeln 11620 (z.B. zwischen benachbarten Sensorpixeln 11620, z.B. zwischen dem ersten Sensorpixel 116201 und dem zweiten Sensorpixel 116202) reduziert wird. Beispielsweise kann mindestens ein Sensorpixel 11620 (z.B. das erste Sensorpixel 116201 und/oder das zweite Sensorpixel 116202) in einem ersten (z.B. zentralen) Bereich eine größere Ausdehnung in eine Richtung senkrecht zur Abtastrichtung des LIDAR-Systems 11600 (z.B. eine größere Höhe) haben als in einem zweiten (z.B. Randbereich). Illustrativ kann mindestens ein Sensorpixel 11620 (z.B. das erste Sensorpixel 116201 und/oder das zweite Sensorpixel 116202) konfiguriert werden, wie weiter unten im Detail diskutiert wird, z.B. in Bezug auf 120 bis 122.
  • Das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können Teil derselben Erfassungseinheit sein, oder das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können separate (z.B. unabhängige) Erfassungseinheiten bilden oder Teil davon sein.
  • Der Sensor 52 kann einen oder mehrere Subsensoren aufweisen, zum Beispiel einen ersten Subsensor 521 und einen zweiten Subsensor 522 (wie in dargestellt). Der erste Subsensor 521 kann das erste Sensorpixel 116201 (oder eine Vielzahl von ersten Sensorpixeln 116201, wie z.B. 32 oder 64 erste Sensorpixel 116201) aufweisen. Der zweite Subsensor 522 kann das zweite Sensorpixel 116202 (oder eine Vielzahl von zweiten Sensorpixeln 116202, wie z.B. 32 oder 64 zweite Sensorpixel 116202) aufweisen. Das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können an der gleichen Position innerhalb des jeweiligen Subsensors angeordnet sein. Zum Beispiel können der erste Subsensor 521 und der zweite Subsensor 522 eindimensionale Sensoranordnungen sein. Alternativ können der erste Subsensor 521 und der zweite Subsensor 522 zweidimensionale Sensoranordnungen sein (z.B. mit zwei Spalten von Sensorpixeln). Das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können in der gleichen Position innerhalb des jeweiligen Arrays angeordnet sein. Zum Beispiel können das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 beide das nte Element des jeweiligen eindimensionalen Arrays sein (z.B. das erste Element, das zweite Element usw.). Als weiteres Beispiel können das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 beide auf den gleichen Matrixkoordinaten innerhalb des jeweiligen zweidimensionalen Arrays liegen (wie in 116C dargestellt).
  • Selbst wenn das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 in einem entsprechenden Subsensor 521, 522 umfasst sind, können sie immer noch als im Sensor 52 aufweisen betrachtet werden. Zur Veranschaulichung: Der Sensor 52 kann als eine Sensoreinheit verstanden werden, die einen oder mehrere (z.B. unabhängige) Subsensoren enthält. Beispielsweise kann der Sensor 52 eine (z.B. zentrale) Verarbeitungseinheit aufweisen, die so konfiguriert ist, dass sie ein oder mehrere Signale verarbeitet, die von dem einen oder den mehreren Subsensoren geliefert werden.
  • Das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können Teil desselben Sensorarrays sein (wie z. B. in dargestellt). Als Beispiel kann der Sensor 52 als zweidimensionales Sensorarray konfiguriert werden (z.B. kann der Sensor 52 eine Matrix von Sensorpixeln 11620 aufweisen, z.B. mit zwei Spalten von Sensorpixeln 11620). Das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können innerhalb des Sensorarrays nebeneinander angeordnet sein (z.B. unmittelbar nebeneinander). Als Beispiel können das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 in derselben Zeile und in benachbarten Spalten innerhalb des Sensorarrays angeordnet sein. Alternativ können das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 nicht benachbart zueinander angeordnet sein (z.B. in derselben Zeile und in verschiedenen Spalten von Sensorpixeln, die nicht benachbart zueinander sind).
  • Ein Sensorpixel 11620 kann so konfiguriert werden, dass ein Sensorpixelsignal 11622 erzeugt wird, falls ein Ereignis am Sensorpixel 11620 das Sensorpixel 11620 auslöst. Beispielsweise kann ein Sensorpixel 11620 so konfiguriert werden, dass es ein Sensorpixelsignal 11622 erzeugt, wenn eine bestimmte Lichtmenge (z.B. eine Lichtmenge über einem vorgegebenen Schwellenwert) auf das Sensorpixel 11620 auftrifft. Zur Veranschaulichung: Ein Sensorpixelsignal 11622 kann einen oder mehrere Sensorpixel-Signalimpulse (z.B. eine Vielzahl von Sensorpixel-Signalimpulsen) aufweisen. Ein Sensorpixel-Signalimpuls kann ein anderes Ereignis am Sensorpixel 11620 darstellen. Als Beispiel kann ein Sensorpixel-Signalimpuls das Auftreffen des vom ersten Objekt 11614 reflektierten Echolichts 11612r auf das Sensorpixel 11620 repräsentieren. Ein weiteres Beispiel: Ein Sensorpixel-Signalimpuls kann das Auftreffen von Streulicht 11618, das vom zweiten Objekt 11616 kommt, auf das Sensorpixel 11620 repräsentieren.
  • Der Sensor 52 (oder das LIDAR-System 11600) kann so konfiguriert werden, dass er bestimmt, ob das von einem Objekt im Sichtfeld 11604 empfangene Licht das reflektierte Lichtsignal 11612r oder Streulicht 11618 (z.B. Rauschlicht) ist. Der Sensor 52 kann eine Pixelsignal-Auswahlschaltung 11624 aufweisen. Alternativ kann das LIDAR-System 11600 die Pixelsignal-Auswahlschaltung 11624 aufweisen, die mit dem Sensor 52 gekoppelt (z.B. kommunikativ gekoppelt) ist. Im Folgenden kann der Pixelsignal-Auswahlschaltkreis 11624 als Schaltkreis 11624 bezeichnet werden.
  • Die Schaltung 11624 kann so konfiguriert werden, dass sie das eine oder mehrere Sensorpixelsignal 11622 empfängt (z.B. das erste Sensorpixelsignal 116221 und das zweite Sensorpixelsignal 116222). Die Schaltung 11624 kann so konfiguriert werden, dass sie die Laufzeit des emittierten Lichtsignals 11612 bestimmt. Die Bestimmung der Laufzeit kann der Bestimmung des Abstands zwischen einem Objekt und dem LIDAR-System 11600 entsprechen. Die Bestimmung der Laufzeit kann auf den empfangenen ein oder mehreren Sensor-Pixelsignalen 11622 basieren. Zur Veranschaulichung: Die Laufzeit kann aus dem Zeitpunkt bestimmt werden, zu dem das LIDAR-Licht emittiert wird und dem Zeitpunkt, zu dem das eine oder die mehreren Sensorpixelsignale 11622 (z.B. ein oder mehrere Sensorpixel-Signalimpulse) erzeugt wird/werden.
  • Die Schaltung 11624 kann so konfiguriert werden, dass sie einen oder mehrere Werte aus den empfangenen ein oder mehreren Sensorpixelsignalen 11622 bestimmt (zur Veranschaulichung: sie kann so konfiguriert werden, dass sie einen Wert für jedes einzelne Sensorpixelsignal 11622 und/oder für jeden einzelnen Sensorpixel-Signalimpuls bestimmt). Der eine oder die mehreren Werte können ein oder mehrere Kandidaten der Laufzeit des am jeweiligen Sensorpixel 11620 empfangenen Lichtsignals 11612 sein oder darstellen. Zum Beispiel kann die Schaltung 11624 so konfiguriert werden, dass sie mindestens einen ersten Wert aus dem ersten Sensorpixelsignal 116221 bestimmt. Der erste Wert kann mindestens ein erster Kandidat für die Laufzeit des emittierten Lichtsignals 11612 sein oder darstellen, das am ersten Sensorpixel 116201 (z.B. am ersten Untersensor 521) empfangen wird. Die Schaltung 11624 kann so konfiguriert werden, dass sie mindestens einen zweiten Wert aus dem zweiten Sensorpixelsignal 116222 bestimmt. Der zweite Wert kann mindestens ein zweiter Kandidat für eine Laufzeit des ausgesendeten Lichtsignals 11612 sein oder darstellen, das am zweiten Sensorpixel 116202 (z.B. am zweiten Subsensor 522) empfangen wird.
  • Die Laufzeit des emittierten Lichts 11612 kann aus einem oder mehreren der Sensorpixelsignale 11622 (z.B. einem oder mehreren Sensorpixel-Signalimpulsen) bestimmt werden, die als Reaktion auf das Echolicht 11612r erzeugt werden. Sensorpixelsignal(e) 11622, das/die als Reaktion auf Umgebungslicht oder Streulicht 11618 erzeugt wird/werden, darf/können nicht für die Bestimmung der Laufzeitt verwendet werden. Es kann ein vordefiniertes Kriterium (z.B. ein vordefiniertes Koinzidenzkriterium) bereitgestellt werden, um zu bestimmen, ob ein Sensorpixelsignal 11622 (z.B. ein Sensorpixel-Signalimpuls) mit Echolicht 11612r oder mit Umgebungslicht oder Streulicht 11618 assoziiert ist. Das vordefinierte Kriterium kann die Differenz zwischen Ereignissen (z.B. Sensorereignissen) an verschiedenen Sensorpixeln 11620 beschreiben (z.B. die Differenz zwischen einem ersten Ereignis an dem ersten Sensorpixel 116201, das das erste Sensorpixelsignal 116221 auslöst, und einem zweiten Ereignis an dem zweiten Sensorpixel 116202, das das zweite Sensorpixelsignal 116222 auslöst). Das vordefinierte Kriterium kann eine Zeitdifferenz zwischen Ereignissen an verschiedenen Sensorpixeln 11620 (z.B. an verschiedenen Subsensoren) beschreiben. Als Beispiel kann das vordefinierte Kriterium eine Zeitdifferenz zwischen einem ersten Sensorsignalimpuls des ersten Sensorsignals 116201 und einem zweiten Sensorsignalimpuls des zweiten Sensorsignals 116202 beschreiben.
  • Die Schaltung 11624 kann so konfiguriert werden, dass sie auswertet, ob der eine oder mehrere Werte (z.B. der eine oder mehrere Kandidate für die Laufzeit) eine gültige Laufzeit darstellen können. Zur Veranschaulichung: Die Schaltung 11624 kann so konfiguriert werden, dass sie auswertet, welcher der ein oder mehreren Zeitüberschreitungskandidaten eine gültige Zeitüberschreitung sein oder darstellen kann. Die Schaltung 11624 kann konfiguriert werden, um zu überprüfen, ob der eine oder die mehreren Werte das vordefinierte Kriterium erfüllen (z.B. um zu überprüfen, ob der mindestens eine erste Wert und der mindestens eine zweite Wert das vordefinierte Koinzidenzkriterium erfüllen). Beispielsweise kann die Schaltung 11624 so konfiguriert werden, dass sie das empfangene Licht (z.B. am ersten Sensorpixel 116201 und/oder am zweiten Sensorpixel 116202) als Echolicht oder Lichtsignal klassifiziert, falls das vordefinierte Kriterium erfüllt ist. Die Schaltung 11624 kann so konfiguriert werden, dass das empfangene Licht als Streulicht oder Umgebungslicht klassifiziert wird, falls das vordefinierte Kriterium nicht erfüllt ist. Der Schaltkreis 11624 kann so konfiguriert werden, dass er die Laufzeit des gesendeten Lichtsignals 11612 bestimmt, falls das empfangene Licht das Echolicht 11612r ist. Beispielsweise kann die Schaltung 11624 so konfiguriert werden, dass sie einen Laufzeit-Wert auf der Grundlage des mindestens einen ersten Wertes und des mindestens einen zweiten Wertes und des Verifikationsergebnisses bestimmt.
  • Die Schaltung 11624 kann so konfiguriert werden, dass sie die Erfüllung des vordefinierten Kriteriums für jede mögliche Kombination des einen oder der mehreren Sensorpixelsignale 11622 auswertet (z.B. zur Verifizierung), z.B. für jede Kombination der Sensorpixelsignalimpulse des einen oder der mehreren Sensorpixelsignale 11622. Zur Veranschaulichung: Ein Sensorpixel-Signalimpuls eines Sensorpixelsignals 11622 kann in Kombination mit allen Signalimpulsen eines anderen Sensorpixelsignals 11622 (z.B. erzeugt von einem anderen Sensorpixel 11620) ausgewertet werden. Anschließend kann ein anderer Sensorpixel-Signalimpuls des Sensorpixelsignals 11622 (falls vorhanden) in Kombination mit allen Signalimpulsen des anderen Sensorpixelsignals 11622 ausgewertet werden, usw. (z.B. bis alle Kombinationen ausgewertet sind).
  • Zum Beispiel kann das erste Sensorpixelsignal 116221 einen oder mehrere erste Sensorsignalimpulse aufweisen (z.B. eine Vielzahl von ersten Sensorsignalimpulsen). Das zweite Sensorpixelsignal 116222 kann einen oder mehrere zweite Sensorsignalimpulse aufweisen (z.B. eine Vielzahl von zweiten Sensorsignalimpulsen). Die Schaltung 11624 kann so konfiguriert werden, dass sie die Erfüllung des vordefinierten Kriteriums für jede mögliche Kombination des einen oder der mehreren ersten Sensorsignalimpulse mit dem einen oder den mehreren zweiten Sensorsignalimpulsen auswertet. Die Schaltung 11624 kann so konfiguriert werden, dass sie für jeden ersten Sensorpixel-Signalimpuls einen ersten Wert (z.B. einen ersten Kandidaten für die Zeitabschaltung) bestimmt. Die Schaltung 11624 kann so konfiguriert werden, dass sie für jeden zweiten Sensorpixel-Signalimpuls einen zweiten Wert (z.B. einen zweiten Laufzeit-Kandidaten) bestimmt. Die Schaltung 11624 kann so konfiguriert werden, dass sie überprüft, ob der mindestens eine erste Wert und der mindestens eine zweite Wert das vordefinierte Kriterium erfüllen, indem sie einen entsprechenden ersten Wert mit dem einen oder mehreren zweiten Werten (z.B. mit der Mehrzahl von zweiten Werten) vergleicht. Zusätzlich oder alternativ kann die Schaltung 11624 konfiguriert werden, um zu verifizieren, ob der mindestens eine erste Wert und der mindestens eine zweite Wert das vordefinierte Kriterium erfüllen, indem ein jeweiliger zweiter Wert mit dem einen oder den mehreren ersten Werten (z.B. mit der Mehrzahl von ersten Werten) verglichen wird.
  • Das vordefinierte Kriterium kann nach geometrischen Gesichtspunkten definiert werden. Das vordefinierte Kriterium kann unter Berücksichtigung des Abstrahlwinkels, α, des Lichtsignals 11612 definiert werden. Das vordefinierte Kriterium kann unter Berücksichtigung der Anordnung des einen oder mehrerer Sensorpixel 11620 (z.B. des einen oder mehrerer Subsensoren 521, 522) definiert werden. Der eine oder die mehreren Sensorpixel 11620 können so angeordnet werden, dass es möglich ist, zu bestimmen, ob das auf den Sensor 52 (z.B. auf die Sensorpixel 11620) auftreffende Licht Echolicht 11612r oder Streulicht 11618 (oder Umgebungslicht) ist. Das eine oder die mehreren Sensorpixel 11620 können in einem Abstand voneinander angeordnet sein. Zum Beispiel kann das zweite Sensorpixel 116202 in einem Abstand b vom ersten Sensorpixel 116201 angeordnet sein (z.B. kann der Abstand b auch als Sensorpixelabstand bezeichnet werden).
  • Der Abstand, b, kann ein seitlicher Abstand sein. Beispielsweise kann der Abstand b ein Abstand entlang einer Richtung parallel zur Abtastrichtung des LIDAR-Systems 11600 sein. Das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 können relativ zueinander in einer ersten Richtung ausgerichtet sein (z.B. können das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 im wesentlichen auf derselben Koordinate in horizontaler oder vertikaler Richtung angeordnet sein). Der Abstand, b, kann ein Abstand entlang einer zweiten Richtung senkrecht zur ersten Richtung sein (z.B. kann der Abstand, b, ein Abstand entlang der vertikalen Richtung oder entlang der horizontalen Richtung sein). Zur Veranschaulichung: Das zweite Sensorpixel 116202 kann gegenüber dem ersten Sensorpixel 116201 in horizontaler oder vertikaler Richtung verschoben sein. Der Abstand, b, kann ein Mitte-Mitte-Abstand zwischen dem ersten Sensorpixel 116201 und dem zweiten Sensorpixel 116202 sein. Der Abstand, b, kann so gewählt werden, dass das hier beschriebene Erkennungsschema implementiert werden kann. Beispielsweise kann der Abstand b mindestens 5 cm betragen, z. B. mindestens 50 cm, z. B. mindestens 1 m, z. B. mindestens 5 m. Der Abstand b kann so gewählt werden, dass das hier beschriebene Detektionsschema implementiert werden kann.
  • Falls das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 in einem entsprechenden Subsensor 521, 522 aufweisen sind, kann der Abstand b größer als eine Ausdehnung der Sensorpixel sein (z.B. kann er größer als eine Breite oder eine Höhe der Sensorpixel sein). Zur Veranschaulichung: Der Abstand b kann eine Lücke zwischen dem ersten Subsensor 521 und dem zweiten Subsensor 522 aufweisen. Falls das erste Sensorpixel 116201 und das zweite Sensorpixel 116202 in einem gleichen Sensorarray aufweisen sind, kann der Abstand b im Wesentlichen einer Ausdehnung eines Sensorpixels (z.B. auf eine Breite eines Sensorpixels) oder einem Vielfachen der Ausdehnung eines Sensorpixels entsprechen.
  • Ein Maximalwert für den Abstand b kann auf der Grundlage eines gewünschten Bereichs bestimmt werden. Zur Veranschaulichung: Die oben beschriebenen Gleichungen (1r) bis (4r) gelten für den Fall, dass ein Abstand zwischen einem Objekt und dem LIDAR-System 11600 (z.B. der Abstand d) grösser ist (z.B. mindestens 10-mal grösser oder 20-mal grösser) als der Abstand b. Ein Maximalabstand b kann also ein Maximalabstand sein, für den die oben beschriebenen Gleichungen noch gültig sind (z.B. ein Abstand, für den die Beziehung ist immer noch zufrieden). Als Beispiel kann der Abstand b weniger als 50 m betragen, z.B. weniger als 20 m, z.B. weniger als 10 m.
  • Die Anordnung des einen oder mehrerer Sensorpixel 11620 in einem Abstand voneinander kann den Effekt bewirken, dass Licht, das von einem Objekt im Sichtfeld 11604 kommt, zu verschiedenen Zeitpunkten auf verschiedene Sensorpixel 11620 (z.B. auf verschiedene Subsensoren) auftreffen kann. Illustrativ kann das von einem Objekt kommende Licht unterschiedliche Entfernungen zurücklegen, um auf verschiedene Sensorpixel 11620 aufzutreffen (z.B. größere oder kleinere Entfernungen, illustrativ abhängig von der Position des Objekts im Sichtfeld, z.B. abhängig vom Abstrahlwinkel α).
  • Wie z.B. in 116A dargestellt, kann das vom ersten Objekt 11614 kommende Licht eine erste Strecke, d1, zurücklegen, um auf das erste Sensorpixel 116201 zu treffen, und eine zweite Strecke, d2, um auf das zweite Sensorpixel 116202 zu treffen. Die erste Entfernung, d1, kann sich von der zweiten Entfernung, d2, unterscheiden (z.B. kann die erste Entfernung, d1, kleiner als die zweite Entfernung, d2, sein). In ähnlicher Weise kann das vom zweiten Objekt 11616 kommende Licht eine dritte Strecke, d3, zurücklegen, um auf das erste Sensorpixel 116201 zu treffen, und eine vierte Strecke, d4, um auf das zweite Sensorpixel 116202 zu treffen. Die vierte Entfernung, d4, kann kleiner als die dritte Entfernung, d3, sein.
  • So können als Reaktion auf Licht, das von ein und demselben Objekt kommt, Sensorpixelsignale 11622 (z.B. Sensorpixel-Signalimpulse) zu verschiedenen Zeitpunkten von verschiedenen Sensorpixeln 11620 erzeugt werden. Das vordefinierte Kriterium kann auf einer Zeitdifferenz zwischen Sensorpixelsignalen 11622 basieren, die von verschiedenen Sensorpixeln 11620 erzeugt werden.
  • 116B zeigt einen Ausschnitt des LIDAR-Systems 11600 in schematischer Darstellung nach verschiedenen Ausführungsformen. Aus Gründen der Übersichtlichkeit der Darstellung sind in 116B nur einige der Elemente von 116A abgebildet.
  • Die Zeit, die Licht benötigt, um sich von einem Objekt (z.B. dem ersten Objekt 11614) zu einem Sensorpixel 11620 (z.B. zum ersten Sensorpixel 116201 und/oder zum zweiten Sensorpixel 116202) zu bewegen, kann auf der Grundlage trigonometrischer Überlegungen bestimmt werden.
  • Als Beispiel kann der zweite Abstand, d2, zwischen dem ersten Objekt 11614 und dem zweiten Sensorpixel 116202 als Summe des ersten Abstands, d1, zwischen dem ersten Objekt 11614 und dem ersten Sensorpixel 116201 plus einem zusätzlichen Abstand, x, gesehen werden. In ähnlicher Weise kann der dritte Abstand, d3, zwischen dem zweiten Objekt 11616 und dem ersten Sensorpixel 116201 als Summe des vierten Abstands, d4, zwischen dem ersten Objekt 11614 und dem zweiten Sensorpixel 116202 plus einem zusätzlichen Abstand, w, gesehen werden.
  • Die Zeit, die das Licht benötigt, um von einem Objekt zu einem Sensorpixel 11620 zu gelangen, kann durch den Abstand vom Objekt zum Sensorpixel 11620, geteilt durch die Lichtgeschwindigkeit, bestimmt werden. Somit kann ein erstes Mal, td1=d1/c, und ein zweites Mal, td2=d2/c, definiert werden. In ähnlicher Weise kann ein drittes Mal, td3=d3/c, und ein viertes Mal, td4=d4/c, definiert werden. Die Zeit, die das Licht benötigt, um von einem Objekt zu einem Sensorpixel 11620 zu gelangen, kann sich von der Zeit unterscheiden, die das Licht vom Objekt zu einem anderen Sensorpixel 11620 benötigt. Die Zeitdifferenz kann durch die Zeitdauer bestimmt werden, die das Licht benötigt, um eine zusätzliche Strecke zwischen dem Objekt und dem Sensorpixel 11620 zurückzulegen. Zum Beispiel kann sich das erste Mal, td1, vom zweiten Mal, td2, durch die (z.B. zusätzliche) Zeit tx, die das Licht benötigt, um die zusätzliche Entfernung x zurückzulegen, unterscheiden. Das dritte Mal, td3, kann sich vom vierten Mal, td4, durch die (z.B. zusätzliche) Zeit tw, die das Licht benötigt, um die zusätzliche Entfernung w zurückzulegen, unterscheiden.
  • Die zusätzliche Zeit kann eine Zeitdifferenz zwischen einem Ereignis auf einem Sensor-Pixel 11620 und einem Ereignis auf einem anderen Sensor-Pixel 11620 sein oder darstellen. Die zusätzliche Zeit kann oder kann eine Zeitdifferenz zwischen der Erzeugung des Sensorpixelsignals 11622 von einem Sensorpixel 11620 und der Erzeugung des Sensorpixelsignals 11622 von einem anderen Sensorpixel 11620 sein oder darstellen.
  • Wie durch Gleichung (4r) beschrieben, kann die zusätzliche Zeit(en) (z.B. die Zeitdifferenz(en)) verwendet werden, um zu bestimmen, ob das empfangene Licht das Lichtsignal 11612 (z.B. Echolicht 11612r) oder Streulicht 11618 ist. Für den Fall, dass das empfangene Licht das Lichtsignal 11612 ist, kann die zusätzliche Zeit proportional zum Pixelabstand des Sensors, b, und dem Sinus des Abstrahlwinkels sein, α. Illustrativ kann eine erwartete zusätzliche Zeit (z.B.: die erwartete Zeitdifferenz) bestimmt werden basierend auf der Sensorpixeldistanz, b, und dem Abstrahlwinkel, α. Die Schaltung 11624 kann so konfiguriert werden, dass sie bestimmt, dass das empfangene Licht das Lichtsignal 11612 ist, falls die ermittelte (z.B. gemessene) Zusatzzeit tx im Wesentlichen der erwarteten Zusatzzeit entspricht (z.B. basierend auf dem aktuellen Emissionswinkel, α). Die Schaltung 11624 kann so konfiguriert werden, dass sie bestimmt, dass das empfangene Licht Streulicht 11618 (oder Umgebungslicht) ist, falls die ermittelte Zusatzzeit tW nicht der erwarteten Zusatzzeit entspricht. Beispielsweise kann die ermittelte Zusatzzeit als im wesentlichen der erwarteten Zusatzzeit entsprechend angesehen werden, wenn der Zeitunterschied zwischen der ermittelten Zusatzzeit und der erwarteten Zusatzzeit weniger als 30 ps, z.B. weniger als 20 ps, z.B. weniger als 10 ps, beträgt.
  • 117 zeigt die Pixelsignal-Auswahlschaltung 11624 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Die Schaltung 11624 kann eine Komparatorstufe 11702 aufweisen. Die Komparatorstufe 11702 kann mit einem oder mehreren Sensorpixeln 11620 gekoppelt sein (z.B. mit einem oder mehreren Subsensoren). Die Komparatorstufe 11702 kann so konfiguriert werden, dass sie das eine oder die mehreren Sensorpixelsignale 11622 empfängt. Die Komparatorstufe 11702 kann so konfiguriert werden, dass sie die empfangenen ein oder mehreren Sensorpixelsignale 11622 mit einem entsprechenden vordefinierten Schwellenwert L (z.B. einem Schwellenstrom, einer Schwellenspannung usw.) vergleicht. Die Komparatorstufe 11702 kann so konfiguriert werden, dass sie einen Komparatorausgang (z.B. einen oder mehrere Komparatorausgänge) liefert, der einem empfangenen Sensorpixelsignal 11622 auf der Grundlage des Vergleichs zugeordnet ist (z.B. für den Fall, dass das empfangene Sensorpixelsignal 11622 den entsprechenden vordefinierten Schwellenwert L überschreitet).
  • Die Komparatorstufe 11702 kann eine oder mehrere Komparatorschaltungen aufweisen (z.B. einen oder mehrere analoge Komparatoren). Jede Komparatorschaltung kann mit einem entsprechenden Sensorpixel 11620 gekoppelt sein (z.B. kann jede Komparatorschaltung so konfiguriert sein, dass sie das Sensorpixelsignal 11622 von einem damit gekoppelten Sensorpixel 11620 empfängt). Jede Komparatorschaltung kann so konfiguriert werden, dass sie das empfangene Sensorpixelsignal 11622 mit einem vordefinierten Schwellenwert L vergleicht (z.B. in Verbindung mit der Komparatorschaltung). Der vordefinierte Schwellenwert, L, kann für jede Komparatorschaltung derselbe sein. Alternativ können verschiedene Komparatorschaltungen unterschiedliche vordefinierte Schwellenwerte haben (z.B. in Abhängigkeit von der Position und/oder der Empfindlichkeit des jeweiligen mit der Komparatorschaltung gekoppelten Sensorpixels 11620). Jede Komparatorschaltung kann so konfiguriert werden, dass sie auf der Grundlage des Vergleichs einen Komparatorausgangswert liefert.
  • Als Beispiel kann die Schaltung 11624 eine erste Komparatorschaltung 117021 aufweisen. Die erste Komparatorschaltung 117021 kann mit dem ersten Sensorpixel 116201 gekoppelt werden. Die erste Komparatorschaltung 117021 kann so konfiguriert werden, dass sie das erste Sensorpixelsignal 116221 mit einem vordefinierten Schwellenwert L vergleicht, um einen ersten Komparatorausgangswert 117021o zu liefern. Die Schaltung 11624 kann eine zweite Komparatorschaltung 117022 aufweisen. Die zweite Komparatorschaltung 117022 kann mit dem zweiten Sensorpixel 116202 gekoppelt werden. Die zweite Komparatorschaltung 117022 kann so konfiguriert werden, dass sie das zweite Sensorpixelsignal 116222 mit einem vordefinierten Schwellenwert L vergleicht, um einen zweiten Komparatorausgangswert 117022o zu liefern.
  • Die Schaltung 11624 kann eine Wandlerstufe 11704 aufweisen. Die Wandlerstufe 11704 kann mit der Komparatorstufe 11702 gekoppelt werden. Die Wandlerstufe 11704 kann so konfiguriert werden, daß sie als ersten Eingang den Ausgang der Komparatorstufe 11702 empfängt (z.B. als einen oder mehrere erste Eingänge den einen oder die mehreren Komparatorausgänge). Die Wandlerstufe 11704 kann mit der Aussendung des Lichtsignals 11612 synchronisiert werden. Die Wandlerstufe 11704 kann so konfiguriert werden, dass sie als zweiten Eingang ein Signal (z.B. Trigger) empfängt, das die Aussendung des Lichtsignals 11612 anzeigt. Als Beispiel kann der zweite Eingang von der Lichtquelle 42 und/oder von der Abtasteinheit 11610 bereitgestellt werden (z.B. von einem oder mehreren Prozessoren, die mit der Lichtquelle 42 und/oder mit der Abtasteinheit 11610 gekoppelt sind). Die Konverterstufe 11704 (z.B. ein oder mehrere Konverter) kann so konfiguriert werden, dass sie beim Empfang des Triggersignals startet. Die Wandlerstufe kann so konfiguriert werden, daß sie bei Empfang des Komparatorausgangswertes stoppt. Die Wandlerstufe 11704 kann so konfiguriert werden, daß sie einen oder mehrere Ausgangswerte (z.B. einen oder mehrere Wandlerausgangswerte, z.B. einen oder mehrere Digitalwerte) liefert. Der Konverterausgangswert kann eine Zeitdifferenz zwischen dem ersten Eingang und dem zweiten Eingang sein oder darstellen. Illustrativ kann der Start und Stopp der Wandlerstufe als eine Reihe von einer oder mehreren (z.B. Teil-)Messungen verstanden werden. Die Wandlerstufe initiiert (startet) eine Messung beim Empfang des Triggersignals und liefert ein oder mehrere Ergebnisse auf der Grundlage des einen oder der mehreren ersten Eingänge. Für jeden empfangenen ersten Eingang kann ein Ausgangswert bereitgestellt werden, der die Zeitdifferenz zwischen dem Triggersignal und dem jeweiligen ersten Eingang darstellt. Im übertragenen Sinne kann dies als eine Reihe von Stoppuhr-Messungen ab dem Empfang des Triggersignals betrachtet werden.
  • Als Beispiel kann die Schaltung 11624 einen ersten Zeit(Time)-Digital-Konverter 117041 aufweisen. Der erste Zeit-Digital-Umsetzer 117041 kann mit der ersten Komparatorschaltung 117021 gekoppelt werden. Der erste Zeit-Digital-Umsetzer 117041 kann mit der Aussendung des Lichtsignals 11612 synchronisiert werden. Der erste Zeit-Digital-Konverter 117041 kann so konfiguriert werden, dass er einen ersten Ausgangswert 117041o liefert. Die Schaltung 11624 kann einen zweiten Zeit-Digital-Konverter 117042 aufweisen. Der zweite Zeit-Digital-Konverter 117042 kann mit der zweiten Komparatorschaltung 117022 gekoppelt werden. Der zweite Zeit-Digital-Konverter 117042 kann mit der Aussendung des Lichtsignals 11612 synchronisiert werden. Der zweite Zeit-Digitalwandler 117042 kann so konfiguriert werden, dass er einen zweiten Ausgangswert 117042o liefert. Illustrativ kann der erste Ausgangswert 117041o eine Zeitdifferenz zwischen der Erzeugung des Lichtsignals 11612 und der Erzeugung des ersten Sensorpixelsignals 116221 sein oder darstellen (z.B. zwischen der Erzeugung des Lichtsignals und einem Sensorpixel-Signalimpuls des ersten Sensorpixelsignals 116221). Der zweite Ausgabewert 117042o kann eine Zeitdifferenz zwischen der Erzeugung des Lichtsignals 11612 und dem zweiten Sensorpixelsignal 116222 sein oder darstellen (z.B. zwischen der Erzeugung des Lichtsignals und einem Sensorpixel-Signalimpuls des zweiten Sensorpixelsignals 116222).
  • Der Ausgang der Komparatorstufe 11702 und/oder der Ausgang der Wandlerstufe 11704 kann verwendet werden, um den einen oder mehrere Werte für die Laufzeit des Kandidaten zu bestimmen. Die Schaltung 11624 kann einen Prozessor 11706 aufweisen (z.B. einen Controller, wie z.B. einen Mikrocontroller). Der Prozessor 11706 kann so konfiguriert werden, dass er den einen oder die mehreren Werte auf der Grundlage des einen oder der mehreren Komparatorausgangswerte bestimmt. Als Beispiel kann der Prozessor 11706 so konfiguriert werden, dass er den ersten Wert auf der Grundlage des ersten Komparatorausgangswerts 117021o bestimmt. Der Prozessor 11706 kann so konfiguriert werden, dass er den zweiten Wert auf der Grundlage des zweiten Komparatorausgabewerts 117022o bestimmt. Der Prozessor 11706 kann so konfiguriert werden, dass er den einen oder mehrere Werte auf der Grundlage des einen oder der mehreren Konverterausgangswerte bestimmt. Als Beispiel kann der Prozessor 11706 so konfiguriert werden, dass er den ersten Wert auf der Grundlage des ersten Konverterausgangswerts 117041o bestimmt. Der Prozessor 11706 kann so konfiguriert werden, daß er den zweiten Wert auf der Grundlage des zweiten Konverterausgangswerts 117042o bestimmt.
  • Der Prozessor 11706 kann so konfiguriert werden, dass er Informationen über die Aussendung des Lichtsignals 11612 empfängt. Der Prozessor 11706 kann so konfiguriert werden, dass er den Wert des Abstrahlwinkels, α, empfängt (z.B. den Absolutwert und das Vorzeichen des Abstrahlwinkels, α). Zum Beispiel kann der Prozessor 11706 kommunikativ mit der Lichtquelle 42 und/oder mit der Abtasteinheit 11610 gekoppelt sein (z.B. mit einem oder mehreren Prozessoren, die mit der Lichtquelle 42 und/oder mit der Abtasteinheit 11610 gekoppelt sind).
  • Die Schaltung 11624 kann so konfiguriert werden, dass sie eine Amplitude des einen oder mehrerer Sensorpixelsignale 11622 bestimmt (z.B. eine Stromamplitude). Die Schaltung 11624 kann eine oder mehrere Spitzenwertdetektorschaltungen aufweisen. Jeder Spitzenwertdetektorschaltkreis kann mit einem entsprechenden Sensorpixel 11620 verbunden (z.B. gekoppelt) sein. Jede Spitzenwertdetektorschaltung kann so konfiguriert werden, dass sie eine Amplitude des Sensorpixelsignals 11622 bestimmt, das von dem damit gekoppelten Sensorpixel 11620 erzeugt wird (z.B. eine Amplitude von einem oder mehreren Sensorpixel-Signalimpulsen eines Sensorpixelsignals 11622). Der Prozessor 11706 kann so konfiguriert werden, dass er die eine oder mehrere Spitzenwertdetektorschaltungen steuert (z.B. aktiviert und/oder zurückgesetzt). Der Prozessor 11706 kann so konfiguriert werden, dass er den einen oder die mehreren Spitzenwertdetektorschaltkreise auf der Grundlage der Erfüllung des vordefinierten Kriteriums aktiviert. Der Prozessor 11706 kann so konfiguriert werden, dass er den einen oder die mehreren Spitzenwertdetektorschaltkreise nach jedem entsprechenden Sensorpixelsignal 11622 zurücksetzt.
  • Als Beispiel kann die Schaltung 11624 eine erste Spitzenwertdetektorschaltung 117081 aufweisen. Der erste Spitzenwertdetektorschaltkreis 117081 kann mit dem ersten Sensorpixel 116201 gekoppelt werden. Der erste Spitzenwertdetektorschaltkreis 117081 kann so konfiguriert werden, dass er eine Amplitude des ersten Sensorpixelsignals 116221 bestimmt. Der Schaltkreis 11624 kann einen zweiten Spitzenwertdetektorschaltkreis 117082 aufweisen. Der zweite Spitzenwertdetektorschaltkreis 117082 kann mit dem zweiten Sensorpixel 116202 gekoppelt werden. Der zweite Spitzenwertdetektorschaltkreis 117082 kann so konfiguriert werden, dass er eine Amplitude des zweiten Sensorpixelsignals 116222 bestimmt. Der Prozessor 11706 kann so konfiguriert werden, dass er den ersten Spitzenwertdetektorschaltkreis 117081 und/oder den zweiten Spitzenwertdetektorschaltkreis 117082 aktiviert, falls das vordefinierte Kriterium erfüllt ist (z.B. falls der erste Wert und der zweite Wert das vordefinierte Kriterium erfüllen).
  • Die Schaltung 11624 kann einen oder mehrere Wandler (z.B. einen oder mehrere Analog-Digital-Wandler) aufweisen, die so konfiguriert sind, dass sie das Ausgangssignal der einen oder mehreren Spitzenwertdetektorschaltungen in ein digitales Ausgangssignal umwandeln. Auf diese Weise kann der Ausgang der einen oder mehreren Spitzenwertdetektorschaltungen dem Prozessor 11706 zur Verfügung gestellt werden. Der Prozessor 11706 kann so konfiguriert werden, dass er den einen oder die mehreren Wandler auf der Grundlage der Erfüllung des vordefinierten Kriteriums aktiviert.
  • Als Beispiel kann die Schaltung 11624 einen ersten Analog-Digital-Wandler 117101 aufweisen. Der erste Analog-Digital-Wandler 117101 kann mit der ersten Spitzenwertdetektorschaltung 117081 gekoppelt werden (z.B. kann der erste Analog-Digital-Wandler 117101 so konfiguriert werden, daß er das Ausgangssignal der ersten Spitzenwertdetektorschaltung 117081 empfängt). Der erste Analog-Digital-Wandler 117101 kann so konfiguriert werden, daß er einen ersten digitalen Amplitudenwert an den Prozessor 11706 liefert. Die Schaltung 11624 kann einen zweiten Analog-Digital-Wandler 117102 aufweisen. Der zweite Analog-Digital-Wandler 117102 kann mit der zweiten Spitzenwertdetektorschaltung 117082 gekoppelt werden. Der zweite Analog-Digital-Wandler 117102 kann so konfiguriert werden, daß er einen zweiten digitalen Amplitudenwert an den Prozessor 11706 liefert. Der Prozessor 11706 kann so konfiguriert werden, daß er den ersten Analog-Digital-Wandler 117101 und/oder den zweiten Analog-Digital-Wandler 117102 aktiviert, falls das vordefinierte Kriterium erfüllt ist.
  • Die (z.B. ermittelte) Signalamplitude (z.B. die digitale Amplitude) kann verwendet werden, um den (die) Laufzeit-Kandidaten zu bestimmen. Der Prozessor 11706 kann so konfiguriert werden, dass er einen oder mehrere Werte für die Zeitüberschreitung des Kandidaten auf der Grundlage des einen oder der mehreren digitalen Amplitudenwerte bestimmt. Als Beispiel kann der Prozessor 11706 so konfiguriert werden, dass er den ersten Wert auf der Grundlage des ersten digitalen Amplitudenwertes bestimmt. Der Prozessor 11706 kann so konfiguriert werden, dass er den zweiten Wert basierend auf dem zweiten digitalen Amplitudenwert bestimmt.
  • 118 zeigt die Verarbeitung des ersten Sensorpixelsignals 116221 und des zweiten Sensorpixelsignals 116222 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Zum Beispiel kann das erste Sensorpixelsignal 116221 eine Vielzahl von Sensorpixel-Signalimpulsen aufweisen. Ein erster Sensorpixel-Signalimpuls 118021 und ein zweiter Sensorpixel-Signalimpuls 118022 können den vordefinierten Schwellenwert L überschreiten. Ein entsprechender erster Komparatorausgang 117021o kann in Übereinstimmung mit dem ersten Sensorpixel-Signalimpuls 118021 und dem zweiten Sensorpixel-Signalimpuls 118022 bereitgestellt werden. Beispielsweise kann der erste Komparatorausgang 117021o in Übereinstimmung mit dem ersten Sensorpixelsignalimpuls 118021 und dem zweiten Sensorpixelsignalimpuls 118022 von einem Basispegel auf einen vordefinierten Pegel wechseln (z.B. sobald und bis das erste Sensorpixelsignal 116221 den vordefinierten Schwellenwert L überschreitet). Die anderen Teile des ersten Sensorpixelsignals 116221 (z.B. andere Sensorpixel-Signalimpulse, Rauschen usw.) können unter dem Schwellenwert L liegen und führen daher möglicherweise nicht zu einem entsprechenden Komparatorausgang.
  • Zum Beispiel kann das zweite Sensorpixelsignal 116222 eine Vielzahl von Sensorpixel-Signalimpulsen aufweisen. Ein dritter Sensorpixel-Signalimpuls 118023, ein vierter Sensorpixel-Signalimpuls 118024 und ein fünfter Sensorpixel-Signalimpuls 118025 können den vordefinierten Schwellenwert L überschreiten. Ein entsprechender zweiter Komparatorausgang 117022o kann in Übereinstimmung mit diesen Sensorpixel-Signalimpulsen bereitgestellt werden.
  • Die Zeit-Digital-Konverter können eine Zeit für jeden der ersten bis fünften Sensorpixel-Signalimpulse bestimmen. Der erste Zeit-Digital-Konverter 117041 kann eine erste Zeit in Übereinstimmung mit dem ersten Sensorpixel-Signalimpuls 118021 (z.B. 6 in beliebigen Einheiten) und eine zweite Zeit in Übereinstimmung mit dem zweiten Sensorpixel-Signalimpuls 118022 (z.B. 14) bestimmen. Der zweite Zeit-Digital-Konverter 117041 kann ein drittes Mal in Übereinstimmung mit dem dritten Sensorpixel-Signalimpuls 118023 (z.B. 5), ein viertes Mal in Übereinstimmung mit dem vierten Sensorpixel-Signalimpuls 118024 (z.B. 10) und ein fünftes Mal in Übereinstimmung mit dem fünften Sensorpixel-Signalimpuls 118025 (z.B. 17) bestimmen.
  • Der Prozessor 11624 kann so konfiguriert werden, dass er jeden Sensorpixel-Signalimpuls des ersten Sensorpixelsignals 116221 mit jedem Sensorpixel-Signalimpuls des zweiten Sensorpixelsignals 116222 vergleicht. Der Prozessor 11624 kann so konfiguriert werden, dass er die Zeitdifferenz zwischen dem ersten Sensorpixel-Signalimpuls 118021 und jedem Sensorpixel-Signalimpuls des zweiten Sensorpixelsignals 116222 bestimmt (z.B. berechnet). Der Prozessor 11624 kann so konfiguriert werden, dass er die Zeitdifferenz zwischen dem zweiten Sensorpixel-Signalimpuls 118022 und jedem der Sensorpixel-Signalimpulse des zweiten Sensorpixelsignals 116222 bestimmt (z.B. berechnen). Der Prozessor 11624 kann so konfiguriert werden, dass er auf der Grundlage der jeweiligen Zeitdifferenz bestimmt, ob zwei Sensorpixel-Signalimpulse (z.B. einer des ersten Sensorpixelsignals 116221 und einer des zweiten Sensorpixelsignals 116222) mit dem Lichtsignal 11612 (z.B. mit dem Echolicht 11612r) verknüpft werden können.
  • Zum Beispiel kann der erste Sensorpixel-Signalimpuls 118021 mit Streulicht 11618 oder Umgebungslicht (z.B. Rauschsignal) assoziiert werden. Der erste Sensorpixel-Signalimpuls 118021 (z.B. der aus dem ersten Sensorpixel-Signalimpuls 118021 ermittelte Wert) kann daher das vordefinierte Kriterium nicht erfüllen (z.B. kann eine auf der Grundlage des ersten Sensorpixel-Signalimpulses 118021 ermittelte Zeitdifferenz von der erwarteten Zeitdifferenz abweichen). Der Prozessor 11624 kann daher so konfiguriert werden, dass der erste Sensorpixel-Signalimpuls 118021 als „nicht relevant“ oder „Rauschen“ klassifiziert wird.
  • Zum Beispiel kann der zweite Sensorpixel-Signalimpuls 118022 mit dem Lichtsignal 11612 assoziiert werden. Der dritte Sensorpixel-Signalimpuls 118023 und der vierte Sensorpixel-Signalimpuls 118024 können dem Streulicht 11618 zugeordnet werden. Der fünfte Sensorpixel-Signalimpuls 118025 kann dem Lichtsignal 11612 zugeordnet werden.
  • Der zweite Sensorpixel-Signalimpuls 118022 erfüllt daher möglicherweise nicht das vordefinierte Kriterium, wenn er in Kombination mit dem dritten Sensorpixel-Signalimpuls 118023 und/oder dem vierten Sensorpixel-Signalimpuls 118024 ausgewertet wird. Die jeweiligen Zeitdifferenzen können von der erwarteten Zeitdifferenz abweichen. Der zweite Sensorpixel-Signalimpuls 118022 kann in Kombination mit dem fünften Sensorpixel-Signalimpuls 118025 das vordefinierte Kriterium erfüllen. Die Zeitdifferenz zwischen dem zweiten Sensorpixel-Signalimpuls 118022 und dem fünften Sensorpixel-Signalimpuls 118025 kann im Wesentlichen der erwarteten Zeitdifferenz, tx, entsprechen (z.B. basierend auf dem Emissionswinkel, α). Der Prozessor 11624 kann daher so konfiguriert werden, dass er den zweiten Sensorpixel-Signalimpuls 118022 als „relevant“ oder „authentisch“ klassifiziert. Der Prozessor 11624 kann so konfiguriert werden, dass er eine Laufzeit auf der Grundlage des zweiten Sensorpixel-Signalimpulses 118022 bestimmt. Ein ähnlicher Prozess kann durchgeführt werden, indem der Vergleich vom zweiten Sensorpixelsignal 116222 aus gestartet wird (z.B. kann es möglich sein, eine Laufzeit basierend auf dem fünften Sensorpixelsignalpuls 118025 zu bestimmen).
  • 119 zeigt ein Diagramm 11900 zur Signalverarbeitung in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Der Prozessor 11624 kann so konfiguriert werden, dass er die Bestimmung (z.B. die Verifizierung) über eine Vielzahl von Lichtimpulsen durchführt (z.B. kann das Lichtsignal 11612 eine Vielzahl von Lichtimpulsen, z.B. von Laserimpulsen, aufweisen). Für jeden Lichtpuls kann ein entsprechendes Ereignis an einem Sensorpixel 11620 ausgelöst werden. Zur Veranschaulichung: Für jeden Lichtimpuls kann ein entsprechender Sensorpixel-Signalimpuls erzeugt werden (z.B. eine Vielzahl von Sensorpixel-Signalimpulsen im ersten Sensorpixelsignal 11622-1 und/oder im zweiten Sensorpixelsignal 11622-2). Der Prozessor 11624 kann so konfiguriert werden, dass er eine Vielzahl von Zeiten (z.B. eine Vielzahl von Laufzeiten) und/oder eine Vielzahl von Zeitdifferenzen bestimmt. Der Prozessor 11624 kann so konfiguriert werden, dass er die Zeit(en) oder die Zeitdifferenz(en) mit dem höchsten Vorkommen (z.B. der höchsten Frequenz) dem Lichtsignal 11612 zuordnet (z.B. die Zeit 5, in beliebigen Einheiten, im Diagramm 11900). Zur Veranschaulichung: Falls das Lichtsignal 11612 eine Vielzahl von Lichtimpulsen enthält, ist zu erwarten, dass viele „relevante“ Zeiten oder Zeitdifferenzen gemessen werden (z.B. mehr als bei den mit Streulicht verbundenen Sensorpixel-Signalimpulsen). Der Prozessor 11624 kann so konfiguriert werden, dass er die Sensorpixelsignale11622 (z.B. die Sensorpixel-Signalimpulse) auf der Grundlage der Häufigkeit des Ergebnisses eines Vergleichs zwischen einem jeweiligen ersten Wert und einem jeweiligen zweiten Wert klassifiziert. Der erste Wert kann für jeden Sensorpixel-Signalimpuls der Vielzahl der ersten Sensorpixel-Signalimpulse (z.B. des ersten Sensorpixelsignals 116221) sein. Der zweite Wert kann für jeden Sensorpixel-Signalimpuls der Vielzahl von zweiten Sensorpixel-Signalimpulsen (z.B. des zweiten Sensorpixelsignals 116222) sein.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1r ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Sensor aufweisen. Der Sensor kann ein erstes Sensorpixel aufweisen, das so konfiguriert ist, dass es ein erstes Sensorpixelsignal liefert. Der Sensor kann ein zweites Sensorpixel aufweisen, das in einem Abstand vom ersten Sensorpixel angeordnet und so konfiguriert ist, dass es ein zweites Sensorpixelsignal liefert. Der Sensor kann eine Pixelsignal-Auswahlschaltung aufweisen, die so konfiguriert ist, dass sie mindestens einen ersten Wert aus dem ersten Sensorpixelsignal bestimmt, der mindestens einen ersten Kandidaten für die Laufzeit eines von einer Lichtquelle ausgesandten und von dem ersten Sensorpixel empfangenen Lichtsignals darstellt. Die Pixelsignal-Auswahlschaltung kann so konfiguriert sein, dass sie mindestens einen zweiten Wert aus dem Pixelsignal des zweiten Sensors bestimmt, der mindestens eine zweite Kandidat-Laufzeit des von der Lichtquelle ausgesendeten und vom zweiten Sensorpixel empfangenen Lichtsignals repräsentiert. Die Pixelsignal-Auswahlschaltung kann so konfiguriert werden, dass sie überprüft, ob der mindestens eine erste Wert und der mindestens eine zweite Wert ein vordefiniertes Koinzidenzkriterium erfüllen.
    • In Beispiel 2r kann der Gegenstand von Beispiel 1r optional beinhalten, dass das zweite Sensorpixel in einem seitlichen Abstand vom ersten Sensorpixel angeordnet ist.
    • In Beispiel 3r kann der Gegenstand eines der Beispiele 1r oder 2r optional beinhalten, dass das erste Sensorpixelsignal eine Vielzahl von ersten Sensorpixel-Signalimpulsen enthält. Das zweite Sensorpixelsignal kann eine Vielzahl von zweiten Sensorpixel-Signalimpulsen aufweisen. Die Pixelsignal-Auswahlschaltung kann ferner so konfiguriert sein, dass sie einen ersten Wert für jeden ersten Sensorpixel-Signalimpuls der Vielzahl von ersten Sensorpixel-Signalimpulsen bestimmt und/oder einen zweiten Wert für jeden zweiten Sensorpixel-Signalimpuls der Vielzahl von zweiten Sensorpixel-Signalimpulsen bestimmt. Die Pixelsignal-Auswahlschaltung kann ferner konfiguriert werden, um zu verifizieren, ob der mindestens eine erste Wert und der mindestens eine zweite Wert ein vordefiniertes Koinzidenzkriterium erfüllen, indem ein jeweiliger erster Wert mit einer Vielzahl von zweiten Werten verglichen wird und/oder indem ein jeweiliger zweiter Wert mit einer Vielzahl von ersten Werten verglichen wird.
    • In Beispiel 4r kann der Gegenstand eines der Beispiele 1r bis 3r optional beinhalten, dass das vordefinierte Koinzidenzkriterium die Differenz zwischen einem ersten Ereignis am ersten Sensorpixel, das das erste Sensorpixelsignal auslöst, und einem zweiten Ereignis am zweiten Sensorpixel, das das zweite Sensorpixelsignal auslöst, beschreibt.
    • In Beispiel 5r kann der Gegenstand eines der Beispiele 3r oder 4r optional beinhalten, dass das vordefinierte Koinzidenzkriterium die Zeitdifferenz zwischen einem ersten Sensorpixel-Signalimpuls und einem zweiten Sensorpixel-Signalimpuls beschreibt.
    • In Beispiel 6r kann der Gegenstand eines der Beispiele 1r bis 5r optional beinhalten, dass der erste Wert die erste Kandidat-Laufzeit des von der Lichtquelle ausgesendeten und vom ersten Sensorpixel empfangenen Lichtsignals ist. Der zweite Wert kann die zweite Kandidat-Laufzeit des von der Lichtquelle ausgesendeten und vom zweiten Sensorpixel empfangenen Lichtsignals sein.
    • In Beispiel 7r kann der Gegenstand eines der Beispiele 1r bis 6r optional beinhalten, dass der Abstand mindestens 5 cm beträgt.
    • In Beispiel 8r kann der Gegenstand eines der Beispiele 1r bis 7r optional beinhalten, dass die Pixelsignal-Auswahlschaltung eine erste Komparatorschaltung enthält, die mit dem ersten Sensorpixel gekoppelt und so konfiguriert ist, dass sie das erste Sensorpixelsignal mit einem vordefinierten ersten Schwellenwert vergleicht, um einen ersten Komparatorausgabewert bereitzustellen. Die Pixelsignal-Auswahlschaltung kann ferner eine zweite Komparatorschaltung aufweisen, die mit dem zweiten Sensorpixel gekoppelt und so konfiguriert ist, dass sie das zweite Sensorpixelsignal mit einem vordefinierten zweiten Schwellenwert vergleicht, um einen zweiten Komparatorausgangswert bereitzustellen. Der Prozessor kann so konfiguriert werden, dass er den ersten Wert auf der Grundlage des Ausgangswerts des ersten Komparators bestimmt. Der Prozessor kann so konfiguriert werden, dass er den zweiten Wert auf der Grundlage des Ausgangswerts des zweiten Komparators bestimmt.
    • In Beispiel 9r kann der Gegenstand von Beispiel 8r optional beinhalten, dass die Pixelsignal-Auswahlschaltung ferner einen ersten Zeit-Digital-Wandler enthält, der mit der ersten Komparatorschaltung nachgeschaltet, mit der Emission des Lichtsignals synchronisiert und so konfiguriert ist, dass er einen ersten Ausgabewert liefert. Die Pixelsignal-Auswahlschaltung kann ferner einen zweiten Zeit-Digital-Wandler aufweisen, der stromabwärts mit der zweiten Komparatorschaltung gekoppelt und mit der Emission des Lichtsignals synchronisiert und so konfiguriert ist, dass er einen zweiten Ausgangswert liefert. Die Pixelsignal-Auswahlschaltung kann ferner einen Prozessor aufweisen, der so konfiguriert ist, dass er den ersten Wert auf der Grundlage des ersten Ausgangswertes bestimmt. Der Prozessor kann so konfiguriert werden, dass er den zweiten Wert auf der Grundlage des zweiten Ausgabewertes bestimmt.
    • In Beispiel 10r kann der Gegenstand eines der Beispiele 8r oder 9r optional beinhalten, dass der erste Schwellenwert gleich dem zweiten Schwellenwert ist.
    • In Beispiel 11r kann der Gegenstand eines der Beispiele 1r bis 10r optional beinhalten, dass das vordefinierte Koinzidenzkriterium unter Berücksichtigung eines Emissionswinkels des Lichtsignals in Bezug auf eine vordefinierte Richtung definiert wird.
    • In Beispiel 12r kann der Gegenstand von Beispiel 11r optional beinhalten, dass die vordefinierte Richtung die horizontale Richtung oder die vertikale Richtung ist.
    • In Beispiel 13r kann der Gegenstand eines der Beispiele 8r bis 12r optional beinhalten, dass die Pixelsignal-Auswahlschaltung ferner eine erste Spitzenwertdetektorschaltung enthält, die mit dem ersten Sensorpixel gekoppelt und so konfiguriert ist, dass sie eine Amplitude des ersten Sensorpixelsignals bestimmt. Der Pixelsignal-Auswahlschaltkreis kann ferner einen zweiten Spitzenwertdetektorschaltkreis aufweisen, der mit dem zweiten Sensorpixel gekoppelt und so konfiguriert ist, dass er eine Amplitude des zweiten Sensorpixelsignals bestimmt.
    • In Beispiel 14r kann der Gegenstand von Beispiel 13r optional beinhalten, dass der Prozessor so konfiguriert wird, dass er die erste Spitzenwertdetektorschaltung und/oder die zweite Spitzenwertdetektorschaltung aktiviert, wenn das vordefinierte Koinzidenzkriterium erfüllt ist.
    • In Beispiel 15r kann der Gegenstand eines der Beispiele 9r bis 14r optional beinhalten, dass die Pixelsignal-Auswahlschaltung ferner einen ersten Analog-Digital-Wandler enthält, der stromabwärts mit der ersten Spitzenwertdetektorschaltung gekoppelt ist, um dem Prozessor einen ersten digitalen Amplitudenwert zu liefern. Die Pixelsignal-Auswahlschaltung kann ferner einen zweiten Analog-Digital-Wandler aufweisen, der stromabwärts mit der zweiten Spitzenwertdetektorschaltung gekoppelt ist, um dem Prozessor einen zweiten digitalen Amplitudenwert zu liefern.
    • In Beispiel 16r kann der Gegenstand von Beispiel 15r optional beinhalten, dass der Prozessor so konfiguriert wird, dass er den ersten Analog-Digital-Wandler und/oder den zweiten Analog-Digital-Wandler aktiviert, wenn das vordefinierte Koinzidenzkriterium erfüllt ist.
    • In Beispiel 17r kann der Gegenstand eines der Beispiele 15r oder 16r optional beinhalten, dass der Prozessor so konfiguriert ist, dass er den ersten Wert auf der Grundlage des ersten digitalen Amplitudenwertes bestimmt. Der Prozessor kann so konfiguriert werden, dass er den zweiten Wert auf der Grundlage des zweiten digitalen Amplitudenwertes bestimmt.
    • In Beispiel 18r kann der Gegenstand eines der Beispiele 1r bis 17r optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich die Lichtquelle enthält, die für die Aussendung des Lichtsignals konfiguriert ist.
    • In Beispiel 19r kann der Gegenstand von Beispiel 18r optional beinhalten, dass die Lichtquelle mindestens eine Laserlichtquelle umfasst.
    • In Beispiel 20r kann der Gegenstand eines der Beispiele 18r oder 19r optional beinhalten, dass die Lichtquelle so konfiguriert ist, dass sie das Lichtsignal mit einer Vielzahl von Lichtimpulsen aussendet. Der Prozessor kann ferner so konfiguriert werden, dass er einen Laufzeitwert auf der Grundlage des mindestens einen ersten Wertes und des mindestens einen zweiten Wertes sowie des Verifikationsergebnisses bestimmt.
    • In Beispiel 21r kann der Gegenstand eines der Beispiele 1r bis 20r optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 22r kann der Gegenstand eines der Beispiele 11r bis 21r optional beinhalten, dass die vordefinierte Richtung die Abtastrichtung des LIDAR-Sensorsystems ist.
    • In Beispiel 23r kann der Gegenstand eines der Beispiele 1r bis 22r optional beinhalten, dass das erste Sensorpixel eine erste Fotodiode enthält. Das zweite Sensorpixel kann eine zweite Fotodiode aufweisen.
    • In Beispiel 24r kann der Gegenstand von Beispiel 23r optional beinhalten, dass die erste Fotodiode eine erste Pin-Fotodiode ist. Bei der zweiten Fotodiode kann es sich um eine zweite Pin-Fotodiode handeln.
    • In Beispiel 25r kann der Gegenstand von Beispiel 23r optional beinhalten, dass die erste Fotodiode eine erste Fotodiode ist, die auf Lawinenverstärkung basiert. Die zweite Fotodiode kann eine zweite Fotodiode auf der Basis von Lawinenverstärkung sein.
    • In Beispiel 26r kann der Gegenstand von Beispiel 25r optional beinhalten, dass die erste Fotodiode eine erste Lawinenfotodiode enthält. Die zweite Fotodiode kann eine zweite Lawinenfotodiode aufweisen.
    • In Beispiel 27r kann der Gegenstand von Beispiel 26r optional beinhalten, dass die erste Lawinenfotodiode eine erste Einzelphotonen-Lawinenfotodiode enthält. Die zweite Lawinenfotodiode kann eine zweite Einzelphotonen-Lawinenfotodiode aufweisen.
    • Beispiel 28r ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann ein erstes Sensorpixel umfassen, das ein erstes Sensorpixelsignal liefert. Das Verfahren kann ein zweites Sensorpixel umfassen, das in einem Abstand vom ersten Sensorpixel angeordnet ist, wobei das zweite Sensorpixel ein zweites Sensorpixelsignal liefert. Das Verfahren kann die Bestimmung mindestens eines ersten Wertes aus dem Signal des ersten Sensorpixels umfassen, der mindestens eine erste Kandidat-Laufzeit eines von einer Lichtquelle emittierten und von dem ersten Sensorpixel empfangenen Lichtsignals darstellt. Das Verfahren kann die Bestimmung mindestens eines zweiten Wertes aus dem zweiten Sensorpixelsignal umfassen, der mindestens eine zweite Kandidat-Laufzeit des von der Lichtquelle ausgesendeten und von dem zweiten Sensorpixel empfangenen Lichtsignals darstellt. Das Verfahren kann die Überprüfung einschließen, ob der mindestens eine erste Wert und der mindestens eine zweite Wert ein vordefiniertes Koinzidenzkriterium erfüllen.
    • In Beispiel 29r kann der Gegenstand von Beispiel 28r optional beinhalten, dass das zweite Sensorpixel in einem seitlichen Abstand vom ersten Sensorpixel angeordnet ist.
    • In Beispiel 30r kann der Gegenstand eines der Beispiele 28r oder 29r optional beinhalten, dass das erste Sensorpixelsignal eine Vielzahl von ersten Sensorpixel-Signalimpulsen enthält. Das zweite Sensorpixelsignal kann eine Vielzahl von zweiten Sensorpixel-Signalimpulsen aufweisen. Das Verfahren kann ferner die Bestimmung eines ersten Wertes für jeden ersten Sensorpixel-Signalimpuls der Vielzahl von ersten Sensorpixel-Signalimpulsen und/oder die Bestimmung eines zweiten Wertes für jeden zweiten Sensorpixel-Signalimpuls der Vielzahl von zweiten Sensorpixel-Signalimpulsen umfassen. Das Verfahren kann ferner das Verifizieren einschließen, ob der mindestens eine erste Wert und der mindestens eine zweite Wert ein vordefiniertes Koinzidenzkriterium erfüllen, indem ein jeweiliger erster Wert mit einer Vielzahl von zweiten Werten verglichen wird und/oder indem ein jeweiliger zweiter Wert mit einer Vielzahl von ersten Werten verglichen wird.
    • In Beispiel 31r kann der Gegenstand eines der Beispiele 28r bis 30r optional beinhalten, dass das vordefinierte Koinzidenzkriterium eine Differenz zwischen einem ersten Ereignis am ersten Sensorpixel, das das erste Sensorpixelsignal auslöst, und einem zweiten Ereignis am zweiten Sensorpixel, das das zweite Sensorpixelsignal auslöst, beschreibt.
    • In Beispiel 32r kann der Gegenstand eines der Beispiele 30r oder 31 optional beinhalten, dass das vordefinierte Koinzidenzkriterium die Zeitdifferenz zwischen einem ersten Sensorpixel-Signalimpuls und einem zweiten Sensorpixel-Signalimpuls beschreibt.
    • In Beispiel 33r kann der Gegenstand eines der Beispiele 28r bis 32r optional beinhalten, dass der erste Wert die erste Kandidat-Laufzeit des von der Lichtquelle ausgesendeten und vom ersten Sensorpixel empfangenen Lichtsignals ist. Der zweite Wert kann die zweite Kandidat-Laufzeit des von der Lichtquelle ausgesendeten und vom zweiten Sensorpixel empfangenen Lichtsignals sein.
    • In Beispiel 34r kann der Gegenstand eines der Beispiele 28r bis 33r optional beinhalten, dass der Abstand mindestens 5 cm beträgt.
    • In Beispiel 35r kann der Gegenstand eines der Beispiele 28r bis 34r optional beinhalten, dass das vordefinierte Koinzidenzkriterium unter Berücksichtigung eines Emissionswinkels des Lichtsignals in Bezug auf eine vordefinierte Richtung vordefiniert ist.
    • In Beispiel 36r kann der Gegenstand von Beispiel 35r optional beinhalten, dass die vordefinierte Richtung die horizontale Richtung oder die vertikale Richtung ist.
    • In Beispiel 37r kann der Gegenstand eines der Beispiele 35r oder 36r optional beinhalten, dass die Lichtquelle das Lichtsignal mit einer Vielzahl von Lichtimpulsen aussendet. Der Prozessor kann einen Laufzeitwert auf der Grundlage des mindestens einen ersten und des mindestens einen zweiten Wertes sowie des Verifikationsergebnisses bestimmen.
    • Beispiel 38r ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium umfasst sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems eines der Beispiele 1r bis 27r ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren eines der Beispiele 28r bis 37r auszuführen.
    • Beispiel 39r ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem eines beliebigen der oben genannten Verfahrensbeispiele ausführen kann.
  • Das LIDAR-Sensorsystem gemäß der vorliegenden Offenbarung kann mit einer LIDAR-Sensoreinrichtung zur Beleuchtung eines Umgebungsraumes kombiniert werden, die mit einer Lichtsteuereinheit verbunden ist.
  • Es sind etwa 1 Milliarde Autos, Lastwagen und Busse auf den Straßen unterwegs, mit einer jährlichen weltweiten Produktion von 70 bis 90 Millionen neuen Fahrzeugen. Allerdings ist nur ein winziger Bruchteil mit einem LIDAR-Sensor ausgestattet, was bedeutet, dass alle anderen Autos nicht in den Genuss der erhöhten Sicherheit kommen können, die sich aus solchen Distanzmessgeräten ergibt, die beispielsweise auf der Messung der Flugzeit/Laufzeit (time-of-flight, ToF) basieren.
  • Daher besteht ein Bedarf an einem LIDAR-Sensorsystem, das leicht an einem Fahrzeug montiert und einfach bedient werden kann, z.B. im Plug-and-Play-Verfahren. Ein solches LIDAR-Sensorsystem kann als Nachrüst-LIDAR-Sensorsystem bezeichnet werden. Darüber hinaus könnte ein solches System es einem Kunden sogar ermöglichen, es entsprechend den persönlichen Anforderungen zu personalisieren.
  • Es versteht sich von selbst, dass bestimmte Normen, z.B. Sicherheitsnormen und andere Vorschriften eingehalten werden müssen, z.B. dass das Gerät in einem bestimmten Temperaturbereich zuverlässig funktionieren und sicher montiert sein muss.
  • Es wird ferner davon ausgegangen, dass ein solches Nachrüst-LIDAR-Sensorgerät als tragbares Gerät funktionieren kann, das (in Bezug auf seine Form und sein Gewicht) als Handgerät konfiguriert werden kann, und somit z.B. als eigenständiges Gerät und nicht mit einem Auto verbunden sein oder eine Unterstützungsfunktion nutzen kann. Das tragbare Gerät kann z.B. ein Gewicht im Bereich von ca. 100 g bis ca. 1 kg haben, z.B. im Bereich von ca. 150 g bis ca. 500 g, z.B. im Bereich von ca. 200 g bis ca. 300 g. Das tragbare Gerät kann z.B. eine Größe (Breite * Länge * Dicke) im Bereich von ca. 3 cm bis ca. 20 cm (Breite) * ca. 3 cm bis ca. 20 cm (Länge) * ca. 0,5 cm bis ca. 5 cm (Dicke) haben. Andernfalls müssten dem System strenge Einschränkungen auferlegt werden, um Kompatibilitätsprobleme zu vermeiden, wenn eine solche nachrüstbare LIDAR-Sensoreinheit mit einer Vielzahl verschiedener Fahrzeugsensor- und Sicherheitsarchitekturen verschiedener Automobilhersteller verbunden wird. Darüber hinaus könnten Änderungen in zukünftigen Generationen von Fahrzeugsensor- und Sicherheitsarchitekturen, wie neue Hardware, neue Software oder einfach nur ein Software-Update, eine frühere Kompatibilität untergraben.
  • Es wird auch davon ausgegangen, dass die Fahrzeugvorschriften die Anbringung eines solchen Systems an der Außenseite verbieten können und dass die Anbringung an der Innenseite, zum Beispiel hinter der Windschutzscheibe (Windschutzscheibe) oder oben auf dem Armaturenbrett, vorteilhafte Anbringungspositionen sein können. Die Montageposition kann so gewählt werden, dass die LIDAR-Sensoreinrichtung von einer sauberen Scheibe profitiert, d.h. sie kann an einer Stelle angebracht werden, an der die Windschutzscheibe mit einem Scheibenwischer oder durch Heizelemente (Scheibenentfroster) gereinigt werden kann. Die Montage selbst kann einfach mit Hilfe einer Montagehalterung oder anderen bekannten Montagevorrichtungen erfolgen, die am Fahrzeug angebracht werden können. Je nach Fahrzeugtyp, z.B. in Bezug auf die Neigung der Windschutzscheibe oder die Länge der Motorhaube, können spezifische Montageanweisungen gegeben werden.
  • Standard-Autowindschutzscheiben weisen in der Regel laminierte oder gehärtete Glasmaterialien auf, die für sichtbares Licht (von ca. 380 nm bis ca. 780 nm) und zumindest im sehr nahen Infrarot-Wellenlängenbereich (von ca. 780 nm bis ca. 1100 nm) durchlässig sind und sich möglicherweise über diesen Bereich hinaus erstrecken. Eine Windschutzscheibe kann teilweise gefärbt sein, um unerwünschte Sonnenwärmestrahlung abzulenken.
  • Daher können sichtbare und infrarote LIDAR-Sensorgeräte hinter einer Windschutzscheibe (im Inneren des Fahrzeugs) montiert und mit spezifischen Wellenlängen wie 805 nm, 905 nm und 940 nm betrieben werden. Einige Frequenzen können bevorzugt werden, um Lasersicherheitsklassen zu erfüllen, zum Beispiel nach IEC 825.
  • Es wird auch verstanden, dass ein solches Nachrüst-LIDAR-Sensorgerät möglicherweise nicht alle Funktionen eines regulären, vollwertigen LIDAR-Systems bietet, da die Forderung nach einem eigenständigen Betrieb zu geringen Kosten das Gerät einschränken kann. Ein solches Nachrüst-LIDAR-Sensorgerät kann jedoch so konfiguriert werden, dass es eine anfängliche Kalibrierroutine zulässt und/oder ausführt, die entweder von einem Benutzer oder durch die Systemvorgabe initiiert wird, um z.B. die ordnungsgemäße mechanische Installation, die richtige Ausrichtung, die Einstellung der Laserleistung, die Funktion eines Scan-Systems, die Kommunikationsanschlüsse (Bluetooth, Wi-Fi), die GPS-Funktion, die grafische Benutzeroberfläche (GUI), den ordnungsgemäßen Betrieb des APP-Smartphones eines Benutzers und ähnliches zu überprüfen.
  • Das bedeutet, dass ein solches Nachrüst-LIDAR-Sensorgerät hauptsächlich als Entfernungsmessgerät und insbesondere als Laufzeitmessgerät innerhalb eines bestimmten (begrenzten) Beleuchtungsfelds (Field-of-Illumination, FOI) und Sichtfeld (FoV) dienen kann, zum Beispiel innerhalb eines azimutalen Winkelbereichs von 1° bis 6°, vielleicht bis zu 15° oder 30° und innerhalb eines bestimmten Elevationswinkels, zum Beispiel zwischen 3° und 10°. Dies würde immer noch ausreichen, um den Abstand zum vorausfahrenden Fahrzeug zu verfolgen, der für den Einsatz von Warn- und geeigneten Warnfunktionen für den Fahrer bereitgestellt werden kann. Es ist auch denkbar, dass die Nachrüst-LIDAR-Sensoreinrichtung so konfiguriert werden kann, dass sie eine Mikroabtastung durchführt, z.B. in einem Azimuthalbereich von 0,5° und mit einer Frequenz von 2 Hz, so dass Abstandsmessungen in einem Bereich von etwa 1 m bis etwa 200 m möglich sind.
  • Um vorausfahrende Fahrzeuge verfolgen zu können, sollte das nachrüstbare LIDAR-Sensorgerät in der Lage sein, Entfernungen in einem Bereich von etwa 10m bis 50m zu messen, möglicherweise auch darüber hinaus, wie bis zu 100m oder 150m.
  • Wie bereits erwähnt, sollte das vorgeschlagene nachrüstbare LIDAR-Sensorgerät auf eigenständiger Basis funktionieren, zumindest im Hinblick auf die Ausführung einer ToF-Funktion.
  • LIDAR-Sensorgeräte können eine Vielzahl von Detektions- und Messtechniken wie Blitz-, Scan- und hybride Sensorsysteme verwenden. Die Strahlsteuerung kann z.B. durch Techniken wie: Abtastspiegelsysteme, Abtastfasersysteme, OPA-Systeme (Optical Phase Array), die Verwendung von Flüssigkristall-Meta-Oberflächen (LCM) und andere erfolgen. Als Sensoren für sichtbare und infrarote Strahlung können Fotodioden wie Avalanche Photo Diodes (APD), Single Photon Avalanche Diodes (SPAD), Silicon Photomultiplier (SiPM) und ähnliches verwendet werden.
  • Es könnte vorteilhaft sein, wenn ein eigenständiges Nachrüst-LIDAR-Sensorgerät auch Informationen über seine eigene Fahrgeschwindigkeit liefern könnte, dies könnte jedoch die Messung der Geschwindigkeit der Kabine relativ zu einem festen Objekt, z.B. einem Wegweiser, erfordern. Obwohl prinzipiell möglich und daher nicht vom Anwendungsbereich dieser Offenbarung ausgeschlossen, könnte diese Funktion nur in einem hochentwickelteren Nachrüst-LIDAR-Sensorgerät möglich sein, das sowohl Abstand und Geschwindigkeit eines vorausfahrenden Fahrzeugs als auch die Geschwindigkeit des eigenen Fahrzeugs messen kann.
  • Das vorgeschlagene nachrüstbare LIDAR-Sensorgerät kann jedoch so konfiguriert werden, dass es nicht nur den Abstand zu einem vorausfahrenden Fahrzeug misst, sondern auch dessen Geschwindigkeit und Beschleunigung, z.B. wenn die gemessenen Abstandsdaten mit den GPS-Standorten des eigenen Fahrzeugs verglichen werden, und diese Informationen für die Steuerung des Fahrzeugs und für Fahrhinweise verwendet werden.
  • Es ist auch denkbar, dass die Nachrüst-LIDAR-Sensoreinrichtung so konfiguriert ist, dass sie auch den Abstand zu festen Objekten an der Seitenlinie, z.B. Straßen- oder Wegweiserpfosten, misst und aus diesen Informationen die Geschwindigkeit und/oder Beschleunigung des eigenen Fahrzeugs berechnet, da es mit einer solchen Nachrüst-LIDAR-Sensoreinrichtung ausgestattet ist.
  • Es ist weiterhin denkbar, dass das nachrüstbare LIDAR-Sensorgerät Informationen über seine Position, Geschwindigkeit und Beschleunigung von einer externen Quelle erhält, da es in einem Fahrzeug montiert ist, und diese Informationen für weitere Berechnungen und abgeleitete Aktionen, wie in dieser Offenbarung beschrieben, verwendet. Verschiedene Aspekte, welche Art von Informationen übertragen werden können und wie, werden hier näher beschrieben.
  • Ein bequemer Weg, die Fahrzeuggeschwindigkeit zu messen, ist die Verwendung einer GPS-Signalverbindung zu einem externen Gerät, wie z.B. einer GPS-Station oder einem GPS-Satelliten, das die Fahrzeugposition, die Änderung der Fahrzeugposition und damit die Fahrzeuggeschwindigkeit und/oder die Beschleunigung auf der Grundlage der Triangulation oder anderer Methoden liefern kann. Diese Informationen können mit Beschleunigungssensoren kombiniert werden, wie sie üblicherweise in Smartphones integriert sind. In verschiedenen Ausführungsformen wird vorgeschlagen, dass das offengelegte Nachrüstungs-LIDAR-Sensorgerät mit GPS-Kommunikationsfunktionen und optional auch mit einem Beschleunigungsmesser-Sensor verwendet wird. All dies kann in eine Kommunikationseinheit (Communication Unit, CU) eingebettet werden.
  • Um mit anderen Geräten kommunizieren zu können, kann das nachrüstbare LIDAR-Sensorgerät zusätzlich mit BLUETOOTH-Funktionen und/oder Wi-Fi-Funktionen ausgestattet werden. Auf diese Weise kann die Kommunikation mit externen Geräten wie einem Smartphone oder einem Autoradio hergestellt werden. Über solche (bidirektionalen) Kommunikationskanäle kann die nachrüstbare LIDAR-Sensoreinheit Zugang zu zusätzlichen Informationen erhalten, die von diesen externen Geräten bereitgestellt werden, z.B. über Wetterbedingungen, Verkehrsbedingungen und dergleichen. Da das Nachrüst-LIDAR-Sensorgerät mit dem Smartphone des Fahrers kommunizieren kann, können sowohl das Kamerabild als auch alle relevanten Neigungs- (Azimut und Elevation) und Gierwinkel übertragen und angezeigt werden.
  • Das Nachrüst-LIDAR-Sensorgerät kann auch mit anderen Sensoren ausgestattet sein, wie z.B. einem Temperatursensor, einem Umgebungslichtsensor, einem Neigungssensor zur Messung seines Neigungswinkels und einem Kamerasystem, einschließlich integrierter LIDAR-Kamerasysteme, z.B. mit einer oder mehreren übereinander angeordneten Fotodioden, wie ebenfalls hier beschrieben. Wie bereits erwähnt, kann der nachrüstbare LIDAR-Sensor mit dem Smartphone des Fahrers kommunizieren und Kamerabilder sowie alle relevanten Neigungs-(Azimut und Elevation) und Gierwinkel anzeigen. Prinzipiell kann es vorteilhaft sein, eine Halterung für ein Smartphone vorzusehen, das direkt an der Nachrüstungs-LIDAR-Sensoreinheit angebracht ist, um eine bekannte Positionsbeziehung zwischen Smartphone und Nachrüstungs-LIDAR-Sensoreinheit herzustellen.
  • Auf dem Smartphone des Fahrers und Beifahrers eines Fahrzeugs wäre eine Anwendungssoftware installiert (im Folgenden auch APP genannt), insbesondere so, wie sie von einem Benutzer auf ein mobiles Gerät heruntergeladen wird, das als graphische Benutzerschnittstelle (Graphical User Interface, GUI) dient.
  • Wie bereits beschrieben, misst das Nachrüst-LIDAR-Sensorgerät den Abstand und möglicherweise auch die Geschwindigkeit und Beschleunigung eines vorausfahrenden Fahrzeugs. In einer Ausführungsform liefert die LIDAR-Sensorik Retrofit nur Informationen über die gemessenen Abstandswerte, die z.B. auf dem Display eines angeschlossenen Smartphones angezeigt werden, z.B. als Farbe und/oder Text und/oder Symbol. In einer anderen Ausführungsform werden die gemessenen Abstandswerte vom Computersystem (siehe unten) auf der Grundlage eines Sicherheitsregelsystems ausgewertet, das die gemessenen Abstandswerte in Beziehung zu anderen gemessenen oder berechneten Daten oder zu gespeicherten Daten setzt, die alle für die Sicherheit des Fahrers relevant sind. Um aus einer solchen Messung die richtigen Maßnahmen abzuleiten, kann natürlich zuerst ein Sicherheitsregelungssystem angewendet werden. Das Sicherheitsregelsystem müsste eine Anfangseinstellung erhalten, die im Laufe der Zeit oder während der Fahrt angepasst werden kann und die es dem Sicherheitsregelsystem ermöglicht, angemessene Warnhandlungen durchzuführen.
  • Daher ist das Nachrüst-LIDAR-Sensorgerät mit einer Benutzerschnittstelle ausgestattet, z.B. mit einer grafischen Benutzeroberfläche (GUI), einem Tastenfeld, einem Mikrofon zur Sprachsteuerung, einem Lautsprecher und einem Display, das Farben, Symbole und Text anzeigen kann.
  • Eine solche Schnittstelle ermöglicht es dem Benutzer, sicherheitsrelevante Daten des Fahrzeugs, das die Nachrüst-LIDAR-Sensoreinrichtung verwendet, und/oder persönliche Daten einzugeben. Zu den Fahrzeugdaten können z.B. Fahrzeugtyp und -alter, Kilometerstand, Sommer- oder Winterreifen, Straßenzustand, Off-Road-Einstellungen, Zeit und geografische Einstellung gehören. Letztere können auch erforderlich sein, um zwischen Rechts- und Linksverkehr zu unterscheiden. Es versteht sich von selbst, dass Zeit- und geographische Daten auch über den GPS-Informationsaustausch gewonnen werden können. Persönliche Daten des Fahrers können Alter, Fahrhistorie, Fahrpraxis, medizinische oder gesundheitsbezogene Daten und ähnliches umfassen.
  • Solche Daten können eingegeben, per Sprache oder durch Hochladen einer Datendatei übertragen werden. Das nachrüstbare LIDAR-Sensorgerät ist so konfiguriert, dass es diese Informationen mit Hilfe seines Software-Management-Systems verarbeiten kann, das auch für die bidirektionale Kommunikation mit dem auf dem Smartphone des Benutzers installierten APP konfiguriert ist. Ein solches APP könnte vom Verkäufer des Nachrüstungs-LIDAR-Sensorgeräts entweder durch Kauf oder als Lizenz oder von Dritten, z.B. von einer zertifizierten Verkehrsmanagement-Organisation oder einem Kraftfahrt-Bundesamt (FMTA), bereitgestellt werden, wodurch sichergestellt wird, dass dieselben Sicherheitsstandards allgemein angewendet werden.
  • Wie bereits erwähnt, kann das nachrüstbare LIDAR-Sensorgerät mit Dateneingangs- und -ausgangsanschlüssen, einem Datenspeicherungs- und -abfragesystem, einem Computerprogrammgerät, das eine geeignete Software zur Datenanalyse und Datenverarbeitung betreibt, ausgestattet sein, und das auch so konfiguriert werden kann, dass es bidirektional mit der mitgelieferten Smartphone-Software APP kommuniziert. All dies kann Teil eines Steuerungs- und Kommunikationssystems sein, das zur Durchführung von Datenanalysen konfiguriert werden kann. Solche Datenanalysen können von der Computereinrichtung (Unit) des nachgerüsteten LIDAR-Sensorgeräts und/oder von der Smartphone-CPU (Central Processing Unit) des Benutzers zumindest unterstützend durchgeführt werden. Da das Smartphone des Benutzers seine eigenen Messwerte über Standort, Geschwindigkeit, Beschleunigung (positiv oder negativ) und Geräteausrichtung an das nachgerüstete LIDAR-Sensorgerät übermitteln kann, kann dieses diese Daten auch für seine eigenen Berechnungen verwenden. Das Smartphone APP kann eine solche Kommunikation und Datenübertragung erleichtern.
  • Die Datenanalyse würde es auch ermöglichen, festzustellen, ob ein Fahrzeug eine negative Beschleunigung (Bremsen) hat und/oder ob ein Fahrzeug eine Mindestgeschwindigkeitsschwelle nicht überschritten hat, und dann zu entscheiden, dass keine LIDAR-Funktionen ausgeführt (einstellbar durch Sicherheitseinstellungen) oder durchgeführt, aber nicht angezeigt oder per Ton mitgeteilt werden dürfen (wie oben beschrieben).
  • Das Software-Management-System ist so konfiguriert, dass es die vom ToF-Messsystem des Nachrüst-LIDAR-Sensorgeräts gelieferten Daten empfängt. Diese Eingabe kann den Abstand zum vorausfahrenden Fahrzeug und optional auch dessen Geschwindigkeit und/oder die Geschwindigkeit des eigenen Fahrzeugs umfassen.
  • Das Software-Management-System wird dann so konfiguriert (Soft- und Hardware), dass es in Abhängigkeit von den erhaltenen oben beschriebenen Fahrzeug-, Umwelt- und persönlichen Eingabedaten einen angemessenen Sicherheitsabstand zum vorausfahrenden Fahrzeug berechnet, zumindest soweit sie für die offiziellen Sicherheitsvorschriften relevant sind. Wenn das Nachrüst-LIDAR-Sensorgerät mit einer Geschwindigkeitsmesseinrichtung ausgestattet ist, kann zusätzlich auch die Eigengeschwindigkeit des Fahrzeugs als Eingangsdaten dienen.
  • Die Berechnung eines korrekten Sicherheitsabstands kann einen Vergleich der tatsächlichen Abstände und/oder der Fahrzeuggeschwindigkeit und/oder der Beschleunigung sowie anderer Eingabedaten des Benutzers (siehe oben) mit den Sicherheitsvorschriften umfassen, die in einer Datenbank der nachgerüsteten LIDAR-Sensoreinrichtung gespeichert sind oder die vom Benutzer APP und/oder anderen Eingabedaten mitgeteilt werden.
  • Zur Vereinfachung kann der Fahrer einfach einen Sicherheitsstufenwert (Einstellung) eingeben, entweder in das APP des Benutzers oder direkt in das Nachrüst-LIDAR-Sensorgerät.
  • Wenn eine Bedingung erfüllt ist, z.B. wenn der Abstand zum vorausfahrenden Fahrzeug ausreichend ist, kann der nachrüstbare LIDAR-Sensor direkt auf seiner GUI oder über das APP des Benutzers ein Symbol oder einen Farbcode auf einem Display anzeigen, z.B. einen Farbcode für eine grüne Farbe, der signalisiert, dass alles in Ordnung ist.
  • Im Gefahrenfall, d.h. wenn die berechnete oder gewählte Einstellung des Sicherheitsniveaus nicht erfüllt ist, kann ein Warnfarbcode (wie gelb oder rot) dargestellt werden, optional auch mit einem Warnton, z.B. direkt über einen Lautsprecher der nachrüstbaren LIDAR-Sensoreinrichtung, oder über das Smartphone oder das Autoradio, und so den Fahrer auf eine gefährliche Situation aufmerksam machen. Die angezeigten Farbcodes können mit zunehmender Häufigkeit blinkend dargestellt werden, wenn sich eine Gefahrensituation aufbaut. Die Anzeige der richtigen Warneinstellungen kann Teil einer Vorschrift sein. Beispielsweise kann eine gelbe Farbe anzeigen, dass eine gesetzliche Vorschrift nicht erfüllt ist, und eine blinkende rote Farbe kann anzeigen, dass die persönlichen (strengeren) Sicherheitseinstellungen eines Benutzers verletzt werden, was zu einer lebensbedrohlichen Situation führen kann.
  • Das Nachrüst-LIDAR-Sensorgerät kann auch mit einem Sonar-Sensorsystem, z.B. auf der Basis von Ultraschallwellen, ausgestattet sein, und es können ähnliche Mess- und Erkennungstechniken sowie Warneinstellungen angewendet werden.
  • Denkbar ist auch, dass das nachrüstbare LIDAR-Sensorgerät ein Authentifizierungsgerät wie einen Fingerabdrucksensor oder ein visuelles (Auge, Gesicht) Erkennungssystem enthält. Dies würde eine ordnungsgemäße Identifizierung des Fahrers und ein einfaches Abrufen bereits gespeicherter Informationen, wie persönliche Eingabedaten, bevorzugte Sicherheitseinstellungen, ausgewählte ethische Codes und ähnliches, ermöglichen.
  • Es wird davon ausgegangen, dass die gesamte Datenverarbeitung geeignete Verschlüsselungsmethoden beinhalten kann.
  • Da der Betrieb eines solchen vorgeschlagenen Nachrüst-LIDAR-Sensorgeräts elektrische Energie benötigt, kann das Nachrüst-LIDAR-Sensorgerät mit wiederaufladbaren Batterien ausgestattet sein, an Strombänke angeschlossen werden, an eine Kfz-Ladestation (12V, 24V) oder ähnliches angeschlossen werden.
  • Natürlich wäre es das Ziel, das vorgeschlagene Nachrüstungs-LIDAR-Sensorgerät so leicht und energieeffizient wie möglich zu machen und z.B. ähnliche Techniken zu verwenden, wie sie bereits für Nachrüstungs-LIDAR-Sensorgeräte in Drohnen oder anderen unbemannten Luftfahrzeugen (UAV) oder transportablen Robotersystemen eingesetzt werden.
  • Der Energieverbrauch kann einen begrenzenden Faktor für das autonome Fahren von Elektrofahrzeugen darstellen. Es gibt eine ganze Reihe von energieverbrauchenden Geräten wie Sensoren, z.B. RADAR, LIDAR, Kamera, Ultraschall, Globales Navigationssatellitensystem (GNSS/GPS), Sensorfusionsgeräte, Verarbeitungsleistung, mobile Unterhaltungsgeräte, Heizung, Lüfter, Heizung, Lüftung und Klimaanlage (HVAC), Car-to-Car (C2C) und Car-to-Environment (C2X) Kommunikation, Datenverschlüsselung und -entschlüsselung und viele mehr, die alle zu einem hohen Energieverbrauch führen. Insbesondere Datenverarbeitungseinheiten sind sehr stromhungrig. Daher ist es möglich, alle Geräte zu optimieren und solche Geräte auf intelligente Weise zu nutzen, so dass eine höhere Batterielaufleistung aufrechterhalten werden kann.
  • 1 zeigt schematisch eine Ausgestaltung des vorgeschlagenen Nachrüstungs-LIDAR-Sensorsystems, des gesteuerten Nachrüstungs-LIDAR-Sensorsystems und des Nachrüstungs-LIDAR-Sensorgeräts.
  • Das nachrüstbare LIDAR-Sensorsystem 10 kann ein erstes LIDAR-Sensorsystem 40 aufweisen, das eine Lichtquelle 42 aufweisen kann, die so konfiguriert ist, dass sie elektromagnetische oder andere Strahlung 120 aussendet, z.B. eine Dauerstrich- oder gepulste Laserstrahlung im sichtbaren und/oder infraroten Wellenlängenbereich, einen Lichtquellen-Controller 43 und zugehörige Software, Strahlführungs- und Modulationsvorrichtungen 41, e.z. B. Lichtlenk- und Reflexionsvorrichtungen, z. B. Mikromechanische Spiegelsysteme MEMS, mit einer zugehörigen Steuereinheit 150, optische Komponenten 80, z. B. Linsen und/oder holographische Elemente, ein LIDAR-Sensormanagementsystem 90, das so konfiguriert ist, dass es Ein- und Ausgabedaten verwaltet, die für den ordnungsgemäßen Betrieb des ersten LIDAR-Sensorsystems 40 erforderlich sind.
  • Das Erste LIDAR-Sensorsystem 40 kann mit anderen LIDAR-Sensorsystemgeräten verbunden werden, z.B. mit einem Steuerungs- und Kommunikationssystem 70, das so konfiguriert ist, dass es Eingangs- und Ausgangsdaten verwaltet, die für den ordnungsgemäßen Betrieb des Ersten LIDAR-Sensorsystems 40 erforderlich sind.
  • Das nachrüstbare LIDAR-Sensorsystem 10 kann ein zweites LIDAR-Sensorsystem 50 aufweisen, das für den Empfang und die Messung elektromagnetischer oder anderer Strahlung konfiguriert ist und eine Vielzahl von Sensoren 52 und Sensor-Controller 53 verwendet.
  • Das zweite LIDAR-Sensorsystem kann Detektionsoptiken 82 sowie Aktoren für die Strahlsteuerung und -kontrolle 51 umfassen.
  • Das nachrüstbare LIDAR-Sensorsystem 10 kann ferner ein LIDAR-Datenverarbeitungssystem 60 aufweisen, das die Signalverarbeitung 61, die Datenanalyse und -berechnung 62, die Sensorfusion und andere Sensorfunktionen 63 durchführt. Auch hier kann, wie bereits zuvor beschrieben, die Datenverarbeitung, Datenanalyse und -berechnung zumindest unterstützend mit Hilfe der CPU des angeschlossenen Smartphones oder jedes anderen geeigneten und angeschlossenen Geräts einschließlich aller cloudbasierten Dienste erfolgen.
  • Das nachrüstbare LIDAR-Sensorsystem 10 kann ferner ein Steuer- und Kommunikationssystem 70 aufweisen, das eine Vielzahl von Signalen und Steuerdaten 160 empfängt und ausgibt und als Gateway zwischen verschiedenen Funktionen und Geräten des LIDAR-Sensorsystems 10 und/oder zu anderen ewigen Geräten, wie einem Smartphone, einem GPS-Sender und -Empfänger, einem Funksystem und dergleichen dient.
  • Das nachrüstbare LIDAR-Sensorsystem 10 kann ferner ein oder mehrere Kamerasysteme 81 aufweisen, die entweder in den LIDAR-Sensor 52 integriert sind, einzeln oder in Kombination mit einer anderen Komponente des LIDAR-Sensorsystems 10 oder in eine andere Komponente des LIDAR-Sensorsystems 10 eingebettet sind und mit verschiedenen anderen Geräten datentechnisch verbunden sind, wie z.B. mit Komponenten des zweiten LIDAR-Sensorsystems 50 oder mit Komponenten des LIDAR-Datenverarbeitungssystems 60 oder mit dem Steuerungs- und Kommunikationssystem 70.
  • Das nachrüstbare LIDAR-Sensorsystem 10 kann in ein LIDAR-Sensorgerät 30 integriert oder eingebettet werden, zum Beispiel in ein Gehäuse, ein Fahrzeug, einen Fahrzeugscheinwerfer.
  • Das gesteuerte LIDAR-Sensorsystem 20 ist so konfiguriert, dass es das LIDAR-Sensorsystem 10 und seine verschiedenen Komponenten und Geräte steuert und die Navigation des LIDAR-Sensorsystems 30 durchführt oder zumindest unterstützt. Das Gesteuerte LIDAR-Sensorsystem 20 kann ferner so konfiguriert werden, dass es z.B. mit einem anderen Fahrzeug oder einem Kommunikationsnetzwerk kommuniziert und so die Navigation der LIDAR-Sensoreinrichtung 30 unterstützt.
  • Wie oben erläutert, ist das nachrüstbare LIDAR-Sensorsystem 10 so konfiguriert, dass es elektromagnetische oder andere Strahlung aussendet, um die Umgebung 100 auf andere Objekte wie Autos, Fußgänger, Straßenschilder und Straßenhindernisse zu untersuchen. Das LIDAR-Sensorsystem 10 ist ferner so konfiguriert, dass es elektromagnetische oder andere Arten von objektreflektierter oder objektsender Strahlung 130, aber auch andere erwünschte oder unerwünschte elektromagnetische Strahlung 140 empfängt und misst, um Signale 110 zu erzeugen, die für die Umgebungskartierung verwendet werden können, wobei in der Regel eine Punktwolke erzeugt wird, die repräsentativ für die erfassten Objekte ist.
  • Verschiedene Komponenten des gesteuerten LIDAR-Sensorsystems 20 verwenden andere Komponenten oder Software 150, um die Signalerkennung und -verarbeitung sowie die Signalanalyse durchzuführen. Dieser Prozess kann die Verwendung von Signalinformationen beinhalten, die von anderen Sensorgeräten stammen. Bei diesen Sensoren kann es sich um interne Sensoren des vorgeschlagenen nachrüstbaren LIDAR-Sensorsystems oder um externe, z.B. die Sensoren eines angeschlossenen Smartphones oder die des Fahrzeugs handeln.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1l ist ein LIDAR-Sensorgerät. Die LIDAR-Sensorvorrichtung kann ein tragbares Gehäuse, einen LIDAR-Sendeteil, einen LIDAR-Empfangsteil und eine Schnittstelle umfassen, die so konfiguriert ist, dass sie die LIDAR-Sensorvorrichtung mit einem Steuer- und Kommunikationssystem eines LIDAR-Sensorsystems verbindet und eine Kommunikationsverbindung mit dem Steuer- und Kommunikationssystem herstellt.
    • In Beispiel 2l kann der Gegenstand von Beispiel 1l optional beinhalten, dass das tragbare Gehäuse als Handheld-Gehäuse konfiguriert wird.
    • In Beispiel 3l kann der Gegenstand eines jeden der Beispiele 1l oder 2l optional beinhalten, dass die Schnittstelle eine Benutzerschnittstelle enthält.
    • In Beispiel 4l kann der Gegenstand von Beispiel 3l optional beinhalten, dass die Benutzeroberfläche eine grafische Benutzeroberfläche enthält.
    • In Beispiel 5l kann der Gegenstand eines der Beispiele 1l bis 4l optional beinhalten, dass das Steuerungs- und Kommunikationssystem eine grafische Benutzeroberfläche enthält, die so konfiguriert ist, dass sie über die Benutzeroberfläche mit dem LIDAR-Sensorgerät kommuniziert.
    • In Beispiel 6l kann der Gegenstand eines jeden der Beispiele 1l bis 5l optional beinhalten, dass das Steuer- und Kommunikationssystem ein Kommunikationsendgerät umfasst. Das Kommunikationsendgerät umfasst eine grafische Benutzeroberfläche, die so konfiguriert ist, dass sie über die Benutzeroberfläche mit dem LIDAR-Sensorgerät kommuniziert.
    • In Beispiel 7l kann der Gegenstand eines jeden der Beispiele 1l bis 6l optional beinhalten, dass das LIDAR-Sensorgerät als eigenständiges Gerät konfiguriert wird.
    • In Beispiel 8l kann der Gegenstand eines jeden der Beispiele 1l bis 7l optional beinhalten, dass die LIDAR-Sensoreinrichtung zusätzlich eine Kommunikationsschnittstelle enthält, die so konfiguriert ist, dass sie eine Kommunikation mit einem Fahrzeug ermöglicht.
    • In Beispiel 9l kann der Gegenstand eines der Beispiele 1l bis 8l optional beinhalten, dass das Steuer- und Kommunikationssystem so konfiguriert ist, dass es eine Kalibrierroutine implementiert, die so konfiguriert ist, dass sie den LIDAR-Sendeteil und/oder den LIDAR-Empfangsteil kalibriert.
    • In Beispiel 10l kann der Gegenstand eines jeden der Beispiele 1l bis 9l optional beinhalten, dass der LIDAR-Empfangsteil einen Sensor und einen Sensor-Controller enthält, die zur Steuerung des Sensors konfiguriert sind.
    • In Beispiel 111 kann der Gegenstand von Beispiel 101 optional beinhalten, dass der Sensor mindestens eine Fotodiode enthält.
    • In Beispiel 121 kann der Gegenstand eines jeden der Beispiele 1l bis 111 optional beinhalten, dass das LIDAR-Steuerungs- und Kommunikationssystem so konfiguriert ist, dass es als Reaktion auf das Eintreten eines vordefinierten Ereignisses ein oder mehrere Warnsignale erzeugt.
    • Beispiel 131 ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann ein LIDAR-Sensorgerät von einem der Beispiele 1l bis 121 und ein mit dem LIDAR-Sensorgerät gekoppeltes LIDAR-Regel- und Kommunikationssystem umfassen.
    • In Beispiel 141 kann der Gegenstand von Beispiel 131 optional beinhalten, dass das LIDAR-Sensorsystem ferner ein Kommunikationsendgerät enthält, das zur Implementierung des LIDAR-Steuerungs- und Kommunikationssystems konfiguriert ist.
    • In Beispiel 151 kann der Gegenstand von Beispiel 141 optional beinhalten, dass das Kommunikationsendgerät ein mobiles Kommunikationsendgerät enthält.
    • In Beispiel 161 kann der Gegenstand von Beispiel 151 optional beinhalten, dass das mobile Kommunikationsendgerät ein Smartphone enthält.
    • In Beispiel 171 kann der Gegenstand eines jeden der Beispiele 131 bis 161 optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich eine Datenbank enthält, in der Sicherheitseinstellungen des LIDAR-Sensorsystems gespeichert sind.
    • Beispiel 181 ist ein Verfahren zur Steuerung eines LIDAR-Sensorgeräts. Die LIDAR-Sensorvorrichtung kann ein tragbares Gehäuse, einen LIDAR-Sendeteil, einen LIDAR-Empfangsteil und eine Schnittstelle umfassen, die so konfiguriert ist, dass sie die LIDAR-Sensorvorrichtung mit einem Steuer- und Kommunikationssystem eines LIDAR-Sensorsystems verbindet und eine Kommunikationsverbindung mit dem Steuer- und Kommunikationssystem herstellt. Das Verfahren kann das Steuer- und Kommunikationssystem umfassen, das den LIDAR-Sendeteil und/oder den LIDAR-Empfangsteil über die Benutzerschnittstelle steuert.
    • In Beispiel 191 kann der Gegenstand von Beispiel 181 optional beinhalten, dass das tragbare Gehäuse als Handheld-Gehäuse konfiguriert wird.
    • In Beispiel 201 kann der Gegenstand eines jeden der Beispiele 181 oder 191 optional beinhalten, dass die Schnittstelle eine Benutzerschnittstelle enthält.
    • In Beispiel 211 kann der Gegenstand von Beispiel 201 optional beinhalten, dass die Benutzeroberfläche eine grafische Benutzeroberfläche enthält.
    • In Beispiel 221 kann der Gegenstand eines der Beispiele 181 bis 211 optional beinhalten, dass das Steuerungs- und Kommunikationssystem eine grafische Benutzeroberfläche enthält, die so konfiguriert ist, dass sie über die Benutzeroberfläche mit dem LIDAR-Sensorgerät kommuniziert.
    • In Beispiel 231 kann der Gegenstand eines jeden der Beispiele 181 bis 221 optional beinhalten, dass das Steuer- und Kommunikationssystem ein Kommunikationsendgerät umfasst. Eine grafische Benutzerschnittstelle des Kommunikationsendgerätes kommuniziert über die Benutzerschnittstelle mit dem LIDAR-Sensorgerät.
    • In Beispiel 241 kann der Gegenstand eines der Beispiele 181 bis 231 optional beinhalten, dass das Verfahren weiterhin eine Kommunikationsschnittstelle für die Kommunikation mit einem Fahrzeug beinhaltet.
    • In Beispiel 251 kann der Gegenstand eines der Beispiele 181 bis 241 optional beinhalten, dass das Steuer- und Kommunikationssystem eine Kalibrierroutine durchführt, die so konfiguriert ist, dass sie den LIDAR-Sendeteil und/oder den LIDAR-Empfangsteil kalibriert.
    • In Beispiel 261 kann der Gegenstand eines jeden der Beispiele 181 bis 251 optional beinhalten, dass der LIDAR-Empfangsteil einen Sensor und einen Sensor-Controller enthält, der den Sensor steuert.
    • In Beispiel 27I kann der Gegenstand von Beispiel 26I optional beinhalten, dass der Sensor mindestens eine Fotodiode enthält.
    • In Beispiel 28I kann der Gegenstand eines jeden der Beispiele 181 bis 271 optional beinhalten, dass das LIDAR-Steuerungs- und Kommunikationssystem als Reaktion auf das Eintreten eines vordefinierten Ereignisses ein oder mehrere Warnsignale erzeugt.
    • Beispiel 29I ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann ein Verfahren von einem der Beispiele 181 bis 281 und ein LIDAR-Steuer- und Kommunikationssystem, das die LIDAR-Sensorvorrichtung steuert, umfassen.
    • In Beispiel 301 kann der Gegenstand von Beispiel 29I optional beinhalten, dass das Verfahren ferner ein Kommunikationsendgerät umfasst, das das LIDAR-Steuerungs- und Kommunikationssystem implementiert.
    • In Beispiel 311 kann der Gegenstand von Beispiel 301 optional beinhalten, dass das Kommunikationsendgerät ein mobiles Kommunikationsendgerät enthält.
    • In Beispiel 32I kann der Gegenstand von Beispiel 311 optional beinhalten, dass das mobile Kommunikationsendgerät ein Smartphone enthält.
    • In Beispiel 331 kann der Gegenstand eines der Beispiele 291 bis 321 optional beinhalten, dass das Verfahren ferner eine Datenbank zur Speicherung von Sicherheitseinstellungen des LIDAR-Sensorsystems umfasst.
    • Beispiel 34I ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorgeräts gemäß einem der Beispiele 1I bis 12I ausgeführt werden, das LIDAR-Sensorgerät veranlassen, das Verfahren gemäß einem der Ansprüche 18I bis 28I auszuführen.
    • Beispiel 35I ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems nach einem der Beispiele 131 bis 171 ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren nach einem der Ansprüche 291 bis 331 auszuführen.
    • Beispiel 36I ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorgerät nach einem der obigen Beispiele für ein LIDAR-Sensorgerät nach einem der obigen Beispiele für ein LIDAR-Sensorgerät ausführt.
    • Beispiel 371 ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht-transitorischen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem nach einem der oben genannten Verfahrensbeispiele, ein LIDAR-Sensorsystem nach einem der oben genannten LIDAR-Sensorsystembeispiele ausführen kann.
  • Ein optischer Entfernungsmesser oder ein optisches Entfernungsmesssystem kann auf direkten Laufzeit-Messungen basieren. Die Laufzeit kann direkt gemessen werden, z.B. durch Berücksichtigung (z.B. Messung) der Zeit zwischen einem gesendeten Impuls und einem damit verbundenen empfangenen Impuls. Die Laufzeit kann indirekt gemessen werden, wobei ein Zwischenmaß (z.B. eine Phasenverschiebung eines modulierten Signals) zur Messung oder Berechnung der Laufzeiten verwendet werden kann. Ein direkter Laufzeit-Sensor oder eine direktes Laufzeit-System (z.B. ein Sensorsystem) kann nach einem vordefinierten Abtastschema realisiert werden. Ein optisches Entfernungsmesssystem kann z.B. ein Blitz-LIDAR mit diffusiver Emission oder Mehrstrahlemission sein. Als weiteres Beispiel kann ein optisches Entfernungsmesssystem ein scannendes LIDAR sein. Das scannende LIDAR kann z.B. einen mechanisch drehenden Kopf aufweisen. Ein scannendes LIDAR mit einem mechanisch drehenden Kopf kann mehrere bewegliche Komponenten aufweisen, wodurch ein ziemlich großes, teures und langsames System entsteht. Zusätzlich oder alternativ kann das Scan-LIDAR einen MEMS-Spiegel aufweisen, z.B. einen 1D- oder 2D-Scan-Spiegel. Ein Scan-LIDAR mit einem MEMS-Spiegel kann billiger sein als ein Scan-LIDAR mit einem mechanisch drehenden Kopf, aber es kann immer noch recht langsam sein. Als weiteres Beispiel kann ein optisches Ranging-System auf einem hybriden Ansatz basieren, z.B. kann es als HybridFlash-System konfiguriert werden, bei dem das Scannen spalten oder zeilenweise erfolgen kann.
  • Ein herkömmlicher optischer Entfernungsmesser oder ein herkömmliches optisches Entfernungsmesssystem ist möglicherweise nicht sehr flexibel und ein oder mehrere relevante Parameter sind möglicherweise nicht anpassbar, z. B. auf der Grundlage einer aktuellen Fahrsituation (z. B. Fahrsituation, Verkehrsdichte, Umgebungsbedingungen usw.). Solche Parameter können z.B. die Bildaufnahmerate sein, die durch die MEMS-Spiegelresonanzfrequenz definiert werden kann, die Auflösung, die durch die Detektorauflösung definiert werden kann, und das Signal-Rausch-Verhältnis (SNR), das durch die Detektorpixelgröße definiert werden kann. Solche Parameter dürfen während der Laufzeit nicht angepasst werden. Darüber hinaus dürfen solche Parameter nicht lokal über das Sichtfeld (FOV) des optischen Entfernungsmesssystems angepasst werden.
  • Ein konventioneller Detektor kann ein 1D-Array oder ein 2D-Array mit einer gegebenen Anzahl von Detektorpixeln aufweisen. Das Signal von jedem Detektorpixel kann individuell verstärkt und digitalisiert werden. Alternativ können die Signale von den verschiedenen Detektorpixeln gemultiplext werden. Das Multiplexen kann zu Rauschen und anderen Beeinträchtigungen des Übersprechens führen. Ein Detektorarray für hohe Auflösung kann teuer sein und mit komplexer Elektronik verbunden sein. Darüber hinaus kann ein Detektorarray aufgrund eines Füllfaktors von weniger als 1 Übersprechbeeinträchtigungen und/oder einen niedrigen Wirkungsgrad aufweisen. Es kann eine spezielle Abbildungsoptik bereitgestellt werden (z.B. um Licht auf den Detektor zu lenken). Solche spezifischen Abbildungsoptiken können aufgrund der Größe und der erforderlichen Präzisionsmontage teuer sein.
  • Auf der Emitterseite kann ein konventionelles optisches Entfernungsmesssystem einen kantenemittierenden Laser aufweisen, z.B. eine einzelne Laserdiode oder ein Line-Array. Der kantenemittierende Laser kann mit einem Abtastmechanismus kombiniert werden. Alternativ kann ein optisches Ranging-System einen oberflächenemittierenden Laser mit vertikalem Resonator (VCSEL) aufweisen, z.B. kann ein optisches Ranging-System ein VCSEL-basierter LIDAR sein, der einen einfachen Säulenscan durchführt.
  • Ein VCSEL-Array kann aus einem einzigen Werkzeug mit individueller Steuerung hergestellt werden (z.B. kann ein 2DVCSEL-Array leicht hergestellt werden). VCSEL-Pixel können monolithisch auf einem gemeinsamen Substrat gezüchtet werden, wodurch hohe laterale Genauigkeiten erzielt werden können. Im Vergleich zu einem kantenemittierenden Laser kann ein VCSEL-Array ohne einen Nimm-und-Platziere (Pick-and-Place)-Prozess hergestellt werden. Ein VCSEL-Array kann ohne Ausrichtung zwischen einzelnen Laserpunkten hergestellt werden. Für die Herstellung eines VCSEL-Arrays können kostengünstige Zwischenprüfungen und/oder Prüfungen während der Produktion vorgesehen werden. Ein VCSEL (z.B. ein Singlemode- oder ein Multimode-VCSEL) kann eine schmale Linienbreite (z.B. eine halbe maximale Spektralbreite über die gesamte Breite kleiner als 1 nm) mit sehr geringer Temperaturverschiebung (z.B. ca. 1,4 nm pro 20°C) erzeugen. Die Emission eines VCSEL kann stabiler sein als die Emission eines kantenemittierenden Lasers. Die Emission mit schmaler Linienbreite kann eine schmalbandige Filterung ermöglichen. Dies kann den Effekt einer Reduzierung des Umgebungslichts und/oder des Schrotrauschens bewirken und so das SNR verbessern. Die optische Ausgangsleistung der einzelnen Pixel eines VCSEL kann niedriger sein als die optische Ausgangsleistung eines kantenemittierenden Lasers.
  • Die Ein-Pixel-Bildgebung (auch als „Computational Imaging“ bezeichnet) kann als ein bildgebender Ansatz beschrieben werden, der das Konzept der komprimierten Abtastung verwendet. Das zugrundeliegende Prinzip einer Ein-Pixel-Kamera kann beschrieben werden als die Bereitstellung einer Kamera mit zweidimensionaler Auflösung unter Verwendung nur eines Fotodetektors (zur Veranschaulichung: ein Ein-Pixel-Detektor). Als Beispiel kann eine Digital-Spiegel-Vorrichtung (Digital Mirror Device , DMD) zur Verfügung gestellt werden. Das DMD kann ein 2D-Array von Mikrospiegeln sein, von denen jeder unabhängig gekippt werden kann (mit anderen Worten: individuell gekippt). Die Mikrospiegel können so gesteuert werden, dass das Licht von einer Szene auf den Ein-Pixel-Detektor gelenkt werden kann (oder auch nicht).
  • Bei einem so genannten Rasterscan-Verfahren kann bei jedem Messzyklus nur ein einziger Mikrospiegel gesteuert werden, um das Licht von der Szene auf den Detektor zu lenken. Durch die sequentielle Steuerung aller Mikrospiegel im DMD-Gerät kann ein vollständiges zweidimensionales Bild erfasst werden. Falls das DMD-Gerät über N Mikrospiegel verfügt (z.B. in einem 2D-Array angeordnet), kann das erfasste Bild eine Auflösung von N Pixeln haben, die nach N Messungen erhalten wird. Dieser Ansatz kann zeitaufwendig sein.
  • Bei einem sogenannten Compressed Sensing (CS)-Verfahren können die Mikrospiegel in einem zufälligen Muster gekippt werden. Illustrativ können die Mikrospiegel als ein (z.B. zufälliges) Muster aus dunklen und hellen Pixeln (z.B. Spiegelpixel) gesehen werden, z.B. nach einem zufälligen Muster von 0s und 1s. In dieser Konfiguration kann das Licht von etwa 50% der Pixel (z.B. 50% der Mikrospiegel) auf den Detektor gelenkt werden. Am Detektor kann die Summe des einfallenden Lichts innerhalb eines einzigen Messzyklus gemessen werden. Für die nächste Messung kann ein anderes Zufallsmuster gewählt werden. Der Vorgang kann M-mal wiederholt werden. Zur Veranschaulichung: Es können M Zufallsmuster erzeugt und M Summensignale über M Messzyklen gemessen werden.
  • Das Zufallsmuster der Mikrospiegel kann auf verschiedene Arten bestimmt werden. Als Beispiel kann das Zufallsmuster als unabhängige und identisch verteilte (i.i.d.) +/-1 Zufallsvariablen aus einer gleichmäßigen Bernoulli-Verteilung gezeichnet werden. Als weiteres Beispiel kann das Zufallsmuster aus einer i.i.d. Gaußschen Verteilung mit Null-Mittelwert und 1/N Varianz gezeichnet werden. Als weiteres Beispiel kann das Zufallsmuster aus zufällig permutierten Vektoren gezogen werden, z.B. aus Standard-Orthonormalbasen oder zufälligen Untermengen von Basisvektoren, wie z.B. Fourier-, Walsh-Hadamard- oder Noiselet-Basen.
  • Die komprimierte Abtastmethode kann mit einer geringeren Anzahl von Messzyklen ein gleiches oder ähnliches Ergebnis wie die Rasterabtastmethode liefern (zur Veranschaulichung: M kann kleiner als N sein). Die komprimierte Abtastmethode kann im Vergleich zu einer Rasterabtastmethode zur Bilderfassung etwa 5-mal schneller oder etwa 50-mal schneller sein (z.B. wenn die detektierten Signale mit einer hohen zeitlichen Auflösung gemessen und verarbeitet werden können).
  • Die Funktionsweise der komprimierten Abtastmethode kann mit der Eigenschaft der meisten natürlichen Bilder zusammenhängen, dass sie in Form von orthonormalen Basisvektoren unter Verwendung spärlicher Koeffizientenvektoren (zur Veranschaulichung: Koeffizientenvektoren mit nur einer geringen Anzahl von Nicht-Null-Koeffizienten) ausgedrückt werden können. Als Beispiel kann eine Basis aus Kosinus, Wavelets oder Curvelets ausgewählt werden. Funktionen, die eine zufällige Verkippung der Mikrospiegel darstellen (z.B. die 0s und 1s), können mathematisch inkohärent mit den genannten orthonormalen Basen sein. Dies kann den Effekt einer automatischen Kompression auf der Detektorebene bewirken (zur Veranschaulichung: die komprimierte Abtastmessung kann bereits eine komprimierte Version des Originalbildes darstellen). Ein zusätzlicher Rechenschritt kann durchgeführt werden, um (z.B. zur Rekonstruktion) das tatsächliche Bild aus der komprimierten Abtastmessung zu erhalten. Der Berechnungsschritt kann durch Software durchgeführt werden, z.B. durch Software, die so konfiguriert ist, dass sie mathematische Gleichungen löst (z.B. ein Solver). Zur Rekonstruktion des Bildes aus den zufälligen Messungen kann eine Optimierungsmethode implementiert werden, z.B. eine I1-Optimierungsmethode. Das Optimierungsproblem kann als ein konvexes Optimierungsproblem beschrieben werden (z.B. lösbar mit Hilfe eines linearen Programms, wie z.B. Basisverfolgung). Zusätzlich oder alternativ kann die Bildrekonstruktion mit Hilfe eines gierigen stochastischen Algorithmus und/oder eines Variationsalgorithmus durchgeführt werden.
  • Bei der komprimierten Abtastmethode darf gegenüber der Rasterabtastmethode nur ein Detektorpixel (z.B. mit größerem Dynamikbereich) verwendet werden. Dies kann die Möglichkeit bieten, einen hochentwickelten Detektor zu verwenden, ohne die Kosten des Systems übermäßig zu erhöhen. Außerdem können bei der komprimierten Abtastmethode etwa 50% der Spiegel gekippt werden (z.B. bei jedem Zyklus). Dies kann im Vergleich zur Rasterabtastmethode eine größere Menge an emittiertem Licht liefern. Dadurch kann ein größeres SNR erzielt werden.
  • Es kann auch ein bildgebendes Verfahren mit strukturiertem Licht zur Verfügung gestellt werden. Ein solches Verfahren kann veranschaulichend als reziprok zum komprimierten Abtastverfahren beschrieben werden (veranschaulichend kann ein solches Verfahren durch Steuerung der Lichtemission statt der Lichtdetektion durchgeführt werden, z.B. durch Steuerung der Senderseite statt der Empfängerseite). Die Szene kann mit einem Projektor beleuchtet werden, der eine Folge von Zufallsmustern anzeigt. Das von der Szene zurückgestreute Licht kann von einem Empfänger gesammelt werden. Der Empfänger kann eine einzelne Linse und einen einzelnen Photodetektor aufweisen oder aus einer einzigen Linse und einem einzelnen Photodetektor bestehen (z.B. ohne das DMD-Gerät). Die Einrichtung für strukturiertes Licht kann vorgesehen werden, wenn die Lichtquelle z.B. pixelweise gesteuert werden kann. Dies kann mit 3D-Bildgebungstechniken kombiniert werden.
  • Als Beispiel kann eine 3D-Einzelpixelkamera durch die Kombination von strukturierter Lichtemission mit einem Hochgeschwindigkeitsdetektor bereitgestellt werden, der so konfiguriert ist, dass er die empfangenen Signalkomponenten auflöst. Der Detektor kann ferner so konfiguriert werden, dass er einzelne Komponenten des Lichts misst, wenn sie am Detektor ankommen. Die Messergebnisse können für den Rekonstruktionsprozess verwendet werden. Dadurch kann die Anzahl der für die Rekonstruktion verwendeten Zufallsmuster M reduziert werden (z.B. kann M 50-mal kleiner als N sein), wodurch die Bildaufnahme beschleunigt wird.
  • Verschiedene Ausführungsformen können mit einem LIDAR-System mit Einzelpixel-Bildgebungsfunktionen verbunden sein. Zur Veranschaulichung: Das LIDAR-System kann eine oder mehrere Komponenten aufweisen, die für strukturierte Beleuchtung konfiguriert sind. Das LIDAR-System kann ein lichtemittierendes System mit einem oder mehreren Lichtemittern umfassen, z.B. ein zweidimensionales Laserarray (z.B. auf VCSEL-Basis). Das LIDAR-System kann einen Sensor, z.B. einen Ein-Pixel-Detektor, aufweisen. Das LIDAR-System kann so konfiguriert werden, dass ein oder mehrere Bildparameter während der Laufzeit (z.B. während eines Betriebs des LIDAR-Systems) flexibel angepasst werden können (z.B. zur Rekonfiguration, z.B. einzeln oder gleichzeitig). Der eine oder die mehreren Parameter können die effektive Auflösung, die Framerate, die optische Leistung pro effektivem Pixel, das ortsaufgelöste Signal-Rausch-Verhältnis (SNR) und/oder die Verarbeitungszeit umfassen. Illustrativ kann ein LIDAR-3D-Bildgebungssystem bereitgestellt werden (z.B. für direkte Laufzeit-Messungen).
  • In verschiedenen Ausführungsformen kann das LIDAR-System ein lichtemittierendes System aufweisen. Das lichtemittierende System kann einen oder mehrere Lichtemitter umfassen. Das lichtemittierende System kann eine Vielzahl von Lichtemittern umfassen, die beispielsweise in einem zweidimensionalen Array angeordnet sind. Der eine oder die mehreren Lichtemitter können zum Beispiel ein 2D-Laserarray aufweisen, z.B. ein gepulstes 2D-Laserarray, wie ein VCSEL-Array. Das 2D-Laserarray kann eine Vielzahl von Laserstrahlern aufweisen, z.B. oberflächenemittierende Laser mit vertikalem Resonator. Das lichtemittierende System kann gesteuert werden (z.B. durch einen lichtemittierenden Controller), um eine Vielzahl von strukturierten Beleuchtungsmustern (auch als Beleuchtungs- oder Emissionsmuster bezeichnet) in Richtung einer Szene zu emittieren. Die strukturierten Beleuchtungsmuster können in Übereinstimmung mit einem komprimierten Abtastalgorithmus (z.B. als Funktion eines komprimierten Algorithmus, z.B. als Funktion eines Bildrekonstruktionsalgorithmus) emittiert werden. Eine Szene kann als eine Umgebung vor oder in der Umgebung des LIDAR-Systems verstanden werden, z.B. kann eine Szene als das Sichtfeld des LIDAR-Systems verstanden werden. Das Sichtfeld des LIDAR-Systems kann oder kann dem Sichtfeld des lichtemittierenden Systems (auch als Emissionsfeld bezeichnet) und/oder dem Sichtfeld eines Sensors des LIDAR-Systems entsprechen. Das Emissionsfeld kann im wesentlichen dem Sichtfeld des Sensors entsprechen.
  • Eine oder mehrere Untergruppen (mit anderen Worten: Gruppen) von Lichtemittern (z. B. Untergruppen von VCSEL-Pixeln) können gleichzeitig feuern (mit anderen Worten: Licht emittieren), um ein Emissionsmuster zu erzeugen. Zur Veranschaulichung: Eine erste Gruppe kann einen oder mehrere erste Lichtemitter umfassen, die Licht aussenden, und eine zweite Gruppe kann einen oder mehrere zweite Lichtemitter umfassen, die kein Licht aussenden. Die Steuerung der Lichtemitter, Licht zu emittieren oder nicht zu emittieren, kann ein Beispiel für die Emission eines strukturierten Beleuchtungsmusters sein. Das Emissionsmuster (z.B. ein Pixelaktivierungsmuster) kann von außen, z.B. durch einen oder mehrere Prozessoren (z.B. ein Mustererzeugungssystem), bereitgestellt werden. Der lichtemittierende Controller (z.B. eine VCSEL-Treiberschaltung) kann auf der Grundlage des zu emittierenden Beleuchtungsmusters entsprechende Ein/Aus-Befehle für die Lichtemitter (z.B. Pixel-Ein/Aus-Befehle) erzeugen (und liefern).
  • Als weiteres Beispiel kann das lichtemittierende System eine Komponente zur Erzeugung optischer Muster aufweisen. Die Komponente zur Erzeugung optischer Muster kann so konfiguriert werden, dass sie das von einem oder mehreren Lichtemittern (z.B. von einem oder mehreren kantenemittierenden Laserchips) emittierte Licht empfängt. Die Komponente zur Erzeugung optischer Muster kann so konfiguriert werden, dass sie das empfangene Licht so steuert (z.B. moduliert oder umlenkt), dass es ein strukturiertes Beleuchtungsmuster in Richtung der Szene aussendet. Die Komponente zur Erzeugung optischer Muster kann z.B. ein räumlicher Lichtmodulator (SLM) sein, wie z.B. eine digitale Mikrospiegelvorrichtung (DMD), eine Flüssigkristallanzeige (LCD), eine Flüssigkristall-auf-Silizium-Vorrichtung (LCoS) oder ein Flüssigkristallvorrichtungspaneel mit einer Flüssigkristallpixelmatrix. Die Komponente zur Erzeugung optischer Muster kann als der räumliche Lichtmodulator 5910 konfiguriert sein oder konfiguriert werden, der z.B. in Bezug auf 59 bis 67 beschrieben wird. Zusätzlich oder als Alternative zur Erzeugung von Emissionsmustern gemäß dem Konzept der komprimierten Abtastung kann eine SLM-Vorrichtung auch zur Formung und/oder Normalisierung der von dem lichtemittierenden System gelieferten Lichtleistung verwendet werden.
  • Der eine oder die mehreren Lichtstrahler können so konfiguriert sein, dass sie Licht in einem Wellenlängenbereich des nahen Infrarot und/oder in einem Wellenlängenbereich des Infrarots (z. B. in einem Bereich von etwa 800 nm bis etwa 2000 nm, z. B. bei etwa 905 nm oder bei etwa 1550 nm) ausstrahlen. Beispielsweise kann ein 2D-Laserarray so konfiguriert werden, dass es im Wesentlichen parallele Laserstrahlen im nahen Infrarot-Wellenlängenbereich (z.B. 850 nm, 905 nm, 940 nm) erzeugt.
  • Das lichtemittierende System kann eine optische Kollimationskomponente (auch als Sendeoptik bezeichnet) aufweisen, die so konfiguriert ist, dass sie das emittierte Licht kollimiert. Das lichtemittierende System kann eine optische Kollimationskomponente (z.B. eine Mikrolinsenanordnung) aufweisen, die stromabwärts des einen oder der mehreren Lichtemitter angeordnet ist, um das von dem einen oder den mehreren Lichtemittern emittierte Licht zu kollimieren. Als Beispiel kann das lichtemittierende System ein Mikrolinsen-Array umfassen, das auf einem 2D-Laser-Array montiert ist, um die von den Laser-Emittern emittierten Laserstrahlen zu kollimieren (z.B. auf dem VCSEL, illustrativ in einem gleichen Gehäuse).
  • Jeder Lichtemitter (z.B. jedes VCSEL-Pixel) kann einzeln angesteuert werden. Beispielsweise kann die individuelle Steuerung eines oder mehrerer Lichtemitter durch eine geeignete elektronische On-Chip-Lösung (z.B. durch Flip-Chip-Bonden auf dem gleichen Gehäuse) und/oder durch diskrete Elektronik auf einer Leiterplatte erfolgen.
  • In verschiedenen Ausführungsformen kann das LIDAR-System einen Sensor aufweisen (z.B. auf der Empfängerseite). Der Sensor kann so konfiguriert werden, dass er Licht von der Szene empfängt (z.B. sammelt) (z.B. das rückreflektierte oder rückgestreute Licht von der Szene). Der Sensor kann mindestens ein Sensorpixel aufweisen. Beispielsweise kann der Sensor genau ein Sensorpixel aufweisen (z. B. kann der Sensor ein Ein-Pixel-Fotodetektor sein, wie ein Hochgeschwindigkeits-Ein-Pixel-Fotodetektor). Der Sensor kann mindestens eine Fotodiode aufweisen (z.B. kann das mindestens eine Sensorpixel mindestens eine Fotodiode aufweisen). Beispielsweise kann die Fotodiode auf einer Lawinenverstärkung basieren (z.B. kann die Fotodiode eine Lawinenfotodiode aufweisen, wie z.B. eine Einzelphotonen-Lawinenfotodiode). Zusätzlich oder alternativ dazu kann der Sensor einen (z.B. ultrasensitiven) Silizium-Photomultiplier aufweisen (z.B. kann das Sensorpixel eine Silizium-Photomultiplierzelle sein).
  • Das LIDAR-System (z.B. der Sensor) kann eine Schaltung der ersten Stufe (z.B. eine Hochfrequenzschaltung) zur Signalaufbereitung aufweisen. Beispielsweise kann das LIDAR-System einen Verstärker (z.B. einen Transimpedanzverstärker, wie z.B. einen empfindlichen Hochgeschwindigkeits-Transimpedanzverstärker) aufweisen, der so konfiguriert ist, dass er ein vom Sensor erzeugtes Signal verstärkt. Zusätzlich oder alternativ kann das LIDAR-System eine kapazitätskompensierte Transistorstufe der ersten Stufe aufweisen.
  • Das LIDAR-System (z.B. der Sensor) kann einen Wandler aufweisen, z.B. einen Analog-Digital-Wandler (ADC), wie z.B. einen Hochgeschwindigkeits-Analog-Digital-Wandler, z.B. einen Hochgeschwindigkeits-ADC mit einer Abtastrate von etwa 1 GSamples/s oder höher. Der Wandler kann so konfiguriert werden, dass er das vom Sensor erzeugte Signal (z.B. das vom Verstärker verstärkte Signal) umwandelt (z.B. zur Abtastung). Der Wandler kann in unmittelbarer Nähe des Sensors angeordnet werden (z.B. kann der Wandler dem Verstärker nachgeschaltet werden). Durch die unmittelbare Nähe können Störungen von aussen (z.B. vom lichtemittierenden Steuergerät, z.B. vom Lasertreiber) reduziert oder minimiert werden.
  • Die Schaltung der ersten Stufe und/oder der Konverter können auf einer Leiterplatte angeordnet sein (z.B. kann auf einer Leiterplatte hergestellt werden). Der Entwurf des Leiterplatten-Layouts kann Hochfrequenzfähigkeiten und/oder elektromagnetische Verträglichkeit bieten.
  • Der Sensor kann einen optischen Filter aufweisen. Der optische Filter kann so konfiguriert werden, dass er Licht außerhalb eines vordefinierten Wellenlängenbereichs blockiert oder Licht blockiert, das keine vordefinierte Wellenlänge hat. Beispielsweise kann der optische Filter Licht mit einer Wellenlänge im nahen Infrarot- oder Infrarotbereich zulassen (z.B. durchlassen), z.B. Licht mit einer Wellenlänge von etwa 850 nm und/oder von etwa 905 nm und/oder von etwa 940 nm. Das optische Filter kann ein Schmalbandfilter sein, z.B. wenn der eine oder mehrere Lichtemitter einen Singlemode-Laser (z.B. VCSEL) aufweisen und/oder wenn der Sensor einen ultrasensitiven Detektor (z.B. einen Silizium-Photomultiplier oder eine Single-Photonen-Lawinen-Photodiode) enthält.
  • Das LIDAR-System kann Detektoroptiken (auch als Sammeloptiken oder Empfängeroptiken bezeichnet) aufweisen, die so konfiguriert sind, dass sie Licht auf den Sensor richten. Zur Veranschaulichung: Die Detektoroptik kann so konfiguriert werden, dass sie Licht aus dem Sichtfeld des LIDAR-Systems (z.B. dem Sichtfeld des Sensors) sammelt und auf den Sensor richtet. Die Detektoroptik kann so konfiguriert werden, dass das Licht gesammelt und homogenisiert wird. Die Detektoroptik kann so konfiguriert werden, dass das Licht auf eine einzelne Fläche übertragen wird (z.B. auf die empfindliche Oberfläche eines Einpixel-Detektors). Die Detektoroptik kann als nicht-abbildende Optik konfiguriert sein oder konfiguriert werden (z.B. als zusammengesetzter Parabolkonzentrator, z.B. integriert in einem einzelnen Element). Als Beispiel kann die Detektoroptik die Optikanordnung 9802 sein oder als die Optikanordnung 9802 konfiguriert werden, die z.B. in Bezug auf 98 bis 102B beschrieben ist. Die Detektoroptik kann eine optische Beschichtung zur Wellenlängenfilterung aufweisen.
  • In verschiedenen Ausführungsformen kann der Sensor eine Vielzahl von Sensorpixeln aufweisen oder aus einer Vielzahl von Sensorpixeln bestehen. Die Sensorpixel können in einer Richtung angeordnet sein, um ein eindimensionales Pixelarray zu bilden. Alternativ können die Sensorpixel in zwei Richtungen angeordnet werden, um ein zweidimensionales Pixelarray zu bilden. Als Beispiel kann der Sensor ein Array (z.B. zweidimensional) von Einzelphotonen-Lawinen-Fotodioden aufweisen.
  • Der Sensor kann so konfiguriert werden, dass die Vielzahl der Sensorpixel ein einziges Ausgangssignal liefert (zur Veranschaulichung: Die Vielzahl der Sensorpixel liefert ein einziges Ausgangssignal). Der Sensor kann so konfiguriert werden, dass die Signale aller aktiven Sensorpixel aufsummiert werden, um ein einziges Ausgangssignal zu liefern. Der Wandler kann so konfiguriert werden, dass er die Summe (z.B. eine gewichtete Summe) der Vielzahl von Signalen (zur Veranschaulichung: die Vielzahl analoger Sensorsignale) in ein digitales Signal (z.B. in ein digitales Summensignal) umwandelt. Das einzelne Ausgangssignal kann digitalisiert und weiterverarbeitet werden.
  • Der Sensor (z.B. ein Sensor-Controller) kann so konfiguriert werden, dass er ein oder mehrere Sensor-Pixel aktiviert (z.B. „ein“ schalten) oder deaktiviert (z.B. „aus“ schalten). Ein aktives Sensorpixel kann auf einfallendes Licht reagieren (z.B. ein Signal erzeugen) und ein inaktives Sensorpixel kann nicht auf einfallendes Licht reagieren. Der Sensor kann so konfiguriert werden, dass er die Sensorpixel in Übereinstimmung mit dem emittierten strukturierten Beleuchtungsmuster aktiviert oder deaktiviert (zur Veranschaulichung: in Synchronisation mit dem Emittermuster). Dadurch kann der Effekt erzielt werden, dass das mit dem Umgebungslicht verbundene Rauschen reduziert werden kann. Zur Veranschaulichung: Der Sensor kann so konfiguriert werden, dass er Sensorpixel deaktiviert, die Licht (z. B. Umgebungslicht) aus Bereichen des Sichtfeldes empfangen, die nicht relevant sind oder nicht an der aktuellen komprimierten Sensormessung teilnehmen. Dies kann das Aufnahmerauschen reduzieren und das SNR des detektierten Signals verbessern. Es kann eine bessere Reichweitenleistung erzielt werden.
  • Eine solche Aktivierung oder Deaktivierung der Sensorpixel kann mit der geometrischen Ausrichtung zwischen dem Sichtfeld des Sensors und dem Sichtfeld des Emitters (z.B. dem Emissionsfeld des Emitters) zusammenhängen. Beispielsweise können die Sensorpixel (z.B. des Sensor-Arrays) geometrisch auf die Lichtemitter (z.B. auf das Emitter-Array, wie das VCSEL-Array) ausgerichtet sein. In diesem Fall kann der Sensor dem gleichen Muster wie der Emitter folgen, z.B. kann der Sensor nur in Bereichen empfindlich sein, in denen der Emitter Licht ausstrahlt, und/oder der Sensor kann nur für den für die Messung relevanten Zeitraum empfindlich sein. Ein weiteres Beispiel ist, dass die Sensorpixel möglicherweise nicht auf die Lichtemitter ausgerichtet sind (z.B. geometrisch nicht und/oder zeitlich nicht ausgerichtet, z.B. kann der Sensor im Vergleich zum Emitter eine langsamere Reaktion aufweisen). Selbst in diesem Fall kann eine Reduzierung des Rauschens erreicht werden (z.B. können Bereiche im Sichtfeld, die für Verfeinerungsaufnahmen nicht relevant sind, ausgespart werden, wie weiter unten näher beschrieben wird).
  • In verschiedenen Ausführungsformen kann das LIDAR-System (z.B. der Sensor) eine optische Empfängerkomponente aufweisen. Die optische Empfängerkomponente kann so konfiguriert werden, dass sie empfangenes Licht kollimiert. Die optische Komponente des Empfängers kann so konfiguriert werden, dass sie Licht (z.B. zum Durchlassen von Licht) in Übereinstimmung (z.B. in Synchronisation) mit dem Sendemuster überträgt. Zur Veranschaulichung: Die optische Empfängerkomponente kann eine steuerbare Blende (z.B. eine zweidimensionale Blende) sein, die im optischen Empfängerpfad vor dem Sensor angeordnet ist (z.B. bevor das Licht auf den Einpixel-Detektor fokussiert wird). Mit Hilfe der optischen Empfängerkomponente kann das Umgebungslicht von nicht relevanten Teilen im Sichtfeld ausgeblendet werden (z.B. vor dem Auftreffen auf den Sensor blockiert werden). Als Beispiel kann die optische Empfängerkomponente einen räumlichen Lichtmodulator aufweisen, wie z.B. eine Flüssigkristallvorrichtung, ein Flüssigkristall-Polarisationsgitter, eine Flüssigkristall-auf-Silizium-Vorrichtung oder eine digitale Mikrospiegelvorrichtung. Die Konfiguration der optischen Empfängerkomponente kann entsprechend der Pulsgeschwindigkeit und/oder der Erfassungsgeschwindigkeit des LIDAR-Systems ausgewählt werden.
  • Die optische Komponente des Empfängers kann einen optischen Filter aufweisen, um das empfangene Licht zu filtern. Der optische Filter kann so konfiguriert werden, dass er Licht außerhalb eines vordefinierten Wellenlängenbereichs blockiert oder Licht blockiert, das keine vordefinierte Wellenlänge hat. Beispielsweise kann der optische Filter Licht mit einer Wellenlänge im nahen Infrarot- oder Infrarotbereich zulassen (z.B. durchlassen). Die optische Komponente des Empfängers kann so konfiguriert werden, dass sie sich dynamisch anpasst (z.B. zur dynamischen Steuerung des optischen Filters), z.B. in Abhängigkeit von den aktuellen Umgebungslichtbedingungen (z.B. kann die optische Komponente des Empfängers reagieren, wenn ein Fahrzeug aus einem Tunnel in helles Sonnenlicht gerät). Beispielsweise kann die optische Komponente des Empfängers (z.B. die steuerbare Blende) in einen Regelkreis oder in einen geschlossenen Regelkreis einbezogen werden. Die optische Komponente des Empfängers kann in Abhängigkeit von einem Messausgang eines Umgebungslichtsensors (z.B. einer Fotodiode) gesteuert werden. Die optische Filterung (z.B. schmalbandige optische Filterung) kann den Effekt einer Verringerung des Umgebungslichteinflusses bewirken. Dadurch kann eine Sättigung oder eine unnötige Menge an Schrotrauschen reduziert oder verhindert werden.
  • Die optische Komponente des Empfängers (z.B. die steuerbare Blende, z.B. basierend auf der Flüssigkristalltechnologie) kann als optisches Einzelpixel-Dämpfungsglied fungieren. Alternativ kann die optische Komponente des Empfängers nach einem pixelweisen Ansatz arbeiten. Die optische Empfängerkomponente kann eine Vielzahl von Pixeln umfassen. Die Pixel können einzeln gesteuert werden, um selektiv auf einzelne Bereiche innerhalb des Sichtfeldes des Sensors zu wirken. Die pixelweise Annäherung kann z.B. in Blendungssituationen (z.B. starker Sonnenreflex in einer bestimmten Region) oder in Situationen mit großen Mengen reflektierter LIDAR-Strahlung (z.B. kurzer Abstand und/oder hohe IR-Reflexion) erfolgen. Zusätzlich oder alternativ kann das LIDAR-System ein steuerbares optisches Dämpfungsglied aufweisen.
  • Zusätzlich oder alternativ kann die Sensorverstärkung gesteuert werden, um den Einfluss von Umgebungslicht zu reduzieren. Zur Veranschaulichung: Die Sensorverstärkung kann in Abhängigkeit vom Umgebungslichtpegel eingestellt werden (z.B. in Abhängigkeit vom Ausgang des Umgebungslichtsensors). Als Beispiel kann die Verstärkung (und/oder andere Sensorparameter) in einer Regelkreiskonfiguration eingestellt werden.
  • In verschiedenen Ausführungsformen kann das LIDAR-System so konfiguriert werden, dass es eine Segmentierung des Sichtfeldes ermöglicht. Zur Veranschaulichung kann das Sichtfeld in Segmente (oder Bereiche) unterteilt werden. Die Unterteilung kann überlappend (z.B. bis zu 100% überlappend) oder nicht überlappend (z.B. die Sichtfeldsegmente dürfen sich nicht miteinander überlappen) sein. Dies kann den Einfluss von Umgebungslicht reduzieren. Dies kann die Redundanz, z.B. im Hinblick auf die funktionale Sicherheit, erhöhen. Beispielsweise kann das LIDAR-System auf der Emitterseite separate lichtemittierende Systeme aufweisen. Als weiteres Beispiel kann ein lichtemittierendes System separate Emissionsmuster aussenden. Ein weiteres Beispiel: Auf der Empfängerseite kann das LIDAR-System mehr als einen Sensor aufweisen. Als weiteres Beispiel kann ein Sensor eine Vielzahl von Pixeln aufweisen, von denen jedes einem oder mehreren Segmenten des Sichtfeldes zugeordnet ist.
  • In verschiedenen Ausführungsformen kann das LIDAR-System einen oder mehrere Prozessoren aufweisen, die für die Bildrekonstruktion und/oder Mustererzeugung konfiguriert sind (z. B. ein komprimiertes Abtast-Rechensystem, das z. B. ein Mustererzeugungssystem und ein Bildrekonstruktionssystem umfasst).
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie ein Bild auf der Grundlage der vom Sensor erfassten Sensorsignale rekonstruieren. Die Rekonstruktion kann in Übereinstimmung mit dem komprimierten Abtastalgorithmus erfolgen. Zur Veranschaulichung: Ein komprimierter Abtastalgorithmus kann einen Mustererzeugungsalgorithmus und einen Bildrekonstruktionsalgorithmus umfassen. Die Rekonstruktion kann als Funktion des Bildrekonstruktionsalgorithmus durchgeführt werden (z.B. ein 3D-Bildrekonstruktionsalgorithmus).
  • Beispielsweise können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie das Signal vom Wandler empfangen (z.B. das digitalisierte Signal oder das abgetastete Signal vom Analog-Digital-Wandler). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine grundlegende Signalkonditionierung (z.B. Filterung) für das empfangene Signal durchführen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie das Bild rekonstruieren (z.B. zur Implementierung des Bildrekonstruktionsalgorithmus), und zwar gemäß einer strukturellen Kenntnis des zuvor emittierten Beleuchtungsmusters oder der zuvor emittierten Beleuchtungsmuster (z.B. Kenntnis, welches Emissionsmuster oder welche Emissionsmuster das zu verarbeitende Bild erzeugt haben). Das Wissen über das zuvor emittierte Beleuchtungsmuster kann Zeitinformationen aufweisen, z.B. einen Zeitstempel, der den Zeitpunkt beschreibt, zu dem das Muster emittiert wurde, z.B. einen absoluten Zeitpunkt oder einen relativen Zeitpunkt in Bezug auf eine Referenzuhr (z.B. eine gemeinsame Referenzuhr). Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie das Bild aus den gemessenen Signalkomponenten und den entsprechenden Zeitinformationen für die einzelnen Messungen rekonstruieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie das Bild aus den zeitlich variierenden rückgestreuten Intensitäten (z.B. am Analog-Digital-Wandler abgetastet) zusammen mit dem zuvor emittierten Beleuchtungsmuster rekonstruieren. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Tiefen- und/oder Reflektivitätsbilder der Szene rekonstruieren (z.B. unter Verwendung von Prinzipien der kompressiven Abtasttheorie, wie einer I1-Optimierungsmethode, eines gierigen stochastischen Algorithmus oder eines Variationsalgorithmus, wobei der eine oder die mehreren Prozessoren z.B. ein lineares Programm, wie z.B. Basisverfolgung, implementieren können).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Vielzahl verschiedener Emissionsmuster erzeugen. Zur Veranschaulichung: Jede Bildaufnahme kann die Emission einer Vielzahl von Beleuchtungsmustern (z.B. eine Anzahl M von Mustern) beinhalten. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie ein entsprechendes Emissionsmuster (z.B. ein entsprechendes Signal) aus der Vielzahl verschiedener Emissionsmuster an die lichtemittierende Steuereinheit (z.B. an die Treiberschaltung der Emitteranordnung) liefern. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die M Emissionsmuster liefern, z.B. M-mal für jede Bildaufnahme die Erzeugung eines Musters und die Bereitstellung des erzeugten Musters an den lichtemittierenden Controller wiederholen (zur Veranschaulichung: bis M Muster erzeugt und bereitgestellt wurden). Die Anzahl der Emissionsmuster kann von einer gewünschten Auflösung abhängig sein (z.B. von einem gewünschten Auflösungsniveau für das rekonstruierte Bild). Beispielsweise kann die Anzahl der Muster eine lineare Abhängigkeit von der Anzahl der Lichtemitter haben (z.B. kann die Anzahl der Emissionsmuster gleich der Anzahl der Lichtemitter sein). Als weiteres Beispiel kann die Anzahl der Emissionsmuster eine nichtlineare Abhängigkeit von der Anzahl der Lichtemitter haben (z.B. eine Quadratwurzel-Abhängigkeit). Als Beispiel können der eine oder die mehreren Prozessoren so konfiguriert sein, dass sie ein erstes Emissionsmuster und ein zweites Emissionsmuster erzeugen, wobei das zweite Emissionsmuster die Umkehrung des ersten Emissionsmusters sein kann (zur Veranschaulichung: das erste Emissionsmuster und das zweite Emissionsmuster können Differenzsignale sein). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie das zweite Emissionsmuster unmittelbar nach dem ersten Emissionsmuster an die lichtemittierende Steuereinheit liefern. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Sensorsignale unter Berücksichtigung des ersten Emissionsmusters und des zweiten Emissionsmusters verarbeiten. Der eine oder die mehreren Prozessoren können z.B. so konfiguriert werden, dass sie die Sensorsignale, die dem zweiten Emissionsmuster zugeordnet sind, von den Sensorsignalen, die dem ersten Emissionsmuster zugeordnet sind, subtrahieren (z.B. können sie so konfiguriert werden, dass sie die Differenz in den gemessenen Intensitäten bestimmen). Dadurch können durch Umgebungslicht verursachte Beeinträchtigungen reduziert oder eliminiert werden.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die Vielzahl verschiedener Emissionsmuster zufällig oder pseudozufällig erzeugen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Vielzahl unterschiedlicher Emissionsmuster unter Verwendung von Zufallszahlengeneratoren erzeugen (z.B. unter Verwendung von Bernoulli- oder Gauß-Verteilungen). Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Vielzahl unterschiedlicher Emissionsmuster unter Verwendung zufällig permutierter Vektoren aus orthonormalen Standardbasen erzeugen. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Vielzahl unterschiedlicher Emissionsmuster unter Verwendung zufälliger Untermengen von Basisvektoren, wie z.B. Fourier-, Walsh-Hadamard- oder Noiselet-Basen, erzeugen. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, daß sie die Vielzahl verschiedener Emissionsmuster auf teilweise zufällige und teilweise deterministische Weise erzeugen (z.B. um gewünschte Bereiche des Sichtfeldes zu vergrößern).
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie einen adaptiven komprimierten Abtastalgorithmus (auch als Musteranpassungsalgorithmus bezeichnet) bereitstellen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren (z.B. der adaptive Algorithmus) können so konfiguriert werden, dass sie die Emissionsmuster auf der Grundlage von Ergebnissen oder Zwischenergebnissen der Bildrekonstruktion aktualisieren. Die Aktualisierung der Emissionsmuster kann für Bildbereiche von Interesse in der Szene bereitgestellt werden (z.B. zur dedizierten Abbildung von Bereichen von Interesse in der Szene). Beispielsweise können die Emissionsmuster aktualisiert werden, indem die effektive Auflösung und/oder die Aufnahmezeit und/oder das erreichbare SNR für solche interessierenden Regionen geändert werden. Zur Veranschaulichung: Ein oder mehrere Prozessoren können als System zur Musteranpassung dienen.
  • Der Algorithmus zur Musteranpassung kann verschiedene Teile aufweisen. Der Musteradaptionsalgorithmus kann iterativ ausgeführt werden (z.B. können die verschiedenen Teile sequentiell ausgeführt und im Laufe der Zeit iterativ wiederholt oder nach einem Zeitplan gehandhabt werden). Es kann ein Taktgeber (z.B. ein Watchdog-Timer) vorgesehen werden, um eine Wiederholungsrate des Musteradaptionsalgorithmus zu bestimmen (z.B. eine Mindestwiederholungsrate für Übersichtsaufnahmen, wie weiter unten näher beschrieben).
  • Der Algorithmus zur Musteranpassung kann (z.B. in einem ersten Teil) eine Übersichtsaufnahme der Szene beinhalten (z.B. die Steuerung des lichtemittierenden Systems und des Sensors, um eine Übersichtsaufnahme der Szene zu machen). Die Übersichtsaufnahme kann eine mittlere Auflösung oder eine niedrige Auflösung haben (z.B. niedriger als eine maximale Auflösung des LIDAR-Systems, z.B. niedriger als eine maximale Auflösung, die mit dem lichtemittierenden System und dem Sensor erreicht werden kann). Die Übersichtsaufnahme kann schneller als eine hochauflösende Aufnahme gemacht werden. Zur Veranschaulichung: Für eine Aufnahme mit niedriger Auflösung kann eine geringere Anzahl von Emissionsmustern bereitgestellt oder verwendet werden als für eine Aufnahme mit hoher Auflösung. Für eine Aufnahme mit niedriger Auflösung kann im Vergleich zu einer Aufnahme mit hoher Auflösung weniger Energie- und/oder Zeitaufwand für die Signalverarbeitung aufgewendet werden. Die Übersichtsaufnahme kann als eine Aufnahme mit mittlerer bis niedriger Auflösung und/oder als eine Aufnahme mit mittlerem bis hohem SNR beschrieben werden.
  • Die Übersichtsaufnahme kann mit einer geringen Anzahl von Emissionsmustern erstellt werden (z.B. weniger als zehn oder weniger als fünf). Es kann eine grobe Tiefen- und Intensitätskarte erzeugt werden (z.B. eine grobe Punktwolke). Die für die Übersichtsaufnahme verwendeten Emissionsmuster können zufällig generierte Muster sein, die das gesamte Sichtfeld abdecken.
  • Für die Aufnahme der Übersichtsaufnahme (oder allgemein eines Bildes mit niedriger Auflösung) können die Lichtemitter gruppiert werden. Dies kann einen größeren Makroemitter (z.B. ein Makropixel) ergeben. Eine gewünschte Auflösung kann durch Binning einer entsprechenden Anzahl von Lichtemittern erreicht werden, z.B. durch Kombination einzelner Pixel zu einem größeren „Superpixel“ oder „virtuellen Pixel“. Veranschaulichend kann das Binning oder Kombinieren von Lichtemittern beschrieben werden als die Steuerung einer Anzahl von Lichtemittern (z.B. nebeneinander angeordnet), so dass diese Lichtemitter gemeinsam (veranschaulichend, gleichzeitig) Licht ausstrahlen. Als Beispiel kann eine Vielzahl von Pixeln einer VCSEL-Matrix binned werden. Zur Veranschaulichung: Eine erste (z.B. hohe) Auflösung kann mit den Pixeln des VCSEL-Arrays erreicht werden, z.B. ohne Binning. Eine zweite (z.B. mittlere) Auflösung kann erreicht werden, wenn 2x2 Pixel des VCSEL-Arrays im Binning zusammengeführt werden. Eine dritte (z.B. niedrige oder grobe) Auflösung kann erreicht werden, wenn 3x3 Pixel des VCSEL-Arrays im Binning zusammengeführt werden. Zur Veranschaulichung: Durch die Verwendung von Pixel-Binning können N Emitter-Arrays mit „virtuell“ N verschiedenen Auflösungen bereitgestellt werden. Dieses Schema (z.B. Pixel-Binning auf der Emitterseite) kann einen flexiblen Kompromiss zwischen Bildrate, Auflösung und SNR bieten.
  • Der Algorithmus zur Musteranpassung kann (z. B. in einem zweiten Teil) die Analyse der Übersichtsaufnahme umfassen (z. B. können ein oder mehrere Prozessoren für die Analyse der Übersichtsaufnahme konfiguriert werden). Die Übersichtsaufnahme kann analysiert oder verwendet werden, um eine oder mehrere Regionen von Interesse in der Szene zu klassifizieren (z.B. Identifizierung und Klassifizierung) (z.B. können Regionen von Interesse auf der Grundlage der groben Tiefen- und Intensitätskarte identifiziert werden). Der zweite Teil des Musteranpassungsalgorithmus kann zusätzlich oder alternativ in einem LIDAR-systemexternen-Gerät oder Prozessor implementiert oder von diesem ausgeführt werden, z.B. in einem Sensorfusionssystem (z.B. einer Sensorfusionsbox) eines Fahrzeugs, das das LIDAR-System enthält.
  • Die Regionen von Interesse können nach einem oder mehreren Relevanzkriterien klassifiziert werden (z.B. ein oder mehrere Kriterien, die die Relevanz einer Region von Interesse für das LIDAR-System oder für ein Fahrzeug, das das LIDAR-System einschließt, definieren). Beispielsweise können interessierende Regionen nach ihrer Entfernung klassifiziert werden (z.B. von einem vordefinierten Ort, z.B. vom LIDAR-System). Zur Veranschaulichung: Eine nahe Region kann potenziell kritischer (z.B. relevanter) sein als eine weit entfernte Region. Als weiteres Beispiel können Regionen von Interesse nach dem Signalpegel klassifiziert werden (z.B. kann eine Region mit niedrigem Signalpegel eine Region sein, in der das Signal schwach ist oder dunkle Flecken enthält, verglichen mit einer Region mit hohem Signalpegel). Als weiteres Beispiel können Regionen von Interesse nach ihrer Unsicherheit klassifiziert werden. Als weiteres Beispiel können Regionen von Interesse nach einer Kombination (z.B. einer gewichteten Summe) aus Entfernung, Signalpegel und/oder Unsicherheit klassifiziert werden. Die Kombination kann einen oder mehrere Faktoren (z.B. Wichtungsfaktoren) aufweisen. Der eine oder die mehreren Faktoren können eine Funktion der systeminternen oder systemexternen Bedingungen (z.B. fahrzeuginterne oder fahrzeugexterne Bedingungen) sein, wie z.B. Fahrzeuggeschwindigkeit, beabsichtigte Flugbahn (gerade, Links-/Rechtskurve), Umgebungslichtpegel, Wetterbedingungen und ähnliches. Als weiteres Beispiel können Regionen von Interesse nach der Relevanz des jeweiligen Inhalts klassifiziert werden. Veranschaulichend kann ein Objekterkennungsverfahren und/oder ein Objektklassifizierungsverfahren (z.B. durch einen oder mehrere Prozessoren und/oder durch ein Sensorfusionssystem) bereitgestellt werden, um ein oder mehrere Objekte in der Szene zu identifizieren und/oder zu klassifizieren. Eine Region von Interesse, die ein verkehrsrelevantes Objekt oder ein sicherheitskritisches Objekt (z.B. einen Fußgänger, ein Fahrrad, ein Fahrzeug, einen Rollstuhl und dergleichen) aufweist, kann als relevanter klassifiziert werden als eine Region von Interesse, die keines dieser Objekte oder weniger sicherheitskritische Objekte enthält. Eine Klassifizierung der Regionen von Interesse kann z.B. in oder durch eine Verkehrskarte erfolgen, die eine oder mehrere verkehrsbezogene Bedingungen beschreibt, z.B. in Verbindung mit dem Standort des Fahrzeugs einschließlich des LIDAR-Systems, wie in Bezug auf 127 bis 130 beschrieben.
  • Ein oder mehrere Begrenzungsrahmen (Bounding Boxes) können entsprechend den identifizierten Regionen von Interesse erstellt werden (z.B. kann jede Region von Interesse mit einem entsprechenden Begrenzungsrahmen assoziiert werden). Zur Veranschaulichung: Ein Begrenzungsrahmen (z.B. ein rechteckiger Begrenzungsrahmen) kann die zugehörige interessierende Region umschließen. Jeder Region von Interesse (z.B. jedem Begrenzungsrahmen) kann eine entsprechende Priorität zugewiesen werden. Die Priorität kann entsprechend der Klassifikation zugewiesen werden. Die eine oder mehrere Regionen von Interesse (z.B. die eine oder die mehreren Begrenzungsrahmen) können nach ihrer Priorität geordnet werden. Die Priorität kann eine vordefinierte Priorität sein (z.B. vordefiniert auf der Grundlage der Relevanzkriterien, die mit der interessierenden Region verbunden sind) oder eine adaptiv aktualisierte Priorität (z.B. aktualisiert auf der Grundlage systemexterner oder systeminterner Bedingungen).
  • Ein Begrenzungsrahmen kann als eine Untermenge von Pixeln (z. B. eine Unteranordnung von Pixeln) in der Übersichtsaufnahme beschrieben werden, die den zugehörigen interessierenden Bereich umschließt. Der Begrenzungsrahmen kann eine entsprechende Untergruppe von Lichtemittern und/oder Sensorpixeln beschreiben oder definieren (z.B. eine Unteranordnung von Lichtemittern und/oder eine Unteranordnung von Sensorpixeln). Wenn der interessierende Bereich X Pixelspalten und Y Pixelreihen in der Übersichtsaufnahme enthält, können X Spalten und Y Reihen von Lichtemittern und/oder Sensorpixeln diesem interessierenden Bereich zugeordnet werden. Den Lichtemittern und/oder Sensorpixeln kann eine entsprechende Priorität zugewiesen werden, basierend auf der Priorität des zugehörigen interessierenden Bereichs.
  • Der Algorithmus zur Musteranpassung kann (z. B. in einem dritten Teil) die Erzeugung eines angepassten Emissionsmusters umfassen (z. B. können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie ein angepasstes Emissionsmuster erzeugen, das auf der Analyse illustrativ basiert). Das angepaßte Emissionsmuster kann eine angepaßte Auflösung für die interessierenden Regionen der Szene liefern (z.B. kann für jede identifizierte interessierende Region eine Verfeinerungsaufnahme mit einer optimierten Auflösung gemacht werden). Zur Veranschaulichung: Für jeden identifizierten Begrenzungsrahmen kann für eine Verfeinerungsaufnahme, die diese Region abdeckt, ein Emissionsmuster mit hoher oder mittlerer Auflösung oder niedriger Auflösung bereitgestellt werden. Die Anpassung der Auflösung kann in Übereinstimmung mit einer Zielauflösung und/oder den oben genannten Relevanzkriterien (z.B. identifiziert während der Analyse der Übersichtsaufnahme) erfolgen. Die Anpassung der Auflösung kann auf der Kenntnis einer Position der entsprechenden Region von Interesse innerhalb des Sichtfeldes beruhen. Illustrativ kann die Anpassung der Auflösung für die Verfeinerungsaufnahme das Zusammenfassen der mit dem Begrenzungsrahmen verbundenen Lichtemitter entsprechend der gewünschten Auflösung umfassen.
  • Die Erzeugung des angepassten Emissionsmusters kann das Schneiden der Fläche eines Begrenzungsrahmens mit einem Gitter umfassen, das das gesamte Sichtfeld mit der ermittelten Zielauflösung abdeckt (z. B. eine Zielauflösung für diesen interessierenden Bereich auf der Grundlage der Klassifizierung, z. B. hoch, mittel oder niedrig). Beispielsweise kann eine erste Zielauflösung für einen Verfeinerungsschuss aus kurzer Entfernung und eine zweite (z.B. niedrigere) Auflösung für einen Verfeinerungsschuss aus großer Entfernung vorgesehen werden. Dies kann ein virtuelles Array liefern, z.B. ein Array, das ein virtuelles Sichtfeld abdeckt und eine virtuelle Auflösung hat (z.B. mit einer vordefinierten Anzahl von Zeilen und Spalten). Für jeden Begrenzungsrahmen kann ein virtuelles Array erstellt werden.
  • Die Generierung des angepassten Emissionsmusters kann die Erzeugung eines virtuellen Emissionsmusters (illustrativ, verbunden mit einem virtuellen Array) beinhalten, z.B. eine Vielzahl von virtuellen Emissionsmustern. Das virtuelle Emissionsmuster kann die identifizierte Anzahl von Zeilen und Spalten (z.B. des virtuellen Arrays) aufweisen. Das virtuelle Emissionsmuster kann nach dem komprimierten Abtastalgorithmus (z.B. nach dem Mustererzeugungsalgorithmus) erzeugt werden. Zum Beispiel kann das virtuelle Emissionsmuster mit Hilfe von Zufallszahlengeneratoren erzeugt werden (z.B. mit Bernoulli- oder Gauß-Verteilungen). Als weiteres Beispiel kann das virtuelle Emissionsmuster unter Verwendung zufällig permutierter Vektoren aus Standard-Orthonormalbasen erzeugt werden. Als weiteres Beispiel kann das virtuelle Emissionsmuster unter Verwendung von zufälligen Untermengen von Basisvektoren, wie z.B. Fourier-, Walsh-Hadamard- oder Noiselet-Basen, erzeugt werden. Als weiteres Beispiel kann das virtuelle Emissionsmuster auf eine zumindest teilweise deterministische Weise erzeugt werden.
  • Die Erzeugung des angepassten Emissionsmusters kann die Abbildung des virtuellen Emissionsmusters auf einen oder mehrere Lichtemitter (z.B. auf das Emitter-Array) beinhalten. Das virtuelle Emissionsmuster kann auf einen oder mehrere Lichtemitter unter Verwendung des virtuellen Sichtfeldes (z.B. in Verbindung mit dem virtuellen Array) abgebildet werden. Veranschaulichend kann die Erzeugung des angepassten Emissionsmusters die Konfiguration (und/oder Steuerung) des lichtemittierenden Systems zur Emission von Licht umfassen, um das angepasste Emissionsmuster zu emittieren. Als Beispiel kann das abgebildete Emissionsmuster der VCSEL-Treiberschaltung eins-zu-eins zur Verfügung gestellt werden, damit es in die Szene emittiert wird (z.B. kann jedem Pixel im Array eine Zuordnung erfolgen).
  • Eine Verfeinerungsaufnahme kann eine Vielzahl von Verfeinerungsaufnahmen umfassen (z. B. eine Kombination von Verfeinerungsaufnahmen, die mit verschiedenen Regionen von Interesse verbunden sind, z. B. mit nicht überlappenden Begrenzungskästen). Dadurch kann die Gesamtzahl der zu emittierenden Emissionsmuster reduziert werden. Zur Veranschaulichung: Die virtuellen Emissionsmuster für nicht überlappende Regionen von Interesse (z.B. nicht überlappende Begrenzungsrahmen) können auf dasselbe Emissionsmuster abgebildet werden. Dies kann die Erfassung des Verfeinerungsschusses beschleunigen.
  • Die Verfeinerungsaufnahmen können in Übereinstimmung mit der den interessierenden Regionen zugewiesenen Priorität gemacht (mit anderen Worten: ausgeführt) werden. Zusätzlich oder alternativ können die Verfeinerungsaufnahmen in Übereinstimmung mit einem Datenverarbeitungsmerkmal gemacht werden, das jeder Region von Interesse zugeordnet ist, wie z.B. in Bezug auf 162A bis 164E beschrieben. Die Emissionsmuster, die mit Regionen von Interesse mit höherer Priorität assoziiert sind, können vor den Emissionsmustern, die mit Regionen von Interesse mit niedrigerer Priorität assoziiert sind, emittiert werden. Die Sensorsignale, die mit verschiedenen Regionen von Interesse assoziiert sind, können entsprechend der Priorität analysiert werden, die der jeweiligen Region von Interesse zugeordnet ist. Beispielsweise können schnellere Ergebnisse für nahe gelegene Objekte geliefert werden, während weit entfernte Objekte zu einem späteren Zeitpunkt, z.B. mit niedrigerer Priorität, behandelt werden können. Ein weiteres Beispiel: Objekte außerhalb der Fahrzeuggrenzen (z.B. links, rechts, oben) können später oder mit einer geringeren anfänglichen Auflösung in Bezug auf Objekte gemessen werden, die so lokalisiert sind, dass sie das Fahrzeug auf der Grundlage der geplanten Flugbahn treffen können. Als weiteres Beispiel können Objekte, die für das Führen des Fahrzeugs nicht oder weniger relevant sind (z.B. nicht kritisch oder weniger kritisch für die Sicherheit des Fahrens), später in Bezug auf verkehrsrelevante oder sicherheitsrelevante Objekte gemessen oder verarbeitet werden. Als weiteres Beispiel können dunkle Flecken in der zwischenzeitlich erfassten Szene durch Optimierung des Emissionsmusters eliminiert werden, um Informationen über diese dunklen Bereiche zu erhalten. Als weiteres Beispiel kann die Priorität in Abhängigkeit von der Signalunsicherheit und/oder dem Geräuschpegel bestimmt werden.
  • In verschiedenen Ausführungsformen kann das LIDAR-System einen Wärmemanagementkreislauf aufweisen. Die Wärmemanagementschaltung kann so konfiguriert werden, dass sie das LIDAR-System in Abhängigkeit von einer gemessenen Temperatur eines oder mehrerer Lichtemitter steuert. Veranschaulichend kann die Wärmemanagementschaltung so ausgelegt sein, dass die Ausgangsleistung der Lichtemitter so hoch wie möglich oder so hoch wie erforderlich gewählt werden kann (z.B. in Abhängigkeit von einer Verkehrssituation, einer Wetterbedingung o.ä.) und gleichzeitig eine dauerhafte Beschädigung oder Leistungsverschlechterung der Lichtemitter vermieden wird (z.B. kann die Wärmemanagementschaltung so ausgelegt sein, dass VCSEL-Pixel mit einer optimalen Ausgangsleistung betrieben werden können).
  • Der Wärmemanagementkreislauf kann zur Bestimmung von Temperaturdaten konfiguriert werden. Die Wärmemanagementschaltung kann so konfiguriert werden, dass sie eine Temperatureingabe vom lichtemittierenden System (z.B. vom VCSEL-Chip) empfängt. Die Wärmemanagementschaltung kann so konfiguriert werden, dass sie zusätzliche Überwachungsinformationen vom lichtemittierenden System empfängt (z.B. ein internes thermisches Modell des lichtemittierenden Systems). Die Wärmemanagementschaltung kann so konfiguriert werden, dass sie die thermischen Bedingungen des lichtemittierenden Systems (z.B. der Lichtemitter) analysiert. Die Wärmemanagementschaltung kann so konfiguriert werden, dass sie das Vorhandensein kritischer Spitzen in der thermischen Verteilung der Lichtemitter (z.B. des VCSEL) bestimmt, z.B. auf der Grundlage der empfangenen Eingabe und/oder Information. Zur Veranschaulichung: Die Temperaturdaten können das Vorhandensein kritischer Spitzen in der thermischen Verteilung der Lichtemitter beschreiben.
  • Die Wärmemanagementschaltung kann so konfiguriert werden, dass sie dem einen oder mehreren Prozessoren (und/oder dem lichtemittierenden Controller) Einschränkungen oder andere Parameter zur Verfügung stellt, falls kritische Spitzenwerte vorhanden sind (z.B. in Bereichen, in denen nahe gelegene Pixel häufig „EIN“ geschaltet werden). Die Temperaturdaten können solche Einschränkungen oder andere Parameter weiter beschreiben oder aufweisen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Vielzahl von Emissionsmustern unter Berücksichtigung der Temperaturdaten erzeugen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie eine optimierte Reihenfolge der Emissionsmuster finden, um die kritischen Temperaturspitzen zwischen den Lichtemittern zu eliminieren oder zu reduzieren (z.B. ein Muster, bei dem benachbarte Lichtemitter nicht gleichzeitig Licht aussenden). Als weiteres Beispiel kann zusätzlich oder alternativ die Wärmemanagementschaltung so konfiguriert werden, dass sie den lichtemittierenden Controller so steuert, dass die Ausgangsleistung eines oder mehrerer Lichtemitter gesenkt wird (z.B. global oder auf Peremitterbasis, z.B. auf Pixelbasis).
  • Das hier beschriebene LIDAR-System kann ein zuverlässiges und vielseitiges Abbildungsverfahren bieten (z.B. kann der Verlust einer einzelnen Aufnahme toleriert und eine Rekonfiguration per Software implementiert werden). Die Bildgebung kann ohne mechanische Komponenten durchgeführt werden (im Vergleich z.B. zu MEMS oder Drehspiegelansätzen). Es kann ein Kompromiss zwischen Aktualisierungsrate, Auflösung und SNR gefunden werden. Der Kompromiss (z.B. die entsprechenden Parameter) kann während der Laufzeit angepasst werden, z.B. basierend auf den aktuell detektierten Objekten und/oder der aktuell detektierten Szene.
  • 150A bis 150F zeigen verschiedene Aspekte eines LIDAR-Systems 15000 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 15000 kann als Flash-LIDAR-System konfiguriert werden. Das LIDAR-System 15000 kann z.B. als LIDAR-Sensorsystem 10 (z.B. als Flash-LIDAR-Sensorsystem 10) konfiguriert sein oder konfiguriert werden. Das LIDAR-System 15000 kann einen Emitterpfad aufweisen, z.B. eine oder mehrere Komponenten des LIDAR-Systems 15000, die so konfiguriert sind, dass sie Licht aussenden (z.B. LIDAR). Das emittierte Licht kann zur Beleuchtung (z.B. zur Abfrage) des Bereichs um das LIDAR-System 15000 herum oder vor dem LIDAR-System 15000 (z.B. eine Szene) bereitgestellt werden. Das LIDAR-System 15000 kann einen Empfängerpfad aufweisen, z.B. eine oder mehrere Komponenten, die so konfiguriert sind, dass sie Licht von der Szene empfangen (z.B. Licht, das von Objekten in diesem Bereich reflektiert oder gestreut wird). Das LIDAR-System 15000 kann z.B. in einem Fahrzeug eingebaut sein.
  • Das LIDAR-System 15000 kann ein lichtemittierendes System 15002 aufweisen. Das lichtemittierende System 15002 kann so konfiguriert werden (z.B. gesteuert), dass es Licht in Richtung der Szene emittiert (z.B. in ein Sichtfeld des LIDAR-Systems 15000). Das lichtemittierende System 15002 kann einen oder mehrere Lichtemitter 15004 aufweisen, z.B. kann das lichtemittierende System 15002 eine Vielzahl von Lichtemittern 15004 aufweisen. Zum Beispiel kann das lichtemittierende System 15002 ein Array mit einer Vielzahl von Lichtemittern 15004 aufweisen, die in eindimensionaler oder zweidimensionaler Weise angeordnet sind (z.B. ein eindimensionales Array von Lichtemittern 15004 oder ein zweidimensionales Array von Lichtemittern 15004).
  • Ein oder mehrere Lichtemitter 15004 können so konfiguriert sein, dass sie Licht aussenden (z.B. kann ein Lichtemitter 15004 eine Lichtquelle sein, wie die Lichtquelle 42). Das emittierte Licht kann in einem vordefinierten Wellenlängenbereich liegen. Zum Beispiel kann mindestens ein Lichtemitter 15004 (oder mehr als ein Lichtemitter 15004 oder alle Lichtemitter 15004) so konfiguriert werden, dass er Licht im nahen Infrarot und/oder im infraroten Wellenlängenbereich emittiert. Zum Beispiel kann mindestens ein Lichtemitter 15004 so konfiguriert werden, dass er Licht in einem Wellenlängenbereich von etwa 800 nm bis etwa 2000 nm emittiert, zum Beispiel bei etwa 905 nm oder bei etwa 1550 nm. Der eine oder die mehreren Lichtemitter 15004 können so konfiguriert oder gesteuert werden, dass sie Licht kontinuierlich oder gepulst aussenden (z.B. um eine Folge von Lichtimpulsen zu emittieren).
  • Beispielsweise können der eine oder die mehreren Lichtsender 15004 so konfiguriert sein, dass sie Laserlicht aussenden, z.B. der eine oder die mehreren Lichtsender 15004 können Laserstrahler sein. Der eine oder die mehreren Lichtemitter 15004 können ein Laser-Array mit einer Vielzahl von Laser-Emittern aufweisen, die ein- oder zweidimensional angeordnet sind (z.B. ein eindimensionales Array von Laser-Emittern oder ein zweidimensionales Array von Laser-Emittern). Mindestens ein Laser-Emitter (oder einige Laser-Emitter oder alle Laser-Emitter) kann ein oberflächenemittierender Laser mit vertikalem Resonator sein (z.B. kann das Array ein VCSEL-Array sein). Zusätzlich oder alternativ kann mindestens ein Laser-Emitter ein kantenemittierender Laser sein (z.B. das Array kann ein VCSEL-Array sein).
  • Das lichtemittierende System 15002 kann eine oder mehrere optische Komponenten 15006 aufweisen, z.B. zur Einstellung oder Abstimmung der Lichtemission. Zum Beispiel kann das lichtemittierende System 15002 eine optische Kollimationskomponente aufweisen, die so konfiguriert ist, dass sie das emittierte Licht kollimiert (z.B. kann die eine oder mehrere optische Komponenten 15006 eine optische Kollimationskomponente sein oder aufweisen). Die optische Kollimationskomponente kann hinter einem oder mehreren Lichtemittern 15004 angeordnet sein. Die optische Kollimationskomponente kann eine Mikrolinse- oder ein Mikrolinsenarray sein (zur Veranschaulichung: jeder Lichtemitter 15004 kann einer entsprechenden Mikrolinse zugeordnet sein- , z.B. kann jedes Laserpixel eines VCSEL-Arrays einer entsprechenden Mikrolinse zugeordnet sein). Als weiteres Beispiel kann das lichtemittierende System 15002 eine Komponente zur Erzeugung optischer Muster aufweisen (z.B. kann die eine oder mehrere optische Komponenten 15006 eine Komponente zur Erzeugung optischer Muster sein oder aufweisen). Die Komponente zur Erzeugung optischer Muster kann so konfiguriert sein, dass sie das von einem oder mehreren Lichtemittern 15004 emittierte Licht empfängt. Die Komponente zur Erzeugung optischer Muster kann so konfiguriert werden, dass sie das empfangene Licht so steuert (z.B. moduliert), dass es ein strukturiertes Beleuchtungsmuster in Richtung der Szene aussendet. Die Komponente zur Erzeugung optischer Muster kann z.B. ein räumlicher Lichtmodulator (SLM) sein, wie z.B. eine digitale Mikrospiegelvorrichtung (DMD), eine Flüssigkristallanzeige (LCD), eine Flüssigkristall-auf-Silizium-Vorrichtung (LCoS) oder ein Flüssigkristallvorrichtungspaneel mit einer Flüssigkristallpixelanordnung.
  • Das LIDAR-System 15000 kann einen lichtemittierenden Controller 15008 aufweisen. Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 steuert (z.B. um individuelle Steuersignale für einen oder mehrere Lichtemitter 15004 und/oder für eine oder mehrere optische Komponenten 15006 zu liefern). Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 so steuert, dass es eine Vielzahl verschiedener Emissionsmuster emittiert. Ein Emissionsmuster kann als ein Muster von emittiertem Licht beschrieben werden, das bestimmte Bereiche (z.B. bestimmte Flecken) in der Szene beleuchtet (und andere Bereiche oder andere Flecken nicht beleuchtet). Zur Veranschaulichung: Unterschiedliche Emissionsmuster können verschiedene Bereiche in der Szene beleuchten.
  • Ein Beispiel eines emittierten Emissionsmusters ist in 150B dargestellt. Eine Vielzahl von Lichtemittern 15004 kann so gesteuert werden, dass einige Lichtemitter 15004 Licht aussenden und einige andere Lichtemitter 15004 kein Licht aussenden. Illustrativ kann ein Emissionsmuster einen oder mehrere erste Lichtemitter 15004, die jeweils Licht aussenden (illustrativ, die dunkleren Pixel in der Anordnung in und einen oder mehrere zweite Lichtemitter 15004, die jeweils kein Licht aussenden (illustrativ, die helleren Pixel in der Anordnung in , umfassen. Das Muster der Lichtemitter 15004, die Licht emittieren oder nicht emittieren, kann entsprechende beleuchtete (oder nicht beleuchtete) Regionen im Sichtfeld 15010 definieren, z.B. im Emissionsfeld 15010 (illustrativ, die dunkleren Regionen A bis G in 150B). Zur Veranschaulichung: Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er die Lichtemitter 15004 einzeln so steuert, dass sie das Emissionsmuster (z.B. die Vielzahl unterschiedlicher Emissionsmuster) emittieren. Beispielsweise kann der lichtemittierende Controller 15008 so konfiguriert werden, dass er die Laserstrahler eines zweidimensionalen Laserarrays einzeln steuert, um Laserpulse zur Emission der Vielzahl unterschiedlicher Emissionsmuster zu emittieren. In dieser Konfiguration können die eine oder mehrere optische Komponenten 15006 die optische Kollimationskomponente aufweisen.
  • Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 so steuert, dass es Licht in einer gepulsten Weise emittiert, um die Vielzahl verschiedener Emissionsmuster in einer gepulsten Weise zu emittieren. Zur Veranschaulichung: Die lichtemittierende Steuereinheit 15008 kann so konfiguriert werden, dass sie das lichtemittierende System 15002 so steuert, dass es eine Folge von verschiedenen Emissionsmustern emittiert (z.B. um verschiedene Bereiche des Emissionsfeldes nacheinander zu beleuchten). Die Sequenz von Emissionsmustern kann einen Abbildungsprozess definieren (z.B. eine Bildaufnahme). Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 so steuert, dass es in vordefinierten Zeitintervallen ein anderes Emissionsmuster emittiert. Die Länge der Zeitintervalle (z.B. die Wiederholungsrate) kann von der Auflösung und/oder vom Erfassungsbereich (z.B. von der maximalen Laufzeit) des LIDAR-Systems 15000 abhängig sein. Die Länge eines Zeitintervalls kann z.B. im Bereich von ca. 1 µs bis ca. 100 µs liegen, z.B. von ca. 200 ns bis ca. 500 ns, z.B. von ca. 10 ns bis ca. 100 ns.
  • Die Emission der Vielzahl unterschiedlicher Emissionsmuster kann eine Funktion eines komprimierten Erfassungsalgorithmus sein (mit anderen Worten, sie kann durch einen komprimierten Erfassungsalgorithmus gesteuert werden). Die Vielzahl der verschiedenen zu emittierenden Emissionsmuster kann so ausgewählt werden, dass ein Bild der Szene rekonstruiert werden kann (z.B. mit einer gewünschten Auflösung). Die Vielzahl der verschiedenen Emissionsmuster kann eine Anzahl von Emissionsmustern aufweisen, z.B. M, die eine Rekonstruktion des Bildes ermöglicht (zur Veranschaulichung: die Anzahl M kann eine Mindestanzahl von Emissionsmustern sein, die für die Rekonstruktion des Bildes bereitgestellt werden müssen). Zur Veranschaulichung: Der komprimierte Abtastalgorithmus kann die Anzahl und die Konfiguration der zu emittierenden Emissionsmuster bestimmen oder definieren. Die Emission der Vielzahl unterschiedlicher Emissionsmuster kann eine Funktion eines Bildrekonstruktionsalgorithmus sein.
  • Wie z.B. in 150A gezeigt, kann das LIDAR-System 15000 einen Sensor 52 aufweisen. (z.B. einen LIDAR-Sensor). Der Sensor 52 kann mindestens ein Sensorpixel 15012 aufweisen (z.B. ein oder mehrere Sensorpixel 15012). Der Sensor 52 kann mindestens eine Fotodiode aufweisen (z.B. eine oder mehrere Fotodioden). Zur Veranschaulichung: Jedes Sensorpixel 15012 kann eine entsprechende Fotodiode (z.B. des gleichen Typs oder verschiedener Typen) aufweisen oder damit verbunden sein. Beispielsweise kann eine Fotodiode auf einer Lawinenverstärkung basieren (z.B. kann eine Fotodiode eine Lawinenfotodiode aufweisen, wie z.B. eine Einzelphotonen-Lawinenfotodiode). Zusätzlich oder alternativ kann der Sensor 52 einen (z.B. ultrasensitiven) Silizium-Photomultiplier aufweisen (z.B. kann ein Sensorpixel 15012 eine Silizium-Photomultiplierzelle sein).
  • Der Sensor 52 darf genau ein Sensorpixel 15012 aufweisen. Anders ausgedrückt kann der Sensor 52 ein einziges Sensorpixel 15012 aufweisen (z. B. kann der Sensor 52 ein Einpixel-Sensor oder ein Einpixel-Detektor sein, wie z. B. in dargestellt). Alternativ dazu kann der Sensor 52 eine Vielzahl von Sensorpixeln 15012 aufweisen (z. B. kann der Sensor 52 ein Einpixel-Sensor oder ein Einpixel-Detektor sein, wie z. B. in dargestellt). Die Vielzahl von Sensorpixeln 15012 kann in geordneter Weise angeordnet werden, z.B. um ein Array zu bilden. Als Beispiel kann der Sensor 52 eine Vielzahl von Sensorpixeln 15012 aufweisen oder aus einer Vielzahl von Sensorpixeln 15012 bestehen, die in einer Richtung (z.B. vertikal oder horizontal) angeordnet sind, um ein eindimensionales Sensorpixel-Array zu bilden (z.B. um einen Spaltensensor oder einen Zeilensensor zu bilden). Als weiteres Beispiel kann der Sensor 52 eine Vielzahl von Sensorpixeln 15012 umfassen, die in zwei Richtungen angeordnet sind, um ein zweidimensionales Sensorpixelarray zu bilden (zur Veranschaulichung eine Matrix oder ein Gitter aus Sensorpixeln 15012), wie z.B. in 150D dargestellt. Der Sensor 52 (z.B. ein Sensor-Controller) kann so konfiguriert werden, dass er die Sensorpixel 15012 in dem Array in Übereinstimmung (z.B. in Synchronisation) mit dem Emissionsmuster (z.B. in Übereinstimmung mit den Lichtemittern 15004, die Licht aussenden oder nicht) aktiviert oder deaktiviert. Zur Veranschaulichung: Der Sensor 52 kann so konfiguriert werden, dass er ein oder mehrere erste Sensorpixel 15012 aktiviert (z.B. die das emittierte Licht empfangen können, z.B. zurückreflektiert, basierend auf dem emittierten Emissionsmuster, z.B. die dunkleren Sensorpixel 15012 in 150D). Der Sensor 52 kann so konfiguriert werden, dass er einen oder mehrere zweite Sensorpixel 15012 deaktiviert (z.B. kann er das emittierte Licht aufgrund des emittierten Emissionsmusters nicht empfangen, z.B. die höheren Sensorpixel 15012 in ).
  • Der Sensor 52 kann so konfiguriert werden, dass er ein Sensorsignal (z.B. ein Analogsignal, wie z.B. einen Strom) erkennt oder liefert. Zur Veranschaulichung: Jedes Sensorpixel 15012 (z.B. jede Fotodiode) kann so konfiguriert werden, dass es ein Signal erzeugt, wenn Licht auf den Sensor 52 (zur Veranschaulichung: auf das entsprechende Sensorpixel 15012) auftrifft. Der Sensor 52 kann so konfiguriert werden, dass er als Ausgang ein Sensorsignal liefert, das die von jedem Sensorpixel 15012 erzeugten Signale enthält. Als Beispiel kann das Sensorsignal das Signal von einem einzelnen Sensorpixel 15012 aufweisen. Als weiteres Beispiel kann das Sensorsignal eine Vielzahl von Signalen von einer Vielzahl von Sensorpixeln 15012 aufweisen (z.B. kann das Sensorsignal eine Summe oder eine gewichtete Summe einer Vielzahl von Sensorsignalen sein oder aufweisen), wie z.B. in 150D dargestellt. Illustrativ kann der Sensor 52 so konfiguriert werden, dass er ein Sensorsignal für jedes Emissionsmuster liefert, das von dem lichtemittierenden System 15002 emittiert wird.
  • Ein Beispiel für den Betrieb des Sensors 52 in Bezug auf ein emittiertes Emissionsmuster ist in 150B und 150C dargestellt. Das Emissionsmuster, das vom Lichtsendesystem 15002 (z.B. von der Anordnung der Lichtsender 15004) ausgesendet wird, kann von einem Objekt 15014 (z.B. einem Fahrzeug) im Sichtfeld 15010 reflektiert werden. Das Licht kann von dem Objekt 15014 in Richtung des LIDAR-Systems 15000 reflektiert werden. Das reflektierte Licht kann durch den Sensor 52 gesammelt werden. Das reflektierte Licht kann ein Muster aufweisen, das dem Emissionsmuster und der Reflexion vom Objekt 15014 entspricht. Illustrativ kann ein gesammeltes Sichtfeld 15010 (z.B. ein Sichtfeld einschließlich des reflektierten Lichts) beleuchtete Bereiche (z.B. die Bereiche D bis G in 150B) in Übereinstimmung mit Teilen des Objekts 15014 haben, die durch das Emissionsmuster beleuchtet werden. Das gesammelte Sichtfeld 15010 kann unbeleuchtete Bereiche (z.B. die Bereiche A bis C in 150B) in Übereinstimmung mit Teilen des Objekts 15014 haben, die nicht durch das Emissionsmuster beleuchtet sind.
  • Wie z.B. in 150C dargestellt, kann der Sensor 52 einen oder mehrere reflektierte Impulse empfangen (z.B. einen oder mehrere reflektierte Lichtimpulse). Der eine oder die mehreren reflektierten Impulse können zu verschiedenen Zeitpunkten auf den Sensor 52 auftreffen (illustrativ, abhängig von der Entfernung zwischen dem Sensor 52 und dem Teil des Objekts 15014, der den Lichtimpuls reflektiert), z.B. können die reflektierten Impulse jeweils eine unterschiedliche Laufzeit haben. Betrachtet man als Beispiel das Emissionsmuster in 150B (z.B. mit den beleuchteten Bereichen A bis G), so kann für jeden beleuchteten Bereich gleichzeitig ein Lichtimpuls emittiert werden, wie z.B. in dem Diagramm 150161 dargestellt. Der Sensor 52 darf keinen reflektierten Impuls empfangen, der den beleuchteten Bereichen A bis C zugeordnet ist (z.B. den Pixeln A bis C), wie z.B. in dem Diagramm 150162 dargestellt. Der Sensor 52 empfängt möglicherweise einen reflektierten Impuls, der den beleuchteten Bereichen D bis G zugeordnet ist, zu unterschiedlichen Zeitpunkten und/oder mit unterschiedlichen Intensitäten, je nach der Reflexion vom Objekt 15014. Dies kann z.B. in dem Diagramm 150163 für die Fläche D, in dem Diagramm 150164 für die Fläche E, in dem Diagramm 150165 für die Fläche F und in dem Diagramm 150166 für die Fläche G dargestellt werden. Das Sensorsignal kann die empfangenen reflektierten Lichtimpulse beschreiben, wie z.B. in Diagramm 150167 dargestellt. Das Sensorsignal kann eine Überlagerung von Teilsignalen sein, die in Übereinstimmung mit den einzelnen reflektierten Lichtimpulsen erzeugt werden, die auf den Sensor 52 auftreffen. Die Überlagerung kann z.B. auf der Ebene des Sensors auftreten (illustrativ eine Überlagerung von Teilsignalen, die entsprechend der auf ein einzelnes Sensorpixel auftreffenden Lichtimpulse erzeugt werden). Die Überlagerung kann, als weiteres Beispiel, auf der Ebene der Signalverarbeitung auftreten (illustrativ können die Signale von mehreren Sensorpixeln zu einem Summensignal kombiniert werden, wie z.B. in 150D gezeigt).
  • Das LIDAR-System 15000 kann einen oder mehrere Prozessoren 15018 aufweisen. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die vom Sensor 52 detektierten Sensorsignale empfangen (z.B. eine Vielzahl verschiedener Sensorsignale für die Vielzahl verschiedener Emissionsmuster). Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie ein Bild (z.B. der Szene) auf der Grundlage der Sensorsignale rekonstruieren (z.B. unter Verwendung der Sensorsignale). Die Rekonstruktion kann in Übereinstimmung mit dem komprimierten Abtastalgorithmus (z.B. mit dem Bildrekonstruktionsalgorithmus) erfolgen. Illustrativ kann der komprimierte Abtastalgorithmus definieren, wie die Sensorsignale zu verarbeiten (z.B. zu kombinieren) sind (z.B. unter Berücksichtigung des zugehörigen Emissionsmusters), um das Bild zu rekonstruieren.
  • Der eine oder mehrere Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl verschiedener Emissionsmuster erzeugen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie dem lichtemittierenden Steuergerät 15008 ein entsprechendes Emissionsmuster aus der Vielzahl der verschiedenen Emissionsmuster liefern. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15018 können eine Anzahl M von Emissionsmustern an den lichtemittierenden Controller 15008 für jeden Abbildungsprozess (mit anderen Worten: für jede Bilderfassung) liefern. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl verschiedener Emissionsmuster zufällig oder pseudozufällig erzeugen. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl der verschiedenen Emissionsmuster in Übereinstimmung mit dem komprimierten Erfassungsalgorithmus erzeugen (z.B. als Funktion eines Mustererzeugungsalgorithmus). Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl der verschiedenen Emissionsmuster unter Berücksichtigung von Temperaturdaten erzeugen, die eine Temperatur des einen oder der mehreren Lichtemitter 15004 beschreiben, wie weiter unten näher beschrieben.
  • Das LIDAR-System 15000 kann einen Wärmemanagementkreislauf 15028 aufweisen. Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass sie eine Temperatureingabe vom lichtemittierenden System 15004 empfängt (z.B. eine gemessene Temperatur von einem oder mehreren Lichtemittern 15002, z.B. kann das lichtemittierende System 15004 einen oder mehrere Temperatursensoren aufweisen). Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass sie zusätzliche Überwachungsinformationen vom lichtemittierenden System 15004 empfängt (z.B. ein internes thermisches Modell des lichtemittierenden Systems 15004). Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass sie das LIDAR-System 15000 (z.B. den lichtemittierenden Controller 15008 und/oder den einen oder mehrere Prozessoren 15018) in Übereinstimmung mit der Temperatureingabe und/oder den Überwachungsinformationen steuert, z.B. in Übereinstimmung mit der gemessenen Temperatur des einen oder der mehreren Lichtemitter 15002.
  • Der Wärmemanagement-Kreislauf 15028 kann zur Bestimmung von Temperaturdaten konfiguriert werden. Die Temperaturdaten können eine individuelle Temperatur jedes Lichtemitters 15004 beschreiben. Die Temperaturdaten können die einzelnen Temperaturen in Übereinstimmung mit den Überwachungsinformationen beschreiben, z.B. in Übereinstimmung mit dem Temperaturmodell des lichtemittierenden Systems 15002. Als Beispiel können die Temperaturdaten das Vorhandensein kritischer Temperaturspitzen beschreiben (z.B. von überhitzten Lichtemittern 15004). Der Wärmemanagementkreislauf 15028 kann so konfiguriert werden, dass er Einschränkungen und/oder Anweisungen auf der Grundlage der individuellen Temperaturen der Lichtemitter 15004 bestimmt. Zur Veranschaulichung: Die Temperaturdaten können solche Einschränkungen und/oder Anweisungen aufweisen. Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass die Temperaturdaten mit einem entsprechenden Emissionsmuster der Vielzahl von Emissionsmustern verknüpft werden. Zur Veranschaulichung: Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass sie eine Wärmeverteilung der Lichtemitter 15004 (und entsprechende Einschränkungen oder Anweisungen) dem Emissionsmuster zuordnet, das mit dieser Wärmeverteilung emittiert wird (z. B. mit dieser Konfiguration der Lichtemitter 15004).
  • Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass sie die Temperaturdaten an den lichtemittierenden Controller 15008 liefert. Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 so steuert, dass die Ausgangsleistung eines oder mehrerer Lichtemitter 15004 angepasst wird (zur Veranschaulichung, um die Ausgangsleistung überhitzter Lichtemitter 15004 zu verringern). Als Beispiel kann die Gesamtausgangsleistung reduziert werden. Als weiteres Beispiel kann die individuelle Ausgangsleistung eines oder mehrerer der Lichtemitter 15004 reduziert werden.
  • Die Wärmemanagementschaltung 15028 kann so konfiguriert werden, dass sie die Temperaturdaten an einen oder mehrere Prozessoren 15018 liefert. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl von Emissionsmustern unter Berücksichtigung der Temperaturdaten erzeugen. Beispielsweise können der eine oder die mehreren Prozessoren 15018 so konfiguriert werden, dass sie die Emissionsmuster so erzeugen, dass eine individuelle Temperatur der Lichtemitter 15004 einen vorgegebenen Schwellenwert nicht überschreitet. Beispielsweise können der eine oder die mehreren Prozessoren 15018 so konfiguriert werden, dass sie die Emissionsmuster so erzeugen, dass ein Lichtemitter 15004 Licht für eine geringe Anzahl von aufeinanderfolgenden Emissionsmustern emittieren kann, z.B. weniger als drei oder weniger als zwei aufeinanderfolgende Emissionsmuster.
  • Das LIDAR-System 15000 kann einen Analog-Digital-Wandler 15020 aufweisen. Der Analog-Digital-Wandler 15020 kann so konfiguriert werden, dass er die analogen Sensorsignale in digitale (oder digitalisierte) Sensorsignale umwandelt. Der Analog-Digital-Umsetzer 15020 kann so konfiguriert werden, dass er die digitalen Sensorsignale an einen oder mehrere Prozessoren 15018 liefert. Der Analog-Digital-Wandler 15020 kann so konfiguriert werden, daß er eine Summe (z.B. eine gewichtete Summe) mehrerer analoger Sensorsignale in ein digitales Summensignal umwandelt, wie z.B. in 150D dargestellt. Die mehreren analogen Sensorsignale können dem Analog-Digital-Wandler 15020 gleichzeitig zur Verfügung gestellt werden (z.B. ein Sensorsignal für jedes Sensorpixel 15012 einer Anordnung von Sensorpixeln 15012). Der Analog-Digital-Wandler 15020 kann so konfiguriert werden, dass er das digitale Summensignal an einen oder mehrere Prozessoren 15018 liefert.
  • Die Komponenten des LIDAR-Systems 15000 (z.B. der eine oder mehrere Prozessoren 15018, der lichtemittierende Controller 15008, der Analog-Digital-Wandler 15020, die Wärmemanagementschaltung 15028) können auf einen gemeinsamen Referenztakt zugreifen. Dies kann die Synchronität des Betriebs der verschiedenen Komponenten gewährleisten.
  • Das LIDAR-System 15000 kann eine Detektoroptik 15022 (z.B. eine oder mehrere optische Komponenten) aufweisen, die so konfiguriert ist, dass sie Licht auf den Sensor 52 lenkt. Zur Veranschaulichung: Die Detektoroptik 15022 kann so konfiguriert werden, dass sie das Licht aus dem Sichtfeld 15010 sammelt und auf den Sensor 52 lenkt. Die Detektoroptik 15022 kann so konfiguriert werden, dass sie das Licht auf einen einzelnen Bereich überträgt (z.B. zur Fokussierung) (z.B. auf ein einzelnes Sensorpixel 15012, wie z.B. in 150B dargestellt). Die Detektoroptik 15022 kann als nicht-abbildende Optik (z.B. ein zusammengesetzter Parabolkonzentrator) konfiguriert sein oder konfiguriert werden, wie z.B. in 150D dargestellt. Die Detektoroptik 15022 kann eine optische Beschichtung zur Wellenlängenfilterung aufweisen (z.B. zur Filterung von Licht außerhalb des Infrarot- oder nahen Infrarot-Wellenlängenbereichs oder außerhalb des von der Lichtquelle 42 emittierten Wellenlängenbereichs).
  • Das LIDAR-System 15000 kann eine optische Empfängerkomponente 15024 aufweisen, wie z.B. in 150E dargestellt. Die optische Empfängerkomponente 15024 kann so konfiguriert werden, dass sie empfangenes Licht kollimiert (z.B. Licht, das aus dem Sichtfeld 15010 oder Licht, das von der Detektoroptik 15022 kommt). Die optische Empfängerkomponente 15024 kann so konfiguriert werden, dass sie Licht in Übereinstimmung (z.B. in Synchronisation) mit dem emittierten Emissionsmuster überträgt. Die optische Empfängerkomponente 15024 kann eine steuerbare zweidimensionale Blende sein. Als Beispiel, wie in 150E dargestellt, kann die optische Empfängerkomponente 15024 eine Vielzahl von Pixeln aufweisen. Die optische Empfängerkomponente 15024 kann so konfiguriert werden, dass ein Übertragungsfaktor für jedes Pixel in Übereinstimmung mit dem emittierten Emissionsmuster gesteuert werden kann. Zur Veranschaulichung: Die optische Empfängerkomponente 15024 kann so konfiguriert werden, dass sie die Pixel einzeln so steuert, dass die Pixel, die reflektiertes Licht empfangen können (z.B. Licht, das dem emittierten Muster zugeordnet ist), Licht durchlassen oder Licht auf den Sensor 52 lenken können (z.B. eine hohe Transmission, z.B. im Wesentlichen 1, oder ein hohes Reflexionsvermögen, z.B. im Wesentlichen 1). Die optische Empfängerkomponente 15024 kann so konfiguriert werden, dass die Pixel einzeln so gesteuert werden können, dass die Pixel, die kein reflektiertes Licht empfangen dürfen (z.B. nicht das reflektierte ausgestrahlte Licht, sondern z.B. nur Umgebungslicht), Licht blockieren oder Licht ablenken können (z.B. eine geringe Transmission haben können, z.B. im Wesentlichen 0). Zum Beispiel kann die optische Empfängerkomponente 15024 eine Flüssigkristallanzeige oder ein Flüssigkristall-auf-Silizium-Bauelement oder ein digitales Mikrospiegelgerät aufweisen. Die optische Empfängerkomponente 15024 kann einen optischen Filter zum Filtern des empfangenen Lichts aufweisen. Der optische Filter kann so konfiguriert werden, dass er Licht außerhalb eines vordefinierten Wellenlängenbereichs blockiert, z.B. außerhalb des Infrarot- oder nahen Infrarot-Wellenlängenbereichs, z.B. außerhalb des von der Lichtquelle 42 emittierten Wellenlängenbereichs.
  • Das LIDAR-System 15000 kann ein regelbares optisches Dämpfungsglied 15026 aufweisen (z.B. kann die optische Empfängerkomponente 15024 als regelbares optisches Dämpfungsglied konfiguriert werden), wie in 150F dargestellt. Das steuerbare optische Dämpfungsglied 15026 kann so konfiguriert werden, dass es empfangenes Licht steuerbar dämpft (z.B. Licht, das aus dem Sichtfeld 15010 oder Licht, das von der Detektoroptik 15022 kommt). Das steuerbare optische Dämpfungsglied 15026 kann so konfiguriert werden, dass es sich dynamisch an die Umgebungsbedingungen anpasst (z.B. an die aktuelle Umgebungslichtbedingung, z.B. basierend auf einem Input von einem Umgebungslichtsensor). Zur Veranschaulichung: Das steuerbare optische Dämpfungsglied 15026 kann so konfiguriert werden, dass es die Lichtdämpfung erhöht (z.B. die Transmission reduziert), wenn das Umgebungslicht hoch ist (z.B. über einem vordefinierten Schwellenwert). Das steuerbare optische Dämpfungsglied 15026 kann so konfiguriert werden, dass die Lichtdämpfung (z.B. Erhöhung der Transmission) bei geringem Umgebungslicht (z.B. unter einem vordefinierten Schwellenwert) reduziert wird. Das steuerbare optische Dämpfungsglied 15026 kann eine globale oder pixelweise Lichtdämpfung bewirken. Zum Beispiel kann das steuerbare optische Dämpfungsglied 15026 eine Vielzahl von Pixeln umfassen. Das steuerbare optische Dämpfungsglied 15026 kann so konfiguriert werden, dass es die Pixel einzeln steuert, um ein Muster der Lichtdämpfung bereitzustellen.
  • 151A bis 151D zeigen eine Segmentierung des Sichtfeldes 15010 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 15000 kann so konfiguriert werden, dass es eine Segmentierung des Sichtfeldes 15010 ermöglicht. Zur Veranschaulichung: Das Sichtfeld 15010 kann in Segmente (oder Bereiche) unterteilt werden. Die Sichtfeldsegmente können getrennt sein, z.B. nicht überlappend, wie in 151A dargestellt (z.B. kann ein erstes Sichtfeldsegment 151101, ein zweites Sichtfeldsegment 151102, ein drittes Sichtfeldsegment 151103 und ein viertes Sichtfeldsegment 151104 nicht überlappend sein). Alternativ können sich zumindest einige Sichtfeldsegmente (z.B. zumindest teilweise) überlappen, wie in 151 B und 151C dargestellt. Zum Beispiel kann sich das dritte Sichtfeldsegment 151103 mit dem ersten Sichtfeldsegment 151101 und mit dem zweiten Sichtfeldsegment 151102 überlappen (z.B. eine 50%ige Überlappung aufweisen). Als weiteres Beispiel kann sich ein fünftes Sichtfeldsegment 151105 mit dem ersten bis vierten Sichtfeldsegment überlappen (z.B. eine Überlappung von 25% haben).
  • Als Beispiel kann der Sensor 52 physikalisch getrennte Sensorpixel 15012 aufweisen, wie in 151D dargestellt. Der Sensor 52 kann ein erstes Sensorpixel 150121 und ein zweites Sensorpixel 150122 aufweisen. Das erste Sensorpixel 150121 kann physisch vom zweiten Sensorpixel 150122 getrennt sein. Jedes Sensorpixel 15012 kann einem entsprechenden Sichtfeldsegment zugeordnet sein (z.B. kann es Licht vom entsprechenden Sichtfeldsegment empfangen). Das erste Sensorpixel 150121 kann Licht aus dem ersten Sichtfeldsegment 151101 empfangen (z. B. kann es Licht aus dem entsprechenden Sichtfeldsegment empfangen). Das zweite Sensorpixel 150122 kann Licht aus dem zweiten Sichtfeldsegment 151102 empfangen. Das erste Sensorpixel 150121 und das zweite Sensorpixel 150122 können in demselben Sensor 52 oder in verschiedenen Sensoren 52 umfasst sein (z.B. in verschiedenen Subsensoren des Sensors 52, z.B. in Einpixel-Subsensoren).
  • Als weiteres Beispiel kann das LIDAR-System 15000 eine Vielzahl von LIDAR-Systemen (oder LIDAR-Subsystemen) umfassen, die verschiedenen Segmenten des Sichtfeldes zugeordnet sind. Das LIDAR-System 15000 kann ein weiteres (oder eine Vielzahl weiterer) lichtemittierendes System mit einem oder mehreren weiteren Lichtemittern aufweisen. Das LIDAR-System 15000 kann einen weiteren (oder mehrere weitere) lichtemittierenden Controller aufweisen, der so konfiguriert ist, dass er das weitere lichtemittierende System so steuert, dass es in Abhängigkeit von einem weiter komprimierten Erfassungsalgorithmus Licht emittiert, um eine weitere Vielzahl verschiedener Emissionsmuster zu emittieren. Das LIDAR-System 15000 kann einen weiteren (oder eine Vielzahl weiterer) Sensor 52 mit mindestens einer Fotodiode aufweisen. Das LIDAR-System 15000 kann einen oder mehrere weitere Prozessoren aufweisen, die so konfiguriert sind, dass sie ein weiteres Bild auf der Grundlage von Sensorsignalen rekonstruieren, die von dem weiteren Sensor in Übereinstimmung mit dem weiter komprimierten Erfassungsalgorithmus erfasst werden.
  • 152A bis 152K beschreiben verschiedene Aspekte eines Musteranpassungsprozesses in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die zu emittierenden Emissionsmuster dynamisch anpassen (z. B. können der eine oder die mehreren Prozessoren 15018 so konfiguriert werden, dass sie einen adaptiven Kompressionserfassungsalgorithmus implementieren). Zur Veranschaulichung: Der Abtastalgorithmus mit adaptiver Kompression kann die Emissionsmuster auf der Grundlage von Ergebnissen oder Zwischenergebnissen (oder Zwischenergebnissen) der Bildrekonstruktion an interessierende Bildbereiche in der Szene aktualisieren. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie eine oder mehrere Regionen von Interesse im Sichtfeld 15010 des LIDAR-Systems 15000 klassifizieren. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl verschiedener Emissionsmuster individuell für die eine oder mehrere interessierende Regionen erzeugen (illustrativ, entsprechend der Klassifizierung).
  • Der eine oder mehrere Prozessoren 15018 können so konfiguriert werden, dass sie einen Anpassungseingang für den lichtemittierenden Controller 15008 bereitstellen. Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 so steuert, dass es eine Übersichtsaufnahme 15204 der Szene macht, z.B. eine Übersichtsaufnahme 15204 des Sichtfeldes 15010. Die Übersichtsaufnahme 15204 kann ein Bild der Szene darstellen oder ein Bild der Szene sein, das mit einer niedrigen Auflösung aufgenommen wurde, z.B. mit einer Auflösung, die niedriger ist als die maximale Auflösung des LIDAR-Systems 15000. Als Beispiel kann die Übersichtsaufnahme 15204 mit einer geringen Anzahl von Emissionsmustern aufgenommen werden (z.B. kann das Bild erzeugt werden), z.B. kleiner als ein Standard-Bildgebungsverfahren.
  • Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass er das lichtemittierende System 15002 steuert, um die Emission einer oder mehrerer Untergruppen von Lichtemittern 15004 zu gruppieren (z.B. um ein Binning der Lichtemitter 15004 durchzuführen), wie z.B. in 152A und 152B dargestellt. Illustrativ können die Lichtemitter 15004 in einer Anordnung von Lichtemittern 15004 gruppiert werden, um Licht als größerer Lichtemitter auszusenden. Der lichtemittierende Controller 15008 kann so konfiguriert werden, dass die Gruppen entsprechend der gewünschten Auflösung für die Übersichtsaufnahme 15204 definiert werden. Beispielsweise kann durch die einzelnen Lichtemitter 15004 eine erste (z.B. hohe) Auflösung erzielt werden (z.B. durch Bildung einer oder mehrerer erster Gruppen 152021, die jeweils einen einzelnen Lichtemitter 15004 aufweisen). Die erste Auflösung kann der physikalischen Auflösung der Anordnung der Lichtemitter 15004 entsprechen. Eine zweite (z.B. mittlere, illustrativ niedrigere als die erste) Auflösung kann durch die Schaffung einer oder mehrerer zweiter Gruppen 152022 (z.B. mit mehr Lichtemittern 15004 als die ersten Gruppen 152021) erreicht werden, z.B. mit jeweils vier Lichtemittern 15004 (z.B. in einer zwei mal zwei Unteranordnung). Eine dritte (z.B. niedrige, illustrativ niedrigere als die erste und als die zweite) Auflösung kann durch Schaffung einer oder mehrerer dritter Gruppen 152023 (z.B. mit mehr Lichtemittern 15004 als die ersten Gruppen 152021 und die zweiten Gruppen 152022) erreicht werden, z.B. mit jeweils neun Lichtemittern 15004 (z.B. in einer Untergruppe von drei mal drei). Illustrativ können, wie in 152B gezeigt, Lichtemitter-Arrays (z.B. Lasergitter) mit unterschiedlicher räumlicher Auflösung mit den verschiedenen Gruppen geliefert werden. Es versteht sich von selbst, dass die in 152A dargestellten Gruppen als Beispiel gezeigt werden und verschiedene Gruppierungen möglich sind, z.B. in Abhängigkeit von der gewünschten Auflösung.
  • Der eine oder mehrere Prozessoren 15018 können so konfiguriert werden, dass sie die Übersichtsaufnahme 15204 analysieren, wie in bis dargestellt. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die interessierenden Regionen im Sichtfeld 15010 des LIDARSystems 15000 klassifizieren (z.B. identifizieren), indem sie die Übersichtsaufnahme 15204 analysieren (z.B. die interessierenden Regionen klassifizieren, indem sie die Übersichtsaufnahme 15204 verwenden).
  • Der eine oder mehrere Prozessoren 15018 können so konfiguriert werden, dass sie die interessierenden Regionen nach einem oder mehreren Relevanzkriterien klassifizieren. Beispielsweise können die Regionen von Interesse nach ihrer Entfernung klassifiziert werden. Eine erste Region von Interesse 152041 kann in Bezug auf eine zweite Region von Interesse 152042 weiter vom LIDAR-System entfernt sein (z.B. können die Objekte, z.B. Fußgänger, in der zweiten Region von Interesse 152042 näher am LIDAR-System 15000 liegen). Alternativ oder zusätzlich kann die erste Region von Interesse 152041 Objekte mit geringerer Relevanz (z.B. weniger kritisch, z.B. in Bezug auf die Fahrsicherheit) in Bezug auf die zweite Region von Interesse 152042 umfassen (z.B. können die Objekte, z.B. Fußgänger, in der zweiten Region von Interesse 152042 als relevanter oder kritischer angesehen werden). Zur Veranschaulichung: Die zweite Region von Interesse 152042 kann als relevanter eingestuft werden als die erste Region von Interesse 152041.
  • Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass ein oder mehrere Begrenzungsrahmen entsprechend den identifizierten Regionen von Interesse erstellt werden. Jede Region von Interesse kann mit einem entsprechenden Begrenzungsrahmen verbunden werden. Ein Begrenzungsrahmen kann die zugehörige Region von Interesse einschließen (z.B. kann die erste Region von Interesse 152041 von einem ersten Begrenzungsrahmen 152061 und die zweite Region von Interesse 15204- 2 von einem zweiten Begrenzungsrahmen 152062 eingeschlossen werden). Zur Veranschaulichung: Ein Begrenzungsrahmen kann eine Gruppe von Pixeln in der Übersichtsaufnahme 15204 aufweisen oder darstellen, die mit der jeweiligen Region von Interesse verbunden ist. Ein Begrenzungsrahmen kann eine Gruppe von Sensorpixeln 15012 und/oder eine Gruppe von Lichtemittern 15004, z.B. in einem Emitter-Array, definieren, die dem jeweiligen interessierenden Bereich zugeordnet ist.
  • Der eine oder mehrere Prozessoren 15018 können so konfiguriert werden, dass sie jeder Region von Interesse (z. B. jedem Begrenzungsrahmen) einen Prioritätswert zuweisen. Die Priorität kann entsprechend der Klassifizierung zugewiesen werden, z.B. nach den Relevanzkriterien für die jeweilige Region von Interesse. Beispielsweise kann die zweite interessierende Region 152042 einen höheren Prioritätswert (z.B. eine höhere Prioritätsrangfolge) haben als die erste interessierende Region 152041. Dementsprechend kann der zweite Begrenzungsrahmen 152062 einen höheren Prioritätswert haben als der erste Begrenzungsrahmen 152061.
  • Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl von Emissionsmustern individuell für die eine oder mehrere interessierende Regionen mit unterschiedlichen räumlichen Auflösungen erzeugen, wie zum Beispiel in 152F dargestellt. Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie die Vielzahl von Emissionsmustern entsprechend der Priorität der jeweiligen Region von Interesse erzeugen (z.B. entsprechend der Relevanz der jeweiligen Region von Interesse und entsprechend der jeweiligen Priorität zu emittieren und/oder zu analysieren, wie weiter unten im Detail beschrieben). Zur Veranschaulichung: Für jede identifizierte Region von Interesse (z.B. jeder Begrenzungsrahmen) kann ein Emissionsmuster mit hoher oder mittlerer Auflösung oder mit niedriger Auflösung bereitgestellt werden (z.B. verschiedene Binnings der Lichtemitter 15004).
  • Beispielsweise können der eine oder die mehreren Prozessoren 15018 so konfiguriert werden, dass sie ein Emissionsmuster für eine Region von Interesse mit einem höheren zugewiesenen Prioritätswert erzeugen, z.B. höher als eine andere Region von Interesse, mit einer höheren räumlichen Auflösung als das Emissionsmuster für die andere Region von Interesse. Als weiteres Beispiel können der eine oder die mehreren Prozessoren 15018 so konfiguriert werden, dass sie ein Emissionsmuster für eine Region von Interesse mit einem niedrigeren zugewiesenen Prioritätswert, z.B. niedriger als eine andere Region von Interesse, mit einer höheren räumlichen Auflösung als das Emissionsmuster für die andere Region von Interesse erzeugen. Verschiedene Gruppierungen von Lichtemittern 15004 können für verschiedene interessierende Regionen mit unterschiedlicher Priorität vorgesehen werden. Zur Veranschaulichung: Die einem interessierenden Bereich zugeordneten Lichtemitter 15004 (die z.B. Licht in Richtung dieses Bereichs emittieren) können entsprechend einer gewünschten Auflösung für diesen interessierenden Bereich gruppiert werden. Als Beispiel kann eine drei mal drei Binning 152023 der Lichtemitter 15004 für den ersten interessierenden Bereich 152041 und eine individuelle Binning 152021 der Lichtemitter 15004 für den zweiten interessierenden Bereich 152041 vorgesehen werden.
  • Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie eine Vielzahl von virtuellen Emissionsmustern erzeugen, die mit einer Region von Interesse auf der Grundlage der gewünschten Auflösung verbunden sind. Zur Veranschaulichung: Ein virtuelles Emissionsmuster kann eine Anzahl (und eine Gruppierung) von Lichtemittern 15004 beschreiben oder aufweisen, um den zugehörigen interessierenden Bereich mit der gewünschten Auflösung abzubilden. Als Beispiel kann eine Vielzahl von ersten virtuellen Emissionsmustern 152081 für den ersten interessierenden Bereich 152041 und eine Vielzahl von zweiten virtuellen Emissionsmustern 152082 (illustrativ, mit höherer Auflösung) für den zweiten interessierenden Bereich 152042 erzeugt werden (wie in 152G und 152H gezeigt).
  • Der eine oder mehrere Prozessoren 15018 können so konfiguriert werden, dass sie ein Emissionsmuster für eine Region von Interesse erzeugen, indem sie das entsprechende virtuelle Emissionsmuster auf die Lichtemitter 15004 abbilden. Illustrativ kann das Mapping so verstanden werden, dass die zu steuernden Lichtemitter 15004 bestimmt werden (z.B. ihre Position in der Anordnung der Lichtemitter 15004), um die jeweilige Region von Interesse mit der gewünschten Auflösung abzubilden. Anders ausgedrückt kann die Abbildung so verstanden werden, dass die zu steuernden Lichtemitter 15004 bestimmt werden, um den Teil des Sichtfeldes 15010, der dem interessierenden Bereich zugeordnet ist, mit der gewünschten Auflösung abzubilden. Zum Beispiel kann eine Vielzahl von Emissionsmustern 152101 für den ersten interessierenden Bereich 152041 und eine Vielzahl von zweiten Emissionsmustern 152102 für den zweiten interessierenden Bereich 152042 erzeugt werden (wie in 1521 und 152J gezeigt).
  • Ein kombiniertes Emissionsmuster kann für mehrere interessierende Regionen erzeugt werden, z.B. wenn sich die interessierenden Regionen (z.B. die entsprechenden Begrenzungsrahmen) nicht überlappen. Beispielsweise kann ein Emissionsmuster für eine interessierende Region und ein Emissionsmuster für eine andere interessierende Region (z.B. mit gleicher oder unterschiedlicher Priorität) in ein und dasselbe Emissionsmuster einbezogen werden, wenn sich die interessierenden Regionen nicht überlappen. Zur weiteren Veranschaulichung kann ein kombiniertes Emissionsmuster erzeugt werden, indem die mit verschiedenen interessierenden Regionen verbundenen virtuellen Emissionsmuster auf die Lichtemitter 15004 abgebildet werden. Als Beispiel kann ein kombiniertes Emissionsmuster 152103 für die erste interessierende Region 152041 und die zweite interessierende Region 152042 erzeugt werden (z.B. durch Kombination der ersten virtuellen Emissionsmuster 152081 und der zweiten virtuellen Emissionsmuster 152082), wie z.B. in 152K dargestellt.
  • Die angepassten Emissionsmuster können verwendet werden, um Verfeinerungsaufnahmen (z.B. Aufnahmen mit der angepassten Auflösung) für die verschiedenen Regionen von Interesse zu machen. Die Verfeinerungsaufnahmen können in Übereinstimmung mit der den interessierenden Regionen zugewiesenen Priorität gemacht werden. Die Sensorsignale, die verschiedenen Regionen von Interesse zugeordnet sind, können entsprechend der Priorität analysiert werden, die der jeweiligen Region von Interesse zugeordnet ist. Beispielsweise können schnellere Ergebnisse für nahe gelegene Objekte geliefert werden, während weit entfernte Objekte zu einem späteren Zeitpunkt, z.B. mit niedrigerer Priorität, behandelt werden können. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15018 können so konfiguriert werden, dass sie ein vom Sensor 52 erzeugtes Signal verarbeiten, das einem interessierenden Bereich zugeordnet ist, dem ein höherer Prioritätswert zugeordnet ist als einem anderen interessierenden Bereich, bevor ein vom Sensor erzeugtes Signal verarbeitet wird, das dem anderen interessierenden Bereich zugeordnet ist. Beispielsweise können Sensorsignale, die mit dem zweiten interessierenden Bereich 152042 verbunden sind, vor der Verarbeitung von Sensorsignalen, die mit dem ersten interessierenden Bereich 152041 verbunden sind, verarbeitet werden.
  • 153 zeigt ein Flussdiagramm für einen Musteranpassungsalgorithmus 15300 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Der Algorithmus 15300 kann einen „Start“ in 15302 aufweisen. Der Algorithmus 15300 kann in 15304 die Aufnahme der Übersichtsaufnahme (z.B. in mittlerer oder niedriger Auflösung) beinhalten, z.B. unter Verwendung einer vordefinierten Emissionsmustersequenz (z.B. mit einer kleinen Anzahl von Mustern).
  • Der Algorithmus 15300 kann in 15306 das Analysieren und Klassifizieren von Pixeln in der Übersichtsaufnahme beinhalten, z.B. nach der Entfernung (z.B. Nah/Fern), der Signalqualität (z.B. gutes Signal/schlechtes Signal) und anderen Relevanzkriterien.
  • Der Algorithmus 15300 kann in 15308 die Bestimmung von Regionen von Interesse (z.B. ein dunkler Bereich, ein nahes Objekt und ähnliches) einschließen und die Regionen von Interesse bestimmen und ihnen Prioritäten zuweisen.
  • Der Algorithmus 15300 kann in 15310 eine Liste von Begrenzungsrahmen erstellen, die nach ihren Prioritäten sortiert (d.h. gereiht) sind. Der erste Eintrag in der Liste kann die höchste Priorität haben.
  • Der Algorithmus 15300 kann in 15312 die Auswahl eines Eintrags in der Liste (z.B. des ersten Eintrags in der Liste) und das Zurücksetzen eines Watchdog-Timers beinhalten.
  • Der Algorithmus 15300 kann in 15314 die Bestimmung einschließen, ob der ausgewählte Eintrag existiert (z.B. ob die Liste dieses Element enthält, z.B. ob sie nicht leer ist) und ob der Watchdog-Timer nicht ausgelöst wird. Falls er falsch ist, kann der Algorithmus 15300 neu gestartet werden. Ist dies der Fall, kann der Algorithmus 15300 zum nächsten Schritt weitergehen, z.B. 15316.
  • Der Algorithmus 15300 kann in 15316 die Erstellung einer Emissionsmustersequenz für die aktuellen Begrenzungsrahmen (z.B. den ausgewählten Eintrag der Liste) beinhalten.
  • Der Algorithmus 15300 kann in 15318 eine Verfeinerungsaufnahme beinhalten (illustrativ unter Verwendung des zuvor erstellten Emissionsmusters).
  • Der Algorithmus 15300 kann in 15320 die Auswahl des nächsten Eintrags in der Liste einschließen und zu 15314 zurückgehen.
  • 154A und 154B zeigen jeweils ein LIDAR-System 15400 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 15400 kann eine beispielhafte Realisierung des LIDAR-Systems 15000 sein. Zur Veranschaulichung: Die Komponenten des LIDAR-Systems 15400 können eine beispielhafte Realisierung der Komponenten des LIDAR-Systems 15000 sein.
  • Das LIDAR-System 15400 kann ein Emitter-Array 15402 aufweisen, z.B. ein Array von Lichtemittern (z.B. ein Array von Laser-Emittern, wie ein VCSEL-Array). Das Emitter-Array 15402 kann ein Beispiel für das lichtemittierende System 15002 sein.
  • Das LIDAR-System 15400 kann einen Treiber 15404 aufweisen (z.B. einen VCSEL-Treiber). Der Treiber 15404 kann so konfiguriert werden, dass er das Emitter-Array 15402 steuert, z.B. zur individuellen Steuerung der Lichtemitter des Emitter-Arrays 15402. Der Treiber 15404 kann so konfiguriert werden, dass er das Emitter-Array 15402 so steuert, dass es in Abhängigkeit von einem komprimierten Erfassungsalgorithmus Licht zur Emission einer Vielzahl verschiedener Emissionsmuster emittiert. Der Treiber 15404 kann ein Beispiel für einen lichtemittierenden Controller 15008 sein.
  • Das LIDAR-System 15400 kann einen Einzelpixel-Detektor 15406 aufweisen. Der Einzelpixel-Detektor 15406 kann so konfiguriert werden, dass er als Reaktion auf Licht, das auf den Einzelpixel-Detektor 15406 auftrifft, ein Signal (z.B. ein Analogsignal) erzeugt. Der Einpixel-Detektor 15406 kann ein Beispiel für Sensor 52 sein.
  • Das LIDAR-System 15400 kann einen Analog-Digital-Wandler 15408 aufweisen. Der Analog-Digital-Wandler 15408 kann so konfiguriert werden, dass er das vom Einpixel-Detektor 15406 gelieferte analoge Signal in ein digitales Signal umwandelt. Der Analog-Digital-Wandler 15408 kann so konfiguriert werden, dass er das digitale Signal an ein komprimiertes Verarbeitungsrechensystem 15410 liefert. Der Analog-Digital-Wandler 15408 kann so konfiguriert werden, dass er das vom Einpixel-Detektor 15406 gelieferte Analogsignal abtastet, z.B. entsprechend einem Triggersignal, das vom komprimierten Verarbeitungsrechensystem 15410 empfangen wird.
  • Das komprimierte Verarbeitungs-Rechensystem 15410 kann so konfiguriert werden, dass es ein Bild auf der Grundlage von Sensorsignalen rekonstruiert, die vom Einpixel-Detektor 15406 erfasst werden. Die Rekonstruktion kann in Übereinstimmung mit dem komprimierten Abtastalgorithmus erfolgen. Als Beispiel kann das komprimierte Verarbeitungs-Rechensystem 15410 ein Bildrekonstruktionssystem 154101 aufweisen. Das Bildrekonstruktionssystem 154101 kann so konfiguriert werden, dass es einen Bildrekonstruktionsalgorithmus implementiert. Das Bildrekonstruktionssystem 154101 kann so konfiguriert werden, dass es als Ausgabe das rekonstruierte Bild liefert.
  • Das komprimierte Verarbeitungs-Rechensystem 15410 kann so konfiguriert werden, dass es die Vielzahl verschiedener Emissionsmuster (z.B. zufällig oder pseudozufällig) erzeugt. Das komprimierte Verarbeitungs-Rechensystem 15410 kann so konfiguriert werden, dass es dem Treiber 15404 ein entsprechendes Emissionsmuster zur Verfügung stellt. Die Erzeugung der Emissionsmuster kann in Übereinstimmung mit dem komprimierten Abtastalgorithmus erfolgen. Als Beispiel kann das komprimierte Verarbeitungs-Rechensystem 15410 ein Mustererzeugungssystem 154102 aufweisen. Das Mustererzeugungssystem 154102 kann zur Implementierung des Mustererzeugungsalgorithmus konfiguriert werden. Das Mustergenerierungssystem 154102 kann so konfiguriert werden, dass es die erzeugten Muster dem Treiber 15204 und dem Bildrekonstruktionssystem 154101 zur Verfügung stellt. Das Mustererzeugungssystem 154102 kann so konfiguriert werden, dass es ein Triggersignal an den Treiber 15404 und an das Bildrekonstruktionssystem 154101 liefert.
  • Das komprimierte Verarbeitungsrechensystem 15410 kann so konfiguriert werden, dass es die Emissionsmuster aktualisiert, z.B. um einen adaptiven komprimierten Abtastalgorithmus bereitzustellen. Als Beispiel kann das komprimierte Verarbeitungs-Rechensystem 1410 ein Musteradaptionssystem 154103 aufweisen. Das Musteradaptionssystem 154103 kann so konfiguriert werden, dass es den Musteradaptionsalgorithmus implementiert. Das Musteradaptionssystem 154103 kann so konfiguriert werden, dass es die Ausgabe des Bildrekonstruktionssystems 154101 empfängt. Das Musteradaptionssystem 154103 kann so konfiguriert werden, dass es die aktualisierten oder angepassten Muster an das Mustererzeugungssystem 154102 liefert. Das Musteradaptionssystem 154103 kann so konfiguriert werden, dass es ein Triggersignal an das Mustererzeugungssystem 154102 liefert. Das Musteradaptionssystem 154103 kann so konfiguriert werden, dass es systemexterne Eingaben, z.B. Daten von einem Sensorfusionssystem, empfängt. Die externen Daten können Objekterkennung, Objekterkennung (und/oder Objektklassifizierung), Objektverfolgung, einen Klassifizierungsalgorithmus und ähnliches beschreiben oder beinhalten. Als Beispiel können die externen Daten eine Verkehrskarte aufweisen, wie z.B. in Bezug auf 127 bis 130 beschrieben.
  • Das LIDAR-System 15400 kann einen Wärmemanagementkreislauf 15412 aufweisen. Die Wärmemanagementschaltung 15412 kann so konfiguriert werden, dass sie einen Temperatureingang und zusätzliche Überwachungsparameter vom Emitter-Array 15402 empfängt. Die Wärmemanagementschaltung 15412 kann so konfiguriert werden, dass sie dem komprimierten Verarbeitungsberechnungssystem 15410 Einschränkungen und andere Parameter zur Verfügung stellt (zur Veranschaulichung: Einschränkungen und Parameter des Wärmemusters). Die Wärmemanagementschaltung 15412 kann so konfiguriert werden, dass sie dem Treiber 15404 Steuerparameter (z.B. Einschränkungen) zur Verfügung stellt (zur Veranschaulichung: Steuerparameter des thermischen Treibers). Die Wärmemanagementschaltung 15412 kann so konfiguriert werden, dass sie die Emissionsmuster vom Mustererzeugungssystem 154102 empfängt (z.B. zur Verknüpfung mit der Temperatur der Lichtemitter).
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ac ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann ein lichtemittierendes System mit einem oder mehreren Lichtemittern aufweisen. Das LIDAR-Sensorsystem kann einen lichtemittierenden Controller aufweisen, der so konfiguriert ist, dass er das lichtemittierende System so steuert, dass es in Abhängigkeit von einem komprimierten Erfassungsalgorithmus eine Vielzahl verschiedener Emissionsmuster emittiert. Das LIDAR-Sensorsystem kann einen Sensor mit mindestens einer Fotodiode aufweisen. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie ein Bild auf der Grundlage von Sensorsignalen rekonstruieren, die vom Sensor in Übereinstimmung mit dem komprimierten Erfassungsalgorithmus erfasst werden.
    • In Beispiel 2ac kann der Gegenstand von Beispiel 1ac optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er das lichtemittierende System so steuert, dass es Licht in einer gepulsten Weise emittiert, um die Vielzahl verschiedener Emissionsmuster in einer gepulsten Weise zu emittieren.
    • In Beispiel 3ac kann der Gegenstand eines der Beispiele 1ac oder 2ac optional beinhalten, dass mindestens ein Lichtemitter des einen oder der mehreren Lichtemitter so konfiguriert ist, dass er Licht in einem Infrarot-Wellenlängenbereich emittiert.
    • In Beispiel 4ac kann der Gegenstand eines der Beispiele 1ac bis 3ac optional beinhalten, dass mindestens ein Lichtemitter des einen oder der mehreren Lichtemitter so konfiguriert ist, dass er Licht mit einer Wellenlänge von etwa 905 nm emittiert und/oder dass mindestens ein Lichtemitter des einen oder der mehreren Lichtemitter so konfiguriert ist, dass er Licht mit einer Wellenlänge von etwa 1550 nm emittiert.
    • In Beispiel 5ac kann der Gegenstand eines der Beispiele 1ac bis 4ac optional beinhalten, dass das lichtemittierende System eine Vielzahl von Lichtemittern umfasst. Mindestens ein Emissionsmuster kann einen oder mehrere erste Lichtemitter, die jeweils Licht aussenden, und einen oder mehrere zweite Lichtemitter, die jeweils kein Licht aussenden, umfassen.
    • In Beispiel 6ac kann der Gegenstand eines der Beispiele 1ac bis 5ac optional beinhalten, dass das lichtemittierende System ferner eine Mikrolinsenanordnung umfasst, die stromabwärts des einen oder der mehreren Lichtemitter angeordnet ist, um das von dem einen oder den mehreren Lichtemittern emittierte Licht zu kollimieren.
    • In Beispiel 7ac kann der Gegenstand eines der Beispiele 1ac bis 6ac optional beinhalten, dass der eine oder die mehreren Lichtemitter ein zweidimensionales Laserarray mit einer Vielzahl von zweidimensional angeordneten Laserstrahlern aufweisen.
    • In Beispiel 8ac kann der Gegenstand von Beispiel 7ac optional beinhalten, dass zumindest einige Laserstrahler der Vielzahl von Laserstrahlern oberflächenemittierende Laser mit vertikalem Resonator sind.
    • In Beispiel 9ac kann der Gegenstand eines der Beispiele 7ac oder 8ac optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er die Laseremitter des zweidimensionalen Laserarrays individuell steuert, um Laserpulse so zu emittieren, dass die Vielzahl unterschiedlicher Emissionsmuster als Funktion des komprimierten erfassten Algorithmus emittiert wird.
    • In Beispiel 10ac kann der Gegenstand eines der Beispiele 1ac bis 9ac optional einen Analog-Digital-Wandler aufweisen, um die analogen Sensorsignale in digitale Sensorsignale umzuwandeln, die dem einen oder mehreren Prozessoren zur Verfügung gestellt werden.
    • In Beispiel 11ac kann der Gegenstand von Beispiel 10ac optional beinhalten, dass der Analog-Digital-Wandler so konfiguriert ist, dass er eine Summe oder eine gewichtete Summe einer Vielzahl von gleichzeitig bereitgestellten analogen Sensorsignalen in ein digitales Summensignal umwandelt und das digitale Summensignal einem oder mehreren Prozessoren zur Verfügung stellt.
    • In Beispiel 12ac kann der Gegenstand eines der Beispiele 1ac bis 11ac optional beinhalten, dass die mindestens eine Fotodiode eine Lawinenfotodiode ist.
    • In Beispiel 13ac kann der Gegenstand von Beispiel 12ac optional beinhalten, dass die mindestens eine Lawinenfotodiode eine Ein-Photonen-Lawinenfotodiode ist.
    • In Beispiel 14ac kann der Gegenstand eines der Beispiele 1ac bis 13ac optional beinhalten, dass der Sensor einen Silizium-Photovervielfacher enthält.
    • In Beispiel 15ac kann der Gegenstand eines der Beispiele 1ac bis 14ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie die Vielzahl unterschiedlicher Emissionsmuster erzeugen und dem lichtemittierenden Steuergerät ein entsprechendes Emissionsmuster aus der Vielzahl unterschiedlicher Emissionsmuster zur Verfügung stellen.
    • In Beispiel 16ac kann der Gegenstand von Beispiel 15ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Vielzahl verschiedener Emissionsmuster zufällig oder pseudozufällig erzeugen.
    • In Beispiel 17ac kann der Gegenstand eines der Beispiele 1ac bis 16ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen adaptiven komprimierten Abtastalgorithmus bereitstellen, der auf der Grundlage von Ergebnissen oder Zwischenergebnissen oder Zwischenergebnissen der Bildrekonstruktion die Emissionsmuster auf Bildregionen von Interesse in der Szene aktualisiert.
    • In Beispiel 18ac kann der Gegenstand eines der Beispiele 1ac bis 17ac optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert sind, dass sie eine oder mehrere Regionen von Interesse im Sichtfeld des LIDAR-Sensorsystems klassifizieren. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Vielzahl unterschiedlicher Emissionsmuster individuell für die eine oder mehrere interessierende Region(en) des Sichtfeldes des LIDAR-Sensorsystems erzeugen.
    • In Beispiel 19ac kann der Gegenstand von Beispiel 18ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass die eine oder die mehreren interessierenden Regionen im Sichtfeld des LIDAR-Sensorsystems mit Hilfe einer Übersichtsaufnahme klassifiziert werden. Die Übersichtsaufnahme kann ein Bild der Szene mit einer geringeren Auflösung als der maximalen Auflösung des LIDAR-Sensorsystems darstellen.
    • In Beispiel 20ac kann der Gegenstand eines der Beispiele 18ac oder 19ac optional beinhalten, dass jede Region von Interesse mit einem entsprechenden Begrenzungsrahmen verbunden ist.
    • In Beispiel 21ac kann der Gegenstand eines der Beispiele 18ac bis 20ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die eine oder die mehreren Regionen von Interesse im Sichtfeld des LIDAR-Sensorsystems nach einem oder mehreren Relevanzkriterien klassifizieren.
    • In Beispiel 22ac kann der Gegenstand eines der Beispiele 18ac bis 21 ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie die Vielzahl unterschiedlicher Emissionsmuster individuell für die eine oder mehrere Regionen von Interesse mit unterschiedlichen räumlichen Auflösungen erzeugen.
    • In Beispiel 23ac kann der Gegenstand eines der Beispiele 18ac bis 22ac optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass jeder Region von Interesse entsprechend der Klassifizierung ein Prioritätswert zugewiesen wird.
    • In Beispiel 24ac kann der Gegenstand von Beispiel 23ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie ein Emissionsmuster für eine Region von Interesse mit einem höheren zugewiesenen Prioritätswert als eine andere Region von Interesse erzeugen, wobei das Emissionsmuster eine höhere räumliche Auflösung als ein Emissionsmuster für die andere Region von Interesse hat.
    • In Beispiel 25ac kann der Gegenstand von Beispiel 24ac optional beinhalten, dass ein Emissionsmuster für die interessierende Region und ein Emissionsmuster für die andere interessierende Region in ein und demselben Emissionsmuster aufweisen sind, falls die interessierende Region sich nicht mit der anderen interessierenden Region überschneidet.
    • In Beispiel 26ac kann der Gegenstand eines der Beispiele 24ac oder 25ac optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie ein vom Sensor erzeugtes Signal verarbeiten, das mit einem interessierenden Bereich verbunden ist, der einen höheren zugewiesenen Prioritätswert hat als ein anderer interessierter Bereich, bevor ein vom Sensor erzeugtes Signal verarbeitet wird, das mit dem anderen interessierenden Bereich verbunden ist.
    • In Beispiel 27ac kann der Gegenstand eines der Beispiele 1ac bis 26ac optional beinhalten, dass der Sensor aus genau einem Sensorpixel besteht.
    • In Beispiel 28ac kann der Gegenstand eines der Beispiele 1ac bis 26ac optional beinhalten, dass der Sensor ein erstes Sensorpixel und ein zweites Sensorpixel enthält, wobei das erste Sensorpixel physisch vom zweiten Sensorpixel getrennt ist.
    • In Beispiel 29ac kann der Gegenstand eines der Beispiele 1ac bis 26ac optional beinhalten, dass der Sensor aus einer Vielzahl von Sensorpixeln besteht, die in einer Richtung angeordnet sind, um ein eindimensionales Sensorpixelarray zu bilden.
    • In Beispiel 30ac kann der Gegenstand eines der Beispiele 1ac bis 26ac optional beinhalten, dass der Sensor aus einer Vielzahl von Sensorpixeln besteht, die in zwei Richtungen angeordnet sind, um ein zweidimensionales Sensorpixelarray zu bilden.
    • In Beispiel 31 ac kann der Gegenstand eines der Beispiele 1ac bis 30ac optional eine optische Empfängerkomponente aufweisen, um empfangenes Licht zu kollimieren.
    • In Beispiel 32ac kann der Gegenstand von Beispiel 31ac optional beinhalten, dass die optische Komponente des Empfängers eine digitale Mikrospiegelvorrichtung oder eine Flüssigkristall-auf-Silizium-Vorrichtung oder eine Flüssigkristallanzeige umfasst.
    • In Beispiel 33ac kann der Gegenstand eines der Beispiele 31 ac oder 32ac optional beinhalten, dass die optische Komponente des Empfängers einen optischen Filter zur Filterung des empfangenen Lichts enthält.
    • In Beispiel 34ac kann der Gegenstand eines der Beispiele 1ac bis 33ac optional ein steuerbares optisches Dämpfungsglied zur kontrollierbaren Dämpfung des empfangenen Lichts aufweisen.
    • In Beispiel 35ac kann der Gegenstand eines der Beispiele 1ac bis 34ac optional ein weiteres lichtemittierendes System mit einem oder mehreren weiteren Lichtemittern, einen weiteren lichtemittierenden Controller, der so konfiguriert ist, dass er das weitere lichtemittierende System so steuert, dass es Licht emittiert, um eine weitere Vielzahl von verschiedenen Emissionsmustern als Funktion eines weiter komprimierten Erfassungsalgorithmus zu emittieren, einen weiteren Sensor mit mindestens einer Fotodiode und einen oder mehrere weitere Prozessoren, die so konfiguriert sind, dass sie ein weiteres Bild auf der Grundlage von Sensorsignalen rekonstruieren, die von dem weiteren Sensor in Übereinstimmung mit dem weiter komprimierten Erfassungsalgorithmus erfasst werden.
    • In Beispiel 36ac kann der Gegenstand eines der Beispiele 1ac bis 35ac optional eine Wärmemanagementschaltung aufweisen, die so konfiguriert ist, dass sie das LIDAR-Sensorsystem in Übereinstimmung mit einer gemessenen Temperatur des einen oder mehrerer Lichtemitter steuert.
    • In Beispiel 37ac kann der Gegenstand von Beispiel 36ac optional beinhalten, dass die Wärmemanagementschaltung so konfiguriert ist, dass sie dem lichtemittierenden Controller Temperaturdaten liefert. Die Temperaturdaten können eine individuelle Temperatur jedes Lichtemitters des einen oder mehrerer Lichtemitter beschreiben.
    • In Beispiel 38ac kann der Gegenstand von Beispiel 37ac optional beinhalten, dass der Wärmemanagementkreislauf so konfiguriert wird, dass die Temperaturdaten mit einem entsprechenden Emissionsmuster der Vielzahl von Emissionsmustern verknüpft werden.
    • In Beispiel 39ac kann der Gegenstand eines der Beispiele 37ac oder 38ac optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um die Vielzahl von Emissionsmustern unter Berücksichtigung der Temperaturdaten zu erzeugen.
    • Beispiel 40ac ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das LIDAR-Sensorsystem kann ein lichtemittierendes System mit einem oder mehreren Lichtemittern umfassen. Das LIDAR-Sensorsystem kann einen Sensor mit mindestens einer Fotodiode aufweisen. Das Verfahren kann die Steuerung des lichtemittierenden Systems umfassen, so dass es in Abhängigkeit von einem komprimierten Erfassungsalgorithmus eine Vielzahl verschiedener Emissionsmuster emittiert. Das Verfahren kann die Rekonstruktion eines Bildes auf der Grundlage von Sensorsignalen umfassen, die vom Sensor in Übereinstimmung mit dem komprimierten Erfassungsalgorithmus erfasst werden.
    • In Beispiel 41ac kann der Gegenstand von Beispiel 40ac optional die Steuerung des lichtemittierenden Systems umfassen, um Licht in einer gepulsten Art und Weise zu emittieren, um die Vielzahl verschiedener Emissionsmuster in einer gepulsten Art und Weise zu emittieren.
    • In Beispiel 42ac kann der Gegenstand eines der Beispiele 40ac oder 41 ac optional beinhalten, dass mindestens ein Lichtemitter des einen oder der mehreren Lichtemitter so konfiguriert ist, dass er Licht in einem Infrarot-Wellenlängenbereich emittiert.
    • In Beispiel 43ac kann der Gegenstand eines der Beispiele 40ac bis 42ac optional beinhalten, dass mindestens ein Lichtemitter des einen oder der mehreren Lichtemitter so konfiguriert ist, dass er Licht mit einer Wellenlänge von etwa 905 nm emittiert und/oder wobei mindestens ein Lichtemitter des einen oder der mehreren Lichtemitter so konfiguriert ist, dass er Licht mit einer Wellenlänge von etwa 1550 nm emittiert.
    • In Beispiel 44ac kann der Gegenstand eines der Beispiele 40ac bis 43ac optional beinhalten, dass das lichtemittierende System eine Vielzahl von Lichtemittern umfasst. Mindestens ein Emissionsmuster kann einen oder mehrere erste Lichtemitter umfassen, die jeweils Licht aussenden, und einen oder mehrere zweite Lichtemitter, die jeweils kein Licht aussenden.
    • In Beispiel 45ac kann der Gegenstand eines der Beispiele 40ac bis 44ac optional beinhalten, dass das lichtemittierende System ferner eine Mikrolinsenanordnung umfasst, die stromabwärts des einen oder der mehreren Lichtemitter angeordnet ist, um das von dem einen oder den mehreren Lichtemittern emittierte Licht zu kollimieren.
    • In Beispiel 46ac kann der Gegenstand eines der Beispiele 40ac bis 45ac optional beinhalten, dass der eine oder die mehreren Lichtemitter ein zweidimensionales Laserarray mit einer Vielzahl von zweidimensional angeordneten Laserstrahlern aufweisen.
    • In Beispiel 47ac kann der Gegenstand von Beispiel 46ac optional beinhalten, dass zumindest einige Laserstrahler der Vielzahl von Laserstrahlern oberflächenemittierende Laser mit vertikalem Resonator sind.
    • In Beispiel 48ac kann der Gegenstand eines der Beispiele 46ac oder 47ac optional die individuelle Steuerung der Laseremitter des zweidimensionalen Laserarrays zur Aussendung von Laserimpulsen umfassen, um die Vielzahl unterschiedlicher Emissionsmuster als Funktion des komprimierten erfassten Algorithmus zu emittieren.
    • In Beispiel 49ac kann der Gegenstand eines der Beispiele 40ac bis 48ac optional die Umwandlung der analogen Sensorsignale in digitale Sensorsignale beinhalten.
    • In Beispiel 50ac kann der Gegenstand von Beispiel 49ac optional die Umwandlung einer Summe oder einer gewichteten Summe mehrerer gleichzeitig bereitgestellter analoger Sensorsignale in ein digitales Summensignal umfassen.
    • In Beispiel 51ac kann der Gegenstand eines der Beispiele 40ac bis 50ac optional beinhalten, dass die mindestens eine Fotodiode eine Lawinenfotodiode ist.
    • In Beispiel 52ac kann der Gegenstand von Beispiel 51ac optional beinhalten, dass die mindestens eine Lawinenfotodiode eine Ein-Photonen-Lawinenfotodiode ist.
    • In Beispiel 53ac kann der Gegenstand eines der Beispiele 40ac bis 52ac optional beinhalten, dass der Sensor einen Silizium-Photovervielfacher enthält.
    • In Beispiel 54ac kann der Gegenstand eines der Beispiele 40ac bis 53ac optional die Erzeugung der Vielzahl von verschiedenen Emissionsmustern und die Bereitstellung eines entsprechenden Emissionsmusters der Vielzahl von verschiedenen Emissionsmustern für ein lichtemittierendes Steuergerät umfassen.
    • In Beispiel 55ac kann der Gegenstand von Beispiel 54ac optional beinhalten, dass die Mehrzahl der verschiedenen Emissionsmuster zufällig oder pseudozufällig erzeugt wird.
    • In Beispiel 56ac kann der Gegenstand eines der Beispiele 40ac bis 55ac optional die Bereitstellung eines adaptiven komprimierten Abtastalgorithmus umfassen, der auf der Grundlage von Ergebnissen oder Zwischenergebnissen oder Zwischenergebnissen der Bildrekonstruktion die Emissionsmuster in den interessierenden Bildbereichen der Szene aktualisiert.
    • In Beispiel 57ac kann der Gegenstand eines der Beispiele 40ac bis 56ac optional die Klassifizierung einer oder mehrerer Regionen von Interesse im Sichtfeld des LIDAR-Sensorsystems umfassen. Das Verfahren kann die Erzeugung einer Vielzahl verschiedener Emissionsmuster individuell für eine oder mehrere interessierende Regionen im Sichtfeld des LIDAR-Sensorsystems umfassen.
    • In Beispiel 58ac kann der Gegenstand von Beispiel 57ac optional beinhalten, dass die eine oder mehrere Regionen von Interesse im Sichtfeld des LIDAR-Sensorsystems mit Hilfe einer Übersichtsaufnahme klassifiziert werden. Die Übersichtsaufnahme kann ein Bild der Szene mit einer geringeren Auflösung als der maximalen Auflösung des LIDAR-Sensorsystems darstellen.
    • In Beispiel 59ac kann der Gegenstand eines der Beispiele 57ac oder 58ac optional die Verknüpfung jeder Region von Interesse mit einem entsprechenden Begrenzungsrahmen umfassen.
    • In Beispiel 60ac kann der Gegenstand eines der Beispiele 57ac bis 59ac optional beinhalten, dass die eine oder mehrere Regionen von Interesse im Sichtfeld des LIDAR-Sensorsystems nach einem oder mehreren Relevanzkriterien klassifiziert werden.
    • In Beispiel 61ac kann der Gegenstand eines der Beispiele 57ac bis 60ac optional die Erzeugung einer Vielzahl verschiedener Emissionsmuster individuell für die eine oder mehrere interessierende Regionen mit unterschiedlichen räumlichen Auflösungen umfassen.
    • In Beispiel 62ac kann der Gegenstand eines jeden der Beispiele 57ac bis 61 ac optional die Zuweisung eines Prioritätswertes für jede Region von Interesse gemäß der Klassifikation beinhalten.
    • In Beispiel 63ac kann der Gegenstand von Beispiel 62ac optional beinhalten, dass ein Emissionsmuster für eine Region von Interesse mit einem höheren zugewiesenen Prioritätswert als eine andere Region von Interesse erzeugt wird, das eine höhere räumliche Auflösung als ein Emissionsmuster für die andere Region von Interesse hat.
    • In Beispiel 64ac kann der Gegenstand von Beispiel 63ac optional die Einbeziehung eines Emissionsmusters für die interessierende Region und eines Emissionsmusters für die andere interessierende Region in ein und dasselbe Emissionsmuster umfassen, falls die interessierende Region sich nicht mit der anderen interessierenden Region überschneidet.
    • In Beispiel 65ac kann der Gegenstand eines der Beispiele 63ac oder 64ac optional die Verarbeitung eines vom Sensor erzeugten Signals umfassen, das einem interessierenden Bereich zugeordnet ist, der einen höheren Prioritätswert hat als ein anderer interessierter Bereich, bevor ein vom Sensor erzeugtes und dem anderen interessierenden Bereich zugeordnetes Signal verarbeitet wird.
    • In Beispiel 66ac kann der Gegenstand eines der Beispiele 40ac bis 65ac optional beinhalten, dass der Sensor aus genau einem Sensorpixel besteht.
    • In Beispiel 67ac kann der Gegenstand eines der Beispiele 40ac bis 65ac optional beinhalten, dass der Sensor ein erstes Sensorpixel und ein zweites Sensorpixel enthält, wobei das erste Sensorpixel physisch vom zweiten Sensorpixel getrennt ist.
    • In Beispiel 68ac kann der Gegenstand eines der Beispiele 40ac bis 65ac optional beinhalten, dass der Sensor aus einer Vielzahl von Sensorpixeln besteht, die in einer Richtung angeordnet sind, um ein eindimensionales Sensorpixelarray zu bilden.
    • In Beispiel 69ac kann der Gegenstand eines der Beispiele 40ac bis 65ac optional beinhalten, dass der Sensor aus einer Vielzahl von Sensorpixeln besteht, die in zwei Richtungen angeordnet sind, um ein zweidimensionales Sensorpixelarray zu bilden.
    • In Beispiel 70ac kann der Gegenstand eines der Beispiele 40ac bis 69ac optional eine optische Empfängerkomponente aufweisen, die das empfangene Licht kollimiert.
    • In Beispiel 71ac kann der Gegenstand von Beispiel 70ac optional beinhalten, dass die optische Empfängerkomponente eine digitale Mikrospiegelvorrichtung oder eine Flüssigkristall-auf-Silizium-Vorrichtung oder eine Flüssigkristallanzeige umfasst.
    • In Beispiel 72ac kann der Gegenstand eines der Beispiele 70ac oder 71ac optional beinhalten, dass die optische Komponente des Empfängers einen optischen Filter zur Filterung des empfangenen Lichts enthält.
    • In Beispiel 73ac kann der Gegenstand eines der Beispiele 40ac bis 72ac optional ein steuerbares optisches Dämpfungsglied aufweisen, das empfangenes Licht kontrollierbar dämpft.
    • In Beispiel 74ac kann der Gegenstand eines der Beispiele 40ac bis 73ac optional ein weiteres lichtemittierendes System mit einem oder mehreren weiteren Lichtemittern aufweisen; einen weiteren lichtemittierenden Controller, der das weitere lichtemittierende System so steuert, dass es Licht emittiert, um eine weitere Vielzahl verschiedener Emissionsmuster in Abhängigkeit von einem weiter komprimierten Erfassungsalgorithmus zu emittieren; einen weiteren Sensor mit mindestens einer Fotodiode; einen oder mehrere weitere Prozessoren, die ein weiteres Bild auf der Grundlage von Sensorsignalen rekonstruieren, die von dem weiteren Sensor gemäß dem weiter komprimierten Erfassungsalgorithmus erfasst werden.
    • In Beispiel 75ac kann der Gegenstand eines der Beispiele 40ac bis 74ac optional einen Wärmemanagementkreislauf aufweisen, der das LIDAR-Sensorsystem in Übereinstimmung mit einer gemessenen Temperatur des einen oder mehrerer Lichtemitter steuert.
    • In Beispiel 76ac kann der Gegenstand von Beispiel 75ac optional den Wärmemanagementkreislauf umfassen, der Temperaturdaten an ein lichtemittierendes Steuergerät liefert, wobei die Temperaturdaten eine individuelle Temperatur jedes Lichtemitters des einen oder mehrerer Lichtemitter beschreiben.
    • In Beispiel 77ac kann der Gegenstand von Beispiel 76ac optional den Wärmemanagementkreislauf umfassen, der die Temperaturdaten mit einem entsprechenden Emissionsmuster der Vielzahl von Emissionsmustern verknüpft.
    • In Beispiel 78ac kann der Gegenstand eines jeden der Beispiele 76ac oder 77ac optional die Erzeugung der Vielzahl von Emissionsmustern unter Berücksichtigung der Temperaturdaten umfassen.
    • Beispiel 79ac ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium umfasst sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1ac bis 39ac ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 40ac bis 78ac auszuführen.
    • Beispiel 80ac ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem gemäß einem der oben genannten Verfahrensbeispiele ausführt.
  • Ein konventionelles LIDAR-System (z.B. ein Festkörper-LIDAR-System) kann einen komplexen optischen Stapel und einen beweglichen Spiegel (z.B. einen MEMS-Spiegel) für das Laserscannen umfassen. In einem solchen konventionellen LIDAR-System kann ein striktes Koordinierungsschema für das Laserpulsen und die Detektion implementiert werden. Alternativ kann eine andere konventionelle LIDAR-Architektur ein Laserarray (z.B. ein VCSEL-Array) auf der Emitterseite aufweisen, um eine hohe Auflösung zu erreichen. In diesem Fall kann das LIDAR-System ein großes Detektorarray umfassen, um die gewünschte Auflösung zu erreichen.
  • In solchen konventionellen LIDAR-Systemen kann das Übersprechen (z.B. optisches Übersprechen) von benachbarten, gleichzeitig pulsierenden Sendepixeln die Detektion (also die Unterscheidung) des empfangenen Lichts stören oder beeinträchtigen. Darüber hinaus kann die Detektion des empfangenen Lichts zwischen aufeinanderfolgenden Pulsen das Warten auf die Laufzeit des LIDAR-Systems beinhalten (zur Veranschaulichung: das LIDAR-System kann langsamer pulsen als eine maximale Laufzeit des LIDAR-Systems).
  • Eine mögliche Lösung für die oben genannten Probleme könnte die Modulation eines kleinen AC-Signals auf eine konstante DC-Beleuchtung beinhalten. Dieser Ansatz kann das Übersprechproblem teilweise lösen. Allerdings kann dieser Ansatz in Auflösung und Reichweite begrenzt sein, z.B. aufgrund von Laserschutznormen. Ein auf Abtastung (z.B. MEMS) basierendes LIDAR-System kann ein solches Modulationsschema pro Impuls verwenden. Ein solches Schema kann jedoch in der Auflösung, die frei von Übersprechen ist, immer noch begrenzt sein. Zur Veranschaulichung: Das Pulsen in X-Richtung und das Einfangen der Reflexion in Y-Richtung kann unter Übersprechen in Y-Richtung leiden.
  • Verschiedene Ausführungsformen können sich auf ein Lichtemissionsschema für ein LIDAR-System und auf ein LIDAR-System beziehen, das zur Umsetzung des Lichtemissionsschemas konfiguriert ist. Das LIDAR-System kann so konfiguriert werden, dass dem emittierten Licht (z.B. den emittierten Lichtsignalen, wie z.B. den ausgesendeten Lichtimpulsen) eine Modulation überlagert wird, so dass das Übersprechen in der gesamten Bildauflösung reduziert oder wesentlich eliminiert werden kann. Zur Veranschaulichung: Das Übersprechen kann sowohl in horizontaler als auch in vertikaler Richtung reduziert oder wesentlich eliminiert werden. Das Lichtemissionsschema kann das Emittieren von Licht (z.B. Pulsen) mit einer schnelleren Rate als die Laufzeit (z.B. schneller als eine maximale Laufzeit des LIDAR-Systems) beinhalten. Das LIDAR-System kann z.B. als Blitz/Flash-LIDAR-System oder als scannendes LIDAR-System konfiguriert sein (z.B. mit einem oder mehreren scannenden Elementen, wie z.B. einem oder mehreren scannenden Spiegeln).
  • In verschiedenen Ausführungsformen kann das LIDAR-System einen Sender (z.B. eine Lichtquelle) aufweisen. Der Sender kann für die Übertragung eines LIDAR-Signals konfiguriert werden. Der Sender kann eine Vielzahl (z.B. eine Anzahl N) von Emitterpixeln (z.B. eine Vielzahl von Teillichtquellen) aufweisen. Jedes Emitter-Pixel kann so konfiguriert werden, dass es Licht, z.B. ein Lichtsignal, aussendet.
  • Die Emitterpixel können sich zu einem Array zusammensetzen oder in einem Array angeordnet sein. Zum Beispiel können die Emitterpixel in einem eindimensionalen Array angeordnet sein (z.B. können die Emitterpixel in einer Richtung angeordnet sein, um das eindimensionale Array zu bilden). Die Emitterpixel können in dem eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet sein. Falls die Emitterpixel in einem eindimensionalen Array angeordnet sind (z.B. acht Emitterpixel übereinander gestapelt, z.B. acht kantenemittierende Pixel), kann das LIDAR-System (z.B. der Sender) ein Abtastelement (z.B. ein Strahllenkungselement) aufweisen, wie z.B. einen Abtastspiegel (z.B. einen MEMS-Spiegel). Als weiteres Beispiel können die Emitterpixel in einem zweidimensionalen Array angeordnet sein (z.B. können die Emitterpixel in zwei Richtungen angeordnet sein, um das zweidimensionale Array zu bilden). Die Emitterpixel können in dem zweidimensionalen Array in Zeilen und Spalten angeordnet sein. Zur Veranschaulichung: Das Emitter-Array kann Zeilen und Spalten aufweisen, z.B. eine Anzahl i von Zeilen und eine Anzahl j von Spalten (z.B. kann das Emitter-Array i × j Emitter-Pixel aufweisen).
  • Die Emitterpixel können eine Leuchtdiode (LED) aufweisen, z.B. mindestens ein Emitterpixel oder einige Emitterpixel oder alle Emitterpixel können eine Leuchtdiode (LED) aufweisen. Zusätzlich oder alternativ können die Emitterpixel eine Laserdiode aufweisen (z.B. eine kantenemittierende Laserdiode oder einen oberflächenemittierenden Laser mit vertikalem Resonator), z.B. mindestens ein Emitterpixel oder einige Emitterpixel oder alle Emitterpixel können eine Laserdiode aufweisen.
  • Jedes Emitterpixel kann ein eigenes Sichtfeld (z.B. ein eigenes Emissionsfeld) im Nahfeld (z.B. ein Teil des gesamten Sichtfeldes des LIDAR-Systems) haben. Illustrativ kann jedes Emitterpixel einem Teil oder einem Segment des Sichtfeldes des LIDAR-Systems zugeordnet werden (z.B. kann das Emissionsfeld jedes Emitterpixels kleiner sein als das Sichtfeld des LIDAR-Systems). Die aggregierten Emitterpixel können die gesamte Szene im Fernfeld abdecken (z.B. kann eine Überlagerung der einzelnen Emissionsfelder der Emitterpixel das Sichtfeld des LIDAR-Systems abdecken oder diesem entsprechen). Zur Veranschaulichung: Die einzelnen Emissionsfelder der Emitterpixel können sich überlappen und das Sichtfeld des LIDAR-Systems im Fernfeld abdecken.
  • Die Emitterpixel können in mehrere disjunkte Sendergruppen gruppiert werden (z.B. einschließlich einer ersten Sendergruppe und einer zweiten Sendergruppe). Jedes Emitterpixel kann Teil genau einer Sendergruppe sein. Illustrativ können disjunkte Sendergruppen als logisch getrennte Gruppen von Emitterpixeln verstanden werden (z.B. Gruppen von Emitterpixeln, die unabhängig voneinander gesteuert werden können). Die Anzahl der Emitterpixel in verschiedenen Sendergruppen kann gleich sein (z.B. kann die Anzahl der Emitterpixel der ersten Sendergruppe und die Anzahl der Emitterpixel der zweiten Sendergruppe gleich sein). Alternativ kann die Anzahl der Emitterpixel in verschiedenen Sendergruppen unterschiedlich sein (z.B. kann die erste Sendergruppe eine größere oder kleinere Anzahl von Emitterpixeln haben als die zweite Sendergruppe).
  • In verschiedenen Ausführungsformen kann das LIDAR-System eine Sendersteuerung (z.B. eine Lichtquellensteuerung) aufweisen. Der Sender-Controller kann so konfiguriert werden, dass er jedes Emitter-Pixel einzeln steuert (z.B. kann jedes Emitter-Pixel einzeln adressierbar sein), um eine Vielzahl von Lichtsignalen auszusenden. Zur Veranschaulichung: Der Sender-Controller kann so konfiguriert werden, dass er die Emitter-Pixel so steuert, dass zumindest einige der Emitter-Pixel jeweils ein entsprechendes Lichtsignal aussenden (z.B. eine kontinuierliche Welle, einen Lichtimpuls oder eine Vielzahl von Lichtimpulsen). Verschiedene Emitterpixel können Lichtsignale unterschiedlichen Typs aussenden (z.B. kann ein erstes Emitterpixel eine kontinuierliche Welle und ein zweites Emitterpixel eine Vielzahl von Lichtimpulsen aussenden). Alternativ können die Emitterpixel alle den gleichen Typ von Lichtsignalen aussenden.
  • Beispielsweise kann der Sendercontroller so konfiguriert werden, dass er die Emitterpixel einzeln steuert, um eine Vielzahl von Lichtsignalsequenz-Bildern (z.B. eine Vielzahl von Lichtsignalen, die jeweils als ein Bild strukturiert sind) zu emittieren. Illustrativ kann der Sender-Controller als der Lichtquellen-Controller 13312 konfiguriert werden, der z.B. in Bezug auf 131A bis 137 beschrieben wird. Als weiteres Beispiel kann der Sender-Controller so konfiguriert werden, daß er die Emitter-Pixel einzeln steuert, um die Vielzahl von Lichtsignalen in Abhängigkeit davon auszusenden, ob ein Sensor des LIDAR-Systems ein Lichtsignal empfängt (z.B. ein Echo-Lichtsignal oder ein Fremdlicht-Lichtsignal). Illustrativ kann der Sender-Controller als der Lichtquellen-Controller 13804 konfiguriert werden, der z.B. in Bezug auf 138 bis 144 beschrieben wird. Als weiteres Beispiel kann der Sendercontroller so konfiguriert werden, dass er die Emitterpixel moduliert, um die Wellenform von mindestens einem ausgesendeten Lichtsignal (z.B. einem ausgesendeten Lichtimpuls) zu modifizieren. Zur Veranschaulichung kann der Sender-Controller als der Lichtquellen-Controller 14506 konfiguriert werden, der z.B. im Zusammenhang mit 145A bis 149E beschrieben wird.
  • Jedes Emitter-Pixel (z.B. in einem Emitter-Array) kann mit einer bestimmten Modulationscharakteristik moduliert werden (z.B. einer Modulationsamplitude, einer Modulationsfrequenz, einer Modulationsphase und ähnlichem). Der Sendercontroller kann so konfiguriert werden, dass jedes Emitterpixel so moduliert wird, dass jedes Emitterpixel ein Lichtsignal aussenden kann, das mit einer entsprechenden Modulationscharakteristik moduliert ist. Wenn die Emitterpixel in einem zweidimensionalen Array angeordnet sind, kann eine Matrix von Modulationseigenschaften (z.B. eine Matrix von Modulationsfrequenzen) bereitgestellt werden. Die Matrix der Modulationseigenschaften kann als Modulationsmatrix bezeichnet werden. Ein von einem Emitterpixel emittiertes Lichtsignal kann eine Modulation aufweisen, die einem Hauptsignal überlagert ist (z.B. kann ein emittierter Lichtimpuls einen Hauptimpuls mit einer überlagerten Modulation aufweisen). Als Beispiel kann der Sender-Controller so konfiguriert werden, dass er einen Signalmodulator steuert, der so konfiguriert ist, dass er die Wellenform der emittierten Lichtsignale modifiziert (z.B. kann der Signalmodulator als der Signalmodulator konfiguriert sein oder konfiguriert werden, der in Bezug auf 145A bis 149E beschrieben ist). Der Senderregler und der Signalmodulator können auch in einem einzigen Gerät kombiniert werden (z.B. in einem einzigen Modul). Zur Veranschaulichung: Das LIDAR-System kann ein Gerät umfassen, das den Signalmodulator und den Senderregler enthält. Zur Veranschaulichung kann das Gerät auch als Signalmodulator und Senderregler konfiguriert werden, z.B. kann das Gerät so konfiguriert werden, dass es als Signalmodulator und Senderregler arbeitet.
  • Beispielsweise kann der Sendercontroller so konfiguriert werden, dass er jedes Emitterpixel frequenzmoduliert, so dass jedes Emitterpixel ein Lichtsignal aussendet, das mit einer entsprechenden Modulationsfrequenz moduliert ist. Als Beispiel kann die Sendersteuerung so konfiguriert werden, dass sie ein erweitertes Modulationsschema implementiert (z.B. kann die Sendersteuerung so konfiguriert werden, dass sie zumindest einige Lichtsignale in Übereinstimmung mit Orthogonal Frequency Division Multiplex frequenzmoduliert). Als weiteres Beispiel kann die Sendersteuerung so konfiguriert werden, dass sie ein einfaches Modulationsschema implementiert (z.B. kann die Sendersteuerung so konfiguriert werden, dass sie zumindest einige Lichtsignale mit einer Konstanttonmodulation, die einem Hauptsignal überlagert ist, frequenzmoduliert).
  • Der Senderregler kann so konfiguriert werden, dass er die Modulationseigenschaften aus einem Satz vordefinierter Modulationseigenschaften auswählt. Beispielsweise können die Modulationseigenschaften nach einer Verteilungsfunktion ausgewählt werden (z.B. unter Verwendung einer linearen Verteilungsfunktion oder einer nichtlinearen Verteilungsfunktion, wie z.B. einer logarithmischen Verteilungsfunktion). Als weiteres Beispiel können die Modulationseigenschaften aus einem Speicher (z.B. aus einer in einem Speicher abgelegten Tabelle) abgerufen werden, z.B. in einer vorgegebenen Reihenfolge oder in zufälliger Reihenfolge (z.B. kann keine bestimmte Reihenfolge à priori festgelegt werden).
  • Als Beispiel kann der Senderregler so konfiguriert werden, dass er die verschiedenen Modulationsfrequenzen aus einem Satz vordefinierter Modulationsfrequenzen auswählt. Der Satz von vordefinierten Modulationsfrequenzen kann eine diskrete Anzahl Ω von Modulationsfrequenzen aufweisen (z.B. eine erste Frequenz f1, eine zweite Frequenz f2,.., eine Ω-te Frequenz fΩ). Der Satz vordefinierter Modulationsfrequenzen kann eine Modulationsbandbreite im Bereich von etwa 1 MHz bis etwa 10 GHz abdecken, zum Beispiel von etwa 10 MHz bis etwa 1 GHz, zum Beispiel von etwa 100 MHz bis etwa 500 MHz. Die Modulationsbandbreite kann in Abhängigkeit von der Dauer eines ausgesendeten Lichtsignals (z.B. eines ausgesendeten Lichtimpulses) angepasst oder ausgewählt werden. Beispielsweise kann bei einem Lichtsignal von kurzer Dauer (z.B. etwa 10 ns) die Modulationsbandbreite im Bereich von etwa 100 MHz (z.B. eine Periode von etwa 10 ns) bis etwa 10 GHz (z.B. eine Periode von etwa 0,1 ns) liegen. Ein weiteres Beispiel: Bei einem Lichtsignal mittlerer Dauer (z.B. ca. 100 ns) kann die Modulationsbandbreite im Bereich von ca. 10 MHz (z.B. eine Periode von ca. 100 ns) bis ca. 1 GHz (z.B. eine Periode von ca. 1 ns) liegen. Als weiteres Beispiel kann bei einem Lichtsignal mit langer Dauer (z.B. ca. 1 µs, also ca. 1000 ns) die Modulationsbandbreite im Bereich von ca. 1 MHz (z.B. eine Periode von ca. 1 µs, z.B. ähnlich einer maximalen Laufzeit des LIDAR-Systems) bis ca. 100 MHz (z.B. eine Periode von ca. 10 ns) liegen. Zur Veranschaulichung: Die Emitterpixel (z.B. die Anordnung der Emitterpixel) können die Modulationsbandbreite abdecken (z.B. können die emittierten Lichtsignale mit Modulationsfrequenzen moduliert werden, die die Modulationsbandbreite abdecken). Die Modulationsbandbreite kann je nach Betrieb des LIDAR-Systems ausgewählt oder angepasst werden.
  • Nur als numerisches Beispiel kann der Sender ein Array mit 8 Zeilen und 25 Emitterpixeln pro Zeile (insgesamt 200 Emitterpixel) aufweisen. Jedes Emitterpixel kann mit einer eindeutigen Frequenz moduliert werden. Die Gesamtzahl der Emitterpixel kann gleich der Gesamtzahl der Modulationsfrequenzen sein (N=Ω). Wenn eine minimale Modulationsfrequenz von 101 MHz und eine maximale Modulationsfrequenz von 300 MHz gewählt wird, dürfen die Modulationsfrequenzen für die Emitterpixel fpixel1 = 101,0 MHz, fpixel2 = 102,0 MHz ..., fpixel200 = fpixelN = 300,0 MHz sein.
  • Der Sender-Controller kann so konfiguriert werden, dass er die Emitter-Pixel so steuert (z.B. moduliert), dass sie die Vielzahl der Lichtsignale nach einem Lichtemissionsschema aussenden.
  • In verschiedenen Ausführungsformen kann der Sendercontroller so konfiguriert werden, dass er die Emitterpixel so steuert, dass alle Emitterpixel das jeweilige Lichtsignal gleichzeitig (z.B. zu einem bestimmten Zeitpunkt) aussenden. Zur Veranschaulichung: Der Sender-Controller kann so konfiguriert werden, dass er die Emitter-Pixel so steuert, dass alle Emitter-Pixel als volles Messsignal feuern (z.B. alle Emitter-Pixel pulsieren gleichzeitig). Zur weiteren Veranschaulichung kann der Sendercontroller so konfiguriert werden, dass er die Emitterpixel so steuert, dass sie ein LIDAR-Messsignal aussenden, indem sie die entsprechenden Lichtsignale gleichzeitig aussenden.
  • Ein LIDAR-Messsignal kann als ein LIDAR-Signal (z.B. ein LIDAR-Impuls) beschrieben werden, das für eine einzelne Messung (z.B. eine einzelne LIDAR-Messung, wie z.B. eine einzelne Laufzeit-Messung) bereitgestellt wird. Veranschaulichend kann ein LIDAR-Messsignal ein oder mehrere Lichtsignale (z.B. ein oder mehrere Lichtimpulse) aufweisen, die von einem oder mehreren Emitterpixeln (z.B. zum gleichen Zeitpunkt oder zu verschiedenen Zeitpunkten, wie weiter unten näher beschrieben) emittiert werden. Zur weiteren Veranschaulichung kann ein LIDAR-Messsignal ein oder mehrere modulierte Lichtsignale (z.B. ein oder mehrere modulierte Lichtimpulse) aufweisen.
  • Der Sendercontroller kann so konfiguriert werden, dass jedes Emitterpixel mit einer entsprechenden (z.B. eindeutigen) Modulationscharakteristik moduliert wird. Die Modulationscharakteristik kann für jedes Emitterpixel die gleiche sein. Ein LIDAR-Messsignal kann z.B. beinhalten, dass jedes Emitterpixel (z.B. jedes Emitterpixel in jeder Gruppe von Emitterpixeln) mit der gleichen Modulationscharakteristik moduliert wird. Alternativ können verschiedene Emitterpixel mit unterschiedlichen Modulationseigenschaften moduliert werden (z.B. in einem gleichen LIDAR-Messsignal, illustrativ, innerhalb einer gleichen Zeitperiode oder eines gleichen Zeitfensters), wie weiter unten näher beschrieben.
  • Der Transmitter-Controller kann so konfiguriert werden, dass jedes Emitter-Pixel mit einer anderen Modulationscharakteristik für die Emission verschiedener (z.B. aufeinanderfolgender) LIDAR-Messsignale moduliert wird (z.B. können alle Emitter-Pixel mit einer gleichen Modulationscharakteristik moduliert werden, die bei verschiedenen LIDAR-Messsignalen variiert). Zur Veranschaulichung: Der Senderregler kann so konfiguriert werden, dass jedes Emitterpixel mit einer anderen Modulationscharakteristik in verschiedenen (z.B. aufeinander folgenden) Zeitperioden moduliert wird. Beispielsweise kann der Senderegler so konfiguriert werden, dass er alle Emitterpixel während einer ersten Zeitperiode mit einer ersten Modulationscharakteristik moduliert und während einer zweiten Zeitperiode alle Emitterpixel mit einer zweiten Modulationscharakteristik moduliert. Die zweite Zeitperiode kann auf die erste Zeitperiode folgen. Die zweite Modulationscharakteristik kann sich von der ersten Modulationscharakteristik unterscheiden.
  • Der Senderregler kann so konfiguriert werden, dass er die Modulation mit unterschiedlichen Modulationseigenschaften während verschiedener Zeiträume für einen Gesamtzeitraum (mit anderen Worten, ein Gesamtzeitfenster) wiederholt, der einer maximalen Laufzeit des LIDAR-Systems ähnlich ist (z. B. im Wesentlichen gleich der maximalen Laufzeit des LIDAR-Systems). Als Beispiel kann der Senderregler so konfiguriert werden, dass er alle Emitterpixel während einer dritten Zeitperiode mit einer dritten Modulationscharakteristik moduliert. Die dritte Zeitperiode kann auf die zweite Zeitperiode folgen. Die dritte Modulationscharakteristik kann sich von der zweiten Modulationscharakteristik und von der ersten Modulationscharakteristik unterscheiden.
  • Die maximale Laufzeit kann aus einem maximalen Erfassungsbereich für das LIDAR-System bestimmt werden. Die maximale Laufzeit kann das Doppelte der Zeit betragen, die das LIDAR-Messsignal (z.B. Lichtsignale, die von den Emitterpixeln emittiert werden) benötigt, um den maximalen Erfassungsbereich zu durchlaufen. Zur Veranschaulichung: Der Sendercontroller kann so konfiguriert werden, dass er die Emitterpixel so steuert, dass sie eine Vielzahl von LIDAR-Messsignalen (z.B. jedes mit einer anderen Modulation) innerhalb eines Zeitfensters aussenden, das einem maximalen Zeitablauf des LIDAR-Systems ähnlich ist. Nur als Zahlenbeispiel: Bei einer maximalen Detektionsreichweite des LIDAR-Systems von 300 m kann die maximale Laufzeit des LIDAR-Systems etwa 2 µs betragen.
  • Der Sender-Controller kann so konfiguriert werden, dass er dann eine neue Iteration der Modulation startet (z.B. nach Ablauf einer Zeitspanne, die der Laufzeit ähnlich ist). Der Senderegler kann so konfiguriert werden, dass er die neue Iteration mit einer der zuvor verwendeten Modulationseigenschaften startet. Zur Veranschaulichung kann der Senderegler so konfiguriert werden, dass er die Emitterpixel so steuert, dass sie eine Vielzahl von LIDAR-Messsignalen (z.B. jedes mit einer anderen Modulation) innerhalb eines zweiten Zeitfensters unter Verwendung der im vorherigen Zeitfenster verwendeten Modulationscharakteristika aussenden. Als Beispiel kann der Senderregler so konfiguriert werden, dass er die neue Iteration beginnend mit der ersten Zeitperiode unter Verwendung einer der Modulationscharakteristiken, wie z.B. der ersten Modulationscharakteristik, startet.
  • Dieses Modulationsschema kann den Effekt einer erhöhten Pulswiederholrate (z.B. im kHz-Bereich) bewirken. Illustrativ können mehrere Pulse innerhalb des Laufzeit-Fensters aufgenommen werden (z.B. können mehrere LIDAR-Messsignale innerhalb eines solchen Fensters ausgesendet werden). Die erhöhte Pulswiederholrate (z.B. die erhöhte Emissionsrate von LIDAR-Messsignalen) kann zu einer erhöhten Bildwiederholrate führen. Das Übersprechen zwischen LIDAR-Messsignalen kann durch die unterschiedlichen Modulationseigenschaften für die verschiedenen LIDAR-Messsignale reduziert oder eliminiert werden. Zur Veranschaulichung: Die Pulswiederholrate kann unabhängig von (z.B. nicht begrenzt durch) die maximale Laufzeit des LIDAR-Systems sein. Ein konventionelles LIDAR-System kann auf die Rückreflexion eines gesendeten Pulses (z.B. eines gesendeten LIDAR-Messsignals) warten, bevor es den nächsten Puls aussendet. Die Pulswiederholrate eines konventionellen LIDAR-Systems kann durch die Detektionsentfernung des LIDAR-Systems begrenzt sein (z.B. kann eine größere Reichweite einer Verringerung der Pulswiederholrate entsprechen).
  • In verschiedenen Ausführungsformen kann der Sender-Controller so konfiguriert werden, dass er die Emitter-Pixel so steuert, dass die Emitter-Pixel oder Gruppen von Emitter-Pixeln Licht in einer Sequenz emittieren. Zur Veranschaulichung: Nur ein Teil der Emitter-Pixel (z.B. nur eine Gruppe von Emitter-Pixeln), die nur einen Teil des Sichtfeldes beleuchten, können Licht aussenden (z.B. können sie gepulst sein). Die Teile der Emitterpixel (z.B. die Sendergruppen) können in einer Sequenz gezündet werden (z.B. können gepulst sein). Die Sequenz kann durch eine übergreifende Steuerung im laufenden Betrieb modifiziert werden, z.B. kann die Sequenz auf der Grundlage früherer Bilder oder Teilbilder angepasst werden (z.B. auf der Grundlage dessen, was in solchen Bildern oder Teilbildern erkannt wurde). Dieses Emissionsschema kann als Hybridblitzschema oder als intelligentes Blitzschema (z.B. „iFlash“) bezeichnet werden.
  • Die Emitterpixel in einer Sendergruppe können mit einer entsprechenden Modulationscharakteristik moduliert werden. Die Modulationscharakteristik eines Emitterpixels kann sich von der Modulationscharakteristik jedes anderen Emitterpixels innerhalb derselben Sendergruppe unterscheiden. Dadurch kann das Übersprechen zwischen Emitterpixeln in einer Sendergruppe reduziert oder wesentlich eliminiert werden (z.B. Übersprechen von benachbarten Emitterpixeln). Als Beispiel kann der Sendercontroller so konfiguriert werden, dass er jedes Emitterpixel einer ersten Sendergruppe moduliert, so dass Lichtsignale, die von verschiedenen Teil-Emitterpixeln der ersten Sendergruppe ausgesendet werden, mit unterschiedlichen Modulationseigenschaften moduliert werden.
  • Die einer Sendergruppe zugeordnete Modulationsmatrix kann zumindest teilweise in anderen Sendergruppen wiederholt werden (z.B. in einigen oder allen anderen Sendergruppen, die danach gezündet werden). Beispielsweise kann der Senderregler so konfiguriert werden, dass er jedes Emitterpixel einer zweiten Sendergruppe moduliert, so dass Lichtsignale, die von verschiedenen partiellen Emitterpixeln der zweiten Sendergruppe ausgesendet werden, mit unterschiedlichen Modulationseigenschaften moduliert werden. Mindestens eine Modulationscharakteristik, die zur Modulation eines Emitterpixels der ersten Sendergruppe verwendet wird, kann die gleiche Modulationscharakteristik sein, die zur Modulation eines Emitterpixels der zweiten Sendergruppe verwendet wird. Nur als Beispiel: Die erste Sendergruppe kann vier Emitterpixel aufweisen, die mit vier verschiedenen Modulationsfrequenzen f1, f2, f3 und f4 moduliert sind, und die zweite Sendergruppe kann vier Emitterpixel aufweisen, die mit denselben vier Modulationsfrequenzen f1, f2, f3 und f4 moduliert sind.
  • Der Sender-Controller kann so konfiguriert werden, dass er die Steuerung von Senderpixeln verschiedener Sendergruppen innerhalb eines Zeitfensters wiederholt, das einer maximalen Laufzeit des LIDAR-Systems ähnlich ist. Zur Veranschaulichung: Die Sendersteuerung kann so konfiguriert werden, dass die Emitterpixel verschiedener Sendergruppen sequentiell so gesteuert werden, dass sie die jeweiligen Lichtsignale (z.B. mit der jeweiligen Modulationsmatrix) aussenden, bis eine Zeit ähnlich der maximalen Laufzeit erreicht ist. Ein LIDAR-Messsignal kann die von allen Sendergruppen sequentiell emittierten Lichtsignale aufweisen. Der Sendercontroller kann so konfiguriert werden, dass er nach Ablauf des Zeitfensters eine neue Iteration der Modulation beginnt (z.B. mit einer anderen Modulationsmatrix, nur als Beispiel mit den Modulationsfrequenzen f5, f6, f7 und f8), um ein neues LIDAR-Messsignal auszusenden.
  • In verschiedenen Ausführungsformen kann der Sendercontroller so konfiguriert werden, dass er die Emitterpixel so steuert, dass sie die jeweiligen Lichtsignale gemäß einer Kombination der oben beschriebenen Emissionsschemata aussenden. Die Sendersteuerung kann so konfiguriert werden, dass sie die Emitterpixel so steuert, dass ein LIDAR-Messsignal von verschiedenen Sendergruppen erzeugt werden kann, die die jeweiligen Lichtsignale sequentiell aussenden (z.B. kann jede Sendergruppe sequentiell mit einer gleichen Modulationsmatrix moduliert werden). Der Sendercontroller kann so konfiguriert werden, dass er die Emitterpixel so steuert, dass eine Vielzahl von LIDAR-Messsignalen innerhalb eines Zeitfensters ausgesendet werden kann, das der maximalen Laufzeit des LIDAR-Systems ähnlich ist (z.B. kann jedes LIDAR-Messsignal einer anderen Modulationsmatrix für die Sendergruppen zugeordnet werden). Der Senderregler kann so konfiguriert werden, dass er nach Ablauf des Zeitfensters eine neue Iteration der Modulation startet. Der Transmitter-Controller kann so konfiguriert werden, dass er die neue Iteration mit einer der zuvor verwendeten Modulationsmatrizen startet.
  • Beispielsweise kann der Senderregler so konfiguriert werden, dass er aus einem ersten Satz von Modulationseigenschaften (z.B. einer ersten Modulationsmatrix) erste Modulationseigenschaften für die Modulation von Emitterpixeln einer ersten Sendergruppe und für die Modulation von Emitterpixeln einer zweiten Sendergruppe während einer ersten Zeitperiode auswählt. Die Sendersteuerung kann so konfiguriert werden, daß sie zweite Modulationseigenschaften zur Modulation von Emitterpixeln der ersten Sendergruppe und zur Modulation von Emitterpixeln der zweiten Sendergruppe während einer zweiten Zeitperiode, die auf die erste Zeitperiode folgt, aus einem zweiten Satz von Modulationseigenschaften (z.B. einer zweiten Modulationsmatrix) auswählt. Alle Modulationseigenschaften des zweiten Satzes von Modulationseigenschaften können sich von den Modulationseigenschaften des ersten Satzes von Modulationseigenschaften unterscheiden.
  • Der Senderregler kann so konfiguriert werden, dass die Modulationsmatrix so gewählt wird, dass benachbarte Emitterpixel (z.B. in verschiedenen Sendergruppen) mit einer unterschiedlichen Modulationscharakteristik moduliert werden können. Zur Veranschaulichung: Der Senderregler kann so konfiguriert werden, daß er die Modulationsmatrix so auswählt, daß ein Übersprechen (z.B. im Fernfeld) zwischen benachbarten Emitterpixeln (z.B. Emitterpixel innerhalb einer Sendergruppe und Emitterpixel in verschiedenen, z.B. benachbarten Sendergruppen) reduziert werden kann. Beispielsweise kann der Senderregler so konfiguriert werden, daß er unterschiedliche Modulationseigenschaften für die Modulation von Emitterpixeln der ersten Sendergruppe und benachbarten Emitterpixeln der zweiten Sendergruppe auswählt. Dieses Emissionsschema kann eine erhöhte Impulswiederholungsrate und eine Verringerung der mit dem Übersprechen verbundenen Effekte bewirken.
  • Die hier beschriebenen Emissionsschemata (z.B. die Modulation der Lichtemitter mit entsprechenden Modulationseigenschaften) können den Effekt einer verringerten Wahrscheinlichkeit von Falsch-Positiven durch fremde Lichtsignale (z.B. Lichtsignale, die von einem anderen LIDAR-System stammen, z.B. von einem anderen Fahrzeug oder von einem anderen Fahrzeug in der Nähe) bewirken. Die hier beschriebenen Emissionsschemata können die Möglichkeit bieten, eine Vielzahl von LIDAR-Systemen an physisch nahe beieinander liegenden Orten zu installieren (veranschaulichend, mit einem geringen Abstand zwischen den Systemen). Beispielsweise können die hier beschriebenen Emissionsschemata Interferenzen zwischen verschiedenen LIDAR-Systemen oder Teilsystemen desselben Fahrzeugs reduzieren oder im Wesentlichen eliminieren.
  • In verschiedenen Ausführungsformen kann das LIDAR-System einen Sensor aufweisen (z.B. den LIDAR-Sensor 52). Der Sensor kann eine Vielzahl von Fotodioden aufweisen. Zum Beispiel kann der Sensor mindestens eine Lawinenphotodiode aufweisen (z.B. eine Ein-Photonen-Lawinenphotodiode). Als weiteres Beispiel kann der Sensor mindestens einen Silizium-Photomultiplier aufweisen. Zur Veranschaulichung: Der Sensor kann eine Vielzahl von Sensorpixeln aufweisen (z.B. eine Anzahl R von Sensorpixeln, die gleich der Anzahl der Emitterpixel ist oder sich von der Anzahl der Emitterpixel unterscheidet, wie weiter unten näher beschrieben). Jedes Sensorpixel kann eine entsprechende Fotodiode aufweisen oder damit verbunden sein. Der Sensor kann so konfiguriert werden, dass er ein Sensorsignal (z.B. ein elektrisches Signal, wie z.B. einen Strom) liefert, das ein empfangenes Lichtsignal (z.B. ein Hauptsignal und eine überlagerte Modulation) darstellt. Das LIDAR-System kann mindestens einen Analog-Digital-Wandler aufweisen, der so konfiguriert ist, dass er die Vielzahl der empfangenen analogen Lichtsignale (z.B. analoge Lichtimpulse) in eine Vielzahl von empfangenen digitalisierten Lichtsignalen (z.B. digitalisierte Lichtimpulse) umwandelt. Zur Veranschaulichung: Der Analog-Digital-Wandler kann so konfiguriert sein, dass er das Sensorsignal in ein digitalisiertes Signal umwandelt (z.B. eine Vielzahl von Sensorsignalen in eine Vielzahl von digitalisierten Signalen).
  • Die Vielzahl der Fotodioden (z.B. die Vielzahl der Sensorpixel) kann ein Array (auch als Detektorarray bezeichnet) bilden. Als Beispiel können die Fotodioden in einem eindimensionalen Array angeordnet sein (z.B. können die Fotodioden in einer Richtung angeordnet sein, um das eindimensionale Array zu bilden). Die Fotodioden können in dem eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet sein. Als weiteres Beispiel können die Fotodioden in einem zweidimensionalen Array angeordnet werden (z.B. können die Fotodioden in zwei Richtungen angeordnet werden, um das zweidimensionale Array zu bilden). Die Fotodioden können in dem zweidimensionalen Array in Zeilen und Spalten angeordnet werden. Zur Veranschaulichung: Das Detektorarray kann Zeilen und Spalten aufweisen, z.B. eine Anzahl k von Zeilen und eine Anzahl I von Spalten (z.B. kann das Detektorarray k x I Sensorpixel aufweisen).
  • Beispielsweise kann das Detektorarray die gleiche Auflösung wie das Emitterarray haben (z.B. kann die Anzahl der Fotodioden gleich der Anzahl der Emitterpixel sein). Jede Fotodiode (zur Veranschaulichung: jedes Sensorpixel des Detektorarrays) kann ein eigenes Sichtfeld haben, das mit dem Emissionsfeld eines entsprechenden Emitterpixels des Emitterarrays übereinstimmt. Das Sichtfeld des LIDAR-Systems kann dem Sichtfeld des Emitterarrays (z.B. die Überlagerung der Emissionsfelder der Emitterpixel) und/oder dem Sichtfeld des Detektorarrays (z.B. die Überlagerung der Sichtfelder der Sensorpixel) entsprechen oder entsprechen. Das Emissionsfeld des Emitter-Arrays kann im wesentlichen dem Sichtfeld des Detektor-Arrays entsprechen.
  • Als weiteres Beispiel kann das Detektor-Array eine geringere Auflösung als das Emitter-Array haben (z.B. kann die Anzahl der Fotodioden kleiner als die Anzahl der Emitter-Pixel sein). Jede Fotodiode kann ein Sichtfeld haben, das größer ist (z.B. breiter in horizontaler und/oder vertikaler Richtung) als das Sichtfeld jedes Emitterpixels. Ein Gesamtsichtfeld des Detektorarrays kann im wesentlichen gleich dem Sichtfeld des Emitterarrays sein (z.B. kann die Summe oder die Überlagerung der Sichtfelder der einzelnen Fotodioden im wesentlichen gleich der Summe der Sichtfelder der einzelnen Emitterpixel sein).
  • Als weiteres Beispiel kann das Detektorarray eine höhere Auflösung haben als das Emitterarray (z.B. kann die Anzahl der Fotodioden größer sein als die Anzahl der Emitterpixel). Jede Fotodiode kann ein kleineres Sichtfeld haben (z.B. schmaler in horizontaler und/oder vertikaler Richtung) als das Sichtfeld jedes Emitterpixels. Das gesamte Sichtfeld des Detektorarrays kann im wesentlichen gleich dem Sichtfeld des Emitterarrays sein.
  • Das hier beschriebene LIDAR-System kann einen Sensor mit niedrigerer Auflösung aufweisen, um eine Szene mit höherer Auflösung nachzubilden. Dies kann ein kostenoptimiertes Design unter Beibehaltung einer hohen Systemleistung ermöglichen (z.B. können die Kosten auf der Detektorseite reduziert werden, wenn ein hochauflösender Transmitter, wie z.B. ein VCSEL-Array, verwendet wird). Als Beispiel kann der Sender mit einem miniaturisierten Design versehen werden (z.B. Chip-Stapelung eines VCSEL-Array-Chips, der mit einem Treiberchip verbunden ist, z.B. in einem einzigen optischen Gehäuse, wie in Bezug auf 155A bis 157B beschrieben).
  • Der Sensor (oder das LIDAR-System) kann ein Abtastelement (z.B. einen beweglichen Spiegel) aufweisen, das so konfiguriert ist, dass das Sichtfeld gerastert wird. Das Abtastelement kann z.B. in Kombination mit einem eindimensionalen Detektorarray (z.B. eine einzelne Zeile oder eine einzelne Spalte mit Fotodioden) verwendet werden. Das Abtastelement kann so konfiguriert werden, dass es das Sichtfeld auf den Sensor projiziert, z.B. Zeile für Zeile oder Spalte für Spalte. In dieser Konfiguration kann eine reduzierte Anzahl von Fotodioden vorgesehen werden.
  • Die Vielzahl der Fotodioden kann in eine Vielzahl von disjunkten Fotodiodengruppen gruppiert werden (z.B. einschließlich einer ersten Fotodiodengruppe und einer zweiten Fotodiodengruppe). Die Anzahl der Fotodioden in verschiedenen Fotodiodengruppen kann die gleiche sein. Alternativ kann die Anzahl der Fotodioden in verschiedenen Fotodiodengruppen unterschiedlich sein.
  • In verschiedenen Ausführungsformen kann das LIDAR-System einen oder mehrere Prozessoren umfassen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Vielzahl der Fotodioden einzeln steuern, um eine Vielzahl von Lichtsignalen zu empfangen. Zur Veranschaulichung: Die Fotodioden können einzeln adressierbar sein. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Vielzahl der Fotodioden so steuern, dass das Signal aller Fotodioden gleichzeitig erfasst wird (z.B. wird die Signalerfassung aller Fotodioden auf einmal durchgeführt). Alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Vielzahl der Fotodioden so steuern, dass das Signal in einer Sequenz erfasst wird (z.B. kann das Signal verschiedener Fotodioden oder verschiedener Fotodiodengruppen sequentiell erfasst werden). Zum Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Vielzahl der Fotodioden so steuern, dass ein von den Fotodioden der zweiten Fotodiodengruppe erzeugtes Signal zu einem späteren Zeitpunkt in Bezug auf ein von den Fotodioden der ersten Fotodiodengruppe erzeugtes Signal erfasst wird.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtsignalen verarbeiten (z.B. die empfangene Vielzahl von Lichtsignalen dekodieren oder demodulieren). Als Beispiel können der eine oder die mehreren Prozessoren als der eine oder die mehreren Prozessoren 13324 konfiguriert werden, die in Bezug auf 131A bis 137 beschrieben sind. Als weiteres Beispiel können der eine oder die mehreren Prozessoren als der eine oder die mehreren Prozessoren 13802 konfiguriert werden, der/die in Bezug auf 138 bis 144 beschrieben ist/sind. Als ein weiteres Beispiel können der eine oder die mehreren Prozessoren als der eine oder die mehreren Prozessoren 14514 konfiguriert werden, die in Bezug auf 145A bis 149E beschrieben sind.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtsignalen identifizieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einzelne Lichtsignale aus der empfangenen Vielzahl von Lichtsignalen bestimmen (z.B. identifizieren oder extrahieren). Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert sein, dass sie die empfangene Vielzahl von Lichtsignalen durch die Durchführung mindestens eines Identifizierungsprozesses identifizieren, wie z.B. Vollwellenform-Erkennung, Zeit-zu-Digital-Umwandlungsprozess und/oder schwellenwertbasierte Signalerkennung. Vollwellenform-Erkennung kann als eine vollständige Wellenform-Digitalisierung und -Analyse beschrieben werden. Die Analyse kann eine Kurvenanpassung, z. B. eine Gauß'sche Anpassung, umfassen. Als weiteres Beispiel können ein oder mehrere Prozessoren so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtsignalen identifizieren, indem sie eine Korrelation der empfangenen Lichtsignale (z.B. jedes empfangene Lichtsignal) mit den gesendeten Lichtsignalen (z.B. mit jedem gesendeten Lichtsignal) analysieren. Veranschaulichend kann der eine oder die mehreren Prozessoren konfiguriert werden, um eine Korrelation (z.B. eine Kreuzkorrelation) zwischen einem empfangenen Lichtsignal und jedem ausgesendeten Lichtsignal auszuwerten, um das ausgesendete Lichtsignal zu identifizieren, das mit dem empfangenen Lichtsignal verbunden ist, wie z.B. in Bezug auf 131A bis 137 beschrieben.
  • Beispielsweise können der eine oder die mehreren Prozessoren einen oder mehrere Korrelationsempfänger aufweisen oder als solche konfiguriert sein, die so konfiguriert sind, dass sie eine solche Korrelationsoperation durchführen, wie z. B. in Bezug auf 131A bis 137 beschrieben. Der eine oder die mehreren Prozessoren (z.B. der eine oder die mehreren Korrelationsempfänger) können so konfiguriert sein, dass sie aus dem Korrelationsergebnis eine Zeitverzögerung zwischen einem empfangenen Lichtsignal und dem entsprechenden gesendeten Lichtsignal bestimmen (z.B. berechnen). Die Zeitverzögerung kann die Laufzeit des ausgesendeten Lichtsignals sein oder ihr entsprechen. Die Bestimmung kann unter Berücksichtigung der im Korrelationsergebnis vorhandenen deutlichen Spitze(n) durchgeführt werden, wie in Bezug auf 131A bis 137 beschrieben.
  • Beispielsweise können ein oder mehrere Prozessoren so konfiguriert werden, dass sie zwischen Lichtsignalen unterscheiden, die an einer gleichen Fotodiode empfangen werden, indem sie die Kenntnis der Zeitdauer der Lichtsignale nutzen. Zur Veranschaulichung: Ein erstes Lichtsignal und ein zweites Lichtsignal können zur gleichen Zeit ausgesendet werden. Das erste Lichtsignal und das zweite Lichtsignal können in unterschiedlichen Entfernungen reflektiert werden (z.B. können sie unterschiedliche Entfernungen zurücklegen). Das erste Lichtsignal und das zweite Lichtsignal können von derselben Fotodiode am Sensor gesammelt werden (z.B. mit einer Zeitverzögerung, die proportional zur Differenz der zurückgelegten Distanz ist). Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie das erste Lichtsignal vom zweiten Lichtsignal unterscheiden, indem sie ein Ende des ersten Lichtsignals auf der Grundlage der Kenntnis der Dauer des ersten Lichtsignals bestimmen. Illustrativ kann das Ende des ersten Lichtsignals (oder des mit dem ersten Lichtsignal verbundenen Sensorsignals) auf der Grundlage der Kenntnis der Ankunftszeit am Sensor und der Dauer des Lichtsignals bestimmt werden. Alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie das erste Lichtsignal vom zweiten Lichtsignal unterscheiden, indem sie einen Anfang des ersten Lichtsignals (z.B. des dem ersten Lichtsignal zugeordneten Sensorsignals) bestimmen. Zur Veranschaulichung: Der Anfang des ersten Lichtsignals kann auf der Grundlage der Kenntnis der Endzeit des Lichtsignals und der Dauer des Lichtsignals bestimmt werden.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie mindestens eine Modulationskomponente jedes Lichtsignals aus der empfangenen Vielzahl von Lichtsignalen bestimmen (z.B. mindestens eine Komponente in einer Domäne, die sich von der Zeitdomäne unterscheidet). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie eine oder mehrere Modulationskomponenten jedes empfangenen Lichtsignals bestimmen (z.B. eine Vielzahl von Modulationskomponenten jedes empfangenen Lichtsignals identifizieren). Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie mindestens eine Modulationsfrequenzkomponente jedes empfangenen Lichtsignals bestimmen (z.B. eine Komponente im Frequenzbereich). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die mindestens eine Modulationskennlinienkomponente jedes empfangenen Lichtsignals mit einer oder mehreren verschiedenen Methoden bestimmen. Zum Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die mindestens eine Frequenzkomponente jedes empfangenen Lichtsignals unter Verwendung eines oder mehrerer Verfahren bestimmen. Als Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Modulationsfrequenzkomponente bestimmen, indem Frequenzmodulations- (FM) Demodulationstechniken oder Frequenzumtastungs-Demodulationstechniken (FSK) implementiert werden. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Modulationsfrequenzkomponente durch Durchführung von Bandpassfilterung und Hüllkurvenerkennung bestimmen. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Modulationsfrequenzkomponente bestimmen, indem sie chaotische Oszillatoren zur Erkennung schwacher Signale anwenden. Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Modulationsfrequenzkomponente bestimmen, indem sie eine lineare frequenzmodulierte Signaldetektion durchführen, z.B. durch Zufallsmehrdeutigkeitstransformation. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Modulationsfrequenzkomponente durch Ausführen eines Spektraltransformationsprozesses (z.B. FFT) bestimmen, z.B. eines Spektraltransformationsprozesses zur Einzeltonerkennung und Frequenzschätzung (zur Veranschaulichung: Frequenzbestimmung). Als weiteres Beispiel können ein oder mehrere Prozessoren so konfiguriert werden, dass die Modulationsfrequenzkomponente durch Anwendung von Orthogonal-Frequenzmultiplex-Dekodierungsverfahren bestimmt wird. Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Modulationsfrequenzkomponente durch Anwendung von Korrelationsempfängerkonzepten bestimmen, bei denen die Korrelation (z.B. Kreuzkorrelation) zwischen den empfangenen Lichtsignalen und den ausgesendeten Lichtsignalen (z.B. zwischen jedem empfangenen Lichtsignal und jedem ausgesendeten Lichtsignal), wie oben beschrieben, berücksichtigt wird.
  • Ein empfangenes Lichtsignal kann eine einzelne Modulationskomponente aufweisen, z.B. wenn eine Fotodiode ein Lichtsignal empfängt, das von einem einzelnen Emitterpixel emittiert wird (z.B. das Emitterpixel emittiert Licht in den von der Fotodiode abgedeckten Teil des Sichtfeldes). Veranschaulichend kann die einzelne Modulationskomponente dann vorhanden sein, wenn das empfangene Lichtsignal ein einzelnes emittiertes Lichtsignal enthält (z.B. ohne Überlappung mit zusätzlichen Lichtsignalen).
  • Alternativ kann ein empfangenes Lichtsignal eine Vielzahl von Modulationskomponenten aufweisen. Die Vielzahl von Modulationskomponenten kann z.B. dann vorhanden sein, wenn ein empfangenes Lichtsignal eine Vielzahl von (z.B. überlappenden) emittierten Lichtsignalen enthält (z.B. emittiert von einer Vielzahl von Senderpixeln, z.B. gemäß einem der oben beschriebenen Emissionsschemata). Illustrativ kann das von einer Fotodiode bereitgestellte empfangene Lichtsignal ein Lichtsignal aufweisen, das von dem Emitterpixel emittiert wird, das der Fotodiode zugeordnet ist, die das empfangene Lichtsignal bereitstellt, sowie ein oder mehrere zusätzliche Lichtsignale, die von anderen (z.B. benachbarten) Emitterpixeln (z.B. zugeordnet zu benachbarten Fotodioden) emittiert werden.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die mindestens eine Modulationskomponente jedes empfangenen Lichtsignals auf der Grundlage von Modulationskennlinien auswerten, die zur Modulation der Vielzahl von Lichtsignalen verwendet werden, die von der Vielzahl von Senderpixeln ausgesendet wurden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie jedes empfangene Lichtsignal mit einem ausgesendeten Lichtsignal verknüpfen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die mindestens eine Komponente der Modulationscharakteristik auswerten, indem sie die ermittelte Komponente der Modulationscharakteristik mit den Modulationscharakteristiken vergleichen, die zur Modulation der Mehrzahl der ausgesendeten Lichtsignale verwendet werden. Illustrativ können die verwendeten Modulationscharakteristika (z.B. die verwendeten Frequenzwerte) bekannt sein, z.B. können der eine oder die mehreren Prozessoren Zugriff auf einen Speicher haben, der die verwendeten Modulationscharakteristika speichert. Die Assoziation (z.B. die Korrelation) zwischen gesendeten und empfangenen Signalen auf der Pixelebene kann eine hohe Präzision und Genauigkeit liefern.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine bestimmte Anzahl von Modulationskomponenten ordnen, um eine oder mehrere Hauptmodulationskomponenten des empfangenen Lichtsignals zu bestimmen (z.B. von mindestens einem empfangenen Lichtsignal, z.B. von jedem empfangenen Lichtsignal). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie den Beitrag der Lichtsignale nahegelegener (z.B. überlappender) Fotodioden auswerten und einstufen, z.B. auf der Grundlage der relativen Stärken (z.B. Amplituden) der zugehörigen Modulationskomponenten, um eine oder mehrere Hauptmodulationskomponenten zu bestimmen.
  • Das hier beschriebene LIDAR-System kann für verschiedene Arten von Anwendungen konfiguriert oder vorgesehen werden, wie z.B. LIDAR für große Reichweiten, LIDAR für kurze Reichweiten und/oder LIDAR für den Innenbereich. Beispielsweise kann der Sender in einer Kurzstreckenanwendung mit LED-Technologie ausgestattet sein (z.B. anstelle von Lasertechnologie). Dies kann die Kosten des Systems reduzieren.
  • In verschiedenen Ausführungsformen kann ein Fahrzeug (z.B. ein fahrerloses Transportsystem) das hier beschriebene LIDAR-System aufweisen (z.B. kann das Fahrzeug mit dem LIDAR-System ausgerüstet oder nachgerüstet werden). Der Übersprechwiderstand kann aufgrund der höheren Genauigkeit und Präzision ein erhöhtes Vertrauensniveau des Sensors bieten. Die Impulswiederholrate (z.B. die Rate der Aussendung von LIDAR-Messsignalen) kann im Vergleich zu einem traditionellen Laufzeit-Ansatz erhöht werden. Die erhöhte Pulswiederholrate kann verbesserte Leistungen erbringen, z.B. in Umgebungen, in denen sich das Fahrzeug mit hoher Geschwindigkeit bewegt (z.B. ein Zug oder ein Auto auf einer Autobahn). Beispielsweise kann die erhöhte Pulswiederholungsrate zu einer erhöhten Bildwiederholrate führen. Illustrativ kann das LIDAR-System die Möglichkeit bieten, die Umgebung zu messen. In einem automatisch geführten Fahrzeug kann dies z.B. eine Beurteilung vor Ort und unabhängige Korrekturen von der vordefinierten Route ermöglichen (zur Veranschaulichung: ohne Verwendung zusätzlicher Hardware zur Führung). Das LIDAR-System kann z.B. die Szene (z.B. das Sichtfeld) in eine Vielzahl einzelner Abschnitte (d.h. einzelne Segmente) unterteilen. Jeder Abschnitt des Sichtfeldes kann über eine separate Emitteranordnung adressiert werden, um ein größeres Sichtfeld zu erhalten. Die empfangenen Signale können in einem einzelnen Detektorarray mit einer geringeren Auflösung als die Kombination der Senderarrays gesammelt werden.
  • In verschiedenen Ausführungsformen kann ein Detektionssystem für Innenräume (z.B. ein Sensor für den Innenbereich) das hier beschriebene LIDAR-System aufweisen. Das LIDAR-System kann eine Objekt- und/oder Personenerkennung bieten, bei der die Privatsphäre im Wesentlichen nicht beeinträchtigt wird. Das LIDAR-System kann eine im Raum definierte Detektion (z.B. 3D-Bildgebung) mit einem höheren Grad an Präzision und Vertrauenswürdigkeit als andere Arten von Sensoren, wie z.B. ein Vision-Kamera-Sensor, ermöglichen (zur Veranschaulichung: Das LIDAR-System kann eine direkte Messung liefern, während der Vision-Kamera-Sensor eine indirekte Berechnung ermöglicht). Das Innenraum-Detektionssystem kann in einem öffentlichen Raum oder in einem öffentlichen Mobilitätsfahrzeug installiert werden (z.B. in der Lobby eines Gebäudes, in einem Bus, einem Zug, einem Aufzug, einem Flugzeug und dergleichen). Als Beispiel kann das Innenraum-Detektionssystem ein fortschrittlicher Näherungssensor sein, der so konfiguriert ist, dass er die Absicht einer Person definiert (z.B. einen Aufzug oder ein Gebäude zu betreten oder einfach nur vorbeizugehen, sich auf eine Tür zuzubewegen oder von einer Tür wegzubewegen und dergleichen). Als weiteres Beispiel kann das Innenraum-Detektionssystem Personen erfassen, lokalisieren und zählen, z.B. in einem Gebäude (z.B. in einem Raum eines Gebäudes) oder in einem Fahrzeug des öffentlichen Verkehrs (z.B. einem Bus oder einem Zug). Als weiteres Beispiel kann das Innenraum-Detektionssystem in einer Fabrik installiert werden, z.B. kann das Innenraum-Detektionssystem präzise 3D-Bilder für genaue Inspektionen und Messungen liefern (z.B. für die Herstellung von Komponenten, für automatisierte oder robotisierte Montagelinien, für Logistik wie das Platzieren und Organisieren einer Ladung und ähnliches).
  • 158 zeigt ein LIDAR-System 15800 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 15800 kann oder kann als LIDAR-Sensorsystem 10 konfiguriert werden. Als Beispiel kann das LIDAR-System 15800 als Flash-LIDAR-System konfiguriert werden (z.B. als Flash-LIDAR-Sensorsystem 10). Als weiteres Beispiel kann das LIDAR-System 15800 als scannendes LIDAR-System konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Das scannende LIDAR-System kann eine scannende Komponente aufweisen, die so konfiguriert ist, dass sie das Sichtfeld des scannenden LIDAR-Systems scannt (z.B. konfiguriert, um das emittierte Licht nacheinander auf verschiedene Teile des Sichtfeldes zu richten). Als Beispiel kann das scannende LIDAR-System einen Scan-Spiegel (z.B. einen MEMS-Spiegel) aufweisen. Es wird davon ausgegangen, dass in 158 nur ein Teil der Elemente des LIDAR-Systems 15800 dargestellt ist und dass das LIDAR-System 15800 zusätzliche Elemente (z.B. eine oder mehrere optische Anordnungen) aufweisen kann, wie z.B. in Bezug auf das LIDAR-Sensorsystem 10 beschrieben.
  • Das LIDAR-System 15800 kann eine Lichtquelle 42 aufweisen (z.B. kann die Lichtquelle 42 ein Beispiel für einen Sender sein). Die Lichtquelle 42 kann eine Vielzahl von Teillichtquellen 15802 aufweisen (z.B. kann die Teillichtquelle 15802 ein Beispiel für ein Emitter-Pixel sein). Die Teillichtquellen 15802 können ein Array bilden (z.B. ein Emitter-Array). Als Beispiel können die Teillichtquellen 15802 in einem eindimensionalen Array angeordnet sein. Die Teillichtquellen 15802 können im eindimensionalen Array in einer Zeile oder in einer Spalte angeordnet sein (z.B. als Zeilen-Array oder als Spalten-Array). Als weiteres Beispiel können, wie in 158 dargestellt, die Teillichtquellen 15802 in einem zweidimensionalen Array angeordnet werden. Illustrativ können die Teillichtquellen 15802 entlang zweier Richtungen angeordnet sein, z.B. einer ersten (z.B. horizontalen) Richtung 15854 und einer zweiten (z.B. vertikalen) Richtung 15856 (z.B. senkrecht zur ersten Richtung). Die Teillichtquellen 15802 können z.B. entlang einer horizontalen Richtung und einer vertikalen Richtung des Sichtfeldes des LIDAR-Systems 15800 angeordnet sein (z.B. beide senkrecht zu einer optischen Achse des LIDAR-Systems 15800, z.B. ausgerichtet entlang einer dritten Richtung 15852). Die Teillichtquellen 15802 können in der zweidimensionalen Anordnung in Zeilen und Spalten angeordnet werden. Die Anzahl der Zeilen kann gleich der Anzahl der Spalten sein (z.B. kann das Array ein quadratisches Array sein, wie als Beispiel in 158 dargestellt). Alternativ kann die Anzahl der Zeilen von der Anzahl der Spalten verschieden sein (z.B. kann das Array ein rechteckiges Array sein).
  • Die Lichtquelle 42 (zur Veranschaulichung: jede Teillichtquelle 15802) kann so konfiguriert werden, dass sie Licht aussendet (z. B. ein Lichtsignal, wie eine kontinuierliche Welle oder einen oder mehrere Lichtpulse). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge ausstrahlt (zur Veranschaulichung, um Licht in einem vordefinierten Wellenlängenbereich auszusenden). Beispielsweise kann die Lichtquelle 42 so konfiguriert werden, dass sie Licht im Infrarot- und/oder nahen Infrarotbereich emittiert (z. B. im Bereich von etwa 700 nm bis etwa 5000 nm, z. B. im Bereich von etwa 860 nm bis etwa 2000 nm, z. B. etwa 905 nm oder etwa 1550 nm). Als Beispiel kann die Lichtquelle 42 mindestens eine Leuchtdiode aufweisen (z.B. kann die Mehrzahl der Teillichtquellen 15802 eine Leuchtdiode aufweisen, illustrativ kann mindestens eine Teillichtquelle 15082 eine Leuchtdiode sein). Als weiteres Beispiel kann die Lichtquelle 42 mindestens eine Laserdiode aufweisen (zur Veranschaulichung: die Lichtquelle 42 kann so konfiguriert sein, dass sie Laserlicht emittiert), z.B. eine VCSEL-Diode. Zur Veranschaulichung: Die Mehrzahl der Teillichtquellen 15802 kann eine Laserdiode aufweisen, z.B. kann mindestens eine Teillichtquelle 15802 eine Laserdiode sein, wie z.B. ein VCSEL-Pixel. Nur als Beispiel kann das Array der Teillichtquellen 15802 ein VCSEL-Array sein. Die Mehrzahl der Teillichtquellen 15802 kann vom gleichen Typ oder von verschiedenen Typen sein.
  • Die Lichtquelle 42 kann eine optische Kollimationskomponente (z.B. ein Mikrolinsenarray) aufweisen, die so konfiguriert ist, dass sie das emittierte Licht kollimiert. Die optische Kollimationskomponente kann stromabwärts der Vielzahl von Teillichtquellen 15802 angeordnet sein, um das von den Teillichtquellen 15802 emittierte Licht zu kollimieren (z.B. kann jeder Teillichtquelle 15802 eine entsprechende Mikrolinse zugeordnet sein).
  • Die Vielzahl der Teillichtquellen 15802 kann in eine Vielzahl von Lichtquellengruppen 15804 gruppiert werden (z.B. einschließlich einer ersten Lichtquellengruppe 158041 und einer zweiten Lichtquellengruppe 158042 und optional einer dritten Lichtquellengruppe 158043 und einer vierten Lichtquellengruppe 158044). Die Mehrzahl der Lichtquellengruppen 15804 kann disjunkt (z.B. logisch disjunkt) sein. Illustrativ können die Teillichtquellen 15802 in einer Lichtquellengruppe 15804 (z.B. in der ersten Lichtquellengruppe 158041) unabhängig von den Teillichtquellen 15802 in einer anderen Lichtquellengruppe 15804 (z.B. in der zweiten Lichtquellengruppe 158042) gesteuert werden. Eine Lichtquellengruppe 15804 kann ein Beispiel für eine Sendergruppe sein.
  • Jede Lichtquellengruppe 15804 kann eine oder mehrere Teillichtquellen 15802 aufweisen (z.B. mehrere Teillichtquellen 15802). Die Mehrzahl der Lichtquellengruppen 15804 darf jeweils eine gleiche Anzahl von Teillichtquellen 15802 aufweisen, z.B. kann die Anzahl der Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 gleich der Anzahl der Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 sein. Alternativ können verschiedene Lichtquellengruppen 15804 eine unterschiedliche Anzahl von Teillichtquellen 15802 aufweisen. Jede Teillichtquelle 15802 darf einer einzigen Lichtquellengruppe 15804 zugeordnet werden (z.B. darf jede Teillichtquelle 15802 Teil einer entsprechenden Lichtquellengruppe 15804 sein). In der in 158 gezeigten beispielhaften Anordnung kann jede Lichtquellengruppe 15804 vier Teillichtquellen 15802 aufweisen, die in einem zweidimensionalen Array angeordnet sind.
  • Das LIDAR-System 15800 kann mindestens einen Lichtquellen-Controller 15806 aufweisen (zur Veranschaulichung: der Lichtquellen-Controller 15806 kann ein Beispiel für einen Sender-Controller sein). Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht ausstrahlt, z.B. kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er die Vielzahl der Teillichtquellen 15802 einzeln so steuert, dass sie eine Vielzahl von Lichtimpulsen (und/oder verschiedene Arten von Lichtsignalen) aussenden. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er die Vielzahl der Teillichtquellen 15802 individuell so steuert, dass eine oder mehrere der Teillichtquellen 15802 (z.B. alle Teillichtquellen 15802) jeweils einen oder mehrere Lichtimpulse aussenden, z.B. innerhalb eines vordefinierten Zeitfensters. Beispielsweise kann der Lichtquellensteuerer 15806 so konfiguriert werden, dass er die Vielzahl der Teillichtquellen 15802 individuell so steuert, dass mindestens eine erste Teillichtquelle 15802 einen oder mehrere Lichtpulse und mindestens eine zweite Teillichtquelle 15802 eine kontinuierliche Welle aussendet, beispielsweise innerhalb desselben Zeitfensters.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass die Teillichtquellen 15802 frequenzmoduliert werden, so dass die jeweiligen Lichtimpulse, die von der Vielzahl der Teillichtquellen 15802 ausgesendet werden, mit einer jeweiligen Modulationsfrequenz moduliert werden. Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass die Teillichtquellen 15802 gemäß einem oder mehreren Lichtemissionsschemata (z.B. Modulationsschemata) frequenzmoduliert werden, wie unten näher beschrieben, z.B. in Bezug auf 159 bis 160F. Als Beispiel kann der Lichtquellen-Controller 15806 einen Signalmodulator aufweisen oder zur Steuerung eines Signalmodulators konfiguriert werden. Der Signalmodulator kann so konfiguriert werden, dass er die Mehrzahl der Teillichtquellen 15802 (z.B. einzeln) moduliert (z.B. elektrisch moduliert).
  • Das LIDAR-System 15800 kann einen Sensor 52 aufweisen. Der Sensor 52 kann eine Vielzahl von Fotodioden 15808 aufweisen (z.B. eine Vielzahl von Sensorpixeln, von denen jedes eine Fotodiode 15808 enthält oder einer Fotodiode 15808 zugeordnet ist). Die Fotodioden 15808 können vom gleichen Typ oder von verschiedenen Typen sein (z.B. kann die Vielzahl der Fotodioden 15808 eine oder mehrere Lawinenfotodioden, eine oder mehrere Einzelphotonen-Lawinenfotodioden und/oder einen oder mehrere Silizium-Fotomultiplier aufweisen). Die Fotodioden 15808 können ein Array (z.B. ein Detektor-Array) bilden. Die Fotodioden 15808 können z.B. in einem eindimensionalen Array angeordnet sein (z.B. für den Fall, dass das LIDAR-System 15800 eine Abtastkomponente enthält, die so konfiguriert ist, dass sie Licht aus verschiedenen Teilen des Sichtfeldes sequentiell auf den Sensor 52 lenkt). Als ein weiteres Beispiel, wie in 158 dargestellt, können die Fotodioden 15808 in einem zweidimensionalen Array angeordnet sein (z.B. können die Fotodioden 15808 entlang einer ersten Richtung 15854 und einer zweiten Richtung 15856 angeordnet sein).
  • Die Fotodioden 15808 können im eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet sein (z.B. kann das Detektorarray ein Zeilendetektor oder ein Spaltendetektor sein).
  • Die Fotodioden 15808 können in dem zweidimensionalen Array in Zeilen und Spalten angeordnet werden (z.B. kann das Detektorarray mehrere Zeilen und mehrere Spalten aufweisen, z.B. eine gleiche Anzahl von Zeilen und Spalten oder eine unterschiedliche Anzahl von Zeilen und Spalten).
  • Das Detektor-Array kann die gleiche Anzahl von Zeilen und Spalten wie das Emitter-Array haben. Zur Veranschaulichung: Die Mehrzahl der Fotodioden 15808 kann eine Anzahl von Fotodioden 15808 aufweisen, die einer Anzahl von Teillichtquellen 15802 entspricht, die in der Mehrzahl der Teillichtquellen 15802 aufweisen sind. Diese Anordnung kann beispielsweise dann vorgesehen werden, wenn jede Fotodiode 15808 das gleiche Sichtfeld hat wie eine ihr zugeordnete Teillichtquelle 15802 (zur Veranschaulichung: die Teillichtquelle 15802 emittiert Licht in dem Teil des Sichtfeldes des LIDAR-Systems 15800, der von der Fotodiode 15808 abgedeckt wird). In der in 158 beispielhaft dargestellten Anordnung kann das Detektorarray eine Anzahl von Fotodioden 15808 aufweisen, die der Anzahl der Teillichtquellen 15802 entspricht, die in gleicher Weise angeordnet sind.
  • Alternativ kann das Detektor-Array eine andere Anzahl von Zeilen und Spalten in Bezug auf das Emitter-Array haben. Zum Beispiel kann das Detektor-Array eine geringere Anzahl von Zeilen und/oder Spalten haben als das Emitter-Array. Zur Veranschaulichung: Die Mehrzahl der Fotodioden 15808 kann eine Anzahl von Fotodioden 15808 aufweisen, die kleiner ist als eine Anzahl von Teillichtquellen 15802, die in der Mehrzahl der Teillichtquellen 15802 aufweisen sind. Diese Anordnung kann z.B. dann vorgesehen werden, wenn jede Fotodiode 15808 ein größeres Sichtfeld hat als jede Teillichtquelle 15802. Als weiteres Beispiel kann die Detektoranordnung eine größere Anzahl von Zeilen und/oder Spalten haben. Zur Veranschaulichung: Die Mehrzahl der Fotodioden 15808 kann eine Anzahl von Fotodioden 15808 aufweisen, die größer ist als eine Anzahl von Teillichtquellen 15802, die in der Mehrzahl der Teillichtquellen 15802 aufweisen sind. Diese Anordnung kann z.B. dann vorgesehen werden, wenn jede Fotodiode 15808 ein kleineres Sichtfeld hat als jede Teillichtquelle 15802.
  • Die Fotodioden 15808 können in eine Vielzahl von Fotodiodengruppen 15810 gruppiert werden (z.B. einschließlich einer ersten Fotodiodengruppe 158101 und einer zweiten Fotodiodengruppe 158102 und optional einer dritten Fotodiodengruppe 158103 und einer vierten Fotodiodengruppe 158104). Die Mehrzahl der Fotodiodengruppen 15804 kann disjunkt sein. Zur Veranschaulichung: Die Fotodioden 15808 in einer Fotodiodengruppe 15810 (z.B. die erste Fotodiodengruppe 158101) können unabhängig von den Fotodioden 15808 in einer anderen Fotodiodengruppe 15810 (z.B. die zweite Fotodiodengruppe 158102) angesteuert werden.
  • Jede Fotodiodengruppe 15810 kann eine oder mehrere Fotodioden 15808 aufweisen. Die Mehrzahl der Fotodiodengruppen 15810 kann jeweils eine gleiche Anzahl von Fotodioden 15808 aufweisen, z.B. kann die Anzahl der Fotodioden 15808 der ersten Fotodiodengruppe 158101 gleich der Anzahl der Fotodioden 15808 der zweiten Fotodiodengruppe 158102 sein. Alternativ können verschiedene Fotodiodengruppen 15810 eine unterschiedliche Anzahl von Fotodioden 15808 aufweisen. Jede Fotodiode 15808 kann einer einzelnen Fotodiodengruppe 15810 zugeordnet werden (z.B. kann jede Fotodiode 15808 Teil einer entsprechenden Fotodiodengruppe 15810 sein). In der in 158 beispielhaft dargestellten Anordnung kann jede Fotodiodengruppe 15810 vier Fotodioden 15808 aufweisen, die in einem zweidimensionalen Array angeordnet sind.
  • Das LIDAR-System 15800 kann einen oder mehrere Prozessoren 15812 aufweisen. Der eine oder die mehreren Prozessoren 15812 können zur Steuerung des Sensors 52 konfiguriert werden (z.B. zur Steuerung der Fotodioden 15808). Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie jede Fotodiode 15808 einzeln steuern, um eine Vielzahl von Lichtimpulsen zu empfangen. Jede Fotodiode 15808 kann so konfiguriert werden, dass sie als Reaktion auf den Empfang eines Lichtimpulses ein Signal (z.B. ein Analogsignal, wie z.B. einen Strom) liefert, wie z.B. in Bezug auf 145A bis 149E beschrieben. Illustrativ kann die Vielzahl der Fotodioden 15808 so konfiguriert werden, dass sie ein empfangenes Lichtsignal liefert, wie z.B. in Bezug auf 138 bis 144 beschrieben, oder eine empfangene Lichtsignalfolge, wie z.B. in Bezug auf 131A bis 137 beschrieben.
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie jede Fotodiode 15808 einzeln steuern, um einen oder mehrere empfangene Lichtimpulse zu liefern (z.B. ein oder mehrere Signale, die den empfangenen Lichtimpulsen zugeordnet sind). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass jede Fotodiode 15808 einzeln aktiviert oder deaktiviert wird. Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die Fotodioden 15808 so steuern, dass jeder Fotodiode 15808 einzeln gestattet werden kann, als Reaktion auf den Empfang eines Lichtimpulses ein Signal zu liefern, oder verhindert werden kann, als Reaktion auf den Empfang eines Lichtimpulses ein Signal zu liefern.
  • Beispielsweise können der eine oder mehrere Prozessoren 15812 so konfiguriert werden, dass sie die Fotodioden 15808 in Übereinstimmung (z.B. in Synchronisation) mit der Steuerung der Teillichtquellen 15802 durch den Lichtquellen-Controller 15806 steuern. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die eine oder die mehreren Fotodioden 15808 (oder Fotodiodengruppen 15810) so steuern, dass sie eine Vielzahl von Lichtimpulsen empfangen, die den Teil des Sichtfeldes abbilden, der von der einen oder den mehreren Teillichtquellen 15802 (oder den Lichtquellengruppen 15804) beleuchtet wird, die Licht ausstrahlen.
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die von den Fotodioden 15808 gelieferten Signale empfangen (z.B. können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie die Vielzahl der empfangenen Lichtimpulse empfangen). Zum Beispiel kann das LIDAR-System 15800 mindestens einen Analog-Digital-Wandler 15814 aufweisen. Der Analog-Digital-Wandler 15814 kann so konfiguriert werden, daß er die Vielzahl der empfangenen analogen Lichtimpulse in eine Vielzahl von empfangenen digitalisierten Lichtimpulsen umwandelt. Der Analog-Digital-Umsetzer 15814 kann so konfiguriert werden, daß er die empfangenen digitalisierten Lichtimpulse an einen oder mehrere Prozessoren 15812 liefert. Zur Veranschaulichung: Der Analog-Digital-Wandler 15814 kann an den Sensor 52 und an den einen oder die mehreren Prozessoren 15812 gekoppelt werden.
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die empfangenen Lichtsignalimpulse verarbeiten, wie weiter unten näher beschrieben, z.B. in Bezug auf 161A bis 161C.
  • 159 zeigt ein Lichtemissionsschema in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln steuert, um eine Vielzahl von Lichtimpulsen mit derselben Modulationsfrequenz zu emittieren. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln so steuert, dass alle Teillichtquellen 15802 gleichzeitig einen jeweiligen Lichtimpuls aussenden, der jeweils mit derselben Modulationsfrequenz moduliert wird. Darüber hinaus kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln so steuert, dass sie ein LIDAR-Messsignal unter Verwendung einer Modulationsmatrix aussendet, in der jede Teillichtquelle 15802 mit dergleichen Modulationsfrequenz moduliert wird.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass alle Teillichtquellen 15802 mit unterschiedlichen Modulationsfrequenzen in verschiedenen Zeitperioden frequenzmoduliert werden (z.B. gleiche Modulationsfrequenz innerhalb einer Zeitperiode und unterschiedliche Modulationsfrequenzen in nachfolgenden Zeitperioden). Eine Zeitperiode kann z.B. der Dauer eines LIDAR-Messsignals (z.B. eines modulierten Lichtimpulses) entsprechen, z.B. im Bereich von ca. 50 ns bis ca. 1 µs, z.B. ca. 500 ns. Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass die Frequenzmodulation mit verschiedenen Modulationsfrequenzen während verschiedener Zeitperioden für eine Gesamtzeitperiode (mit anderen Worten, ein Gesamtzeitfenster) wiederholt wird, die einer maximalen Laufzeit des LIDAR-Systems 15800 ähnlich ist. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln so steuert, dass sie eine Vielzahl von LIDAR-Messsignalen (z.B. jedes mit einer entsprechenden Modulationsfrequenz) innerhalb eines Zeitfensters ähnlich einer maximalen Laufzeit des LIDAR-Systems 15800 aussendet. Die verschiedenen Modulationsfrequenzen können Teil eines Satzes von vordefinierten Modulationsfrequenzen sein.
  • Wie z.B. in 159 gezeigt, kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er alle Teillichtquellen 15802 mit einer ersten Modulationsfrequenz f1 während einer ersten Zeitperiode frequenzmoduliert. Illustrativ kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er eine erste Modulationsmatrix M1 verwendet, um ein erstes LIDAR-Messsignal, z.B. einen ersten modulierten Puls, auszugeben (z.B. beginnend zu einem ersten Zeitpunkt tM1). Die erste Modulationsmatrix M1 kann eine gleiche Frequenz f1 für jede Teillichtquelle 15802 aufweisen. Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er alle Teillichtquellen 15802 mit einer zweiten Modulationsfrequenz f2 während einer zweiten Zeitperiode frequenzmoduliert (z.B. zur Verwendung einer zweiten Modulationsmatrix M2, um ein zweites LIDAR-Messsignal, z.B. einen zweiten modulierten Puls, zu einem zweiten Zeitpunkt tM2 auszugeben). Die zweite Zeitperiode kann sich von der ersten Zeitperiode unterscheiden. Zum Beispiel kann die zweite Zeitperiode nach der ersten Zeitperiode liegen (z.B. innerhalb der gleichen Gesamtzeitperiode). Die zweite Modulationsfrequenz f2 kann sich von der ersten Modulationsfrequenz f1 unterscheiden.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er alle Teillichtquellen 15802 mit einer dritten Modulationsfrequenz während einer dritten Zeitperiode frequenzmoduliert (z.B. mit einer n-ten Modulationsfrequenz fn während einer n-ten Zeitperiode). Illustrativ kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er eine dritte Modulationsmatrix verwendet, um ein drittes LIDAR-Messsignal, z.B. einen dritten modulierten Puls, auszugeben (z.B. um eine n-te Modulationsmatrix Mn zu verwenden, um ein n-tes LIDAR-Messsignal, z.B. einen n-ten modulierten Puls, zu einem n-ten Zeitpunkt tMn auszugeben). Die dritte Zeitperiode kann sich von der ersten Zeitperiode und der zweiten Zeitperiode unterscheiden. Zum Beispiel kann die dritte Zeitperiode nach der zweiten Zeitperiode liegen (z.B. innerhalb derselben Gesamtzeitperiode). Die dritte Modulationsfrequenz kann sich von der zweiten Modulationsfrequenz f2 und von der ersten Modulationsfrequenz f1 unterscheiden.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er dann eine neue Iteration der Frequenzmodulation startet (zur Veranschaulichung: nach Ablauf der Gesamtzeit). Eine neue Iteration kann als weitere Frequenzmodulation aller Teillichtquellen 15802 unter Verwendung weiterer Modulationsfrequenzen in weiteren Zeitperioden (z.B. für eine weitere Gesamtzeitspanne) verstanden werden. Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er dann eine neue Iteration der Frequenzmodulation beginnt, die mit der ersten Zeitperiode beginnt (z.B. eine neue erste Zeitperiode). Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er die neue Iteration mit einer der in der vorherigen Iteration verwendeten Modulationsfrequenzen beginnt (z.B. der ersten Modulationsfrequenz f1 oder der zweiten Modulationsfrequenz f2,..., oder der n-ten Modulationsfrequenz fn). Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann denselben Satz vordefinierter Modulationsfrequenzen verwenden. Alternativ kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass sie die neue Iteration mit einer Modulationsfrequenz startet, die sich von allen in der vorherigen Iteration verwendeten Modulationsfrequenzen unterscheidet. Zur Veranschaulichung: Der Lichtquellensteuergerät 15806 kann einen anderen Satz vordefinierter Modulationsfrequenzen verwenden.
  • 160A bis 160D zeigen verschiedene Aspekte eines Lichtemissionsschemas in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • 160E und 160F zeigen Lichtimpulse, die nach einem Lichtemissionsschema ausgesendet werden, in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass jede Teillichtquelle 15802 innerhalb einer Lichtquellengruppe 15804 mit einer anderen Modulationsfrequenz frequenzmoduliert wird. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er jede Teillichtquelle 15802 einer Lichtquellengruppe 15804 so frequenzmoduliert, dass Lichtimpulse, die von verschiedenen Teillichtquellen 15802 einer solchen Lichtquellengruppe 15804 emittiert werden, mit unterschiedlichen Modulationsfrequenzen frequenzmoduliert werden. Zur weiteren Veranschaulichung kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln so steuert, dass ein LIDAR-Messsignal unter Verwendung einer Modulationsmatrix mit unterschiedlichen Modulationsfrequenzen für jede Teillichtquelle 15802 in derselben Lichtquellengruppe 15804 emittiert wird.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass die verschiedenen Modulationsfrequenzen aus einem Satz vordefinierter Modulationsfrequenzen ausgewählt werden können. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er für jede Teillichtquelle 15802 in derselben Lichtquellengruppe 15804 eine andere Modulationsfrequenz aus einer Vielzahl vordefinierter Modulationsfrequenzen auswählt. Der Satz von vordefinierten Modulationsfrequenzen kann eine Modulationsbandbreite im Bereich von etwa 1 MHz bis etwa 10 GHz abdecken, zum Beispiel von etwa 10 MHz bis etwa 1 GHz, zum Beispiel von etwa 100 MHz bis etwa 500 MHz. Die Modulationsbandbreite kann in Abhängigkeit von der Dauer eines ausgesendeten Lichtimpulses (z.B. eines modulierten Lichtimpulses) angepasst oder ausgewählt werden. Im Falle eines Lichtimpulses von kurzer Dauer (z.B. etwa 10 ns) kann die Modulationsbandbreite beispielsweise im Bereich von etwa 100 MHz bis etwa 10 GHz liegen. Ein weiteres Beispiel: Bei einem Lichtpuls mittlerer Dauer (z.B. etwa 100 ns) kann die Modulationsbandbreite im Bereich von etwa 10 MHz bis etwa 1 GHz liegen. Ein weiteres Beispiel: Bei einem Lichtpuls mit langer Dauer (z.B. ca. 1 µs) kann die Modulationsbandbreite im Bereich von ca. 1 MHz bis ca. 100 MHz liegen.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass zumindest einige Lichtimpulse gemäß einem erweiterten Modulationsschema, wie z.B. Orthogonal Frequency Division Multiplex, frequenzmoduliert werden. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er zumindest einige der Teillichtquellen 15802 in Übereinstimmung mit dem erweiterten Modulationsschema frequenzmoduliert. Alternativ kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er zumindest einige Lichtimpulse gemäß einem einfachen Modulationsschema frequenzmoduliert.
  • Wie z.B. in 160A und 160B dargestellt, kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er jede Teillichtquelle 15802 der ersten Lichtquellengruppe 158041 so frequenzmoduliert, dass Lichtimpulse, die von verschiedenen Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 ausgesendet werden, mit unterschiedlichen Modulationsfrequenzen frequenzmoduliert werden. Illustrativ kann der Lichtquellensteuerer 15806 so konfiguriert werden, dass er erste Modulationsfrequenzen für die Frequenzmodulation der Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 auswählt (z.B. erste bis vierte Modulationsfrequenzen, falls die erste Lichtquellengruppe 158041 vier Teillichtquellen 15802 enthält). Die Lichtquellensteuerung 15806 kann so konfiguriert werden, dass die Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 jeweils mit einer der ausgewählten ersten Modulationsfrequenzen frequenzmoduliert werden.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass jede Teillichtquelle 15802 der zweiten Lichtquellengruppe 158042 frequenzmoduliert wird, so dass Lichtimpulse, die von verschiedenen Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 emittiert werden, mit unterschiedlichen Modulationsfrequenzen frequenzmoduliert werden. Optional kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass jede Teillichtquelle 15802 der dritten Lichtquellengruppe 158043 und/oder der vierten Lichtquellengruppe 158044 so frequenzmoduliert wird, dass Lichtimpulse, die von verschiedenen Teillichtquellen 15802 solcher Lichtquellengruppen emittiert werden, mit unterschiedlichen Modulationsfrequenzen frequenzmoduliert werden.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er eine oder mehrere gleiche Modulationsfrequenzen zur Frequenzmodulation von Teillichtquellen 15802 verschiedener Lichtquellengruppen 15804 verwendet. Wie z.B. in 160A dargestellt, kann mindestens eine Modulationsfrequenz, die zur Modulation einer Teillichtquelle 15802 der ersten Lichtquellengruppe 158041 verwendet wird, die gleiche Modulationsfrequenz sein, die zur Modulation einer Teillichtquelle 15802 der zweiten Lichtquellengruppe 158042 (und/oder der dritten Lichtquellengruppe 158043 und/oder der vierten Lichtquellengruppe 158044) verwendet wird.
  • Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er dieselben Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen 15802 verschiedener Lichtquellengruppen 15804 auswählt. Beispielsweise kann die Lichtquellensteuerung 15804 so konfiguriert werden, dass sie mindestens die ersten Modulationsfrequenzen für die Frequenzmodulation der Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 auswählt (z.B. die gleichen ersten Modulationsfrequenzen, wenn die erste Lichtquellengruppe 158041 und die zweite Lichtquellengruppe 158042 eine gleiche Anzahl von Teillichtquellen 15802 aufweisen).
  • Wie z.B. in 160C und 160D dargestellt, kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass verschiedene Modulationsfrequenzen zur Frequenzmodulation benachbarter Teillichtquellen 15802 verschiedener Lichtquellengruppen 15804 ausgewählt werden. Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er verschiedene Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen 15802 mit überlappendem Sichtfeld (z.B. im Fernfeld) auswählt. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er die Modulationsfrequenzen so auswählt, dass jede Teillichtquelle 15802 einen Lichtpuls aussendet, der mit einer anderen Modulationsfrequenz moduliert wird als jede andere benachbarte (z.B. direkt benachbarte) Teillichtquelle 15802. Dadurch kann eine Trennung (z.B. Überlappung) der Lichtimpulse durch die unterschiedlichen Modulationsfrequenzen erreicht werden. Dies kann Übersprecheffekte reduzieren (z.B. im Zusammenhang mit der Überlappung der emittierten Lichtpulse im Fernfeld).
  • Beispielsweise kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er verschiedene Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 und benachbarter Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 auswählt. In ähnlicher Weise kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass sie unterschiedliche Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 und benachbarter Teillichtquellen 15802 der vierten Lichtquellengruppe 158044 auswählt.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln so steuert, dass Teillichtquellen 15802 verschiedener Lichtquellengruppen 15804 Lichtimpulse zu verschiedenen Zeitpunkten (z.B. in einem vorgegebenen Zeitintervall) aussenden. Beispielsweise kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass sie die Teillichtquellen 15802 so steuert, dass die Teillichtquellen 15802 verschiedener Lichtquellengruppen 15804 nacheinander Lichtimpulse emittieren. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er zu jedem Zeitpunkt nur einen Teil einer Modulationsmatrix verwendet. Ein LIDAR-Messsignal kann durch die Überlagerung der von den verschiedenen Lichtquellengruppen 15804 sequentiell emittierten Lichtimpulse erzeugt werden. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er jede Teillichtquelle 15802 einzeln steuert, um ein LIDAR-Messsignal unter Verwendung einer Modulationsmatrix zu emittieren, die unterschiedliche Modulationsfrequenzen für jede Teillichtquelle 15802 in derselben Lichtquellengruppe 15804 und gleiche Modulationsfrequenzen für Teillichtquellen 15802 in verschiedenen Lichtquellengruppen 15804 enthält.
  • Wie z.B. in 160A dargestellt, kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er die Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 so steuert, dass sie zu einem ersten Zeitpunkt tg1 Lichtimpulse aussenden (z.B. zu einem Zeitpunkt, der den Beginn eines LIDAR-Messsignals definiert). Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er die Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 so steuert, dass sie Lichtimpulse zu einem zweiten Zeitpunkt tg2 emittieren, der nach dem ersten Zeitpunkt tg1 liegt (z.B. um ein Zeitintervall Δt, z.B. um 500 ns vom ersten Zeitpunkt tg1 entfernt). Die Lichtquellensteuerung 15806 kann so konfiguriert werden, dass sie die Teillichtquellen 15802 der dritten Lichtquellengruppe 158043 so steuert, dass sie Lichtimpulse zu einem dritten Zeitpunkt tg3 emittiert, der auf den zweiten Zeitpunkt tg2 folgt. Die Lichtquellensteuerung 15806 kann so konfiguriert werden, dass sie die Teillichtquellen 15802 der vierten Lichtquellengruppe 158044 so steuert, dass sie Lichtimpulse zu einem vierten Zeitpunkt tg4, nach dem dritten Zeitpunkt tg3, emittiert.
  • Wie z.B. in 160A dargestellt, kann der LichtquellenController 15806 so konfiguriert werden, dass er die Teillichtquellen 15802 so steuert, dass sie ein LIDAR-Messsignal innerhalb eines Zeitfensters ausgeben, das einer maximalen Laufzeit des LIDAR-Systems 15800 entspricht.
  • Alternativ, wie z.B. in 160B dargestellt, kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er verschiedene Sätze von Modulationsfrequenzen für verschiedene Zeitperioden (z.B. zu verschiedenen Zeitpunkten) auswählt, um eine Vielzahl von LIDAR-Messsignalen auszugeben. Zur Veranschaulichung: Der Lichtquellen-Controller kann so konfiguriert werden, dass er die Frequenzmodulation mit verschiedenen Modulationsfrequenzen während verschiedener Zeitperioden über einen Gesamtzeitraum wiederholt, der einer maximalen Laufzeit des LIDAR-Systems 15800 entspricht. Die Lichtquellensteuerung kann so konfiguriert werden, dass sie dann eine neue Iteration der Frequenzmodulation beginnt, die mit den Modulationsfrequenzen eines der Sätze von Modulationsfrequenzen beginnt (z.B. unter Verwendung der Modulationsfrequenzen eines der in der vorherigen Iteration verwendeten Sätze in einer neuen ersten Zeitperiode).
  • Wie z.B. in 160B dargestellt, kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er erste Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 und für die Frequenzmodulation von Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 während einer ersten Zeitperiode aus einem ersten Satz von Modulationsfrequenzen auswählt. Optional kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass sie die ersten Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen 15802 der dritten Lichtquellengruppe 158043 und der vierten Lichtquellengruppe 158044 während der ersten Zeitperiode auswählt. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er eine erste Modulationsmatrix M1 zur Frequenzmodulation der Teillichtquellen 15802 während der ersten Zeitperiode verwendet (z.B. zur sequentiellen Verwendung von Teilen der ersten Modulationsmatrix M1 während der ersten Zeitperiode). Die erste Zeitperiode kann im wesentlichen der Dauer eines ersten LIDAR-Messsignals entsprechen (z.B. ab einem Zeitpunkt tM1), z.B. eines ersten modulierten Impulses.
  • Die Lichtquellensteuerung 15806 kann so konfiguriert werden, dass aus einem zweiten Satz von Modulationsfrequenzen zweite Modulationsfrequenzen zur Frequenzmodulation von Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 und zur Frequenzmodulation von Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 während einer zweiten Zeitperiode ausgewählt werden können. Die zweite Zeitperiode kann auf die erste Zeitperiode folgen. Alle Modulationsfrequenzen des zweiten Satzes von Modulationsfrequenzen können sich von den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen unterscheiden. Zum Beispiel kann der erste Satz erste bis vierte Modulationsfrequenzen und der zweite Satz fünfte bis achte Modulationsfrequenzen aufweisen. Optional kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass sie die zweiten Modulationsfrequenzen für die Frequenzmodulation der Teillichtquellen 15802 der dritten Lichtquellengruppe 158043 und der vierten Lichtquellengruppe 158044 während der zweiten Zeitperiode auswählt. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er eine zweite Modulationsmatrix M2 zur Frequenzmodulation der Teillichtquellen 15802 während der zweiten Zeitperiode verwendet (z.B. zur sequentiellen Verwendung von Teilen der zweiten Modulationsmatrix M2 während der zweiten Zeitperiode). Die zweite Zeitperiode kann im wesentlichen der Dauer eines zweiten LIDAR-Messsignals entsprechen (z.B. beginnend zu einem Zeitpunkt tM2), z.B. eines zweiten modulierten Impulses.
  • Das Lichtquellen-Steuergerät 15806 kann so konfiguriert werden, dass es während einer dritten (z.B. n-ten) Zeitspanne aus einem dritten (z.B. n-ten) Satz von Modulationsfrequenzen dritte (z.B. n-te) Modulationsfrequenzen zur Frequenzmodulation von Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 und zur Frequenzmodulation von Teillichtquellen 15802 der zweiten Lichtquellengruppe 158042 auswählt. Die dritte Zeitperiode kann auf die zweite Zeitperiode folgen. Alle Modulationsfrequenzen des dritten Satzes von Modulationsfrequenzen können sich von den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen und von den Modulationsfrequenzen des zweiten Satzes von Modulationsfrequenzen unterscheiden. Zum Beispiel kann die dritte Gruppe die neunte bis elfte Modulationsfrequenz aufweisen. Optional kann die Lichtquellensteuerung 15806 so konfiguriert werden, dass sie die dritten Modulationsfrequenzen für die Frequenzmodulation der Teillichtquellen 15802 der dritten Lichtquellengruppe 158043 und der vierten Lichtquellengruppe 158044 während der dritten Zeitperiode auswählt. Zur Veranschaulichung: Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er eine dritte (z.B. n-te) Modulationsmatrix zur Frequenzmodulation der Teillichtquellen 15802 während der dritten Zeitperiode verwendet. Die dritte Zeitperiode kann im Wesentlichen der Dauer eines dritten LIDAR-Messsignals, z.B. eines dritten modulierten Impulses, entsprechen.
  • Der Lichtquellen-Controller 15806 kann so konfiguriert werden, dass er dann eine neue Iteration der Frequenzmodulation startet, die mit der ersten Zeitperiode beginnt (z.B. eine neue erste Zeitperiode). Die neue Iteration kann nach Ablauf der gesamten Zeitperiode beginnen. Die Lichtquellensteuerung 15806 kann so konfiguriert werden, dass sie dann die neue Iteration mit den Modulationsfrequenzen einer der zuvor verwendeten eingestellten Modulationsfrequenzen startet. Als Beispiel kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er die neue Iteration mit den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen (z.B. der ersten Modulationsmatrix M1) beginnt. Alternativ kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er dann die neue Iteration mit den Modulationsfrequenzen eines anderen Satzes von Modulationsfrequenzen beginnt (z.B. einer anderen Modulationsmatrix).
  • Wie z.B. in 160E dargestellt, können die von den Teillichtquellen 15802 verschiedener Lichtquellengruppen 15804 ausgesandten Lichtpulse zu verschiedenen Zeitpunkten auf ein Objekt 16002 (z.B. ein Ziel) im Sichtfeld des LIDAR-Systems treffen (und zurückreflektiert werden). Zur Veranschaulichung: Die von den Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 ausgesandten Lichtpulse können vor den von den Teillichtquellen 15802 der anderen Lichtquellengruppen 15804 ausgesandten Lichtpulsen auf dem Objekt 16002 eintreffen. Wie z.B. in 160F dargestellt, können sich die Lichtimpulse, die von den Teillichtquellen 15802 der ersten Lichtquellengruppe 158041 ausgesendet werden, am Objekt 16002 teilweise überlappen. Die Frequenzmodulation mit unterschiedlichen Frequenzen kann eine Trennung der verschiedenen Lichtimpulse bewirken (wie weiter unten näher beschrieben, z.B. in Bezug auf 161A bis 161C).
  • Es wird davon ausgegangen, dass ein und derselbe Lichtquellen-Controller 15806 so konfiguriert werden kann, dass er eines oder mehrere der hier beschriebenen Lichtemissionsschemata implementiert (z.B. kann der Lichtquellen-Controller 15806 so konfiguriert werden, dass er das in Bezug auf 159 beschriebene Lichtemissionsschema und/oder das in Bezug auf 160A bis 160F beschriebene Lichtemissionsschema implementiert).
  • 161A bis 161C beschreiben verschiedene Aspekte im Zusammenhang mit dem Betrieb des einen oder mehrerer Prozessoren 15812 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Der eine oder mehrere Prozessoren 15812 können so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtimpulsen identifizieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die Vielzahl der empfangenen Lichtimpulse voneinander unterscheiden. Beispielsweise können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtimpulsen durch eine Vollwellenformerkennung identifizieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die empfangene Mehrzahl von Lichtimpulsen durch Ausführen eines Zeitplan-Digital-Umwandlungsprozesses identifizieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die empfangene Mehrzahl von Lichtimpulsen durch Ausführen einer schwellenwertbasierten Signalerkennung identifizieren. Als weiteres Beispiel können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie die empfangene Mehrzahl von Lichtimpulsen durch Analyse der Korrelation der empfangenen Lichtimpulse mit den ausgesendeten Lichtimpulsen (z.B. von jedem empfangenen Lichtimpuls mit jedem ausgesendeten Lichtimpuls) identifizieren.
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtimpulsen identifizieren, indem sie eine Start- oder Endzeit bestimmen (z.B. durch Berechnung), die mit jedem empfangenen Lichtimpuls verbunden ist (z.B. durch Verwendung einer bekannten Dauer jedes Lichtimpulses). Nur als Beispiel, wie in 161A dargestellt, können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie einen ersten empfangenen Lichtimpuls 161021 von einem zweiten empfangenen Lichtimpuls 161022 unterscheiden. Der erste Lichtimpuls 161021 und der zweite Lichtimpuls 161022 können an derselben Fotodiode 15808 empfangen werden. Der erste Lichtimpuls 161021 und der zweite Lichtimpuls 161022 können z.B. gleichzeitig ausgesendet worden sein (z.B. von den Teillichtquellen 15802 einer gleichen Lichtquellengruppe 15804). Der erste Lichtimpuls 161021 kann eine erste Modulationsfrequenz f1 haben. Der zweite Lichtimpuls 161022 kann eine zweite Modulationsfrequenz f2 haben. Der erste Lichtimpuls 161021 und der zweite Lichtimpuls 161022 können zu unterschiedlichen Zeitpunkten auf die Fotodiode 15808 auftreffen, z.B. kann es eine Verzögerung zwischen dem ersten Lichtimpuls 161021 und dem zweiten Lichtimpuls 161022 geben, z.B. im Zusammenhang mit den Impulsen, die von Objekten in unterschiedlichen Entfernungen reflektiert werden. Die Dauer der Lichtimpulse kann bekannt (z.B. vorgegeben) sein. Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die Lichtimpulse unterscheiden, indem sie eine Startzeit t1_i für den ersten empfangenen Lichtimpuls 161021 bestimmen und eine entsprechende Endzeit t1_f unter Verwendung der bekannten Impulsdauer berechnen (oder umgekehrt, z.B. Bestimmung der Endzeit t1_f und Berechnung der Startzeit t1_i). Zusätzlich oder alternativ können der eine oder mehrere Prozessoren 15812 so konfiguriert werden, dass sie die Lichtimpulse unterscheiden, indem sie eine Startzeit t2_i für den zweiten empfangenen Lichtimpuls 158162 bestimmen und eine entsprechende Endzeit t2_f unter Verwendung der bekannten Impulsdauer berechnen (oder umgekehrt).
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie mindestens eine Modulationsfrequenzkomponente (oder eine Vielzahl von Modulationsfrequenzkomponenten) jedes empfangenen Lichtimpulses bestimmen (wie z.B. in 161C dargestellt). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie mindestens eine Komponente (z.B. mindestens eine Spitze) jedes empfangenen Lichtimpulses im Frequenzbereich (z.B. über eine FFT) bestimmen. Als Beispiel können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie einen Frequenzbestimmungsprozess, wie oben beschrieben, durchführen.
  • Wie z.B. in 161C gezeigt, kann ein empfangener Lichtimpuls 16104 (z.B. von einer Fotodiode 15808 geliefert) eine Vielzahl von Modulationsfrequenzkomponenten aufweisen. Betrachtet man z.B. die Fotodiode 15808 in Position (1,4) im Array in 161B, so kann ein empfangener Lichtimpuls 16104 eine erste Komponente bei einer ersten Modulationsfrequenz f1, eine zweite Komponente bei einer zweiten Modulationsfrequenz f2, eine dritte Komponente bei einer dritten Modulationsfrequenz f3 und eine vierte Komponente bei einer vierten Modulationsfrequenz f4 aufweisen. Zur Veranschaulichung: Der empfangene Lichtimpuls 16104 kann eine Vielzahl von Lichtimpulsen aufweisen, die von verschiedenen Teillichtquellen 15802 emittiert werden. Zum Beispiel kann der empfangene Lichtimpuls 16104 einen ersten Lichtimpuls 161041, der mit der ersten Modulationsfrequenz f1 moduliert ist, einen zweiten Lichtimpuls 161042, der mit der zweiten Modulationsfrequenz f2 moduliert ist, einen dritten Lichtimpuls 161043, der mit der dritten Modulationsfrequenz f3 moduliert ist, und einen vierten Lichtimpuls 161044, der mit der vierten Modulationsfrequenz f4 moduliert ist, aufweisen.
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen auf der Grundlage von Modulationsfrequenzen auswerten, die zur Frequenzmodulation der Vielzahl von Lichtimpulsen verwendet werden, die von der Vielzahl von Teillichtquellen 15802 emittiert wurden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie auswerten, ob eine Komponente im Frequenzbereich des empfangenen Lichtimpulses 16104 einer Frequenz zugeordnet werden kann, die zur Modulation eines ausgesendeten Lichtimpulses verwendet wird.
  • Als Beispiel können der eine oder mehrere Prozessoren 15812 so konfiguriert werden, dass sie die mindestens eine Modulationsfrequenzkomponente auswerten, indem sie die ermittelte Modulationsfrequenzkomponente mit den Modulationsfrequenzen vergleichen, die zur Modulation der Vielzahl von Lichtimpulsen verwendet werden, die von der Vielzahl von Teillichtquellen 15802 emittiert wurden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie die Modulationsfrequenzkomponente (oder jede Modulationsfrequenzkomponente) eines empfangenen Lichtimpulses mit bekannten Werten der Modulationsfrequenzen vergleichen, die zur Modulation der emittierten Lichtimpulse verwendet wurden. Wie in 161C dargestellt, können beispielsweise der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, daß sie die erste bis vierte Frequenzkomponente des empfangenen Lichtimpulses 16104 mit den Modulationsfrequenzen vergleichen, die zur Modulation der Teillichtquellen 15802 verwendet werden (z.B. die Modulationsfrequenzen der verwendeten Modulationsmatrizen).
  • Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass jede bestimmte Modulationsfrequenzkomponente des empfangenen Lichtsignals 16104 einer entsprechenden Teillichtquelle 15802 zugeordnet wird (z. B. auf der Grundlage der Frequenz, bei der die Komponente vorhanden ist, und auf der Grundlage der Kenntnis der für diese Teillichtquelle 15802 verwendeten Modulationsfrequenz). Betrachtet man z.B. die Fotodiode 15808 in Position (1,4), so können der eine oder mehrere Prozessoren 15812 so konfiguriert werden, dass der mit der zweiten Modulationsfrequenz f2 modulierte Lichtimpuls der der Fotodiode 15808 zugeordneten Teillichtquelle 15802 zugeordnet wird (z.B. die Teillichtquelle 15802 in der gleichen Position in der Emitteranordnung).
  • Als weiteres Beispiel können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie die ermittelte Vielzahl von Modulationsfrequenzkomponenten ordnen, um eine oder mehrere Hauptmodulationsfrequenzen des empfangenen Lichtimpulses 16104 zu bestimmen (z.B. von mindestens einem empfangenen Lichtimpuls 16104, z.B. von jedem empfangenen Lichtimpuls). Wie als Beispiel in 161C dargestellt, können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, daß sie eine oder mehrere Hauptmodulationsfrequenzen des empfangenen Lichtimpulses 16104 durch Vergleich der Modulationsfrequenzkomponenten untereinander identifizieren. Als Beispiel können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie die mehreren Modulationsfrequenzkomponenten entsprechend der jeweiligen Amplitude ordnen. Der eine oder die mehreren Prozessoren 15812 können so konfiguriert werden, dass sie als Hauptmodulationsfrequenz (z.B. in Verbindung mit einem von einer Fotodiode 15808 gelieferten Signal) die Modulationsfrequenz identifizieren, bei der sich die Modulationsfrequenzkomponente mit der größten Amplitude befindet. Betrachtet man als Beispiel die Fotodiode 15808 in Position (1,4), so können der eine oder die mehreren Prozessoren 15812 so konfiguriert werden, dass sie die zweite Modulationsfrequenz f2 als Hauptmodulationsfrequenz bestimmen. Illustrativ kann der Begriff „Hauptmodulationsfrequenz“ als die Frequenz verstanden werden, die der größten Signalkomponente im Frequenzdiagramm (z.B. dem in 161C gezeigten Diagramm) zugeordnet ist, die nicht der Signalkomponente entspricht, die dem Hauptimpuls selbst zugeordnet ist (illustrativ mit dem Symbol P im Diagramm bezeichnet). Wie in 161C gezeigt, kann die mit dem Hauptimpuls verbundene Frequenzkomponente bei niedrigeren Frequenzen liegen und für die Einordnung der Frequenzen vernachlässigt werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ae ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Lichtquelle mit einer Vielzahl von Teillichtquellen aufweisen. Die Vielzahl von Teillichtquellen kann in eine Vielzahl von disjunkten Lichtquellengruppen gruppiert werden, einschließlich einer ersten Lichtquellengruppe und einer zweiten Lichtquellengruppe. Das LIDAR-Sensorsystem kann mindestens eine Lichtquellensteuerung aufweisen, die so konfiguriert ist, dass sie jede Teillichtquelle der Vielzahl von Teillichtquellen einzeln steuert, um eine Vielzahl von Lichtsignalen zu emittieren. Die mindestens eine Lichtquellensteuerung kann so konfiguriert werden, dass sie jede Teillichtquelle der Vielzahl von Teillichtquellen der ersten Lichtquellengruppe moduliert, so dass Lichtsignale, die von verschiedenen Teillichtquellen der ersten Lichtquellengruppe emittiert werden, mit unterschiedlichen Modulationseigenschaften moduliert werden. Die mindestens eine Lichtquellensteuerung kann so konfiguriert werden, dass sie jede Teillichtquelle der Vielzahl von Teillichtquellen der zweiten Lichtquellengruppe moduliert, so dass Lichtsignale, die von verschiedenen Teillichtquellen der zweiten Lichtquellengruppe emittiert werden, mit unterschiedlichen Modulationseigenschaften moduliert werden. Mindestens eine Modulationscharakteristik, die zur Modulation einer Teillichtquelle der ersten Lichtquellengruppe verwendet wird, kann die gleiche Modulationscharakteristik sein, die zur Modulation einer Teillichtquelle der zweiten Lichtquellengruppe verwendet wird.
    • In Beispiel 2ae kann der Gegenstand von Beispiel 1ae optional beinhalten, dass die mindestens eine Quellensteuerung weiter konfiguriert wird, um jede Teillichtquelle der Vielzahl von Teillichtquellen einzeln zu steuern, um eine Vielzahl von Lichtimpulsen auszusenden. Die mindestens eine Quellensteuerung kann ferner so konfiguriert sein, dass sie jede Teillichtquelle der Vielzahl von Teillichtquellen der ersten Lichtquellengruppe frequenzmoduliert, so dass Lichtimpulse, die von verschiedenen Teillichtquellen der ersten Lichtquellengruppe emittiert werden, mit unterschiedlichen Modulationsfrequenzen frequenzmoduliert werden. Die mindestens eine Quellensteuerung kann ferner so konfiguriert sein, dass sie jede Teillichtquelle der Vielzahl von Teillichtquellen der zweiten Lichtquellengruppe frequenzmoduliert, so dass Lichtimpulse, die von verschiedenen Teillichtquellen der zweiten Lichtquellengruppe emittiert werden, mit unterschiedlichen Modulationsfrequenzen frequenzmoduliert werden. Mindestens eine Modulationsfrequenz, die zur Frequenzmodulation einer Teillichtquelle der ersten Lichtquellengruppe verwendet wird, kann die gleiche Modulationsfrequenz sein, die zur Frequenzmodulation einer Teillichtquelle der zweiten Lichtquellengruppe verwendet wird.
    • In Beispiel 3ae kann der Gegenstand von Beispiel 2ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung weiter so konfiguriert wird, dass sie erste Modulationsfrequenzen zur Frequenzmodulation der Teillichtquellen der ersten Lichtquellengruppe auswählt; und mindestens die ersten Modulationsfrequenzen zur Frequenzmodulation der Teillichtquellen der zweiten Lichtquellengruppe auswählt.
    • In Beispiel 4ae kann der Gegenstand eines der Beispiele 2ae oder 3ae wahlweise beinhalten, dass die Anzahl der Teillichtquellen der ersten Lichtquellengruppe und die Anzahl der Teillichtquellen der zweiten Lichtquellengruppe gleich ist.
    • In Beispiel 5ae kann der Gegenstand eines der Beispiele 2ae bis 4ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung weiter konfiguriert wird, um verschiedene Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und benachbarter Teillichtquellen der zweiten Lichtquellengruppe auszuwählen.
    • In Beispiel 6ae kann der Gegenstand eines jeden der Beispiele 2ae bis 5ae wahlweise beinhalten, dass die Teillichtquellen der Vielzahl von Teillichtquellen in einem eindimensionalen Array oder in einem zweidimensionalen Array angeordnet sind.
    • In Beispiel 7ae kann der Gegenstand von Beispiel 6ae wahlweise beinhalten, dass die Teillichtquellen im eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet sind. Alternativ können die Teillichtquellen in dem zweidimensionalen Array in Zeilen und Spalten angeordnet werden.
    • In Beispiel 8ae kann der Gegenstand eines der Beispiele 2ae bis 7ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung so konfiguriert ist, dass sie mindestens einige Lichtimpulse der Vielzahl von Lichtimpulsen gemäß Orthogonal Frequency Division Multiplex frequenzmoduliert.
    • In Beispiel 9ae kann der Gegenstand eines der Beispiele 2ae bis 8ae optional beinhalten, dass die Mehrzahl der Teillichtquellen eine Leuchtdiode enthält.
    • In Beispiel 10ae kann der Gegenstand eines der Beispiele 2ae bis 9ae optional beinhalten, dass die Mehrzahl der Teillichtquellen eine Laserdiode enthält.
    • In Beispiel 11ae kann der Gegenstand eines der Beispiele 2ae bis 10ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung so konfiguriert ist, dass sie die verschiedenen Modulationsfrequenzen aus einem Satz vordefinierter Modulationsfrequenzen auswählt.
    • In Beispiel 12ae kann der Gegenstand von Beispiel 11ae optional beinhalten, dass der Satz von vordefinierten Modulationsfrequenzen eine Modulationsbandbreite im Bereich von etwa 1 MHz bis etwa 10 GHz abdeckt.
    • In Beispiel 13ae kann der Gegenstand eines der Beispiele 2ae bis 12ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung weiter konfiguriert wird, um erste Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und für die Frequenzmodulation von Teillichtquellen der zweiten Lichtquellengruppe während einer ersten Zeitperiode aus einem ersten Satz von Modulationsfrequenzen auszuwählen; und zweite Modulationsfrequenzen zur Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und zur Frequenzmodulation von Teillichtquellen der zweiten Lichtquellengruppe während einer zweiten Zeitperiode, die auf die erste Zeitperiode folgt, aus einem zweiten Satz von Modulationsfrequenzen auszuwählen, wobei sich alle Modulationsfrequenzen des zweiten Satzes von Modulationsfrequenzen von den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen unterscheiden.
    • In Beispiel 14ae kann der Gegenstand von Beispiel 13ae optional einschließen, dass die mindestens eine Lichtquellensteuerung ferner so konfiguriert ist, dass sie dritte Modulationsfrequenzen zur Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und zur Frequenzmodulation von Teillichtquellen der zweiten Lichtquellengruppe während einer dritten Zeitspanne, die auf die zweite Zeitspanne folgt, aus einem dritten Satz von Modulationsfrequenzen auswählt, wobei sich alle Modulationsfrequenzen des dritten Satzes von Modulationsfrequenzen von den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen und von den Modulationsfrequenzen des zweiten Satzes von Modulationsfrequenzen unterscheiden.
    • In Beispiel 15ae kann der Gegenstand eines der Beispiele 13ae oder 14ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung weiterhin so konfiguriert ist, dass sie die Frequenzmodulation mit verschiedenen Modulationsfrequenzen während verschiedener Zeitperioden für einen Gesamtzeitraum wiederholt, der einer maximalen Laufzeit des LIDAR-Sensorsystems ähnlich ist, und dann eine neue Iteration der Frequenzmodulation beginnt, die mit den Modulationsfrequenzen eines der Sätze von Modulationsfrequenzen beginnt.
    • Beispiel 16ae ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Lichtquelle mit einer Vielzahl von Teillichtquellen aufweisen. Das LIDAR-Sensorsystem kann mindestens einen Lichtquellen-Controller aufweisen, der so konfiguriert ist, dass er jede Teillichtquelle der Vielzahl von Teillichtquellen einzeln steuert, um eine Vielzahl von Lichtsignalen auszusenden. Die mindestens eine Lichtquellensteuerung kann so konfiguriert werden, dass sie alle Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer ersten Modulationscharakteristik während einer ersten Zeitperiode moduliert. Die mindestens eine Lichtquellensteuerung kann so konfiguriert werden, dass sie alle Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer zweiten Modulationscharakteristik während einer zweiten Zeitperiode, die auf die erste Zeitperiode folgt, moduliert. Die zweite Modulationscharakteristik kann sich von der ersten Modulationscharakteristik unterscheiden.
    • In Beispiel 17ae kann der Gegenstand von Beispiel 16ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung weiter konfiguriert wird, um jede Teillichtquelle der Vielzahl von Teillichtquellen einzeln zu steuern, um eine Vielzahl von Lichtimpulsen auszusenden. Die mindestens eine Lichtquellensteuerung kann ferner so konfiguriert werden, dass sie alle Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer ersten Modulationsfrequenz während einer ersten Zeitperiode frequenzmoduliert. Die mindestens eine Lichtquellensteuerung kann ferner so konfiguriert werden, dass sie alle Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer zweiten Modulationsfrequenz während einer zweiten Zeitperiode, die auf die erste Zeitperiode folgt, frequenzmoduliert. Die zweite Modulationsfrequenz kann sich von der ersten Modulationsfrequenz unterscheiden.
    • In Beispiel 18ae kann der Gegenstand von Beispiel 17ae optional einschließen, dass die mindestens eine Lichtquellensteuerung ferner so konfiguriert ist, dass sie alle Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer dritten Modulationsfrequenz während einer dritten Zeitperiode, die auf die zweite Zeitperiode folgt, frequenzmoduliert, wobei sich die dritte Modulationsfrequenz von der zweiten Modulationsfrequenz und von der ersten Modulationsfrequenz unterscheidet.
    • In Beispiel 19ae kann der Gegenstand eines der Beispiele 17ae oder 18ae optional beinhalten, dass die mindestens eine Lichtquellensteuerung weiterhin so konfiguriert wird, dass sie die Frequenzmodulation mit unterschiedlichen Modulationsfrequenzen während unterschiedlicher Zeiträume für eine Gesamtzeit wiederholt, die einer maximalen Laufzeit des LIDAR-Sensorsystems entspricht, und dann eine neue Iteration der Frequenzmodulation startet.
    • In Beispiel 20ae kann der Gegenstand eines der Beispiele 17ae bis 19ae wahlweise beinhalten, dass die Teillichtquellen der Mehrzahl der Teillichtquellen in einem eindimensionalen Array oder in einem zweidimensionalen Array angeordnet sind.
    • Beispiel 21ae ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Sensor mit einer Vielzahl von Fotodioden aufweisen, wobei die Vielzahl von Fotodioden in eine Vielzahl von disjunkten Fotodiodengruppen mit einer ersten Fotodiodengruppe und einer zweiten Fotodiodengruppe gruppiert sind. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie jede Fotodiode der Vielzahl von Fotodioden einzeln steuern, um eine Vielzahl von Lichtsignalen zu empfangen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die empfangene Mehrzahl von Lichtsignalen identifizieren. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie mindestens eine Modulationskomponente jedes Lichtsignals der empfangenen Vielzahl von Lichtsignalen bestimmen. Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie die mindestens eine Modulationskennlinienkomponente jedes Lichtsignals der empfangenen Vielzahl von Lichtsignalen auf der Grundlage von Modulationskennlinien auswerten, die zur Modulation der Vielzahl von Lichtsignalen verwendet werden, die von einer Vielzahl von Teillichtquellen des LIDAR-Sensorsystems emittiert wurden.
    • In Beispiel 22ae kann der Gegenstand von Beispiel 21ae optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um jede Fotodiode der Vielzahl von Fotodioden einzeln zu steuern, um eine Vielzahl von Lichtimpulsen zu empfangen. Der eine oder die mehreren Prozessoren können ferner so konfiguriert werden, dass sie die empfangene Vielzahl von Lichtimpulsen identifizieren. Der eine oder die mehreren Prozessoren können ferner so konfiguriert sein, dass sie mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen bestimmen. Der eine oder die mehreren Prozessoren können ferner so konfiguriert sein, dass sie die mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen auf der Grundlage von Modulationsfrequenzen auswerten, die zur Frequenzmodulation der Vielzahl von Lichtimpulsen verwendet werden, die von einer Vielzahl von Teillichtquellen des LIDAR-Sensorsystems emittiert wurden.
    • In Beispiel 23ae kann der Gegenstand von Beispiel 22ae wahlweise beinhalten, dass die Fotodioden der Vielzahl von Fotodioden in einem eindimensionalen Array oder in einem zweidimensionalen Array angeordnet sind.
    • In Beispiel 24ae kann der Gegenstand von Beispiel 23ae optional beinhalten, dass die Fotodioden in dem eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet werden. Alternativ können die Fotodioden in dem zweidimensionalen Array in Zeilen und Spalten angeordnet werden.
    • In Beispiel 25ae kann der Gegenstand eines der Beispiele 22ae bis 24ae optional mindestens einen Analog-Digital-Wandler aufweisen, der so konfiguriert ist, dass er die Vielzahl der empfangenen analogen Lichtpulse in eine Vielzahl der empfangenen digitalisierten Lichtpulse umwandelt.
    • In Beispiel 26ae kann der Gegenstand eines der Beispiele 22ae bis 25ae optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um die empfangene Vielzahl von Lichtimpulsen zu identifizieren, indem mindestens einer der folgenden Prozesse ausgeführt wird: Vollwellenform-Detektion; Zeit-zu-Digital-Umwandlungsprozess; schwellenwertbasierte Signaldetektion; und/oder Analyse der Korrelation zwischen der Vielzahl von empfangenen Lichtimpulsen und der Vielzahl von ausgesendeten Lichtimpulsen.
    • In Beispiel 27ae kann der Gegenstand eines der Beispiele 22ae bis 26ae optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen zu bestimmen, indem mindestens einer der folgenden Prozesse durchgeführt wird: Frequenzmodulations-(FM)-Demodulationsverfahren oder Frequenzverschiebungstastungs-(FSK)-Demodulationsverfahren; Bandpassfilterung und Hüllkurvenerkennung; Anwendung chaotischer Oszillatoren auf die Erkennung schwacher Signale; Erkennung linear frequenzmodulierter Signale unter Verwendung der Zufallsmehrdeutigkeitstransformation; und/oder Spektraltransformationsverfahren für die Einzeltonerkennung und Frequenzschätzung; Anwendung orthogonaler Frequenzmultiplex-Dekodierungsverfahren; und/oder Anwendung von Korrelationsempfängerkonzepten unter Berücksichtigung der Korrelation zwischen der Vielzahl empfangener Lichtimpulse und der Vielzahl ausgesandter Lichtimpulse.
    • In Beispiel 28ae kann der Gegenstand eines der Beispiele 22ae bis 27ae optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um die mindestens eine Frequenzkomponente auszuwerten, indem die ermittelte mindestens eine Frequenzkomponente mit den Modulationsfrequenzen verglichen wird, die zur Frequenzmodulation der Vielzahl von Lichtimpulsen verwendet werden, die von einer Vielzahl von Teillichtquellen des LIDAR-Sensorsystems emittiert wurden.
    • In Beispiel 29ae kann der Gegenstand von Beispiel 28ae optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um eine Vielzahl von Frequenzkomponenten zu bestimmen; und die bestimmte Vielzahl von Frequenzkomponenten zu ordnen, um eine oder mehrere Hauptmodulationsfrequenzen von mindestens einem empfangenen Lichtimpuls zu bestimmen.
    • In Beispiel 30ae kann der Gegenstand eines der Beispiele 1ae bis 29ae optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 31ae kann der Gegenstand eines der Beispiele 1ae bis 29ae optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem einschließlich eines Scanspiegels konfiguriert wird.
    • Beispiel 32ae ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das LIDAR-Sensorsystem kann eine Lichtquelle mit einer Vielzahl von Teillichtquellen aufweisen, wobei die Vielzahl von Teillichtquellen in eine Vielzahl von disjunkten Lichtquellengruppen mit einer ersten Lichtquellengruppe und einer zweiten Lichtquellengruppe gruppiert sind. Das Verfahren kann das individuelle Steuern jeder Teillichtquelle der Vielzahl von Teillichtquellen umfassen, um eine Vielzahl von Lichtsignalen zu emittieren; und Modulieren jeder Teillichtquelle der Vielzahl von Teillichtquellen der ersten Lichtquellengruppe, so dass Lichtsignale, die von verschiedenen Teillichtquellen der ersten Lichtquellengruppe emittiert werden, mit verschiedenen Modulationscharakteristiken moduliert werden; Modulieren jeder Teillichtquelle der Vielzahl von Teillichtquellen der zweiten Lichtquellengruppe, so dass Lichtsignale, die von verschiedenen Teillichtquellen der zweiten Lichtquellengruppe emittiert werden, mit verschiedenen Modulationscharakteristiken moduliert werden. Mindestens eine Modulationscharakteristik, die zum Modulieren einer Teillichtquelle der ersten Lichtquellengruppe verwendet wird, kann die gleiche Modulationscharakteristik sein, die zum Modulieren einer Teillichtquelle der zweiten Lichtquellengruppe verwendet wird.
    • In Beispiel 33ae kann der Gegenstand von Beispiel 32ae optional beinhalten, dass jede Teillichtquelle der Vielzahl von Teillichtquellen einzeln gesteuert wird, um eine Vielzahl von Lichtimpulsen zu emittieren; und dass jede Teillichtquelle der Vielzahl von Teillichtquellen der ersten Lichtquellengruppe frequenzmoduliert wird, so dass Lichtimpulse, die von verschiedenen Teillichtquellen der ersten Lichtquellengruppe emittiert werden, mit unterschiedlichen Modulationsfrequenzen moduliert werden; Frequenzmodulation jeder Teillichtquelle der Vielzahl von Teillichtquellen der zweiten Lichtquellengruppe, so dass Lichtimpulse, die von verschiedenen Teillichtquellen der zweiten Lichtquellengruppe emittiert werden, mit verschiedenen Modulationsfrequenzen moduliert werden. Mindestens eine Modulationsfrequenz, die zur Frequenzmodulation einer Frequenz-Lichtquelle der ersten Lichtquellengruppe verwendet wird, kann die gleiche Modulationscharakteristik sein, die zur Modulation einer Teillichtquelle der zweiten Lichtquellengruppe verwendet wird.
    • In Beispiel 34ae kann der Gegenstand von Beispiel 33ae optional die Auswahl erster Modulationsfrequenzen zur Frequenzmodulation der Teillichtquellen der ersten Lichtquellengruppe und die Auswahl mindestens der ersten Modulationsfrequenzen zur Frequenzmodulation der Teillichtquellen der zweiten Lichtquellengruppe umfassen.
    • In Beispiel 35ae kann der Gegenstand eines der Beispiele 33ae oder 34ae wahlweise beinhalten, dass die Anzahl der Teillichtquellen der ersten Lichtquellengruppe und die Anzahl der Teillichtquellen der zweiten Lichtquellengruppe gleich ist.
    • In Beispiel 36ae kann der Gegenstand eines der Beispiele 33ae bis 35ae optional beinhalten, dass für die Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und benachbarter Teillichtquellen der zweiten Lichtquellengruppe unterschiedliche Modulationsfrequenzen gewählt werden.
    • In Beispiel 37ae kann der Gegenstand eines jeden der Beispiele 33ae bis 36ae wahlweise beinhalten, dass die Mehrzahl der Teillichtquellen in einem eindimensionalen Array oder in einem zweidimensionalen Array angeordnet sind.
    • In Beispiel 38ae kann der Gegenstand von Beispiel 37ae wahlweise beinhalten, dass die Teillichtquellen im eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet sind. Alternativ können die Teillichtquellen im zweidimensionalen Array in Zeilen und Spalten angeordnet sein.
    • In Beispiel 39ae kann der Gegenstand eines der Beispiele 33ae bis 38ae optional beinhalten, dass zumindest einige Lichtimpulse der Vielzahl von Lichtimpulsen gemäß Orthogonal Frequency Division Multiplex frequenzmoduliert sind.
    • In Beispiel 40ae kann der Gegenstand eines jeden der Beispiele 33ae bis 39ae optional beinhalten, dass die Mehrzahl der Teillichtquellen eine Leuchtdiode enthält.
    • In Beispiel 41ae kann der Gegenstand eines der Beispiele 33ae bis 40ae optional beinhalten, dass die Mehrzahl der Teillichtquellen eine Laserdiode enthält.
    • In Beispiel 42ae kann der Gegenstand eines der Beispiele 33ae bis 41ae optional beinhalten, dass die verschiedenen Modulationsfrequenzen aus einem Satz vordefinierter Modulationsfrequenzen ausgewählt werden.
    • In Beispiel 43ae kann der Gegenstand von Beispiel 42ae optional beinhalten, dass der Satz von vordefinierten Modulationsfrequenzen eine Modulationsbandbreite im Bereich von etwa 1 MHz bis etwa 10 GHz abdeckt.
    • In Beispiel 44ae kann der Gegenstand eines der Beispiele 33ae bis 43ae optional die Auswahl erster Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und für die Frequenzmodulation von Teillichtquellen der zweiten Lichtquellengruppe während einer ersten Zeitspanne aus einem ersten Satz von Modulationsfrequenzen und die Auswahl zweiter Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und für die Frequenzmodulation von Teillichtquellen der zweiten Lichtquellengruppe während einer zweiten Zeitspanne, die auf die erste Zeitspanne folgt, aus einem zweiten Satz von Modulationsfrequenzen umfassen. Alle Modulationsfrequenzen des zweiten Satzes von Modulationsfrequenzen können sich von den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen unterscheiden.
    • In Beispiel 45ae kann der Gegenstand von Beispiel 44ae optional die Auswahl dritter Modulationsfrequenzen für die Frequenzmodulation von Teillichtquellen der ersten Lichtquellengruppe und für die Frequenzmodulation von Teillichtquellen der zweiten Lichtquellengruppe während einer dritten Zeitspanne, die auf die zweite Zeitspanne folgt, aus einem dritten Satz von Modulationsfrequenzen umfassen. Alle Modulationsfrequenzen des dritten Satzes von Modulationsfrequenzen können sich von den Modulationsfrequenzen des ersten Satzes von Modulationsfrequenzen und von den Modulationsfrequenzen des zweiten Satzes von Modulationsfrequenzen unterscheiden.
    • In Beispiel 46ae kann der Gegenstand eines der Beispiele 44ae oder 45ae optional die Wiederholung der Frequenzmodulation mit verschiedenen Modulationsfrequenzen während verschiedener Zeitperioden für einen Gesamtzeitraum umfassen, der einer maximalen Laufzeit der Methode entspricht, und dann eine neue Iteration der Frequenzmodulation beginnen, die mit den Modulationsfrequenzen einer der Gruppen von Modulationsfrequenzen beginnt.
    • Beispiel 47ae ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das LIDAR-Sensorsystem kann eine Lichtquelle mit einer Vielzahl von Teillichtquellen aufweisen. Das Verfahren kann die individuelle Steuerung jeder Teillichtquelle der Vielzahl von Teillichtquellen umfassen, um eine Vielzahl von Lichtsignalen auszusenden; und die Modulation aller Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer ersten Modulationscharakteristik während einer ersten Zeitperiode; die Modulation aller Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer zweiten Modulationscharakteristik während einer zweiten Zeitperiode, die auf die erste Zeitperiode folgt. Die zweite Modulationscharakteristik kann sich von der ersten Modulationscharakteristik unterscheiden.
    • In Beispiel 48ae kann der Gegenstand von Beispiel 47ae optional die individuelle Steuerung jeder Teillichtquelle der Vielzahl von Teillichtquellen umfassen, um eine Vielzahl von Lichtimpulsen auszusenden; und die Frequenzmodulation aller Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer ersten Modulationsfrequenz während einer ersten Zeitperiode; die Frequenzmodulation aller Teillichtquellen der Vielzahl von Teillichtquellen unter Verwendung einer zweiten Modulationsfrequenz während einer zweiten Zeitperiode, die auf die erste Zeitperiode folgt. Die zweite Modulationsfrequenz kann sich von der ersten Modulationsfrequenz unterscheiden.
    • In Beispiel 49ae kann der Gegenstand von Beispiel 48ae optional beinhalten, dass alle Teillichtquellen der Vielzahl von Teillichtquellen während einer dritten Zeitspanne, die auf die zweite Zeitspanne folgt, mit einer dritten Modulationsfrequenz frequenzmoduliert werden, wobei sich die dritte Modulationsfrequenz von der zweiten Modulationsfrequenz und von der ersten Modulationsfrequenz unterscheidet.
    • In Beispiel 50ae kann der Gegenstand eines der Beispiele 48ae oder 49ae optional beinhalten, dass die Frequenzmodulation mit unterschiedlichen Modulationsfrequenzen während verschiedener Zeitperioden für einen Gesamtzeitraum wiederholt wird, der einer maximalen Laufzeit der Methode ähnlich ist, und dann eine neue Iteration der Frequenzmodulation gestartet wird.
    • In Beispiel 51ae kann der Gegenstand eines der Beispiele 48ae bis 50ae wahlweise beinhalten, dass die Mehrzahl der Teillichtquellen in einem eindimensionalen Array oder in einem zweidimensionalen Array angeordnet sind.
    • Beispiel 52ae ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das LIDAR-Sensorsystem kann einen Sensor mit einer Vielzahl von Fotodioden aufweisen, wobei die Vielzahl von Fotodioden in eine Vielzahl von disjunkten Fotodiodengruppen mit einer ersten Fotodiodengruppe und einer zweiten Fotodiodengruppe gruppiert sind. Das Verfahren kann folgendes umfassen: individuelles Steuern jeder Fotodiode der Vielzahl von Fotodioden, um eine Vielzahl von Lichtsignalen zu empfangen; Identifizieren der empfangenen Vielzahl von Lichtsignalen; Bestimmen mindestens einer Modulationscharakteristikkomponente jedes Lichtsignals der empfangenen Vielzahl von Lichtsignalen; Auswerten der mindestens einen Modulationscharakteristikkomponente jedes Lichtsignals der empfangenen Vielzahl von Lichtsignalen auf der Grundlage von Modulationscharakteristika, die zum Modulieren der Vielzahl von Lichtsignalen verwendet werden, die von einer Vielzahl von Teillichtquellen des LIDAR-Sensorsystems emittiert worden sind.
    • In Beispiel 53ae kann der Gegenstand von Beispiel 52ae optional beinhalten, jede Fotodiode der Vielzahl von Fotodioden einzeln zu steuern, um eine Vielzahl von Lichtimpulsen zu empfangen; die empfangene Vielzahl von Lichtimpulsen zu identifizieren; mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen zu bestimmen; die mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen auf der Grundlage von Modulationsfrequenzen auszuwerten, die zur Frequenzmodulation der Vielzahl von Lichtimpulsen verwendet werden, die von einer Vielzahl von Teillichtquellen des LIDAR-Sensorsystems emittiert wurden.
    • In Beispiel 54ae kann der Gegenstand von Beispiel 53ae wahlweise beinhalten, dass die Fotodioden der Vielzahl von Fotodioden in einem eindimensionalen Array oder in einem zweidimensionalen Array angeordnet sind.
    • In Beispiel 55ae kann der Gegenstand von Beispiel 54ae optional beinhalten, dass die Fotodioden in dem eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet werden. Alternativ können die Fotodioden in dem zweidimensionalen Array in Zeilen und Spalten angeordnet werden.
    • In Beispiel 56ae kann der Gegenstand eines der Beispiele 54ae oder 55ae optional die Analog-Digital-Wandlung der Vielzahl der empfangenen analogen Lichtpulse in eine Vielzahl der empfangenen digitalisierten Lichtpulse beinhalten.
    • In Beispiel 57ae kann der Gegenstand eines der Beispiele 54ae bis 56ae optional beinhalten, dass die empfangene Vielzahl von Lichtimpulsen identifiziert wird, indem mindestens einer der folgenden Prozesse durchgeführt wird: Vollwellenform-Detektion; Zeit-zu-Digital-Umwandlungsprozess; schwellenwertbasierte Signaldetektion; und/oder durch Analyse der Korrelation zwischen der Vielzahl von empfangenen Lichtimpulsen und der Vielzahl von ausgesendeten Lichtimpulsen.
    • In Beispiel 58ae kann der Gegenstand eines der Beispiele 54ae bis 57ae optional beinhalten, dass die mindestens eine Frequenzkomponente jedes Lichtimpulses der empfangenen Vielzahl von Lichtimpulsen durch die Durchführung mindestens eines der folgenden Verfahren bestimmt wird:
      • Frequenzmodulations-(FM)-Demodulationsverfahren oder Frequenzverschiebungstastungs-(FSK)-Demodulationsverfahren; Bandpassfilterung und Hüllkurvenerkennung; Anwendung chaotischer Oszillatoren auf die Erkennung schwacher Signale; Erkennung linear frequenzmodulierter Signale unter Verwendung einer Zufallsmehrdeutigkeitstransformation; Spektraltransformationsverfahren zur Erkennung eines einzelnen Tons und zur Frequenzschätzung; Anwendung orthogonaler Frequenzmultiplex-Dekodierungsverfahren; und/oder Anwendung von Korrelationsempfängerkonzepten, die die Korrelation zwischen der Vielzahl empfangener Lichtimpulse und der Vielzahl ausgesandter Lichtimpulse berücksichtigen.
    • In Beispiel 59ae kann der Gegenstand eines der Beispiele 54ae bis 58ae optional beinhalten, dass die mindestens eine Frequenzkomponente durch Vergleich der ermittelten mindestens einen Frequenzkomponente mit den Modulationsfrequenzen bewertet wird, die zur Frequenzmodulation der Vielzahl von Lichtimpulsen verwendet werden, die von einer Vielzahl von Lichtquellen des LIDAR-Sensorsystems emittiert wurden.
    • In Beispiel 60ae kann der Gegenstand von Beispiel 59ae optional die Bestimmung einer Vielzahl von Frequenzkomponenten umfassen; und die Rangfolge der bestimmten Vielzahl von Frequenzkomponenten, um eine oder mehrere Hauptmodulationsfrequenzen mindestens eines empfangenen Lichtimpulses zu bestimmen.
    • In Beispiel 61ae kann der Gegenstand eines der Beispiele 32ae bis 60ae optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 62ae kann der Gegenstand eines der Beispiele 32ae bis 60ae optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem einschließlich eines Scanspiegels konfiguriert wird.
    • Beispiel 63ae ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht-transitorischen computerlesbaren Medium umfasst sein können, das, wenn es von einem Computerprogrammgerät eines LIDAR-Sensorsystems ausgeführt wird, optional den Gegenstand eines beliebigen der Beispiele 1ae bis 31ae aufweisen kann, die das LIDAR-Sensorsystem veranlassen, das Verfahren auszuführen, die Gegenstand eines beliebigen der Beispiele 32ae bis 62ae ist.
    • Beispiel 64ae ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eine der Methoden für ein LIDAR-Sensorsystem gemäß einem der oben genannten Methodenbeispiele oder ein LIDAR-Sensorsystem gemäß einem der oben genannten LIDAR-Sensorsystembeispiele ausführen kann.
  • Im Bereich der Signal- und Datenverarbeitung können verschiedene Konzepte und Algorithmen zur Datenkompression eingesetzt und implementiert werden. Generell kann zwischen verlustfreien und verlustbehafteten Datenkompressionsalgorithmen unterschieden werden.
  • Im Falle einer verlustfreien Datenkompression kann der zugrunde liegende Algorithmus versuchen, redundante Informationen zu identifizieren, die dann ohne Datenverlust aus dem Datenstrom extrahiert werden können. Runlength Encoding (RLE) kann ein Beispiel für einen verlustfreien Datenkompressionsalgorithmus sein. Im Algorithmus zur Lauflängenkodierung können identische und aufeinander folgende Informationssymbole komprimiert werden, indem das jeweilige Symbol nur einmal zusammen mit der Anzahl der identifizierten Wiederholungen verwendet wird. Weitere Beispiele für verlustfreie Datenkompressionsalgorithmen können Algorithmen zur Kodierung mit variabler Länge oder Entropiekodierung sein, wie z.B. Huffman-Code, arithmetische Kodierung und ähnliches.
  • Im Falle einer verlustbehafteten Datenkomprimierung kann der zugrunde liegende Algorithmus versuchen, nicht relevante oder weniger relevante Informationen zu identifizieren, die aus dem Datenstrom mit nur geringen Auswirkungen auf die später abgeleiteten Ergebnisse extrahiert werden können (z.B. Ergebnisse aus der Datenanalyse, aus Berechnungen zur Objekterkennung u.ä.). Beispiele für verlustbehaftete Kompressionsalgorithmen können recht einfache Verfahren wie Quantisierung, Rundung und Diskretisierung sein. Komplexere Beispiele für verlustbehaftete Kompressionsalgorithmen können rechenintensive Transformationsalgorithmen, wie z.B. Diskrete Cosinus-Transformationen (DCT), als Beispiel aufweisen. Beim DCT-Algorithmus können Rohdatenströme in eine andere Domäne transformiert werden, was eine gezieltere Quantisierung ermöglichen kann (z. B. MP3 für die Audiokomprimierung, JPEG für die Bildkomprimierung und MPEG für die Videokomprimierung). Zusätzlich oder alternativ kann ein schätz- oder prädiktionsbasierter Algorithmus verwendet werden. In einem solchen Algorithmus können Datenströme analysiert werden, um die nächsten Symbole vorherzusagen, z.B. um (zumindest teilweise) Inhalte eines Bildes auf der Grundlage analysierter benachbarter Bildteile vorherzusagen. Ein solcher schätz- oder prädiktionsbasierter Algorithmus kann Rankingmethoden zum Aufbau einer kontextspezifischen Wahrscheinlichkeitsschätzfunktion aufweisen.
  • Ein verlustbehafteter Datenkompressionsalgorithmus kann im Vergleich zu einem verlustfreien Datenkompressionsalgorithmus eine höhere Datenkompressionsrate liefern. Bei sicherheitsbezogenen Anwendungen, wie z.B. autonomes Fahren, kann ein absichtlich in Kauf genommener Datenverlust jedoch riskant sein. Zur Veranschaulichung: Es kann ein gewisser Kompromiss zwischen dem erreichbaren Niveau der Datenreduktionsrate und dem tolerierbaren Niveau des Verlusts an Informationsgenauigkeit bestehen.
  • Bei LIDAR-Anwendungen, z.B. für die dreidimensionale Bildgebung auf LIDAR-Basis, kann die Datenmenge in Bezug auf das Gesichtsfeld je nach Darstellung um die Potenz 3 gegenüber der konventionellen zweidimensionalen Bildgebung (n=2) ansteigen. Daher können effiziente Datenkompressionsverfahren im LIDAR-Rahmen von hohem Wert sein.
  • Verschiedene Ausführungsformen können sich auf ein Kompressionsverfahren für ein LIDAR-System (z.B. für das LIDAR-Sensorsystem10) und auf ein zur Implementierung des Verfahrens konfiguriertes LIDAR-System beziehen. Die hier beschriebene Methode kann die Komprimierung eines LIDAR-Signals ermöglichen, um einen schnellen Datentransfer vom Sensor-Frontend zum Backend-System für die anschließende Signalverarbeitung und Datenanalyse zu ermöglichen.
  • Die hier beschriebene Methode kann die Bereitstellung einer komprimierten Darstellung eines empfangenen LIDAR-Signals (z.B. gemessen oder detektiert durch den LIDAR-Sensor, z.B. den Sensor 52) beinhalten, z.B. kann das Verfahren die Beschreibung eines empfangenen LIDAR-Signals durch einen prägnanten Satz geeigneter Merkmale beinhalten. Die beschreibenden Merkmale können (z.B. nach der Übertragung an das Backend) zur Rekonstruktion des ursprünglichen LIDAR-Signals verwendet werden (z.B. können die Merkmale eine präzise und genaue Rekonstruktion des ursprünglichen Signals ermöglichen). Die Darstellung des (z.B. empfangenen) LIDAR-Signals durch den Merkmalssatz kann kompakter sein als die gesamte Sequenz (z.B. die gesamte Zeitreihe) von Signalabtastwerten. Dies kann zu einer Datenkompression führen, z.B. zu einer Reduzierung der Datenmenge (z.B. an der ersten Schnittstelle, z.B. auf Sensorebene), wie weiter unten näher beschrieben wird. Das Verfahren kann illustrativ als Datenkompressionsverfahren beschrieben werden.
  • 176 zeigt ein LIDAR-System 17600 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 17600 kann oder kann als LIDAR-Sensorsystem 10 konfiguriert werden. Als Beispiel kann das LIDAR-System 17600 als Flash-LIDAR-System konfiguriert werden (z.B. als Flash-LIDAR-Sensorsystem 10). Als weiteres Beispiel kann das LIDAR-System 17600 als scannendes LIDAR-System konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Das scannende LIDAR-System kann eine scannende Komponente aufweisen, die so konfiguriert ist, dass sie das Sichtfeld des scannenden LIDAR-Systems scannt (z.B. so konfiguriert, dass sie Licht nacheinander auf verschiedene Teile des Sichtfeldes des scannenden LIDAR-Systems richtet). Als Beispiel kann das scannende LIDAR-System einen Scan-Spiegel (z.B. einen MEMS-Spiegel) aufweisen.
  • Das LIDAR-System 17600 kann (z.B. integriert oder eingebettet) in einer Sensoreinrichtung, z.B. in der LIDAR-Sensoreinrichtung 30, z.B. in einem Fahrzeug oder in einem Scheinwerfer eines Fahrzeugs, umfasst sein. Das LIDAR-System 17600 kann z.B. in einem Fahrzeug mit automatisierten Fahrfunktionen eingebaut sein, z.B. in einem Fahrzeug, das in der Lage ist, auf SAE-Level 3 oder höher zu fahren.
  • Das LIDAR-System 17600 kann einen oder mehrere Prozessoren 17602 aufweisen (z.B. mit dem LIDAR-Datenverarbeitungssystem 60 verbunden oder darin aufweisen). Der eine oder die mehreren Prozessoren 17602 können so konfiguriert werden, dass sie eine Zeitreihe eines empfangenen LIDAR-Signals mit Hilfe eines Merkmalsextraktionsprozesses unter Verwendung von a-priori-Wissen über strukturelle Eigenschaften eines typischen LIDAR-Signals zu einem komprimierten LIDAR-Signal komprimieren.
  • Ein LIDAR-Signal kann als ein Signal beschrieben werden (z.B. ein digitales Signal oder ein analoges Signal, wie z.B. ein Lichtsignal, ein Strom- oder ein Spannungssignal), das Informationen enthält oder transportiert, die verarbeitet werden können, um ein LIDAR-Messergebnis zu liefern (z.B. um eine Laufzeit und/oder einen Intensitätswert oder eine Punktwolke zu liefern). Als Beispiel kann ein (z.B. empfangenes) LIDAR-Signal ein Lichtsignal sein, das von einem Sensor 52 des LIDAR-Systems 17600 erfasst oder gemessen wird. Als weiteres Beispiel kann ein (z.B. empfangenes) LIDAR-Signal ein Stromsignal sein, das vom Sensor 52 als Reaktion auf ein empfangenes Lichtsignal geliefert wird. Als weiteres Beispiel kann ein (z.B. empfangenes) LIDAR-Signal ein Spannungssignal sein, das von einem Transimpedanzverstärker (TIA) als Reaktion auf ein vom Sensor 52 geliefertes Stromsignal bereitgestellt wird (z.B. ein Transimpedanzverstärker, der im Sensor 52 umfasst ist, z.B. ein Transimpedanzverstärker, der im zweiten LIDAR-Sensorsystem 50 umfasst ist). Als ein weiteres Beispiel kann ein (z.B. empfangenes) LIDAR-Signal ein digitales Signal sein, das dem einen oder mehreren Prozessoren 17602 des Systems 17600 zur Verfügung gestellt wird, z.B. von einem Analog-Digital-Wandler (z.B., ein Analog-Digital-Wandler, der im Sensor 52 umfasst ist, z.B. ein Analog-Digital-Wandler, der im zweiten LIDAR-Sensorsystem 50 umfasst ist, z.B. der Analog-Digital-Wandler 17604) oder von einem LIDAR-systemexternen System oder Gerät (z.B. über eine Kommunikationsschnittstelle) bereitgestellt wird.
  • Ein typisches LIDAR-Signal kann als ein LIDAR-Signal beschrieben werden, das Eigenschaften (z.B. strukturelle Eigenschaften) aufweist, die typischerweise oder üblicherweise in einem LIDAR-Signal aufweisen sind, wie weiter unten näher beschrieben wird. Illustrativ kann ein typisches LIDAR-Signal als ein (z.B. Referenz-)LIDAR-Signal beschrieben werden, dessen Eigenschaften oder Verhalten bekannt sind (z.B. dessen Eigenschaften oder Verhalten gemessen wurden oder dessen Eigenschaften oder Verhalten durch Simulation bestimmt wurde), oder ein typisches LIDAR-Signal kann auf der Grundlage eines (z.B. Referenz-)LIDAR-Signals beschrieben werden, dessen Eigenschaften oder Verhalten bekannt sind.
  • Eine „Zeitreihe“ eines (z.B. empfangenen) LIDAR-Signals kann eine Reihe von Werten sein, die das LIDAR-Signal über die Zeit beschreiben. Zur Veranschaulichung kann ein LIDAR-Signal in eine Vielzahl von Abschnitten unterteilt werden, die jeweils eine Zeitdauer haben (z.B. eine vordefinierte Zeitdauer, z.B. dieselbe für jeden Abschnitt, oder eine variable Zeitdauer). Eine Zeitreihe eines LIDAR-Signals kann eine solche Vielzahl von Abschnitten aufweisen (z.B. eine zeitlich geordnete Folge solcher Abschnitte), z.B. kann eine Zeitreihe eines LIDAR-Signals eine Reihe von Signalwerten (z.B. analog oder digital) sein oder aufweisen, von denen jeder das LIDAR-Signal zu einem anderen Zeitpunkt oder in einer anderen Zeitperiode beschreibt. Veranschaulichend kann eine Zeitreihe eine Folge von Signalabtastwerten aufweisen, wie weiter unten näher beschrieben.
  • Ein „a priori-Wissen“ kann als Information (z.B. zur Beschreibung eines typischen LIDAR-Signals) beschrieben werden, die bereits vor der Durchführung der hier beschriebenen Methode verfügbar ist (z.B. Information, die dem einen oder mehreren Prozessoren 17602 bereits zur Verfügung steht). Zur Veranschaulichung kann ein „a priori-Wissen“ als Daten oder Informationen beschrieben werden, die bereits vor der Durchführung der hier beschriebenen Methode bestimmt (z.B. bereits definiert) wurden (z.B. vor der Komprimierung einer Zeitreihe eines empfangenen LIDAR-Signals).
  • Ein Merkmalsextraktionsprozess kann beschrieben werden als ein Prozess zur Extraktion (z.B. zur Identifizierung) eines oder mehrerer Merkmale, z.B. aus oder in einem empfangenen LIDAR-Signal (z.B. in einer Zeitreihe eines empfangenen LIDAR-Signals), wie weiter unten näher beschrieben.
  • In verschiedenen Ausführungsformen kann das LIDAR-System 17600 optional einen Sensor 52 aufweisen. Der Sensor 52 kann z.B. dann in das LIDAR-System 17600 integriert werden, wenn das empfangene und zu komprimierende LIDAR-Signal ein vom LIDAR-System 17600 detektiertes oder gemessenes Signal ist (z.B. durch den Sensor 52). Der Sensor 52 kann so konfiguriert werden, dass er ein Lichtsignal detektiert (z.B. um ein Lichtsignal aus dem Sichtfeld des LIDAR-Systems 17600 zu empfangen und ein entsprechendes Signal zu erzeugen). Als Beispiel kann der Sensor 52 mindestens eine Fotodiode aufweisen (z.B. eine Vielzahl von Fotodioden). Die Fotodiode kann so konfiguriert werden, dass sie als Reaktion auf Licht, das auf den Sensor 52 auftrifft, ein Signal (z.B. ein elektrisches Signal, wie z.B. einen Strom) erzeugt.
  • Zum Beispiel kann die Fotodiode eine Pinphotodiode sein oder eine solche aufweisen. Als weiteres Beispiel kann die Fotodiode eine Lawinenfotodiode (Avalanche Photo Diode, APD) sein oder eine solche aufweisen. Als weiteres Beispiel kann die Fotodiode eine Einzelphotonen-Lawinenfotodiode (SPAD) sein oder eine solche aufweisen. Als ein weiteres Beispiel kann die Fotodiode ein Silizium-Photomultiplier (SiPM) sein oder einen solchen aufweisen. Als weiteres Beispiel kann die Fotodiode ein CMOS-Sensor (CMOS = Complementary Metal Oxide Semiconductor) sein oder einen solchen aufweisen. Als weiteres Beispiel kann die Fotodiode ein ladungsgekoppeltes Bauelement (CCD) sein oder ein solches aufweisen. Als weiteres Beispiel kann die Fotodiode eine gestapelte Vielschicht-Fotodiode sein oder eine solche aufweisen (z.B. kann die Fotodiode die optische Komponente 5100 oder die optische Komponente 5200 oder die optische Komponente 5300 aufweisen, die in Bezug auf 51 bis 58 beschrieben wird).
  • In verschiedenen Ausführungsformen kann das LIDAR-System 17600 optional einen Analog-Digital-Wandler 17604 aufweisen (z.B. kann der Analog-Digital-Wandler 17604 im Sensor 52 umfasst sein, z.B. kann der Analog-Digital-Wandler 17604 im zweiten LIDAR-Sensorsystem 50 umfasst sein). Der Analog-Digital-Wandler 17604 kann z.B. in das LIDAR-System 17600 aufgenommen werden, wenn das empfangene und zu komprimierende LIDAR-Signal ein vom LIDAR-System 17600 erfasst oder gemessenes Signal ist.
  • Der Analog-Digital-Wandler 17604 kann so konfiguriert werden, dass er das empfangene LIDAR-Signal (z.B. ein vom Sensor 52, z.B. von der Fotodiode, geliefertes analoges Stromsignal oder ein von einem Transimpedanzverstärker (TIA) geliefertes analoges Spannungssignal) in ein digitalisiertes LIDAR-Empfangssignal umwandelt, z.B. in eine Zeitreihe digitaler Werte, die ein digitalisiertes LIDAR-Empfangssignal darstellt. Zur Veranschaulichung: Der Analog-Digital-Wandler 17604 kann so konfiguriert werden, dass er eine analoge Darstellung des empfangenen LIDAR-Signals (z.B. einer Zeitreihe des empfangenen LIDAR-Signals) in eine digitale Darstellung des empfangenen LIDAR-Signals (z.B. der Zeitreihe des empfangenen LIDAR-Signals) umwandelt. Als Beispiel kann der Analog-Digital-Wandler 17604 als der Analog-Digital-Wandler 1932, 1934, 1936, 1938, 1940 konfiguriert sein oder konfiguriert werden, der in Bezug auf 11 bis 25B beschrieben wird. Der Analog-Digital-Umsetzer 17604 kann so konfiguriert werden, daß er das digitalisierte Signal dem einen oder mehreren Prozessoren 17602 zur Verfügung stellt.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 17602 so konfiguriert werden, dass sie eine Zeitreihe eines empfangenen LIDAR-Signals komprimieren, indem sie eine oder mehrere Ereigniszeitreihen innerhalb des empfangenen LIDAR-Signals identifizieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 17602 können so konfiguriert werden, dass sie eine Zeitreihe eines empfangenen LIDAR-Signals komprimieren, indem sie ein oder mehrere Ereignisse innerhalb des empfangenen LIDAR-Signals identifizieren. Beispielhafte Implementierungen des Ereignis-Identifikationsprozesses werden weiter unten in Bezug auf 177A und 177C näher beschrieben.
  • Eine Ereigniszeitreihe kann ein Teil des empfangenen LIDAR-Signals sein, z.B. ein Teil der Zeitreihe des empfangenen LIDAR-Signals mit einem oder mehreren Ereignissen (z.B. mit mindestens einem Ereignis). Ein Ereignis kann als ein Teil des LIDAR-Signals (z.B. der Zeitreihe) beschrieben werden, der relevante Informationen enthält. Beispielsweise kann ein Ereignis ein Teil des LIDAR-Signals sein, der mit einem Objekt im Sichtfeld des LIDAR-Systems 17600 assoziiert sein kann (z.B. mit einer Reflexion von Licht von einem solchen Objekt). Als weiteres Beispiel kann ein Ereignis ein Teil des LIDAR-Signals sein, der mit einem anderen LIDAR-System assoziiert sein kann (z.B. die Übertragung von Informationen über ein eigenes Lichtsignal). Das Verfahren kann die Identifizierung solcher Teile des empfangenen LIDAR-Signals beinhalten.
  • Die Identifizierung relevanter Teile des LIDAR-Signals kann eine Datenkompression ermöglichen. Illustrativ kann eine Spur eines typischen LIDAR-Signals von spärlicher Form mit einer kleinen Menge relevanter Information und einer großen Menge weniger relevanter Information im Datenstrom sein (z.B. kann es weniger als 3 rückgestreute Echos von einem einzelnen Spotlet einer realen Szene geben; ein Spotlet kann als ein Bereich im beleuchteten Fernfeld beschrieben werden, der genau einem Pixel in einem LIDAR-Bild entspricht). Als Beispiel kann eine Messkurve einen zeitlichen Bereich von etwa 2 µs abdecken, einschließlich dreier rückgestreuter Echosignale, die jeweils einen zeitlichen Bereich von etwa 10 ns abdecken.
  • In verschiedenen Ausführungsformen können die Ereignisse aus einer Gruppe von Ereignissen ausgewählt werden, die einen oder mehrere Peaks innerhalb des empfangenen LIDAR-Signals und/oder ein oder mehrere LIDAR-Echosignale innerhalb des empfangenen LIDAR-Signals aufweisen oder aus diesen bestehen. Illustrativ kann die hier beschriebene Methode (z.B. in einer ersten Stufe) die Entnahme einer Sequenz (illustrativ eine Zeitreihe) von LIDAR-Signalproben (z.B. gesammelt in einem Vektor, wie unten beschrieben) und die Identifizierung von Ereignissen innerhalb des Signals (z.B. des gemessenen Signals), z.B. Peaks oder zurückkehrende LIDAR-Echos innerhalb des Signals, beinhalten. Ein Echosignal kann als ein Signal beschrieben werden, das vom LIDAR-System 17600 ausgesendet wird und zum LIDAR-System 17600 zurückkehrt (z.B. von einem Objekt im Sichtfeld zurück zum LIDAR-System 17600 reflektiert wird).
  • In verschiedenen Ausführungsformen kann eine Ereigniszeitreihe ein Teil des LIDAR-Signals (z.B. des empfangenen LIDAR-Signals) sein, dessen Signalwert (z.B. eine Reihe von Signalwerten) sich von einem Wert eines Hintergrundsignals unterscheidet (z.B. ein Signalwert, der höher ist als ein Wert eines Hintergrundsignals, z.B. eine Zeitreihe von Signalwerten, die jeweils höher sind als ein Hintergrundsignal). Zur Veranschaulichung: Eine Ereigniszeitreihe kann ein Teil des LIDAR-Signals sein, dessen Signalwert über einem Schwellenwert liegt (z.B. ein vordefinierter oder einstellbarer Schwellenwert, wie weiter unten näher beschrieben). Ein Signalwert über einem Schwellenwert kann z.B. ein Strom über einem Schwellenstrom, eine Spannung über einer Schwellenspannung, eine Lichtintensität über einer Schwellenintensität oder ein digitaler Wert über einem digitalen Schwellenwert sein. Ein Spitzenwert kann z.B. ein Teil eines LIDAR-Signals sein, dessen Signalpegel über einem vordefinierten Schwellenwert liegt (z.B. mit einem steigenden und einem fallenden Teil). Im Allgemeinen können der Spitzenwert und die Position eines analogen LIDAR-Signals mittels verschiedener Methoden (z.B. durch einen oder mehrere Prozessoren implementiert, z.B. durch den einen oder mehrere Prozessoren 17602) erkannt werden, z.B. durch Spitzenwertanalyse, Konstantbruchanalyse (CFD) und ähnliches.
  • Der eine oder die mehreren Prozessoren 17602 können so konfiguriert werden, dass sie eine oder mehrere Ereigniszeitreihen (z.B. ein oder mehrere Ereignisse) innerhalb des empfangenen LIDAR-Signals identifizieren, indem sie einen oder mehrere entsprechende Abschnitte mit einem Signalwert über einem Schwellenwert identifizieren. Der Schwellenwert kann dynamisch angepasst werden (z.B. durch einen oder mehrere Prozessoren oder durch ein zu dem LIDAR-System externes System oder Gerät, z.B. durch eine Sensor-Fusionsbox). Zum Beispiel kann der Schwellenwert per Software definiert oder angepasst werden.
  • Ein Peak kann einen oder mehrere Peaks umfassen. Zur Veranschaulichung: Ein Peak kann eine Peakstruktur (z.B. eine Multipeakstruktur) mit einem oder mehreren Peaks (z.B. eine Vielzahl von Peaks) sein oder aufweisen. Der eine oder die mehreren Peaks können einander zumindest teilweise überlappen (z.B. kann ein Peak einen oder mehrere benachbarte oder unmittelbar benachbarte Peaks in der Peakstruktur zumindest teilweise überlappen).
  • Eine Ereigniszeitreihe kann eine (möglicherweise vordefinierte) Anzahl von Signalwerten (z.B. eine Vielzahl von Signalabtastwerten, z.B. eine Folge von Signalabtastwerten) aufweisen, die mit einem jeweiligen Ereignis (z.B. mit einem jeweiligen Peak (Spitze) oder einer Peakstruktur oder mit einem jeweiligen Echosignal) verknüpft sind. Die Anzahl der Signalwerte kann innerhalb einer dem jeweiligen Ereignis zugeordneten Zeitdauer liegen (z.B. kann eine Ereigniszeitreihe eine Zeitdauer haben, die einer Zeitdauer des zugehörigen Ereignisses entspricht, z.B. entsprechend der Breite eines Peaks oder der Breite einer Multi-Peak-Struktur, z.B. einer kombinierten Breite der Peaks der Peak-Struktur). Als Beispiel kann eine Ereigniszeitreihe eines digitalisierten empfangenen LIDAR-Signals eine Anzahl von digitalen Werten innerhalb der zugehörigen Zeitdauer aufweisen. Die Zeitdauer kann eine vordefinierte Zeitdauer sein. Als Beispiel kann eine Ereigniszeitreihe eine Zeitreihe mit einer vordefinierten Dauer sein. Eine Ereigniszeitreihe kann eine vordefinierte Dauer haben, z.B. wenn das zugehörige Ereignis bekannt oder bereits charakterisiert ist (z.B. wenn das Ereignis durch das LIDAR-System 17600 gesteuert wird, z.B. wenn das Ereignis ein Echosignal eines ausgesendeten Lichtsignals mit einer bekannten oder vordefinierten Dauer ist).
  • In verschiedenen Ausführungsformen kann der Schwellenwert in Übereinstimmung mit einer oder mehreren LIDAR-System internen Bedingungen (z.B. Parameter oder Kriterien) und/oder einer oder mehreren LIDAR-System externen Bedingungen definiert werden. Beispielsweise kann der Schwellenwert in Übereinstimmung mit einer Verkehrssituation oder einer Fahrsituation definiert werden (z.B. eine aktuelle Geschwindigkeit des Fahrzeugs, eine geplante oder vorhergesagte Trajektorie des Fahrzeugs, eine spezifische Verkehrsumgebung, wie z.B. innerhalb einer Stadt, auf einer Landstraße oder auf einer Autobahn). Als weiteres Beispiel kann der Schwellenwert in Übereinstimmung mit einem Umgebungslichtniveau definiert werden (z.B. kann der Schwellenwert bei zunehmendem Umgebungslichtniveau erhöht werden, z.B. kann der Schwellenwert bei Tag- oder Nachtfahrten variieren). Als weiteres Beispiel kann der Schwellenwert in Übereinstimmung mit einer atmosphärischen Bedingung (z.B. einer Wetterbedingung, wie Regen, Nebel oder Schnee) definiert werden. Zur Veranschaulichung: Die Definition oder die Anpassung des Schwellenwertes kann die Definition der Empfindlichkeit des Systems für die Ereigniserkennung (z.B. für die Identifizierung von Ereignissen) ermöglichen.
  • Die Anpassung des Schwellenwertes kann eine Vorklassifikation der Ereignisse (z.B. der Ereigniszeitreihe), z.B. eine Vorfilterung, ermöglichen. Der Schwellenwert kann z.B. dann erhöht werden, wenn eine Datenbandbreite für die Übertragung von Informationen (z.B. Übertragung des komprimierten LIDAR-Signals) vorübergehend gering ist. Illustrativ kann eine hohe Ereignisrate (z.B. von Spitzenwerten) eine höhere Datenbandbreite für die Übertragung zum Backend sowie eine höhere Rechenleistung im Backend erfordern (z.B. für die Analyse, z.B. für softwarebasierte Spitzenvaliditätsanalyse).
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 17602 so konfiguriert werden, dass sie eine zeitliche Ankunftszeit für mindestens einige der einen oder mehreren identifizierten Ereigniszeitreihen bestimmen (z.B. für mindestens eine identifizierte Ereigniszeitreihe, z.B. für jede identifizierte Ereigniszeitreihe). Die zeitliche Ankunftszeit kann eine Startzeit für die Ereigniszeitreihe definieren, z.B. für den Teil des LIDAR-Signals, der das Ereignis einschließt, z.B. eine Startzeit des mit der Ereigniszeitreihe verbundenen Ereignisses. Eine Ereigniszeitreihe kann um die zugehörige zeitliche Ankunftszeit herum definiert werden, wie weiter unten näher beschrieben wird. Illustrativ kann der eine oder mehrere Prozessoren 17602 konfiguriert werden, um eine Zeit (z.B. einen absoluten oder relativen Zeitpunkt) zu bestimmen (z.B. auszuwerten oder zu berechnen), zu der ein identifiziertes Ereignis bestimmt wurde (z.B. eine Zeit, zu der ein Peak oder eine Peakstruktur oder ein Echosignal detektiert wurde). Der eine oder mehrere Prozessoren 17602 können so konfiguriert werden, dass die ermittelte zeitliche Ankunftszeit mit der jeweiligen identifizierten Ereigniszeitreihe (z.B. mit dem jeweiligen Ereignis) verknüpft wird.
  • Eine beispielhafte Realisierung des Prozesses der Ereignisidentifikation und Zeitassoziation wird in Bezug auf 177A beschrieben. Eine weitere beispielhafte Realisierung des Ereignisidentifikations- und Zeitassoziationsverfahrens wird in Bezug auf 177C beschrieben.
  • 177A zeigt eine Verarbeitungseinheit 17700 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. 177C zeigt eine weiterverarbeitende Einheit 17730 in einer schematischen Darstellung in Übereinstimmung mit verschiedenen Ausführungsformen. Die Verarbeitungseinheit 17700 und die Weiterverarbeitungseinheit 17730 können jeweils eine beispielhafte Implementierung des einen oder mehrerer Prozessoren 17602 des LIDAR-Systems 17600 sein. Zur Veranschaulichung: Die Verarbeitungseinheit 17700 und die Weiterverarbeitungseinheit 17730 können so konfiguriert werden, dass sie das hier beschriebene Datenkomprimierungsverfahren durchführen. Es wird davon ausgegangen, dass die in 177A und 177C gezeigte Anordnung und Konfiguration nur als Beispiel gewählt wird und andere Implementierungen des einen oder der mehreren Prozessoren zur Verfügung gestellt werden können. Es versteht sich ferner von selbst, dass die Komponenten der Verarbeitungseinheit 17700 und die Komponenten der Weiterverarbeitungseinheit 17730 auch in Kombination mit zusätzlichen Komponenten oder mit anderen, nicht in 177A und 177C gezeigten Komponenten bereitgestellt werden können. Zur Veranschaulichung: Jede Komponente der Verarbeitungseinheit 17700 und die Komponenten der Weiterverarbeitungseinheit 17730 können isoliert oder aus der jeweiligen Anordnung extrahiert und als eigenständige Komponente oder in Kombination mit anderen Komponenten bereitgestellt werden.
  • Die Ereigniskennung kann auf einem empfangenen LIDAR-Signal erfolgen, z.B. auf einem seriellen Signal 17704 (z.B. einem Zeitreihensignal S(t)), das in dem Diagramm 17702 in 177A und 177C dargestellt ist. Das Diagramm 17702 kann eine erste Achse 17702s aufweisen, die mit einem Signalwert verknüpft ist, und eine zweite Achse 17702t, die mit der Zeit verknüpft ist. Das empfangene LIDAR-Signal, z.B. das serielle Signal 17704, kann ein oder mehrere Ereignisse aufweisen, z.B. ein erstes Ereignis 177041 und ein zweites Ereignis 177042 (z.B. ein erster Peak und ein zweiter Peak, z.B. eine erste Peak-Struktur und eine zweite Peak-Struktur).
  • Die zeitlichen Ankunftszeiten der zu einem Ereignis gehörenden LIDAR-Signalanteile (auch als Ereigniserfassungszeiten bezeichnet), können während der Laufzeit bestimmt werden. Die Ereignisdetektionszeiten können auf unterschiedliche Weise bestimmt werden.
  • Als Beispiel, wie in 177A dargestellt, können unter Berücksichtigung eines Blocks von Signalabtastwerten als Eingangssignal (z.B. durch einen Schiebefenstermechanismus oder durch Serien-Parallel-Umwandlung unter Verwendung eines Schieberegisters) Peaks (z.B. Peakstrukturen) oder lokale Maxima im Signal identifiziert werden, um die Ereignisdetektionszeit zu bestimmen.
  • Die Verarbeitungseinheit 17700 kann eine seriell-parallele Umwandlungsstufe 17706 aufweisen. Das serielle Signal 17704, z.B. Signalabtastwerte des seriellen Signals 17704, die von einem Analog-Digital-Wandler (z.B. vom Analog-Digital-Wandler 17604) ankommen, kann gepuffert und von einem Puffer 17708 (z.B. einem Signalabtastwertpuffer, z.B. einem Schieberegister, auch als Wellenformpuffer bezeichnet) seriell-parallel gewandelt werden. Zur Veranschaulichung: Die sequentiellen Signalabtastwerte (z.B. die seriell eintreffenden Signalabtastwerte), z.B. die Zeitreihe, können im Puffer 17708 gesammelt werden (z.B. kann der Puffer 17708 ein Abtastvektor sein). Beispielsweise können die Signalabtastwerte seriell von einem LIDAR-Sensor, z.B. dem Sensor 52, oder von einem Analog-Digital-Wandler, z.B. vom Analog-Digital-Wandler 17604, eintreffen.
  • Der Puffer 17708 kann eine vordefinierte Länge haben, z.B. eine Länge N_S (z.B. eine Länge entsprechend 2 µs). Zur Veranschaulichung: Der Puffer 17708 kann so konfiguriert werden, dass er eine maximale Anzahl von Signalabtastwerten empfängt (und speichert), die der Länge, z.B. N_S, des Puffers 17708 entspricht.
  • Nach einem internen Triggersignal 17710 und optionaler weiterer Vorverarbeitung können die Signalabtastwerte an eine Ereigniszeit-Erkennungsstufe 17712 der Verarbeitungseinheit 17700 übergeben werden. Das Signal kann optional vorverarbeitet werden oder eine Signalkonditionierungsphase durchlaufen, bevor es an die Ereigniszeit-Erfassungsstufe 17712 übergeben wird. Das Signal kann z.B. niedrig, hoch oder bandpaßgefiltert sein, z.B. geglättet, es kann eine Mittelung über die Zeit vorgenommen werden, z.B. wenn das Signal periodisch ist, oder die Abtastwerte können neu quantisiert oder neu skaliert werden. Es kann möglich sein, den Signalvorverarbeitungs- und -konditionierungsprozess (z.B. zur Konfiguration einer Signalvorverarbeitungs- und -konditionierungsstufe) von außen zu konfigurieren, z.B. durch ein externes Gerät des LIDAR-Systems (z.B. durch eine Sensor-Fusionsbox). Der Signalvorverarbeitungs- und -konditionierungsprozess kann während der Laufzeit konfiguriert werden, z.B. unter Verwendung von Zwischenergebnissen nachfolgender Stufen oder von Ergebnissen aus einer Sensor-Fusionsbox. Das resultierende Signal kann in die folgenden (z.B. nachgeschalteten) Stufen eingegeben werden. Das Triggersignal 17710 kann erzeugt werden, wenn der Puffer 17708 voll ist. Im Anschluss an das Triggersignal 17710 können die im Puffer 17708 gespeicherten Signalabtastwerte als Signalabtastwertblock der Länge N_S übertragen (z.B. geladen, z.B. über ein Ladegatter 17706g) werden.
  • Die Ereignisse (z.B. Peaks, z.B. Peakstrukturen oder Echos im Signal) können im Signalabtastblock detektiert (z.B. identifiziert) werden (z.B. Ereignisblöcke oder Zeitreihen können im Signalabtastblock identifiziert werden). Die zeitliche Lage (z.B. die zeitliche Position, z.B. die Ereignisdetektionszeiten) der Ereignisse innerhalb der Sequenz t_1, t_2, ..., t_K kann auch in der Ereigniszeitdetektionsstufe 17712 bestimmt werden. Die Ereignisdetektionszeiten können z.B. durch einen Zeitversatz t_k gegenüber einer Referenzprobe ausgedrückt werden. Angenommen, nur als Beispiel, dass K Ereignisse detektiert werden, kann die Ereignisdetektionsstufe die Ereignisdetektionszeiten t_1, t_2, ..., t_K liefern (z.B. t_1 für das erste Ereignis 177041, t_2 für das zweite Ereignis 177042 und t_K für ein K-tes Ereignis).
  • Die Ereigniserfassung kann schwellenwertgesteuert werden. Illustrativ kann ein Ereignis erkannt oder bestimmt werden, wenn ein Signalabtastwert der Sequenz einen Wert über einem Schwellenwert hat (z.B. wenn ein oder mehrere Signalabtastwerte einen Wert über dem Schwellenwert haben). Der Schwellenwert kann, wie oben erwähnt, in Übereinstimmung mit einem oder mehreren Parametern und Einschränkungen eingestellt oder konfiguriert werden. Zur Veranschaulichung: Die Einstellung des Schwellenwertes (z.B. eine softwarebasierte Einstellung) kann einen Signalpegel definieren, der von dem Signal (z.B. von dem Signalabtastwert) überschritten werden muss, um als Ereignis erkannt zu werden. Die Ereigniserkennungsstufe 17712 kann von aussen konfiguriert werden, z.B. durch ein zu dem LIDAR-System externes Gerät, z.B. durch eine Sensor-Fusionsbox. Zusätzlich oder alternativ können Einschränkungen (z.B. von außen) vorgesehen werden, die z.B. die maximale Anzahl von Ereignissen begrenzen, die vom System erkannt werden können (z.B. in Bezug auf Bandbreitenbeschränkungen).
  • Beispielsweise können der Schwellenwert und/oder die Konfigurationsparameter an die Anforderungen der aktuellen Fahr- und Verkehrssituation eingestellt und angepasst werden. Als weiteres Beispiel können der Schwellenwert und/oder die Konfigurationsparameter unter Berücksichtigung der Umgebungsbedingungen, wie z.B. der aktuellen Wetterbedingungen, angepasst werden. Als weiteres Beispiel können der Schwellenwert und/oder die Konfigurationsparameter angepasst werden, um ein komponentenspezifisches Verhalten in verschiedenen Umgebungsbedingungen zu berücksichtigen.
  • Die detektierten Ereignisse (z. B. die zugehörigen Signalanteile) und die zugehörigen Ereignisdetektionszeiten können einer nachfolgenden Stufe, z. B. einer Signalmerkmalsextraktionsstufe 17714 der Verarbeitungseinheit 17700, zur Verfügung gestellt werden, deren Funktionsweise im Folgenden näher beschrieben wird.
  • Ein weiteres Beispiel für den Prozess der Ereignisidentifikation und Zeitassoziation ist in 177C dargestellt. Betrachtet man ein Analogsignal oder ein Signal seriell ankommender zeitdiskreter Abtastwerte (zur Veranschaulichung eine Zeitreihe), z.B. das Signal 17704, so können die Ereigniserkennungszeiten durch eine Ereigniserkennungs-Triggerstufe 17732 (z.B. mit einem Vorderflanken-(LeadingEdge)-Trigger oder einem Konstantbruch-Diskriminator) auf Einzelabtastwertbasis bestimmt werden. Die in 177C gezeigte Beispielimplementierung kann hardwarebasierte Ereignisauslöser verwenden, um Ereignisse im Signal 17704 zu identifizieren, wie in Bezug auf 11 bis 25B beschrieben. Ein Analog-Digital-Umsetzer (z.B. der Analog-Digital-Umsetzer 17604) kann entsprechend der Ankunft eines Ereignisses ein und ausgeschaltet werden (z.B. „ein“ bei Ankunft eines Ereignisses und „aus“ bei Beendigung des Ereignisses).
  • In dieser Konfiguration kann ein Puffer 17734 (z.B. ein Signalabtastpuffer) kontinuierlich Signalabtastwerte empfangen. Der Puffer 17734 kann bei der Erzeugung eines Triggersignals 17736 ausgelesen werden. Illustrativ kann der Puffer 17734 als FIFO-Speicher konfiguriert werden (z.B. nach einer First-in-first-out-Architektur), und der Inhalt des Puffers 17734 kann in Übereinstimmung mit dem Triggersignal 17736 auf die nachfolgende Stufe übertragen werden (z.B. geladen, z.B. über ein Ladegatter 17742). Weiter veranschaulichend kann das Lesen des Inhalts des Puffers 17734 durch das Triggersignal 17736 initiiert werden (z.B. in Echtzeit, z.B. während des Empfangs des Ereignisses). Ein Ereignissignalvektor U_k (z.B. ein Vektor, der Signalabtastwerte enthält, die mit einer Ereigniszeitreihe verbunden sind, z.B. mit einem Ereignis) kann in Echtzeit beim Auftreten des Triggersignals zur sofortigen Signalkompression gespeichert werden. Ein Ereignis-Signalvektor kann auch als Signal-Ereignis-Vektor oder extrahierter Ereignis-Signalvektor bezeichnet werden.
  • Der Puffer 17734 kann kleiner als der Puffer 17708 der in 177A beschriebenen Verarbeitungseinheit 17700 sein (z.B. kann der Puffer 17734 eine Länge N_U haben, die kleiner als die Länge N_S des in 177A beschriebenen Puffers 17708 ist). Der hardwarebasierte Trigger kann eine Reduzierung oder Minimierung des für die Wellenformspeicherung bereitgestellten Speichers ermöglichen. Zur Veranschaulichung: Die Länge N_U des Puffers 17734 kann einer erwarteten Länge des Signalereignisvektors U_k entsprechen.
  • Der Signalereignisvektor, U_k, und die zugehörige Ereigniserfassungszeit, t_k, können einer nachfolgenden Stufe zur Verfügung gestellt werden, z.B. einer Signalmerkmal-Extraktionsstufe 17738 der weiterverarbeitenden Entität 17730, deren Funktionsweise weiter unten näher beschrieben wird.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 17602 so konfiguriert werden, dass sie eine Ereigniszeitreihe eines empfangenen LIDAR-Signals komprimieren, indem sie die mindestens eine Ereigniszeitreihe des empfangenen LIDAR-Signals mit einem oder mehreren Referenz-LIDAR-Signalen vergleichen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 17602 können so konfiguriert werden, dass sie mindestens eine Ereigniszeitreihe (z.B. einige Ereigniszeitreihen, z.B. jede Ereigniszeitreihe) mit einem oder mehreren Referenz-LIDAR-Signalen (z.B. mit jedem Referenz-LIDAR-Signal) vergleichen, um eine komprimierte Darstellung der Ereigniszeitreihe zu erhalten.
  • Ein Referenz-LIDAR-Signal kann als ein LIDAR-Signal mit bekannten Eigenschaften, z.B. vorgegebenen Eigenschaften, beschrieben werden. Ein Referenz-LIDAR-Signal kann eine Darstellung eines LIDAR-Signals mit bekannten Eigenschaften sein. Ein Referenz-LIDAR-Signal kann in verschiedenen Formen dargestellt oder gespeichert werden, wie weiter unten näher beschrieben wird. Beispielsweise kann ein Referenz-LIDAR-Signal als Zeitreihe gespeichert oder dargestellt werden (z.B. als normierte Zeitreihe oder als basistransformierte Zeitreihe). Als weiteres Beispiel kann ein Referenz-LIDAR-Signal als ein Signal im Frequenzbereich gespeichert oder dargestellt werden, z.B. als frequenzbereichstransformiertes Referenzsignal. Wie in 178A bis 178F dargestellt, kann ein LIDAR-Referenzsignal z.B. als Tabelle von Vektoren gespeichert werden (z.B. kann jedes Referenzsignal als Vektor gespeichert werden, z.B. als Lernvektor, L_0, L_1, ..., L_{M-1}), z.B. eine Tabelle mit Signalwerten, die mit einem entsprechenden Zeitpunkt verbunden sind. Als weiteres Beispiel, wie in 180A bis 180G dargestellt, kann ein Referenz-LIDAR-Signal als transformierter Lernvektor (z.B. P_0, P_1, ..., P_{M-1}) gespeichert werden, z.B. zur Verwendung in Kombination mit einem maschinellen Lernansatz.
  • In verschiedenen Ausführungsformen kann das LIDAR-System 17600 einen Speicher aufweisen (nicht abgebildet). Der Speicher kann Informationen zur Merkmalsextraktion speichern. Zur Veranschaulichung: Der Speicher kann eine Tabelle mit Informationen zur Merkmalsextraktion speichern. Weiterhin kann der Speicher ein oder mehrere Referenz-LIDAR-Signale speichern, z.B. eine Darstellung eines oder mehrerer Referenz-LIDAR-Signale (z.B. eine Tabelle mit Lernvektoren oder transformierten Lernvektoren).
  • Die Referenz-LIDAR-Signale können vordefiniert sein (z.B. statisch). Zusätzlich oder alternativ können die Referenz-LIDAR-Signale dynamisch konfiguriert oder aktualisiert werden, z.B. von innen (z.B. ausgelöst durch eine im Hintergrund durchgeführte Trainingsprozedur) oder von aussen (z.B. ausgelöst durch die Sensor-Fusionsbox). Zur Veranschaulichung: Die Lernvektoren oder transformierten Lernvektoren können statisch oder dynamisch konfiguriert oder aktualisiert werden.
  • Das eine oder mehrere LIDAR-Referenzsignale können mit entsprechenden LIDAR-System internen oder LIDAR-System externen Bedingungen verknüpft werden, z.B. mit einer entsprechenden Szene oder Situation (z.B. einer entsprechenden Verkehrs- oder Fahrsituation, z.B. einer entsprechenden Wetterlage). Illustrativ können ein oder mehrere LIDAR-Referenzsignale entsprechend einer jeweiligen Szene oder Situation kategorisiert (z.B. gruppiert oder beschriftet) werden. Zur weiteren Veranschaulichung kann ein Referenz-LIDAR-Signal einer oder mehreren Kategorien (z.B. einer oder mehreren Gruppen oder Bezeichnungen) zugeordnet werden, die eine oder mehrere LIDAR-System interne oder LIDAR-System externe Bedingungen beschreiben. Als Beispiel kann eine Vielzahl (z.B. ein Satz) von Referenztabellen zur Verfügung gestellt werden. Die zu verwendenden LIDAR-Referenzsignale (z.B. die Referenztabelle oder eine Teilmenge der zu verwendenden Referenztabelle) können unter Berücksichtigung des tatsächlichen Zustands des Systems (z.B. des LIDAR-Systems 17600) ausgewählt werden, z.B. unter Berücksichtigung der aktuellen Fahrsituation.
  • Die Auswahl der Referenz-LIDAR-Signale kann z.B. die Adressierung von Ereignissen (z.B. Objekten) mit einer spezifischen Signatur versehen, die für eine bestimmte Fahrsituation typisch sein kann (z.B. Fahren auf einer Autobahn, Fahren in der Stadt, Fahren auf einem Parkplatz). Die Auswahl der Referenz-LIDAR-Signale kann als weiteres Beispiel die Berücksichtigung von Umweltbedingungen mit spezifischen Signaturen, z.B. einer aktuellen Wetterlage (Regen, Nebel, Schnee und dergleichen), ermöglichen. Die Auswahl der Referenz-LIDAR-Signale kann, als weiteres Beispiel, die Berücksichtigung komponentenspezifischer Eigenschaften ermöglichen, die von den Umgebungsbedingungen abhängig sein können (z.B. ein Detektor mit unterschiedlichen Eigenschaften bei Tag oder Nacht).
  • In verschiedenen Ausführungsformen kann die Anzahl der (z.B. gespeicherten) Referenz-LIDAR-Signale in Abhängigkeit von einem oder mehreren Faktoren bestimmt (z.B. ausgewählt) werden. Zur Veranschaulichung kann die Anzahl der Referenz-LIDAR-Signale, z.B. eine Anzahl M von Tabelleneinträgen (z.B. eine Anzahl M von Lernvektoren oder transformierten Lernvektoren) ausgewählt werden, um eine genaue Darstellung eines identifizierten Ereignisses zu liefern (z.B. eine Darstellung mit einem Genauigkeitsgrad oberhalb eines Schwellenwertes, zur Veranschaulichung eine Darstellung mit ausreichender Wiedergabetreue). Die Anzahl der LIDAR-Referenzsignale kann auch so gewählt werden, dass die Auswirkungen auf den Speicherbedarf und die Berechnungsressourcen während der Laufzeit reduziert werden.
  • Die Anzahl der LIDAR-Referenzsignale kann z.B. auf die Länge N_U eines extrahierten Ereignis-Signalvektors U_k bezogen werden. Nur als Beispiel kann die Anzahl der Referenz-LIDAR-Signale (z.B. die Anzahl M) etwa 0,5*N_U betragen. Die Anzahl der Referenz-LIDAR-Signale kann z.B. im Bereich von etwa 0,1*N_U bis etwa 0,5*N_U (z.B. 0,1*N_U <= M <= 0,5*N_U) oder im Bereich von etwa 0,1*N_U bis etwa 2*N_U (z.B. 0,1*N_U bis etwa 2*N_U) liegen, 0.1*N_U <= M <= 2*N_U, z.B. in einer erweiterten Konfiguration), z.B. im Falle einer tabellenbasierten Merkmalsextraktion unter Verwendung eines Distanzspektrums oder im Falle einer maschinellen lernbasierten Merkmalsextraktion. Als weiteres Beispiel kann die Anzahl der Referenz-LIDAR-Signale im Bereich von etwa 1 bis etwa 0,5*N_U (z.B. 1<=M<=0,5*N_U) oder im Bereich von etwa 1 bis etwa 2*N_U (z.B, 1<=M<=2*N_U, z.B. in einer erweiterten Konfiguration), z.B. im Falle einer einfachen tabellenbasierten Merkmalsextraktion (in dieser Konfiguration ist es z.B. möglich, ein einzelnes Referenz-LIDAR-Signal zu verwenden, z.B. einen Gaußschen Impuls).
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 17602 so konfiguriert werden, dass mindestens eine Ereigniszeitreihe eines empfangenen LIDAR-Signals zu einem komprimierten LIDAR-Signal-Featureset komprimiert wird. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 17602 können so konfiguriert werden, dass sie eine komprimierte Darstellung von mindestens einer Ereigniszeitreihe (z.B. von einigen Ereigniszeitreihen, z.B. von jeder Ereigniszeitreihe) liefern, indem sie diese mit einem komprimierten LIDAR-Signalmerkmalssatz (z.B. ein oder mehrere Merkmale, z.B. beschreibend für die Ereigniszeitreihe) verknüpfen.
  • Der eine oder die mehreren Prozessoren 17702 können so konfiguriert werden, dass sie mindestens eine Ereigniszeitreihe aus der Zeitreihe des empfangenen LIDAR-Signals extrahieren. Auf der Grundlage der identifizierten Ereignisse können die entsprechenden Anteile im LIDAR-Signal aus der Zeitreihe des LIDAR-Signals extrahiert werden. Die extrahierten Ereigniszeitreihen (z.B. die extrahierten Ereignisse, illustrativ die extrahierten Ereignissignalvektoren) können durch einen Satz von Merkmalen dargestellt werden (z.B. durch einen komprimierten LIDAR-Signalmerkmalssatz).
  • Das a priori Wissen über strukturelle Eigenschaften eines typischen LIDAR-Signals (z.B. eines Referenz-LIDAR-Signals) kann dazu verwendet werden, die Struktur (z.B. die interne Struktur, z.B. die strukturellen Eigenschaften) der identifizierten Abschnitte zu analysieren und durch einen reduzierten Satz adäquater Merkmale zu beschreiben.
  • Der Funktionsumfang des komprimierten LIDAR-Signals und die Ankunftszeit, die mit einer Ereigniszeitreihe verbunden ist, kann eine kompaktere Darstellung im Vergleich zum LIDAR-Signal liefern (z.B. im Vergleich zur Ereigniszeitreihe). Dies kann zu einer Datenkompression führen, z.B. zu einer Reduzierung der Datenmenge. Illustrativ können die zeitliche Lage und die Merkmale des identifizierten Signalabschnitts (z.B. jedes identifizierten Signalabschnitts) innerhalb der Signalsequenz in einer kompakteren Form als die gesamte Sequenz dargestellt werden. In einem beispielhaften Szenario und wie weiter unten im Detail beschrieben, kann ein identifizierter Signalabschnitt, der durch den jeweiligen Satz von Merkmalen repräsentiert wird, und der zugehörige zeitliche Ort (z.B. die zugehörige Ankunftszeit) vom LIDAR-Frontend zum Backend für die nachfolgende Signalverarbeitung und Datenanalyse übertragen werden (z.B. können die extrahierten Merkmalswerte und das entsprechende Signalzeitkennzeichen vom Frontend zum Backend übertragen werden). Datenkompression kann wichtig sein, um die zu übertragende Datenmenge zu reduzieren, um die Systemanforderungen zu lockern und einen schnelleren und effizienteren Informationsaustausch zu ermöglichen (z.B. ohne Engpässe oder Latenzprobleme). Dies kann für teilweise oder vollautomatisch fahrende Fahrzeuge wichtig sein. Als Beispiel können Kommunikationsverfahren verwendet werden, die auf einer Hochgeschwindigkeits-Ethernet-Verbindung basieren.
  • Wie in der beispielhaften Anordnung von 177A dargestellt, kann eine mögliche Implementierung der Zuordnung des jeweiligen komprimierten LIDAR-Signalmerkmalsatzes zu einer Ereigniszeitreihe im Anschluss an die Ereigniszeiterfassung, z.B. in einer Signalmerkmalsextraktionsstufe 17714, erfolgen. Illustrativ können nach der Ereigniszeitdetektion Signalanteile (z.B. Ereignissignalvektoren) einer definierten Länge um die Ereignisdetektionszeiten (z.B. t_1, t_2, ..., t_K) extrahiert werden (z.B. in einer Ereignissignalvektorextraktionsstufe 177141).
  • Die Sequenz der Signalabtastwerte 17704 (illustrativ, gespeichert im Puffer 17708) kann zusammen mit den Ereignisdetektionszeiten (t_1, t_2,..., t_K) als Eingang für die Ereignissignalvektorextraktion bereitgestellt werden. In der Stufe 117141 der Ereignissignalvektorextraktion können die Teilsignale identifiziert werden, die einem Ereignis zu einem entsprechenden Zeitpunkt (t_k, k=1, 2,...,K) entsprechen. Die entsprechenden Abtastwerte können in einen Vektor, z.B. einen Ereignis-Signalvektor (U_k, k=1, 2,...,K), z.B. einen Vektor mit den Signalabtastwerten, die das Ereignis (z.B. den Puls) am jeweiligen zeitlichen Ort (z.B. an der Position t_k) beschreiben, kopiert werden. Ein Ereignis-Signalvektor kann eine Länge N_U haben, die kleiner ist als eine Länge des Puffers 17708, N_S. Dies ist als Beispiel in 177B dargestellt, in dem die Teile des Puffers 17708 um die Ankunftszeit (t_1 und t_2) eines jeweiligen Ereignisses (z.B. des ersten Ereignisses 177041 oder des zweiten Ereignisses 17704_2) aus dem Puffer 17708 extrahiert werden können. Dies kann einen ersten Ereignissignalvektor 177081 (U_1, verbunden mit dem ersten Ereignis 177041) und einen zweiten Ereignissignalvektor 177082 (U_2, verbunden mit dem zweiten Ereignis 177042) liefern. Die Länge des extrahierten Teils, z.B. die Länge (z.B. N_U) eines Ereignissignalvektors kann vordefiniert sein (z.B. kann ein Ereignissignalvektor mit einer vordefinierten Zeitdauer verbunden sein, z.B. in Übereinstimmung mit einer Dauer eines typischen LIDAR-Ereignisses, z.B. im Bereich von etwa 10 ns bis etwa 20 ns). Alternativ kann die Länge des extrahierten Anteils einstellbar sein, z.B. dynamisch angepasst (z.B. in der Laufzeit, z.B. durch eine softwarebasierte Anpassung), wie oben beschrieben.
  • Die extrahierten Anteile können durch einen entsprechenden Merkmalssatz (z.B. f_1, f_2,..., f_K) dargestellt werden, z.B. in einer Merkmalsextraktionsstufe 177142 (zur Veranschaulichung: die extrahierten Signalvektoren können der Merkmalsextraktionsstufe 177142 zur Verfügung gestellt werden). Die einem Ereignis zugeordneten Merkmale (z.B. einer Ereigniszeitreihe, z.B. einem extrahierten Ereignissignalvektor) können unter Verwendung eines zuvor bekannten Satzes von Referenzsignalen abgeleitet werden (z.B. Lernvektoren, wie in 178A bis 178F dargestellt, oder transformierte Lernvektoren, wie in 180A bis 180G dargestellt und wie weiter unten im Detail besprochen). Illustrativ kann die Merkmalsextraktionsstufe 177142, abhängig von der angenommenen Merkmalsextraktionsstrategie, Zugriff auf eine Anzahl von Referenzsignalen haben, die z.B. als Tabelle der Lernvektoren L_0, L_1, ..., L_{M-1} oder als Tabelle der transformierten Lernvektoren P_0, P_1, ..., P_{M-1} gespeichert sind, wobei M die Anzahl der Tabelleneinträge bezeichnet, z.B. kann M die Tabellenlänge darstellen.
  • Basierend auf den Eingaben kann die Merkmalsextraktionsstufe 177042 für mindestens einige Ereignisse (z.B. für jedes Ereignis) einen entsprechenden Merkmalssatz bestimmen (z.B. einen Merkmalssatz f_1 für ein erstes Ereignis 177041 zur Zeit t_1, einen zweiten Merkmalssatz f_2 für ein zweites Ereignis 177042 zur Zeit t_2,..., einen Merkmalssatz f_K für ein K-tes Ereignis zur Zeit t_K). Zur Veranschaulichung kann als Beispiel die Tabelle der Referenzsignale (z.B. Lernvektoren) L_0, L_1, ..., L_{M-1} oder transformierte Lernvektoren P_0, P_1, ..., P_{M-1} verwendet werden, um einen Ereignissignalvektor U_k durch einen entsprechenden Merkmalssatz f_k darzustellen. Die Merkmalsextraktion kann die Darstellung des Signals 17704, z.B. der Signalabtastwerte, der Länge N_S mit einer Liste von Ereigniserkennungszeiten und Merkmalssätzen (( (t_1, f_1), (t_2, f_2), ..., (t_k, f_K)) liefern, z.B. eine Liste, die die Signalfolge 17704 in komprimierter Form darstellen kann. Zur Veranschaulichung: Eine Ausgabe 17716 der Verarbeitungseinheit 17700 kann eine Liste von Ereigniserkennungszeiten und Merkmalssätzen sein, die einander zugeordnet sind (z. B. Erkennungszeiten, die von der Ereigniszeiterkennungsstufe 17712 ausgegeben werden, und Merkmalssätze, die von der Signalmerkmalsextraktionsstufe 17714 ausgegeben werden).
  • Die Signalmerkmal-Extraktionsstufe 17738 der in 177C dargestellten Weiterverarbeitungseinheit 17730 kann ähnlich wie die in 177A dargestellte Signalmerkmal-Extraktionsstufe 17714 der in 17700 dargestellten Verarbeitungseinheit 17700 arbeiten, mit dem Unterschied, dass jeweils ein Ereignis verarbeitet werden kann (z. B. auf der Grundlage einer Tabelle mit Lernvektoren L_0, L_1, ..., L_{M-1} oder einer Tabelle mit transformierten Lernvektoren P_0, P_1, ..., P_{M-1}). Zur Veranschaulichung: Die in der Weiterverarbeitungseinheit 17730 implementierte triggerbasierte Ereignisdetektion kann eine Ausgabe 17740 mit einer komprimierten Darstellung eines Ereignisses, z. B. einer Ereigniszeitreihe, liefern, die z. B. eine Detektionszeit t_k und einen Merkmalssatz f_k enthält, die einander zugeordnet sind (z. B. eine Detektionszeitausgabe von der Ereignisdetektionstriggerstufe 17732 und eine Merkmalssatzausgabe von der Signalmerkmalsextraktionsstufe 17738). Eine Liste kann durch Kombination mehrerer Ausgänge 17740 erstellt werden.
  • Der Output des einen oder mehrerer Verarbeiter 17702 (z.B. der Output 17716 der Verarbeitungseinheit 17700, z.B. der Output 17740 der Weiterverarbeitungseinheit 17730) kann für die weitere Verarbeitung (z.B. im Backend) bereitgestellt werden, wie im Folgenden näher beschrieben. Die Ausgabe der einen oder mehreren Verarbeitungseinheit(en) 17702 kann optional einen Skalierungsfaktor (z.B. einen Normalisierungsfaktor) aufweisen, der mit einem Ereignis verbunden ist, z.B. mit jedem Ereignis, wie weiter unten im Detail beschrieben. Zur Veranschaulichung kann das einem Ereignis zugeordnete Signal zum Vergleich des Signals mit einem oder mehreren LIDAR-Referenzsignalen normiert werden.
  • In verschiedenen Ausführungsformen kann das LIDAR-System 17600 einen Sender aufweisen (nicht abgebildet). Der Sender kann so konfiguriert werden, dass er die Ausgabe des Kompressionsverfahrens überträgt. Zur Veranschaulichung kann der Sender so konfiguriert werden, dass er die ermittelte zeitliche Ankunftszeit zusammen mit dem komprimierten LIDAR-Signalmerkmalssatz, der mit der identifizierten Ereigniszeitreihe verknüpft ist (z.B. mit mindestens einigen identifizierten Ereigniszeitreihen, z.B. mit jeder identifizierten Ereigniszeitreihe), an einen weiteren Prozessor zur weiteren Signalverarbeitung und/oder Datenanalyse überträgt.
  • In verschiedenen Ausführungsformen kann der weitere Prozessor mit einer Sensorfusionsbox (z.B. des Fahrzeugs) verbunden sein. Illustrativ kann der weitere Prozessor mit einem LIDAR-System externen Gerät oder System, z.B. einem Verarbeitungssystem des Fahrzeugs einschließlich des LIDAR-Systems 17600, verbunden oder in dieses integriert sein.
  • In verschiedenen Ausführungsformen kann der weitere Prozessor so konfiguriert werden, dass er einen Signalrekonstruktionsprozess durchführt. Zur Veranschaulichung: Der weitere Prozessor kann so konfiguriert werden, dass er das (z.B. empfangene) LIDAR-Signal auf der Grundlage des zugehörigen komprimierten LIDAR-Signal-Merkmalssatzes (und der zugehörigen zeitlichen Ankunftszeit) rekonstruiert.
  • Als Beispiel kann der Signalrekonstruktionsprozess auf einer umgekehrten LIDAR-Signalkompression basieren. Der Signalrekonstruktionsprozess kann von der verwendeten Methode zur Merkmalsextraktion abhängen, wie weiter unten näher beschrieben wird. Beispielhafte Signalrekonstruktionsprozesse (z.B. in Verbindung mit einer entsprechenden Merkmalsextraktionsmethode) werden im Folgenden in Bezug auf 179A bis 179D und 181A bis 181D beschrieben. Der weitere Prozessor kann Zugriff auf die (z.B. verwendeten) Referenz-LIDAR-Signale haben (z.B. auf die Tabelle der Lernvektoren oder transformierten Lernvektoren).
  • Als Beispiel kann der Prozess der Signalrekonstruktion wie folgt beschrieben werden. Die Ausgabe der Signalkompressionsstufe kann eine Liste in der Form (t_1, f_1), (t_2, f_2), ..., (t_K, f_K) sein, z.B. eine Liste von Ankunftszeiten und entsprechenden Merkmalssätzen. Die Liste kann dem Backend zur weiteren Signalverarbeitung und Datenanalyse zur Verfügung gestellt werden. Im Backend kann es möglich sein, den Kompressionsprozess umzukehren und eine rekonstruierte Version S_rec(t) des ursprünglichen Signals S(t) zu bilden, z.B. des Signals 17704. Die Rekonstruktion kann illustrativ als Durchführung des Kompressionsschemas in umgekehrter Reihenfolge beschrieben werden. Die Rekonstruktion kann mit einer All-Null-Abtastfolge S_rec(t) beginnen. Dann kann das folgende Verfahren für einen extrahierten Ereignissignalvektor U_k vorgesehen werden (z.B. für einige oder jeden extrahierten Ereignissignalvektor, z.B. k=1, 2, ...,K):
    • eine rekonstruierte Version, U_{rec,k}, des Ereignissignalvektors U_k kann für den gegebenen Merkmalssatz f_k bestimmt werden (z.B. kann ein rekonstruierter Signalvektor, U_{rec,k}, bestimmt werden);
    • die Einträge des rekonstruierten Vektors U_{rec,k} können in die Folge der rekonstruierten Signalabtastwerte S_rec(t) entsprechend der zugehörigen zeitlichen Ereignisposition t_k kopiert oder hinzugefügt werden (zur Veranschaulichung: die Operation kann in umgekehrter Reihenfolge durchgeführt werden).
  • Nach der Fertigstellung kann die Sequenz der rekonstruierten Signalabtastwerte S_rec(t) eine Anzahl (z.B. insgesamt K) von rekonstruierten Impulsvektoren aufweisen (z.B. einen für jedes rekonstruierte Ereignis, z.B. einen für jedes identifizierte Ereignis im ursprünglichen Signal, z.B. im Signal 17704).
  • Der einer Ereigniszeitreihe zugeordnete Merkmalssatz, z. B. die im Merkmalssatz enthaltenen Merkmale, kann verschiedene Arten von Informationen beschreiben, z. B. in Übereinstimmung mit der verwendeten Methode zur Merkmalsextraktion, wie weiter unten näher beschrieben. Illustrativ können verschiedene Arten von Referenz-LIDAR-Signalen bereitgestellt werden, z.B. in Übereinstimmung mit der verwendeten Merkmalsextraktionsmethode. Ein Beispiel für eine Merkmalsextraktionsmethode, z.B. ein tabellenbasiertes Merkmalsextraktionsverfahren, wird in Bezug auf 178A bis 179D beschrieben. Ein weiteres Beispiel für ein Verfahren zur Merkmalsextraktion, z.B. basierend auf einem maschinellen Lernansatz, wird in Bezug auf 180A bis 181C beschrieben. Als Beispiel kann der komprimierte LIDAR-Signal-Merkmalssatz einen Index und einen Skalierungsfaktor aufweisen, die mit jedem Merkmal des einen oder mehrerer Merkmale verbunden sind. Als weiteres Beispiel kann der Merkmalssatz des komprimierten LIDAR-Signals eine Vielzahl von Index-Skalierungsfaktorpaaren aufweisen. Als weiteres Beispiel kann der komprimierte LIDAR-Signal-Merkmalssatz einen Vektor aufweisen, der eine geordnete Folge von Ähnlichkeitsbewertungswerten enthält. Beispielhafte Konfigurationen oder Inhalte für den komprimierten LIDAR-Signal-Merkmalssatz werden weiter unten näher beschrieben.
  • In verschiedenen Ausführungsformen kann ein komprimierter LIDAR-Signal-Merkmalssatz ein oder mehrere Merkmale aufweisen, die die Form mindestens eines Teils der mindestens einen Ereigniszeitreihe beschreiben, die auf dem einen oder mehreren LIDAR-Referenzsignalen basiert. Veranschaulichend kann das eine oder die mehreren Merkmale die Form des mindestens einen Ereignisses (z.B. von mindestens einem Teil des mindestens einen Ereignisses) in Bezug auf die jeweilige Form des einen oder der mehreren Referenz-LIDAR-Signale beschreiben (z.B. in Form eines Unterschieds zwischen der Form des Ereignisses und der jeweiligen Form eines oder mehrerer der Referenz-LIDAR-Signale).
  • In verschiedenen Ausführungsformen kann der komprimierte LIDAR-Signal-Merkmalssatz ein oder mehrere Merkmale aufweisen, die die Form mindestens eines Teils der mindestens einen Ereigniszeitreihe beschreiben, die auf einer Vielzahl von Referenz-LIDAR-Signalen basiert, die aus verschiedenen Arten von Szenen stammen. Illustrativ können, wie oben beschrieben, die Referenz-LIDAR-Signale, die für die Bereitstellung des komprimierten LIDAR-Signalmerkmalssatzes verwendet werden, der einer Ereigniszeitreihe zugeordnet ist, in Übereinstimmung mit einer tatsächlichen Situation des Systems (z.B. des LIDAR-Systems 17600) ausgewählt werden.
  • Jedes LIDAR-Referenzsignal aus der Vielzahl der LIDAR-Referenzsignale kann mit einem oder mehreren zu dem LIDAR-System externen Parametern (z.B. einschließlich einer Fahrsituation, einer Verkehrssituation oder einer Umgebungssituation) verknüpft werden. Zusätzlich oder alternativ kann jedes LIDAR-Referenzsignal der Mehrzahl von LIDAR-Referenzsignalen einem oder mehreren LIDAR-System internen Parametern zugeordnet werden (z.B. einer oder mehreren Komponenten des Systems, z.B. des LIDAR-Systems 17600).
  • Zur Veranschaulichung können die identifizierten Signalabschnitte durch einen Satz von Merkmalen dargestellt werden, die die Form des Signals in Form eines vordefinierten Satzes typischer Referenzsignale beschreiben. Der Satz von LIDAR-Referenzsignalen kann aus verschiedenen Arten von Szenen entnommen werden, die eine Vielzahl von Objekten und Objekt-Licht-Interaktionen abdecken, z.B. diffuse Reflexion, Reflexion an geneigten Oberflächen, Reflexion an Kanten und dergleichen. Die Merkmalsextraktion kann als eine Klassifizierung auf Signalebene beschrieben werden. Die Ergebnisse der Merkmalsextraktion können von den nachfolgenden Signalverarbeitungsstufen für ein tiefgreifendes Szenenverständnis auf tiefer Lernebene (z.B. Objekterkennung und -klassifizierung), wie oben beschrieben, verwendet werden.
  • Eine beispielhafte Methode zur Merkmalsextraktion kann eine erste tabellenbasierte Methode sein. Das Verfahren kann eine Tabelle mit Referenzsignalen (z.B. a priori bekannt) aufweisen. Die Referenzsignale können als Grundlage für die Darstellung eines empfangenen LIDAR-Signals (z.B. ein gemessenes oder erfasstes LIDAR-Signal) verwendet werden.
  • Eine beispielhafte Tabelle 17802 ist in 178A abgebildet. Eine Tabelle, z.B. die Tabelle 17802, kann eine Anzahl M von Einträgen aufweisen, z.B. eine Anzahl M von Referenzsignalen (nur als Beispiel, sechs Referenzsignale in der Tabelle 17802). Ein Referenzsignal kann durch einen entsprechenden Satz von Parametern beschrieben werden, z.B. durch einen Vektor. Im Folgenden kann die Menge der Elementarimpulse nur als Beispiel durch eine Menge von (z.B. Lern-)Vektoren L_0, L_1, ..., L_{M-1} dargestellt werden, z.B. sechs Vektoren (z.B. ein erster Lernvektor 178021, ein zweiter Lernvektor 178022, ein dritter Lernvektor 178023, ein vierter Lernvektor 178024, ein fünfter Lernvektor 178025, ein sechster Lernvektor 178026). Ein Lernvektor kann Signalwerte aufweisen (z.B. Vektorwerte oder Vektoreinträge, z.B. im Bereich von 0 bis 1000 in dem in 178A dargestellten Beispielfall). Jeder Signalwert kann mit einem entsprechenden Vektorindex 17802v assoziiert werden (z.B. 8, 9, ..., 22 im in 178A dargestellten Beispielfall), der einen Zeitwert oder einen Zeitpunkt illustrativ darstellt oder damit assoziiert ist.
  • Die in der Tabelle gespeicherten Referenz-LIDAR-Signale können normalisiert werden. Die Normierung kann z.B. mit der Signalamplitude zur Normierung durchgeführt werden, z.B. kann ein Referenzsignal eine normierte Amplitude haben. Als weiteres Beispiel kann die Normierung unter Verwendung der Fläche oder der Energie des Signals durchgeführt werden. Eine Normierungskonstante, z.B. I_norm, kann bereitgestellt werden. Die Tabelleneinträge können in Bezug auf eine solche Normierungskonstante normiert werden. Die Normierungskonstante kann auch verwendet werden, um das mit einem Ereignis (z.B. mit einer Ereigniszeitreihe) verbundene Signal zu normieren. Nur als numerisches Beispiel kann die Normierungskonstante I_norm 1000 sein.
  • Die Tabelleneinträge, z.B. die Vektoren, können eine entsprechende Länge haben. Als Beispiel können die Vektoren eine Länge N_U haben, die gleich der Länge eines extrahierten Ereignissignalvektors U_k ist, wie oben beschrieben. Nur als numerisches Beispiel können die Vektoren eine Länge von N_U = 30 Samples haben.
  • Eine visuelle Darstellung der Lernvektoren ist in 178B bis 178G aufweisen. Ein erstes Diagramm 178041 in 178B kann den ersten Lernvektor 178021 darstellen (z.B. kann das erste Diagramm 178041 eine erste Kurve 178061 aufweisen, die den ersten Lernvektor 178021 darstellt). Ein zweites Diagramm 178042 in 178C kann den zweiten Lernvektor 178022 darstellen (z.B. kann das zweite Diagramm 178042 eine zweite Kurve 178062 aufweisen, die den zweiten Lernvektor 178022 darstellt). Ein drittes Diagramm 178043 in 178D kann den dritten Lernvektor 178023 darstellen (z.B. kann das dritte Diagramm 178043 eine dritte Kurve 178063 aufweisen, die den dritten Lernvektor 178023 darstellt). Ein viertes Diagramm 178044 in 178E kann den vierten Lernvektor 178024 darstellen (z.B. kann das vierte Diagramm 178044 eine vierte Kurve 178064 aufweisen, die den vierten Lernvektor 178024 darstellt). Ein fünftes Diagramm 178045 in 178F kann den fünften Lernvektor 178025 darstellen (z.B. kann das fünfte Diagramm 178045 eine fünfte Kurve 178065 aufweisen, die den fünften Lernvektor 178025 darstellt). Ein sechster Graph 178046 in 178G kann den sechsten Lernvektor 178026 darstellen (z.B. kann der sechste Graph 178046 eine sechste Kurve 178066 aufweisen, die den sechsten Lernvektor 178026 darstellt). Jedes Diagramm kann eine erste Achse 17804s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 17804t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in beliebigen Einheiten).
  • Illustrativ kann jeder Lernvektor eine andere Situation oder ein anderes Szenario beschreiben. Als Beispiel kann der zweite Lernvektor 178022 eine kleine Spitze beschreiben, z.B. nach einer Reflexion. Als weiteres Beispiel kann der dritte Lernvektor 178023 zwei Peaks (z.B. zwei Impulse) zusammen beschreiben, z.B. entsprechend einer Reflexion aus einer Grenzregion.
  • Ein exemplarischer Ereignis-Signalvektor 17902, U_k, ist in 179A dargestellt. Der Ereignis-Signalvektor 17902 kann Signalwerte aufweisen (z.B. Vektorwerte oder Vektoreinträge, z.B. im Bereich von 0 bis 909 in dem in 179A beispielhaft dargestellten Fall). Jeder Signalwert kann einem entsprechenden Vektorindex 17902v zugeordnet werden (z.B. 8, 9, ..., 22 in dem in 179A dargestellten Beispielfall), der einen Zeitwert oder einen Zeitpunkt illustrativ darstellt oder mit einem Zeitwert oder einem Zeitpunkt verbunden ist. In dieser beispielhaften Darstellung kann der Ereignis-Signalvektor 17902 eine Länge N_U haben, die gleich der Länge der Lernvektoren der Tabelle 17802 ist, z.B. N_U = 30 Samples. Das Diagramm 17904 in 179A kann den Ereignissignalvektor 17902 darstellen (z.B. kann das Diagramm 17904 eine Kurve 17904v aufweisen, die den Ereignissignalvektor 17902 darstellt). Das Diagramm 17904 kann eine erste Achse 17904s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in willkürlichen Einheiten) assoziiert ist, und eine zweite Achse 17904t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in willkürlichen Einheiten).
  • Eine erste Möglichkeit für eine tabellenbasierte Merkmalsextraktion kann eine Suche (z.B. eine einfache Suche) durch die Tabelle der Referenzsignale, z.B. durch die Tabelle 17802, beinhalten.
  • Ausgehend von einem Ereignis-Signalvektor (z.B. vom Ereignis-Signalvektor 17902) kann das Verfahren beinhalten, die Tabelle zu durchlaufen und eine Abweichung zwischen dem Ereignis-Signalvektor und den Tabelleneinträgen, z.B. einen nach dem anderen (z.B. eine Abweichung zwischen dem Ereignis-Signalvektor 17902 und jedem in der Tabelle 17802 gespeicherten Lernvektor), zu bestimmen (z.B. zu quantifizieren oder zu bewerten).
  • Die Abweichung kann auf verschiedene Weise bestimmt (z.B. berechnet oder quantifiziert) werden. Als Beispiel kann die Abweichung eines Ereignissignalvektors U_k von einem Referenzsignal, z.B. einem Lernvektor L_m, wie folgt aussehen,
    (20am)
    die Normierungskonstante I_norm kann die gleiche sein, die zur Normierung der Referenzsignale innerhalb der Tabelle verwendet wird, z.B. innerhalb der Tabelle 17702. Es kann ein Skalierungsfaktor u_{norm,k} angegeben werden, so dass der Ereignis-Signalvektor (z.B. der Vektor 17902) in Bezug auf die Normierungskonstante I_norm normiert werden kann.
  • Die Abweichungen des Ereignissignalvektors U_k zu den Tabelleneinträgen (L_0, L_1, ..., L_{M-1}) können im Abweichungsvektor var_k=(var_{k,0}, var_{k,1}, ..., var_{k,M-1})T gesammelt werden, wobei T die Transponierungsoperation anzeigen kann. Der Abweichungsvektor var_k kann eine Länge haben, die der Anzahl der Tabelleneinträge entspricht, z.B. Länge M.
  • Betrachtet man als Beispiel eine Normierung in Bezug auf die Signalamplitude und eine Normierungskonstante von I_norm = 1000, so kann der Skalierungsfaktor u_{norm,k}
    unter Berücksichtigung des in 179A beispielhaft dargestellten Ereignis-Signalvektors 17902 als (21am) u_{norm,k} = max(U_k)bestimmt werden, der Skalierungsfaktor u_{norm,k} kann 909 betragen.
  • Unter Berücksichtigung der in 178A dargestellten beispielhaften Lernvektoren und des in 179A dargestellten beispielhaften Ereignissignalvektors 17902 kann der Abweichungsvektor var_k var_kT=(1798176, 1, 581601, 1180002, 480671, 1233006) sein, wobei T die Transponierungsoperation anzeigen kann.
  • Die erste tabellenbasierte Methode kann die Identifizierung des Index des Tabelleneintrags mit der geringsten Abweichung beinhalten. Der Index kann z.B. als µ_k bezeichnet werden. Betrachtet man den oben beschriebenen Beispielfall, so kann der Tabelleneintrag mit dem Index m=1 (z.B. wenn man davon ausgeht, dass das erste Element den Index m=0 hat) die geringste Abweichung liefern, und der Index kann z.B. µ_k=1 sein.
  • Der identifizierte Index, µ_k, kann zusammen mit dem entsprechenden Skalierungsfaktor, u_{norm,k}, die Eigenschaften des Ereignissignalvektors U_k, z.B. des Ereignissignalvektors 17902, darstellen.
  • Der Merkmalssatz f_k, der den Ereignissignalvektor U_k darstellt, kann wie folgt definiert werden: u _ { norm , k } = max { U _ k } bestimmt werden , der Skalierungsfaktor u _ { norm , k } kann 909 betragen .
    Figure DE112020001131T5_0018
    wobei w_k = u_{norm,k}/I_norm. Der Merkmalssatz f_k kann als eine komprimierte Darstellung des Ereignisvektorsignals U_k (z.B. eines detektierten Ereignisvektorsignals, z.B. des Ereignisvektorsignals 17902) an das Backend übertragen werden. In dem oben beschriebenen Beispielfall kann der Merkmalssatz f_k = (0.909, 1) sein.
  • Im Backend kann der (z.B. ursprüngliche) Ereignis-Signalvektor rekonstruiert werden, z.B. in Übereinstimmung mit der Tabelle der Referenzsignale (z.B. der Tabelle 17802) und mit dem Merkmalssatz f_k, der dem Ereignis-Signalvektor U_k zugeordnet ist.
  • Der rekonstruierte Ereignis-Signalvektor, U_{rec,k}, kann erhalten werden, indem man das Referenzsignal mit dem Index µ_k nimmt und mit dem Skalierungsfaktor w_k multipliziert, U _ { rec , k } = w _ k * L _ m , wobei m = μ _ k .
    Figure DE112020001131T5_0019
  • Ein rekonstruiertes Signal, das mit dem Ereignissignalvektor 17902 verbunden ist, ist in dem Diagramm 17906 in 179B dargestellt. Zur Veranschaulichung kann das Diagramm 17906 eine visuelle Darstellung eines rekonstruierten Ereignissignalvektors aufweisen, der mit dem Ereignissignalvektor 17902 verknüpft ist. Die Kurve 17906v kann den (z.B. ursprünglichen) Signalvektor darstellen (z.B. kann die Kurve 17906v der Kurve 17904v in der in 179A dargestellten Diagramm 17904v entsprechen), und die (z.B. gestrichelte) Kurve 17906r kann den rekonstruierten Signalvektor darstellen. Das Diagramm 17906 kann eine erste Achse 17906s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 17906t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in beliebigen Einheiten).
  • Eine zweite Möglichkeit für eine tabellenbasierte Merkmalsextraktion kann eine Ähnlichkeitsbewertung in Bezug auf die Tabelle der Referenzsignale beinhalten (z.B. in Bezug auf die Tabelle 17802). Illustrativ kann eine zweite Möglichkeit eine tabellenbasierte Merkmalsextraktion unter Verwendung eines Abstandsspektrums sein.
  • Wie für die erste tabellenbasierte Merkmalsextraktionsmethode beschrieben, kann die Abweichung eines Ereignissignalvektors U_k, z.B. des Ereignissignalvektors 17902, zu (z.B. allen) den Tabelleneinträgen L_0, L_1, ..., L_{M-1} berechnet werden. Das Ergebnis kann in dem Abweichungsvektor var_k=(var_{k,0}, var_{k,1}, ..., var_{k,M-1})T gesammelt werden, z.B. mit der Länge M. Unter Berücksichtigung der in 178A dargestellten beispielhaften Lernvektoren und des in 179A dargestellten beispielhaften Ereignissignalvektors 17902 kann der Abweichungsvektor var_kT=(1798176, 1, 581601, 1180002, 480671, 1233006) sein.
  • - Zusätzlich kann in Bezug auf die erste oben beschriebene tabellenbasierte Methode ein so genanntes Abstandsspektrum f_{k,m} des Ereignissignalvektors U_k wie folgt berechnet werden (24am)
  • Das Distanzspektrum eines Ereignissignalvektors U_k zu allen Tabelleneinträgen L_0, L_1, ..., L_{M-1} kann im Distanzspektrumvektor f_k = (f_{k,0}, f_{k,1}, ..., f_{k,M-1})T gesammelt werden, z.B. mit der Länge M. Unter Berücksichtigung der in 178A dargestellten beispielhaften Lernvektoren und des in 179A dargestellten beispielhaften Ereignissignalvektors 17902 kann der Entfernungsspektrumsvektor f_k = (0,000001, 0,909084, 0,000002, 0,000001, 0,000002, 0,000002, 0,000001) sein. In diesem exemplarischen Fall liefert das Abstandsspektrum für den zweiten Lernvektor 178022 (z.B. der zweite Eintrag) den höchsten Wert. Der Entfernungsspektrumsvektor f_k für diesen exemplarischen Fall ist in dem Diagramm 17908 in dargestellt, z.B. kann das Diagramm 17908 die Werte der Elemente des Entfernungsspektrumsvektors f_k zeigen. Das Diagramm 17908 kann eine Vielzahl von Datenpunkten 17908f aufweisen, die die Elemente des Distanzspektrumvektors f_k beschreiben (z.B. die jeweiligen Werte). Das Diagramm 17908 kann eine erste Achse 17908e aufweisen, die mit dem Elementwert (ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 17908m, die mit einem Elementindex (z.B. einem Vektorindex im Distanzspektrumvektor f_k) assoziiert ist. Illustrativ können die Distanzspektrumswerte jeweils einen Ähnlichkeitswert des tatsächlichen LIDAR-Signals (z.B. des extrahierten Ereignissignalvektors) in Bezug auf die in der Tabelle gespeicherten typischen LIDAR-Signaturen beschreiben.
  • Der berechnete Abstandsspektrumvektor f_k kann die Form des Impulses U_k beschreiben. Der berechnete Distanzspektrumsvektor f_k kann direkt als Feature-Set verwendet werden, z.B. als komprimierte Darstellung des Ereignissignalvektors U_k (z.B. des Ereignissignalvektors 17902) an das Backend übertragen werden.
  • Im Backend kann der (z.B. ursprüngliche) Ereignis-Signalvektor rekonstruiert werden, z.B. gemäß der Tabelle der Referenzsignale und mit dem Merkmalssatz f_k, der mit dem Ereignis-Signalvektor U_k verknüpft ist. Der rekonstruierte Ereignissignalvektor, U_{rec,k}, kann wie folgt erhalten werden
    (25am)
  • Ein rekonstruiertes Signal, das mit dem Ereignis-Signalvektor 17902 verbunden ist, ist in dem Diagramm 17910 in 179D dargestellt. Zur Veranschaulichung kann der Graph 17910 eine visuelle Darstellung eines rekonstruierten Ereignissignalvektors aufweisen, der gemäß der zweiten tabellenbasierten Merkmalsextraktion mit dem Ereignissignalvektor 17902 verknüpft ist. Die Kurve 17910v kann den (z.B. ursprünglichen) Signalvektor darstellen (z.B. kann die Kurve 17910v der Kurve 17904v in dem in 179A dargestellten Diagramm 17904v entsprechen), und die (z.B. gestrichelte) Kurve 17910r kann den rekonstruierten Signalvektor darstellen. Das Diagramm 17910 kann eine erste Achse 17910s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 17910t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in beliebigen Einheiten).
  • Eine weitere mögliche Methode zur Merkmalsextraktion kann auf einem maschinellen Lernansatz basieren.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 17602 so konfiguriert werden, dass sie einen oder mehrere maschinelle Lernprozesse zur Erzeugung des komprimierten LIDAR-Signals implementieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 17602 können so konfiguriert werden, dass sie einen oder mehrere maschinelle Lernprozesse zur Erzeugung des komprimierten LIDAR-Signal-Featuresets implementieren.
  • Der eine oder mehrere maschinelle Lernprozesse können aus einer Gruppe ausgewählt werden, die einen oder mehrere auf neuronalen Netzen basierende Prozesse und einen oder mehrere probabilistische maschinelle Lernprozesse umfasst oder aus diesen besteht.
  • Als Beispiel können ein oder mehrere auf neuronalen Netzen basierende Prozesse auf einer allgemeinen Netzwerkkonfiguration mit künstlicher Intelligenz basieren. Ein weiteres Beispiel: Der eine oder die mehreren auf neuronalen Netzen basierenden Prozesse können auf einer tief lernenden Netzkonfiguration basieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozesse, die auf neuronalen Netzen basieren, können auf einer Faltungskonfiguration des neuronalen Netzes basieren. Als weiteres Beispiel können der eine oder die mehreren Prozesse, die auf neuronalen Netzen basieren, auf einer Zufallswaldkonfiguration basieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozesse, die auf neuronalen Netzen basieren, können auf einer Hauptkomponentenanalyse-Konfiguration basieren.
  • Die oben beschriebenen Ansätze des maschinellen Lernens können eine Art kompakten Merkmalsvektor liefern, der die Rekonstruktion des ursprünglichen Signals ermöglicht. Andere Ansätze des maschinellen Lernens können angeboten werden, z.B. auf der Grundlage eines Histogramms orientierter Gradienten oder einer Supportvector- Maschine, die kompakte Merkmalsvektoren liefern können, die ein stereotypes Signalverständnis (z.B. eine Klassifikation) ermöglichen.
  • Im Falle eines auf neuronalen Netzen basierenden Ansatzes kann das Training des neuronalen Netzes offline erfolgen, d.h. nicht zur Laufzeit, sondern im Vorfeld, z.B. auf einem zu dem LIDAR-System externen System oder Gerät (z.B. einer separaten Rechnerstation). Der trainierte Algorithmus kann für die Merkmalsextraktion (z.B. Inferenz) und die Signalkompression in Echtzeit verwendet werden (z.B. kann die Ausführung des Algorithmus mit einem geringeren Rechenaufwand verbunden sein).
  • Die Extraktion der relevanten Merkmale des tatsächlichen LIDAR-Signals kann auf der Extraktion der relevanten Ähnlichkeitswerte in Bezug auf den (z.B. vordefinierten) Satz von LIDAR-Referenzsignalen basieren. Die entsprechenden Algorithmusparameter können im Voraus in der Offline-Lernphase definiert werden. Die anschließende Echtzeitanwendung des gut konfigurierten Algorithmus kann eine schnelle und effektive Extraktion der relevanten Merkmalswerte zur komprimierten Darstellung des gemessenen Signals ermöglichen. Die aus dem empfangenen LIDAR-Signal extrahierten Ähnlichkeitsmerkmale können verwendet werden, um das Signal in einer komprimierten Form von Grenzwerten darzustellen.
  • Bei einem maschinellen Lernansatz können transformierte Lernvektoren bereitgestellt werden. Illustrativ können die oben beschriebenen Lernvektoren in Bezug auf den tabellenbasierten Ansatz (z.B. der erste bis sechste in 178A gezeigte Lernvektor) als Trainingsdaten für die Konfiguration eines auf maschinellem Lernen basierenden Merkmalsextraktionsverfahrens verwendet werden. Der Satz von Trainingsdaten kann in einer Abweichungsmatrix D (auch als Kovarianzmatrix bezeichnet) gesammelt werden. Die Abweichungsmatrix kann die strukturellen Informationen über die Lernvektoren aufweisen und eine Basismatrix zur Bestimmung eines alternativen Satzes charakteristischer Zeitreihen mit höherer mathematischer Unterscheidungskraft für eine verbesserte Ähnlichkeitsanalyse bieten.
  • Eine beispielhafte Abweichungsmatrix 18002 ist in 180A dargestellt, wobei als Lernvektoren die in 178A gezeigten ersten bis sechsten Lernvektoren betrachtet werden. Illustrativ kann jede Spalte der Abweichungsmatrix 18002 mit einem Lernvektor assoziiert sein oder einem Lernvektor entsprechen (z.B. einem der ersten bis sechsten in 178A dargestellten Lernvektoren). Die Abweichungsmatrix kann Signalwerte aufweisen, die mit einem entsprechenden Lernvektor assoziiert sind (z.B. indiziert durch einen Spaltenindex 18002c, z.B. von 0 bis 5 im Beispielfall in 180A). Die Signalwerte können mit einem entsprechenden Zeilenindex 18002r assoziiert sein (z.B. von 7 bis 24 im Beispielfall in 180A), der einen Zeitwert oder einen Zeitpunkt veranschaulicht oder damit assoziiert ist (z.B. mit einem Vektorindex des entsprechenden Lernvektors assoziiert).
  • Ein neuer Satz von transformierten Lernvektoren (P_0, P_1, ..., P_{M-1}) kann bereitgestellt werden. Die Menge der transformierten Lernvektoren kann mit Hilfe einer linearen Eigenvektoranalyse der Abweichungsmatrix D berechnet werden. Eine solche Analyse kann ein orthogonales Vektorsystem mit der am besten geeigneten Orientierung in Bezug auf das strukturelle Muster der gegebenen Lernvektoren L_0, L_1, ...., L_{M-1} liefern. Die Berechnung der orthogonalen Signalkomponenten kann offline auf einer separaten Computerstation durchgeführt werden, so dass der Echtzeit-Inferenzprozess nicht beeinflusst wird.
  • Beispielhafte transformierte Lernvektoren sind in 180B dargestellt. Es kann eine Anzahl M von transformierten Lernvektoren bereitgestellt werden, z.B. gleich der Anzahl M von Anfangs-Lernvektoren, z.B. der Anzahl M von Referenzsignalen (nur als Beispiel sechs transformierte Lernvektoren, z.B. ein erster transformierter Lernvektor 180041, ein zweiter transformierter Lernvektor 180042, ein dritter transformierter Lernvektor 180043, ein vierter transformierter Lernvektor 180044, ein fünfter transformierter Lernvektor 180045, ein sechster transformierter Lernvektor 180046). Ein transformierter Lernvektor kann Signalwerte (z.B. Vektorwerte oder Vektoreinträge) aufweisen. Jeder Signalwert kann mit einem entsprechenden Vektorindex 18004v (z.B. von 8 bis 29 im Beispielfall in 180B) assoziiert werden, der einen Zeitwert oder einen Zeitpunkt illustrativ darstellt oder damit assoziiert ist.
  • Eine visuelle Darstellung der transformierten Lernvektoren finden Sie in 180C bis 180H. Ein erstes Diagramm 180061 in 180C kann den ersten transformierten Lernvektor 180041 darstellen (z.B. kann das erste Diagramm 180061 eine erste Kurve 180081 aufweisen, die den ersten transformierten Lernvektor 180041 darstellt). Ein zweites Diagramm 180062 in 180D kann den zweiten transformierten Lernvektor 180042 darstellen (z.B. kann das zweite Diagramm 180062 eine zweite Kurve 180082 aufweisen, die den zweiten transformierten Lernvektor 180022 darstellt). Ein drittes Diagramm 180063 in 180E kann den dritten transformierten Lernvektor 180023 darstellen (z.B. kann das dritte Diagramm 180063 eine dritte Kurve 180083 aufweisen, die den dritten transformierten Lernvektor 180023 darstellt). Ein viertes Diagramm 180064 in 180F kann den vierten transformierten Lernvektor 180024 darstellen (z.B. kann das vierte Diagramm 180064 eine vierte Kurve 180084 aufweisen, die den vierten transformierten Lernvektor 180024 darstellt). Ein fünftes Diagramm 180065 in 180G kann den fünften transformierten Lernvektor 180085 darstellen (z.B. kann das fünfte Diagramm 180065 eine fünfte Kurve 180085 aufweisen, die den fünften transformierten Lernvektor 180025 darstellt). Ein sechstes Diagramm 180066 in 180H kann den sechsten transformierten Lernvektor 180026 darstellen (z.B. kann das sechste Diagramm 180066 eine sechste Kurve 180086 aufweisen, die den sechsten transformierten Lernvektor 180026 darstellt). Jedes Diagramm kann eine erste Achse 18006s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 18006t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in beliebigen Einheiten).
  • Die transformierten Lernvektoren können einen orthogonal transformierten alternativen Satz mathematisch berechneter Zeitreihen liefern. Die transformierten Lernvektoren können eine hohe Unterscheidungskraft zur effizienten Extraktion der Ähnlichkeitsmerkmale liefern, die einen extrahierten Ereignissignalvektor U_k beschreiben. Die transformierten Lernvektoren (z.B. der erste bis sechste Lernvektor in 180B) können strukturelle Variationen in Bezug auf das zugehörige Referenz-LIDAR-Signal aufweisen. Ein transformierter Lernvektor kann die Information über die typische Amplitudenstärke aufweisen.
  • Die Kenntnis der orthogonalen Signalkomponenten P_0, P_1, ..., P_{M-1} (z.B. mit M=6) kann die Extraktion der relevanten Merkmale f_k = (f_{k,0},f_{k, 1}, ..., f_{k,M-1})T aus einem Ereignis-Signalvektor U_k ermöglichen. Die Elemente des Merkmalsvektors f_k können wie folgt berechnet werden (z.B. kann eine Inferenzformel wie folgt lauten): (26am)
  • Unter Berücksichtigung der in 180B dargestellten beispielhaften transformierten Lernvektoren und des beispielhaften Ereignis-Signalvektors, der in dem in 181A dargestellten Diagramm 18102 dargestellt ist, kann der Merkmalsvektor f_k als f_kT=(101, -77, 91, 372, -17, 854) bestimmt werden. Der Graph 18102 in 181A kann den Ereignissignalvektor darstellen (z.B. kann der Graph 18102 eine Kurve 18102v aufweisen, die den Ereignissignalvektor darstellt). Das Diagramm 18102 kann eine erste Achse 18102s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 18102 t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in beliebigen Einheiten). Die im Merkmalsvektor aufweisenen Merkmalswerte können jeweils einen Ähnlichkeitswert des LIDAR-Signals (z.B. des Ereignisvektorsignals, U_k) in Bezug auf die Referenzsignale (z.B. in Bezug auf die Lernvektoren und/oder in Bezug auf die transformierten Lernvektoren) beschreiben. Die begrenzte Anzahl von Score-Werten kann das gesamte LIDAR-Signal in komprimierter Form darstellen. Die Signalrekonstruktion kann entsprechend, z.B. in umgekehrter Weise, durchgeführt werden. Der Merkmalsvektor f_k für diesen exemplarischen Fall kann in dem Diagramm 18104 in 181C dargestellt werden, z.B. kann das Diagramm 18104 die Werte der Elemente des Merkmalsvektors f_k zeigen. Das Diagramm 18104 kann eine Vielzahl von Datenpunkten 18104f aufweisen, die die Werte der Elemente des Merkmalsvektors f_k beschreiben. Das Diagramm 18104 kann eine erste Achse 18104e aufweisen, die mit dem Elementwert (ausgedrückt in beliebigen Einheiten) verknüpft ist, und eine zweite Achse 18104m, die mit einem Elementindex (z.B. einem Vektorindex im Merkmalsvektor f_k) verknüpft ist.
  • Nach Erhalt des Merkmalsvektors f_k für jedes der k Ereignisse (z.B. jede der k Ereigniszeitreihen) kann die reale Ereignissignatur U_k wie folgt rekonstruiert werden (z.B. kann eine rekonstruierte Signatur U_k,rec durch einen Rekonstruktionsalgorithmus im Backend bereitgestellt werden), (27am)
  • Ein rekonstruiertes Signal, das mit dem in 181A gezeigten Ereignissignalvektor verbunden ist, ist in dem Diagramm 18106 in 181C dargestellt. Zur Veranschaulichung kann das Diagramm 18106 eine visuelle Darstellung eines rekonstruierten Ereignissignalvektors aufweisen, der mit dem in 181A gezeigten Ereignissignalvektor verbunden ist. Die Kurve 18106v kann den (z.B. ursprünglichen) Signalvektor darstellen (z.B. kann die Kurve 18106v der Kurve 18102v entsprechen, die im Diagramm 18102 in 181A dargestellt ist), und die (z.B. gestrichelte) Kurve 18106r kann den rekonstruierten Signalvektor darstellen. Die Kurve 18106 kann eine erste Achse 18106s aufweisen, die mit einem Vektorwert (z.B. einem Signalwert, ausgedrückt in beliebigen Einheiten) assoziiert ist, und eine zweite Achse 18106t, die mit einem Vektorindex assoziiert ist, der z.B. mit der Zeit assoziiert ist, z.B. mit einem Zeitwert oder einem Zeitpunkt (ausgedrückt in beliebigen Einheiten).
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1am ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie eine Zeitreihe eines empfangenen LIDAR-Signals mit Hilfe eines Merkmalsextraktionsprozesses unter Verwendung von a-priori-Wissen über strukturelle Eigenschaften eines typischen LIDAR-Signals zu einem komprimierten LIDAR-Signal komprimieren.
    • In Beispiel 2am kann der Gegenstand von Beispiel 1am optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie eine Zeitreihe eines empfangenen LIDAR-Signals komprimieren, indem sie eine oder mehrere Ereigniszeitreihen innerhalb des empfangenen LIDAR-Signals identifizieren.
    • In Beispiel 3am kann der Gegenstand von Beispiel 2am optional beinhalten, dass eine Ereigniszeitreihe ein Teil der Zeitreihe des empfangenen LIDAR-Signals ist, die ein oder mehrere Ereignisse enthält.
    • In Beispiel 4am kann der Gegenstand von Beispiel 3am optional beinhalten, dass die Ereignisse aus einer Gruppe von Ereignissen ausgewählt werden, umfassend: einen oder mehrere Peaks innerhalb des empfangenen LIDAR-Signals; und/oder einen oder mehrere LIDAR-Echosignalen innerhalb des empfangenen LIDAR-Signals.
    • Im Beispiel 5am kann der Gegenstand eines der Beispiele 2am bis 4am optional beinhalten, dass eine Ereigniszeitreihe ein Teil der Zeitreihe des empfangenen LIDAR-Signals ist, dessen Signalpegel über einem Schwellenwert liegt. Zum Beispiel kann der Schwellenwert in Übereinstimmung mit einer oder mehreren LIDAR-Sensorsystem-internen Bedingungen und/oder einer oder mehreren LIDAR-Sensorsystem-externen Bedingungen definiert werden.
    • Im Beispiel 6am kann der Gegenstand eines der Beispiele 1am bis 5am optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie mindestens eine Ereigniszeitreihe eines empfangenen LIDAR-Signals komprimieren, indem sie die mindestens eine Ereigniszeitreihe des empfangenen LIDAR-Signals mit einem oder mehreren Referenz-LIDAR-Signalen vergleichen.
    • Im Beispiel 7am kann der Gegenstand eines der Beispiele 1am bis 6am optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie mindestens eine Ereigniszeitreihe eines empfangenen LIDAR-Signals zu einem komprimierten LIDAR-Signal-Featureset komprimieren.
    • In Beispiel 8am kann der Gegenstand von Beispiel 7am optional beinhalten, dass der Merkmalssatz des komprimierten LIDAR-Signals ein oder mehrere Merkmale enthält, die die Form von mindestens einem Teil der mindestens einen Ereigniszeitreihe beschreiben, die auf dem einen oder mehreren Referenz-LIDAR-Signalen basiert.
    • In Beispiel 9am kann der Gegenstand von Beispiel 7am optional beinhalten, dass der komprimierte LIDAR-Signal-Merkmalssatz einen Index und einen Skalierungsfaktor enthält, die mit jedem Merkmal des einen oder mehrerer Merkmale verknüpft sind.
    • In Beispiel 10am kann der Gegenstand von Beispiel 7am optional beinhalten, dass der komprimierte LIDAR-Signal-Featuresatz eine Vielzahl von Index-Skalierungsfaktorpaaren enthält.
    • In Beispiel 11am kann der Gegenstand von Beispiel 7am optional beinhalten, dass der Merkmalssatz des komprimierten LIDAR-Signals einen Vektor enthält, der eine geordnete Folge von Ähnlichkeitsscorewerten enthält.
    • In Beispiel 12am kann der Gegenstand zumindest eines der Beispiele 6am bis 11am optional beinhalten, dass der komprimierte LIDAR-Signal-Merkmalssatz ein oder mehrere Merkmale enthält, die die Form mindestens eines Teils der mindestens einen Ereigniszeitreihe beschreiben, die auf einer Vielzahl von Referenz-LIDAR-Signalen basiert, die aus verschiedenen Arten von Szenen stammen.
    • In Beispiel 13am kann der Gegenstand von Beispiel 12am optional umfassen, dass jedes Referenz-LIDAR-Signal der Vielzahl von Referenz-LIDAR-Signalen mit einem oder mehreren externen Parametern des LIDAR-Sensorsystems verknüpft wird. Zum Beispiel können der eine oder die mehreren LIDAR-Sensorsystem-Außenparameter eine Fahrsituation, eine Verkehrssituation oder eine Umgebungssituation umfassen.
    • In Beispiel 14am kann der Gegenstand zumindest eines der Beispiele 1am bis 13am optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um eine zeitliche Ankunftszeit für mindestens einige von einem oder mehreren identifizierten Ereignissen zu bestimmen. Der eine oder die mehreren Prozessoren können weiter konfiguriert werden, um die bestimmte zeitliche Ankunftszeit mit dem jeweiligen identifizierten Ereignis zu verbinden.
    • In Beispiel 15am kann der Gegenstand zumindest eines der Beispiele 1am bis 14am optional einen Speicher aufweisen, der eine Tabelle mit Informationen zur Merkmalsextraktion speichert.
    • In Beispiel 16am kann der Gegenstand zumindest eines der Beispiele 1am bis 15am optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie einen oder mehrere maschinelle Lernprozesse implementieren, um das komprimierte LIDAR-Signal zu erzeugen.
    • In Beispiel 17am kann der Gegenstand von Beispiel 16am optional beinhalten, dass der eine oder die mehreren maschinellen Lernprozesse aus einer Gruppe ausgewählt werden, die aus einem oder mehreren auf neuronalen Netzen basierenden Prozessen und/oder einem oder mehreren probabilistischen maschinellen Lernprozessen besteht.
    • In Beispiel 18am kann der Gegenstand zumindest eines der Beispiele 14am bis 17am optional einen Sender aufweisen, der so konfiguriert ist, dass er die ermittelte zeitliche Ankunftszeit zusammen mit dem komprimierten LIDAR-Signalmerkmalssatz, der mit der identifizierten Ereigniszeitreihe verknüpft ist, an einen weiteren Prozessor zur weiteren Signalverarbeitung und/oder Datenanalyse überträgt.
    • In Beispiel 19am kann der Gegenstand von Beispiel 18am optional beinhalten, dass der weitere Prozessor mit einer Sensor-Fusionsbox verbunden ist.
    • In Beispiel 20am kann der Gegenstand eines der Beispiele 18am oder 19am optional beinhalten, dass der weitere Prozessor so konfiguriert ist, dass er einen Signalrekonstruktionsprozess durchführt. Zum Beispiel kann der Signalrekonstruktionsprozess auf einer umgekehrten LIDAR-Signalkompression basieren.
    • In Beispiel 21am kann der Gegenstand eines der Beispiele 1am bis 20am optional einen Sensor aufweisen, der so konfiguriert ist, dass er ein Lichtsignal erkennt.
    • In Beispiel 22am kann der Gegenstand von Beispiel 21 am optional beinhalten, dass der Sensor mindestens eine Fotodiode enthält.
    • In Beispiel 23am kann der Gegenstand von Beispiel 22am optional beinhalten, dass die mindestens eine Fotodiode eine Pin-Fotodiode und/oder eine Avalanche-Fotodiode (APD) und/oder eine Single-Photon-Avalanche-Diode (SPAD) und/oder einen Silizium-Photomultiplier (SiPM) und/oder einen CMOS-Sensor (Complementary Metal-Oxide-Semiconductor) und/oder ein Charge Coupled Device (CCD) und/oder eine gestapelte Multilayer-Fotodiode umfasst.
    • In Beispiel 24am kann der Gegenstand eines der Beispiele 1am bis 23am optional einen Analog-Digital-Wandler aufweisen, der so konfiguriert ist, dass er das analog empfangene LIDAR-Signal in eine Zeitreihe digitaler Werte umwandelt, die ein digitalisiertes empfangenes LIDAR-Signal darstellt.
    • In Beispiel 25am kann der Gegenstand von Beispiel 24 am optional beinhalten, dass eine Ereigniszeitreihe des digitalisierten empfangenen LIDAR-Signals eine vordefinierte Anzahl von digitalen Werten innerhalb einer zugehörigen Zeitdauer enthält.
    • Beispiel 26am ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann die Komprimierung einer Zeitreihe eines empfangenen LIDAR-Signals in ein komprimiertes LIDAR-Signal unter Verwendung eines Merkmalsextraktionsprozesses umfassen, bei dem a priori Kenntnisse über strukturelle Eigenschaften eines typischen LIDAR-Signals verwendet werden.
    • In Beispiel 27am kann der Gegenstand von Beispiel 26am optional die Komprimierung einer Zeitreihe eines empfangenen LIDAR-Signals durch Identifizierung einer oder mehrerer Ereigniszeitreihen innerhalb des empfangenen LIDAR-Signals umfassen.
    • In Beispiel 28am kann der Gegenstand von Beispiel 27 am optional beinhalten, dass eine Ereigniszeitreihe ein Teil der Zeitreihe des empfangenen LIDAR-Signals ist, die ein oder mehrere Ereignisse enthält.
    • In Beispiel 29am kann der Gegenstand von Beispiel 28am optional beinhalten, dass die Ereignisse aus einer Gruppe von Ereignissen ausgewählt werden, die aus einem oder mehreren Peaks innerhalb des empfangenen LIDAR-Signals und/oder einem oder mehreren LIDAR-Echosignalen innerhalb des empfangenen LIDAR-Signals besteht.
    • In Beispiel 30am kann der Gegenstand eines der Beispiele 27am bis 29am optional beinhalten, dass eine Ereigniszeitreihe ein Teil der Zeitreihe des empfangenen LIDAR-Signals ist, dessen Signalpegel über einem Schwellenwert liegt. Zum Beispiel kann der Schwellenwert in Übereinstimmung mit einer oder mehreren internen Bedingungen des LIDAR-Sensorsystems und/oder einer oder mehreren externen Bedingungen des LIDAR-Sensorsystems definiert werden.
    • In Beispiel 31am kann der Gegenstand eines der Beispiele 26am bis 30am optional die Komprimierung mindestens einer Ereigniszeitreihe eines empfangenen LIDAR-Signals durch Vergleich der mindestens einen Ereigniszeitreihe des empfangenen LIDAR-Signals mit einem oder mehreren Referenz-LIDAR-Signalen umfassen.
    • In Beispiel 32am kann der Gegenstand eines der Beispiele 26am bis 31 am optional die Komprimierung mindestens einer Ereigniszeitreihe eines empfangenen LIDAR-Signals in einen komprimierten LIDAR-Signal-Featuresatz beinhalten.
    • In Beispiel 33am kann der Gegenstand von Beispiel 32am optional beinhalten, dass der Merkmalssatz des komprimierten LIDAR-Signals ein oder mehrere Merkmale enthält, die die Form von mindestens einem Teil der mindestens einen Ereigniszeitreihe beschreiben, die auf dem einen oder mehreren Referenz-LIDAR-Signalen basiert.
    • In Beispiel 34am kann der Gegenstand von Beispiel 33am optional beinhalten, dass der komprimierte LIDAR-Signal-Merkmalssatz einen Index und einen Skalierungsfaktor enthält, die mit jedem Merkmal des einen oder mehrerer Merkmale verknüpft sind.
    • In Beispiel 35am kann der Gegenstand von Beispiel 33am optional beinhalten, dass der komprimierte LIDAR-Signal-Featuresatz eine Vielzahl von Index-Skalierungsfaktorpaaren enthält.
    • In Beispiel 36am kann der Gegenstand von Beispiel 33am optional beinhalten, dass der komprimierte LIDAR-Signal-Featuresatz einen Vektor enthält, der eine geordnete Folge von Ähnlichkeitsscorewerten enthält.
    • In Beispiel 37am kann der Gegenstand eines der Beispiele 31 am bis 36am optional beinhalten, dass der komprimierte LIDAR-Signal-Merkmalssatz ein oder mehrere Merkmale enthält, die die Form mindestens eines Teils der mindestens einen Ereigniszeitreihe beschreiben, die auf einer Vielzahl von Referenz-LIDAR-Signalen basiert, die aus verschiedenen Arten von Szenen stammen.
    • In Beispiel 38am kann der Gegenstand von Beispiel 37am optional beinhalten, dass jedes LIDAR-Referenzsignal aus der Vielzahl der LIDAR-Referenzsignale mit einem oder mehreren externen Parametern des LIDAR-Sensorsystems verknüpft wird. Beispielsweise können der eine oder die mehreren externen Parameter des LIDAR-Sensorsystems eine Fahrsituation, eine Verkehrssituation oder eine Umgebungssituation umfassen.
    • In Beispiel 39am kann der Gegenstand eines der Beispiele 26am bis 38amoptional die Bestimmung einer zeitlichen Ankunftszeit für mindestens einige von einem oder mehreren identifizierten Ereignissen umfassen. Das Verfahren kann ferner die Verknüpfung der ermittelten zeitlichen Ankunftszeit mit dem jeweiligen identifizierten Ereignis beinhalten.
    • In Beispiel 40am kann der Gegenstand eines der Beispiele 26am bis 39am optional einen Speicher aufweisen, der eine Tabelle mit Informationen zur Merkmalsextraktion speichert.
    • In Beispiel 41am kann der Gegenstand eines der Beispiele 26am bis 40am optional die Implementierung eines oder mehrerer maschineller Lernprozesse zur Erzeugung des komprimierten LIDAR-Signals beinhalten.
    • In Beispiel 42am kann der Gegenstand von Beispiel 41am optional beinhalten, dass der eine oder die mehreren maschinellen Lernprozesse aus einer Gruppe ausgewählt werden, die aus einem oder mehreren auf neuronalen Netzen basierenden Prozessen und/oder einem oder mehreren probabilistischen maschinellen Lernprozessen besteht.
    • In Beispiel 43am kann der Gegenstand eines der Beispiele 39am bis 42am optional einen Sender aufweisen, der die ermittelte zeitliche Ankunftszeit zusammen mit dem komprimierten LIDAR-Signalmerkmalssatz sendet, der mit der identifizierten Ereigniszeitreihe für die weitere Signalverarbeitung und/oder Datenanalyse verknüpft ist.
    • In Beispiel 44am kann der Gegenstand von Beispiel 43am optional die Durchführung eines Signalrekonstruktionsprozesses umfassen. Zum Beispiel kann der Signalrekonstruktionsprozess auf einer umgekehrten LIDAR-Signalkompression basieren.
    • In Beispiel 45am kann der Gegenstand eines der Beispiele 26am bis 44am optional einen Sensor aufweisen, der ein Lichtsignal erfasst.
    • In Beispiel 46am kann der Gegenstand von Beispiel 45am optional beinhalten, dass der Sensor mindestens eine Fotodiode enthält.
    • In Beispiel 47am kann der Gegenstand von Beispiel 46am optional beinhalten, dass die mindestens eine Fotodiode eine Pin-Fotodiode und/oder eine Avalanche-Fotodiode (APD) und/oder eine Single-Photon-Avalanche-Diode (SPAD) und/oder einen Silizium-Photomultiplier (SiPM) und/oder einen Komplementär-Metalloxid-Halbleiter-Sensor (CMOS) und/oder ein Charge Couplementary Metal-Oxyd-Semiconductor (CCD) und/oder eine Stacked-Multilayer-Fotodiode umfasst.
    • In Beispiel 48am kann der Gegenstand eines der Beispiele 26am bis 47am optional einen Analog-Digital-Wandler aufweisen, der das analog empfangene LIDAR-Signal in eine Zeitreihe digitaler Werte umwandelt, die ein digitalisiertes empfangenes LIDAR-Signal darstellt.
    • In Beispiel 49am kann der Gegenstand von Beispiel 48am optional beinhalten, dass eine Ereigniszeitreihe des digitalisierten empfangenen LIDAR-Signals eine vordefinierte Anzahl von digitalen Werten innerhalb einer zugehörigen Zeitdauer enthält.
    • Beispiel 50am ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium umfasst sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1am bis 25am ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 26am bis 49am auszuführen.
    • Beispiel 51 am ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eine der Methoden für ein LIDAR-Sensorsystem gemäß einem der oben genannten Methodenbeispiele oder ein LIDAR-Sensorsystem gemäß einem der oben genannten LIDAR-Sensorsystembeispiele ausführt.
  • Ein teil- oder vollautomatisches Fahrzeug kann eine Vielzahl von Sensorsystemen und Geräten (z.B. Navigations- und Kommunikationsgeräte sowie Datenverarbeitungs- und -speichereinrichtungen) aufweisen und einsetzen, um die Umgebung sehr detailliert, mit hoher Genauigkeit und zeitnah wahrzunehmen und zu interpretieren. Zu den Sensorsystemen können z.B. Sensoren wie ein LIDAR-Sensor, ein Radarsensor, ein Kamerasensor, ein Ultraschallsensor und/oder ein Trägheitsmesssensor (IMU) gehören. Navigations- und Kommunikationssysteme können z.B. ein Globales Positionsbestimmungssystem (GNSS/GPS), ein Fahrzeug-Fahrzeug-Kommunikationssystem (V2V) und/oder ein Fahrzeug-Infrastruktur-Kommunikationssystem (V2l) umfassen.
  • Ein Fahrzeug, das zum teilautonomen Fahren in der Lage ist (z.B. ein Fahrzeug, das mit einem SAE-Level 3 oder höher betrieben werden kann), kann mehr als einen von jedem Sensortyp verwenden. Als Beispiel kann ein Fahrzeug 4 LIDAR-Systeme, 2 RADAR-Systeme, 10 Kamerasysteme und 6 Ultraschallsysteme aufweisen. Ein solches Fahrzeug kann einen Datenstrom von bis zu etwa 40 Gbit/s (oder etwa 19 Tbit/h) erzeugen. Unter Berücksichtigung typischer (z.B. durchschnittlicher) Fahrzeiten pro Tag und Jahr kann ein Datenstrom von etwa 300 TB pro Jahr (oder sogar noch mehr) geschätzt werden.
  • Für die Erfassung, Verarbeitung und Speicherung solcher Daten kann eine große Menge an Computer-Rechenleistung erforderlich sein. Darüber hinaus können Sensordaten kodiert und an eine übergeordnete Einheit, z.B. eine Sensor-Fusion-Box, übertragen werden, um ein konsolidiertes und konsistentes Szenenverständnis zu ermitteln (z.B. zu berechnen), das für Echtzeitentscheidungen auch in komplexen Verkehrssituationen genutzt werden kann. Eine Sensorfusionsbox kann Sensordaten von verschiedenen Sensoren desselben Typs (z.B. LIDAR-System A, LIDAR-System B usw.) und/oder verschiedenen Sensortypen (LIDAR-System, Kamerasystem, Radarsystem, Fahrzeugsensoren usw.) verwenden. Eine sichere Erfassung und Entscheidungsfindung kann darüber hinaus Backup- und Ausweichlösungen erforderlich machen, wodurch die Redundanz (und Komplexität) von Ausrüstung und Prozessen erhöht wird.
  • Im Bereich der Signal- und Datenverarbeitung können verschiedene Konzepte und Algorithmen zur Datenkompression eingesetzt und implementiert werden. Generell kann zwischen verlustfreien und verlustbehafteten Datenkompressionsalgorithmen unterschieden werden.
  • Im Falle einer verlustfreien Datenkompression kann der zugrunde liegende Algorithmus versuchen, redundante Informationen zu identifizieren, die dann ohne Datenverlust aus dem Datenstrom extrahiert werden können. Runlength-Encoding (RLE) kann ein Beispiel für einen verlustfreien Datenkompressionsalgorithmus sein. Im Algorithmus zur Lauflängenkodierung können identische und aufeinander folgende Informationssymbole komprimiert werden, indem das jeweilige Symbol nur einmal zusammen mit der Anzahl der identifizierten Wiederholungen verwendet wird. Weitere Beispiele für verlustfreie Datenkompressionsalgorithmen können Algorithmen zur Kodierung mit variabler Länge oder Entropiekodierung sein, wie z.B. Huffman-Code, arithmetische Kodierung und ähnliches.
  • Im Falle einer verlustbehafteten Datenkomprimierung kann der zugrunde liegende Algorithmus versuchen, nicht relevante oder weniger relevante Informationen zu identifizieren, die aus dem Datenstrom mit nur geringen Auswirkungen auf die später abgeleiteten Ergebnisse extrahiert werden können (z.B. Ergebnisse aus der Datenanalyse, aus Berechnungen zur Objekterkennung, aus Berechnungen zur Objektklassifikation und dergleichen). Beispiele für verlustbehaftete Kompressionsalgorithmen können recht einfache Verfahren wie Quantisierung, Rundung und Diskretisierung sein. Komplexere Beispiele für verlustbehaftete Kompressionsalgorithmen können rechenintensive Transformationsalgorithmen wie die Diskrete Cosinus-Transformation (DCT) als Beispiel aufweisen. Beim DCT-Algorithmus können Rohdatenströme in eine andere Domäne transformiert werden, was eine gezieltere Quantisierung ermöglichen kann (z. B. MP3-Audiokompression, JPEG für die Bildkompression und MPEG für die Videokompression). Zusätzlich oder alternativ kann ein schätz- oder prädiktionsbasierter- Algorithmus verwendet werden. In solchen Algorithmen können Datenströme analysiert werden, um die nächsten Symbole vorherzusagen, z. B. um (zumindest teilweise) Inhalte eines Bildes auf der Grundlage analysierter benachbarter Bildteile vorherzusagen. Ein solcher schätz- oder prädiktionsbasierter Algorithmus kann Rankingmethoden zum Aufbau einer kontextspezifischen Wahrscheinlichkeitsschätzfunktion aufweisen.
  • Beispielsweise können in LIDAR-Anwendungen Punktwolkenkomprimierungstechniken, Punktwolkenvereinfachungstechniken und Netzkomprimierungstechniken eingesetzt werden, um komprimierte Punktwolkendaten mit unterschiedlichen Genauigkeitsstufen und/oder unterschiedlichen Kompressionsraten zu erzeugen. Im Hinblick auf Konzepte zur Kompression und Vereinfachung von Punktwolken können so genannte 1D-Traversalansätze, 2D-Bild- und/oder Videocodierungsverfahren oder direkt auf den 3D-Daten arbeitende Ansätze zur Datenkompression eingesetzt werden. Diese Ansätze können verlustfrei oder verlustbehaftet sein.
  • Ein verlustbehafteter Datenkompressionsalgorithmus kann im Vergleich zu einem verlustfreien Datenkompressionsalgorithmus eine höhere Datenkompressionsrate liefern. Darüber hinaus kann die erreichbare Datenkompressionsrate umso höher sein, je früher die Datenkompression ausgeführt wird, wie weiter unten näher beschrieben wird. Bei sicherheitsbezogenen Anwendungen, wie z.B. autonomes Fahren, kann ein absichtlich in Kauf genommener Datenverlust jedoch riskant sein. Es kann sich als schwer vorhersehbar erweisen, welche Folgen ein solcher Datenverlust haben kann, zum Beispiel in einer spezifischen, komplexen und möglicherweise verwirrenden Verkehrssituation. Zur Veranschaulichung: Es kann ein gewisser Kompromiss zwischen dem erreichbaren Niveau der Datenreduktionsrate und dem tolerierbaren Niveau des Verlusts der Informationsgenauigkeit bestehen. Daher kann die Implementierung von verlustbehafteten Kompressionsalgorithmen in Anwendungen mit sicherheitskritischen Aspekten, wie z.B. im Bereich autonom fahrender Fahrzeuge, große Bedenken aufwerfen, da möglicherweise nicht klar ist, wie der optimale Kompromiss bewertet werden kann.
  • Datenkomprimierung, insbesondere wenn verlustbehaftete Kompressionsalgorithmen eingesetzt werden, kann in einigen Fällen zu einem unvollständigen oder fehlerhaften Szenenverständnis und semantischen Mapping führen. Beispielsweise können durch den Datenverlust Inkonsistenzen entstehen. Ein Beispiel für solche Inkonsistenzen kann sein, dass ein Objekt im Sichtfeld-Datensatz eines Sensors (z.B. eines ersten Sensormoduls), aber nicht im, sich zumindest teilweise überlappenden, Sichtfeld-Datensatz eines anderen Sensors (z.B. eines zweiten Sensormoduls) vorhanden ist. Ein weiteres Beispiel für Inkonsistenz kann sein, dass Datensätze verschiedener Sensoren oder Sensormodule unterschiedliche Eigenschaften für ein und dasselbe Objekt liefern oder kodieren, wie z.B. unterschiedliche Größe, Lage, Orientierung, Geschwindigkeit oder Beschleunigung. Darüber hinaus kann eine zu geringe Datenqualität (z.B. in Bezug auf Datenauflösung, Bildpixelierung oder Signal-Rausch-Verhältnis) die Objekterkennung und -klassifizierung behindern. Ein konventionelles System ist möglicherweise nicht so konfiguriert oder in der Lage, auf solche Inkonsistenzen in geeigneter Weise, z.B. in effizienter Weise, zu reagieren.
  • Verschiedene Ausführungsformen können sich auf ein Verfahren (und ein System) zur Datenkompression beziehen, die eine offene und dynamisch anpassbare Kompromissbewertung zwischen der theoretisch erreichbaren Datenreduktionsrate und dem tolerierbaren Maß an Informationsgenauigkeit bietet. Die hier beschriebene Methode kann eine hocheffiziente und effektive Datenkomprimierung bieten und die Datenqualität verbessern, falls das erreichte Niveau der Datengenauigkeit nicht ausreicht (z.B. in einem Datenfusions- und Objekterkennungsprozess). Die hier beschriebene Methode kann die feste und statische Kompromissbewertung eines konventionellen Systems überwinden. Zur Veranschaulichung: Die hier beschriebene Methode kann die Komprimierung eines Teils der erfassten Sensordaten für die weitere Verarbeitung und die Speicherung eines unkomprimierten Teils der erfassten Sensordaten (z.B. Datenblöcke, die vor oder während der Komprimierung der anderen Sensordaten aus dem ursprünglichen Datenstrom extrahiert wurden) umfassen, die auf Anfrage zur Verfügung gestellt werden (z.B. falls zusätzliche Daten zur Beseitigung von Inkonsistenzen in den Ergebnissen der Datenverarbeitung verwendet werden sollen). Illustrativ kann das hier beschriebene Verfahren die Weiterleitung erfasster Sensordaten, die aus einem bestimmten Teil des Beleuchtungsfelds (FOI) oder Sichtfelds (FOV) stammen, durch ein Datenkomprimierungsmodul umfassen, um unkomprimiert in einem Zwischenspeicher (z.B. einem Zwischenspeicher) gespeichert zu werden, sowie die Weiterleitung erfasster Sensordaten, die aus einem anderen (z.B. anderen) Segment des FOV oder FOI stammen, durch das Datenkomprimierungsmodul, um mit verschiedenen Komprimierungstechniken behandelt zu werden, wie unten näher beschrieben. Zur weiteren Veranschaulichung kann die hier beschriebene Methode dazu dienen, fehlerhaftes Szenenverständnis zu reduzieren oder im Wesentlichen zu eliminieren oder zumindest auf bestimmte Dateninkonsistenzen zu reagieren (z.B. in einem Objekterkennungsprozess oder in einem Objektklassifizierungsprozess).
  • Die hier beschriebene Methode kann eine gut angepasste und hochentwickelte Datenkomprimierung bieten, um die Datenmenge zu reduzieren, die verarbeitet, gespeichert und übertragen wird (z.B. an eine Sensor-Fusion-Box und/oder an ein Fahrzeug-Lenkungssteuerungssystem). Die Datenkomprimierung kann zu einer allgemeinen Verringerung des Energieverbrauchs führen. Zur Veranschaulichung: Auch wenn die Datenkomprimierung möglicherweise leistungsintensive Berechnungen erfordert, kann eine Reduzierung des Stromverbrauchs durch die geringere Menge der zu kodierenden, zu übertragenden, zu dekodierenden, zu transformierenden und zu analysierenden Daten (z. B. in späteren Datenfusions- und Objekterkennungsprozessen) erreicht werden. Eine Reduzierung des Stromverbrauchs kann z.B. in Bezug auf einen Fahrzeugzustand erreicht werden, wie z.B. in Bezug auf 123 beschrieben.
  • In verschiedenen Ausführungsformen kann ein System mit einem oder mehreren Geräten und einem oder mehreren Datenverarbeitungsmodulen, z.B. zur Klassifizierung eines Objekts ausgehend von einem Rohdatensensorsignal, bereitgestellt werden. Das System kann ein Sensormodul aufweisen, das so konfiguriert ist, dass es Sensordaten erzeugt, z.B. ein LIDAR-Sensormodul oder ein RADAR-Sensormodul oder ein Kamerasensormodul oder ein Ultraschallsensormodul. Das System kann mehrere (z.B. zusätzliche) Sensormodule aufweisen, die jeweils so konfiguriert sind, dass sie Sensordaten erzeugen. Das System kann eine Vielzahl von Sensormodulen desselben Typs umfassen (z.B. kann das System eine Vielzahl von LIDAR-Sensormodulen umfassen), die z.B. an verschiedenen Stellen angeordnet sind, z.B. an verschiedenen Fahrzeugpositionen (z.B. LIDAR-Sensormodule für Front-, Eck-, Seiten-, Heck- oder Dachmontage). Zusätzlich oder alternativ kann das System eine Vielzahl von Sensormodulen unterschiedlichen Typs umfassen.
  • Das System kann ein Sensormodul, ein Datenkomprimierungsmodul und ein Sender- und Empfängermodul umfassen. Das Sensormodul kann einen Sensor aufweisen. Betrachtet man als Beispiel ein LIDAR-Sensormodul, so kann der Sensor eine oder mehrere Fotodioden aufweisen, die so konfiguriert sind, dass sie Infrarot-Lichtsignale empfangen und die empfangenen Lichtsignale in zugehörige Fotostromsignale umwandeln. Das Sensormodul kann zusätzliche elektronische Elemente aufweisen, die so konfiguriert sind, dass sie eine grundlegende Signal- und Rohdatenverarbeitung ermöglichen. In einem LIDAR-Sensormodul können in nachfolgenden Verarbeitungsschritten aus den Rohdatensignalen Laufzeitdatenpunkte (TOF) abgeleitet und aus den einzelnen Laufzeitdatenpunkten eine 3D-Punktwolke erzeugt werden.
  • Der Sensor kann kontinuierlich Signale erfassen, zum Beispiel innerhalb bestimmter Messzeitfenster. Auf diese Weise kann ein im Wesentlichen kontinuierlicher Datenstrom entstehen, der vom Sensor produziert und weiteren nachgeschalteten Datenverarbeitungsmodulen zur Verfügung gestellt wird. Jeder Datenpunkt oder jede Gruppe von Datenpunkten kann mit einem Zeitstempel versehen werden, um eine eindeutige Datenzuordnung zu ermöglichen.
  • Das Datenkomprimierungsmodul kann verwendet werden, um die Menge der zu speichernden und weiter zu verarbeitenden Daten zu reduzieren. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es einen oder mehrere Datenkomprimierungsalgorithmen implementiert (z.B. einschließlich verlustbehafteter Datenkomprimierungsalgorithmen), um die Datenmenge zu reduzieren. Die Datenkomprimierung kann in verschiedenen Schritten während des Datenverarbeitungsprozesses durchgeführt werden, z.B. in verschiedenen Schritten während der Rohdatenverarbeitungsprozesse und/oder in verschiedenen Schritten der Kaufzeit-Berechnungen oder der 3D-Punktwolkenerzeugung. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann mehrere separate Datenkomprimierungsschritte umfassen und kann über verschiedene Elektronik- und/oder Softwareteile oder Softwareprogramme implementiert werden.
  • Nach Abschluss der Signalerzeugung, Datenverarbeitung und Datenkomprimierung können die erzeugten Daten kodiert werden, um über vordefinierte Datenpakete an ein zentrales Datenverarbeitungssystem gesendet zu werden. Die hier beschriebene Methode der Datenkompression und Zwischenspeicherung (wie bereits oben skizziert und weiter unten ausführlicher beschrieben) kann den Umfang der Datenkommunikation verringern und einen schnellen Informationsaustausch ermöglichen, was für Fahrzeuge mit teil- oder vollautomatischem Fahrbetrieb wichtig sein kann. Als Beispiel können Kommunikationsmethoden auf der Basis einer Hochgeschwindigkeits-Ethernet-Verbindung verwendet werden, wie weiter unten näher beschrieben wird. Das zentrale Datenverarbeitungssystem kann z.B. eine Sensorfusionsbox, z.B. eines Fahrzeugs, sein. Die Sensor-Fusion-Box kann kommunikativ mit dem Sensormodul (z.B. mit jedem Sensormodul) verbunden sein, z.B. über ein Fahrzeug-Sende- und Empfangssystem, das so konfiguriert ist, dass es die kodierten Sensormodul-Datenpakete empfängt und dekodiert. Das Fahrzeug-Sender- und -Empfängersystem kann ferner so konfiguriert werden, dass es Daten von zusätzlichen informationsbereitstellenden Systemen, wie z.B. einem Globalen Positionsbestimmungssystem (GNSS/GPS), einem Trägheitsmesssensor, einem Fahrzeug-zu-Fahrzeug- (V2V)-System oder einem Fahrzeug-zu-Infrastruktur- (V2l)-System, empfängt. Die verschiedenen Datenströme können in der Sensorfusionsbox gesammelt und konsolidiert werden. Redundante Daten können verglichen und weiter reduziert werden, solange die Informationskonsistenz sichergestellt ist. Falls inkonsistente redundante Daten erkannt werden, können diese Daten alternativ gegeneinander abgeglichen oder gewichtet werden und/oder es können Priorisierungsentscheidungen getroffen werden. Dies kann zu einem präzisen semantischen Szenenverständnis führen, das auf Objekterkennung, Objektklassifizierung und Objektverfolgung basiert.
  • Signal- und Datenverarbeitungsverfahren können in verschiedenen Ausprägungen eine ausgedehnte Reihe von einzelnen Prozessschritten umfassen, um von einem Rohdatensignal zu nützlichen und verwertbaren Informationen (z.B. zur Objektklassifikation und -identifikation) zu gelangen. Veranschaulichend kann ausgehend von der Signalerfassung selbst eine grundlegende Signalverarbeitung durchgeführt werden (z.B. Strom-Spannungs-Umwandlung, Signalverstärkung, Analog-Digital-Umwandlung, Signalfilterung, Signalmittelwertbildung, Histogrammzuordnung u.ä.). Anschließend können grundlegende Signalanalyseprozesse Techniken zur Basisliniensubtraktion, Rauschunterdrückung, Spitzen- und Amplitudendetektion, verschiedene Berechnungen (z.B. Laufzeitberechnung) und ähnliches beinhalten oder anwenden. Die gewonnenen (z.B. verarbeiteten) Daten können unter Verwendung von Techniken zur Datentransformation (z.B. in Bezug auf Datenformat, Datenauflösung und Sichtwinkel als Beispiel), Datenkodierung, grundlegende oder fortgeschrittene Objektklassifizierung (z.B. Zuweisung von Begrenzungskästen oder Objektüberschriften), Objekterkennung und dergleichen weiterverarbeitet werden.
  • Während der Datenverarbeitungsschritte kann eine Datenkompression eingesetzt oder implementiert werden, um den Aufwand in den anstehenden (d.h. nachgeschalteten) Prozessschritten zu reduzieren, z.B. im Hinblick auf den Stromverbrauch und/oder den Bedarf an Datenspeicher. Die Relevanz der Auswirkungen der Datenkompression kann davon abhängen, wann (z.B. bei welchem Verarbeitungsschritt) die Datenkompression implementiert wird. Beispielsweise kann die Verringerung des Stromverbrauchs und/oder des Speicherbedarfs umso höher sein, je früher die Datenkompression in dem oben beschriebenen Datenverarbeitungsverfahren eingesetzt wird. Bei verlustbehafteten Datenkomprimierungsverfahren können jedoch umso mehr mögliche Leistungsverluste auftreten, je früher die Datenkomprimierung ausgeführt wird. Daher kann nicht nur das Ausmaß der Datenkompression (verlustfreie versus verlustbehaftete Kompression) bei den oben genannten Priorisierungs- und Optimierungsentscheidungen berücksichtigt werden, sondern auch das Timing innerhalb des Signal- und Datenverarbeitungsverfahrens.
  • In verschiedenen Ausführungsformen kann ein Sensorsystem zur Verfügung gestellt werden. Das Sensorsystem kann z.B. in ein Fahrzeug eingebaut sein, z.B. ein Fahrzeug mit teil- oder vollautomatischen Fahrfunktionen. Zur Veranschaulichung: Das Fahrzeug kann ein oder mehrere Sensorsysteme aufweisen, wie hier beschrieben.
  • Das Sensorsystem kann ein (z.B. erstes) Sensormodul aufweisen, das so konfiguriert ist, dass es Sensordaten liefert. Die Konfiguration des Sensormoduls kann entsprechend der gewünschten Art von Sensordaten ausgewählt werden. Das Sensormodul kann als ein Sensortyp konfiguriert werden, der aus einer Gruppe von Sensortypen ausgewählt wird, die einen LIDAR-Sensor, einen RADAR-Sensor, einen Kamerasensor, einen Ultraschallsensor und einen Trägheitsmesssensor enthält oder aus diesen besteht. Das Sensorsystem kann eine Vielzahl von Sensormodulen umfassen (zur Veranschaulichung: Das Sensorsystem kann das Sensormodul und ein oder mehrere weitere Sensormodule umfassen). Die Sensormodule können vom gleichen Typ oder von verschiedenen Typen sein. Zum Beispiel kann mindestens ein weiteres Sensormodul (z.B. ein zweites Sensormodul) vom gleichen Sensortyp wie das Sensormodul sein. Als weiteres Beispiel kann mindestens ein weiteres Sensormodul von einem anderen Sensortyp als das Sensormodul sein.
  • Das Sensorsystem kann ein Datenkomprimierungsmodul (auch als Datenkomprimierer bezeichnet) aufweisen. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es Daten komprimiert. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es mindestens einen Teil (z. B. einen ersten Teil) der vom Sensormodul bereitgestellten Sensordaten komprimiert, um komprimierte Sensordaten zu erzeugen. Veranschaulichend kann es sich bei den komprimierten Sensordaten um einen Teil der Sensordaten handeln oder einen Teil davon aufweisen, wobei von diesem Teil der Sensordaten zumindest ein Teil komprimiert ist (z.B. können die komprimierten Sensordaten komprimierte Daten und optional auch nicht komprimierte Daten aufweisen). Die komprimierten Sensordaten (z.B. zumindest ein Teil der komprimierten Sensordaten) können für die weitere Verarbeitung verwendet werden (z.B. für Szenen-Mapping, Objekterkennung, Objektklassifikation und ähnliches), wie im Folgenden näher beschrieben. Zusätzlich oder alternativ können die komprimierten Sensordaten (z.B. ein anderer Teil der komprimierten Sensordaten) gespeichert werden, wie weiter unten näher beschrieben. Als Beispiel kann das Datenkomprimierungsmodul im Sensormodul umfasst sein (z.B. kann jedes Sensormodul ein entsprechendes Datenkomprimierungsmodul aufweisen). Als weiteres Beispiel kann das Datenkomprimierungsmodul kommunikativ mit dem Sensormodul gekoppelt sein (z.B. mit einem oder mehreren Sensormodulen, z.B. mit jedem Sensormodul), z.B. kann das Datenkomprimierungsmodul außerhalb des Sensormoduls liegen.
  • In verschiedenen Ausführungsformen kann das Datenkomprimierungsmodul so konfiguriert werden, dass es verschiedene Arten der Datenkomprimierung durchführt, zum Beispiel verlustfreie und/oder verlustbehaftete Datenkomprimierung. Beispielsweise kann das Datenkomprimierungsmodul so konfiguriert werden, dass es mindestens einen verlustbehafteten Komprimierungsalgorithmus implementiert (z.B. zur Durchführung mindestens eines verlustbehafteten Komprimierungsverfahrens), wie z.B. Quantisierung, Rundung, Diskretisierung, Transformationsalgorithmus, schätzbasierter Algorithmus oder prädiktionsbasierter Algorithmus. Als weiteres Beispiel kann das Datenkomprimierungsmodul zusätzlich oder alternativ so konfiguriert werden, dass es mindestens einen verlustfreien Komprimierungsalgorithmus implementiert (z.B. zur Durchführung mindestens eines verlustfreien Komprimierungsverfahrens), wie z.B. Lauflängenkodierung, Kodierung mit variabler Länge oder Entropie-Kodierungsalgorithmus. Die Kompressionsalgorithmen (z.B. die Algorithmusverfahren) können (z.B. dauerhaft) in einem nichtflüchtigen Computergerät (z.B. in einem nichtflüchtigen Speicher) gespeichert werden, z.B. im Datenkompressionsmodul selbst und/oder in einem weiter unten näher beschriebenen Sender- und Empfängermodul.
  • Das Sensorsystem kann so konfiguriert werden, dass es eine mit den Sensordaten verbundene Datenverarbeitungscharakteristik anpasst, wie z.B. in Bezug auf 162A bis 164D beschrieben. Als Beispiel kann das Sensorsystem so konfiguriert werden, dass es eine Auflösung und/oder eine Bildrate der Sensordaten anpasst. Das Sensorsystem kann so konfiguriert werden, dass es dem Datenkomprimierungsmodul die Sensordaten mit der angepassten Auflösung und/oder der angepassten Bildrate zur Verfügung stellt, z.B. für eine verlustfreie Datenkomprimierung. Zur Veranschaulichung: Das Sensorsystem kann so konfiguriert werden, dass es die Relevanz verschiedener Teile des Sichtfeldes bestimmt (z.B. auswertet). Das Sensorsystem kann so konfiguriert werden, dass es jedem Teil ein entsprechendes Datenverarbeitungsmerkmal zuweist. Beispielsweise kann das Sensorsystem so konfiguriert werden, dass es einen oder mehrere Teile des Sichtfelds bestimmt, die mit höherer (oder niedrigerer) Auflösung und/oder höherer (oder niedrigerer) Bildrate verarbeitet werden sollen (z. B. können Teile, die sicherheitskritische Objekte aufweisen, mit höheren Datenverarbeitungseigenschaften verarbeitet werden, z. B. mit einer niedrigeren Kompressionsrate).
  • In verschiedenen Ausführungsformen kann das Sensorsystem einen Speicher aufweisen (auch als Zwischenspeicher, Datenzwischenspeicher oder Speicher zur Datenzwischenspeicherung bezeichnet). Der Speicher kann mindestens einen Teil der Sensordaten, die nicht in den komprimierten Sensordaten aufweisen sind, speichern (z.B. kann er zum Speichern konfiguriert oder zum Speichern verwendet werden) (zur Veranschaulichung: ein zweiter Teil, der sich vom ersten Teil unterscheidet, z.B. ein Teil der unkomprimierten Sensordaten, auch als nicht komprimierte Sensordaten bezeichnet). Zusätzlich oder alternativ kann der Speicher zumindest einen Teil der komprimierten Sensordaten speichern. Der Speicher kann Datenelemente (z.B. Datenblöcke) speichern, die vor, während oder nach der Datenkomprimierung aus dem ursprünglichen Datenstrom extrahiert wurden. Illustrativ kann der Speicher einen Teil der rohen (z.B. unkomprimierten) Sensordaten und/oder einen Teil der vorkomprimierten Sensordaten und/oder einen Teil der Sensordaten speichern, die durch das Datenkomprimierungsmodul komprimiert, aber nicht in den komprimierten Sensordaten aufweisen sind, z.B. nicht in den Daten aufweisen sind, die an eine Datenverarbeitungsseite des Sensorsystems geliefert werden (z.B. an die Sensor-Fusion-Box). Im Gegensatz zu einem herkömmlichen Komprimierungsverfahren können die extrahierten Daten (z.B. vorübergehend) im Zwischenspeicher gespeichert werden (zur Veranschaulichung, anstatt verworfen zu werden). Solche extrahierten Daten können z.B. redundante, nicht relevante oder weniger relevante Datenelemente aufweisen. Nur als Beispiel kann jeder zweite Datenpunkt einer 3D-Punktewolke extrahiert und im Zwischenspeicher gespeichert werden. Dadurch kann der Datenstrom, der weiterverarbeitet werden soll, z.B. um den Faktor zwei reduziert werden. Beispielsweise kann der Speicher im Sensormodul umfasst sein (z.B. kann jedes Sensormodul einen entsprechenden Datenzwischenspeicher aufweisen). Als weiteres Beispiel kann der Speicher kommunikativ mit dem Sensormodul gekoppelt sein (z.B. mit einem oder mehreren Sensormodulen, z.B. mit jedem Sensormodul), d.h. der Speicher kann außerhalb des Sensormoduls liegen.
  • Der Datenzwischenspeicher kann ein eigenständiges Speichergerät sein (z.B. für die Zwischenspeicherung von Daten). Zum Beispiel kann der Speicher ein nichtflüchtiger Speicher sein oder einen nichtflüchtigen Speicher aufweisen. Als weiteres Beispiel kann der Speicher ein flüchtiger Speicher sein oder einen flüchtigen Speicher aufweisen. Alternativ kann der Speicher ein dedizierter Teil eines größeren Speichergeräts sein, der von einem Speichergerät bereitgestellt wird (z.B. für die Verarbeitung des ursprünglichen Sensordatenstroms). Das Sensorsystem (z.B. ein oder mehrere Prozessoren oder ein Sender- und Empfängermodul, das weiter unten näher beschrieben wird) kann so konfiguriert werden, dass die tatsächlich nutzbare Speicherkapazität der größeren Speichereinheit für die Zwischenspeicherung von Daten vordefiniert oder festgelegt wird (z.B. welcher Teil der Speichereinheit für die Zwischenspeicherung von Daten vorgesehen ist).
  • Als Beispiel kann der Speicher ein Ringspeicher sein. Der Zwischenpuffer des Datenzwischenspeichers kann nach einem so genannten Ringpuffer (auch als Umlaufpuffer oder Umlaufwarteschlange bezeichnet) organisiert sein. Eine solche Organisation kann eine Datenstruktur mit einem einzigen Speicherbereich mit einer festen oder einstellbaren Speichergröße bereitstellen. In einer solchen Konfiguration kann der Betrieb des Speichers auf einem First-in-First-out-Konzept basieren. Zur Veranschaulichung: Daten (z.B. Sensordaten) können anschließend im Ringpuffer aufgezeichnet werden. Sobald der Speicherbereich vollständig mit Daten gefüllt ist, können die Teile der Daten, die zuerst in den Puffer gelangt sind, überschrieben werden. Basierend auf der Speicherdimension (z.B. der Speicherkapazität des Ringspeichers) und der Datenmenge, die typischerweise in den Ringpuffer gelangen, kann die Retentionszeit (z.B. eine Zeiteinstellung) eines typischen Datensatzes berechnet werden. Der Ringspeicher kann z.B. eine Speicherkapazität von mindestens 10 MB, z.B. 1 GB, haben.
  • In verschiedenen Ausführungsformen können den Sensordaten Identifikationsinformationen zugeordnet werden (z.B. die komprimierten Daten und die extrahierten unkomprimierten und/oder komprimierten Daten). Das Sensorsystem kann so konfiguriert werden, dass es den komprimierten Sensordaten und den extrahierten Daten (z.B. den komprimierten oder unkomprimierten Daten) eine Kennung zuordnet. Veranschaulichend kann das Sensorsystem so konfiguriert werden, dass es eine Kennung mit dem Teil der Sensordaten, der in den komprimierten Sensordaten umfasst ist (z.B. den komprimierten Sensordaten, die an die Datenverarbeitungsseite geliefert und/oder an den Speicher geliefert werden sollen), und mit dem Teil der Sensordaten, der nicht in den komprimierten Sensordaten umfasst ist (z.B. mit dem unkomprimierten Teil, der im Speicher gespeichert ist, z.B. mit den unkomprimierten Sensordaten, die an die Datenverarbeitungsseite geliefert werden, wie weiter unten näher beschrieben), verknüpft. Der Bezeichner kann z.B. einen Zeitstempel aufweisen (z.B. zur Beschreibung eines absoluten oder relativen Zeitpunkts, zu dem die Sensordaten erzeugt wurden). Der Bezeichner kann als weiteres Beispiel einen sensorspezifischen oder sensormodulspezifischen Code aufweisen, der den Sensor oder das Sensormodul identifiziert, der bzw. das die Daten geliefert hat. Die extrahierten Daten können mit dem zugehörigen Identifikator gespeichert werden.
  • Wenn beispielsweise ein verlustbehafteter Kompressionsalgorithmus implementiert ist, kann ein Differenzwert berechnet werden. Ein solcher Differenzwert kann die Rekonstruktion und Neukodierung des ursprünglichen Datensatzes ermöglichen, falls der Differenzwert zum komprimierten Datensatz (z.B. zu den entsprechenden komprimierten Sensordaten) hinzugefügt wird. Der Differenzwert kann extrahiert und im Datenzwischenspeicher zusammen mit der Kennung der jeweiligen komprimierten Sensordaten (z.B. mit den zugehörigen Zeitstempeln und/oder eindeutigen Identifizierungskennzeichen) gespeichert werden. Der Differenzwert kann auf Anfrage zur Rekonstruktion des Originaldatensatzes verwendet werden (z.B. kann er Teil der Antwort auf die Anfrage eines oder mehrerer Prozessoren sein, wie weiter unten näher beschrieben wird). Alternativ kann der Differenzwert freigegeben (z.B. gelöscht) werden, falls er nicht mehr relevant ist, wie weiter unten näher beschrieben wird. Diese Komprimierungs- und Rekonstruktionsmethode kann eine flexible Lösung mit guter Wiedergabetreue für anschließend neu komprimierte Daten (z.B. neu komprimierte Daten) bieten und somit die Verarbeitungs- und Vorhersagegenauigkeit auf der Ebene der Sensorfusion erhöhen.
  • In verschiedenen Ausführungsformen kann das Sensorsystem eine bidirektionale Kommunikationsschnittstelle beinhalten, zum Beispiel eine Ethernet-basierte Kommunikationsschnittstelle (z.B. basierend auf einer Hochgeschwindigkeits-Ethernet-Verbindung). Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert sein, dass sie die komprimierten Sensordaten bereitstellt (z.B. können die komprimierten Sensordaten oder zumindest ein Teil der komprimierten Sensordaten über die bidirektionale Kommunikationsschnittstelle übertragen werden, z.B. an einen oder mehrere Prozessoren, wie weiter unten näher beschrieben). Illustrativ können die komprimierten Sensordaten (z.B. der komprimierte Teil der ursprünglichen Datensätze, illustrativ ohne die extrahierten Daten) über die bidirektionale Kommunikationsschnittstelle bereitgestellt werden (z.B. können sie an ein Sender- und Empfängermodul übertragen und vom Sender- und Empfängermodul übermittelt werden). Die komprimierten Sensordaten können über die bidirektionale Kommunikationsschnittstelle bereitgestellt werden, nachdem die (z.B. verlustbehaftete) Datenkompression durchgeführt wurde und nachdem die extrahierten Datenteile im Datenzwischenspeicher abgelegt wurden.
  • Zusätzlich oder alternativ kann die bidirektionale Kommunikationsschnittstelle so konfiguriert werden, dass sie unkomprimierte Sensordaten liefert. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie Sensordaten überträgt, die nicht durch das Datenkomprimierungsmodul komprimiert wurden (z.B. Rohdaten von einem Sensor oder unkomprimierte Sensordaten, die im Zwischenspeicher gespeichert sind).
  • Die bidirektionale Kommunikationsschnittstelle kann eine Kommunikationsschnittstelle zwischen der Sensorseite (z.B. dem Sensormodul, dem Datenkomprimierungsmodul und dem Speicher) und einer Datenverarbeitungsseite (z.B. dem einen oder mehreren Prozessoren) des Sensorsystems darstellen. Die bidirektionale Kommunikationsschnittstelle kann mindestens einen Sender und mindestens einen Empfänger umfassen. Als Beispiel kann die bidirektionale Kommunikationsschnittstelle ein erstes Sender- und Empfängermodul umfassen (z.B. im Sensormodul aufweisen oder mit dem Sensormodul verbunden, z.B. mit der Sensorseite). Die bidirektionale Kommunikationsschnittstelle kann ein zweites Sender- und Empfängermodul umfassen (z.B. in Verbindung mit einem oder mehreren Prozessoren, illustrativ in Verbindung mit der Verarbeitungsseite, z.B. einem Fahrzeug-Sender- und -Empfängermodul). Illustrativ kann die bidirektionale Kommunikationsschnittstelle ein Sender- und Empfängermodul auf der Sensorseite und ein Sender- und Empfängermodul auf der Datenverarbeitungsseite umfassen.
  • Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie eine Anforderung zur Bereitstellung zusätzlicher Sensordaten empfängt. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie eine Anforderung zur weiteren Bereitstellung zumindest eines Teils der Sensordaten empfängt, die nicht in den (z.B. bereitgestellten) unkomprimierten und/oder komprimierten Sensordaten aufweisen sind und die im Speicher gespeichert sind. Zusätzlich oder alternativ kann die bidirektionale Kommunikationsschnittstelle so konfiguriert werden, dass sie eine Anforderung zur weiteren Bereitstellung zumindest eines Teils der komprimierten Sensordaten empfängt, die im Speicher gespeichert sind (z.B. ein Teil der komprimierten Sensordaten, der noch nicht bereitgestellt oder an die Datenverarbeitungsseite geliefert wurde). Als Beispiel kann die bidirektionale Kommunikationsschnittstelle im Sensormodul umfasst sein (z.B. kann jedes Sensormodul ein entsprechendes Sender- und Empfängermodul aufweisen). Als weiteres Beispiel kann die bidirektionale Kommunikationsschnittstelle (z.B. das Sender- und Empfängermodul) kommunikativ mit dem Sensormodul gekoppelt sein (z.B. mit einem oder mehreren Sensormodulen, z.B. mit jedem Sensormodul), d.h. das Sender- und Empfängermodul kann außerhalb des Sensormoduls liegen.
  • In verschiedenen Ausführungsformen kann die bidirektionale Kommunikationsschnittstelle so konfiguriert werden, dass sie die den unkomprimierten und/oder komprimierten Sensordaten zugeordnete Kennung zur Verfügung stellt (z.B. zur Übertragung der komprimierten Sensordaten und der zugehörigen Kennung, z.B. an die Datenverarbeitungsseite, und/oder zur Übertragung der unkomprimierten Sensordaten und der zugehörigen Kennung). Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie die dem Sensormodul zugeordnete Kennung bereitstellt (z.B. zur Übertragung der den Sensordaten zugeordneten Kennung, z.B. komprimiert oder unkomprimiert, die im Speicher abgelegt sind). Illustrativ können die Datenstrompakete im Sender- und Empfängermodul kodiert werden, z.B. mit zugehörigen Zeitstempeln oder anderweitig eindeutigen Identifizierungskennzeichen.
  • In verschiedenen Ausführungsformen kann das Sensorsystem einen oder mehrere Prozessoren (z.B. ein Datenverarbeitungssystem) aufweisen, z.B. auf der Seite der Datenverarbeitung. Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie Daten verarbeiten, z.B. Sensordaten (z.B. komprimierte Sensordaten und/oder unkomprimierte Sensordaten). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie komprimierte Sensordaten verarbeiten, die vom Sensormodul bereitgestellt werden (z.B. komprimierte Sensordaten, die mit dem Sensormodul verbunden sind, z.B. komprimierte Sensordaten, die mit Sensordaten verbunden sind, die vom Sensormodul bereitgestellt werden). Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie vom Sensormodul gelieferte unkomprimierte Sensordaten verarbeiten. Zum Beispiel können der eine oder die mehreren Prozessoren mit einer Sensor-Fusionsbox (z.B. des Fahrzeugs) verbunden (oder in einer solchen aufweisen) sein. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die komprimierten Sensordaten (und/oder unkomprimierte Sensordaten oder andere Sensordaten) über die bidirektionale Kommunikationsschnittstelle empfangen (z.B. über das Sender- und Empfängermodul des Fahrzeugs, in dem die Daten dekodiert und an die Sensor-Fusion-Box übertragen werden können).
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie weitere Daten verarbeiten, z.B. Fahrzeug-zu-Fahrzeug (V2V)-Daten, Fahrzeug-zu-Infrastruktur (V2l)-Daten, Global Positioning (GNSS/GPS)-Daten oder Inertial Measurement Sensor (IMU)-Daten. Zur Veranschaulichung: Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie (z.B. weitere) Sensordaten verarbeiten, die von mindestens einem weiteren Sensormodul (z.B. von mehreren weiteren Sensormodulen) bereitgestellt werden. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die komprimierten Sensordaten in Kombination mit den weiteren Sensordaten (z.B. weitere Sensorrohdaten, z.B. weitere unkomprimierte Sensordaten oder weitere komprimierte Sensordaten) verarbeiten. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die unkomprimierten Sensordaten in Kombination mit den weiteren Sensordaten verarbeiten.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert sein, dass sie verschiedene Arten der Datenverarbeitung implementieren (z.B. einschließlich Methoden der künstlichen Intelligenz und/oder Methoden des maschinellen Lernens). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Daten verarbeiten, um ein Szenenverständnis zu ermöglichen (z.B. eine Analyse der Umgebung des Fahrzeugs). Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert sein, dass sie einen oder mehrere Objekterkennungsprozesse implementieren (z.B. die Bereitstellung einer Liste von einem oder mehreren Objekten mit einer oder mehreren damit verbundenen Eigenschaften). Als weiteres Beispiel können der eine oder die mehreren Prozessoren konfiguriert werden, um einen oder mehrere Objektklassifizierungsprozesse zu implementieren (z.B. Bereitstellung einer Liste von klassifizierten Objekten, z.B. eine Liste von Objekten mit einer Klasse oder einem Typ, die damit verbunden sind; illustrativ kann jedes Objekt eine Klasse oder einen Typ haben, die bzw. der damit verbunden ist, wie z.B. Auto, Lastwagen, Fahrrad, Fußgänger und dergleichen). Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere Objektverfolgungsprozesse implementieren (z.B. die Bereitstellung einer Liste von Objekten mit einer Kennung und/oder einer Geschwindigkeit und/oder einer Bewegungsrichtung, die damit verbunden sind).
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie bestimmen, ob einige zusätzliche Daten, die sich auf die (z.B. empfangenen) komprimierten Sensordaten beziehen, angefordert werden sollen (z.B. vom Sensormodul, z.B. vom Speicher). Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren konfiguriert werden, um zu bestimmen, ob einige zusätzliche Daten bezüglich der (z.B. empfangenen) unkomprimierten Sensordaten angefordert werden sollen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob einige zusätzliche Daten, die sich auf die vom Sensormodul gelieferten Sensordaten beziehen, angefordert werden sollen (z.B. aus dem Speicher abgerufen). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können konfiguriert werden, um zu bestimmen, ob zusätzliche Daten in Bezug auf die empfangenen (unkomprimierten und/oder komprimierten) Sensordaten angefordert werden sollen (z.B. in Bezug auf die Sensordaten, die dem einen oder den mehreren Prozessoren zur Verfügung gestellt werden). Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie bestimmen, dass zusätzliche Daten in Bezug auf die unkomprimierten und/oder komprimierten Sensordaten angefordert werden sollten, falls der eine oder die mehreren Prozessoren eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen der Datenverarbeitung einschließlich (zumindest teilweise) der unkomprimierten und/oder komprimierten Sensordaten feststellen, wie weiter unten näher beschrieben. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob zusätzliche Daten in Bezug auf die komprimierten Sensordaten und/oder die unkomprimierten Sensordaten unter Berücksichtigung der weiteren Sensordaten angefordert werden sollen (z.B. Vergleich der mit den unkomprimierten und/oder komprimierten Sensordaten erhaltenen Ergebnisse mit den mit den weiteren Sensordaten erhaltenen Ergebnissen). Illustrativ kann der eine oder mehrere Prozessoren konfiguriert werden, um zu bestimmen, ob zusätzliche Daten, die sich auf die komprimierten Sensordaten und/oder auf die unkomprimierten Sensordaten beziehen, basierend auf den komprimierten Sensordaten und/oder den unkomprimierten Sensordaten und den vom weiteren Sensormodul gelieferten Sensordaten angefordert werden sollen.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie feststellen, ob in den Ergebnissen mindestens eines der oben beschriebenen Prozesse eine Inkonsistenz oder Mehrdeutigkeit vorliegt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen eines Prozesses vorliegt, der zumindest teilweise unter Verwendung der unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde (z.B. in Kombination mit Sensordaten, die vom weiteren Sensormodul geliefert wurden). Eine Inkonsistenz kann z.B. eine Differenz zwischen den Ergebnissen eines Prozesses, der mit den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, und den Ergebnissen eines Prozesses, der mit den weiteren Sensordaten durchgeführt wurde, sein (z.B. ein Objekt ist vorhanden und nicht vorhanden, ein Objekt ist groß und klein, ein Objekt ist in Bewegung oder nicht in Bewegung und ähnliches). Eine Inkonsistenz kann, als ein weiteres Beispiel, ein Unterschied zwischen einem Genauigkeitsniveau (z.B. einem Vertrauensniveau, wie z.B. einem Erkennungs-Vertrauensniveau oder einem Klassifizierungs-Vertrauensniveau, beschrieben z.B. in Bezug auf 162A bis 164E), das durch die Verarbeitung der unkomprimierten und/oder komprimierten Sensordaten erhalten wurde, und einem vordefinierten Genauigkeitsniveau (z.B. einem Schwellen-Genauigkeitsniveau, z.B. einem Schwellen-Vertrauensniveau) sein.
  • Der eine oder die mehreren Prozessoren können beispielsweise so konfiguriert werden, dass sie feststellen, ob eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen mindestens eines Objekterkennungsprozesses vorliegt, der zumindest teilweise an (oder mit) den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde. Als weiteres Beispiel können der eine oder die mehreren Prozessoren konfiguriert werden, um zu bestimmen, ob eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen mindestens eines Objektklassifikationsprozesses vorliegt, der zumindest teilweise an (oder mit) den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde. Als weiteres Beispiel können der eine oder die mehreren Prozessoren konfiguriert werden, um zu bestimmen, ob eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen von mindestens einem Objektverfolgungsprozess vorliegt, der zumindest teilweise an (oder mit) den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, angefordert werden sollten, falls eine Inkonsistenz oder Mehrdeutigkeit festgestellt wird. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie feststellen, dass die bereitgestellten Daten (z.B. unkomprimierte und/oder komprimierte Sensordaten) nicht ausreichen, um einen vordefinierten Genauigkeitsgrad zu erreichen (z.B. eines Objekterkennungsprozesses, eines Objektklassifizierungsprozesses oder eines Objektverfolgungsprozesses).
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie die Anforderung erzeugen, zumindest einen Teil der Sensordaten, die nicht in den bereitgestellten komprimierten Sensordaten aufweisen sind, weiter zu liefern und die Anforderung an das Sensormodul zu übermitteln (z.B. über die dem Sensormodul zugeordnete bidirektionale Kommunikationsschnittstelle), falls festgestellt wurde, dass einige zusätzliche Daten im Zusammenhang mit den komprimierten Sensordaten angefordert werden sollen (z.B. vom Sensormodul). Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Anforderung erzeugen, zumindest einen Teil der Sensordaten, die nicht in den bereitgestellten unkomprimierten Sensordaten aufweisen sind, weiter zu liefern und die Anforderung an das Sensormodul zu übermitteln, falls festgestellt wurde, dass einige zusätzliche Daten in Bezug auf die unkomprimierten Sensordaten angefordert werden sollten. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Anforderung über die bidirektionale Kommunikationsschnittstelle (z.B. mit diesem Sensormodul verbunden oder darin aufweisen) übertragen, so dass zusätzliche Daten (z.B. komprimiert oder nicht komprimiert), die vom Sensormodul bereitgestellt werden, aus dem Datenzwischenspeicher abgerufen werden können. Die bidirektionale Kommunikationsschnittstelle kann für den Empfang der Anforderung konfiguriert werden. Die bidirektionale Kommunikationsschnittstelle kann ferner so konfiguriert werden, dass sie die Kennung empfängt (z.B. in Verbindung mit den bereitzustellenden Sensordaten, die z.B. abgerufen werden sollen). Bei den zusätzlichen Daten kann es sich beispielsweise um Rohdaten handeln (z.B. unkomprimierte Sensordaten). Als weiteres Beispiel können die zusätzlichen Daten vorkomprimierte Sensordaten sein, wie weiter unten näher beschrieben. Bei den zusätzlichen Daten kann es sich auch um weniger komprimierte Daten handeln (z.B. Daten, die mit einer geringeren Kompressionsrate komprimiert wurden). Ein weiteres Beispiel: Bei den zusätzlichen Daten kann es sich um Daten handeln, die vom Komprimierungsmodul in einem vorhergehenden Komprimierungsschritt extrahiert wurden (z.B. Differenzwerte). Das Sensormodul kann so konfiguriert werden, dass es die zusätzlichen Daten nach Erhalt der Anforderung bereitstellt. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die zusätzlichen Daten nach Erhalt der Anforderung bereitstellt, z.B. um die zusätzlichen Sensordaten aus dem Speicher abzurufen und zusätzliche unkomprimierte und/oder komprimierte Sensordaten bereitzustellen.
  • Im Beispielfall können alle Datenströme (z.B. identifizierbar z.B. über sensorspezifische Identifikations-Tags/Codes und Zeitstempel) in der Sensor-Fusionsbox zusammenlaufen und z.B. im Hinblick auf Objekterkennung und -klassifikation weiterverarbeitet werden. Die Verarbeitung kann z.B. (z.B. erweiterte) Methoden der Künstlichen Intelligenz (KI) und des Maschinellen Lernens (ML) beinhalten oder anwenden. Die Sensorfusionsbox (z.B. ein Steuersystem der Sensorfusionsbox) kann einen Befehl senden (z.B. über das Sender- und Empfängersystem des Fahrzeugs), um das Senden aller oder eines Teils der im Datenzwischenspeicher gespeicherten extrahierten Daten anzufordern, falls Dateninkonsistenzen oder Mehrdeutigkeiten erkannt werden (z.B. falls die Sensorfusionsbox die Zieleinstellungen nicht erreicht hat). Die angeforderten Daten können zu einem bestimmten Zeitstempel, einem Intervall von Zeitstempeln oder eindeutigen Identifikationsmerkmalen gehören (z.B. mit einer Blockkettentechnik kodiert sein). Der Befehl kann von der mit dem Sensormodul verbundenen bidirektionalen Kommunikationsschnittstelle empfangen und an den Datenzwischenspeicher weitergeleitet werden. Die entsprechenden Daten können lokalisiert und an die Sensor-Fusionsbox übertragen werden.
  • In verschiedenen Ausführungsformen kann das oben beschriebene Verfahren mit einem bereits komprimierten Datensatz (aus Rohdaten) durchgeführt werden. In einem ersten Schritt können alle Sensordaten komprimiert werden. Nur bestimmte komprimierte Datenpunkte oder Datensätze (z.B. ein Teil der komprimierten Sensordaten, z.B. 50% der Datenpunkte oder Datensätze) dürfen in den Zwischenspeicher übertragen werden. Die anderen komprimierten Datensätze (z.B. der restliche Teil der komprimierten Sensordaten) können über die bidirektionale Kommunikationsschnittstelle bereitgestellt werden (z.B. Übertragung an das Sender- und Empfängermodul). Diese Methode kann eine flexible Lösung mit guter Datentreue für nachfolgend komprimierte Daten und minimalen Verarbeitungsanforderungen auf der Sensorseite bieten.
  • In verschiedenen Ausführungsformen kann der Speicher die Sensordaten speichern. So kann z.B. der komplette Satz von Sensordaten im Zwischenspeicher gespeichert sein (z.B. kann der Originaldatensatz vollständig in einem solchen Speicher abgelegt sein). Die vom Sensormodul gelieferten Rohdaten und/oder vorkomprimierten Daten (die z.B. von einem Sensor des Sensormoduls erzeugt und illustrativ als generische Sensordaten betrachtet werden) können (z.B. alle) in den Datenzwischenspeicher übertragen werden.
  • Das Datenkomprimierungsmodul kann weiter konfiguriert werden, um die im Speicher gespeicherten Sensordaten mit unterschiedlichen Kompressionsraten zu komprimieren. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es erste komprimierte Sensordaten mit einer ersten Kompressionsrate und zweite komprimierte Sensordaten mit einer zweiten Kompressionsrate (z. B. niedriger als die erste Kompressionsrate) erzeugt. Als Beispiel kann das Datenkomprimierungsmodul weiter konfiguriert werden, um die im Speicher gespeicherten Sensordaten mit verschiedenen Komprimierungsalgorithmen zu komprimieren. Illustrativ kann das Datenkomprimierungsmodul so konfiguriert werden, dass es erste komprimierte Sensordaten unter Verwendung eines ersten Kompressionsalgorithmus und zweite komprimierte Sensordaten unter Verwendung eines zweiten Kompressionsalgorithmus erzeugt (z.B. mit einer niedrigeren Kompressionsrate als der erste Kompressionsalgorithmus, z.B. kann der erste Kompressionsalgorithmus ein verlustbehafteter Kompressionsalgorithmus und der zweite Kompressionsalgorithmus ein verlustfreier Kompressionsalgorithmus sein). Als Beispiel kann eine Kompression von Wellenformparametern von LIDAR-Daten mit unterschiedlichen Kompressionsraten für solche Zwecke verwendet werden.
  • Das Datenkomprimierungsmodul kann ferner so konfiguriert werden, dass es die im Speicher gespeicherten Sensordaten nach Erhalt der Anforderung mit unterschiedlichen Kompressionsraten (z. B. unter Verwendung der zweiten Kompressionsrate) komprimiert. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie die Anforderung zusätzlicher Daten an das Datenkomprimierungsmodul liefert, um Sensordaten zu liefern, die mit einer anderen (z.B. niedrigeren) Kompressionsrate komprimiert wurden.
  • Beispielsweise kann der Originaldatensatz mit einer hohen Kompressionsrate komprimiert werden (z.B. mit einem Algorithmus mit einer hohen Kompressionsrate). Der hochkomprimierte Datensatz kann einem oder mehreren Prozessoren (zur Veranschaulichung der Datenverarbeitungsseite) zur Verfügung gestellt werden. Der ursprüngliche Datensatz kann sich noch im Speicher befinden. Falls der eine oder die mehreren Prozessoren unter Verwendung der hochkomprimierten Sensordaten ihr Ziel erreichen (z.B. eindeutige Objekterkennung, Erkennung und semantische Szeneninterpretation), können die Originaldatensätze aus dem Zwischenspeicher gelöscht werden. Falls der eine oder die mehreren Prozessoren ihre Aufgabe nicht erfolgreich abschließen, kann ein Triggersignal an den Zwischenspeicher ausgegeben werden, um den Originaldatensatz freizugeben (z.B. um den Originaldatensatz für das Datenkomprimierungsmodul verfügbar zu machen). Ein weiteres Triggersignal kann über die bidirektionale Kommunikationsschnittstelle (z.B. durch das Sender- und Empfängermodul) ausgegeben werden, um einen Komprimierungsalgorithmus mit einer niedrigeren Kompressionsrate auf die Originaldatensätze anzuwenden. Der neu komprimierte Datensatz kann dann verwendet (und an einen oder mehrere Prozessoren übertragen) werden, während die ursprünglichen Daten im Zwischenspeicher verbleiben. Dieses Verfahren kann mit weiteren Algorithmen mit anschließend niedrigeren Datenkompressionsraten wiederholt werden, bis schließlich der ursprüngliche Datensatz freigegeben werden kann (z.B. bis der eine oder die mehreren Prozessoren ihr Ziel erreichen). Alternativ kann der Originaldatensatz bereits beim Empfang einer ersten Anforderung oder eines ersten Triggersignals übertragen werden.
  • Diese Methode kann als „Kompression auf Anforderung“ beschrieben werden. Ein solches Verfahren kann z.B. eine hohe Flexibilität und hohe Datentreue für die anschließend komprimierten Daten bieten. Darüber hinaus kann das Verfahren vergleichsweise geringe Anforderungen an die Verarbeitungsmöglichkeiten auf der Sensorseite stellen.
  • In verschiedenen Ausführungsformen kann das Sensorsystem ein weiteres Datenkompressionsmodul aufweisen. Das weitere Datenkomprimierungsmodul kann so konfiguriert werden, dass es die vom Sensormodul gelieferten Sensordaten komprimiert, um vorkomprimierte Sensordaten zu erzeugen. Zur Veranschaulichung: Die Sensordaten (z.B. die Sensor-Rohdaten (generische Daten), die z.B. vom Sensor erzeugt werden) können durch das weitere Datenkomprimierungsmodul verarbeitet werden, bevor sie in den Datenzwischenspeicher übertragen (und dort gespeichert) werden. Das weitere Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine hochauflösende Datenkomprimierung durchführt, z.B. eine Datenkomprimierung, die komprimierte Daten mit einem hohen Qualitätsniveau erzeugt. Als Beispiel kann das weitere Datenkomprimierungsmodul so konfiguriert werden, dass es einen verlustfreien Datenkomprimierungsalgorithmus implementiert.
  • Der Zwischenspeicher kann die vorkomprimierten Sensordaten speichern. Die Vorkomprimierung der Rohdaten vor dem Datenspeicherungsprozess kann den Effekt haben, dass geringere Anforderungen an die Datenspeicherfähigkeiten (Speichergröße) auf der Sensorseite gestellt werden.
  • Das Datenkomprimierungsmodul kann so konfiguriert werden, dass zumindest ein Teil der vorkomprimierten Sensordaten- dekomprimiert wird (z. B. zur Dekodierung der hochauflösenden Daten), um dekomprimierte Sensordaten zu liefern. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die dekomprimierten Sensordaten bereitstellt (z.B. zumindest einen Teil der dekomprimierten Sensordaten). Als Beispiel kann das Datenkomprimierungsmodul so konfiguriert werden, dass es zumindest einen Teil der vorkomprimierten Sensordaten dekomprimiert und den dekomprimierten Teil komprimiert, um andere komprimierte Sensordaten zu erzeugen (z.B. zweite komprimierte Sensordaten). Illustrativ kann das Datenkomprimierungsmodul so konfiguriert werden, dass es die vorkomprimierten Sensordaten (z.B. die dekomprimierten Sensordaten) mit einer höheren oder niedrigeren Datenkomprimierungsrate rekomprimiert, um rekomprimierte Sensordaten zu erzeugen. Als Beispiel kann das Datenkomprimierungsmodul so konfiguriert werden, dass es die Sensordaten (z.B. die vorkomprimierten oder dekomprimierten) unter Verwendung eines anderen Komprimierungsalgorithmus in Bezug auf das weitere Datenkomprimierungsmodul (z.B. ein Algorithmus mit einer höheren Komprimierungsrate, z.B. ein verlustbehafteter Komprimierungsalgorithmus) rekomprimiert. Weiter veranschaulichend kann es sich bei den dekomprimierten Sensordaten um komprimierte Sensordaten handeln oder komprimierte Sensordaten aufweisen, die mit einer anderen (z.B. höheren oder niedrigeren) Kompressionsrate in Bezug auf die vorkomprimierten Sensordaten komprimiert wurden. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die rekomprimierten Sensordaten liefert (z.B. zumindest einen Teil der rekomprimierten Sensordaten). Zusätzlich oder alternativ kann das Datenkomprimierungsmodul so konfiguriert werden, dass es zumindest einen Teil der vorkomprimierten Sensordaten überträgt (z.B. Dekomprimierung und Bereitstellung eines Teils der vorkomprimierten Sensordaten, ohne die Daten neu zu komprimieren).
  • Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine Anforderung zur weiteren Bereitstellung zumindest eines Teils der vorkomprimierten Sensordaten empfängt, die nicht in den (z.B. bereitgestellten) dekomprimierten oder rekomprimierten Sensordaten aufweisen sind und die im Speicher abgelegt sind.
  • Diese Konfiguration kann eine Verfeinerung des oben beschriebenen Kompressions-on-Demand-Verfahrens darstellen.
  • In verschiedenen Ausführungsformen kann eine Multiauflösungstechnik eingesetzt werden. Ein Multiauflösungsverfahren kann ein Kompressionsverfahren sein, bei dem ein Rohdatensatz durch einen Kompressionsalgorithmus so verarbeitet wird, dass mehrere komprimierte Datensätze erzeugt werden können (z.B. mehrere Sätze von komprimierten Sensordaten aus denselben Sensor-Rohdaten). Die mehreren komprimierten Datensätze können sich in Bezug auf das Niveau der Datenqualität (z.B. Datenauflösung, Datenverlust usw.) voneinander unterscheiden.
  • Der Datenzwischenspeicher kann die Vielzahl von komprimierten Datensätzen speichern (z.B. für die Zwischenspeicherung von Multiauflösungsdaten). Beispielsweise kann das Datenkomprimierungsmodul so konfiguriert werden, dass es drei komprimierte Datensätze (z.B. drei Sätze von komprimierten Sensordaten) mit niedriger, mittlerer bzw. hoher Datenauflösung bereitstellt. Die drei komprimierten Datensätze können im Speicher gespeichert werden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen (oder mehrere) der komprimierten Sensordatensätze entsprechend einer oder mehreren Verarbeitungsanforderungen anfordern, z. B. entsprechend einem erforderlichen Niveau der Datenqualität.
  • In verschiedenen Ausführungsformen kann das Datenkomprimierungsmodul so konfiguriert werden, dass es komprimierte Sensor-Zwischendaten liefert. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine Sequenz von komprimierten Zwischensensordaten liefert, die jeweils mit einer höheren Komprimierungsrate im Vergleich zum vorhergehenden Satz von Sensordaten in der Sequenz komprimiert sind. Zur Veranschaulichung: Der Komprimierungsalgorithmus kann so konfiguriert werden, dass Zwischenergebnisse der Komprimierung (z.B. komprimierte Datensätze mit einer niedrigen bis mittleren Komprimierungsrate) bei der Erzeugung eines Datensatzes mit einer hohen Datenkomprimierung erzeugt werden können.
  • Der Speicher kann die komprimierten Sensordaten zwischenspeichern (z.B. bis zur Erzeugung von komprimierten Sensordaten mit höchster Datenkompression). Zur Veranschaulichung: Die Ergebnisse der Zwischenkomprimierung können nach und nach im Datenzwischenspeicher gespeichert werden, bis ein Datensatz mit der höchsten mit dem zugehörigen Komprimierungsalgorithmus erreichbaren Datenkomprimierungsrate erzeugt werden kann. Der mit der höchsten Datenkompressionsrate erzeugte Datensatz kann im Speicher gespeichert werden. Dieses Verfahren kann als „progressive Datenkompression und Datenauslesung bei Bedarf“ beschrieben werden. Diese Methode kann zu einer Verringerung der Verarbeitungsleistung im Sensormodul führen, da Datensätze mit progressiv ansteigender Komprimierungsstufe in einem Durchgang erzeugt werden können, wobei die Zwischenergebnisse voll ausgenutzt werden. Die progressive Datenkomprimierung kann z.B. mittels einer progressiven Kodierungstechnik implementiert werden (wie sie z.B. bei der Kodierung von Punktwolkendaten verwendet wird).
  • In verschiedenen Ausführungsformen kann eine sukzessive Verfeinerungstechnik eingesetzt werden. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die Sensordaten in den nachfolgenden Schichten (zur Veranschaulichung: in nachfolgenden Prozessschritten) mit steigender Datenqualität komprimiert. Zur Veranschaulichung kann ein Datenkompressionsalgorithmus implementiert werden, bei dem die Punktwolke durch mehrere Schichten dargestellt werden kann. Ausgehend z.B. von einer Basisschicht mit einer vergleichsweise geringen Datenqualität (z.B. geringe Datenauflösung) kann jede weitere Schicht zu einer weiteren Verbesserung der Datenqualität (z.B. der Datenauflösung) führen. Der Datenzwischenspeicher kann solche (z.B. Zwischenschichten speichern. Diese Methode kann als „sukzessive Verfeinerung der Datenkompression und Auslesen bei Bedarf‟ beschrieben werden. Der Ansatz der sukzessiven Verfeinerungskomprimierung kann zu einer Reduzierung der Datenmenge führen, die vom Sensormodul an einen oder mehrere Prozessoren (z.B. an die Sensor-Fusion-Box) übertragen wird. Die sukzessive Verfeinerungsdatenkomprimierung kann z.B. durch Datenkomprimierungstechniken implementiert werden, die eine progressive Übertragung ermöglichen (z.B. unter Berücksichtigung des Beispiels der 3D-Punktwolkendaten).
  • In verschiedenen Ausführungsformen kann das Sensorsystem einen Speicher-Controller aufweisen. Der Speicher-Controller kann so konfiguriert werden, dass er einen Teil des Speichers entsprechend einer über die bidirektionale Kommunikationsschnittstelle empfangenen Anweisung löscht. Zur Veranschaulichung: Die extrahierten Daten können so lange gespeichert werden, bis ein Zeitpunkt erreicht ist, an dem die Daten nicht mehr benötigt werden. Beispielsweise können die extrahierten Daten veraltet sein und für die oben beschriebenen Prozesse (z.B. Objekterkennung, Szenenverständnis u.ä.) nicht mehr benötigt werden. Solche Daten können dann als nicht relevant betrachtet werden.
  • Der eine oder die mehreren Prozessoren (z.B. die Sensor-Fusion-Box) können einen Zeitpunkt definieren oder identifizieren, der mit einer positiven Erfüllung (z.B. einem Abschluss) eines Prozesses verbunden ist, der von dem einen oder den mehreren Prozessoren ausgeführt wird (z.B. eine positive Erfüllung der Sensordatenbehandlung, Objekterkennung, semantisches Szenenverständnis und ähnliches). Dieser Zeitpunkt kann ein Triggerpunkt sein oder darstellen, der dem Datenzwischenspeicher signalisiert, die gespeicherten, aber nicht mehr nützlichen oder benötigten Sensordaten (z.B. roh, komprimiert oder vorkomprimiert) freizugeben. Der Datenzwischenspeicher kann Sensordaten (z.B. komprimiert oder unkomprimiert) speichern, bis ein Freigabesignal oder ein Standard-Triggerbefehl bereitgestellt wird. Zum Beispiel kann zu diesem Zeitpunkt ein Freigabesignal erzeugt oder ausgelöst werden, um einen Löschbefehl auszulösen. Als weiteres Beispiel kann eine voreingestellte oder vorprogrammierte (z.B. einstellbare) Zeiteinstellung bereitgestellt werden (z.B. über die bidirektionale Kommunikationsschnittstelle), nach der der Löschbefehl automatisch durch einen voreingestellten Triggerbefehl ausgelöst werden kann. Zur Veranschaulichung: Die Zeiteinstellung kann eine maximale Zeitspanne definieren oder darstellen, für die Sensordaten im Zwischenspeicher gespeichert werden dürfen.
  • In verschiedenen Ausführungsformen kann das Sensorsystem eine oder mehrere zusätzliche Informationen aufweisen, die Schnittstellen und/oder Kommunikationsschnittstellen bereitstellen. Beispielsweise kann das Sensorsystem mindestens eine Schnittstelle für ein globales Positionsbestimmungssystem aufweisen, um globale Positionsbestimmungsinformationen zu empfangen (z.B. die Beschreibung einer Position des Fahrzeugs, z.B. GPS-Koordinaten des Fahrzeugs). Als weiteres Beispiel kann das Sensorsystem mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle aufweisen. Als weiteres Beispiel kann das Sensorsystem mindestens eine Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle aufweisen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Daten und/oder Informationen über solche zusätzlichen Schnittstellen empfangen (z.B. über das Fahrzeug-Sender- und Empfänger-Modul). Der eine oder die mehreren Prozessoren können so konfiguriert sein, daß sie die über solche Schnittstellen empfangenen Daten verarbeiten, z.B. um zu bestimmen, ob einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, auf der Grundlage der komprimierten Sensordaten und der über solche Schnittstellen empfangenen Daten angefordert werden sollen.
  • 165A bis 165C zeigen jeweils ein Sensorsystem 16500 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Sensorsystem 16500 kann ein Sensormodul 16502 aufweisen. Das Sensormodul 16502 kann so konfiguriert werden, dass es Sensordaten liefert. Zum Beispiel kann das Sensormodul 16502 einen Sensor 16504 aufweisen, der so konfiguriert ist, dass er ein Sensorsignal (z.B. eine Vielzahl von Sensorsignalen) erzeugt. Das Sensormodul 16502 kann so konfiguriert werden, dass es das (z.B. analoge) Sensorsignal in (z.B. digitale) Sensordaten umwandelt (z.B. kann das Sensormodul 16502 einen mit dem Sensor gekoppelten Analog-Digital-Wandler aufweisen).
  • Das Sensormodul 16502 kann von einem vordefinierten Sensortyp sein (z.B. kann ein Sensor 16504 eines vordefinierten Typs aufweisen). Das Sensormodul 16502 kann als ein Sensortyp konfiguriert werden, der aus einer Gruppe von Sensortypen ausgewählt wird, die einen LIDAR-Sensor, einen RADAR-Sensor, einen Kamerasensor, einen Ultraschallsensor und einen Trägheitsmesssensor enthält oder aus diesen besteht. Beispielsweise kann das Sensorsystem 16500 oder das Sensormodul 16502 als LIDAR-System konfiguriert sein oder konfiguriert werden, z.B. als LIDAR-Sensorsystem 10, und der Sensor 16504 kann als LIDAR-Sensor 52 konfiguriert sein oder konfiguriert werden.
  • Das Sensorsystem 16500 kann ein oder mehrere weitere Sensormodule 16502b aufweisen (z.B. eine Vielzahl weiterer Sensormodule 16502b). Das eine oder die mehreren weiteren Sensormodule 16502b können von einem vordefinierten Sensortyp sein (z.B. kann jedes weitere Sensormodul einen entsprechenden Sensor 16504b von einem vordefinierten Typ aufweisen). Zum Beispiel kann mindestens ein weiteres Sensormodul 16502b des einen oder der mehreren weiteren Sensormodule 16502b vom gleichen Sensortyp wie das Sensormodul 16502 sein (z.B. kann das Sensormodul 16502 ein erstes LIDAR-System sein und mindestens ein weiteres Sensormodul 16502b ein zweites LIDAR-System). Als weiteres Beispiel kann mindestens ein weiteres Sensormodul 16502b des einen oder der mehreren weiteren Sensormodule 16502b von einem anderen Sensortyp als das Sensormodul 16502 sein.
  • Das Sensorsystem 16500 kann ein Datenkomprimierungsmodul 16506 aufweisen. Das Datenkomprimierungsmodul 16506 kann zur Komprimierung von Daten (z.B. Sensordaten) konfiguriert werden. Zusätzlich oder alternativ kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es unkomprimierte oder vorkomprimierte Sensordaten überträgt. Zusätzlich oder alternativ kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es Daten überträgt und/oder dekomprimiert, wie weiter unten im Detail beschrieben. Zur Veranschaulichung: Das Datenkomprimierungsmodul 16506 kann eine oder mehrere Komponenten aufweisen, z.B. Hardwarekomponenten (z.B. einen oder mehrere Prozessoren), die so konfiguriert sind, dass sie Datenkomprimierung implementieren (z.B. zur Ausführung von Softwarebefehlen, die Datenkomprimierung bereitstellen).
  • Das Datenkomprimierungsmodul 16506 kann so konfiguriert werden, dass es Daten mit einer gewünschten Komprimierungsrate komprimiert, z. B. kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es unterschiedliche Komprimierungsalgorithmen (z. B. mit unterschiedlicher Komprimierungsrate) implementiert oder ausführt. Beispielsweise kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es Daten nach einem Mehrfachauflösungsverfahren oder einem Verfahren zur sukzessiven Verfeinerung komprimiert. Als weiteres Beispiel kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es mindestens einen verlustbehafteten Komprimierungsalgorithmus implementiert (z.B. zur Verwendung eines verlustbehafteten Komprimierungsalgorithmus zur Komprimierung der Sensordaten oder eines Teils der Sensordaten), wie z.B. einen Algorithmus, der aus Quantisierung, Rundung, Diskretisierung, Transformationsalgorithmus, schätzbasiertem Algorithmus und prädiktionsbasiertem Algorithmus ausgewählt wird. Als weiteres Beispiel kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es mindestens einen verlustlosen Komprimierungsalgorithmus implementiert (z.B. zur Verwendung eines verlustlosen Komprimierungsalgorithmus zur Komprimierung der Sensordaten oder eines Teils der Sensordaten), wie z.B. einen Algorithmus, der aus Lauflängenkodierung, Kodierung variabler Länge und Entropie-Kodierungsalgorithmus ausgewählt wird.
  • Das Sensorsystem 16500 kann so konfiguriert werden, dass eine den Sensordaten zugeordnete Datenverarbeitungscharakteristik angepasst wird, bevor die Sensordaten an das Datenkomprimierungsmodul 16506 geliefert werden. Beispielsweise kann das Sensorsystem 16500 so konfiguriert werden, dass es eine Auflösung und/oder eine Bildrate der Sensordaten anpasst. Das Sensorsystem 16500 kann so konfiguriert werden, dass die Sensordaten mit der angepassten Auflösung und/oder der angepassten Bildrate an das Datenkomprimierungsmodul 16500 geliefert werden, z.B. zur verlustfreien Datenkomprimierung. Das Sensorsystem 16500 kann beispielsweise so konfiguriert werden, dass es Teile des Sichtfeldes (z.B. des Sensormoduls 16502, z.B. Teile der Szene) bestimmt, die mit hoher Qualität (z.B. hohe Auflösung und/oder hohe Bildrate und niedrige Kompressionsrate) verarbeitet werden sollen.
  • Das Datenkomprimierungsmodul 16506 kann so konfiguriert werden, dass mindestens ein (z. B. erster) Teil der vom Sensormodul 16502 gelieferten Sensordaten komprimiert wird, um komprimierte Sensordaten zu erzeugen. Die Komprimierung eines Teils der vom Sensormodul 16502 gelieferten Sensordaten kann z.B. so beschrieben werden, dass das Datenkomprimierungsmodul 16506 so konfiguriert ist, dass es einen (z.B. kontinuierlichen) Strom von Sensordaten empfängt und zumindest einen Teil der empfangenen Sensordaten komprimiert. Als Beispiel kann, wie in 165A dargestellt, das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es die (z.B. Roh-)Sensordaten vom Sensormodul 16502 empfängt. Illustrativ kann das Datenkomprimierungsmodul 16506 kommunikativ mit dem Sensormodul 16502 gekoppelt werden (z.B. mit dem Sensor 16504 oder mit dem Analog-Digital-Wandler).
  • Das Sensorsystem 16500 kann einen Speicher 16508 aufweisen (zur Veranschaulichung: einen Datenzwischenspeicher). Der Speicher 16508 kann mindestens einen (z.B. zweiten) Teil der Sensordaten speichern, der nicht in den komprimierten Sensordaten umfasst ist (z.B. kann der Speicher 16508 unkomprimierte Sensordaten speichern, die nicht in den komprimierten Sensordaten aufweisen sind, z.B. kann ein Teil der unkomprimierten Sensordaten im Speicher 16508 gespeichert werden und ein anderer Teil der unkomprimierten Sensordaten kann zur weiteren Verarbeitung bereitgestellt werden). Zusätzlich oder alternativ kann der Speicher 16508 zumindest einen Teil der komprimierten Sensordaten speichern (zur Veranschaulichung: ein Teil der komprimierten Sensordaten kann im Speicher 16508 gespeichert werden und ein anderer Teil der komprimierten Sensordaten kann zur weiteren Verarbeitung bereitgestellt werden).
  • Der Speicher 16508 kann ein flüchtiger (illustrativ, transienter) Speicher sein oder einen solchen aufweisen. Alternativ kann der Speicher 16508 ein nichtflüchtiger (illustrativ, nichtflüchtiger) Speicher sein oder einen nichtflüchtigen (illustrativ, nichtflüchtigen) Speicher aufweisen. Die Speicherkapazität des Speichers 16508 kann in Übereinstimmung mit den gewünschten Betriebsparametern (z. B. Betriebsgeschwindigkeit, Speicherzeit usw.) ausgewählt werden. Beispielsweise kann der Speicher 16508 eine Speicherkapazität im Bereich von etwa 1 MB bis etwa 10 GB haben, z.B. von etwa 100 MB bis etwa 1 GB. Als Beispiel kann der Speicher ein Ringspeicher sein. Der Ringspeicher kann z.B. eine Speicherkapazität von mindestens 10 MB, z.B. 1 GB, haben.
  • Das Sensorsystem 16500 kann so konfiguriert werden, dass es den unkomprimierten und/oder komprimierten Sensordaten und dem Teil der Sensordaten, der nicht in den unkomprimierten und/oder komprimierten Sensordaten umfasst ist und der im Speicher 16508 gespeichert ist, eine Kennung zuordnet (z. B. eine Kennung zuweisen). Zur Veranschaulichung: Das Sensorsystem 16500 kann so konfiguriert werden, dass es den bereitgestellten unkomprimierten und/oder komprimierten Sensordaten (die z.B. einem oder mehreren Prozessoren des Sensorsystems zur Verfügung gestellt werden) eine Kennung zuordnet und dass es dem Teil der Sensordaten, der nicht in den bereitgestellten unkomprimierten und/oder komprimierten Sensordaten umfasst ist und im Speicher 16508 gespeichert ist, eine Kennung zuordnet. Der Bezeichner kann z.B. ein Zeitstempel sein oder aufweisen. Der Bezeichner kann z.B. ein dem Sensormodul 16502 zugeordneter Bezeichner sein oder einen solchen aufweisen (z.B. einen Identifikationscode). Zur Veranschaulichung: Der Bezeichner kann Identifikationsinformationen zur Identifizierung der im Speicher 16508 gespeicherten Sensordaten (und zum Abrufen der Sensordaten aus dem Speicher 16508) liefern.
  • Das Sensorsystem 16500 kann eine bidirektionale Kommunikationsschnittstelle 16510 aufweisen. Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie z.B. unkomprimierte Sensordaten und/oder komprimierte Sensordaten (z.B. zumindest einen Teil der unkomprimierten und/oder komprimierten Sensordaten) bereitstellt (z.B. zur Übertragung), z.B. die unkomprimierten Sensordaten und/oder die komprimierten Sensordaten, die mit dem Sensormodul 16502 verbunden sind. Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die unkomprimierten und/oder komprimierten Sensordaten vom Datenkomprimierungsmodul 16506 empfängt (z.B. kann die bidirektionale Kommunikationsschnittstelle 16510 kommunikativ mit dem Datenkommunikationsmodul 16506 gekoppelt werden). Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die unkomprimierten und/oder komprimierten Sensordaten an eine Verarbeitungsseite des Sensorsystems 16500 überträgt (z.B. an einen oder mehrere Prozessoren, wie weiter unten näher beschrieben).
  • Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die mit den unkomprimierten und/oder komprimierten Daten verbundene Kennung bereitstellt. Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die Kennung bereitstellt, die den im Speicher 16508 gespeicherten Sensordaten zugeordnet ist. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die Identifizierungsinformationen überträgt, die zum Anfordern und Abrufen zusätzlicher Sensordaten (z.B. komprimiert oder unkomprimiert) verwendet werden.
  • Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie eine Anforderung zur weiteren Bereitstellung zumindest eines Teils der Sensordaten empfängt, die nicht in den (z.B. bereitgestellten) unkomprimierten und/oder komprimierten Sensordaten aufweisen sind und die im Speicher 16508 gespeichert sind. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie eine Anforderung zur weiteren Bereitstellung mindestens eines Teils der Sensordaten empfängt, die nicht in den unkomprimierten und/oder komprimierten Sensordaten aufweisen sind, die dem einen oder mehreren Prozessoren zur Verfügung gestellt werden und die im Speicher 16508 gespeichert sind. Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie eine solche Anforderung von der Verarbeitungsseite des Sensorsystems 16500 empfängt (z.B. von einem oder mehreren Prozessoren, wie weiter unten näher beschrieben). Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die empfangene Anforderung (z.B. zur Erzeugung und Bereitstellung eines entsprechenden Steuersignals) an das Datenkomprimierungsmodul 16506 (oder an den Speicher 16508) weiterleitet, um zusätzliche (z.B. komprimierte und/oder unkomprimierte) Sensordaten bereitzustellen. Die bidirektionale Kommunikationsschnittstelle 16510 kann so konfiguriert werden, dass sie die Anforderung und die Kennung empfängt (z.B. in Verbindung mit den abzurufenden Sensordaten, z.B. in Verbindung mit den unkomprimierten und/oder komprimierten Sensordaten).
  • Die bidirektionale Kommunikationsschnittstelle 16510 kann mindestens einen Sender 16510t und mindestens einen Empfänger 16510r umfassen (z.B. sensorseitig, z.B. im Zusammenhang mit der Bereitstellung von Sensordaten aus dem Sensormodul 16502). Beispielsweise kann die bidirektionale Kommunikationsschnittstelle 16510 ein erstes Sender- und Empfängermodul (z.B. einschließlich eines ersten Senders und eines ersten Empfängers) umfassen, das mit dem Sensormodul 16502 verbunden ist (z.B. verbunden mit der Bereitstellung von Sensordaten und dem Empfang der Anfrage). Die bidirektionale Kommunikationsschnittstelle 16510 kann ein zweites Sender- und Empfängermodul (z.B. ein Fahrzeug-Sender- und -Empfängermodul, z.B. mit einem zweiten Sender und einem zweiten Empfänger) aufweisen, das der Verarbeitungsseite (z.B. mit dem Empfang von Sensordaten und dem Senden der Anforderung, z.B. mit dem einen oder mehreren Prozessoren) zugeordnet ist.
  • Das Datenkomprimierungsmodul 16506, der Speicher 16508 und die bidirektionale Kommunikationsschnittstelle 16510 (z.B. ein Teil der bidirektionalen Kommunikationsschnittstelle 16510, z.B. das erste Sender- und Empfängermodul) können mit dem Sensormodul 16502 verbunden oder diesem zugeordnet werden. Als Beispiel können das Datenkompressionsmodul 16506, der Speicher 16508 und die bidirektionale Kommunikationsschnittstelle 16510 (z.B. das erste Sender- und Empfängermodul) dem Sensormodul 16502 zugeordnet oder Teil davon sein. Illustrativ kann das Sensormodul 16502 als ein System beschrieben werden, das so konfiguriert ist, dass es die hier beschriebenen Operationen in Bezug auf das Datenkomprimierungsmodul 16506, den Speicher 16508 und (zumindest teilweise) die bidirektionale Kommunikationsschnittstelle 16510 durchführt. Jedes der ein oder mehreren weiteren Sensormodule 16502b kann mit einem entsprechenden Datenkomprimierungsmodul, einem entsprechenden Speicher und einer entsprechenden bidirektionalen Kommunikationsschnittstelle (z.B. einem entsprechenden Sender- und Empfängermodul) verbunden sein (z.B. aufweisen).
  • Alternativ können das Datenkompressionsmodul 16506, der Speicher 16508 und die bidirektionale Kommunikationsschnittstelle 16510 mehreren Sensormodulen zugeordnet oder zugeordnet werden, z.B. kommunikativ mit mehr als einem Sensormodul gekoppelt werden (z.B. mit dem Sensormodul 16502 und mindestens einem weiteren Sensormodul 16502b).
  • Das Sensorsystem 16500 kann einen Speicher-Controller 16518 enthalten. Der Speicher-Controller 16518 kann zur Steuerung des Speichers 16508 konfiguriert werden (z.B. zur Steuerung eines Schreibvorgangs des Speichers 16508, wie z.B. eines Löschvorgangs und/oder eines Programmiervorgangs). Der Speicher-Controller 16518 kann so konfiguriert werden, dass er einen Teil des Speichers 16508 in Übereinstimmung mit einer über die bidirektionale Kommunikationsschnittstelle 16510 empfangenen Anweisung löscht (z.B. eine Anweisung, die von der Verarbeitungsseite des Sensorsystems 16500 bereitgestellt wird, z.B. von dem einen oder mehreren Prozessoren, die weiter unten näher beschrieben werden). Zur Veranschaulichung kann die Anweisung darauf hinweisen, dass die in dem zu löschenden Teil des Speichers 16508 gespeicherten Sensordaten nicht mehr für die Datenverarbeitung benötigt werden.
  • Das Sensorsystem 16500 kann einen oder mehrere Prozessoren 16512 aufweisen. Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie Daten verarbeiten, z.B. Sensordaten (z.B. komprimierte und/oder unkomprimierte Sensordaten). Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die unkomprimierten und/oder komprimierten Sensordaten verarbeiten, die vom Sensormodul 16502 geliefert werden (zur Veranschaulichung: unkomprimierte und/oder komprimierte Sensordaten, die vom Sensormodul 16502 geliefert oder aus den vom Sensormodul 16502 gelieferten Sensordaten erzeugt und von dem einen oder den mehreren Prozessoren 16512 empfangen werden). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die unkomprimierten und/oder komprimierten Sensordaten über die bidirektionale Kommunikationsschnittstelle 16510 empfangen (z.B. über das Fahrzeug-Sender- und -Empfängermodul). Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die empfangenen unkomprimierten und/oder komprimierten Sensordaten verarbeiten.
  • Der eine oder die mehreren Prozessoren 16512 können weiter konfiguriert werden, um Sensordaten zu verarbeiten, die von dem einen oder den mehreren weiteren Sensormodulen 16502b geliefert werden (z.B. von mindestens einem weiteren Sensormodul 16502b). Zum Beispiel können der eine oder die mehreren Prozessoren 16512 so konfiguriert werden, dass sie die Sensordaten (z.B. roh, komprimiert oder vorkomprimiert) von dem einen oder den mehreren weiteren Sensormodulen 16502b über eine entsprechende bidirektionale Kommunikationsschnittstelle empfangen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16512 können mit einer Sensor-Fusionsbox (z.B. des Fahrzeugs) verbunden sein. Beispielsweise können der eine oder die mehreren Prozessoren 16512 in einer Sensorfusionsbox (z.B. eines Fahrzeugs) enthalten sein.
  • Der eine oder mehrere Prozessoren 16512 können so konfiguriert werden, dass sie verschiedene Arten der Datenverarbeitung (z.B. unter Verwendung der unkomprimierten und/oder komprimierten Sensordaten und optional weiterer Sensordaten) implementieren, z.B. zur Auswertung einer Szene (z.B. des Sichtfeldes). Beispielsweise können der eine oder mehrere Prozessoren 16512 so konfiguriert werden, dass sie einen oder mehrere Objekterkennungsprozesse implementieren. Als weiteres Beispiel können der eine oder die mehreren Prozessoren 16512 konfiguriert werden, um einen oder mehrere Objektklassifikationsprozesse zu implementieren (z.B. basierend auf dem Ergebnis des Objekterkennungsprozesses). Als ein weiteres Beispiel können der eine oder die mehreren Prozessoren 16512 so konfiguriert werden, dass sie einen oder mehrere Objektverfolgungsprozesse implementieren.
  • Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie bestimmen, ob einige zusätzliche Daten in Bezug auf die empfangenen Sensordaten (z.B. unkomprimierte und/oder komprimierte Sensordaten) angefordert werden sollen (z.B. vom Sensormodul 16502, z.B. vom Speicher 16508). Als Beispiel kann der eine oder mehrere Prozessoren 16512 konfiguriert werden, um zu bestimmen, ob zusätzliche Daten, die sich auf die komprimierten Sensordaten beziehen, basierend auf den komprimierten Sensordaten und den Sensordaten, die von einem (z.B. mindestens einem) weiteren Sensormodul 16502b bereitgestellt werden, angefordert werden sollen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 16512 konfiguriert werden, um zu bestimmen, ob zusätzliche Daten in Bezug auf die unkomprimierten Sensordaten auf der Grundlage der unkomprimierten Sensordaten und der von einem weiteren Sensormodul 16502b gelieferten Sensordaten angefordert werden sollen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16512 können konfiguriert werden, um zu bewerten, ob die Datenverarbeitung unter Verwendung der empfangenen unkomprimierten und/oder komprimierten Sensordaten Ergebnisse liefert, die ein oder mehrere vordefinierte Akzeptanzkriterien erfüllen (z.B. ein vordefinierter Genauigkeitsgrad oder ein vordefinierter Grad der Übereinstimmung mit anderen Sensordaten). Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie bestimmen, dass einige zusätzliche Daten in Bezug auf die empfangenen Daten, z.B. in Bezug auf die unkomprimierten und/oder komprimierten Sensordaten, angefordert werden sollten, falls die Akzeptanzkriterien nicht erfüllt sind.
  • Als weiteres Beispiel kann der eine oder mehrere Prozessoren 16512 konfiguriert werden, um zu bestimmen, ob zusätzliche Daten, die sich auf die komprimierten Sensordaten beziehen, auf der Grundlage der komprimierten Sensordaten und der Daten, die von einer oder mehreren weiteren Kommunikationsschnittstellen 16514 des Sensorsystems 16500 (z.B. einer oder mehreren weiteren informationsliefernden Schnittstellen) bereitgestellt werden, angefordert werden sollen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 16512 konfiguriert werden, um zu bestimmen, ob zusätzliche Daten, die sich auf die unkomprimierten Sensordaten beziehen, basierend auf den unkomprimierten Sensordaten und den Daten, die von einer oder mehreren weiteren Kommunikationsschnittstellen 16514 des Sensorsystems 16500 bereitgestellt werden, angefordert werden sollen. Das Sensorsystem 16500 (z.B. die weiteren Kommunikationsschnittstellen 16514) kann mindestens eine Global Positioning System-Schnittstelle 16514a aufweisen, die für den Empfang von Global Positioning Information konfiguriert ist. Das Sensorsystem 16500 kann mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle 16514b aufweisen (z.B. die weiteren Kommunikationsschnittstellen 16514). Das Sensorsystem 16500 kann mindestens eine Kommunikationsschnittstelle Fahrzeug-zu-Infrastruktur (z.B. Fahrzeug-zu-Umwelt- ) 16514c aufweisen. Die weiteren Kommunikationsschnittstellen 16514 können so konfiguriert werden, dass sie dem einen oder mehreren Prozessoren 16512 weitere Daten zur Verfügung stellen.
  • Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass zusätzliche Daten in Bezug auf die komprimierten Sensordaten angefordert werden, falls der eine oder die mehreren Prozessoren 16512 eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen der (zumindest teilweise) mit den komprimierten Sensordaten durchgeführten Datenverarbeitung feststellen. Zusätzlich oder alternativ können der oder die Prozessoren 16512 so konfiguriert werden, dass zusätzliche Daten in Bezug auf die unkomprimierten Sensordaten angefordert werden sollten, falls der eine oder die mehreren Prozessoren 16512 eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen der (zumindest teilweise) mit den unkomprimierten Sensordaten durchgeführten Datenverarbeitung feststellen.
  • Beispielsweise können der eine oder mehrere Prozessoren 16512 so konfiguriert werden, dass einige zusätzliche Daten in Bezug auf die komprimierten Sensordaten angefordert werden sollten, falls eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen mindestens eines Objekterkennungsprozesses vorliegt, der zumindest teilweise mit den komprimierten Sensordaten durchgeführt wurde. Ein weiteres Beispiel: Der eine oder mehrere Prozessoren 16512 können so konfiguriert werden, dass sie bestimmen, dass einige zusätzliche Daten, die sich auf die komprimierten Sensordaten beziehen, angefordert werden sollen, falls eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen mindestens eines Objektklassifizierungsprozesses vorliegt, der zumindest teilweise mit den komprimierten Sensordaten durchgeführt wurde. Ein weiteres Beispiel: Der eine oder mehrere Prozessoren 16512 können so konfiguriert werden, dass einige zusätzliche Daten im Zusammenhang mit den komprimierten Sensordaten angefordert werden sollten, falls die Ergebnisse mindestens eines Objektverfolgungsprozesses, der zumindest teilweise mit den komprimierten Sensordaten durchgeführt wurde, inkonsistent sind.
  • Beispielsweise können zusätzlich oder alternativ der eine oder die mehreren Prozessoren 16512 so konfiguriert werden, dass einige zusätzliche Daten, die sich auf die unkomprimierten Sensordaten beziehen, angefordert werden sollten, falls eine Inkonsistenz oder Mehrdeutigkeit in den Ergebnissen mindestens eines Objekterkennungsprozesses vorliegt, der zumindest teilweise mit den unkomprimierten Sensordaten durchgeführt wurde. Ein weiteres Beispiel: Der eine oder mehrere Prozessoren 16512 können so konfiguriert werden, dass einige zusätzliche Daten, die sich auf die unkomprimierten Sensordaten beziehen, angefordert werden sollten, falls die Ergebnisse mindestens eines Objektklassifizierungsprozesses, der zumindest teilweise mit den unkomprimierten Sensordaten durchgeführt wurde, inkonsistent oder mehrdeutig sind. Als weiteres Beispiel können der oder die Prozessoren 16512 so konfiguriert werden, dass sie bestimmen, dass einige zusätzliche Daten in Bezug auf die unkomprimierten Sensordaten angefordert werden sollten, falls eine Inkonsistenz in den Ergebnissen mindestens eines Objektverfolgungsprozesses vorliegt, der zumindest teilweise mit den unkomprimierten Sensordaten durchgeführt wurde.
  • Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie ein Abschlusssignal erzeugen (z.B. ein Abschlusssignal, das den erfolgreichen Abschluss des aktuellen Datenverarbeitungsprozesses darstellt oder anzeigt), falls festgestellt wurde, dass zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, nicht angefordert werden sollen (z.B. nicht benötigt werden). Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie dem Speicher-Controller 16518 die Anweisung geben, den Teil des Speichers 16508 zu löschen, der den Sensordaten zugeordnet ist (z.B. den Teil des Speichers 16508, der sich auf die unkomprimierten und/oder komprimierten Sensordaten bezieht), für den Fall, dass festgestellt wurde, dass zusätzliche Daten, die sich auf die Sensordaten (komprimiert und/oder unkomprimiert) beziehen, nicht angefordert werden sollen.
  • Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die Anforderung erzeugen, zumindest einen Teil der Sensordaten, die nicht in den komprimierten Sensordaten umfasst sind (z.B. in den empfangenen komprimierten Sensordaten), weiter zu liefern, falls festgestellt wurde, dass einige zusätzliche Daten im Zusammenhang mit den komprimierten Sensordaten angefordert werden sollen (z.B. vom Sensormodul 16502, z.B. aus dem Speicher 16508). Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 16512 so konfiguriert werden, dass sie die Anforderung erzeugen, zumindest einen Teil der Sensordaten, die nicht in den unkomprimierten Sensordaten umfasst sind (z.B. in den empfangenen unkomprimierten Sensordaten), weiter zu liefern, falls festgestellt wurde, dass einige zusätzliche Daten in Bezug auf die unkomprimierten Sensordaten angefordert werden sollten. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die Anforderung erzeugen, zumindest einen Teil der vom Sensormodul 16502 gelieferten Sensordaten, die noch nicht von dem einen oder den mehreren Prozessoren 16512 empfangen wurden, weiter zu liefern. Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die Anforderung an das Sensormodul 16502 übertragen (zur Veranschaulichung: an das Datenkomprimierungsmodul 16506 und/oder an den mit dem Sensormodul 16502 verbundenen Speicher 16508). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie die Anforderung über die bidirektionale Kommunikationsschnittstelle 16510 (z.B. über das Fahrzeug-Sender- und -Empfängermodul) übertragen. Der eine oder die mehreren Prozessoren 16512 können so konfiguriert werden, dass sie eine mit den zusätzlichen Sensordaten verbundene Kennung übertragen. Bei den zusätzlichen Daten kann es sich um Rohdaten (z.B. rohe Sensordaten) und/oder vorkomprimierte Daten (z.B. vorkomprimierte Sensordaten, z.B. komprimierte Sensordaten) handeln. Die Art der zusätzlichen Daten kann sich auf die Art der im Speicher 16508 gespeicherten Daten beziehen, wie weiter unten näher beschrieben wird.
  • Als Beispiel kann, wie in 165A dargestellt, das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es dem Speicher 16508 den Teil der Sensordaten zur Verfügung stellt, der nicht in den komprimierten Sensordaten umfasst ist (z.B. zur Übertragung eines Teils der empfangenen Sensordaten an den Speicher, z.B. rohe Sensordaten oder Sensordaten, die komprimiert, aber nicht in den zur Weiterverarbeitung bereitgestellten komprimierten Sensordaten umfasst sind). Zur Veranschaulichung: Der Speicher 16508 kann einen Teil der rohen (z.B. nicht komprimierten) Sensordaten (und/oder einen Teil der komprimierten Sensordaten, die nicht in den komprimierten Sensordaten umfasst sind) speichern.
  • Als weiteres Beispiel, wie in dargestellt, kann der Speicher 16508 die Sensordaten speichern. Zur Veranschaulichung: Der Speicher 16508 kann so konfiguriert werden, dass er die (z. B. Roh-)Sensordaten vom Sensormodul 16502 empfängt. Weiterhin kann der Speicher 16508 kommunikativ mit dem Sensormodul 16502 gekoppelt werden (z.B. mit dem Sensor 16504 oder mit dem Analog-Digital-Wandler).
  • Ein Teil der im Speicher 16508 gespeicherten Sensordaten kann dem Datenkomprimierungsmodul 16506 zur Komprimierung zur Verfügung gestellt werden. Das Datenkomprimierungsmodul 16506 kann so konfiguriert werden, dass es die im Speicher 16508 gespeicherten (z.B. Roh-)Sensordaten mit unterschiedlichen Komprimierungsraten komprimiert (z.B. mit zunehmend niedrigerer Komprimierungsrate jedes Mal, wenn eine Anforderung in Bezug auf die komprimierten Sensordaten empfangen wird). Zur Veranschaulichung: Das Datenkomprimierungsmodul 16506 kann so konfiguriert werden, dass es erste komprimierte Sensordaten mit einer ersten Komprimierungsrate erzeugt und (zur Veranschaulichung: nach Erhalt der Anforderung) zweite komprimierte Sensordaten mit einer zweiten Komprimierungsrate (z.B. mit einer niedrigeren als der ersten Komprimierungsrate) erzeugt.
  • Als weiteres Beispiel, wie in dargestellt, kann der Speicher 16508 vorkomprimierte Sensordaten speichern. Das Sensorsystem 16500 kann ein weiteres Datenkomprimierungsmodul 16516 aufweisen. Das weitere Datenkomprimierungsmodul 16516 kann so konfiguriert werden, dass es die vom Sensormodul 16502 gelieferten Sensordaten komprimiert, um vorkomprimierte Sensordaten zu erzeugen (z.B. mit einer hochauflösenden Datenkomprimierung, z.B. einer verlustfreien Datenkomprimierung). Der Speicher 16508 kann die vorkomprimierten Sensordaten speichern. Zur Veranschaulichung: Das weitere Datenkomprimierungsmodul 16516 kann kommunikativ mit dem Sensormodul 16502 (z.B. im Sensormodul 16502 enthalten, z.B. kommunikativ mit dem Sensor 16504 gekoppelt) und mit dem Speicher 16508 gekoppelt werden.
  • Das Datenkomprimierungsmodul 16502 kann so konfiguriert werden, dass zumindest ein Teil der vorkomprimierten Sensordaten dekomprimiert wird, um dekomprimierte Sensordaten (z.B. einen ersten Teil der vorkomprimierten Sensordaten) zu erzeugen (z.B. zur Bereitstellung). Das Datenkomprimierungsmodul 16502 kann so konfiguriert werden, dass es die dekomprimierten Sensordaten bereitstellt (z.B. kann die bidirektionale Kommunikationsschnittstelle 16510 so konfiguriert werden, dass sie die dekomprimierten Sensordaten bereitstellt, z.B. um die dekomprimierten Sensordaten an einen oder mehrere Prozessoren 16512 zu übertragen). Das Datenkomprimierungsmodul 16506 kann so konfiguriert werden, dass es eine Anforderung zur weiteren Bereitstellung mindestens eines Teils der vorkomprimierten Sensordaten empfängt, die nicht in den (z.B. bereitgestellten) dekomprimierten Sensordaten umfasst sind und die im Speicher 16508 gespeichert sind. Zur Veranschaulichung: Die zusätzlichen Daten, die von dem einen oder mehreren Prozessoren 16512 angefordert werden, können ein anderer (z.B. zweiter) Teil der vorkomprimierten Sensordaten sein.
  • Zusätzlich oder alternativ kann das Datenkomprimierungsmodul 16506 so konfiguriert werden, dass es die vorkomprimierten Sensordaten (z. B. mindestens einen Teil der vorkomprimierten Sensordaten) mit einer höheren oder niedrigeren Datenkomprimierungsrate (z. B. mit einer anderen Datenkomprimierungsrate als das weitere Datenkomprimierungsmodul 16516) rekomprimiert, um rekomprimierte Sensordaten zu erzeugen. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die rekomprimierten Sensordaten bereitstellt (z.B. kann die bidirektionale Kommunikationsschnittstelle 16510 so konfiguriert werden, dass sie die rekomprimierten Sensordaten bereitstellt, z.B. um die rekomprimierten Sensordaten an den einen oder mehrere Prozessoren 16512 zu übertragen). Das Datenkomprimierungsmodul 16506 kann so konfiguriert werden, dass es eine Anforderung zur weiteren Bereitstellung mindestens eines Teils der vorkomprimierten Sensordaten empfängt, die nicht in den (z.B. bereitgestellten) rekomprimierten Sensordaten umfasst sind und die im Speicher 16508 gespeichert sind.
  • 166A bis 166D zeigen jeweils ein Sensorsystem 16600 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Sensorsystem 16600 kann eine beispielhafte Implementierung des Sensorsystems 16500 sein, z.B. eine beispielhafte Realisierung und Konfiguration der Komponenten des Sensorsystems 16500. Es wird davon ausgegangen, dass andere Konfigurationen und Komponenten bereitgestellt werden können.
  • Das Sensorsystem 16600 kann ein Sensormodul 16602 aufweisen, das für die Bereitstellung von Sensordaten konfiguriert ist (z.B. konfiguriert für die Übertragung von Sensordaten, z.B. komprimierte Sensordaten). Das Sensormodul 16602 kann einen Sensor 16604 aufweisen, der so konfiguriert ist, dass er ein Sensorsignal (z. B. ein analoges Sensorsignal) bereitstellt oder erzeugt. Das Sensormodul 16602 kann als das oben beschriebene Sensormodul 16502 konfiguriert werden. Der Sensor 16604 kann als der oben beschriebene Sensor 16504 konfiguriert werden. Das Sensormodul 16602 kann so konfiguriert werden, dass es Sensordaten aus dem Sensorsignal (z.B. aus der Vielzahl der Sensorsignale) liefert. Als Beispiel kann das Sensormodul 16602 einen Analog-Digital-Wandler aufweisen, um das analoge Sensorsignal (z.B. einen Strom, wie z.B. einen Fotostrom) in digitale oder digitalisierte Sensordaten umzuwandeln.
  • Das Sensorsystem 16600 kann ein oder mehrere weitere Sensormodule 16602b aufweisen. Das eine oder die mehreren weiteren Sensormodule 16602b können als das eine oder die mehreren oben beschriebenen weiteren Sensormodule 16502b konfiguriert werden.
  • Das Sensorsystem 16600 kann ein Kompressionsmodul 16606 aufweisen. Das Komprimierungsmodul 16606 kann als das oben beschriebene Datenkomprimierungsmodul 16506 konfiguriert werden (z.B. kann das Komprimierungsmodul 16606 so konfiguriert werden, dass es komprimierte Sensordaten erzeugt). In der in 166A bis 166D dargestellten Beispielkonfiguration kann das Sensormodul 16602 das Komprimierungsmodul 16606 aufweisen. Die Funktionsweise des Komprimierungsmoduls 16606 wird weiter unten ausführlicher beschrieben.
  • Das Sensorsystem 16600 kann einen Speicher 16608 aufweisen. Der Speicher 16608 kann wie der oben beschriebene Speicher 16508 konfiguriert werden (z.B. kann der Speicher 16608 Daten, z.B. Sensordaten (z.B. roh, komprimiert oder vorkomprimiert), speichern). In der in 166A bis 166D dargestellten Beispielkonfiguration kann das Sensormodul 16602 den Speicher 16608 aufweisen. Die Funktionsweise des Speichers 16608 wird weiter unten näher beschrieben.
  • Das Sensorsystem 16600 kann eine bidirektionale Kommunikationsschnittstelle 16610 aufweisen. Die bidirektionale Kommunikationsschnittstelle 16610 kann als die oben beschriebene bidirektionale Kommunikationsschnittstelle 16510 konfiguriert werden. Die bidirektionale Kommunikationsschnittstelle 16610 kann ein Sender- und Empfängermodul 16610s aufweisen, das mit dem Sensormodul 16602 verbunden ist (z.B. im Sensormodul 16602 in der in 166A bis 166D dargestellten Beispielkonfiguration enthalten). Die bidirektionale Kommunikationsschnittstelle 16610 kann ein Fahrzeug-Sender- und Empfänger-Modul 16610v aufweisen.
  • Das Sensorsystem 16600 kann eine Fusionsbox 16612 aufweisen, z.B. eine Sensor-Fusionsbox. Die Fusionsbox 16612 kann als der oben beschriebene eine oder mehrere Prozessoren 16512 konfiguriert werden. Die Fusionsbox 16612 kann so konfiguriert werden, dass sie Daten über das Fahrzeug-Sender- und Empfänger-Modul 16610v empfängt (und Daten und/oder Anweisungen über das Fahrzeug-Sender- und Empfänger-Modul 16610v überträgt). Die Fusionsbox 16612 kann so konfiguriert werden, dass sie Daten von jedem Sensormodul (z.B. vom Sensormodul 16602 und jedem weiteren Sensormodul 16602b) empfängt.
  • Das Sensorsystem 16600 kann eine oder mehrere (z.B. weitere) Kommunikationsschnittstellen 16614 aufweisen, wie z.B. mindestens eine Schnittstelle des Globalen Positionsbestimmungssystems und/oder mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle und/oder mindestens eine Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle. Die eine oder mehrere Kommunikationsschnittstellen 16614 können als die oben beschriebene(n) weitere(n) Kommunikationsschnittstelle(n) 16514 konfiguriert werden. Die Fusionsbox 16612 kann so konfiguriert werden, dass sie Daten von der einen oder den mehreren Kommunikationsschnittstellen 16614 empfängt (z.B. über das Fahrzeug-Sender- und Empfänger-Modul 16610v).
  • Wie in 166A dargestellt, kann das Komprimierungsmodul 16606 so konfiguriert werden, dass es die Sensordaten, z.B. zumindest einen Teil der Sensordaten, komprimiert, um komprimierte Sensordaten zu erzeugen. Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es einen weiteren Teil der Sensordaten an den Speicher 16608 liefert. Zur Veranschaulichung: Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es die Sensordaten vom Sensor 16604 empfängt (z. B. digitalisierte Sensordaten vom Analog-Digital-Wandler).
  • Wie in 166B dargestellt, kann das Komprimierungsmodul 16606 so konfiguriert werden, dass es die im Speicher 16608 gespeicherten Sensordaten (z. B. Rohdaten) komprimiert. Zur Veranschaulichung: Der Speicher 16608 kann die Sensordaten (z.B. rohe Sensordaten) speichern. Der Speicher 16608 kann ein Speicher für die Zwischenspeicherung von Rohdaten sein. Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es die Sensordaten aus dem Speicher 16608 empfängt (z. B. kann es kommunikativ mit dem Speicher 16608 und nicht mit dem Sensor 16604 gekoppelt sein). Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es die (z.B. Roh-)Sensordaten, die im Speicher 16608 gespeichert sind, mit unterschiedlichen Komprimierungsraten komprimiert (z.B. mit zunehmend niedrigerer Komprimierungsrate jedes Mal, wenn eine Anforderung bezüglich der komprimierten Sensordaten empfangen wird).
  • Wie in 166C dargestellt, kann das Sensorsystem 16600 (z.B. das Sensormodul 16602) ein weiteres Komprimierungsmodul 16616, z.B. ein High-Definition-Komprimierungsmodul, aufweisen. Das weitere Komprimierungsmodul 16616 kann als das oben beschriebene weitere Datenkomprimierungsmodul 16516 konfiguriert werden. In dieser Konfiguration kann der Speicher 16608 vorkomprimierte Sensordaten speichern (z.B. Sensordaten, die durch das weitere Komprimierungsmodul 16616 vorkomprimiert wurden). Der Speicher 16608 kann ein Speicher für die Zwischenspeicherung von hochauflösenden komprimierten Daten sein.
  • Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass zumindest ein Teil der vorkomprimierten Sensordaten dekomprimiert wird. Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es die dekomprimierten Sensordaten komprimiert, z.B. mit einer geringeren Kompressionsrate im Vergleich zum weiteren Komprimierungsmodul 16616. Zur Veranschaulichung: Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es zumindest einen Teil der vorkomprimierten (z.B. hochauflösenden) Sensordaten, die im Speicher 16608 gespeichert sind, dekodiert und neu kodiert. Das Komprimierungsmodul 16606 kann ein Rekomprimierungsmodul sein.
  • Wie in 166D dargestellt, kann das Kompressionsmodul 16606 so konfiguriert werden, dass es ein Multiauflösungsverfahren und/oder ein Verfahren zur sukzessiven Verfeinerung implementiert. Das Komprimierungsmodul 16606 kann ein Komprimierungsmodul für mehrere Auflösungen oder eine sukzessive Verfeinerung sein.
  • Zur Veranschaulichung: Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es eine Vielzahl von komprimierten Sensordaten liefert (z.B. in einem Multiauflösungsverfahren, z.B. komprimierte Sensordaten mit unterschiedlichen Qualitätsstufen). Das Komprimierungsmodul 16606 kann so konfiguriert werden, dass es komprimierte Sensordaten in Zwischenform bereitstellt. Zusätzlich oder alternativ kann das Komprimierungsmodul 16606 so konfiguriert werden, dass es die Sensordaten in nachfolgenden Schichten mit steigender Datenqualität komprimiert.
  • Der Speicher 16608 kann die Vielzahl der komprimierten Sensordaten speichern. Zusätzlich oder alternativ kann der Speicher 16608 die komprimierten Sensordaten zwischenspeichern. Zusätzlich oder alternativ kann der Speicher 16608 die nachfolgenden Schichten von Sensordaten speichern. Zur Veranschaulichung: Der Speicher 16608 kann ein Speicher für die Zwischenspeicherung von Multiauflösungs- oder aufeinanderfolgenden Verfeinerungsdaten sein.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ag ist ein Sensorsystem. Das Sensorsystem kann ein Sensormodul aufweisen, das zur Bereitstellung von Sensordaten konfiguriert ist. Das Sensorsystem kann ein Datenkomprimierungsmodul aufweisen, das so konfiguriert ist, dass es zumindest einen Teil der vom Sensormodul bereitgestellten Sensordaten komprimiert, um komprimierte Sensordaten zu erzeugen. Das Sensorsystem kann einen Speicher zur Speicherung mindestens eines Teils der komprimierten Sensordaten und/oder zur Speicherung mindestens eines Teils der Sensordaten, die nicht in den komprimierten Sensordaten enthalten sind, aufweisen. Das Sensorsystem kann eine bidirektionale Kommunikationsschnittstelle aufweisen, die so konfiguriert ist, dass sie die komprimierten Sensordaten und/oder unkomprimierten Sensordaten bereitstellt; und eine Anforderung zur weiteren Bereitstellung mindestens eines Teils der komprimierten Sensordaten, die im Speicher gespeichert sind, und/oder zur weiteren Bereitstellung mindestens eines Teils der Sensordaten, die nicht in den unkomprimierten und/oder komprimierten Sensordaten enthalten sind und die im Speicher gespeichert sind, empfangen.
    • In Beispiel 2ag kann der Gegenstand von Beispiel 1ag optional beinhalten, dass die bidirektionale Kommunikationsschnittstelle mindestens einen Sender und mindestens einen Empfänger umfasst.
    • In Beispiel 3ag kann der Gegenstand eines der Beispiele 1ag oder 2ag optional beinhalten, dass das Sensorsystem weiterhin so konfiguriert ist, dass es eine Kennung mit den unkomprimierten und/oder komprimierten Sensordaten und mit dem Teil der Sensordaten verknüpft, der nicht in den unkomprimierten und/oder komprimierten Sensordaten umfasst ist und der im Speicher gespeichert ist. Die bidirektionale Kommunikationsschnittstelle kann ferner so konfiguriert werden, dass sie die den unkomprimierten und/oder komprimierten Sensordaten zugeordnete Kennung bereitstellt und/oder die Anforderung und die Kennung empfängt.
    • In Beispiel 4ag kann der Gegenstand eines der Beispiele 1ag bis 3ag optional beinhalten, dass der Speicher die Sensordaten speichert. Das Datenkomprimierungsmodul kann ferner so konfiguriert werden, dass die im Speicher gespeicherten Sensordaten mit unterschiedlichen Kompressionsraten komprimiert werden, um erste komprimierte Sensordaten mit einer ersten Kompressionsrate und zweite komprimierte Sensordaten mit einer zweiten Kompressionsrate zu erzeugen. Die zweite Kompressionsrate kann niedriger als die erste Kompressionsrate sein.
    • In Beispiel 5ag kann der Gegenstand von Beispiel 4ag optional beinhalten, dass das Datenkomprimierungsmodul weiter konfiguriert wird, um die im Speicher gespeicherten Sensordaten nach Erhalt der Anforderung mit der zweiten Komprimierungsrate zu komprimieren.
    • In Beispiel 6ag kann der Gegenstand eines der Beispiele 1ag bis 4ag optional ein weiteres Datenkomprimierungsmodul aufweisen, das so konfiguriert ist, dass es die vom Sensormodul bereitgestellten Sensordaten komprimiert, um vorkomprimierte Sensordaten zu erzeugen. Der Speicher kann die vorkomprimierten Sensordaten speichern. Das Datenkomprimierungsmodul kann ferner so konfiguriert sein, dass es mindestens einen Teil der vorkomprimierten Sensordaten dekomprimiert, um- dekomprimierte Sensordaten zu erzeugen, und/oder dass es mindestens einen Teil der vorkomprimierten Sensordaten mit einer höheren oder niedrigeren Datenkomprimierungsrate rekomprimiert, um rekomprimierte Sensordaten zu erzeugen. Das Datenkomprimierungsmodul kann weiter konfiguriert werden, um die dekomprimierten Sensordaten und/oder die rekomprimierten Sensordaten bereitzustellen. Das Datenkomprimierungsmodul kann ferner so konfiguriert werden, dass es eine Anforderung zur weiteren Bereitstellung mindestens eines Teils der vorkomprimierten Sensordaten empfängt, der nicht in den dekomprimierten oder rekomprimierten Sensordaten umfasst ist und der im Speicher gespeichert ist.
    • In Beispiel 7ag kann der Gegenstand eines der Beispiele 1ag bis 6ag optional beinhalten, dass das Datenkomprimierungsmodul so konfiguriert ist, dass es mindestens einen verlustbehafteten Komprimierungsalgorithmus implementiert.
    • In Beispiel 8ag kann der Gegenstand von Beispiel 7ag optional beinhalten, dass der mindestens eine verlustbehaftete Kompressionsalgorithmus mindestens einen Algorithmus enthält, der ausgewählt ist aus: Quantisierung; Rundung; Diskretisierung; Transformationsalgorithmus; auf Schätzung basierender Algorithmus; und auf Vorhersage basierender Algorithmus.
    • In Beispiel 9ag kann der Gegenstand eines der Beispiele 1ag bis 8ag optional beinhalten, dass das Datenkomprimierungsmodul so konfiguriert ist, dass es mindestens einen verlustfreien Komprimierungsalgorithmus implementiert.
    • In Beispiel 10ag kann der Gegenstand von Beispiel 9ag optional beinhalten, dass das Sensorsystem so konfiguriert ist, dass es eine Auflösung und/oder eine Bildrate der Sensordaten anpasst und die Sensordaten mit der angepassten Auflösung und/oder der angepassten Bildrate an das Datenkomprimierungsmodul zur verlustfreien Datensensorkomprimierung liefert.
    • In Beispiel 11ag kann der Gegenstand eines der Beispiele 9ag oder 10ag optional beinhalten, dass der mindestens eine verlustfreie Kompressionsalgorithmus mindestens einen Algorithmus enthält, der aus diesen ausgewählt wurde: Lauflängenkodierung; Variable-Längen-Kodierung und Entropie-Kodierungsalgorithmus.
    • In Beispiel 12ag kann der Gegenstand eines der Beispiele 1ag bis 11 ag optional beinhalten, dass das Sensormodul als ein Sensortyp konfiguriert wird, der aus einer Gruppe von Sensortypen ausgewählt wird, die aus diesen besteht: LIDAR-Sensor; RADAR-Sensor; Kamerasensor; Ultraschallsensor; und Trägheitsmesssensor.
    • In Beispiel 13ag kann der Gegenstand eines der Beispiele 1ag bis 12ag optional mindestens eine Schnittstelle des Global Positioning System aufweisen, um Global Positioning Informationen zu erhalten.
    • In Beispiel 14ag kann der Gegenstand eines der Beispiele 1ag bis 13ag optional mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle aufweisen.
    • In Beispiel 15ag kann der Gegenstand eines der Beispiele 1ag bis 14ag optional mindestens eine Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle aufweisen.
    • In Beispiel 16ag kann der Gegenstand eines der Beispiele 1ag bis 15ag optional ein oder mehrere weitere Sensormodule aufweisen.
    • In Beispiel 17ag kann der Gegenstand von Beispiel 16ag optional beinhalten, dass mindestens ein weiteres Sensormodul des einen oder der mehreren weiteren Sensormodule vom gleichen Sensortyp wie das Sensormodul ist.
    • In Beispiel 18ag kann der Gegenstand eines der Beispiele 1ag bis 17ag optional einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie unkomprimierte und/oder komprimierte Sensordaten verarbeiten, die vom Sensormodul bereitgestellt werden; bestimmen, ob einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollen; und die Anforderung erzeugen, zumindest einen Teil der Sensordaten, die nicht in den unkomprimierten und/oder komprimierten Sensordaten umfasst sind, weiter bereitzustellen und diese an das Sensormodul zu übertragen, falls bestimmt wurde, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollen.
    • In Beispiel 19ag kann der Gegenstand eines der Beispiele 1 bis 18ag optional einen oder mehrere Prozessoren umfassen, die so konfiguriert sind, dass sie unkomprimierte und/oder komprimierte Sensordaten, die vom Sensormodul bereitgestellt werden, sowie Sensordaten, die von mindestens einem weiteren Sensormodul bereitgestellt werden, verarbeiten; auf der Grundlage der unkomprimierten und/oder komprimierten Sensordaten und der Sensordaten, die von dem mindestens einen weiteren Sensormodul bereitgestellt werden, bestimmen, ob einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollen; und die Anforderung erzeugen, zumindest einen Teil der Sensordaten, die nicht in den unkomprimierten und/oder komprimierten Sensordaten umfasst sind, weiter zu liefern und diese an das Sensormodul zu übermitteln, falls festgestellt wurde, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollten.
    • In Beispiel 20ag kann der Gegenstand eines der Beispiele 18ag oder 19ag optional beinhalten, dass die zusätzlichen Daten rohe Sensordaten oder vorkomprimierte Sensordaten oder mit einer niedrigeren Datenkompressionsrate komprimierte Sensordaten sind.
    • In Beispiel 21ag kann der Gegenstand eines der Beispiele 18ag bis 20ag optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um einen oder mehrere Objekterkennungsprozesse zu implementieren; und/oder einen oder mehrere Objektklassifizierungsprozesse zu implementieren; und/oder einen oder mehrere Objektverfolgungsprozesse zu implementieren.
    • In Beispiel 22ag kann der Gegenstand von Beispiel 21ag optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden: festzustellen, ob eine Inkonsistenz oder Mehrdeutigkeit im Ergebnis mindestens eines Objekterkennungsprozesses, der zumindest teilweise an den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, und/oder im Ergebnis mindestens eines Objektklassifizierungsprozesses, der zumindest teilweise an den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, und/oder im Ergebnis mindestens eines Objektverfolgungsprozesses, der zumindest teilweise an den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, vorliegt; und zu bestimmen, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollten, falls festgestellt wird, dass die Inkonsistenz oder Mehrdeutigkeit vorhanden ist.
    • In Beispiel 23ag kann der Gegenstand eines der Beispiele 18ag bis 22ag optional beinhalten, dass der eine oder mehrere Prozessoren mit einer Sensor-Fusionsbox verbunden sind.
    • In Beispiel 24ag kann der Gegenstand eines der Beispiele 1ag bis 23ag optional beinhalten, dass der Speicher ein Ringspeicher ist.
    • In Beispiel 25ag kann der Gegenstand von Beispiel 24ag optional beinhalten, dass der Ringspeicher eine Speicherkapazität von mindestens 10 MB hat.
    • In Beispiel 26ag kann der Gegenstand eines jeden der Beispiele 1ag bis 25ag optional beinhalten, dass der Speicher einen nichtflüchtigen Speicher enthält oder ein nichtflüchtiger Speicher ist.
    • In Beispiel 27ag kann der Gegenstand eines der Beispiele 1ag bis 25ag optional beinhalten, dass der Speicher einen flüchtigen Speicher enthält oder ein flüchtiger Speicher ist.
    • In Beispiel 28ag kann der Gegenstand eines der Beispiele 1ag bis 27ag optional einen Speicher-Controller aufweisen, der so konfiguriert ist, dass er einen Teil des Speichers gemäß einer über die bidirektionale Kommunikationsschnittstelle empfangenen Anweisung löscht.
    • Beispiel 29ag ist ein Fahrzeug, das ein oder mehrere Sensorsysteme nach einem der Beispiele 1ag bis 28ag enthält.
    • Beispiel 30ag ist ein Verfahren zum Betrieb eines Sensorsystems. Das Verfahren kann ein Sensormodul umfassen, das Sensordaten liefert. Das Verfahren kann die Komprimierung mindestens eines Teils der vom Sensormodul gelieferten Sensordaten umfassen, um komprimierte Sensordaten zu erzeugen. Das Verfahren kann einen Speicher umfassen, der mindestens einen Teil der komprimierten Sensordaten und/oder mindestens einen Teil der Sensordaten, die nicht in den komprimierten Sensordaten enthalten sind, speichert. Das Verfahren kann die Bereitstellung der komprimierten Sensordaten und/oder der unkomprimierten Sensordaten umfassen. Das Verfahren kann den Empfang einer Anforderung zur weiteren Bereitstellung mindestens eines Teils der komprimierten Sensordaten, die in dem Speicher gespeichert sind, und/oder zur weiteren Bereitstellung mindestens eines Teils der Sensordaten, die nicht in den unkomprimierten und/oder komprimierten Sensordaten enthalten sind und die in dem Speicher gespeichert sind, umfassen.
    • In Beispiel 31ag kann der Gegenstand von Beispiel 30ag optional weiter die Zuordnung eines Identifikators zu den unkomprimierten und/oder komprimierten Sensordaten und zu dem Teil der Sensordaten umfassen, der nicht in den unkomprimierten und/oder komprimierten Sensordaten umfasst ist und im Speicher gespeichert wird. Das Verfahren kann ferner die Bereitstellung des den unkomprimierten und/oder komprimierten Sensordaten zugeordneten Identifikators und/oder den Empfang der Anforderung und des Identifikators umfassen.
    • In Beispiel 32ag kann der Gegenstand eines der Beispiele 30ag oder 31 ag optional beinhalten, dass der Speicher die Sensordaten speichert. Die Datenkomprimierung kann die Komprimierung der im Speicher gespeicherten Sensordaten mit unterschiedlichen Kompressionsraten umfassen, um erste komprimierte Sensordaten mit einer ersten Kompressionsrate zu erzeugen und um zweite komprimierte Sensordaten mit einer zweiten Kompressionsrate zu erzeugen. Die zweite Kompressionsrate kann niedriger als die erste Kompressionsrate sein.
    • In Beispiel 33ag kann der Gegenstand von Beispiel 32ag optional einschließen, dass die Datenkomprimierung bei Erhalt der Anforderung eine weitere Komprimierung der im Speicher gespeicherten Sensordaten mit der zweiten Komprimierungsrate beinhaltet.
    • In Beispiel 34ag kann der Gegenstand eines der Beispiele 30ag bis 33ag optional eine weitere Datenkomprimierung der vom Sensormodul gelieferten Sensordaten umfassen, um vorkomprimierte Sensordaten zu erzeugen. Der Speicher kann die vorkomprimierten Sensordaten speichern. Das Verfahren kann ferner die Datendekomprimierung mindestens eines Teils der vorkomprimierten Sensordaten zur Erzeugung dekomprimierter Sensordaten und/oder die Rekomprimierung mindestens eines Teils der vorkomprimierten Sensordaten mit einer höheren oder niedrigeren Datenkompressionsrate zur Erzeugung rekomprimierter Sensordaten umfassen. Das Verfahren kann ferner die Bereitstellung der dekomprimierten oder rekomprimierten Sensordaten an ein Datenkomprimierungsmodul umfassen. Das Verfahren kann ferner den Empfang einer Anforderung zur weiteren Bereitstellung mindestens eines Teils der vorkomprimierten Sensordaten umfassen, der nicht in den dekomprimierten oder rekomprimierten Sensordaten umfasst ist und der im Speicher gespeichert ist.
    • In Beispiel 35ag kann der Gegenstand eines der Beispiele 30ag bis 34ag optional beinhalten, dass die Datenkomprimierung die Durchführung mindestens eines verlustbehafteten Komprimierungsalgorithmus umfasst.
    • In Beispiel 36ag kann der Gegenstand von Beispiel 35ag optional beinhalten, dass der mindestens eine verlustbehaftete Kompressionsalgorithmus mindestens einen Algorithmus enthält, der ausgewählt ist aus: Quantisierung; Rundung; Diskretisierung; Transformationsalgorithmus; auf Schätzung basierender Algorithmus; und auf Vorhersage basierender Algorithmus.
    • In Beispiel 37ag kann der Gegenstand eines der Beispiele 30ag bis 36ag optional beinhalten, dass die Datenkomprimierung die Durchführung mindestens eines verlustfreien Komprimierungsalgorithmus umfasst.
    • In Beispiel 38ag kann der Gegenstand von Beispiel 37ag optional noch die Anpassung einer Auflösung und/oder einer Bildrate der Sensordaten und die Bereitstellung der Sensordaten mit der angepassten Auflösung und/oder der angepassten Bildrate für eine verlustfreie Datensensorkompression umfassen.
    • In Beispiel 39ag kann der Gegenstand eines der Beispiele 37ag oder 38ag optional beinhalten, dass der mindestens eine verlustfreie Kompressionsalgorithmus mindestens einen Algorithmus enthält, der aus den Beispielen 37ag oder 38ag ausgewählt wurde: Lauflängenkodierung; Variable-Längen-Kodierung und Entropie-Kodierungsalgorithmus.
    • In Beispiel 40ag kann der Gegenstand eines der Beispiele 30ag bis 39ag optional beinhalten, dass das Sensormodul als ein Sensortyp konfiguriert wird, der aus einer Gruppe von Sensortypen ausgewählt wird, die aus diesen besteht: LIDAR-Sensor; RADAR-Sensor; Kamerasensor; Ultraschallsensor; und Trägheitsmesssensor.
    • In Beispiel 41ag kann der Gegenstand eines der Beispiele 30ag bis 40ag optional auch den Empfang von Global Positioning Informationen beinhalten.
    • In Beispiel 42ag kann der Gegenstand eines der Beispiele 30ag bis 41ag optional beinhalten, dass das Sensorsystem noch ein oder mehrere weitere Sensormodule enthält.
    • In Beispiel 43ag kann der Gegenstand von Beispiel 42ag optional beinhalten, dass mindestens ein weiteres Sensormodul des einen oder der mehreren weiteren Sensormodule vom gleichen Sensortyp wie das Sensormodul ist.
    • In Beispiel 44ag kann der Gegenstand eines der Beispiele 30ag bis 43ag optional die Verarbeitung unkomprimierter und/oder komprimierter Sensordaten, die vom Sensormodul bereitgestellt werden, weiter einschließen; die Bestimmung, ob einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollen; und die Erzeugung der Anforderung, zumindest einen Teil der Sensordaten, die nicht in den unkomprimierten und/oder komprimierten Sensordaten enthalten sind, weiter bereitzustellen und diese an das Sensormodul zu übermitteln, falls bestimmt wurde, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollen.
    • In Beispiel 45ag kann der Gegenstand eines der Beispiele 30ag bis 44ag optional die Verarbeitung von unkomprimierten und/oder komprimierten Sensordaten, die vom Sensormodul bereitgestellt werden, sowie von Sensordaten, die von mindestens einem weiteren Sensormodul bereitgestellt werden, umfassen; die Bestimmung, basierend auf den unkomprimierten und/oder komprimierten Sensordaten und den Sensordaten, die von dem mindestens einen weiteren Sensormodul bereitgestellt werden, ob einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollen; und Erzeugen der Anforderung zur weiteren Bereitstellung zumindest eines Teils der Sensordaten, die nicht in den unkomprimierten und/oder komprimierten Sensordaten enthalten sind, und Übertragen dieser Daten an das Sensormodul, falls festgestellt wurde, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollten.
    • In Beispiel 46ag kann der Gegenstand eines der Beispiele 44ag oder 45ag optional beinhalten, dass die zusätzlichen Daten rohe Sensordaten oder vorkomprimierte Sensordaten oder mit einer niedrigeren Datenkompressionsrate komprimierte Sensordaten sind.
    • In Beispiel 47ag kann der Gegenstand eines der Beispiele 44ag bis 46ag optional auch die Implementierung eines oder mehrerer Objekterkennungsprozesse und/oder die Implementierung eines oder mehrerer Objektklassifikationsprozesse und/oder die Implementierung eines oder mehrerer Objektverfolgungsprozesse umfassen.
    • In Beispiel 48ag kann der Gegenstand von Beispiel 47ag optional weiter die Feststellung umfassen, ob eine Inkonsistenz oder Mehrdeutigkeit im Ergebnis von mindestens einem Objekterkennungsprozess, der zumindest teilweise auf den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, und/oder im Ergebnis von mindestens einem Objektklassifizierungsprozess, der zumindest teilweise auf den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, und/oder im Ergebnis von mindestens einem Objektverfolgungsprozess, der zumindest teilweise auf den unkomprimierten und/oder komprimierten Sensordaten durchgeführt wurde, vorliegt; und Bestimmung, dass einige zusätzliche Daten, die sich auf die unkomprimierten und/oder komprimierten Sensordaten beziehen, vom Sensormodul angefordert werden sollten, falls festgestellt wird, dass die Inkonsistenz oder Mehrdeutigkeit vorhanden ist.
    • In Beispiel 49ag kann der Gegenstand eines der Beispiele 30ag bis 48ag optional beinhalten, dass der Speicher ein Ringspeicher ist.
    • In Beispiel 50ag kann der Gegenstand von Beispiel 49ag optional beinhalten, dass der Ringspeicher eine Speicherkapazität von mindestens 10 MB hat.
    • In Beispiel 51ag kann der Gegenstand eines der Beispiele 30ag bis 50ag optional beinhalten, dass der Speicher einen nichtflüchtigen Speicher enthält oder ein nichtflüchtiger Speicher ist.
    • In Beispiel 52ag kann der Gegenstand eines der Beispiele 30ag bis 50ag optional beinhalten, dass der Speicher einen flüchtigen Speicher enthält oder ein flüchtiger Speicher ist.
    • In Beispiel 53ag kann der Gegenstand eines der Beispiele 30ag bis 52ag optional die Steuerung des Speichers umfassen, um einen Teil des Speichers gemäß einer über eine bidirektionale Kommunikationsschnittstelle empfangenen Anweisung zu löschen.
    • Beispiel 54ag ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines Sensorsystems gemäß einem der Beispiele 1ag bis 28ag ausgeführt werden, das Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 30ag bis 53ag auszuführen.
    • Beispiel 55ag ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so beschaffen ist, dass es mindestens eines der Verfahren für ein Sensorsystem nach einem der obigen Methodenbeispiele ausführen kann.
  • Ein teil- oder vollautomatisches Fahrzeug kann eine Vielzahl von Sensorsystemen und Geräten (z.B. Navigations- und Kommunikationsgeräte sowie Datenverarbeitungs- und -speichereinrichtungen) aufweisen und einsetzen, um die Umgebung sehr detailliert, mit hoher Genauigkeit und zeitnah wahrzunehmen und zu interpretieren. Zu den Sensorsystemen können z.B. Sensoren wie ein LIDAR-Sensor, ein RADAR-Sensor, ein Kamerasensor, ein Ultraschallsensor und/oder ein Trägheitsmesssensor (IMU) gehören. Navigations- und Kommunikationssysteme können z.B. ein Globales Positionsbestimmungssystem (GNSS/GPS), ein Fahrzeug-Fahrzeug-Kommunikationssystem (V2V) und/oder ein Fahrzeug-Infrastruktur-Kommunikationssystem (V2I) umfassen.
  • Ein Fahrzeug, das zum teilautonomen Fahren in der Lage ist (z.B. ein Fahrzeug, das mit einem SAE-Level 3 oder höher betrieben werden kann), kann mehr als einen von jedem Sensortyp verwenden. Als Beispiel kann ein Fahrzeug 4 LIDAR-Systeme, 2 RADAR-Systeme, 10 Kamerasysteme und 6 Ultraschallsysteme aufweisen. Ein solches Fahrzeug kann einen Datenstrom von bis zu etwa 40 Gbit/s (oder etwa 19 Tbit/h) erzeugen. Unter Berücksichtigung typischer (z.B. durchschnittlicher) Fahrzeiten pro Tag und Jahr kann ein Datenstrom von etwa 300 TB pro Jahr (oder sogar mehr) geschätzt werden.
  • Für die Erfassung, Verarbeitung und Speicherung solcher Daten kann eine große Menge an Computer-Rechenleistung erforderlich sein. Darüber hinaus können Sensordaten kodiert und an eine übergeordnete Einheit, z.B. eine Sensor-Fusion-Box, übertragen werden, um ein konsolidiertes und konsistentes Szenenverständnis zu ermitteln (z.B. zu berechnen), das für Echtzeitentscheidungen auch in komplexen Verkehrssituationen genutzt werden kann. Bei der sicheren Erfassung und Entscheidungsfindung können darüber hinaus Backup- und Fallback-Lösungen eingesetzt werden, wodurch die Redundanz (und Komplexität) von Ausrüstung und Prozessen erhöht wird.
  • Im Bereich der Signal- und Datenverarbeitung können verschiedene Konzepte und Algorithmen zur Datenkompression eingesetzt und implementiert werden. Generell kann zwischen verlustfreien und verlustbehafteten Datenkompressionsalgorithmen unterschieden werden. Bei der verlustfreien Datenkompression kann der zugrunde liegende Algorithmus versuchen, redundante Informationen zu identifizieren, die dann ohne Datenverlust aus dem Datenstrom extrahiert werden können. Bei verlustbehafteter Datenkomprimierung kann der zugrundeliegende Algorithmus versuchen, nicht relevante oder weniger relevante Informationen zu identifizieren, die aus dem Datenstrom mit nur geringen Auswirkungen auf die später abgeleiteten Ergebnisse extrahiert werden können (z.B. Ergebnisse aus der Datenanalyse, aus Berechnungen zur Objekterkennung und dergleichen). Ein verlustbehafteter Datenkompressionsalgorithmus kann im Vergleich zu einem verlustfreien Datenkompressionsalgorithmus eine höhere Datenkompressionsrate liefern. Außerdem kann die erreichbare Datenkompressionsrate umso höher sein, je früher die Datenkompression ausgeführt wird.
  • Im Zusammenhang mit sicherheitsbezogenen Anwendungen, wie z.B. autonomes Fahren, kann ein vorsätzlich in Kauf genommener Datenverlust riskant sein. Es kann sich als schwer vorhersehbar erweisen, welche Folgen ein solcher Datenverlust haben kann, z.B. in einer spezifischen, komplexen und möglicherweise verwirrenden Verkehrssituation. Zur Veranschaulichung: Es kann ein gewisser Kompromiss zwischen dem erreichbaren Niveau der Datenreduktionsrate und dem tolerierbaren Niveau des Verlusts der Informationsgenauigkeit bestehen. Daher kann die Implementierung von verlustbehafteten Kompressionsalgorithmen in Anwendungen, die sicherheitskritische Aspekte beinhalten, wie z.B. im Bereich autonom fahrender Fahrzeuge, große Bedenken aufwerfen, da möglicherweise nicht klar ist, wie der optimale Kompromiss bewertet werden kann. Darüber hinaus kann ein konventionelles System einen Datenkompressionsalgorithmus mit eher statischen Einstellungen implementieren. Zur Veranschaulichung: Für jeden Sensor oder Sensortyp kann (z.B. a priori) ein spezifischer Datenkompressionsalgorithmus mit einer vorgegebenen Datenkompressionsrate und einem vorgegebenen Grad an Datenverlust gewählt werden.
  • Verschiedene Ausführungsformen können sich auf ein Verfahren (und ein Sensorsystem) zur adaptiven Datenkompression (auch als adaptives Datenkompressionsverfahren bezeichnet) beziehen. Das adaptive Datenkompressionsverfahren kann eine dynamische Anpassung einer Datenkompressionscharakteristik (z.B. einer Datenkompressionsrate, die zur Kompression von Sensordaten verwendet wird, einer Art von Kompressionsalgorithmus, eines Datenkompressions- und/oder Rekompressionsverfahrens oder eines Datenverlustgrades) ermöglichen. Die hier beschriebene Methode kann eine offene und dynamisch anpassbare Kompromissbewertung zwischen der theoretisch erreichbaren Datenreduktionsrate und dem tolerierbaren Niveau der Informationsgenauigkeit liefern.
  • Das adaptive Datenkomprimierungsverfahren kann eine hocheffiziente und effektive Datenkomprimierung bieten (z.B. eine Datenkomprimierung mit einer Datenkomprimierungscharakteristik, die für eine aktuelle Situation geeignet ausgewählt wurde), die in Übereinstimmung mit dynamisch variierenden Faktoren, wie z.B. einer aktuellen Verkehrs- und/oder Fahrsituation, angepasst werden kann. Illustrativ kann das hier beschriebene adaptive Datenkomprimierungskonzept Komplexitäts- und Dynamikstufen berücksichtigen. Die hier beschriebene Methode kann die konventionelle feste und statische Kompromissbeurteilung, die in einem konventionellen System vorgesehen ist, überwinden. Die adaptive Datenkompressionsmethode kann Konzepte der Sensorpriorisierung und Konzepte der ereignisbasierten Sicht beinhalten, wie weiter unten näher beschrieben. Beispielsweise kann nur ein Teil der Sensordaten, z.B. einer 3D-Punktwolke, von einem Sensormodul angefordert und von diesem „auf Abruf“ geliefert werden.
  • Die hier beschriebene Methode kann gut angepasste und hochentwickelte Datenkomprimierungstechniken bieten, um die Datenmenge zu reduzieren, die verarbeitet, gespeichert und übertragen wird (z.B. an eine Sensor-Fusion-Box und/oder an ein Fahrzeug-Lenkungssteuerungssystem). Die Datenkompression kann zu einer allgemeinen Verringerung des Energieverbrauchs führen. Zur Veranschaulichung: Auch wenn die Datenkomprimierung möglicherweise leistungsintensive Berechnungen erfordert, kann durch die geringere Menge der zu verarbeitenden Daten (z.B. codiert, übertragen, decodiert, transformiert und analysiert, z.B. in späteren Datenfusions- und Objekterkennungsprozessen) eine Reduzierung des Energieverbrauchs erreicht werden. Eine Reduzierung des Stromverbrauchs kann z.B. in Bezug auf einen Fahrzeugzustand erreicht werden, wie in Bezug auf 123 beschrieben.
  • In verschiedenen Ausführungsformen kann ein System mit einem oder mehreren Geräten und einem oder mehreren Datenverarbeitungsmodulen, z.B. zur Klassifizierung eines Objekts ausgehend von einem Rohdatensensorsignal, bereitgestellt werden. Das System kann ein Sensormodul aufweisen, das so konfiguriert ist, dass es Sensordaten erzeugt, z.B. ein LIDAR-Sensormodul oder ein RADAR-Sensormodul oder ein Kamerasensormodul oder ein Ultraschallsensormodul. Das System kann mehrere (z.B. zusätzliche) Sensormodule aufweisen, die jeweils so konfiguriert sind, dass sie Sensordaten erzeugen. Das System kann eine Vielzahl von Sensormodulen desselben Typs umfassen (z.B. kann das System eine Vielzahl von LIDAR-Sensormodulen umfassen), die z.B. an verschiedenen Stellen angeordnet sind, z.B. an verschiedenen Fahrzeugpositionen (z.B. LIDAR-Sensormodule für Front-, Eck-, Seiten-, Heck- oder Dachmontage). Zusätzlich oder alternativ kann das System eine Vielzahl von Sensormodulen unterschiedlichen Typs umfassen.
  • Das System kann ein Sensormodul, ein Datenkomprimierungsmodul und ein Sender- und Empfängermodul umfassen. Das Sensormodul kann einen Sensor aufweisen. Betrachtet man als Beispiel ein LIDAR-Sensormodul, so kann der Sensor eine oder mehrere Fotodioden aufweisen, die so konfiguriert sind, dass sie Infrarot-Lichtsignale empfangen und die empfangenen Lichtsignale in zugehörige Fotostromsignale umwandeln. Das Sensormodul kann zusätzliche elektronische Elemente aufweisen, die so konfiguriert sind, dass sie eine grundlegende Signal- und Rohdatenverarbeitung ermöglichen. In einem LIDAR-Sensormodul können in nachfolgenden Verarbeitungsschritten aus den Rohdatensignalen Laufzeitdatenpunkte (TOF) abgeleitet und aus den einzelnen Laufzeitdatenpunkten eine 3D-Punktwolke erzeugt werden.
  • Der Sensor kann kontinuierlich Signale erfassen, zum Beispiel innerhalb bestimmter Messzeitfenster. So kann ein im Wesentlichen kontinuierlicher Datenstrom entstehen, der vom Sensor erzeugt und weiteren nachgeschalteten Datenverarbeitungsmodulen oder -systemen zur Verfügung gestellt wird. Jeder Datenpunkt oder jede Gruppe von Datenpunkten kann mit einem Zeitstempel versehen werden, um eine eindeutige Datenzuordnung zu ermöglichen.
  • Das Datenkomprimierungsmodul kann verwendet werden, um die Menge der zu speichernden und weiter zu verarbeitenden Daten zu reduzieren. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es einen oder mehrere Datenkomprimierungsalgorithmen implementiert (z.B. einschließlich verlustbehafteter Datenkomprimierungsalgorithmen), um die Datenmenge zu reduzieren. Die Datenkomprimierung kann in verschiedenen Schritten während des Datenverarbeitungsprozesses durchgeführt werden, z.B. in verschiedenen Schritten während der Rohdatenverarbeitungsprozesse und/oder in verschiedenen Schritten der Laufzeit-Berechnungen oder der 3D-Punktwolkenerzeugung. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann mehrere separate Datenkomprimierungsschritte umfassen und kann über verschiedene Elektronik- und/oder Softwareteile oder Softwareprogramme implementiert werden.
  • Nach Abschluss der Signalerzeugung, Datenverarbeitung und Datenkomprimierung können die erzeugten Daten kodiert werden, um über vordefinierte Datenpakete an ein zentrales Datenverarbeitungssystem gesendet zu werden. Das vorgeschlagene Datenkomprimierungsverfahren (wie bereits oben skizziert und im Folgenden näher beschrieben) kann den Umfang der Datenkommunikation reduzieren und einen schnellen Informationsaustausch ermöglichen, was beispielsweise für teil- oder vollautomatisch fahrende Fahrzeuge wichtig sein kann. Es wird vorgeschlagen, Kommunikationsmethoden zu verwenden, die auf einer Hochgeschwindigkeits-Ethernet-Verbindung basieren). Das zentrale Datenverarbeitungssystem kann z.B. eine Sensorfusionsbox, z.B. eines Fahrzeugs, sein. Die Sensor-Fusion-Box kann kommunikativ mit dem Sensormodul (z.B. mit jedem Sensormodul) verbunden sein, z.B. über ein Fahrzeug-Sender- und -Empfängersystem (auch als Fahrzeug-Sender- und -Empfängermodul bezeichnet), das so konfiguriert ist, dass es die kodierten Sensormodul-Datenpakete empfängt und dekodiert. Das Fahrzeug-Sender- und -Empfängersystem kann so konfiguriert sein, dass es Daten von zusätzlichen informationsbereitstellenden Systemen, wie z.B. einem Global Positioning System (GNSS/GPS), einem Trägheitsmesssensor, einem VehicletoVehicle- (V2V)-System oder einem Vehicletolnfrastructure- (V2l)-System, empfängt. Die verschiedenen Datenströme können in der Sensorfusionsbox gesammelt und konsolidiert werden. Redundante Daten können verglichen und weiter reduziert werden, solange die Informationskonsistenz sichergestellt ist. Falls inkonsistente redundante Daten erkannt werden, können diese Daten alternativ gegeneinander abgeglichen oder gewichtet werden und/oder es können Priorisierungsentscheidungen getroffen werden. Dies kann zu einem präzisen semantischen Szenenverständnis führen, das auf Objekterkennung, Objektklassifizierung und Objektverfolgung basiert.
  • In verschiedenen Ausführungsformen kann ein Sensorsystem zur Verfügung gestellt werden. Das Sensorsystem kann so konfiguriert werden, dass es das adaptive Datenkomprimierungsverfahren implementiert. Das Sensorsystem kann z.B. in ein Fahrzeug eingebaut werden, z.B. in ein Fahrzeug mit automatisierten Fahrfunktionen. Zur Veranschaulichung: Das Fahrzeug kann ein oder mehrere Sensorsysteme aufweisen, wie hier beschrieben. Das Sensorsystem kann als das Sensorsystem 16500 konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 165A bis 166D beschrieben.
  • Das Sensorsystem kann eine Sensorseite und eine Datenverarbeitungsseite umfassen. Das Sensorsystem kann ein oder mehrere Systeme oder Module umfassen, die so konfiguriert sind, dass sie Daten liefern (z.B. Sensordaten), und ein oder mehrere Systeme oder Module, die so konfiguriert sind, dass sie die Daten verarbeiten (z.B. um ein Szenenverständnis oder eine Abbildung auf der Grundlage der Daten zu liefern). Zur Veranschaulichung: Das Sensorsystem kann ein oder mehrere Sensormodule und einen oder mehrere Prozessoren umfassen, wie weiter unten näher beschrieben.
  • Das Sensorsystem kann eine bidirektionale Kommunikationsschnittstelle zwischen der Sensorseite und der Datenverarbeitungsseite aufweisen. Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie die Kommunikation von der Sensorseite zur Datenverarbeitungsseite und umgekehrt ermöglicht. Über die bidirektionale Kommunikationsschnittstelle können Daten und Informationen zwischen der Sensorseite und der Datenverarbeitungsseite ausgetauscht werden. Zur Veranschaulichung: Das Sensorsystem (z.B. die bidirektionale Kommunikationsschnittstelle) kann ein oder mehrere Kommunikationsmodule aufweisen. Beispielsweise kann die bidirektionale Kommunikationsschnittstelle ein erstes Sender- und ein erstes Empfängermodul umfassen (z.B. in der Sensorseite enthalten oder der Sensorseite zugeordnet, z.B. in einem Sensormodul oder in jedem Sensormodul enthalten). Als weiteres Beispiel kann die bidirektionale Kommunikationsschnittstelle zusätzlich oder alternativ ein zweites Sender- und Empfängermodul enthalten (z.B. in Verbindung mit der Datenverarbeitungsseite, z.B. in einem Fahrzeug-Sender- und Empfänger-Modul). Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle kann mindestens einen Sender und mindestens einen Empfänger umfassen (z.B. auf der Sensorseite und/oder auf der Datenverarbeitungsseite).
  • Bei dem hier beschriebenen Sensorsystem kann der Kommunikationskanal über die bidirektionale Kommunikationsschnittstelle (zur Veranschaulichung: eine solche Rückkanal-Kommunikation) nicht nur zum Senden von Nachrichten verwendet werden, die über den Kommunikationsprozess auf der Seite der „sensorseitigen Datenverarbeitung“ informieren (z. B. eine Bestätigungsnachricht), sondern auch zum Senden von Informations- und/oder Befehlsnachrichten von der Datenverarbeitungsseite zur Sensorseite (z. B. von einer Sensor-Fusion-Box und/oder einem elektronischen Steuermodul des Fahrzeugs zu einem oder mehreren Sensormodulen), wie im Folgenden näher beschrieben. In einem herkömmlichen System z.B. kann die Rückkanal-Kommunikation zwischen einem Fahrzeug-Sender- und -Empfängermodul und einem Sensor-Sender- und -Empfängermodul nur eine untergeordnete Rolle spielen und hauptsächlich dazu verwendet werden, kurze Informationsnachrichten wie Empfangsbestätigungsnachrichten zu senden (z.B. zur Bestätigung, dass die von einem Sensor oder Sensormodul an ein nachfolgendes zentrales Datenverarbeitungssystem, wie eine Sensor-Fusionsbox, gelieferten Daten empfangen wurden).
  • In verschiedenen Ausführungsformen kann das Sensorsystem ein (z.B. erstes) Sensormodul aufweisen, das so konfiguriert ist, dass es Sensordaten liefert. Die Konfiguration des Sensormoduls kann entsprechend der gewünschten Art von Sensordaten ausgewählt werden. Das Sensormodul kann als ein Sensortyp konfiguriert werden, der aus einer Gruppe von Sensortypen ausgewählt wird, die einen LIDAR-Sensor, einen RADAR-Sensor, einen Kamerasensor, einen Ultraschallsensor und einen Trägheitsmesssensor enthält oder aus diesen besteht. In verschiedenen Ausführungsformen kann das Sensorsystem eine Vielzahl von Sensormodulen umfassen (zur Veranschaulichung: Das Sensorsystem kann das Sensormodul und ein oder mehrere weitere Sensormodule umfassen). Die Sensormodule können vom gleichen Typ oder von verschiedenen Typen sein. Zum Beispiel kann mindestens ein weiteres Sensormodul (z.B. ein zweites Sensormodul) vom gleichen Sensortyp wie das erste Sensormodul sein. Als weiteres Beispiel kann mindestens ein weiteres Sensormodul von einem anderen Sensortyp als das erste Sensormodul sein. Das Sensormodul kann als Sensormodul 16502 konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 165 und 166 beschrieben. Das eine oder die mehreren weiteren Sensormodule können als das eine oder die mehreren weiteren Sensormodule 16502b konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 165A bis 166D beschrieben.
  • In verschiedenen Ausführungsformen kann das Sensorsystem ein Datenkomprimierungsmodul aufweisen. Das Datenkomprimierungsmodul kann zur Komprimierung von Daten konfiguriert werden. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es zumindest einen Teil der vom (z. B. ersten) Sensormodul gelieferten Sensordaten komprimiert, um komprimierte Sensordaten zu erzeugen. Veranschaulichend kann es sich bei den komprimierten Sensordaten um einen Teil der Sensordaten (oder um alle Sensordaten) handeln oder diese aufweisen, wobei von diesem Teil der Sensordaten (oder von welchen Sensordaten) zumindest ein Teil komprimiert wird. Die komprimierten Sensordaten können für die weitere Verarbeitung verwendet werden (z. B. für Szenenabbildung, Objekterkennung, Objektklassifizierung und dergleichen), wie im Folgenden näher beschrieben wird. Als Beispiel kann das Datenkomprimierungsmodul im Sensormodul enthalten sein (z.B. kann jedes Sensormodul ein entsprechendes Datenkomprimierungsmodul aufweisen). Als weiteres Beispiel kann das Datenkomprimierungsmodul kommunikativ mit dem Sensormodul gekoppelt sein (z.B. mit einem oder mehreren Sensormodulen, z.B. mit jedem Sensormodul), z.B. kann das Datenkomprimierungsmodul außerhalb des Sensormoduls liegen. Das Datenkomprimierungsmodul kann als das Datenkomprimierungsmodul 16506 konfiguriert sein oder konfiguriert werden, das z.B. in Bezug auf 165A bis 166D beschrieben wird.
  • Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es verschiedene Arten der Datenkomprimierung durchführt, z. B. verlustfreie und/oder verlustbehaftete Datenkomprimierung. Beispielsweise kann das Datenkomprimierungsmodul so konfiguriert werden, dass es mindestens einen verlustbehafteten Komprimierungsalgorithmus implementiert (z. B. zur Durchführung mindestens eines verlustbehafteten Komprimierungsverfahrens), wie Quantisierung, Rundung, Diskretisierung, Transformationsalgorithmus, schätzbasierter Algorithmus oder prädiktionsbasierter Algorithmus. Als weiteres Beispiel kann das Datenkomprimierungsmodul zusätzlich oder alternativ so konfiguriert werden, dass es mindestens einen verlustfreien Komprimierungsalgorithmus implementiert (z.B. zur Durchführung mindestens eines verlustfreien Komprimierungsverfahrens), wie z.B. Lauflängenkodierung, Kodierung mit variabler Länge oder Entropie-Kodierungsalgorithmus. Die Kompressionsalgorithmen (z.B. die Algorithmusmethoden) können (z.B. dauerhaft) in einem nichtflüchtigen Computergerät (z.B. in einem nichtflüchtigen Speicher) gespeichert werden, z.B. in einem Sender- und Empfängermodul, das dem Sensormodul zugeordnet oder darin umfasst ist.
  • In verschiedenen Ausführungsformen kann das Sensorsystem einen oder mehrere Prozessoren (z.B. ein Datenverarbeitungssystem) aufweisen, z.B. auf der Seite der Datenverarbeitung. Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie Daten verarbeiten, z.B. Sensordaten (z.B. komprimierte Sensordaten und/oder unkomprimierte Sensordaten). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie komprimierte Sensordaten verarbeiten, die vom Sensormodul bereitgestellt werden (z.B. komprimierte Sensordaten, die mit dem Sensormodul verknüpft sind, z.B. komprimierte Sensordaten, die mit Sensordaten verknüpft sind, die vom Sensormodul bereitgestellt werden). Beispielsweise können der eine oder die mehreren Prozessoren mit einer Sensor-Fusionsbox (z.B. des Fahrzeugs) und/oder mit einem elektronischen Steuersystem des Fahrzeugs verbunden (oder darin enthalten) sein. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die komprimierten Sensordaten (oder andere Sensordaten) über die bidirektionale Kommunikationsschnittstelle empfangen (z.B. über das Sender- und Empfängermodul des Fahrzeugs, in dem die Daten dekodiert und an die Sensorfusionsbox übertragen werden können). Der eine oder die mehreren Prozessoren können als der eine oder die mehreren Prozessoren 16512 konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 165A bis 166D beschrieben.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie verschiedene Arten der Datenverarbeitung implementieren (z.B. einschließlich Methoden der künstlichen Intelligenz und/oder Methoden des maschinellen Lernens). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Daten verarbeiten, um ein Szenenverständnis zu ermöglichen (z.B. eine Analyse der Umgebung des Fahrzeugs). Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert sein, dass sie einen oder mehrere Objekterkennungsprozesse implementieren (z.B. die Bereitstellung einer Liste von einem oder mehreren Objekten mit einer oder mehreren damit verbundenen Eigenschaften). Als weiteres Beispiel können der eine oder die mehreren Prozessoren konfiguriert werden, um einen oder mehrere Objektklassifizierungsprozesse zu implementieren (z.B. Bereitstellung einer Liste von klassifizierten Objekten, z.B. eine Liste von Objekten mit einer Klasse oder einem Typ, die damit verbunden sind). Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere Objektverfolgungsprozesse implementieren (z.B. die Bereitstellung einer Liste von Objekten mit einer damit verbundenen Geschwindigkeit und/oder Bewegungsrichtung).
  • Der eine oder mehrere Prozessoren können für die Verarbeitung weiterer Daten konfiguriert werden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie (z.B. weitere) Sensordaten verarbeiten, die von mindestens einem weiteren Sensormodul (z.B. von mehreren weiteren Sensormodulen) bereitgestellt werden. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die komprimierten Sensordaten in Kombination mit den weiteren Sensordaten (z.B. weitere Sensorrohdaten oder weiter komprimierte Sensordaten) verarbeiten.
  • In verschiedenen Ausführungsformen kann das Sensorsystem einen Speicher aufweisen (auch als Zwischenspeicher, Datenzwischenspeicher oder Speicher zur Datenzwischenspeicherung bezeichnet). Der Speicher kann mindestens einen Teil der Sensordaten, der nicht in den komprimierten Sensordaten umfasst ist, speichern (z.B. kann er zum Speichern konfiguriert oder zum Speichern verwendet werden) (zur Veranschaulichung: ein zweiter Teil, der sich vom ersten Teil unterscheidet). Der Speicher kann Datenelemente (z.B. Datenblöcke) speichern, die während der Datenkomprimierung aus dem ursprünglichen Datenstrom extrahiert wurden (zur Veranschaulichung: der Speicher kann einen Teil der Sensor-Rohdaten und/oder einen Teil der durch das Datenkomprimierungsmodul komprimierten Sensordaten speichern, die nicht in den komprimierten Sensordaten enthalten sind). Die extrahierten Daten können (z.B. vorübergehend) im Zwischenspeicher gespeichert werden (zur Veranschaulichung), anstatt verworfen zu werden. Der Speicher kann z.B. Sensordaten speichern, die nicht in den komprimierten Sensordaten enthalten sind, falls ein verlustbehafteter Datenkomprimierungsalgorithmus implementiert wird (z.B. zur Komprimierung der Sensordaten). Beispielsweise kann der Speicher im Sensormodul enthalten sein (z.B. kann jedes Sensormodul einen entsprechenden Datenzwischenspeicher aufweisen). Als weiteres Beispiel kann der Speicher kommunikativ mit dem Sensormodul gekoppelt sein (z.B. mit einem oder mehreren Sensormodulen, z.B. mit jedem Sensormodul), d.h. der Speicher kann außerhalb des Sensormoduls liegen. Der Speicher kann als Speicher 16508 konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 165A bis 166D beschrieben.
  • Die zusätzlich im Speicher abgelegten Daten können abgerufen werden, falls festgestellt wird, dass zusätzliche Daten vom Sensormodul angefordert werden sollen (z.B. zur weiteren Datenverarbeitung oder zur Bereitstellung genauerer Ergebnisse für die Datenverarbeitung). Die zusätzlichen Daten können auf Anfrage zur Verfügung gestellt werden, z.B. auf Anfrage von Seiten der Datenverarbeitung (z.B. von einem oder mehreren Prozessoren). Die zusätzlichen Daten können z.B. dann zur Verfügung gestellt werden, wenn ein Genauigkeitsgrad des Ergebnisses der Datenverarbeitung für eine eindeutige Szeneninterpretation nicht ausreicht (z.B. wenn die Genauigkeit unter einem Schwellenwert für die Genauigkeit liegt). Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie die Anforderung zur Bereitstellung zusätzlicher Sensordaten empfängt. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie eine Anforderung zur weiteren Bereitstellung zumindest eines Teils der Sensordaten empfängt, die nicht in den (z.B. bereitgestellten) komprimierten Sensordaten enthalten sind und die im Speicher abgelegt sind.
  • In verschiedenen Ausführungsformen können den Sensordaten Identifikationsinformationen zugeordnet werden (z.B. den komprimierten Daten und den extrahierten Daten). Das Sensorsystem kann so konfiguriert werden, dass es den komprimierten Sensordaten und den extrahierten Daten eine Kennung zuordnet. Zur Veranschaulichung: Das Sensorsystem kann so konfiguriert werden, dass es dem Teil der Sensordaten, der in den komprimierten Sensordaten umfasst ist, und dem Teil der Sensordaten, der nicht in den komprimierten Sensordaten umfasst ist (z.B. dem Teil, der im Speicher gespeichert ist), eine Kennung zuordnet. Der Bezeichner kann z.B. einen Zeitstempel aufweisen (z.B. zur Beschreibung eines absoluten oder relativen Zeitpunkts, zu dem die Sensordaten erzeugt wurden). Der Bezeichner kann als weiteres Beispiel ein eindeutiges Identifizierungskennzeichen aufweisen, z. B. einen sensorspezifischen oder Sensormodul-spezifischen Code, der den Sensor oder das Sensormodul identifiziert, der bzw. das die Daten geliefert hat. Die extrahierten Daten können mit dem zugehörigen Identifikator gespeichert werden.
  • In verschiedenen Ausführungsformen kann die bidirektionale Kommunikationsschnittstelle so konfiguriert werden, dass sie die komprimierten Sensordaten bereitstellt (z.B. können die komprimierten Sensordaten über die bidirektionale Kommunikationsschnittstelle z.B. an einen oder mehrere Prozessoren übertragen werden, die weiter unten näher beschrieben werden). Illustrativ können die komprimierten Sensordaten (z.B. der komprimierte Teil der Originaldatensätze) über die bidirektionale Kommunikationsschnittstelle bereitgestellt werden (z.B. können sie an ein Sender- und Empfängermodul übertragen und vom Sender- und Empfängermodul übertragen werden).
  • Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie Informationen (z. B. Daten) empfängt, die eine mit den komprimierten Sensordaten verbundene Datenqualität (z. B. ein Datenqualitätsniveau) definieren. Zur Veranschaulichung: Die bidirektionale Kommunikationsschnittstelle kann so konfiguriert werden, dass sie Informationen empfängt, aus denen eine für die komprimierten Sensordaten bereitzustellende Datenqualität bestimmt werden kann (z.B. berechnet oder ausgewertet, z.B. durch das Datenkomprimierungsmodul oder einen oder mehrere Prozessoren, die mit dem Datenkomprimierungsmodul verbunden sind). Zur weiteren Veranschaulichung kann die bidirektionale Kommunikationsschnittstelle so konfiguriert werden, dass sie Informationen empfängt, die eine den komprimierten Sensordaten zugewiesene Datenqualität definieren (z.B. eine Datenqualität, die von den komprimierten Sensordaten geliefert werden soll). Der eine oder mehrere Prozessoren (z.B. auf der Datenverarbeitungsseite) können so konfiguriert werden, dass sie die Informationen, die die den komprimierten Sensordaten zugeordnete (z.B. zu liefernde) Datenqualität definieren, bestimmen (z.B. erzeugen oder bereitstellen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie solche Informationen an das Sensormodul liefern (z.B. übertragen) (z.B. über die bidirektionale Kommunikationsschnittstelle). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie solche Informationen an das Datenkomprimierungsmodul (z.B. im Sensormodul enthalten oder mit diesem verbunden) liefern (z.B. über die bidirektionale Kommunikationsschnittstelle).
  • Eine Datenqualität (oder eine Ebene der Datenqualität) kann eine oder mehrere Dateneigenschaften beschreiben oder einschließen (z.B. eine oder mehrere Eigenschaften der komprimierten Sensordaten). Beispielsweise kann die Datenqualität eine Datenauflösung beschreiben, z.B. eine Anzahl von Datenpunkten zur Beschreibung einer Szene oder eines Objekts, oder sie kann eine Abtastrate (Bittiefe) und damit die maximal verfügbare Auflösung beschreiben. Als weiteres Beispiel kann die Datenqualität einen Datenverlust beschreiben, z.B. Informationen, die nicht mehr in den Daten enthalten sind oder nicht mehr von den Daten beschrieben werden (z.B. nach einer Datenkomprimierung). Als weiteres Beispiel kann die Datenqualität einen Grad an Genauigkeit oder Eindeutigkeit (z.B. ein Vertrauensniveau) eines mit den Daten durchgeführten Prozesses (z.B. eines Objekterkennungs- oder Klassifizierungsprozesses) beschreiben. Zur Veranschaulichung: Die Datenqualität kann eine oder mehrere Eigenschaften beschreiben, die Daten (z.B. die komprimierten Sensordaten) haben können oder haben sollten.
  • In verschiedenen Ausführungsformen kann das Datenkompressionsmodul weiter konfiguriert werden, um eine Datenkompressionscharakteristik (z. B. eine Datenkompressionsrate oder eine andere Charakteristik, wie oben beschrieben) auszuwählen (z. B. zu modifizieren oder anzupassen), die für die Erzeugung der komprimierten Sensordaten in Übereinstimmung mit den empfangenen Informationen verwendet wird. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine Datenqualität für die komprimierten Sensordaten auf der Grundlage der empfangenen Informationen bestimmt (z. B. berechnet) (z. B. eine für die komprimierten Sensordaten bereitzustellende Datenqualität). Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die Datenkompressionscharakteristik in Übereinstimmung mit der ermittelten Datenqualität auswählt. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine dynamische Anpassung der Datenkomprimierungscharakteristik auf der Grundlage der über die bidirektionale Kommunikationsschnittstelle empfangenen Informationen ermöglicht.
  • Beispielsweise kann das Datenkomprimierungsmodul so konfiguriert werden, dass es die Datenkomprimierungsrate reduziert (z. B. um eine niedrigere Datenkomprimierungsrate auszuwählen, z. B. um einen verlustfreien Komprimierungsalgorithmus zu implementieren), falls die empfangenen Informationen eine höhere Datenqualität definieren als eine aktuelle Datenqualität, die mit den komprimierten Sensordaten verbunden ist. Als weiteres Beispiel kann das Datenkomprimierungsmodul so konfiguriert werden, dass es die Datenkomprimierungsrate erhöht (z.B. um eine höhere Datenkomprimierungsrate auszuwählen, z.B. um einen verlustfreien Komprimierungsalgorithmus zu implementieren), falls die empfangenen Informationen eine Datenqualität definieren, die niedriger ist als eine aktuelle Datenqualität, die mit den komprimierten Sensordaten verbunden ist.
  • In verschiedenen Ausführungsformen können die erhaltenen Informationen einen Komplexitätsgrad (auch als Komplexitätsgrad oder Komplexitätsgradwert bezeichnet) aufweisen. Der Komplexitäts-Score kann eine Komplexitätsstufe (z.B. einen Komplexitätsgrad) beschreiben, die zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind (z.B. eine Komplexitätsstufe, die zumindest teilweise durch die Verarbeitung der komprimierten Sensordaten aufgelöst werden soll). Illustrativ kann der Komplexitätswert eine Komplexität oder einen Komplexitätsgrad einer Szene beschreiben, die z.B. mit einer bestimmten Verkehrs- und/oder Fahrsituation verbunden ist und die zumindest teilweise von dem Sensormodul erkannt wird, das die komprimierten Sensordaten liefert (z.B. eine Szene, die zumindest teilweise durch Verarbeitung der komprimierten Sensordaten analysiert werden soll). Zur Veranschaulichung kann der Komplexitätswert auch die Komplexität einer Datenverarbeitung beschreiben, die zumindest teilweise mit den komprimierten Sensordaten durchgeführt werden soll (z.B. die Komplexität eines Objekterkennungsprozesses, eines Objektklassifikationsprozesses oder eines Objektverfolgungsprozesses).
  • Der Wert der Komplexitätsbewertung kann von einem Minimalwert (z.B. 0) bis zu einem Maximalwert (z.B. 10) reichen, z.B. kann die Komplexitätsbewertung eine ganze Zahl in einem solchen Bereich sein. Der Mindestwert kann eine geringe Komplexität anzeigen oder repräsentieren (z.B. im Zusammenhang mit einer Verkehrs- und Fahrsituation mit geringer Komplexität). Der Maximalwert kann eine hohe Komplexität anzeigen oder repräsentieren (z.B. im Zusammenhang mit einer Verkehrs- und Fahrsituation mit hoher Komplexität). Ein hoher Komplexitätswert kann eine hohe Datenqualität definieren (z.B. erfordern) (z.B. höher als eine aktuelle Datenqualität). Ein niedriger Komplexitätswert kann eine niedrige Datenqualität definieren (z.B. niedriger als eine aktuelle Datenqualität). Illustrativ kann ein hoher Komplexitätswert einen weniger verlustbehafteten Komprimierungsalgorithmus (z. B. eine weniger verlustbehaftete Komprimierungsrate) im Vergleich zu einem niedrigen Komplexitätswert definieren oder damit verbunden sein. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine hohe Datenkomprimierungsrate auswählt (z. B. einen verlustbehafteten Datenkomprimierungsalgorithmus auswählt, um z. B. einen höheren Datenverlust zuzulassen), falls die empfangenen Informationen einen Score-Level mit niedriger Komplexität aufweisen. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es eine niedrige Datenkomprimierungsrate auswählt (z. B. zur Auswahl eines verlustfreien Datenkomprimierungsalgorithmus, z. B. um einen geringeren Datenverlust zu ermöglichen), falls die empfangenen Informationen einen hohen Komplexitäts-Score-Status aufweisen.
  • Beispielsweise kann das Datenkomprimierungsmodul so konfiguriert werden, dass es eine Datenkomprimierungsrate von mehr als 70 % auswählt, wenn der Komplexitätsgrad gleich oder niedriger als 30 % des maximalen Komplexitätsgrads ist. Als weiteres Beispiel kann das Datenkomprimierungsmodul so konfiguriert werden, dass es eine Datenkomprimierungsrate von weniger als 30 % auswählt, wenn der Komplexitätsgrad gleich oder höher als 70 % des maximalen Komplexitätsgrads ist.
  • Die Komplexität kann z.B. als ein Maß für die Gesamtzahl der von einem Beobachter (z.B. durch das Sensorsystem) erfassten Eigenschaften beschrieben werden. Die Sammlung von Eigenschaften kann als ein Zustand bezeichnet werden. Zur Veranschaulichung: In einem physikalischen System kann die Komplexität ein Maß für die Wahrscheinlichkeit sein, mit der sich das System in einem Zustand befindet, der durch einen Zustandsvektor beschrieben werden kann, der zu einer Vielzahl von Zustandsvektoren (aus der Gesamtheit der das System beschreibenden Zustandsvektoren) gehört, die einem komplexen Systemzustand zugeordnet sind. Als ein weiteres Beispiel kann Komplexität als eine Eigenschaft beschrieben werden, die das Verhalten eines Systems oder Modells charakterisiert, dessen Komponenten auf vielfältige Weise interagieren und lokalen Regeln folgen (illustrativ, ohne eine vernünftige höhere Anweisung zur Definition der verschiedenen möglichen Interaktionen).
  • In verschiedenen Ausführungsformen kann der Komplexitäts-Score-Wert auf der Datenverarbeitungsseite bestimmt (z.B. berechnet) werden (z.B. durch einen oder mehrere Prozessoren des Sensorsystems, z.B. in Verbindung mit einer Sensor-Fusionsbox und/oder mit einem elektronischen Steuermodul des Fahrzeugs). Der Komplexitätsbewertungswert kann von der Datenverarbeitungsseite (z.B. von dem einen oder mehreren Prozessoren) an die Sensorseite (z.B. an das Sensormodul, z.B. an jedes Sensormodul) geliefert werden. Der Komplexitätsbewertungswert kann in Übereinstimmung mit einem oder mehreren Komplexitätskriterien bestimmt werden, z.B. kann er auf der Grundlage einer Kombination von einem oder mehreren Komplexitätskriterien berechnet werden. Der aktuelle (z.B. mit einem bestimmten Zeitpunkt verbundene) Komplexitäts-Scorewert kann durch Kombination, z.B. in gewichteter oder nicht gewichteter Weise, des einen oder mehrerer Komplexitätskriterien, die aktuell (z.B. zu diesem Zeitpunkt) relevant sind, bestimmt werden. Als Beispiel kann eine Nachschlagetabelle bereitgestellt werden, die das eine oder die mehreren Komplexitätskriterien enthält, die jeweils mit einem entsprechenden Komplexitäts-Scorewert verbunden sind.
  • Das eine oder die mehreren Komplexitätskriterien können eine oder mehrere sensorsysteminterne und/oder sensorsystemexterne Bedingungen (z.B. eine oder mehrere fahrzeuginterne und/oder fahrzeugexterne Bedingungen) beinhalten oder auf diesen basieren. Jedes Komplexitätskriterium kann mit einem hohen oder niedrigen Komplexitätsbewertungswert verbunden sein (z.B. hoch kann ein Wert gleich oder größer als 50% des maximalen Komplexitätsbewertungswertes sein, und niedrig kann ein Wert kleiner als 50% des maximalen Komplexitätsbewertungswertes sein). Beispielsweise können ein Komplexitätsgrad und die damit verbundene Datenkomprimierungsrate (und das Datenkomprimierungsverfahren) definiert und durch Verkehrsvorschriften geregelt werden.
  • Ein Komplexitätskriterium kann ein Grad des autonomen Fahrens sein (z.B. ein SAE-Level, z.B. wie von der Society of Automotive Engineers (SAE) definiert, z.B. in SAE J30162018: Taxonomie und Definitionen für Begriffe im Zusammenhang mit Fahrautomatisierungssystemen für Straßenkraftfahrzeuge). Beispielsweise kann ein höherer erforderlicher und/oder angewandter SAE-Level im Vergleich zu einem niedrigen oder niedrigeren SAE-Level mit einem höheren Komplexitätswert verbunden sein, z.B. mit einer niedrigeren Datenkompressionsrate. Zur Veranschaulichung: Ein Fahrer kann in jeder Verkehrssituation zwischen verschiedenen Stufen des autonomen Fahrens wählen. Alternativ kann ein Fahrzeug, das derzeit in einer hohen autonomen Fahrstufe, z.B. SAE-Level 3 oder 4, fährt, den Fahrer auffordern, in einer komplexen und verwirrenden Verkehrssituation die Kontrolle zu übernehmen. Als Beispiel kann eine geofenced SAE-Level 4-Fahrsituation mit Geschwindigkeitsbegrenzung, in der das Fahrzeug möglicherweise noch mit einem menschlichen Fahrer, einem funktionsfähigen Antriebsrad, Gaspedal und Bremse ausgestattet ist, mit einem niedrigen Komplexitätswert verbunden sein.
  • Ein Komplexitätskriterium kann ein Fahrzeugzustand sein, zum Beispiel ein Fahrszenario (auch als Fahrsituation bezeichnet) und/oder ein Verkehrszustand (auch als Verkehrssituation bezeichnet), wie in Bezug auf 123 beschrieben. Zur Veranschaulichung: Ein teil- oder vollautomatisiertes Fahrzeug kann einer Vielzahl von Verkehrs- und/oder Fahrsituationen ausgesetzt sein, die unterschiedliche Komplexitätsgrade und Dynamiken aufweisen. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es einen Datenkomprimierungsalgorithmus auswählt, der für die aktuelle Verkehrs- und Fahrsituation geeignet ist. Eine Situation mit geringer Komplexität kann z.B. das Fahren auf einer geraden Landstraße mit nur wenigen Kreuzungen oder das Fahren über längere Zeitintervalle auf einer Autobahn hinter dem (den) gleichen vorausfahrenden Fahrzeug(en) (z.B. ähnlich wie bei einer Zuganordnung) oder das Fahren mit einer niedrigeren Geschwindigkeit umfassen. Eine hochkomplexe Situation kann z.B. das Fahren in einer größeren Stadt mit hoher Verkehrsbelastung und häufigem Spurwechsel und Wendemanövern oder das Fahren mit höherer Geschwindigkeit sein. Als weiteres Beispiel kann das Fahren im Gelände mit einem hohen Komplexitätswert verbunden sein. Ein weiteres Beispiel ist das Fahren auf einem Parkplatz, das mit einem niedrigen Komplexitätswert verbunden sein kann. Als weiteres Beispiel kann das Fahren in „nur autonomen“ Bereichen mit einem niedrigen oder mittleren Komplexitätswert assoziiert sein. Als weiteres Beispiel kann eine Fahrzeugbewegung mit Geschwindigkeits-, Beschleunigungs- und Richtungsänderungen (z.B. Spurwechsel) innerhalb eines kurzen Zeitrahmens mit einem hohen Komplexitätswert verbunden sein. Als weiteres Beispiel kann eine Verkehrssituation mit vielen Straßenkreuzungen und/oder mit hoher Verkehrsdynamik und Verkehrsdichte mit einem hohen Komplexitätswert assoziiert werden. Als weiteres Beispiel kann eine Verkehrssituation mit gemischten Verkehrsteilnehmern (z.B. Verkehrsteilnehmer unterschiedlicher Art, wie Fahrzeuge und Fußgänger) mit einem hohen Komplexitätswert assoziiert werden. Die Risikobeurteilung kann z.B. auf Informationen basieren, die von einer Verkehrskarte geliefert werden (z.B. auf historischen Verkehrsbedingungen), wie in Bezug auf 127 bis 130 beschrieben. Illustrativ kann für den Fall, dass die aktuelle Verkehrs- und/oder Fahrsituation eine hohe Komplexität aufweist (z.B. aufgrund von neuralgischen Punkten, die aus der Verkehrskarte bekannt sind), ein Kompressionsalgorithmus mit einer niedrigen Kompressionsrate gewählt werden.
  • Ein Komplexitätskriterium kann eine Wetterbedingung sein (z.B. als Teil des Fahrzeugzustandes). So kann z.B. das Fahren bei schlechtem Wetter im Vergleich zum Fahren bei guten Sichtverhältnissen mit einem höheren Komplexitätswert verbunden sein.
  • Ein Komplexitätskriterium kann der Grad der verfügbaren Unterstützung durch künstliche Intelligenz (z.B. beim Autofahren) sein. So kann z.B. ein hohes Maß an Verfügbarkeit (z.B. ein hohes Maß an Ressourcen, die für die Durchführung der Unterstützung durch künstliche Intelligenz zur Verfügung stehen) mit einem niedrigen Komplexitätswert verbunden sein. Als weiteres Beispiel kann ein niedriger Grad an Verfügbarkeit mit einem hohen Komplexitätswert verbunden sein.
  • Ein Komplexitätskriterium kann eine Sensorkonfiguration oder Sensormodulkonfiguration sein. Zur Veranschaulichung: Der Wert der Komplexitätsbewertung kann von der Anzahl der Sensormodule abhängen, die verwendet werden können oder verwendet werden sollen. Beispielsweise kann eine Situation, in der eine Vielzahl von Sensoren für ein korrektes und eindeutiges Szenenverständnis verwendet werden soll, mit einem hohen Komplexitätsbewertungswert verbunden sein (z.B. eine Situation mit einer hohen Anzahl von Konflikten zwischen verschiedenen Sensoren). Als weiteres Beispiel kann eine Situation, in der nur einige Sensoren oder Sensortypen verwendet werden dürfen (z.B. nur infrarotempfindliche Kameras oder Sensoren in einer Nachtfahrsituation) mit einem niedrigen Komplexitätsbewertungswert verbunden sein.
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren so konfiguriert werden, dass sie den Komplexitäts-Score-Wert unter Berücksichtigung des Sensormoduls (z.B. der Art des Sensormoduls), für das der Komplexitäts-Score-Wert bereitgestellt werden kann, bestimmen (z.B. anpassen). Zur Veranschaulichung: Der Komplexitätsbewertungswert kann je nach Art der komprimierten (z.B. zu komprimierenden) Sensordaten in Übereinstimmung mit dem Komplexitätsbewertungswert angepasst werden. Einzelne Komplexitätsbewertungswerte können separat bestimmt (z.B. verarbeitet) werden.
  • Beispielsweise können verschiedene Sensormodule je nach den jeweiligen Datenverarbeitungs- und/oder Datenspeicherungsfähigkeiten mit einem unterschiedlichen Score-Wert versehen werden. Beispielsweise kann ein Sensormodul mit höheren Datenverarbeitungsfähigkeiten als ein anderes Sensormodul mit einem höheren Komplexitätsbewertungswert im Vergleich zu dem anderen Sensormodul und/oder mit einer höheren Priorität im Vergleich zu den anderen Sensormodulen versehen werden. Als weiteres Beispiel können verschiedene Sensormodule (z.B. von unterschiedlichem Typ und/oder Abbildung verschiedener Teile einer Szene) eine unterschiedliche Relevanz haben, z.B. in einer bestimmten Situation. Ein relevanteres Sensormodul kann mit einem höheren Komplexitäts-Score-Wert als ein weniger relevantes Sensormodul versehen sein (z.B. können komprimierte Sensordaten, die mit dem relevanteren Sensormodul verbunden sind, eine bessere Datenqualität haben oder erforderlich sein) und/oder mit einer höheren Priorität im Vergleich zu den anderen Sensormodulen. Beispielsweise kann die Relevanz eines Sensormoduls (und der entsprechenden Sensordaten) von einer Verkehrs- und/oder Fahrsituation abhängig sein. So können z.B. in einer Parkplatzsituation Ultraschall-Sensordaten und/oder Kameradaten relevanter sein als LIDAR-Daten und/oder RADAR-Daten. Als weiteres Beispiel können RADAR-Daten und/oder LIDAR-Datenfusion in einer Landstraßen- oder Autobahn-Situation relevanter sein als Ultraschall-Sensordaten und/oder Kameradaten.
  • Ein Gesamtkomplexitäts-Scorewert kann eine Kombination einzelner Komplexitäts-Scorewerte (z.B. von Teilmengen von Komplexitäts-Scorewerten) sein, z.B. wenn ein Komplexitäts-Scorewert für einzelne Sensormodule berechnet oder definiert wird. Zur Veranschaulichung: Der Gesamtkomplexitäts-Scorewert kann eine Summe (z.B. eine gewichtete Summe) der einzelnen Komplexitäts-Scorewerte der Sensormodule sein. Zur weiteren Veranschaulichung kann der Gesamtkomplexitäts-Scorewert eine Summe (z. B. eine gewichtete Summe) der einzelnen Komplexitäts-Scorewerte sein, die für verschiedene Teile der Szene (z. B. verschiedene Teile des Sichtfeldes des Sensorsystems) bestimmt wurden. Die von einem Sensormodul empfangenen Informationen können den Gesamtkomplexitäts-Scorewert oder den jeweiligen Komplexitäts-Scorewert aufweisen (z.B. bestimmt auf der Grundlage des Typs des Sensormoduls und/oder des abgedeckten Teils der Szene).
  • In verschiedenen Ausführungsformen können die empfangenen Informationen zusätzlich oder alternativ Informationen über einen Fahrzeugzustand aufweisen (z.B. über den Verkehr und/oder die Fahrsituation, wie z.B. Fahren in der Stadt, auf einer Landstraße, auf einer Autobahn, hohe/niedrige Verkehrsdichte, mit hoher/niedriger Geschwindigkeit usw.). Die erhaltenen Informationen können eine qualitative und/oder quantitative Beschreibung des aktuellen Fahrzeugzustands aufweisen (z.B. des Fahrzeugs, in dem das Sensorsystem eingebaut ist). Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es ein Datenkomprimierungsmerkmal (z. B. eine Datenkompressionsrate oder ein anderes Merkmal wie oben beschrieben) in Übereinstimmung mit dem Fahrzeugzustand auswählt. Illustrativ kann das Datenkompressionsmodul zusätzlich oder alternativ zum Erhalt des Komplexitäts-Score-Wertes so konfiguriert werden, dass es ein Datenkompressionsmerkmal bestimmt, das auf der Grundlage des Fahrzeugzustands (z.B. auf der Grundlage der Verkehrs- und/oder Fahrsituation) zu verwenden ist. In einem beispielhaften Szenario kann die Information über den Fahrzeugzustand durch eine Sensor-Fusionsbox bereitgestellt und an das Sender- und Empfängermodul des Sensormoduls (z.B. jedes Sensormoduls) übertragen werden.
  • In verschiedenen Ausführungsformen können die erhaltenen Informationen zusätzlich oder alternativ auch eine SAE-Ebene aufweisen. Die SAE-Ebene kann mit einem autonomen Fahren verbunden sein, das zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind (z.B. ein autonomes Fahren, das zumindest teilweise durch die Verarbeitung der komprimierten Sensordaten erfolgt, beispielhaft die vom Sensormodul gelieferten komprimierten Sensordaten). Die SAE-Ebene kann mit einem autonomen Fahren verbunden sein, das auf der Verarbeitung von Daten einschließlich der komprimierten Sensordaten beruht (z.B. in Kombination mit anderen Daten, z.B. weiteren Sensordaten von weiteren Sensormodulen). In einem Beispielszenario kann die SAE-Ebene von einem elektronischen Steuersystem des Fahrzeugs bereitgestellt und an das Sender- und Empfängermodul des Sensormoduls (z.B. jedes Sensormoduls) übertragen werden.
  • Diese Informationen können vom Datenkomprimierungsmodul verwendet werden, um einen Komprimierungsalgorithmus auszuwählen, der für die aktuell aktivierte SAE-Stufe geeignet ist. Im Falle eines niedrigen SAE-Levels (z.B. SAE-Level 0-2) kann das Datenkomprimierungsmodul so konfiguriert werden, dass es eine hohe Datenkompressionsrate auswählt, z.B. einen verlustbehafteten Datenkompressionsalgorithmus (z.B. mit einer Datenkompressionsrate von mehr als 60%). Im Falle eines hohen SAE-Levels (z.B. 3 oder höher) kann das Datenkomprimierungsmodul so konfiguriert werden, dass es eine niedrige Datenkomprimierungsrate auswählt, z.B. einen verlustfreien Datenkomprimierungsalgorithmus (z.B. mit einer Datenkomprimierungsrate von weniger als 30%). Ein niedriges SAE-Niveau kann z.B. mit einer Fahrsituation verbunden sein, in der die Hauptregelungsaktivitäten von einem menschlichen Fahrer ausgeführt werden, so dass der Schwerpunkt des Fahrzeugsensorsystems hauptsächlich auf fortgeschrittenen Fahrerassistenzsystemfunktionen (ADAS) wie Spurhaltung, Geschwindigkeitsregelung, Notbremsunterstützung und ähnlichem liegen kann. Als weiteres Beispiel kann ein hoher SAE-Level mit einer Fahrsituation verbunden sein, in der das Fahrzeugsensorsystem immer mehr Fahrzeugkontrollfunktionen übernehmen kann, wodurch höhere Anforderungen an die vom Fahrzeugsensorsystem gelieferte Datenqualität gestellt werden (z.B. an die von jedem Sensormodul gelieferte Datenqualität).
  • In verschiedenen Ausführungsformen können die empfangenen Informationen zusätzlich oder alternativ eine Anweisung aufweisen, die eine Datenqualität der zu liefernden komprimierten Sensordaten beschreibt (z.B. eine Anforderung von komprimierten Sensordaten mit einer bestimmten Datenqualität). Das Datenkompressionsmodul kann so konfiguriert werden, dass es die Datenkompressionscharakteristik (z.B. eine Datenkompressionsrate oder eine andere Charakteristik wie oben beschrieben) in Übereinstimmung mit der empfangenen Anweisung (z.B. in Übereinstimmung mit der empfangenen Anforderung) auswählt. Zur Veranschaulichung: Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es die empfangene Anweisung ausführt (z.B. kann die Anweisung das auszuwählende Datenkomprimierungsmerkmal beschreiben oder spezifizieren).
  • Der eine oder mehrere Prozessoren (z.B. auf der Datenverarbeitungsseite) können so konfiguriert werden, dass sie die Datenqualität bestimmen (z.B. auswerten oder berechnen), die mit den vom Sensormodul gelieferten komprimierten Sensordaten in Verbindung gebracht werden soll (z.B. für die komprimierten Sensordaten, die aus den vom Sensormodul gelieferten Sensordaten erzeugt werden). Veranschaulichend kann der eine oder mehrere Prozessoren konfiguriert werden, um die Datenqualität zu bestimmen, die die vom Sensormodul gelieferten komprimierten Sensordaten haben sollen (z.B. eine Datenqualität, die für die vom Sensormodul gelieferten komprimierten Sensordaten angefordert werden soll). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine Anweisung (z.B. eine Anforderung) erzeugen, um komprimierte Sensordaten mit der ermittelten Datenqualität zu liefern. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine solche Anweisung (z.B. eine solche Anforderung) an das Sensormodul übermitteln (z.B. über die bidirektionale Kommunikationsschnittstelle).
  • In verschiedenen Ausführungsformen können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Datenqualität bestimmen (z.B. messen oder berechnen), die mit den komprimierten Sensordaten, die vom Sensormodul geliefert werden, verknüpft werden soll, basierend auf weiteren Sensordaten (z.B. roh oder komprimiert), die von mindestens einem weiteren Sensormodul geliefert werden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Datenqualität bestimmen, die den komprimierten Sensordaten zugeordnet werden soll, je nachdem, ob bereits genügend Daten verfügbar sind (z.B. von einem weiteren Sensormodul oder einer Vielzahl weiterer Sensormodule bereitgestellt). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die mit den komprimierten Sensordaten zu verknüpfende Datenqualität bestimmen (z.B. definieren oder anfordern), basierend auf dem Ergebnis der Datenverarbeitung, die mit den von mindestens einem weiteren Sensormodul gelieferten Sensordaten durchgeführt wird. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie eine niedrige Datenqualität bestimmen, die mit den komprimierten Sensordaten in Verbindung gebracht werden soll, falls die Datenverarbeitung mit den weiteren Sensordaten Ergebnisse mit hoher Genauigkeit (z.B. über einem Schwellengenauigkeitsniveau, z.B. über einem Schwellenkonfidenzniveau) liefert. Ein weiteres Beispiel ist, dass ein oder mehrere Prozessoren so konfiguriert werden können, dass sie eine hohe Datenqualität bestimmen, die mit den komprimierten Sensordaten assoziiert wird, falls die Datenverarbeitung mit den weiteren Sensordaten Ergebnisse mit geringer Genauigkeit liefert (z.B. unter einem Schwellenwert-Genauigkeitsniveau).
  • Diese Operation kann mit Redundanzanforderungen zusammenhängen, die auf der Verarbeitungsebene erfüllt werden müssen (z.B. auf der Ebene eines oder mehrerer Prozessoren, z.B. auf der Ebene der Sensor-Fusionsbox), wobei diese Anforderungen die tolerierbare Kompressionsrate für das Sensormodul beeinflussen können (z.B. kann dies zu einer weiteren Dynamik in Bezug auf die maximal tolerierbare Kompressionsrate für das Sensormodul führen). In einem Beispielszenario können eindeutige Daten von mindestens zwei separaten Sensoren oder Sensormodulen (z.B. mit zumindest teilweise überlappendem Sichtfeld) für ein korrektes Szenenverständnis in einer bestimmten Richtung (z.B. der Fahrtrichtung des Fahrzeugs) erforderlich sein. Für den Fall, dass ein erstes Sensormodul und ein zweites Sensormodul in der Lage sind, solche Daten zu liefern (z.B. in einer aktuellen Verkehrs- und Fahrsituation), können von einem dritten (z.B. teilweise überlappenden) Sensormodul nur Daten von geringer Qualität angefordert werden. Die Sensordaten aus dem dritten Sensormodul können mit einer hohen Kompressionsrate komprimiert werden. Falls das erste Sensormodul und das zweite Sensormodul nicht in der Lage sind, Daten mit angemessener Genauigkeit zu liefern (z.B. bei Sensorausfall, bei übermäßigem Signal-Rausch-Verhältnis, in Anbetracht des Wetters oder anderer Umweltbedingungen und ähnlichem), können qualitativ hochwertige Daten vom dritten Sensormodul angefordert werden. In diesem Fall kann ein Algorithmus mit einer niedrigen Datenkompressionsrate für das dritte Sensormodul angewendet werden.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie den vom Sensormodul gelieferten komprimierten Sensordaten eine Prioritätsstufe (z.B. einen Prioritätswert) zuweisen (z.B. um dem Sensormodul und/oder den vom Sensormodul gelieferten Sensordaten eine Prioritätsstufe zuzuweisen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Datenqualität bestimmen (z.B. definieren, messen, berechnen oder anfordern), die mit den komprimierten Sensordaten in Übereinstimmung mit der den komprimierten Sensordaten (z.B. dem Sensormodul) zugewiesenen Prioritätsstufe verknüpft werden soll. Die Komplexitäts-Score-Werte können, wie oben beschrieben, in eine solche Sensorpriorisierung einbezogen werden. Zur Veranschaulichung: Der eine oder mehrere Prozessoren können so konfiguriert werden, dass eine Relevanz des Sensormoduls (z.B. in Bezug auf andere Sensormodule, z.B. in einer aktuellen Situation) bestimmt wird. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Prioritätsstufe auf der Grundlage der Relevanz des Sensormoduls (z.B. der vom Sensormodul gelieferten Sensordaten) zuweisen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Prioritätsstufe bestimmen, die den vom Sensormodul gelieferten komprimierten Sensordaten basierend auf dem Sichtfeld des Sensormoduls zuzuweisen ist. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass dem Sensormodul die Prioritätsstufe auf der Grundlage des vom Sensormodul abgedeckten Teils der Szene zugewiesen wird.
  • Sensorpriorisierung kann eingesetzt werden, um die Datenmenge zu reduzieren, die vom Sensorsystem erzeugt wird. In einem Beispielszenario, in dem das Fahrzeug auf einer geraden Straße ohne Kreuzungen in der Nähe fährt, kann sich das Fahrzeugsensorsystem auf Daten aus einem Front-LIDAR-System konzentrieren, wobei dem Front-LIDAR-System illustrativ der höchste Prioritätswert zugewiesen werden kann. Eine niedrigere Priorität, z.B. eine mittlere Priorität, kann anderen nach vorn gerichteten Sensorsystemen wie RADAR- und Kamerasystemen zugewiesen werden. Eine noch niedrigere Priorität kann seitlichen und/oder hinteren Sensorsystemen (LIDAR, RADAR, Kamera) zugewiesen werden. In diesem Szenario kann das vordere LIDAR-System eine Befehlsnachricht (z.B. eine Anweisung) erhalten, die qualitativ hochwertige Daten mit keiner oder nur geringer Datenkomprimierung anfordert. Das vordere RADAR- und Kamerasystem kann eine Befehlsnachricht empfangen, die Daten mit einer höheren Datenkomprimierungsrate im Vergleich zum vorderen LIDAR-System anfordert. Die seitlich und/oder nach hinten gerichteten Sensorsysteme können eine Befehlsnachricht erhalten, die Daten mit einer hohen oder sogar maximalen Datenkomprimierungsrate anfordert.
  • In verschiedenen Ausführungsformen können die empfangenen Informationen eine blickfeldabhängige Datenqualität definieren. Die empfangenen Informationen können unterschiedliche Datenqualitäten für komprimierte Sensordaten definieren, die verschiedenen Teilen des Sichtfeldes zugeordnet sind. Beispielsweise können die empfangenen Informationen eine erste Datenqualität für einen ersten Teil (z.B. eine erste Teilmenge) der komprimierten Sensordaten und eine zweite Datenqualität für einen zweiten Teil (z.B. eine erste Teilmenge) der komprimierten Sensordaten definieren. Der erste Teil der komprimierten Sensordaten kann mit einem ersten Teil (z.B. einem ersten Segment) des Sichtfeldes des Sensormoduls (z.B. mit einem ersten Teil der Szene) assoziiert werden. Der zweite Teil der komprimierten Sensordaten kann mit einem zweiten Teil (z.B. einem zweiten Segment) des Sichtfeldes des Sensormoduls (z.B. mit einem zweiten Teil der Szene) assoziiert werden. Das erste Segment des Sichtfeldes kann sich von dem zweiten Segment des Sichtfeldes unterscheiden (z.B. nicht oder nur teilweise überlappend).
  • In verschiedenen Ausführungsformen kann das Datenkomprimierungsmodul so konfiguriert werden, dass es verschiedene Datenkomprimierungsmerkmale (z. B. verschiedene Datenkompressionsraten oder andere Merkmale wie oben beschrieben) auswählt, um verschiedene Teile der Sensordaten zu komprimieren (z. B. in Verbindung mit verschiedenen Segmenten des Sichtfeldes des Sensormoduls, die z. B. durch die Erkennung verschiedener Teile des Sichtfeldes erzeugt werden). Beispielsweise kann das Datenkomprimierungsmodul so konfiguriert werden, dass es eine erste Datenkomprimierungscharakteristik (z. B. eine erste Datenkompressionsrate) auswählt, um erste komprimierte Daten zu erzeugen, und eine zweite Datenkomprimierungscharakteristik (z. B. eine zweite Datenkompressionsrate) auswählt, um zweite komprimierte Daten zu erzeugen. Die ersten komprimierten Daten können dem ersten Segment des Sichtfeldes des Sensormoduls zugeordnet werden und die zweiten komprimierten Daten können dem zweiten Segment des Sichtfeldes des Sensormoduls zugeordnet werden. Die erste Datenkompressionscharakteristik kann sich von der zweiten Datenkompressionscharakteristik unterscheiden. Beispielsweise kann eine niedrigere Kompressionsrate für relevantere Segmente oder Bereiche des Sichtfeldes gewählt werden (z.B. ein Bereich entlang des Weges des Fahrzeugs oder ein Bereich, der ein sicherheitskritisches Objekt enthält, wie z.B. ein anderes Fahrzeug). Darüber hinaus können verschiedene Objektparameter berücksichtigt werden, wie z.B. Objektgröße, Standort, Orientierung, Geschwindigkeit oder Beschleunigung. Eine Zuordnung verschiedener Datenkompressionsraten zu verschiedenen Teilen des Sichtfeldes kann beispielsweise wie in Bezug auf 162A bis 164E beschrieben erfolgen.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie eine Anweisung zur Bereitstellung komprimierter Sensordaten mit unterschiedlicher Datenqualität je nach dem damit verbundenen Teil des Sichtfeldes erzeugen. Beispielsweise können diese Unterabschnitte einer 3D-Punktewolke von einem oder mehreren Prozessoren (z.B. von der Sensor-Fusionsbox) mit hoher Qualität angefordert werden, wobei von diesen Abschnitten erwartet werden kann, dass sie relevante Daten liefern. Die anderen Teile des Sichtfeldes (z.B. des Sichtfeldes des Sensorsystems, das z.B. von einem oder mehreren Sensormodulen abgedeckt wird) können nur mit einem geringeren Genauigkeitsgrad angefordert werden (was z.B. eine höhere Datenkomprimierung ermöglicht) und/oder können erst zu einem späteren Zeitpunkt oder gar nicht angefordert werden.
  • Die auf dem Sichtfeld basierende Priorisierung kann zu einer Reduzierung der Datenmenge führen, die durch das Sensorsystem erzeugt wird. Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie das Sichtfeld (z.B. des Sensorsystems, z.B. die Überlagerung des Sichtfeldes der Sensormodule) in verschiedene Teile aufteilen oder unterteilen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die einzelnen Teile auf unterschiedliche Weise verarbeiten, z.B. hinsichtlich der Datenkompression. Beispielsweise können Konzepte des ereignisbasierten Sehens verwendet werden, bei denen nur Teilbereiche einer 3D-Punktewolke von einem oder mehreren Prozessoren „on-demand“ angefordert werden können (z.B. mit hoher Qualitätsstufe). In einem beispielhaften Szenario, in dem ein Fahrzeug eine linksabbiegende Straße umfährt, dürfen nur diejenigen Teile der von einem nach vorne gerichteten Sensormodul erzeugten 3D-Punktwolkendaten verwendet werden, die zum linken Teil des Sichtfeldes des Sensormoduls gehören. In diesem Fall kann das Sensormodul eine Befehlsnachricht erhalten, die qualitativ hochwertige Daten ohne oder mit nur geringer Datenkomprimierung für den Teil bzw. die Teile der 3D-Punktwolkendaten anfordert, die zum linken Teil des Sichtfeldes des Sensormoduls gehören. Der/die dem mittleren Teil des Sichtfeldes zugeordneten Teil(e) kann/können mit einer höheren Komprimierungsrate komprimiert werden. Die Daten, die dem rechten Teil des Sichtfelds zugeordnet sind, können mit einer noch höheren oder maximalen Datenkomprimierungsrate komprimiert werden.
  • Für die Aufteilung des Sichtfeldes (z.B. des Sensorsystems) können verschiedene Methoden (z.B. durch einen oder mehrere Prozessoren) vorgesehen werden. Beispielsweise kann bei einer einfachen Methode das Sichtfeld in Teilbereiche einfacher Geometrie aufgeteilt werden, z.B. entlang gerader vertikaler und/oder horizontaler Ebenen, die das Sichtfeld in eine Vielzahl von Winkelschnitten unterteilen. Als Beispiel kann das Sichtfeld entlang zweier vertikaler Ebenen in drei gleich große Winkelabschnitte unterteilt werden, z.B. in einen mittleren Abschnitt, einen linksseitigen Abschnitt und einen rechtsseitigen Abschnitt.
  • Ein weiteres Beispiel: Bei einer anspruchsvolleren Methode kann das Sichtfeld auf der Grundlage einer vorläufigen Analyse in Bezug auf eine Gruppierung von 3D-Punkten im Sichtfeld aufgeteilt werden. Das Sichtfeld kann auf der Grundlage einer Auswertung von Histogrammdaten analysiert werden. Histogrammdaten können für eine vordefinierte Anzahl von Behältern entlang der z-Achse bestimmt werden (zur Veranschaulichung: eine Achse parallel zur Richtung, in der eine optische Achse des Sensorsystems ausgerichtet werden kann). Als Beispiel kann ein maximaler Bereich entlang der z-Achse von 300 m in 60 Behälter von 5 m Länge entlang der z-Achse unterteilt werden. Im Bereich von 0 m bis 5 m können alle 3D-Punkte gezählt und aufsummiert werden, unabhängig von ihren x- und y-Werten. Alle 3D-Punkte im Bereich der Behälter von 5 m bis 10 m, von 10 m bis 15 m, ..., von 295 m bis 300 m können gezählt und aufsummiert werden. Basierend auf dieser Analyse können Zbins mit einem kumulierten Wert, der höher als ein vordefinierter Schwellenwert ist, in Bezug auf Histogrammdaten für eine vordefinierte Anzahl von Bins entlang der x- und/oder y-Achse (z.B. entlang einer ersten Achse und/oder einer zweiten Achse, die senkrecht zueinander und senkrecht zur z-Achse stehen) weiter analysiert werden. Wenn alle Informationen zusammengenommen werden, können durch diese Analyse Bereiche im Sichtfeld mit einer Gruppierung von 3D-Punkten bestimmt werden. Basierend auf dem Clustering kann ein entsprechendes (adaptives) Netz oder Gitter definiert werden, das geclusterte Bereiche mit vielen 3D-Punkten von Bereichen ohne oder mit nur wenigen 3D-Punkten trennt. Eine solche Partitionierung der Punktwolke kann ähnlich wie die Erstellung sogenannter BEgrenzungsrahmen sein, wie sie z.B. in Bezug auf 162A bis 164E beschrieben sind.
  • In verschiedenen Ausführungsformen können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die mit den komprimierten Sensordaten zu verknüpfende Datenqualität auf der Grundlage der verfügbaren Datenübertragungsressourcen und/oder der mit dem einen oder den mehreren Prozessoren verknüpften Speicherressourcen bestimmen. Zur Veranschaulichung: Wenn eine hohe (oder höhere) Menge an Ressourcen verfügbar ist, kann eine hohe (oder höhere) Datenqualität bestimmt (und angefordert) werden, z.B. eine niedrige (oder niedrigere) Datenkomprimierungsrate. Beispielsweise kann die Datenkompressionsrate in Abhängigkeit von den verfügbaren Datenübertragungsraten angepasst werden, z.B. intravehikuläre Datenübertragungsraten, V2V oder V21-Datenübertragungsraten, z.B. bei Verwendung (oder nicht) eines 5G-Netzes. Eine bessere Kommunikationsinfrastruktur kann zu einer niedrigeren Kompressionsrate führen. Als weiteres Beispiel kann die Datenkompressionscharakteristik in Abhängigkeit von den verfügbaren Speicherressourcen eines LIDAR-Datenverarbeitungssystems angepasst werden.
  • In verschiedenen Ausführungsformen kann das Sensorsystem eine oder mehrere zusätzliche Informationen aufweisen, die Schnittstellen und/oder Kommunikationsschnittstellen bereitstellen. Beispielsweise kann das Sensorsystem mindestens eine Schnittstelle für ein globales Positionsbestimmungssystem aufweisen, um globale Positionsbestimmungsinformationen zu empfangen (z.B. die Beschreibung einer Position des Fahrzeugs, z.B. GPS-Koordinaten des Fahrzeugs). Als weiteres Beispiel kann das Sensorsystem mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle aufweisen. Als weiteres Beispiel kann das Sensorsystem mindestens eine Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle aufweisen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Daten und/oder Informationen über solche zusätzlichen Schnittstellen empfangen (z.B. über das Fahrzeug-Sender- und Empfänger-Modul). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die über solche Schnittstellen empfangenen Daten verarbeiten. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Informationen bestimmen (z.B. erzeugen), die eine Datenqualität definieren, die mit den komprimierten Sensordaten verbunden ist, basierend auf den Informationen oder Daten, die über solche Schnittstellen und/oder Kommunikationsschnittstellen empfangen werden.
  • In verschiedenen Ausführungsformen kann zusätzlich oder alternativ eine Datenverarbeitung auf der Sensorseite des Sensorsystems vorgesehen werden. Illustrativ kann eine verteilte Datenverarbeitungsarchitektur vorgesehen werden. Die Datenverarbeitung (z.B. Datenanalyse, ein oder mehrere Objekterkennungsverfahren oder ein oder mehrere Objektklassifikationsverfahren) kann zumindest teilweise auf der Ebene des Sensormoduls (z.B. auf der Ebene jedes einzelnen Sensors oder Sensormoduls) erfolgen. Dies kann zu einer anderen Struktur führen als die oben beschriebene Datenverarbeitungsstruktur, die auf einer zentralisierten Datenverarbeitungsarchitektur basieren kann. In der oben beschriebenen zentralisierten Architektur können die Sensordaten (z.B. komprimiert oder nicht komprimiert), die von einem Sensormodul (z.B. von jedem Sensormodul, z.B. von jedem Sensor) bereitgestellt werden, zur weiteren Analyse, Objekterkennung und dergleichen an ein zentrales System übertragen werden (z.B. an den einen oder mehrere Prozessoren auf der Datenverarbeitungsseite, z.B. an eine zentrale Sensorfusionsbox).
  • Das Sensormodul (z.B. jedes Sensormodul) kann so konfiguriert werden, dass es einen oder mehrere Objekterkennungsprozesse implementiert, wobei die Sensordaten zur Bereitstellung objektbezogener Daten verwendet werden. Zusätzlich oder alternativ kann das Sensormodul (z.B. jedes Sensormodul) so konfiguriert werden, dass es einen oder mehrere Objektklassifizierungsprozesse unter Verwendung der Sensordaten implementiert, um klassifizierte objektbezogene Daten bereitzustellen. Zur Veranschaulichung: Das Sensormodul kann einen oder mehrere Prozessoren aufweisen und/oder mit einem oder mehreren Prozessoren verbunden sein (z.B. auf der Sensorseite).
  • In dieser Konfiguration kann nur eine begrenzte Anzahl von objektbezogenen Daten (und/oder klassifizierten objektbezogenen Daten) an die Datenverarbeitungsseite (z.B. an ein Objektfusionsmodul) übertragen werden. Beispielsweise kann jedes Sensormodul so konfiguriert werden, dass es Daten in Bezug auf so genannte Begrenzungsrahmen überträgt, die die im Sichtfeld erkannten Objekte umgeben. Solche Daten können z.B. die Position jedes Begrenzungsrahmens im Sichtfeld (z.B. x-, y-, z-Koordinaten), die Orientierung jedes Begrenzungsrahmens (z.B. u-, v-, w-Richtungen in Bezug auf das x-, y-, z-Koordinatensystem) und die Größe jedes Begrenzungsrahmens (z.B. Länge L, Breite W und Höhe H) umfassen. Optional können zusätzliche Werte in Bezug auf jeden Begrenzungskasten übertragen werden, wie z.B. Reflektivitätswerte, Konfidenzwerte und ähnliches.
  • Der Betrieb des Sensorsystems in Bezug auf die objektbezogenen Daten und/oder die klassifizierten objektbezogenen Daten kann als der Betrieb des Sensorsystems in Bezug auf die oben beschriebenen Sensordaten konfiguriert werden.
  • Das Datenkomprimierungsmodul kann so konfiguriert werden, dass zumindest ein Teil der objektbezogenen Daten komprimiert wird, um komprimierte objektbezogene Daten bereitzustellen. Zusätzlich oder alternativ kann das Datenkomprimierungsmodul so konfiguriert werden, dass zumindest ein Teil der klassifizierten objektbezogenen Daten komprimiert wird, um komprimierte klassifizierte objektbezogene Daten zu liefern.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die objektbezogenen Daten und/oder die klassifizierten objektbezogenen Daten (z.B. die komprimierten objektbezogenen Daten und/oder die komprimierten klassifizierten objektbezogenen Daten) verarbeiten. Der eine oder die mehreren Prozessoren können beispielsweise so konfiguriert werden, dass sie einen Objektklassifizierungsprozess unter Verwendung der objektbezogenen Daten (oder einer Kombination von objektbezogenen Daten, die von mehreren Sensormodulen bereitgestellt werden) durchführen.
  • Die erhaltenen Informationen können eine Datenqualität definieren, die mit den komprimierten objektbezogenen Daten und/oder mit den komprimierten klassifizierten objektbezogenen Daten assoziiert ist (z.B. assoziiert werden soll). Das Datenkomprimierungsmodul kann so konfiguriert werden, dass es ein Datenkomprimierungsmerkmal (z.B. eine Datenkompressionsrate oder ein anderes Merkmal, wie oben beschrieben) auswählt, das für die Erzeugung der komprimierten objektbezogenen Daten und/oder der komprimierten klassifizierten objektbezogenen Daten in Übereinstimmung mit den empfangenen Informationen verwendet wird. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie solche Informationen erzeugen, die die Datenqualität definieren, die mit den komprimierten objektbezogenen Daten und/oder mit den komprimierten klassifizierten objektbezogenen Daten verbunden sind (z.B. verbunden werden sollen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie solche Informationen an das Sensormodul (z.B. an jedes Sensormodul) übertragen. Die Ermittlung (z.B. die Generierung) solcher Informationen kann in Bezug auf die komprimierten Sensordaten wie oben beschrieben durchgeführt werden.
  • In einer verteilten Architektur kann ein Kompromiss zwischen schneller Datenverarbeitung und/oder effizienter Datenverarbeitung und/oder energiesparender Datenverarbeitung einerseits und zuverlässiger Objekterkennung (und/oder Klassifizierung) andererseits gefunden werden. Beispielsweise können Daten aus bestimmten Regionen des Sichtfeldes priorisiert werden, um die Objekterkennung zu beschleunigen (z.B. kann die Verarbeitung auf bestimmte Regionen des Sichtfeldes konzentriert werden). Aus solchen Regionen können Daten von hoher Qualität angefordert werden (z.B. ohne oder nur mit verlustfreier Kompression). Daten aus anderen Regionen können mit geringerer Datenqualität angefordert werden (z.B. mit einem verlustbehafteten Datenkompressionsalgorithmus), oder sie können in erster Instanz ignoriert werden. In einem späteren nachgeschalteten Objektfusionsprozess können Inkonsistenzen oder Diskrepanzen in Bezug auf einige oder alle Sensoren, die objektbezogene Daten liefern, erkannt werden. In diesem Fall können, ähnlich wie in dem oben beschriebenen Szenario in Bezug auf eine zentralisierte Datenverarbeitungsarchitektur, Daten höherer Qualität von den vorgeschalteten Einheiten (auf Anfrage) angefordert werden. Zur Veranschaulichung: Daten, die in den Objekterkennungsprozess in einem Sensormodul mit geringer Datenqualität eingegangen sind, können erneut verarbeitet werden, um Daten höherer Qualität zu liefern.
  • 167 zeigt ein Sensorsystem 16700 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. Das Sensorsystem 16700 kann zur Veranschaulichung eine Sensorseite und eine Datenverarbeitungsseite umfassen, die über eine bidirektionale Kommunikationsschnittstelle 16710 miteinander kommunizieren, wie im Folgenden näher beschrieben wird.
  • Das Sensorsystem 16700 kann (z.B. auf der Sensorseite) ein Sensormodul 16702 aufweisen. Das Sensormodul 16702 kann so konfiguriert werden, dass es Sensordaten liefert. Als Beispiel kann das Sensormodul 16702 einen Sensor 16704 aufweisen, der so konfiguriert ist, dass er ein Sensorsignal (z. B. eine Vielzahl von Sensorsignalen) erzeugt. Das Sensormodul 16702 kann so konfiguriert werden, dass es das (z.B. analoge) Sensorsignal in (z.B. digitale) Sensordaten umwandelt (z.B. kann das Sensormodul 16702 einen mit dem Sensor gekoppelten Analog-Digital-Wandler aufweisen).
  • Das Sensormodul 16702 kann von einem vordefinierten Sensortyp sein (z.B. kann ein Sensor 16704 eines vordefinierten Typs aufweisen). Das Sensormodul 16702 kann als ein Sensortyp konfiguriert werden, der aus einer Gruppe von Sensortypen ausgewählt wird, die einen LIDAR-Sensor, einen RADAR-Sensor, einen Kamerasensor, einen Ultraschallsensor und einen Trägheitsmesssensor enthält oder aus diesen besteht. Beispielsweise kann das Sensorsystem 16700 oder das Sensormodul 16702 als LIDAR-System konfiguriert sein oder konfiguriert werden, z.B. als LIDAR-Sensorsystem 10, und der Sensor 16704 kann als LIDAR-Sensor 52 konfiguriert sein oder konfiguriert werden (z.B. mit einer oder mehreren Fotodioden).
  • Das Sensorsystem 16700 kann optional ein oder mehrere weitere Sensormodule 16702b aufweisen (z.B. mehrere weitere Sensormodule 16702b). Das eine oder die mehreren weiteren Sensormodule 16702b können von einem vordefinierten Sensortyp sein (z.B. kann jedes weitere Sensormodul einen entsprechenden Sensor 16704b von einem vordefinierten Typ aufweisen). Zum Beispiel kann mindestens ein weiteres Sensormodul 16702b des einen oder der mehreren weiteren Sensormodule 16702b vom gleichen Sensortyp wie das Sensormodul 16702 sein (z.B. können das Sensormodul 16702 und das mindestens eine weitere Sensormodul 16702b LIDAR-Sensormodule sein, die in verschiedenen Positionen angeordnet sind oder verschiedene Teile des Sichtfeldes des Sensorsystems 16700 abdecken). Als weiteres Beispiel kann mindestens ein weiteres Sensormodul 16702b des einen oder der mehreren weiteren Sensormodule 16702b von einem anderen Sensortyp als das Sensormodul 16702 sein. So kann z.B. das Sensormodul 16702 ein LIDAR-Sensormodul und das weitere Sensormodul 16702b ein Kamerasensormodul (z.B. mit einer Kamera) sein.
  • Das Sensorsystem 16700 kann (z.B. auf der Sensorseite) ein Datenkomprimierungsmodul 16706 aufweisen. Das Datenkomprimierungsmodul 16706 kann zur Komprimierung von Daten (z.B. Sensordaten) konfiguriert werden. Zusätzlich kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es Daten überträgt und/oder dekomprimiert. Zur Veranschaulichung: Das Datenkomprimierungsmodul 16706 kann eine oder mehrere Komponenten aufweisen, z. B. Hardwarekomponenten (z. B. einen oder mehrere Prozessoren), die zur Implementierung der Datenkomprimierung konfiguriert sind (z. B. zur Ausführung von Softwarebefehlen zur Datenkomprimierung).
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es Daten mit verschiedenen Datenkomprimierungsmerkmalen komprimiert, z. B. mit verschiedenen Datenkompressionsraten, z. B. kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es verschiedene Komprimierungsalgorithmen implementiert oder ausführt (z. B. mit verschiedenen Kompressionsraten). Beispielsweise kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es mindestens einen verlustbehafteten Komprimierungsalgorithmus implementiert (z.B. zur Verwendung eines verlustbehafteten Komprimierungsalgorithmus zur Komprimierung der Sensordaten oder eines Teils der Sensordaten), z.B. einen Algorithmus, der aus Quantisierung, Rundung, Diskretisierung, Transformationsalgorithmus, schätzbasiertem Algorithmus und prädiktionsbasiertem Algorithmus ausgewählt wird. Als weiteres Beispiel kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es mindestens einen verlustfreien Komprimierungsalgorithmus implementiert (z. B. zur Verwendung eines verlustfreien Komprimierungsalgorithmus zur Komprimierung der Sensordaten oder eines Teils der Sensordaten), wie z. B. einen Algorithmus, der aus Lauflängenkodierung, Kodierung variabler Länge und Entropie-Kodierungsalgorithmus ausgewählt wird.
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es mindestens einen (z. B. den ersten) Teil der vom Sensormodul 16702 gelieferten Sensordaten komprimiert, um komprimierte Sensordaten zu erzeugen. Die Komprimierung eines Teils der vom Sensormodul 16702 bereitgestellten Sensordaten kann z.B. so beschrieben werden, dass das Datenkomprimierungsmodul 16706 so konfiguriert ist, dass es einen (z.B. kontinuierlichen) Strom von Sensordaten empfängt und zumindest einen Teil der empfangenen Sensordaten komprimiert. Als Beispiel kann, wie in 167 dargestellt, das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es die (z. B. Roh-)Sensordaten vom Sensormodul 16702 empfängt. Illustrativ kann das Datenkomprimierungsmodul 16706 kommunikativ mit dem Sensormodul 16702 gekoppelt werden (z.B. mit dem Sensor 16704 oder mit dem Analog-Digital-Wandler).
  • Das Sensorsystem 16700 kann (z.B. auf der Sensorseite) einen Speicher 16708 (zur Veranschaulichung: einen Datenzwischenspeicher) aufweisen. Der Speicher 16708 kann mindestens einen (z.B. zweiten) Teil der Sensordaten speichern, der nicht in den komprimierten Sensordaten umfasst ist. Der Speicher 16708 kann ein flüchtiger Speicher (zur Veranschaulichung: ein Transientenspeicher) sein oder einen solchen aufweisen. Alternativ kann der Speicher 16708 ein nichtflüchtiger (zur Veranschaulichung: nicht flüchtiger) Speicher sein oder einen solchen aufweisen. Die Speicherkapazität des Speichers 16708 kann in Übereinstimmung mit den gewünschten Betriebsparametern (z. B. Betriebsgeschwindigkeit, Speicherzeit usw.) ausgewählt werden. Beispielsweise kann der Speicher 16708 eine Speicherkapazität im Bereich von etwa 1 MB bis etwa 10 GB haben, z.B. von etwa 100 MB bis etwa 1 GB. Als Beispiel kann der Speicher ein Ringspeicher sein. Der Ringspeicher kann z.B. eine Speicherkapazität von mindestens 10 MB haben, z.B. mindestens 100 MB, z.B. 1 GB.
  • Das Sensorsystem 16700 kann so konfiguriert werden, dass es den komprimierten Sensordaten und dem Teil der Sensordaten, der nicht in den komprimierten Sensordaten umfasst ist und der im Speicher 16708 gespeichert ist, eine Kennung (z. B. einen Zeitstempel oder einen Identifikationscode des Sensormoduls 16702) zuordnet. Zur Veranschaulichung: Der Identifikationscode kann Identifikationsinformationen zur Identifizierung der im Speicher 16708 gespeicherten Sensordaten (und zum Abrufen der Sensordaten aus dem Speicher 16708) liefern.
  • Die bidirektionale Kommunikationsschnittstelle 16710 kann so konfiguriert werden, dass sie die komprimierten Sensordaten bereitstellt (z.B. zur Übertragung). Die bidirektionale Kommunikationsschnittstelle 16710 kann so konfiguriert werden, dass sie die komprimierten Sensordaten vom Datenkomprimierungsmodul 16706 empfängt (z.B. kann die bidirektionale Kommunikationsschnittstelle 16710 kommunikativ mit dem Datenkommunikationsmodul 16706 gekoppelt werden). Die bidirektionale Kommunikationsschnittstelle 16710 kann so konfiguriert werden, dass sie die komprimierten Sensordaten an die Datenverarbeitungsseite des Sensorsystems 16700 überträgt (z.B. an einen oder mehrere Prozessoren 16714, wie weiter unten näher beschrieben).
  • Die bidirektionale Kommunikationsschnittstelle 16710 kann mindestens einen Sender 16712t und mindestens einen Empfänger 16712r umfassen (z.B. sensorseitig, z.B. im Zusammenhang mit der Bereitstellung von Sensordaten aus dem Sensormodul 16702). Beispielsweise kann die bidirektionale Kommunikationsschnittstelle 16710 ein erstes Sender- und Empfängermodul 16712 (z.B. einschließlich des Senders 16712t und des Empfängers 16712r) umfassen, das dem Sensormodul 16702 zugeordnet ist (z.B. in Verbindung mit der Bereitstellung von Sensordaten und dem Empfang der Anforderung). Optional kann die bidirektionale Kommunikationsschnittstelle 16710 ein zweites Sender- und Empfängermodul (z.B. ein Fahrzeug-Sender- und -Empfängermodul, z.B. einschließlich eines zweiten Senders und eines zweiten Empfängers) aufweisen, das mit der Datenverarbeitungsseite (z.B. mit dem einen oder mehreren Prozessoren 16714) verbunden ist.
  • Das Datenkomprimierungsmodul 16706, der Speicher 16708 und die bidirektionale Kommunikationsschnittstelle 16710 (z. B. ein Teil der bidirektionalen Kommunikationsschnittstelle 16710, z. B. das erste Sender- und Empfängermodul 16712) können mit dem Sensormodul 16702 verbunden oder diesem zugeordnet werden. Als Beispiel können das Datenkomprimierungsmodul 16706, der Speicher 16708 und die bidirektionale Kommunikationsschnittstelle 16710 (z.B. das erste Sender- und Empfängermodul 16712) dem Sensormodul 16702 zugeordnet oder Teil davon sein. Illustrativ kann das Sensormodul 16702 als ein System beschrieben werden, das so konfiguriert ist, dass es die hier beschriebenen Operationen in Bezug auf das Datenkomprimierungsmodul 16706, den Speicher 16708 und (zumindest teilweise) die bidirektionale Kommunikationsschnittstelle 16710 durchführt. Jedes der ein oder mehreren weiteren Sensormodule 16702b kann mit einem entsprechenden Datenkomprimierungsmodul, einem entsprechenden Speicher und einer entsprechenden bidirektionalen Kommunikationsschnittstelle (z.B. einem entsprechenden Sender- und Empfängermodul) verbunden sein (z.B. aufweisen).
  • Alternativ können das Datenkompressionsmodul 16706, der Speicher 16708 und die bidirektionale Kommunikationsschnittstelle 16710 mehreren Sensormodulen zugeordnet oder zugeordnet werden, z.B. kommunikativ mit mehr als einem Sensormodul gekoppelt sein (z.B. mit dem Sensormodul 16702 und mindestens einem weiteren Sensormodul 16702b).
  • Der eine oder mehrere Prozessoren 16714 können für die Verarbeitung von Daten, z.B. Sensordaten, konfiguriert werden. Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie die komprimierten Sensordaten verarbeiten, die vom Sensormodul 16702 zur Verfügung gestellt werden (zur Veranschaulichung: komprimierte Sensordaten, die vom Sensormodul 16702 zur Verfügung gestellt oder aus den Sensordaten erzeugt werden). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie die komprimierten Sensordaten über die bidirektionale Kommunikationsschnittstelle 16710 empfangen (z.B. über das zweite Sender- und Empfängermodul). Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie die empfangenen komprimierten Sensordaten verarbeiten.
  • Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie (z.B. weitere) Sensordaten verarbeiten, die von dem einen oder den mehreren weiteren Sensormodulen 16702b geliefert werden (z.B. von mindestens einem weiteren Sensormodul 16702b). Beispielsweise können der eine oder die mehreren Prozessoren 16714 so konfiguriert werden, dass sie die Sensordaten (z.B. roh, komprimiert oder vorkomprimiert) von dem einen oder den mehreren weiteren Sensormodulen 16702b über eine entsprechende bidirektionale Kommunikationsschnittstelle empfangen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16714 können mit einer Sensor-Fusionsbox (z.B. des Fahrzeugs) und/oder mit einem elektronischen Steuersystem des Fahrzeugs verbunden sein. Beispielsweise können der eine oder die mehreren Prozessoren 16714 in einer Sensorfusionsbox (z.B. eines Fahrzeugs) enthalten sein.
  • Der eine oder mehrere Prozessoren 16714 können so konfiguriert werden, dass verschiedene Arten der Datenverarbeitung (z.B. unter Verwendung der komprimierten Sensordaten und optional der weiteren Sensordaten) implementiert werden können, z.B. zur Auswertung einer Szene (z.B. des Sichtfeldes). Beispielsweise können der eine oder mehrere Prozessoren 16714 konfiguriert werden, um einen oder mehrere Objekterkennungsprozesse zu implementieren. Als weiteres Beispiel können der eine oder die mehreren Prozessoren 16714 konfiguriert werden, um einen oder mehrere Objektklassifikationsprozesse zu implementieren (z.B. basierend auf dem Ergebnis des Objekterkennungsprozesses). Ein weiteres Beispiel ist, dass der eine oder die mehreren Prozessoren 16714 so konfiguriert werden können, dass sie einen oder mehrere Objektverfolgungsprozesse implementieren.
  • Die bidirektionale Kommunikationsschnittstelle 16710 kann so konfiguriert werden, dass sie Informationen empfängt (z.B. von der Datenverarbeitungsseite, beispielhaft von dem einen oder mehreren Prozessoren 16714), die eine Datenqualität definieren, die mit den komprimierten Sensordaten (z.B. vom Sensormodul 16702 bereitgestellt) verbunden ist. Illustrativ kann die bidirektionale Kommunikationsschnittstelle so konfiguriert werden, dass sie Informationen empfängt, die mit einer Datenqualität der komprimierten Sensordaten verbunden sind (z.B. Informationen, aus denen eine Datenqualität der komprimierten Sensordaten bestimmt werden kann). Die Datenqualität kann als eine oder mehrere Eigenschaften (z.B. datenbezogene Eigenschaften) beschrieben werden, die die komprimierten Sensordaten haben können oder haben sollten, wie z.B. eine Auflösung, einen Datenverlust, ein Signalton-Rausch-Verhältnis oder eine Genauigkeit.
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es eine Datenkomprimierungscharakteristik (z. B. eine Datenkompressionsrate oder eine andere Charakteristik, wie oben beschrieben) auswählt (z. B. modifiziert), die für die Erzeugung der komprimierten Sensordaten in Übereinstimmung mit den empfangenen Informationen verwendet wird. Zur Veranschaulichung: Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es eine Datenkomprimierungscharakteristik (z. B. eine Datenkompressionsrate) bestimmt, die für die Komprimierung der Sensordaten auf der Grundlage der empfangenen Informationen verwendet wird. Beispielsweise kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es die empfangenen Informationen verarbeitet, um die für die komprimierten Sensordaten bereitzustellende Datenqualität (z. B. die eine oder mehrere Eigenschaften) zu bestimmen und eine entsprechende Datenkomprimierungsrate auszuwählen. Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es die Sensordaten mit der ausgewählten Datenkomprimierungscharakteristik komprimiert, um komprimierte Sensordaten bereitzustellen (z. B. andere komprimierte Sensordaten, z. B. angepasste komprimierte Sensordaten).
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es eine Datenkomprimierungscharakteristik auswählt, die die durch die empfangenen Informationen definierte Datenqualität liefert. Beispielsweise kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es eine Datenkomprimierungsrate auswählt, die so angepasst ist, dass die definierte Auflösung und/oder der Datenverlust bereitgestellt wird. Als weiteres Beispiel kann das Datenkomprimierungsmodul 16706 so konfiguriert werden, dass es eine Datenkomprimierungsrate auswählt, die so angepasst ist, dass sie das definierte Signalton-Rausch-Verhältnis und/oder die definierte Genauigkeit liefert. Zur Veranschaulichung: Die gewählte Datenkomprimierungsrate kann sich bei abnehmender Datenqualität erhöhen (z. B. bei abnehmender Auflösung und/oder Genauigkeit oder bei zunehmendem Datenverlust und/oder Signalton-Rausch-Verhältnis). Die gewählte Datenkomprimierungsrate kann mit zunehmender Datenqualität abnehmen (z. B. zur Erhöhung der bereitzustellenden Auflösung und/oder Genauigkeit oder zur Verringerung des Datenverlusts und/oder des Signalton-Rausch-Verhältnisses).
  • Die empfangenen Informationen (z.B. bestimmt und/oder übertragen auf der Datenverarbeitungsseite, z.B. durch den einen oder mehrere Prozessoren 16714) können verschiedene Arten von Informationen und/oder Daten aufweisen, die mit den Daten verbunden sind, die die komprimierten Sensordaten qualifizieren.
  • Die erhaltenen Informationen können beispielsweise einen Komplexitäts-Score aufweisen. Der Komplexitätsbewertungswert kann einen Komplexitätsgrad beschreiben, der zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind. Zur Veranschaulichung: Der Komplexitätsbewertungswert kann einen Komplexitätsgrad eines Szenarios beschreiben, das zumindest teilweise durch die Verarbeitung der komprimierten Sensordaten in Abhängigkeit von diesem Komplexitätswert analysiert werden soll.
  • Der Wert der Komplexitätsbewertung kann (z.B. durch den einen oder mehrere Prozessoren 16714) nach einem oder mehreren Komplexitätskriterien (z.B. einem SAE-Level, einer Verkehrssituation, einer Fahrsituation, einer atmosphärischen Bedingung, einem Grad der verfügbaren Unterstützung durch künstliche Intelligenz oder einer Konfiguration des Sensormoduls 16702 und/oder der weiteren Sensormodule 16702b) bestimmt werden. Zur Veranschaulichung: Der Komplexitätsbewertungswert kann eine Summe (z.B. eine gewichtete Summe) der einzelnen Komplexitätsbewertungswerte aufweisen, die mit einem oder mehreren Komplexitätskriterien verbunden sind (z.B. relevant in einem aktuellen Szenario). Die Berechnung des Komplexitätsscore-Wertes kann z.B. durch Software (z.B. durch Software-Anweisungen) erfolgen. Dies kann eine flexible Anpassung der Komplexitätskriterien (z.B. des jeweils zugehörigen Komplexitäts-Score-Wertes) ermöglichen.
  • Der Komplexitätsbewertungswert kann entsprechend einer oder mehrerer Eigenschaften des Sensormoduls 16702 bestimmt oder angepasst werden. Beispielsweise kann der Komplexitätsbewertungswert in Übereinstimmung mit dem Typ des Sensormoduls 16702 bestimmt werden. Zur Veranschaulichung: Der Komplexitätsbewertungswert kann in Abhängigkeit von der Relevanz der Sensordaten bestimmt werden, die von einem Sensormodul dieses Typs in einer aktuellen Situation geliefert werden (z. B. kann der Komplexitätsbewertungswert mit zunehmender Relevanz steigen). Als weiteres Beispiel kann der Komplexitätsbewertungswert in Übereinstimmung mit dem Sichtfeld des Sensormoduls 16702 bestimmt werden (z.B. mit dem/den Teil/en des Sichtfeldes des Sensorsystems 16700, der/die vom Sensormodul 16702 abgedeckt wird/werden). Veranschaulichend kann der Komplexitätsbewertungswert in Übereinstimmung mit der Relevanz der Sensordaten bestimmt werden, die den/die Teil/Teil/e des Sichtfeldes des Sensorsystems 16700 beschreiben, der/die vom Sensormodul 16702 abgedeckt wird/werden (z.B. in einer aktuellen Situation). Verschiedene Sensormodule können in einer gleichen Situation in Übereinstimmung mit den jeweiligen Eigenschaften unterschiedliche Komplexitätsbewertungswerte erhalten.
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass das Datenkomprimierungsmerkmal (z. B. eine Datenkomprimierungsrate oder ein anderes Merkmal, wie oben beschrieben) in Übereinstimmung mit dem Komplexitäts-Score-Wert ausgewählt wird (z. B. zur Erhöhung der Datenkomprimierungsrate 16706 bei abnehmenden Komplexitäts-Score-Werten oder zur Verringerung der Datenkomprimierungsrate 16706 bei steigenden Komplexitäts-Score-Werten). Zur Veranschaulichung: Ein zunehmender Komplexitäts-Score-Wert kann mit zunehmender Datenqualität für die komprimierten Sensordaten verbunden sein (z. B. mit zunehmender Datenqualität, die mit den komprimierten Sensordaten geliefert werden soll). Ein abnehmender Komplexitäts-Score-Wert kann mit einer abnehmenden Datenqualität für die komprimierten Sensordaten verbunden sein (z. B. zunehmende Datenqualität, die mit den komprimierten Sensordaten bereitgestellt werden soll).
  • Zusätzlich oder alternativ kann die erhaltene Information einen SAE-Level aufweisen. Der SAE-Level kann mit einem autonomen Fahren verbunden sein, das zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind (z.B. ein autonomes Fahren, das zumindest teilweise durch Verarbeitung der komprimierten Sensordaten erfolgt). Zur Veranschaulichung: Die SAE-Ebene kann mit Fahrbefehlen assoziiert werden, die zumindest teilweise in Übereinstimmung mit der Datenverarbeitung der komprimierten Sensordaten erzeugt werden. Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es die Datenkomprimierungscharakteristik in Übereinstimmung mit dem SAE-Level auswählt (z. B. zur Erhöhung der Datenkomprimierungsrate 16706 zur Verringerung des SAE-Levels oder zur Verringerung der Datenkomprimierungsrate 16706 zur Erhöhung des SAE-Levels). Zur Veranschaulichung: Ein steigender SAE-Level kann mit einer steigenden Datenqualität für die komprimierten Sensordaten verbunden sein, und ein sinkender SAE-Level kann mit einer sinkenden Datenqualität für die komprimierten Sensordaten verbunden sein.
  • Zusätzlich oder alternativ kann die empfangene Information eine Anweisung aufweisen, die eine Datenqualität der zu liefernden komprimierten Sensordaten beschreibt (z.B. eine Anfrage nach komprimierten Sensordaten mit einer bestimmten Datenqualität). Die empfangenen Informationen können eine Datenkompressionscharakteristik (z.B. eine Datenkompressionsrate oder eine andere Charakteristik, wie oben beschrieben) aufweisen (z.B. spezifizieren), die vom Datenkompressionsmodul 16706 für die Erzeugung der komprimierten Sensordaten verwendet werden soll.
  • Der eine oder mehrere Prozessoren 16714 können so konfiguriert werden, dass sie die Datenqualität bestimmen, die mit den komprimierten Sensordaten, die vom Sensormodul 16702 geliefert werden, verknüpft werden soll (z.B. eine Datenqualität, die für die komprimierten Sensordaten, die vom Sensormodul 16702 geliefert werden, angefordert werden soll). Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie eine Anweisung (z.B. eine Anforderung) erzeugen, um komprimierte Sensordaten mit der ermittelten Datenqualität zu liefern. Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie eine solche Anweisung (z.B. eine solche Anforderung) an das Sensormodul 16702 (und/oder an das Datenkomprimierungsmodul 16706) übermitteln.
  • Beispielsweise können der eine oder mehrere Prozessoren 16714 so konfiguriert werden, dass die Datenqualität für komprimierte Sensordaten in Übereinstimmung mit dem dem Sensormodul 16702 zugeordneten Komplexitätsbewertungswert bestimmt wird. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass die Datenqualität für die komprimierten Sensordaten in Übereinstimmung mit einem oder mehreren der Komplexitätskriterien bestimmt wird.
  • Als weiteres Beispiel können der eine oder mehrere Prozessoren 16714 so konfiguriert werden, dass die Datenqualität, die mit den vom Sensormodul 16702 gelieferten komprimierten Sensordaten verknüpft werden soll, auf der Grundlage weiterer Sensordaten (z. B. roh oder komprimiert) bestimmt wird, z. B. auf der Grundlage von Sensordaten, die von mindestens einem weiteren Sensormodul 16702b geliefert werden. Illustrativ kann die Datenqualität für die komprimierten Sensordaten in Übereinstimmung mit dem Ergebnis der Datenverarbeitung bestimmt werden, die mit weiteren Sensordaten durchgeführt wurde (illustrativ, Daten, die nicht vom Sensormodul 16702 geliefert wurden). Beispielsweise kann die Datenqualität für die komprimierten Sensordaten in Übereinstimmung mit einem Vertrauensniveau eines Objekterkennungsprozesses und/oder eines Objektklassifikationsprozesses bestimmt werden, der mit weiteren Sensordaten durchgeführt wurde (z.B. mit einem Erkennungs-Vertrauensniveau und/oder einem Schwellen-Vertrauensniveau, wie in Bezug auf 162A bis 164E beschrieben). Die Datenqualität kann mit abnehmendem Vertrauensniveau zunehmen und mit zunehmendem Vertrauensniveau abnehmen (illustrativ kann ein hohes Vertrauensniveau anzeigen, dass die weiteren Sensordaten für eine ordnungsgemäße Objekterkennung oder -klassifizierung ausreichen).
  • Als weiteres Beispiel können der eine oder mehrere Prozessoren 16714 so konfiguriert werden, dass sie den komprimierten Sensordaten, die vom Sensormodul 16702 geliefert werden, eine Prioritätsstufe (z. B. einen Prioritätswert) zuweisen (z. B. um dem Sensormodul 16702 eine Prioritätsstufe zuzuweisen). Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie die den komprimierten Sensordaten zuzuordnende Datenqualität in Übereinstimmung mit der den komprimierten Sensordaten zugewiesenen Prioritätsstufe bestimmen (z. B. dem Sensormodul 16712). Zur Veranschaulichung: Die Datenqualität kann mit steigender Prioritätsstufe zunehmen (z. B. kann die Datenkomprimierungsrate mit steigender Prioritätsstufe abnehmen).
  • Die Prioritätsstufe kann auf eine Relevanz der komprimierten Sensordaten hinweisen oder darauf basieren, z.B. eine Relevanz des Sensormoduls 16702, z.B. relativ oder im Vergleich zu anderen Daten oder Datenquellen (z.B. im Vergleich zu einem weiteren Sensormodul 16702b). Beispielsweise kann die Prioritätsstufe für das Sensormodul 16702 (z.B. für jedes Sensormodul) in einer Verkehrskarte enthalten oder spezifiziert sein, die von einem oder mehreren Prozessoren 16714 empfangen wird (z.B. über eine Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle 16716c, die weiter unten näher beschrieben wird). Die Prioritätsstufe (z.B. die Relevanz des Sensormoduls 16702) kann in Übereinstimmung mit einer aktuellen Verkehrs- und/oder Fahrsituation (z.B. mit einer Wetterbedingung) bestimmt werden. So kann z.B. auf einem Parkplatz ein Kamerasensormodul eine höhere Prioritätsstufe haben als ein LIDAR-Sensormodul. Als weiteres Beispiel kann ein RADAR-Sensormodul bei schlechtem Wetter eine höhere Priorität haben als ein Ultraschall-Sensormodul.
  • Die Prioritätsstufe kann in Übereinstimmung mit dem Sichtfeld des Sensormoduls 16702 bestimmt werden. Zur Veranschaulichung: Die Prioritätsstufe kann in Übereinstimmung mit den Teilen des Sichtfeldes des Sensorsystems 16700 bestimmt werden, die durch die komprimierten Sensordaten beschrieben werden. Verschiedene Teile (z.B. Bereiche/Regionen) des Sichtfeldes des Sensorsystems 16700 können nach einer jeweiligen Relevanz klassifiziert werden (z.B. nach einem oder mehreren Relevanzkriterien, wie in Bezug auf 150A bis 154B und auf 162A bis 164E beschrieben). Als Beispiel kann eine Region, die ein sicherheitskritisches Objekt (oder viele Objekte) enthält, wie z.B. ein schnell fahrendes Fahrzeug, relevanter sein als eine Region, die ein solches Objekt nicht enthält. Als weiteres Beispiel kann eine Region in der Nähe einer vordefinierten Stelle (z.B. in der Nähe des Sensorsystems 16700 oder in der Nähe des Fahrzeugs einschließlich des Sensorsystems 16700) relevanter sein als eine weiter entfernte Region. Für das Sensormodul 1670 kann eine ansteigende Prioritätsstufe festgelegt werden, um die Relevanz der vom Sensormodul 16702 abgedeckten Regionen zu erhöhen.
  • Als weiteres Beispiel können der eine oder die mehreren Prozessoren 16712 so konfiguriert werden, dass die Datenqualität, die den komprimierten Sensordaten zugeordnet werden soll, auf der Grundlage der verfügbaren Datenübertragungsressourcen und/oder Speicherressourcen, die dem einen oder den mehreren Prozessoren 16712 zugeordnet sind, bestimmt wird. Zur Veranschaulichung: Die Datenqualität für die komprimierten Sensordaten kann auf der Grundlage der Ressourcen bestimmt werden, die für die Verarbeitung der komprimierten Sensordaten (und/oder für die Speicherung der komprimierten Sensordaten oder der Verarbeitungsergebnisse) zur Verfügung stehen. Die Datenqualität kann mit zunehmender Menge an verfügbaren Ressourcen (z.B. mit zunehmender verfügbarer Verarbeitungsleistung oder Speicherplatz) zunehmen, z.B. kann die Datenkomprimierungsrate abnehmen.
  • Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass sie eine Anweisung zur Bereitstellung komprimierter Sensordaten mit unterschiedlicher Datenqualität je nach dem damit verbundenen Teil des Sichtfeldes erzeugen. Zur Veranschaulichung: Die vom Sensormodul 16702 (z.B. vom Datenkomprimierungsmodul 16706) empfangenen Informationen können unterschiedliche Datenqualitäten für verschiedene Teile des Sichtfeldes des Sensormoduls 16702 definieren oder aufweisen (z.B. unterschiedliche Kompressionsraten für die Komprimierung von Sensordaten, die verschiedenen Teilen des Sichtfeldes des Sensormoduls 16702 zugeordnet sind). Dies lässt sich illustrativ als eine Sichtfeldpriorisierung auf der Ebene des Sensormoduls beschreiben. Das Sichtfeld des Sensormoduls 16702 kann, wie oben beschrieben, entsprechend der jeweiligen Relevanz in Regionen (z.B. Segmente) unterteilt werden. Die mit einer Region verbundene Datenqualität kann sich mit zunehmender Relevanz dieser Region erhöhen.
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass verschiedene Datenkomprimierungsmerkmale ausgewählt werden können, um die verschiedenen Teile der Sensordaten (z. B. in Verbindung mit verschiedenen Segmenten des Sichtfeldes des Sensormoduls 16702) zu komprimieren, z. B. in Übereinstimmung mit der empfangenen Anweisung oder Information. Eine erste Datenkompressionscharakteristik (z.B. eine erste Datenkompressionsrate) kann ausgewählt werden, um erste komprimierte Daten zu erzeugen. Eine zweite Datenkompressionscharakteristik (z.B. eine zweite Datenkompressionsrate) kann gewählt werden, um zweite komprimierte Daten zu erzeugen. Die ersten komprimierten Daten können einem ersten Segment des Sichtfeldes des Sensormoduls 16702 zugeordnet werden. Die zweiten komprimierten Daten können einem zweiten Segment des Sichtfeldes des Sensormoduls 16702 zugeordnet werden. Die erste Datenkompressionscharakteristik kann sich von der zweiten Datenkompressionscharakteristik unterscheiden. Beispielsweise kann eine Datenkomprimierungsrate mit abnehmender Relevanz des zugeordneten Segments des Sichtfelds zunehmen.
  • Der eine oder die mehreren Prozessoren 16714 können so konfiguriert werden, dass die Datenqualität für die komprimierten Sensordaten und/oder die die Daten definierenden Informationen für die komprimierten Sensordaten zumindest teilweise auf der Grundlage von Daten bestimmt werden, die von einer oder mehreren weiteren Kommunikationsschnittstellen 16716 des Sensorsystems 16700 (z.B. einer oder mehreren weiteren informationsliefernden Schnittstellen) bereitgestellt werden. Das Sensorsystem 16700 (z.B. die weiteren Kommunikationsschnittstellen 16716) kann mindestens eine Global Positioning System-Schnittstelle 16716a aufweisen, die für den Empfang von Global Positioning Information konfiguriert ist. Das Sensorsystem 16700 kann mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle 16716b aufweisen (z.B. die weiteren Kommunikationsschnittstellen 16716). Das Sensorsystem 16700 kann mindestens eine Kommunikationsschnittstelle Fahrzeug-zu-Infrastruktur (z.B. Fahrzeug-zu-Umwelt) 16716c aufweisen. Die weiteren Kommunikationsschnittstellen 16716 können so konfiguriert werden, dass sie dem einen oder mehreren Prozessoren 16714 weitere Daten zur Verfügung stellen (z.B. kann über solche Schnittstellen eine Verkehrskarte bereitgestellt werden).
  • Das Sensorsystem 16700 kann entsprechend einer verteilten Datenarchitektur konfiguriert werden. Veranschaulichend kann die Datenverarbeitung zumindest teilweise auch auf der Sensorseite erfolgen. Das Sensormodul 16702 (z.B. das eine oder mehrere weitere Sensormodule 16702b) kann so konfiguriert werden, dass es einen oder mehrere Objekterkennungsprozesse und/oder einen oder mehrere Objektklassifikationsprozesse implementiert. Beispielsweise kann das Sensormodul 16702 einen Prozessor 16718 aufweisen oder mit diesem verbunden sein, der so konfiguriert ist, dass er die vom Sensormodul gelieferten Sensordaten verarbeitet (z.B. kann jedes weitere Sensormodul 16702b einen entsprechenden Prozessor 16718b aufweisen oder mit diesem verbunden sein).
  • Illustrativ können die Sensordaten (z.B. die komprimierten Sensordaten), die der Datenverarbeitungsseite zur Verfügung gestellt werden, verarbeitet oder vorverarbeitet werden. Das Sensormodul 16702 kann so konfiguriert werden, dass es objektbezogene Daten und/oder klassifizierte objektbezogene Daten auf der Grundlage der Sensordaten bereitstellt. Beispielsweise kann das Sensormodul 16702 so konfiguriert werden, dass es eine Liste von Objekten (z. B. klassifizierte Objekte) mit einer oder mehreren damit verbundenen Eigenschaften (z. B. Standort, Größe, Entfernung von einem vordefinierten Standort, ein Typ usw.) bereitstellt.
  • Das Datenkomprimierungsmodul 16706 kann so konfiguriert werden, dass es zumindest einen Teil der objektbezogenen Daten (und/oder der klassifizierten objektbezogenen Daten) komprimiert, um komprimierte objektbezogene Daten (und/oder komprimierte klassifizierte objektbezogene Daten) bereitzustellen. Das für die Komprimierung der objektbezogenen Daten (und/oder der klassifizierten objektbezogenen Daten) verwendete Datenkompressionsmerkmal (z.B. die Datenkompressionsrate oder ein anderes Merkmal) kann in Übereinstimmung mit den empfangenen Informationen ausgewählt werden (z.B. die Definition einer entsprechenden Datenqualität für die objektbezogenen Daten und/oder die klassifizierten objektbezogenen Daten).
  • 168A zeigt ein Sensorsystem 16800 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • 168B und 168C zeigen jeweils eine mögliche Konfiguration des Sensorsystems 16800 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Sensorsystem 16800 kann eine beispielhafte Implementierung des Sensorsystems 16700 sein, z.B. eine beispielhafte Realisierung und Konfiguration der Komponenten des Sensorsystems 16700. Selbstverständlich können auch andere Konfigurationen und Komponenten bereitgestellt werden. Das Sensorsystem 16800 kann z.B. in ein Fahrzeug eingebaut werden (z.B. mit automatisierten Fahrfunktionen).
  • Das Sensorsystem 16800 kann ein Sensormodul 16802 aufweisen, das für die Bereitstellung von Sensordaten konfiguriert ist (z.B. konfiguriert für die Übertragung von Sensordaten, z.B. komprimierte Sensordaten). Das Sensormodul 16802 kann einen Sensor 16804 aufweisen, der so konfiguriert ist, dass er ein Sensorsignal (z. B. ein analoges Sensorsignal) bereitstellt oder erzeugt. Das Sensormodul 16802 kann als das oben beschriebene Sensormodul 16702 konfiguriert werden. Der Sensor 16804 kann als der oben beschriebene Sensor 16704 konfiguriert werden. Das Sensormodul 16802 kann so konfiguriert werden, dass es Sensordaten aus dem Sensorsignal (z.B. aus der Vielzahl der Sensorsignale) liefert. Als Beispiel kann das Sensormodul 16802 einen Analog-Digital-Wandler aufweisen, um das analoge Sensorsignal (z.B. einen Strom, wie z.B. einen Fotostrom) in digitale oder digitalisierte Sensordaten umzuwandeln.
  • Das Sensorsystem 16800 kann ein oder mehrere weitere Sensormodule 16802b aufweisen. Das eine oder die mehreren weiteren Sensormodule 16802b können als das eine oder die mehreren oben beschriebenen weiteren Sensormodule 16702b konfiguriert werden.
  • Das Sensorsystem 16800 kann ein Kompressionsmodul 16806 aufweisen. Das Komprimierungsmodul 16806 kann als das oben beschriebene Datenkomprimierungsmodul 16706 konfiguriert werden (z.B. kann das Komprimierungsmodul 16806 so konfiguriert werden, dass es komprimierte Sensordaten erzeugt). In der in 168A dargestellten Beispielkonfiguration kann das Sensormodul 16802 das Komprimierungsmodul 16806 aufweisen.
  • Das Sensorsystem 16800 kann einen Speicher 16808 aufweisen. Der Speicher 16808 kann wie der oben beschriebene Speicher 16708 konfiguriert werden (z.B. kann der Speicher 16808 Daten, z.B. Sensordaten (z.B. roh, komprimiert oder vorkomprimiert), speichern). In der in 168A dargestellten Beispielkonfiguration kann das Sensormodul 16802 den Speicher 16808 aufweisen.
  • Das Sensorsystem 16800 kann eine bidirektionale Kommunikationsschnittstelle 16810 aufweisen. Die bidirektionale Kommunikationsschnittstelle 16810 kann als die oben beschriebene bidirektionale Kommunikationsschnittstelle 16710 konfiguriert werden. Die bidirektionale Kommunikationsschnittstelle 16810 kann ein Sender- und Empfängermodul 16812s aufweisen, das mit dem Sensormodul 16802 verbunden ist (z.B. im Sensormodul 16802 in der in 168A dargestellten Beispielkonfiguration aufweisen). Die bidirektionale Kommunikationsschnittstelle 16810 kann ein Fahrzeug-Sender- und -Empfängermodul 16812v aufweisen.
  • Das Sensorsystem 16800 kann eine Fusionsbox 16814 enthalten, z.B. eine Sensor-Fusionsbox. Die Fusionsbox 16814 kann als ein oder mehrere Prozessoren 16714 konfiguriert werden, wie oben beschrieben. Die Fusionsbox 16814 kann so konfiguriert werden, dass sie Daten über das Fahrzeug-Sender- und Empfänger-Modul 16810v empfängt (und Daten und/oder Anweisungen über das Fahrzeug-Sender- und Empfänger-Modul 16810v überträgt). Die Fusionsbox 16814 kann so konfiguriert werden, dass sie Daten von jedem Sensormodul (z.B. vom Sensormodul 16802 und jedem weiteren Sensormodul 16802b) empfängt.
  • Das Sensorsystem 16800 kann ein elektrisches Fahrzeugsteuerungssystem 16820 aufweisen oder kommunikativ mit diesem gekoppelt sein. Das elektrische Fahrzeugsteuerungssystem 16820 kann so konfiguriert werden, dass es zumindest einige der von einem oder mehreren Prozessoren 16714 ausgeführten Operationen ausführt. Das Bordnetzsteuerungssystem 16820 kann so konfiguriert werden, dass es Daten über das Fahrzeug-Sender- und Empfänger-Modul 16810v empfängt (und Daten und/oder Anweisungen über das Fahrzeug-Sender- und Empfänger-Modul 16810v überträgt).
  • Beispielsweise kann die Sensor-Fusion-Box 16814 und/oder das elektrische Kontrollsystem 16820 des Fahrzeugs so konfiguriert werden, dass ein Komplexitätswert bestimmt wird, z.B. durch Implementierung oder Ausführung der Software-Anweisungen 16822 (z.B. gespeichert in einem weiteren Speicher).
  • Das Sensorsystem 16800 kann eine oder mehrere (z.B. weitere) Kommunikationsschnittstellen 16816 aufweisen, wie z.B. mindestens eine Schnittstelle des Globalen Positionsbestimmungssystems und/oder mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle und/oder mindestens eine Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle. Die eine oder mehrere Kommunikationsschnittstellen 16816 können als die eine oder mehrere weitere, oben beschriebene Kommunikationsschnittstellen 16716 konfiguriert werden. Die Fusionsbox 16814 und/oder das elektrische Fahrzeugsteuersystem 16820 können so konfiguriert werden, dass sie Daten von der einen oder den mehreren Kommunikationsschnittstellen 16816 (z.B. über das Fahrzeug-Sender- und Empfänger-Modul 16810v) empfangen können.
  • Wie in 168A dargestellt, kann das Komprimierungsmodul 16806 so konfiguriert werden, dass es die Sensordaten, z. B. zumindest einen Teil der Sensordaten, komprimiert, um komprimierte Sensordaten zu erzeugen. Das Komprimierungsmodul 16806 kann so konfiguriert werden, dass es einen weiteren Teil der Sensordaten an den Speicher 16808 liefert. Zur Veranschaulichung: Das Komprimierungsmodul 16806 kann so konfiguriert werden, dass es die Sensordaten vom Sensor 16804 empfängt (z. B. digitalisierte Sensordaten vom Analog-Digital-Wandler).
  • Das Sensorsystem 16800 kann gemäß einer zentralisierten Architektur (wie in dargestellt) und/oder gemäß einer verteilten Architektur (wie in dargestellt) konfiguriert werden.
  • In einer zentralisierten Architektur, wie sie in 168B dargestellt ist, können die von den verschiedenen Sensoren oder Sensormodulen (z.B. von einem ersten Sensor 168041, einem zweiten Sensor 168042 und einem dritten Sensor 168043) gelieferten Daten ohne Vorverarbeitung (z.B. als Rohdaten, optional komprimiert) an die Datenverarbeitungsseite des Sensorsystems 16800 (z.B. an die Sensor-Fusion-Box 16814 und/oder das Bordnetzsteuerungssystem 16820) übertragen werden. Die Daten können über die bidirektionale Kommunikationsschnittstelle 16810, z.B. eine Ethernet-Schnittstelle, übertragen werden.
  • Die Datenverarbeitung kann auf der Datenverarbeitungsseite durchgeführt werden. Die von den verschiedenen Sensormodulen gelieferten Daten können miteinander kombiniert (z.B. fusioniert) werden (z.B. in der Sensor-Fusionsbox 16814). Ein oder mehrere Objekterkennungsprozesse (und/oder ein oder mehrere Objektklassifizierungs- und/oder -verfolgungsprozesse) können mit den kombinierten Daten durchgeführt werden. Auf der Grundlage der Ergebnisse der Datenverarbeitung können Anweisungen zur Steuerung des Fahrverhaltens des Fahrzeugs berechnet werden (z. B. kann ein Weg oder eine Route berechnet werden, dem bzw. der das Fahrzeug folgen soll, z. B. durch das elektrische Steuersystem des Fahrzeugs 16820).
  • In einer verteilten Architektur, wie in 168C dargestellt, können die von den verschiedenen Sensoren oder Sensormodulen gelieferten Daten nach einer ersten Verarbeitung (z.B. Vorverarbeitung) an die Datenverarbeitungsseite des Sensorsystems 16800 übertragen werden. Zum Beispiel kann jedes Sensormodul so konfiguriert werden, dass es einen oder mehrere Objekterkennungsprozesse implementiert. Zur Veranschaulichung: Jedes Sensormodul kann einen entsprechenden Prozessor aufweisen oder mit einem entsprechenden Prozessor verbunden sein (z.B. ein erster Prozessor 168181, ein zweiter Prozessor 168182 und ein dritter Prozessor 168183). Jeder Prozessor kann Sensordaten von einem entsprechenden Sensor empfangen.
  • Zusätzliche Datenverarbeitung kann auf der Datenverarbeitungsseite durchgeführt werden. Die von den verschiedenen Sensormodulen gelieferten verarbeiteten Daten können miteinander kombiniert (z.B. fusioniert) werden (z.B. in der Sensor-Fusionsbox 16814). Auf der Grundlage der Ergebnisse der Datenverarbeitung können Anweisungen zur Steuerung des Fahrverhaltens des Fahrzeugs berechnet werden (z.B. kann ein Weg oder eine Route berechnet werden, dem das Fahrzeug folgen soll, z.B. durch das elektrische Steuersystem des Fahrzeugs 16820).
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ah ist ein Sensorsystem. Das Sensorsystem kann ein Sensormodul aufweisen, das so konfiguriert ist, dass es Sensordaten liefert. Das Sensorsystem kann ein Datenkomprimierungsmodul aufweisen, das so konfiguriert ist, dass es zumindest einen Teil der vom Sensormodul bereitgestellten Sensordaten komprimiert, um komprimierte Sensordaten zu erzeugen. Das Sensorsystem kann eine bidirektionale Kommunikationsschnittstelle aufweisen, die so konfiguriert ist, dass sie die komprimierten Sensordaten bereitstellt. Die bidirektionale Kommunikationsschnittstelle kann ferner so konfiguriert sein, dass sie Informationen empfängt, die eine mit den komprimierten Sensordaten verbundene Datenqualität definieren. Das Datenkomprimierungsmodul kann ferner so konfiguriert werden, dass es eine Datenkomprimierungscharakteristik auswählt, die zur Erzeugung der komprimierten Sensordaten in Übereinstimmung mit den empfangenen Informationen verwendet wird.
    • In Beispiel 2ah kann der Gegenstand von Beispiel 1ah optional beinhalten, dass die bidirektionale Kommunikationsschnittstelle mindestens einen Sender und mindestens einen Empfänger umfasst.
    • In Beispiel 3ah kann der Gegenstand eines der Beispiele 1ah oder 2ah optional beinhalten, dass die empfangenen Informationen eine Komplexitätsbewertung aufweisen, die einen Komplexitätsgrad beschreibt, der zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind.
    • In Beispiel 4ah kann der Gegenstand eines der Beispiele 1ah bis 3ah optional beinhalten, dass die empfangenen Informationen einen SAE-Level aufweisen, der mit einem autonomen Fahren verbunden ist und zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind.
    • In Beispiel 5ah kann der Gegenstand eines der Beispiele 1ah bis 4ah optional beinhalten, dass die empfangenen Informationen eine Anweisung aufweisen, die eine Datenqualität der zu liefernden komprimierten Sensordaten beschreibt. Das Datenkomprimierungsmodul kann so konfiguriert werden, dass die Datenkomprimierungscharakteristik in Übereinstimmung mit der empfangenen Anweisung ausgewählt wird.
    • In Beispiel 6ah kann der Gegenstand eines der Beispiele 1ah bis 5ah optional beinhalten, dass das Datenkomprimierungsmodul ferner so konfiguriert ist, dass es eine erste Datenkomprimierungscharakteristik auswählt, um erste komprimierte Daten zu erzeugen, und eine zweite Datenkomprimierungscharakteristik auswählt, um zweite komprimierte Daten zu erzeugen. Die ersten komprimierten Daten können einem ersten Teil des Sichtfeldes des Sensormoduls zugeordnet werden und die zweiten komprimierten Daten können einem zweiten Teil des Sichtfeldes des Sensormoduls zugeordnet werden. Der erste Teil des Sichtfeldes kann sich vom zweiten Teil des Sichtfeldes unterscheiden. Die erste Datenkompressionscharakteristik kann sich von der zweiten Datenkompressionscharakteristik unterscheiden.
    • In Beispiel 7ah kann der Gegenstand eines der Beispiele 1ah bis 6ah optional einen Speicher aufweisen, um zumindest einen Teil der Sensordaten zu speichern, die nicht in den komprimierten Sensordaten enthalten sind. Die bidirektionale Kommunikationsschnittstelle kann ferner so konfiguriert werden, dass sie eine Anforderung zur weiteren Bereitstellung mindestens eines Teils der Sensordaten empfängt, der nicht in den komprimierten Sensordaten umfasst ist und im Speicher gespeichert wird.
    • In Beispiel 8ah kann der Gegenstand eines der Beispiele 1ah bis 7ah optional beinhalten, dass das Sensormodul weiter konfiguriert wird, um einen oder mehrere Objekterkennungsprozesse unter Verwendung der Sensordaten zu implementieren, um objektbezogene Daten zu liefern. Das Datenkomprimierungsmodul kann ferner so konfiguriert werden, dass es zumindest einen Teil der objektbezogenen Daten komprimiert, um komprimierte objektbezogene Daten bereitzustellen. Die empfangenen Informationen können eine mit den komprimierten objektbezogenen Daten verbundene Datenqualität definieren. Das Datenkomprimierungsmodul kann ferner so konfiguriert werden, dass es ein Datenkomprimierungsmerkmal auswählt, das zur Erzeugung der komprimierten objektbezogenen Daten in Übereinstimmung mit den empfangenen Informationen verwendet wird.
    • In Beispiel 9ah kann der Gegenstand eines der Beispiele 1ah bis 8ah optional beinhalten, dass das Datenkomprimierungsmodul so konfiguriert ist, dass es mindestens einen verlustbehafteten Komprimierungsalgorithmus implementiert.
    • In Beispiel 10ah kann der Gegenstand von Beispiel 9ah optional beinhalten, dass der mindestens eine verlustbehaftete Kompressionsalgorithmus mindestens einen Algorithmus enthält, der ausgewählt ist aus: Quantisierung; Rundung; Diskretisierung; Transformationsalgorithmus; auf Schätzung basierender Algorithmus; und auf Vorhersage basierender Algorithmus.
    • In Beispiel 11ah kann der Gegenstand eines der Beispiele 1ah bis 10ah optional beinhalten, dass das Datenkomprimierungsmodul so konfiguriert ist, dass es mindestens einen verlustfreien Komprimierungsalgorithmus implementiert.
    • In Beispiel 12ah kann der Gegenstand von Beispiel 11ah optional einschließen, dass der mindestens eine verlustfreie Kompressionsalgorithmus mindestens einen Algorithmus enthält, der ausgewählt wurde aus: Lauflängenkodierung; Variable-Längen-Kodierung und Entropie-Kodierungsalgorithmus.
    • In Beispiel 13ah kann der Gegenstand eines der Beispiele 1ah bis 12ah optional beinhalten, dass das Sensormodul als ein Sensortyp konfiguriert wird, der aus einer Gruppe von Sensortypen ausgewählt wird, die aus diesen besteht: LIDAR-Sensor; RADAR-Sensor; Kamerasensor; Ultraschallsensor; und Trägheitsmesssensor.
    • In Beispiel 14ah kann der Gegenstand eines der Beispiele 1ah bis 13ah optional mindestens eine Schnittstelle des Global Positioning System aufweisen, um Informationen zur globalen Positionierung zu erhalten.
    • In Beispiel 15ah kann der Gegenstand eines der Beispiele 1ah bis 14ah optional mindestens eine Fahrzeug-Fahrzeug-Kommunikationsschnittstelle aufweisen.
    • In Beispiel 16ah kann der Gegenstand eines der Beispiele 1ah bis 15ah optional mindestens eine Fahrzeug-Infrastruktur-Kommunikationsschnittstelle aufweisen.
    • In Beispiel 17ah kann der Gegenstand eines der Beispiele 1ah bis 16ah optional einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie komprimierte Sensordaten verarbeiten, die vom Sensormodul bereitgestellt werden. Der eine oder die mehreren Prozessoren können ferner so konfiguriert werden, dass sie Informationen erzeugen, die eine mit den komprimierten Sensordaten verbundene Datenqualität definieren, und diese an das Sensormodul übertragen.
    • In Beispiel 18ah kann der Gegenstand von Beispiel 17ah optional beinhalten, dass der eine oder mehrere Prozessoren mit einer Sensor-Fusionsbox verbunden sind.
    • In Beispiel 19ah kann der Gegenstand eines der Beispiele 17ah oder 18ah optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um einen oder mehrere Objekterkennungsprozesse zu implementieren; und/oder einen oder mehrere Objektklassifizierungsprozesse zu implementieren; und/oder einen oder mehrere Objektverfolgungsprozesse zu implementieren.
    • In Beispiel 20ah kann der Gegenstand eines der Beispiele 17ah bis 19ah optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um eine Datenqualität zu bestimmen, die mit den komprimierten Sensordaten, die vom Sensormodul bereitgestellt werden, in Verbindung gebracht werden soll. Der eine oder die mehreren Prozessoren können ferner so konfiguriert werden, dass sie eine Anweisung zur Bereitstellung komprimierter Sensordaten mit der ermittelten Datenqualität erzeugen und diese an das Sensormodul übertragen.
    • In Beispiel 21ah kann der Gegenstand eines der Beispiele 17ah bis 20ah optional beinhalten, dass das Sensorsystem ein oder mehrere weitere Sensormodule umfasst. Der eine oder die mehreren Prozessoren können weiter konfiguriert werden, um Sensordaten zu verarbeiten, die von mindestens einem weiteren Sensormodul des einen oder der mehreren Sensormodule geliefert werden. Der eine oder die mehreren Prozessoren können ferner so konfiguriert werden, dass sie die mit den komprimierten Sensordaten zu verknüpfende Datenqualität auf der Grundlage der von dem mindestens einen weiteren Sensormodul gelieferten Sensordaten bestimmen.
    • In Beispiel 22ah kann der Gegenstand von Beispiel 21ah optional beinhalten, dass mindestens ein weiteres Sensormodul des einen oder der mehreren weiteren Sensormodule vom gleichen Sensortyp wie das Sensormodul ist.
    • In Beispiel 23ah kann der Gegenstand eines der Beispiele 17ah bis 22ah optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass sie den vom Sensormodul gelieferten komprimierten Sensordaten eine Prioritätsstufe zuweisen. Der eine oder die mehreren Prozessoren können ferner so konfiguriert werden, dass sie die den komprimierten Sensordaten zuzuordnende Datenqualität in Übereinstimmung mit der den komprimierten Sensordaten zugewiesenen Prioritätsstufe bestimmen.
    • In Beispiel 24ah kann der Gegenstand von Beispiel 23ah optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass die Prioritätsstufe bestimmt wird, die den komprimierten Sensordaten, die vom Sensormodul bereitgestellt werden, basierend auf dem Sichtfeld des Sensormoduls zugewiesen wird.
    • In Beispiel 25ah kann der Gegenstand eines der Beispiele 23ah oder 24ah optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass die Datenqualität, die den komprimierten Sensordaten zugeordnet werden soll, auf der Grundlage der verfügbaren Datenübertragungsressourcen und/oder Speicherressourcen, die dem einen oder den mehreren Prozessoren zugeordnet sind, bestimmt wird.
    • In Beispiel 26ah kann der Gegenstand von Beispiel 8ah und eines der Beispiele 17ah bis 25ah optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert sind, dass sie komprimierte objektbezogene Daten verarbeiten, die vom Sensormodul bereitgestellt werden. Der eine oder die mehreren Prozessoren können ferner so konfiguriert werden, dass sie Informationen erzeugen, die eine Datenqualität definieren, die mit den komprimierten objektbezogenen Daten verknüpft ist, und diese an das Sensormodul übertragen.
    • Beispiel 27ah ist ein Fahrzeug, das ein oder mehrere Sensorsysteme gemäß einem der Beispiele 1ah bis 26ah enthält.
    • Beispiel 28ah ist ein Verfahren zum Betrieb eines Sensorsystems. Das Verfahren kann ein Sensormodul umfassen, das Sensordaten liefert. Das Verfahren kann die Komprimierung mindestens eines Teils der vom Sensormodul gelieferten Sensordaten umfassen, um komprimierte Sensordaten zu erzeugen. Das Verfahren kann die Bereitstellung der komprimierten Sensordaten beinhalten. Das Verfahren kann den Empfang von Informationen umfassen, die eine Datenqualität definieren, die mit den komprimierten Sensordaten verbunden ist. Das Verfahren kann die Auswahl einer Datenkomprimierungscharakteristik umfassen, die zur Erzeugung der komprimierten Sensordaten in Übereinstimmung mit den empfangenen Informationen verwendet wird.
    • In Beispiel 29ah kann der Gegenstand von Beispiel 28ah optional beinhalten, dass die empfangenen Informationen eine Komplexitätsbewertung aufweisen, die einen Komplexitätsgrad beschreibt, der zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind.
    • In Beispiel 30ah kann der Gegenstand eines der Beispiele 28ah oder 29ah optional beinhalten, dass die empfangenen Informationen einen SAE-Level aufweisen, der mit einem autonomen Fahren verbunden ist und zumindest teilweise definiert, wie die komprimierten Sensordaten zu verarbeiten sind.
    • In Beispiel 31ah kann der Gegenstand eines der Beispiele 28ah bis 30ah optional beinhalten, dass die empfangenen Informationen eine Anweisung aufweisen, die eine Datenqualität der zu liefernden komprimierten Sensordaten beschreibt. Das Verfahren kann ferner die Auswahl der Datenkompressionscharakteristik in Übereinstimmung mit der empfangenen Anweisung umfassen.
    • In Beispiel 32ah kann der Gegenstand eines der Beispiele 28ah bis 31 ah optional die Auswahl einer ersten Datenkompressionscharakteristik zur Erzeugung erster komprimierter Daten und die Auswahl einer zweiten Datenkompressionscharakteristik zur Erzeugung zweiter komprimierter Daten umfassen. Die ersten komprimierten Daten können einem ersten Teil des Sichtfeldes des Sensormoduls zugeordnet werden und die zweiten komprimierten Daten können einem zweiten Teil des Sichtfeldes des Sensormoduls zugeordnet werden. Der erste Teil des Sichtfeldes kann sich vom zweiten Teil des Sichtfeldes unterscheiden. Die erste Datenkompressionscharakteristik kann sich von der zweiten Datenkompressionscharakteristik unterscheiden.
    • In Beispiel 33ah kann der Gegenstand eines der Beispiele 28ah bis 32ah optional einen Speicher aufweisen, der zumindest einen Teil der Sensordaten speichert, die nicht in den komprimierten Sensordaten enthalten sind. Das Verfahren kann ferner den Empfang einer Anforderung zur weiteren Bereitstellung mindestens eines Teils der Sensordaten beinhalten, der nicht in den komprimierten Sensordaten umfasst ist und der im Speicher gespeichert ist.
    • In Beispiel 34ah kann der Gegenstand eines der Beispiele 28ah bis 33ah optional das Sensormodul umfassen, das einen oder mehrere Objekterkennungsprozesse implementiert, wobei die Sensordaten zur Bereitstellung objektbezogener Daten verwendet werden. Das Verfahren kann ferner die Komprimierung mindestens eines Teils der objektbezogenen Daten umfassen, um komprimierte objektbezogene Daten zu liefern. Die empfangenen Informationen können eine Datenqualität definieren, die mit den komprimierten objektbezogenen Daten verbunden ist. Das Verfahren kann ferner die Auswahl einer Datenkomprimierungscharakteristik umfassen, die zur Erzeugung der komprimierten objektbezogenen Daten in Übereinstimmung mit den empfangenen Informationen verwendet wird.
    • In Beispiel 35ah kann der Gegenstand eines der Beispiele 28ah bis 34ah optional beinhalten, dass die Datenkomprimierung mindestens einen verlustbehafteten Komprimierungsalgorithmus enthält.
    • In Beispiel 36ah kann der Gegenstand von Beispiel 35ah optional beinhalten, dass der mindestens eine verlustbehaftete Kompressionsalgorithmus mindestens einen Algorithmus enthält, der ausgewählt ist aus: Quantisierung; Rundung; Diskretisierung; Transformationsalgorithmus; auf Schätzung basierender Algorithmus; und auf Vorhersage basierender Algorithmus.
    • In Beispiel 37ah kann der Gegenstand eines der Beispiele 28ah bis 36ah optional beinhalten, dass die Datenkomprimierung mindestens einen verlustfreien Komprimierungsalgorithmus enthält.
    • In Beispiel 38ah kann der Gegenstand von Beispiel 37ah optional einschließen, dass der mindestens eine verlustfreie Kompressionsalgorithmus mindestens einen Algorithmus enthält, der ausgewählt wurde aus: Lauflängenkodierung; Variable-Längen-Kodierung und Entropie-Kodierungsalgorithmus.
    • In Beispiel 39ah kann der Gegenstand eines der Beispiele 28ah bis 38ah optional beinhalten, dass das Sensormodul als ein Sensortyp konfiguriert wird, der aus einer Gruppe von Sensortypen ausgewählt wird, die aus diesen besteht: LIDAR-Sensor; RADAR-Sensor; Kamerasensor; Ultraschallsensor; und Trägheitsmesssensor.
    • In Beispiel 40ah kann der Gegenstand eines der Beispiele 28ah bis 39ah optional mindestens eine Schnittstelle des Globalen Positionierungssystems aufweisen, die Informationen zur globalen Positionierung empfängt.
    • In Beispiel 41ah kann der Gegenstand eines der Beispiele 28ah bis 40ah optional mindestens eine Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle aufweisen.
    • In Beispiel 42ah kann der Gegenstand eines der Beispiele 28ah bis 41 ah optional mindestens eine Fahrzeug-Infrastruktur-Kommunikationsschnittstelle aufweisen.
    • In Beispiel 43ah kann der Gegenstand eines der Beispiele 28ah bis 41 ah optional die Verarbeitung komprimierter Sensordaten umfassen, die vom Sensormodul bereitgestellt werden. Das Verfahren kann ferner die Erzeugung von Informationen umfassen, die eine mit den komprimierten Sensordaten verbundene Datenqualität definieren und diese an das Sensormodul übertragen.
    • In Beispiel 44ah kann der Gegenstand von Beispiel 43ah optional die Implementierung eines oder mehrerer Objekterkennungsprozesse; und/oder die Implementierung eines oder mehrerer Objektklassifizierungsprozesse; und/oder die Implementierung eines oder mehrerer Objektverfolgungsprozesse umfassen.
    • In Beispiel 45ah kann der Gegenstand eines der Beispiele 43ah oder 44ah optional die Bestimmung einer Datenqualität beinhalten, die mit den vom Sensormodul gelieferten komprimierten Sensordaten in Verbindung gebracht werden soll. Das Verfahren kann ferner die Erzeugung einer Anweisung zur Bereitstellung komprimierter Sensordaten mit der ermittelten Datenqualität und deren Übermittlung an das Sensormodul umfassen.
    • In Beispiel 46ah kann der Gegenstand eines der Beispiele 43ah bis 45ah optional ein oder mehrere weitere Sensormodule aufweisen. Das Verfahren kann ferner die Verarbeitung von Sensordaten umfassen, die von mindestens einem weiteren Sensormodul des einen oder der mehreren Sensormodule bereitgestellt werden. Das Verfahren kann ferner die Bestimmung der mit den komprimierten Sensordaten zu verknüpfenden Datenqualität auf der Grundlage der von dem mindestens einen weiteren Sensormodul gelieferten Sensordaten umfassen.
    • In Beispiel 47ah kann der Gegenstand von Beispiel 46ah optional beinhalten, dass mindestens ein weiteres Sensormodul des einen oder der mehreren weiteren Sensormodule vom gleichen Sensortyp wie das Sensormodul ist.
    • In Beispiel 48ah kann der Gegenstand eines der Beispiele 43ah bis 47ah optional die Zuweisung einer Prioritätsstufe für die vom Sensormodul gelieferten komprimierten Sensordaten umfassen. Das Verfahren kann ferner die Bestimmung der Datenqualität umfassen, die den komprimierten Sensordaten gemäß der den komprimierten Sensordaten zugewiesenen Prioritätsstufe zuzuordnen ist.
    • In Beispiel 49ah kann der Gegenstand von Beispiel 48ah optional die Bestimmung der Prioritätsstufe umfassen, die den komprimierten Sensordaten, die vom Sensormodul bereitgestellt werden, basierend auf dem Sichtfeld des Sensormoduls zuzuweisen ist.
    • In Beispiel 50ah kann der Gegenstand eines der Beispiele 48ah oder 49ah optional die Bestimmung der mit den komprimierten Sensordaten zu verknüpfenden Datenqualität auf der Grundlage der verfügbaren Datenübertragungsressourcen und/oder Speicherressourcen umfassen.
    • In Beispiel 51ah kann der Gegenstand von Beispiel 34ah und jedes der Beispiele 43ah bis 50ah optional die Verarbeitung komprimierter objektbezogener Daten umfassen, die vom Sensormodul bereitgestellt werden. Das Verfahren kann ferner die Erzeugung von Informationen umfassen, die eine Datenqualität definieren, die mit den komprimierten objektbezogenen Daten verknüpft ist, und deren Übermittlung an das Sensormodul.
    • Beispiel 52ah ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium enthalten sein können und die, wenn sie von einem Computerprogrammgerät eines Sensorsystems gemäß einem der Beispiele 1ah bis 26ah ausgeführt werden, das Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 28ah bis 51 ah auszuführen.
    • Beispiel 53ah ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das geeignet ist, mindestens eines der Verfahren für ein Sensorsystem nach einem der obigen Verfahrensbeispiele auszuführen.
  • Ein konventionelles LIDAR-System kann so ausgelegt sein, dass es mit der höchstmöglichen Auflösung und Bildrate arbeitet, die die optoelektronische Architektur zur Erreichung der gewünschten Funktionalität zulässt. Ein solches Design kann einen erheblichen Aufwand an digitaler Signalverarbeitung (DSP) erfordern. Dies kann den Stromverbrauch, die zu bewältigende Datenlast und die Kosten des Systems erhöhen. Eine hohe Leistungsaufnahme kann auch das thermische Design beeinflussen, was wiederum das physikalische Volumen des LIDAR-Systems begrenzen kann. Eine hohe Datenlast kann die Implementierung eines ausgeklügelten Datenkompressionsalgorithmus erfordern.
  • In einem konventionellen LIDAR-System kann durch die Beeinträchtigung der Leistung eine geringere Leistungsaufnahme auf der digitalen Signalverarbeitungsebene erreicht werden, was sich negativ auf die Funktionalität des LIDAR-Systems auswirken kann. Beispielsweise können die Auflösung und die Bildwiederholrate einer LIDAR-Messung verringert werden. Die Auflösung kann z.B. durch Weglassen von Zeilen oder Spalten in einem Abtastsystem oder in einem- 2D-Emitter-Array (z.B. einem 2D-VCSEL-Array) manipuliert werden. Ein Rahmen mit geringerer Auflösung kann über einen Übersichts-Lichtemissionsmodus oder einen Scanmodus erhalten werden. Das Sichtfeld oder der Erfassungsbereich kann über die Verteilung der emittierten Laserleistung reduziert werden.
  • Verschiedene Ausführungsformen können sich auf die Anpassung des Betriebs eines LIDAR-Systems (z.B. von einer oder mehreren Komponenten des LIDAR-Systems) beziehen, um den mit der digitalen Signalverarbeitung verbundenen Stromverbrauch zu reduzieren oder zu minimieren und gleichzeitig die negativen Auswirkungen auf die Leistung oder die Funktionalität des LIDAR-Systems zu minimieren. Illustrativ kann dies als ein zu lösendes Optimierungsproblem (z.B. in Echtzeit) beschrieben werden. Die Leistungsaufnahme des LIDAR-Systems kann reduziert werden, während zusätzliche Risiken oder Gefahren, die mit dem angepassten (z.B. reduzierten) Betrieb des LIDAR-Systems verbunden sein können, minimiert werden. Es kann ein adaptiver Prozess (z.B. durch einen oder mehrere Prozessoren des LIDAR-Systems) durchgeführt werden, um eine oder mehrere Eigenschaften oder Parameter des LIDAR-Systems anzupassen, die (z.B. direkt oder indirekt) mit der Leistungsaufnahme des LIDAR-Systems verbunden sein können. Der Prozess kann die Identifizierung einer oder mehrerer Regionen (auch als Zonen oder Bereiche bezeichnet) im Sichtfeld des LIDAR-Systems umfassen, die mit reduzierten Parametern verarbeitet (z.B. erkannt und/oder analysiert) werden können. Der regionenbasierte Ansatz kann eine Reduzierung des Stromverbrauchs (und/oder der für die Bildgebung und/oder Analyse erforderlichen Zeit) bei gleichzeitiger Aufrechterhaltung eines gewünschten Zuverlässigkeitsniveaus für den Betrieb des LIDAR-Systems (z.B. ein gewünschtes Sicherheitsniveau in Bezug auf das Führen eines Fahrzeugs einschließlich des LIDAR-Systems) bieten.
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 162 bis 164E, kann der Begriff „Pixelierung“ verwendet werden, um einen Effekt zu beschreiben, der mit der Auflösung, z.B. eines Bildes, zusammenhängt. „Pixelierung“ kann ein Effekt einer niedrigen Auflösung, z.B. eines Bildes, sein, der zu unnatürlichen Erscheinungen führen kann, wie z.B. scharfe Kanten bei einem gekrümmten Objekt und diagonale Linien.
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 162 bis 164E, kann der Begriff „Unschärfe“ verwendet werden, um einen Effekt zu beschreiben, der mit der Bildwiederholrate zusammenhängt (z.B. die Rate, mit der nachfolgende Einzelbilder oder Bilder aufgenommen werden). „Unschärfe“ kann ein Effekt der niedrigen Framerate sein, der zu einem visuellen Effekt auf Bildsequenzen führen kann, der verhindert, dass ein Objekt klar oder scharf wahrgenommen wird. Illustrativ kann ein Objekt in einem unscharfen Bild verschwommen oder undeutlich erscheinen.
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 162 bis 164E, kann der Begriff „Vertrauensniveau“ verwendet werden, um einen Parameter, z.B. einen statistischen Parameter, zu beschreiben, der eine Bewertung einer korrekten Identifizierung und/oder Klassifizierung eines Objekts, z.B. in einem Bild, darstellt. Veranschaulichend kann ein Konfidenzniveau eine Schätzung für eine korrekte Identifizierung und/oder Klassifizierung eines Objekts darstellen. Das Konfidenzniveau kann mit der Genauigkeit und Präzision eines Algorithmus zusammenhängen, wie weiter unten näher beschrieben wird.
  • In verschiedenen Ausführungsformen kann ein LIDAR-System zur Verfügung gestellt werden (z.B. das LIDAR-Sensorsystem 10). Das LIDAR-System kann so konfiguriert oder ausgerüstet werden, dass es eine nützliche Darstellung seiner Umgebung liefert (z.B. eine Darstellung der Umgebung vor oder um das LIDAR-System). Eine solche Darstellung kann von unterschiedlicher Art sein, wie weiter unten näher beschrieben wird. Als Beispiel kann das LIDAR-System in ein Fahrzeug integriert werden (z.B. ein Fahrzeug mit automatisierten Fahrfunktionen). Das LIDAR-System kann eine Darstellung der Umgebung des Fahrzeugs liefern.
  • Das LIDAR-System kann einen Sensor aufweisen (z.B. den LIDAR-Sensor 52). Der Sensor kann so konfiguriert werden, dass er eine oder mehrere Sensordatendarstellungen (z.B. eine Vielzahl von Sensordatendarstellungen) liefert. Eine Sensordatendarstellung kann eine erste Art der Darstellung der Umgebung des LIDAR-Systems sein. Illustrativ kann eine Sensordatendarstellung eine Vielzahl von Sensordaten (z.B. von Sensorsignalen) aufweisen, die die Umgebung des LIDAR-Systems beschreiben (z.B. das Sichtfeld des LIDAR-Systems). Beispielsweise kann eine Sensordatendarstellung eine Punktwolke sein oder eine Punktwolke aufweisen, z.B. eine LIDAR-Punktwolke, wie eine dreidimensionale Punktwolke oder eine mehrdimensionale Punktwolke (z.B. eine vierdimensionale Punktwolke). Eine dreidimensionale Punktwolke (z.B. eine rohe dreidimensionale Punktwolke) kann gemessene Entfernungspunkte (z.B. ein gemessener Zeitabstand für jeden Punkt) aufweisen, z.B. jeweils mit einem zugehörigen Zeitstempel. Die dreidimensionale Punktwolke kann ohne zusätzliche Korrekturen (z.B. ohne Korrekturen für die eigenen Fahrzeugeigenschaften) bereitgestellt werden. Eine mehrdimensionale Punktwolke kann weitere Messdaten aufweisen, z.B. kann eine vierdimensionale Punktwolke zusätzlich Intensitätsdaten aufweisen. Eine Sensordatendarstellung kann auch als Sensordatenbild bezeichnet werden.
  • Eine Sensordatendarstellung kann eine Auflösung haben. Die Auflösung kann die Anzahl der Sensorpixel (z.B. eine Anzahl von Fotodioden) darstellen oder beschreiben, die zur Erkennung des Sichtfeldes (oder eines Teils des Sichtfeldes) verwendet werden. Zur Veranschaulichung: Die Auflösung kann die Anzahl der Sensorpixel darstellen oder beschreiben, die zur Erzeugung der Sensordatendarstellung oder eines Teils der Sensordatendarstellung verwendet werden. Verschiedene Teile einer Sensordatendarstellung können unterschiedliche Auflösungen haben, wie weiter unten näher beschrieben wird.
  • Das LIDAR-System kann einen oder mehrere Prozessoren aufweisen (z.B. ein digitales Signalverarbeitungssystem). Der eine oder die mehreren Prozessoren können zur Verarbeitung (z.B. zur Analyse) der Sensordatendarstellungen konfiguriert werden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen oder mehrere Bereiche in den Sensordatendarstellungen (z.B. in mindestens einer Sensordatendarstellung, z.B. in mindestens einer gemessenen dreidimensionalen Punktwolke) bestimmen (z.B. identifizieren oder auswählen). Zur Veranschaulichung: Eine Region kann ein Teil einer Sensordatendarstellung sein oder einen Teil davon aufweisen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert sein, dass sie eine erste Region und eine zweite Region in mindestens einer Sensordatendarstellung bestimmen (z.B. in einigen oder in jeder Sensordatendarstellung, z.B. parallel).
  • Jeder Region kann ein Datenverarbeitungsmerkmal zugeordnet sein. Die Datenverarbeitungsmerkmale können für verschiedene Regionen unterschiedlich sein. Beispielsweise kann ein erstes Datenverarbeitungsmerkmal mit der ersten Region und ein zweites Datenverarbeitungsmerkmal mit der zweiten Region assoziiert sein. Das zweite Datenverarbeitungsmerkmal kann sich von dem ersten Datenverarbeitungsmerkmal unterscheiden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie jedem Teil einer Sensordatendarstellung ein entsprechendes Datenverarbeitungsmerkmal zuweisen (veranschaulicht durch jeden Teil des Sichtfeldes des LIDAR-Systems). Ein Bereich kann als ein Teil oder eine Gruppe von Teilen einer Sensordatendarstellung beschrieben werden, denen jeweils die gleiche Datenverarbeitungscharakteristik zugeordnet ist. Ein oder mehrere Prozessoren können so konfiguriert werden, dass sie einen Bereich in einer Sensordatendarstellung bestimmen, indem sie einem oder mehreren Teilen der Sensordatendarstellung eine Datenverarbeitungscharakteristik zuweisen.
  • Ein Datenverarbeitungsmerkmal kann ein Merkmal oder einen Parameter aufweisen oder repräsentieren, das bzw. der für die Verarbeitung des zugehörigen Bereichs der Sensordatendarstellung verwendet werden soll (z. B. der zugehörige Bereich des Sichtfelds). Die Verarbeitung eines Bereichs kann als Verarbeitung der diesem Bereich zugeordneten Sensordaten und/oder als Erkennung dieses Bereichs verstanden werden (z.B. Erzeugung des Teils der Sensordatendarstellung, der diesen Bereich einschließt). Beispielsweise kann ein Datenverarbeitungsmerkmal eine Auflösung darstellen, die für die Verarbeitung des zugehörigen Bereichs oder für die Erkennung des zugehörigen Bereichs verwendet werden soll (z.B. kann eine weitere Sensordatendarstellung mit der für diesen Bereich zugewiesenen Auflösung erfasst oder erzeugt werden). Als weiteres Beispiel kann ein Datenverarbeitungsmerkmal eine Bildrate für die Erkennung (z.B. für die Bildgebung) des zugehörigen Bereichs darstellen. Als weiteres Beispiel kann eine Datenverarbeitungseigenschaft eine Leistungsaufnahme darstellen, die für die Verarbeitung des zugehörigen Bereichs und/oder für die Erkennung des zugehörigen Bereichs verwendet wird (z.B. eine Leistungsaufnahme, die mit einer Lichtquelle des LIDAR-Systems und/oder mit einer oder mehreren elektrischen Komponenten des LIDAR-Systems verbunden ist, wie weiter unten näher beschrieben). Es wird davon ausgegangen, dass ein Datenverarbeitungsmerkmal eine Kombination verschiedener Datenverarbeitungsmerkmale aufweisen oder darstellen kann. Zur Veranschaulichung: Ein Datenverarbeitungsmerkmal, das einem Bereich einer Sensordatendarstellung zugeordnet ist, kann eine Auflösung und/oder eine Bildrate und/oder eine Leistungsaufnahme darstellen oder beschreiben, die für die Verarbeitung dieses Bereichs verwendet wird. Ein Datenverarbeitungsmerkmal kann auch andere mit der Verarbeitung zusammenhängende Parameter repräsentieren oder beschreiben.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie das LIDAR-System (z.B. mindestens eine Komponente des LIDAR-Systems) in Übereinstimmung mit den Datenverarbeitungsmerkmalen der ermittelten Regionen steuern (z.B. jede Region in Übereinstimmung mit dem jeweiligen Datenverarbeitungsmerkmal verarbeiten). Veranschaulichend kann der eine oder mehrere Prozessoren konfiguriert werden, um den Betrieb (z.B. einen oder mehrere Betriebsparameter) des LIDAR-Systems in Übereinstimmung mit den zugewiesenen Datenverarbeitungsmerkmalen einzustellen oder anzupassen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie mindestens eine Komponente des LIDAR-Systems steuern, um die erste Region in Übereinstimmung mit dem ersten Datenverarbeitungsmerkmal und die zweite Region in Übereinstimmung mit dem zweiten Datenverarbeitungsmerkmal zu verarbeiten.
  • Beispielsweise können ein oder mehrere Prozessoren so konfiguriert werden, dass sie mindestens eine Komponente so steuern, dass sie (z.B.) unterschiedliche Leistungsaufnahmen für die Verarbeitung der verschiedenen Regionen aufweisen (z.B. eine erste Leistungsaufnahme für die Verarbeitung der ersten Region und eine zweite Leistungsaufnahme für die Verarbeitung der zweiten Region). Dadurch kann eine thermische Belastung des LIDAR-Systems reduziert werden. Eine reduzierte thermische Belastung kann zu einem kompakteren Volumen des LIDAR-Systems führen. Beispielsweise können ein oder mehrere Prozessoren so konfiguriert werden, dass sie eine Lichtquelle des LIDAR-Systems steuern (z.B. um eine Zielleistungsaufnahme zu erreichen). Illustrativ kann die Lichtquelle so gesteuert werden, dass sie Licht (z.B. Laserlicht) mit unterschiedlicher Leistung in verschiedene Bereiche emittiert (z.B. eine erste Leistung im ersten Bereich und eine zweite Leistung im zweiten Bereich, wobei die zweite Leistung z.B. niedriger als die erste Leistung ist). Dies kann die Sicherheit (z.B. die Lasersicherheit) des LIDAR-Systems erhöhen. Als weiteres Beispiel können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie eine elektrische Komponente des LIDAR-Systems steuern (z.B. um eine Zielleistungsaufnahme zu erreichen). Die elektrische Komponente kann aus einer Gruppe von elektrischen Komponenten ausgewählt werden, die aus einem oder mehreren Verstärkern besteht, wie z.B. einem oder mehreren Transimpedanzverstärkern, einem oder mehreren Analog-Digital-Wandlern und einem oder mehreren Zeit-Digital-Wandlern. Zur Veranschaulichung kann die elektrische Komponente so gesteuert werden, dass sie eine unterschiedliche Leistungsaufnahme für die Durchführung von Operationen aufweist, die mit verschiedenen Bereichen verbunden sind (z.B. kann ein Verstärker so gesteuert werden, dass er eine erste Leistungsaufnahme für die Verstärkung von Sensorsignalen aufweist, die mit dem ersten Bereich verbunden sind, und eine zweite, z.B. geringere Leistungsaufnahme für die Verstärkung von Sensorsignalen, die mit dem zweiten Bereich verbunden sind). Dadurch können elektromagnetische Interferenzen zwischen verschiedenen Komponenten reduziert werden (dies kann z.B. die Kompatibilität mit elektromagnetischen Interferenzen gewährleisten). Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie eine Konfiguration für ein oder mehrere andere Sensorsysteme auswählen (z.B. im Fahrzeug aufweisen, wie z.B. in Bezug auf 123 beschrieben), z.B. eine andere Konfiguration, die für die Verarbeitung verschiedener Regionen anzuwenden ist.
  • Als weiteres Beispiel können ein oder mehrere Prozessoren so konfiguriert werden, dass sie das LIDAR-System so steuern, dass es Sensordaten mit unterschiedlicher Auflösung und/oder unterschiedlicher Bildrate in verschiedenen Regionen erkennt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Sender- und/oder Empfängerkomponenten (z.B. die Lichtquelle, eine Abtastkomponente und/oder einen Sensor) steuern, um Sensordaten mit unterschiedlicher Auflösung und/oder unterschiedlicher Framerate in verschiedenen Regionen zu erfassen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie den Sensor steuern, um eine Sensordatendarstellung mit unterschiedlicher Auflösung und/oder unterschiedlicher Framerate in verschiedenen Regionen zu erzeugen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie das LIDAR-System so steuern, dass es Sensordaten in der ersten Region mit einer ersten Auflösung und/oder einer ersten Bildrate und Sensordaten in der zweiten Region mit einer zweiten Auflösung und/oder einer zweiten Bildrate erfasst. Die erste Auflösung kann sich von der zweiten Auflösung unterscheiden (z.B. höher oder niedriger, abhängig von der zugewiesenen Datenverarbeitungscharakteristik). Zusätzlich oder alternativ kann sich die erste Bildrate von der zweiten Bildrate unterscheiden. Zur Veranschaulichung: Die Auflösung kann in Abhängigkeit von der Pixelierung eines Teils der Sensordatendarstellung (z. B. eines in diesem Teil enthaltenen Objekts und/oder seiner Eigenschaften und des Gefährlichkeitsgrads ausgewählt oder zugewiesen werden, wie weiter unten näher beschrieben wird). Die Bildrate kann z.B. in Abhängigkeit von einer potentiellen Gefahr, die ein Objekt darstellt, ausgewählt oder zugewiesen werden und kann anhand der Unschärfe und/oder des Objekttyps (illustrativ, basierend auf der Unschärfe und/oder dem Objekttyp) bewertet werden, wie weiter unten näher beschrieben.
  • In verschiedenen Ausführungsformen können der eine oder die mehreren Prozessoren weiter konfiguriert werden, um eine Region nach einer Relevanz dieser Region zu bestimmen (z.B. nach einem oder mehreren Relevanzkriterien, wie z.B. in Bezug auf 150A bis 154B beschrieben). Illustrativ können der eine oder die mehreren Prozessoren konfiguriert werden, um eine Relevanz eines oder mehrerer Teile einer Sensordatendarstellung (z.B. eines oder mehrerer Teile des Sichtfeldes des LIDAR-Systems) zu beurteilen oder zu bewerten und die jeweilige Datenverarbeitungseigenschaft (z.B. Bestimmung der jeweiligen Region) entsprechend zuzuordnen, wie weiter unten im Detail beschrieben. Eine relevantere Region kann mit einem hohen Datenverarbeitungsmerkmal assoziiert sein (z.B. höher als eine weniger relevante Region). Eine relevantere Region kann z.B. mit einer höheren Auflösung und/oder höheren Bildrate und/oder höherem Stromverbrauch als eine weniger relevante Region verarbeitet werden. Nur als Beispiel können ein oder mehrere Prozessoren eine Kernzone (z.B. eine Kernregion/ein Kernbereich) des Sichtfeldes auswählen, die mit hoher Auflösung verarbeitet werden soll. Die genaue Form und das Aspektverhältnis der Kernzone bei hoher Auflösung kann von den Systemanforderungen und/oder externen Faktoren abhängen (z.B. der Geschwindigkeit des Fahrzeugs, den Wetterbedingungen oder den Verkehrsbedingungen, wie Verkehrsdichte und Fahrumgebung (Stadt, Autobahn, Geländewagen usw.)). Die Kernzone kann z.B. eine Zone oder ein Bereich direkt vor dem Fahrzeug einschließlich des LIDAR-Systems sein (z.B. ein zentraler Teil des Sichtfeldes). Der übrige Bereich (z.B. die Nicht-Kernregionen, z.B. ein peripherer Teil) des Sichtfeldes kann mit geringerer Auflösung verarbeitet werden. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass die erste Region als Kernregion und die zweite Region als Nicht-Kernregion (z.B. eine Hintergrundregion) bestimmt wird. Eine Kernzone kann fixiert oder dynamisch angepasst werden, wie weiter unten näher beschrieben wird.
  • Der eine oder die mehreren Prozessoren können weiter konfiguriert werden, um eine Region (z.B. die Relevanz eines Teils des Sichtfeldes) entsprechend den Informationen über das Fahrzeug zu bestimmen, in das das LIDAR-System integriert werden kann. Der eine oder die mehreren Prozessoren können z.B. so konfiguriert werden, dass sie eine Region (z.B. eine Kernzone) auf der Grundlage einer geplanten Flugbahn oder Route des Fahrzeugs bestimmen. Die Informationen über die geplante Flugbahn können dem LIDAR-System (z.B. dem einen oder mehreren Prozessoren) zur Verfügung gestellt werden, z.B. durch ein Sensorfusionssystem. Die Informationen über die geplante Flugbahn können aus Navigationsinformationen (z.B. aus der Lenkung des Fahrzeugs, z.B. aus einem Positionierungssystem und der Richtung der Räder) bestimmt oder vorhergesagt werden. Zur Veranschaulichung: Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die geplante Trajektorie mit dem Sichtfeld des LIDAR-Systems überlagern, um eine Kernzone (zur Veranschaulichung: eine Kernregion von Interesse) zu definieren, in der sich das Fahrzeug voraussichtlich bewegen wird.
  • Beispielsweise kann das LIDAR-System auf der Hardware-Ebene mit voller Leistung arbeiten. Illustrativ können die Sender- und Empfängerkomponenten (z.B. die Lichtquelle und der Sensor) mit hoher Auflösung arbeiten, um hochauflösende Sensordatendarstellungen zu erzeugen (z.B. eine dreidimensionale Punktwolke hoher Dichte). Die Frequenz, mit der die Sensordatendarstellungen erzeugt werden, kann das Maximum sein, das von der Hardware erreicht werden kann. Zur Veranschaulichung: Das LIDAR-System kann mit maximaler Bildrate arbeiten. Ein Rahmen (z.B. ein LIDAR-Rahmen) kann eine einzelne Sensordatendarstellung sein (z.B. eine einzelne dreidimensionale oder mehrdimensionale Punktwolke). Ein Frame/Rahmen kann mit einem Zeitstempel erzeugt werden. Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die Sensordatendarstellungen (z.B. ein ganzes dreidimensionales Punktwolkenbild) mit niedriger Auflösung und niedriger Framerate verarbeiten (z.B. analysieren), z.B. als Standardoperation. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Verarbeitung der Kernregion mit höherer Auflösung und Framerate anpassen, um das Vertrauensniveau zu erhöhen (z.B. im Zusammenhang mit der Erkennung und/oder Klassifizierung von Objekten in einer solchen Region). Die Erhöhung von Auflösung und Bildwiederholrate kann in diskreten Schritten definiert werden. Beispielsweise kann die Erhöhung von Auflösung und Bildrate von der Geschwindigkeit des Fahrzeugs abhängig sein. Parallel dazu können der eine oder mehrere Prozessoren die Objekterkennung im gesamten Sichtfeld verarbeiten. Für den Fall, dass ein oder mehrere erkannte Objekte eine Gefahr darstellen (z.B. für das Fahrzeug), können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie für jedes Objekt einen Bereich (z.B. eine Kernzone) erzeugen und z.B. die Auflösung und/oder die Bildwiederholrate gemäß einem Algorithmus erhöhen, wie im Folgenden näher beschrieben wird. Für den Fall, dass die Objekte keine Gefahr darstellen, können der eine oder die mehreren Prozessoren so konfiguriert werden, dass diese Zonen des Sichtfeldes im Standardbetriebsmodus (z.B. niedrige Auflösung und niedrige Framerate) ausgeführt werden. Dies kann den Gesamtstromverbrauch reduzieren.
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren konfiguriert werden, um einen Objekterkennungsprozess zu implementieren oder auszuführen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren Informationen im Zusammenhang mit einer Objekterkennung erhalten, die z.B. durch ein Sensorfusionssystem des Fahrzeugs (z.B. durch eine Sensorfusionsbox) bereitgestellt werden. Der eine oder die mehreren Prozessoren (und/oder das Sensorfusionssystem) können so konfiguriert werden, dass sie den Objekterkennungsprozess auf die Sensordatendarstellungen anwenden (z.B. auf mindestens eine Sensordatendarstellung, z.B. auf einige oder alle Sensordatendarstellungen, z.B. parallel). Der Objekterkennungsprozess kann angewendet werden, um die verschiedenen Regionen (z.B. die erste Region und die zweite Region) zu bestimmen (z.B. um sie zu identifizieren oder auszuwählen). Illustrativ kann der Objekterkennungsprozess angewandt werden, um das Datenverarbeitungsmerkmal zu bestimmen, das jedem Teil einer Sensordatendarstellung zugeordnet werden soll (z.B. jedem Teil des Sichtfeldes).
  • Der Objekterkennungsprozess kann eine Liste von einem oder mehreren Objekten (illustrativ, vorhanden oder erkannt in der jeweiligen Sensordatendarstellung) liefern. Die Liste der Objekte kann eine zweite Art der Darstellung der Umgebung des LIDAR-Systems sein. Jedem Objekt können eine oder mehrere Eigenschaften zugeordnet werden, wie z.B. eine Position, eine Größe, eine Orientierung oder ein Abstand (z.B. von einem vordefinierten Ort, z.B. vom LIDAR-System oder vom Fahrzeug). Zur Veranschaulichung: Die Liste der Objekte kann das Ergebnis einer Verarbeitung (z.B. Bildverarbeitung) der Sensordatendarstellung (z.B. einer dreidimensionalen Punktwolke) sein. Jedem Objekt können auch eine oder mehrere zusätzliche Eigenschaften oder Parameter zugeordnet sein, wie z.B. eine Geschwindigkeit (z.B. berechnet durch Objektverfolgung, z.B. durch ein Sensorfusionssystem des Fahrzeugs). Jedem Objekt kann ein Zeitstempel zugeordnet sein (z.B. der einen absoluten oder relativen Zeitpunkt darstellt, zu dem das Objekt erkannt wurde, z.B. zu dem die Sensordaten-Darstellung einschließlich des Objekts erzeugt wurde).
  • Die Anwendung des Objekterkennungsprozesses kann die Bereitstellung eines Vertrauensniveaus für die Erkennung einschließen (z. B. für eine Sensordatendarstellung als Ganzes oder für jedes erkannte Objekt in einer Sensordatendarstellung). Das Erkennungs-Vertrauensniveau kann einen Schätzwert für eine korrekte Identifizierung eines Objekts (z.B. für jedes Objekt) in einer Sensordatendarstellung beschreiben oder darstellen. Beispielsweise kann der Objekterkennungsprozess einen Algorithmus des maschinellen Lernens umfassen (z.B. kann der Objekterkennungsprozess durch einen Algorithmus des maschinellen Lernens, z.B. durch ein neuronales Netz, implementiert werden). Das Konfidenzniveau der Erkennung kann eine Wahrscheinlichkeit für die korrekte Identifizierung des Objekts angeben (z.B. eine Wahrscheinlichkeit, dass ein Objekt korrekt erkannt wurde).
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren konfiguriert werden, um einen Objektklassifizierungsprozess zu implementieren oder auszuführen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren Informationen in Bezug auf eine Objektklassifizierung erhalten, die z.B. von einem Sensorfusionssystem des Fahrzeugs bereitgestellt werden. Der eine oder die mehreren Prozessoren (und/oder das Sensorfusionssystem) können so konfiguriert werden, dass sie einen Objektklassifizierungsprozess auf die Sensordatendarstellungen anwenden (z.B. auf mindestens eine Sensordatendarstellung, z.B. auf einige oder jede Sensordatendarstellung, z.B. parallel). Der Objektklassifizierungsprozess kann angewandt werden, um die verschiedenen Regionen (z.B. die erste Region und die zweite Region) zu bestimmen (z.B. um sie zu identifizieren oder auszuwählen). Veranschaulichend kann das Objektklassifizierungsverfahren angewandt werden, um das Datenverarbeitungsmerkmal zu bestimmen, das jedem Teil einer Sensordatendarstellung (z.B. jedem Teil des Sichtfeldes) zugeordnet werden soll. Der Objektklassifizierungsprozess kann im Anschluss an den Objekterkennungsprozess angewendet werden (z.B. auf der Grundlage der Ergebnisse des Objekterkennungsprozesses).
  • Der Objektklassifizierungsprozess kann eine Liste von einem oder mehreren klassifizierten Objekten liefern (die illustrativ in der jeweiligen Sensordatendarstellung und/oder in der jeweiligen Liste der erkannten Objekte vorhanden sind). Die Liste der klassifizierten Objekte kann eine dritte Art der Darstellung der Umgebung des LIDAR-Systems sein. Jedem Objekt kann ein Typ (z.B. eine Klasse) zugeordnet sein, wie z.B. PKW, LKW, Fahrrad, Fußgänger und dergleichen. Zur Veranschaulichung: Die Liste der klassifizierten Objekte kann in einem weiteren Verarbeitungsschritt auf der Liste der mit dem Bilderkennungsverfahren versehenen Objekte bereitgestellt werden.
  • Die Anwendung des Objektklassifizierungsprozesses kann die Bereitstellung eines Klassifizierungs-Vertrauensniveaus beinhalten (z. B. für eine Sensordaten-Darstellung als Ganzes oder für jedes klassifizierte Objekt in einer Sensordaten-Darstellung). Das Klassifizierungs-Vertrauensniveau kann eine Schätzung für eine korrekte Klassifizierung eines Objekts (z.B. für jedes Objekt) in einer Sensordatendarstellung beschreiben oder darstellen. Beispielsweise kann der Objektklassifizierungsprozess einen Algorithmus für maschinelles Lernen umfassen (z. B. kann der Objektklassifizierungsprozess durch einen Algorithmus für maschinelles Lernen implementiert werden, z. B. durch ein neuronales Netz). Das Konfidenzniveau der Klassifikation kann eine Wahrscheinlichkeit für die korrekte Klassifizierung des Objekts angeben (z.B. eine Wahrscheinlichkeit, dass ein Objekt korrekt klassifiziert wurde).
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren so konfiguriert werden, dass sie einen Gefahrenidentifizierungsprozess implementieren oder ausführen. Zusätzlich oder alternativ dazu können der eine oder die mehreren Prozessoren Informationen im Zusammenhang mit der Gefahrenidentifikation erhalten, die z.B. durch ein Sensorfusionssystem des Fahrzeugs bereitgestellt werden. Der eine oder die mehreren Prozessoren (und/oder das Sensorfusionssystem) können so konfiguriert werden, dass sie einen Gefahrenidentifizierungsprozess auf die Sensordatendarstellungen anwenden (z.B. auf mindestens eine Sensordatendarstellung, z.B. auf einige oder alle Sensordatendarstellungen, z.B. parallel). Der Gefahrenidentifizierungsprozess kann angewandt werden, um die verschiedenen Regionen (z.B. die erste Region und die zweite Region) zu bestimmen (z.B. zur Identifizierung oder Auswahl). Veranschaulichend kann der Prozess der Gefahrenidentifizierung eine potenzielle Gefahr bestimmen (z.B. berechnen oder bewerten), die mit jeder Region (z.B. mit dem Inhalt jeder Region) verbunden ist. Darüber hinaus kann das Verfahren der Gefahrenidentifizierung zur Bestimmung des Datenverarbeitungsmerkmals angewandt werden, das mit jedem Teil einer Sensordatendarstellung (z.B. mit jedem Teil des Sichtfeldes) in Verbindung zu bringen ist. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen Akzeptanzbereich für die Konfidenzniveaus entsprechend dem Ergebnis des Gefahrenidentifikationsprozesses anpassen, z.B. für das Erkennungs-Konfidenzniveau und/oder für das Klassifizierungs-Konfidenzniveau, wie weiter unten näher beschrieben.
  • Die Anwendung des Verfahrens zur Gefahrenidentifizierung kann die Bestimmung (z. B. Messung oder Berechnung) eines oder mehrerer Merkmale des Inhalts der Sensordatendarstellungen umfassen. Das eine oder die mehreren Merkmale können den Inhalt eines Bereichs und/oder das Verhalten des Inhalts eines Bereichs (z.B. des ersten Bereichs und/oder des zweiten Bereichs) beschreiben oder darstellen. Der Inhalt einer Region kann z.B. ein Objekt sein. Das eine oder die mehreren Merkmale können einen Abstand des Inhalts einer Region von einem vordefinierten Ort (z.B. vom LIDAR-System oder vom Fahrzeug oder einer Flugbahn des Fahrzeugs) umfassen. Das eine oder die mehreren Merkmale können eine Geschwindigkeit des Inhalts einer Region einschließen. Das eine oder die mehreren Merkmale können eine Bewegungsrichtung des Inhalts einer Region einschließen. Das eine oder die mehreren Merkmale können eine Größe des Inhalts einer Region einschließen. Das eine oder die mehreren Merkmale können eine Art des Inhalts einer Region umfassen. Das eine oder die mehreren Merkmale können ein Material und/oder ein Gewicht und/oder eine Ausrichtung des Inhalts einer Region umfassen. Veranschaulichend kann die Anwendung des Verfahrens zur Identifizierung der Gefahr die Bereitstellung eines Gefahrenwertes umfassen. Der Gefahrenbewertungswert kann eine potenzielle Gefahr (z.B. in Verbindung mit einem Objekt oder einer Region) darstellen (z.B. quantifizieren). Die Anwendung des Verfahrens zur Ermittlung der Gefahr kann die Kombination mindestens einiger der einen oder mehreren Merkmale miteinander umfassen, z.B. direkt oder unter Verwendung von Gewichtungsfaktoren. Die Gewichtungsfaktoren können statisch oder dynamisch sein, z.B. können die Gewichtungsfaktoren von einem oder mehreren LIDAR-System internen und/oder LIDAR-System externen Faktoren (z.B. fahrzeuginterne und/oder fahrzeugexterne Faktoren) abhängen, wie z.B. Wetterbedingungen, Fahrbedingungen und dergleichen. Beispielsweise können fahrzeuginterne Faktoren (z.B. fahrzeugspezifische Parameter) aus Fahrzeugdaten als diskrete und unabhängige Werte oder aus einem zentralen Sensorfusionssystem des Fahrzeugs abgeleitet werden.
  • Das Verfahren der Gefahrenerkennung kann eine Liste potenzieller Gefahren liefern, wie z.B. ein Auto, das sich einer Kreuzung nähert, ein vorausfahrender Fußgänger, ein LKW, der die Spur wechselt, und ähnliches. Zur Veranschaulichung: Das Verfahren der Gefahrenermittlung kann eine Liste von einem oder mehreren Objekten liefern, die jeweils einer entsprechenden Gefahrenstufe zugeordnet sind. Die Liste der potentiellen Gefahren kann eine vierte Art der Darstellung der Umgebung des LIDAR-Systems sein.
  • Der eine oder die mehreren Prozessoren (und/oder ein zentrales Sensorfusionssystem des Fahrzeugs) können so konfiguriert werden, dass sie eine mit einem Objekt verbundene potenzielle Gefahr bestimmen, indem sie (z. B. durch Kombination) den zugehörigen Typ mit der zugehörigen einen oder mehreren Eigenschaften verwenden. Zur Veranschaulichung kann die Liste der potentiellen Gefahren in einer weiteren Verarbeitungsstufe auf der Liste der klassifizierten Objekte bereitgestellt werden. Als Beispiel kann eine hohe Gefahr mit einem Fußgänger verbunden sein, der vor dem Fahrzeug herläuft. Als weiteres Beispiel kann eine mittlere Gefahr mit einem Lkw verbunden sein, der die Spur wechselt. Als weiteres Beispiel kann eine geringe Gefahr mit einem Fahrzeug verbunden sein, das sich auf einer anderen Spur entfernt, z.B. mit einem Fahrzeug, das sich mit einer konstanten oder höheren Relativgeschwindigkeit bewegt.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert werden, dass eine dynamische Anpassung der Regionen möglich ist. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Regionen (z.B. die Größe, die Anzahl oder den Ort) entsprechend der Analyse der Sensordaten-Darstellungen (z.B. entsprechend der Objekterkennung, der Objektklassifizierung und/oder der Gefahrenerkennung) modifizieren. Zur weiteren Veranschaulichung kann der eine oder mehrere Prozessoren so konfiguriert werden, dass die Zuordnung der jeweiligen Datenverarbeitungscharakteristik zu Teilen einer Sensordatendarstellung (z.B. Teile des Sichtfeldes) entsprechend dem Ergebnis eines oder mehrerer der oben beschriebenen Prozesse dynamisch angepasst wird. Beispielsweise kann die Kernregion/Kernzone für eine höhere Auflösung erweitert werden, um ein erkanntes oder klassifiziertes Objekt aufzunehmen, oder es kann eine zusätzliche Kernregion erstellt werden.
  • Die Anpassung (zur Veranschaulichung: die Anpassung) kann entsprechend der Gefahrenidentifikation und/oder den Konfidenzniveaus durchgeführt werden. Ein oder mehrere Bereiche oder Zonen innerhalb des Sichtfeldes können zeitlich mit einer höheren Leistung als im Standardbetrieb aufgelöst werden. Beispielsweise kann die Auflösung und/oder Bildrate innerhalb von Teilen oder Zonen der empfangenen Punktwolke dynamisch in Echtzeit angepasst werden.
  • In einem Beispielszenario kann eine Zone mit niedriger Auflösung Nicht-Kernbereiche des Sichtfeldes des LIDAR-Systems abdecken. Eine hochauflösende Zone kann die Kernbereiche des Sichtfeldes abdecken. Ein oder mehrere Objekte können als sich bewegend und potenziell gefährlich erkannt werden. Solche Objekte können der hochauflösenden Zone in nachfolgenden Frames (z.B. nachträglich generierte Sensordatendarstellungen) zur weiteren Verarbeitung mit einer höheren Datenqualität (z.B. kann eine neue Kernzone bestimmt werden) zugeordnet werden. Ein sich nicht bewegendes Objekt (z.B. außerhalb der Trajektorie des Fahrzeugs) kann als eine Situation mit geringer Gefahr betrachtet werden. Ein solches Objekt erfordert möglicherweise keine hochauflösende Zone (z.B. kann ein solches Objekt aus der hochauflösenden Zone herausgelassen werden).
  • In einem weiteren exemplarischen Szenario kann ein erstes Objekt (z.B. ein erstes Fahrzeug) eine geringere Gefahreneinstufung aufweisen als ein anderes zweites Objekt (z.B. ein zweites Fahrzeug). Das erste Objekt kann z.B. außerhalb der geplanten Route liegen. Das erste Objekt kann sich näher (z.B. in Bezug auf das zweite Fahrzeug) an einem vordefinierten Ort befinden (z.B. näher am Fahrzeug einschließlich des LIDAR-Systems). Für das erste Objekt kann in Anbetracht der größeren Nähe eine höhere Auflösung für die Objektklassifizierung und für die Bereitstellung qualitativ besserer Informationen (z.B. für die Versorgung eines Sensorfusionssystems) vorgesehen werden. Das zweite Objekt kann z.B. weiter entfernt sein, sich aber in Richtung der Richtung und der geplanten Route bewegen. Für das zweite Objekt kann eine höhere Auflösung und eine höhere (z.B. schnellere) Bildrate bereitgestellt werden, um mehr Proben der Bewegung in der Zeit zu erhalten.
  • Die Auflösung und/oder die Bildwiederholrate einer Sensordatendarstellung kann von der Auflösung und/oder der Bildwiederholrate für ein bestimmtes Objekt entkoppelt werden. Eine solche Entkopplung kann z.B. eine Fokussierung der digitalen Signalverarbeitungsressourcen auf Zonen mit einer höheren Gefahrenbewertung ermöglichen. Dies kann z.B. eine Reduzierung der Spezifikationen für die digitale Signalverarbeitung bewirken. Dies kann z.B. zu Kosteneinsparungen in der Stückliste führen.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie einen Algorithmus (z.B. einen Prozessablauf) zur Bestimmung der Regionen in einer Sensordatendarstellung implementieren oder diesem folgen. Beispielsweise können in einem ersten (z.B. einfachen) Algorithmus Unschärfe und Geschwindigkeit (z.B. eines Objekts) als Hauptauswertungsparameter verwendet werden. Zur Veranschaulichung: Der Algorithmus kann die Objekterkennung einschließen. Der Algorithmus kann pro Objekt angewendet (z.B. ausgeführt oder wiederholt) werden, z.B. für jedes Objekt in einer Sensordatendarstellung (z.B. jedes Objekt im Sichtfeld). Als weiteres Beispiel können in einem zweiten (z.B. fortgeschrittenen) Algorithmus der Objekttyp und die damit verbundene Gefahr als Entscheidungsfaktoren einbezogen werden (z.B. zur Anpassung der Bildrate für dieses Objekt, z.B. für den Teil, der dieses Objekt einschließt). Zur Veranschaulichung: Der Algorithmus kann (z.B. zusätzlich) die Objektklassifizierung einschließen. Der Algorithmus kann pro Objekt oder pro klassifiziertes Objekt angewendet werden.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie das Vertrauensniveau der Erkennung (z. B. für ein Objekt, z. B. für jedes Objekt oder für jeden Objekttyp) in Bezug auf vordefinierte Schwellenwerte bewerten. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie jedes Erkennungs-Vertrauensniveau, das mit einer Sensordatendarstellung verbunden ist, auswerten. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob das Erkennungs-Vertrauensniveau unter einem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob eine Unschärfe im Bereich der Sensordatendarstellung einschließlich des Objekts (veranschaulichend mit dem bewerteten Erkennungs-Vertrauensniveau verbunden) schneller zunimmt als eine Pixelierung in diesem Bereich, falls das Erkennungs-Vertrauensniveau unter dem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt. Veranschaulichend kann der eine oder mehrere Prozessoren konfiguriert werden, um den Effekt zu bestimmen, der verhindert, dass das Objekt mit einem zufriedenstellenden Vertrauensniveau erkannt wird. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Bildrate in diesem Bereich erhöht wird, falls die Unschärfe schneller zunimmt als die Pixelierung. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Auflösung dieses Bereichs erhöht wird, falls die Unschärfe schneller zunimmt als die Pixelierung. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine Region mit einer geeigneten Datenverarbeitungscharakteristik bestimmen (oder diese Region in eine andere Region mit einer geeigneten Datenverarbeitungscharakteristik aufnehmen), um das Erkennungszuverlässigkeitsniveau zu erhöhen.
  • Zusätzlich oder alternativ können ein oder mehrere Prozessoren konfiguriert werden, um zu bestimmen, ob das Erkennungs-Vertrauensniveau unter einer zweiten vordefinierten Erkennungs-Vertrauensgrenze liegt. Die zweite vordefinierte Erkennungs-Vertrauensschwelle kann größer als die erste vordefinierte Erkennungs-Vertrauensschwelle sein. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob das Erkennungs-Vertrauensniveau innerhalb eines vordefinierten Schwellwert-Akzeptanzbereichs liegt, falls das Erkennungs-Vertrauensniveau gleich oder oberhalb des ersten vordefinierten Erkennungs-Vertrauens-Schwellwertes und unterhalb des zweiten vordefinierten Erkennungs-Vertrauens-Schwellwertes liegt.
  • Der Akzeptanzschwellenbereich kann durch ein mit dem zu bewertenden Objekt verbundenes Gefahrenpotential definiert werden oder davon abhängig sein (z.B. mit einer Gefahrenbewertung für dieses Objekt). Zur Veranschaulichung: Für ein Objekt mit geringer Gefahr (z.B. ein Objekt mit einer niedrigen Gefahreneinstufung) kann ein niedrigerer Schwellenwert (und/oder ein größerer Akzeptanzbereich) für das Konfidenzniveau vorgesehen werden als für ein Objekt mit hoher Gefahr (z.B. ein Objekt mit einer hohen Gefahreneinstufung). Der Akzeptanzbereich kann für ein Objekt mit hoher Gefährdung geringer sein (z.B. kann er enger sein). Des Weiteren kann ein Objekt mit geringer Gefahr mit einem niedrigeren Konfidenzniveau erkannt (und/oder klassifiziert) werden als ein Objekt mit hoher Gefahr (z.B. ein Objekt mit einem hohen Gefahrenwert). Der Akzeptanzschwellenbereich kann für jedes Objekt unterschiedlich sein. Der Schwellenwert-Akzeptanzbereich kann im Laufe der Zeit variieren, z.B. für ein Objekt. Zur Veranschaulichung: Der Schwellenwert-Akzeptanzbereich kann je nach dem Verhalten des Objekts variieren (z.B. schneller oder langsamer, näher oder weiter weg, usw.).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Datenverarbeitungscharakteristik der Region, in der das erkannte Objekt umfasst ist, unverändert beibehalten wird, falls das Erkennungswahrscheinlichkeitsniveau innerhalb des vordefinierten Schwellenwert-Akzeptanzbereichs liegt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, dass das Objekt mit einer geeigneten Datenverarbeitungseigenschaft (z.B. einer geeigneten Auflösung, Bildrate und/oder Verarbeitungsleistung) in Bezug auf seinen Gefahrengrad verarbeitet wird.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob eine Unschärfe im Bereich der Sensordatendarstellung einschließlich des Objekts größer ist als eine Pixelierung in diesem Bereich, falls das Erkennungs-Vertrauensniveau nicht innerhalb des vordefinierten Schwellen-Akzeptanzbereichs liegt und/oder falls das Erkennungs-Vertrauensniveau gleich oder über der zweiten vordefinierten Erkennungs-Vertrauensgrenze liegt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Auflösung des Bereichs, in dem das erkannte Objekt umfasst ist, reduziert wird, falls die Unschärfe größer ist als die Pixelierung. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Bildrate des Bereichs, in dem das erkannte Objekt umfasst ist, reduziert wird, falls die Unschärfe größer als die Pixelung ist.
  • Veranschaulichend kann ein Erkennungs-Vertrauensgrad, der gleich oder höher als der zweite vordefinierte Erkennungs-Vertrauensschwellenwert ist, und/oder ein Erkennungs-Vertrauensgrad, der nicht innerhalb des vordefinierten Schwellenwert-Akzeptanzbereichs liegt (z. B. höher als ein maximaler Schwellenwert), darauf hinweisen, dass die Sensordatendarstellung mit unnötig hohen Datenverarbeitungseigenschaften verarbeitet (z. B. analysiert oder erzeugt) wird (veranschaulichend kann dies darauf hinweisen, dass das Bild zu gut ist). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen Bereich mit einem geeigneten (z.B. reduzierten) Datenverarbeitungsmerkmal bestimmen (oder diesen Bereich in einen anderen Bereich mit einem geeigneten Datenverarbeitungsmerkmal einschließen), um das Erkennungs-Vertrauensniveau zu senken (z.B. um das Erkennungs-Vertrauensniveau in den Schwellwert-Akzeptanzbereich zu bringen).
  • Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen Objektklassifizierungsprozess auf die Sensordatendarstellung anwenden, der ein Klassifizierungs-Vertrauensniveau liefert, falls das Erkennungs-Vertrauensniveau nicht unter der ersten vordefinierten Erkennungs-Vertrauensgrenze liegt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob das Klassifizierungs-Vertrauensniveau unter einem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob eine Unschärfe im Bereich der Sensordatendarstellung einschließlich des Objekts schneller zunimmt als eine Pixelierung in diesem Bereich, falls das Klassifizierungs-Vertrauensniveau unter dem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Bildwiederholrate dieses Bereichs erhöht wird, falls die Unschärfe schneller zunimmt als die Pixelierung. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Auflösung dieser Region erhöht wird, wenn die Pixelbildung schneller zunimmt als die Unschärfe.
  • Zusätzlich oder alternativ können ein oder mehrere Prozessoren konfiguriert werden, um zu bestimmen, ob das Klassifikations-Konfidenzniveau unter einer zweiten vordefinierten Klassifikations-Konfidenzschwelle liegt. Die zweite vordefinierte Klassifizierungs-Vertrauensschwelle kann größer als die erste vordefinierte Klassifizierungs-Vertrauensschwelle sein. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob das Klassifikations-Vertrauensniveau innerhalb eines vordefinierten Akzeptanzbereichs der Klassifizierungsschwelle liegt, falls das Klassifikations-Vertrauensniveau gleich oder oberhalb der ersten vordefinierten Klassifikations-Vertrauensgrenze und unterhalb der zweiten vordefinierten Klassifikations-Vertrauensgrenze liegt.
  • Der eine oder mehrere Prozessoren können so konfiguriert werden, dass die Datenverarbeitungscharakteristik der Region, in der das erkannte (und/oder klassifizierte) Objekt umfasst ist, unverändert beibehalten wird, falls das Klassifikations-Konfidenzniveau innerhalb des vordefinierten Akzeptanzbereichs der Klassifikationsschwelle liegt.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie bestimmen, ob eine Unschärfe im Bereich der Sensordatendarstellung einschließlich des Objekts größer ist als eine Pixelierung in diesem Bereich, falls das Klassifizierungs-Vertrauensniveau nicht innerhalb des vordefinierten Schwellenwert-Akzeptanzbereichs liegt und/oder falls das Klassifizierungs-Vertrauensniveau gleich oder über dem zweiten vordefinierten Klassifizierungs-Vertrauensniveau liegt. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist, reduziert wird, falls die Unschärfe größer ist als die Pixelierung. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass die Bildwiederholrate des Bereichs, in dem das erkannte Objekt enthalten ist, reduziert wird, falls die Unschärfe größer als die Pixelung ist.
  • Die Algorithmen, die die adaptive Bestimmung der Regionen steuern (z. B. die adaptive Auflösung und Framerate), können so konfiguriert werden, dass die Konfidenzniveaus innerhalb des jeweils akzeptablen Bereichs gehalten werden (z. B. innerhalb eines vordefinierten Bereichs von Konfidenzwerten, die für eine gewünschte Funktionalität akzeptabel oder erforderlich sind). Zur Veranschaulichung: Der akzeptable Bereich kann eine Eigenschaft sein, die den Betrieb des LIDAR-Systems mit einem geringeren Stromverbrauch für die gewünschte Funktionalität ermöglicht. Der Schwellwert-Akzeptanzbereich (z.B. ein minimaler Schwellwert und ein maximaler Schwellwert) kann in Abhängigkeit vom LIDAR-System und/oder vom gewünschten Betrieb des LIDAR-Systems variiert werden. Ein minimaler Schwellenwert (auch als niedriger Schwellenwert bezeichnet) kann z.B. im Bereich von etwa 60% bis etwa 80% liegen. Ein maximaler Schwellenwert (auch als hoher Schwellenwert bezeichnet) kann z.B. im Bereich von etwa 80% bis etwa 95% liegen. Ein Unterschied zwischen dem minimalen Schwellenwert und dem maximalen Schwellenwert (z.B. ein Delta-Hoch) kann im Bereich von etwa 10% bis etwa 20% liegen.
  • Die Schwellenwerte und/oder der Akzeptanzbereich können per Software, z.B. in Echtzeit, verändert werden. Illustrativ kann der Betrieb des LIDAR-Systems mittels Software gesteuert werden (z.B. kann die Leistung über Software-Leistungseinstellungen nach oben oder unten skaliert werden). Dies kann dem LIDAR-System und seinem Betrieb Flexibilität verleihen. Dadurch kann das LIDAR-System für verschiedene Anwendungen, wie z.B. PKWs, Robotertaxis, LKWs, Züge u.ä., einsetzbar sein.
  • Das hier beschriebene LIDAR-System kann in verschiedenen Ausführungsformen in ein Fahrzeug eingebaut werden. Das Fahrzeug kann einen oder mehrere Prozessoren (z.B. ein Steuersystem) aufweisen, die so konfiguriert sind, dass sie das Fahrzeug in Übereinstimmung mit den vom LIDAR-System gelieferten Informationen steuern. Beispielsweise kann ein fahrerloses Transportsystem (FTS) seine Umgebung unabhängig und ohne großen Stromverbrauchsnachteil verarbeiten.
  • Ein weiteres Beispiel ist das hier beschriebene LIDAR-System, das in logistischen Anwendungen Anwendung finden kann, z.B. bei der Beladung von Gütern, der Bewegung großer Fahrzeuge in Logistikzentren und Häfen, der Ausrüstung von Lastwagen oder Kränen und ähnlichem.
  • Als weiteres Beispiel kann das hier beschriebene LIDAR-System für die automatische Türsteuerung, z.B. für Gebäude und Aufzüge, eingesetzt werden. Das LIDAR-System kann so konfiguriert werden, dass es die Anwesenheit von Personen in einem großen Sichtfeld mit geringen digitalen Signalverarbeitungsressourcen erkennt. Das LIDAR-System kann so konfiguriert oder in der Lage sein, die Ressourcen auf die erkannten Personen zu konzentrieren und daraus die Absicht abzuleiten, über das Öffnen und Schließen von Türen zu entscheiden. Dies kann die Wartezeiten beim Öffnen und Schließen reduzieren. Dies kann die Energieeffizienz des Gebäudes optimieren, indem die durchschnittliche Zeit der Wärmeübertragung zwischen Innen- und Außenluft reduziert wird.
  • Als weiteres Beispiel kann das hier beschriebene LIDAR-System angewandt oder in ein Verkehrsmanagementsystem einbezogen werden (z.B. in eine Ampel, ein Tor, eine Brücke und dergleichen). Das System kann so konfiguriert werden, dass es die Anwesenheit und den Typ von Fahrzeugen und Fußgängern erkennt und den Verkehrsfluss optimiert, unabhängig von der Automatisierung der Fahrzeuge. Das System kann so konfiguriert werden, dass es bei Unfällen oder anderen Ereignissen den Verkehrsfluss automatisch umleitet.
  • 162A zeigt ein LIDAR-System 16200 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. 162B und 162C zeigen jeweils eine Sensordatendarstellung 16204 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das LIDAR-System 16200 kann oder kann als LIDAR-Sensorsystem 10 konfiguriert werden. Als Beispiel kann das LIDAR-System 16200 als Flash-LIDAR-System konfiguriert werden (z.B. als Flash-LIDAR-Sensorsystem 10). Als weiteres Beispiel kann das LIDAR-System 16200 als scannendes LIDAR-System konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Das abtastende LIDAR-System kann eine Abtastkomponente aufweisen, die so konfiguriert ist, dass sie das Sichtfeld des abtastenden LIDAR-Systems abtastet (z.B. konfiguriert, um das emittierte Licht nacheinander auf verschiedene Teile des Sichtfeldes zu richten). Als Beispiel kann das scannende LIDAR-System einen Scan-Spiegel (z.B. einen MEMS-Spiegel) aufweisen. Es wird davon ausgegangen, dass in 162 nur einige der Elemente des LIDAR-Systems 16200 dargestellt sind und dass das LIDAR-System 16200 zusätzliche Elemente (z.B. eine oder mehrere optische Anordnungen) aufweisen kann, wie z.B. in Bezug auf das LIDAR-Sensorsystem 10 beschrieben.
  • Das LIDAR-System 16200 kann eine Lichtquelle 42 aufweisen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht aussendet (z.B. ein Lichtsignal, wie z.B. ein Lasersignal). Zur Veranschaulichung: Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht aussendet, das von einem Sensor 52 des LIDAR-Systems 16200 erfasst wird (z.B. Licht, das ausgesendet und zum LIDAR-System 16200 zurückreflektiert wird). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht im Infrarot- oder Nahinfrarotbereich aussendet. Zum Beispiel kann die Lichtquelle 42 so konfiguriert werden, dass sie Licht mit einer Wellenlänge im Bereich von etwa 800 nm bis etwa 1600 nm, z.B. etwa 905 nm, emittiert. Die Lichtquelle 42 kann eine Laserquelle aufweisen. Als Beispiel kann die Lichtquelle 42 eine oder mehrere Laserdioden aufweisen (z.B. eine oder mehrere kantenemittierende Laserdioden und/oder eine oder mehrere oberflächenemittierende Laserdioden mit vertikalem Resonator, die z.B. in einem zweidimensionalen Array angeordnet sind).
  • Die Lichtquelle 42 kann z.B. einen oder mehrere Lichtemitter (z.B. ein oder mehrere Emitterpixel) aufweisen, illustrativ eine oder mehrere Teillichtquellen. Der eine oder die mehreren Lichtemitter können in einem Array angeordnet sein, z.B. einem eindimensionalen Array oder einem zweidimensionalen Array.
  • Das LIDAR-System 16200 kann einen Sensor 52 aufweisen. Der Sensor 52 kann eine oder mehrere Fotodioden aufweisen (zur Veranschaulichung: ein oder mehrere Sensorpixel, die jeweils eine Fotodiode aufweisen oder einer Fotodiode zugeordnet sind). Die Fotodioden können vom gleichen Typ oder von verschiedenen Typen sein (z.B. können die eine oder mehrere Fotodioden eine oder mehrere Lawinenfotodioden, eine oder mehrere Einzelphotonen-Lawinenfotodioden und/oder einen oder mehrere Silizium-Fotomultiplier aufweisen). Der Sensor 52 kann eine Vielzahl von Fotodioden aufweisen. Die Fotodioden können ein Array bilden (z.B. ein Detektor-Array). Zum Beispiel können die Fotodioden in einem eindimensionalen Array angeordnet sein. Zur Veranschaulichung: Die Fotodioden können in einer Richtung angeordnet sein (z.B. in vertikaler oder horizontaler Richtung). Als weiteres Beispiel können die Fotodioden in einem zweidimensionalen Array angeordnet sein. Illustrativ können die Fotodioden entlang zweier Richtungen angeordnet sein, z.B. einer ersten (z.B. horizontalen) Richtung und einer zweiten (z.B. vertikalen) Richtung, z.B. senkrecht zur ersten Richtung.
  • Der Sensor 52 kann so konfiguriert werden, dass er eine Vielzahl von Sensordatendarstellungen 16204 liefert, z.B. eine Vielzahl von Bildern oder eine Vielzahl von Punktwolken (z.B. drei- oder mehrdimensional). Beispielsweise kann mindestens eine Sensordatendarstellung 16204 (oder einige oder alle Sensordatendarstellungen) eine LIDAR-Punktwolke enthalten (z.B. vom Sensor 52 bereitgestellt). Eine Sensordatendarstellung 16204 kann das Sichtfeld des LIDAR-Systems 16200 darstellen oder beschreiben. Das Sichtfeld kann sich entlang einer ersten Richtung 16254 (z.B. einer horizontalen Richtung) und entlang einer zweiten Richtung 16256 (z.B. einer vertikalen Richtung) erstrecken, z.B. senkrecht zueinander und jeweils senkrecht zu einer dritten Richtung 16252 (z.B. entlang der eine optische Achse des LIDAR-Systems 16200 ausgerichtet werden kann). Veranschaulichung: Jede Fotodiode (z.B. jedes Sensorpixel) kann so konfiguriert werden, dass sie als Reaktion auf Licht, das auf die Fotodiode auftrifft, ein Signal liefert. Eine Sensordatendarstellung 16204 kann die von einigen oder allen Fotodioden (z.B. zu einem bestimmten Zeitpunkt) gelieferten Signale sein oder enthalten. Die Signale können verarbeitet werden, z.B. kann eine Sensordatendarstellung 16204 die verarbeiteten Signale enthalten. Zum Beispiel kann der Sensor 52 einen oder mehrere Sensorprozessoren enthalten oder mit einem oder mehreren Sensorprozessoren gekoppelt sein, die so konfiguriert sind, dass sie die von der einen oder den mehreren Fotodioden gelieferten Signale verarbeiten. Der eine oder die mehreren Sensorprozessoren können so konfiguriert werden, dass sie die Signale so verarbeiten, dass sie eine oder mehrere Abstandsmessungen (z.B. eine oder mehrere Laufzeit-Messungen) liefern. Zur Veranschaulichung: Der eine oder die mehreren Sensorprozessoren können so konfiguriert werden, dass sie die Signale verarbeiten, um die Vielzahl von Sensordatendarstellungen 16204 zu erzeugen.
  • Das LIDAR-System 16200 (z.B. der Sensor 52) kann eine oder mehrere elektrische Komponenten enthalten. Das LIDAR-System 16200 kann einen oder mehrere Signalwandler enthalten, wie z.B. einen oder mehrere Zeit-Digital-Wandler und/oder einen oder mehrere Analog-Digital-Wandler. Beispielsweise kann ein Zeit-Digital-Wandler mit einer Fotodiode gekoppelt und so konfiguriert werden, dass er das von der gekoppelten Fotodiode gelieferte Signal in ein digitalisiertes Signal umwandelt. Das digitalisierte Signal kann auf den Zeitpunkt bezogen sein, zu dem das Fotodiodensignal geliefert wurde (z.B. beobachtet, detektiert oder erfasst). Das LIDAR-System 16200 kann einen oder mehrere Verstärker (z.B. einen oder mehrere Transimpedanzverstärker) enthalten. Der eine oder die mehreren Verstärker können so konfiguriert werden, dass sie ein von der einen oder den mehreren Fotodioden geliefertes Signal verstärken (z.B. ein von jeder der Fotodioden geliefertes Signal). Als Beispiel kann ein Analog-Digital-Wandler einem Verstärker nachgeschaltet werden. Der Analog-Digital-Wandler kann so konfiguriert werden, dass er ein vom Verstärker geliefertes Signal (z.B. ein analoges Signal) in ein digitalisiertes Signal umwandelt.
  • Das LIDAR-System 16200 kann einen oder mehrere Prozessoren 16202 enthalten. Der eine oder die mehreren Prozessoren 16202 können für die Verarbeitung (z.B. Analyse) der Sensordatendarstellungen 16204 konfiguriert werden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16202 können (z.B. kommunikativ) mit dem Sensor 52 gekoppelt werden. Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie einen ersten Bereich 162041 und einen zweiten Bereich 162042 in mindestens einer Sensordatendarstellung 16204 bestimmen- . Beispielsweise können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass sie parallel eine oder mehrere der Sensordatendarstellungen 16204 verarbeiten und in jeder der verarbeiteten Sensordatendarstellungen 16204 einen entsprechenden ersten Bereich 162041 und einen entsprechenden zweiten Bereich 162042 bestimmen.
  • Ein erstes Datenverarbeitungsmerkmal kann mit der ersten Region 162041 assoziiert werden. Ein zweites Datenverarbeitungsmerkmal kann mit der zweiten Region 162042 assoziiert werden. Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass das erste Datenverarbeitungsmerkmal einem ersten Teil der Sensordatendarstellung 16204 zugeordnet wird (z.B. einem ersten Teil des Sichtfeldes des LIDAR-Systems 16200), um den ersten Bereich 162041 zu bestimmen (z.B. auszuwählen oder zu definieren). Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie das zweite Datenverarbeitungsmerkmal einem zweiten Teil der Sensordatendarstellung 16204 (z.B. einem zweiten Teil des Sichtfeldes) zuweisen, um den zweiten Bereich 162042 zu bestimmen (z.B. auszuwählen oder zu definieren). Die erste Datenverarbeitungscharakteristik kann sich von der zweiten Datenverarbeitungscharakteristik unterscheiden.
  • Beispielsweise kann die erste Region 162041 mit einer ersten Auflösung und/oder einer ersten Framerate verbunden sein. Die zweite Region 162042 kann eine zweite Auflösung und/oder eine damit verbundene zweite Bildrate haben (z.B. anders als die erste Auflösung und/oder die erste Bildrate). Als weiteres Beispiel kann der ersten Region 162041 eine erste Leistungsaufnahme zugeordnet sein und der zweiten Region 162042 eine zweite Leistungsaufnahme (z.B. anders als die erste Leistungsaufnahme) zugeordnet sein.
  • Der eine oder mehrere Prozessoren 16202 können so konfiguriert werden, dass die jeweilige Datenverarbeitungscharakteristik einem Teil (oder mehr als einem Teil) der Sensordatendarstellung 16204 entsprechend der Relevanz dieses Teils zugeordnet wird. Beispielsweise können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass die erste Datenverarbeitungseigenschaft (z.B. eine hohe Datenverarbeitungseigenschaft, wie eine hohe Auflösung und/oder eine hohe Bildrate) einem zentralen Teil der Sensordatendarstellung 16204 zugeordnet wird (z.B. einem zentralen Teil des Sichtfeldes des LIDAR-Systems 16200). Illustrativ kann die erste Region 162041 einem zentralen Teil des Sichtfeldes entsprechen, wie als Beispiel in 162B gezeigt. Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass das zweite Datenverarbeitungsmerkmal (z.B. ein niedrigeres als das erste Datenverarbeitungsmerkmal, wie z.B. eine niedrigere Auflösung und/oder eine niedrigere Bildrate) einem peripheren Teil der Sensordatendarstellung 16204 zugeordnet wird (z.B. einem peripheren Teil des Sichtfeldes des LIDAR-Systems 16200). Zur Veranschaulichung: Der zweite Bereich 162042 kann einem peripheren Teil des Sichtfeldes entsprechen.
  • Die Form einer Region kann entsprechend einer gewünschten Operation des LIDAR-Systems 16200 bestimmt oder ausgewählt werden, wie weiter unten näher beschrieben wird. Eine Region kann eine regelmäßige Form oder eine unregelmäßige Form haben. Zum Beispiel kann eine Region eine symmetrische Form haben, z.B. eine polygonale Form oder eine rechteckige Form (wie z.B. in 162B dargestellt). Als weiteres Beispiel kann eine Region eine asymmetrische Form haben (wie z.B. in 162C dargestellt).
  • Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass ein Objekterkennungsprozess auf die Sensordatendarstellungen 16204 (z.B. auf mindestens eine Sensordatendarstellung 16204) angewendet wird, um die jeweilige erste Region 162041 und zweite Region 162042 (und/oder andere, z.B. zusätzliche Regionen) zu bestimmen- . Illustrativ kann der Objekterkennungsprozess eine Erkennung eines oder mehrerer Objekte in einer Sensordatendarstellung 16204 (z.B. im Sichtfeld des LIDAR-Systems 16200) liefern. Die jeweiligen Datenverarbeitungsmerkmale können dem einen oder mehreren Teilen der Sensordatendarstellung 16204 einschließlich des einen oder der mehreren Objekte entsprechend den jeweiligen Eigenschaften der Objekte zugeordnet werden. Beispielsweise kann eine höhere Verarbeitungscharakteristik (z.B. eine höhere Auflösung und/oder eine höhere Bildrate) einem Teil, der ein Objekt enthält, das näher am LIDAR-System 16200 liegt, im Vergleich zu einem Teil, der ein weiter entferntes Objekt enthält, zugeordnet werden. Als weiteres Beispiel kann eine niedrigere Datenverarbeitungseigenschaft (z.B. eine niedrigere Auflösung und/oder eine niedrigere Bildrate) einem Teil zugewiesen werden, der ein Objekt enthält, das weiter vom LIDAR-System 16200 entfernt ist, im Vergleich zu einem Teil, der ein näher liegendes Objekt enthält. Der Objekterkennungsprozess kann ein Erkennungszuverlässigkeitsniveau liefern (z.B. für ein Objekt oder jedes Objekt in einer Sensordatendarstellung 16204). Beispielsweise kann der Objekterkennungsprozess einen Algorithmus für maschinelles Lernen enthalten, und das Erkennungs-Vertrauensniveau kann eine Wahrscheinlichkeit für die korrekte Identifizierung des Objekts angeben (z.B. kann das Erkennungs-Vertrauensniveau ein Score-Wert eines neuronalen Netzes sein). Zusätzlich oder alternativ dazu kann der Objekterkennungsprozess in oder durch ein LIDAR-Systemexternes- Gerät oder einen Prozessor ausgeführt werden, z.B. durch eine Sensor-Fusionsbox des Fahrzeugs einschließlich des LIDAR-Systems 16200.
  • Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass ein Objektklassifizierungsprozess auf die Sensordatendarstellungen 16204 (z.B. auf mindestens eine Sensordatendarstellung 16204) angewendet wird, um die jeweilige erste Region 162041 und zweite Region 162042 (und/oder andere, z.B. zusätzliche Regionen) zu bestimmen. Illustrativ kann der Objektklassifizierungsprozess eine Klassifizierung eines oder mehrerer Objekte in einer Sensordatendarstellung 16204 (z.B. im Sichtfeld des LIDAR-Systems 16200) liefern. Die jeweiligen Datenverarbeitungsmerkmale können dem einen oder mehreren Teilen der Sensordatendarstellung 16204 einschließlich des einen oder der mehreren klassifizierten Objekte entsprechend dem jeweiligen Typ und den Eigenschaften der Objekte zugeordnet werden. Beispielsweise kann einem Teil einschließlich eines fahrenden Autos im Vergleich zu einem Teil einschließlich eines Umstehenden eine höhere Datenverarbeitungseigenschaft (z.B. eine höhere Auflösung und/oder eine höhere Bildrate) zugewiesen werden. Ein weiteres Beispiel: Einem Teil, der ein Auto umfasst, kann eine niedrigere Datenverarbeitungseigenschaft (z.B. eine niedrigere Auflösung und/oder eine niedrigere Bildrate) zugewiesen werden als einem Teil, der einen Lastwagen umfasst. Der Objektklassifizierungsprozess kann ein Klassifizierungs-Vertrauensniveau liefern (z.B. für ein Objekt oder jedes Objekt in einer Sensordatendarstellung 16204). Beispielsweise kann der Objektklassifizierungsprozess einen Algorithmus für maschinelles Lernen umfassen, und das Klassifizierungs-Vertrauensniveau kann eine Wahrscheinlichkeit für die korrekte Klassifizierung des Objekts angeben (z.B. kann das Erkennungs-Vertrauensniveau ein Score-Wert eines neuronalen Netzes sein). Zusätzlich oder alternativ dazu kann der Objektklassifizierungsprozess in oder von einem LIDAR-Systemexternen- Gerät oder Prozessor ausgeführt werden, z.B. von einer Sensor-Fusionsbox des Fahrzeugs einschließlich des LIDAR-Systems 16200.
  • Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass ein Gefahrenidentifizierungsverfahren auf die Sensordatendarstellungen 16204 (z. B. auf mindestens eine Sensordatendarstellung 16204) angewendet wird, um den jeweiligen ersten Bereich 162041 und zweiten Bereich 162042 (und/oder andere, z. B. zusätzliche Bereiche) zu bestimmen. Der Gefahrenidentifizierungsprozess kann eine potentielle Gefahr bestimmen, die mit dem ersten Bereich 162041 und/oder mit dem zweiten Bereich 162042 verbunden ist. Zur Veranschaulichung: Der Prozess der Gefahrenidentifizierung kann eine Bewertung einer Gefahr oder einer potenziellen Gefahr in Verbindung mit einem Teil der Sensordatendarstellung 16204 (z.B. mit einem Teil des Sichtfeldes) liefern. Die jeweiligen Datenverarbeitungsmerkmale können dem einen oder mehreren Teilen der Sensordatendarstellung 16204 entsprechend dem jeweils ermittelten Gefahrenpotenzial zugeordnet werden. Beispielsweise kann einem Teil, der ein sich auf das LIDAR-System 16200 zu bewegendes Fahrzeug einschließt (z.B. auf das Fahrzeug zu), eine höhere Datenverarbeitungseigenschaft zugeordnet werden als einem Teil, der ein sich vom LIDAR-System 16200 entfernendes Fahrzeug einschließt. Zusätzlich oder alternativ kann der Gefahrenidentifizierungsprozess in oder durch ein LIDAR-systemexternes- Gerät oder einen Prozessor ausgeführt werden- , z.B. durch eine Sensor-Fusionsbox des Fahrzeugs einschließlich des LIDAR-Systems 16200.
  • Der Prozess der Gefahrenidentifizierung kann die Bestimmung von mindestens einem (z. B. einem oder mehreren) Merkmal des Inhalts der Sensordatendarstellungen 16204 (z. B. von mindestens einer Sensordatendarstellung 16204) umfassen. Zur Veranschaulichung: Der Prozess der Gefahrenidentifizierung kann die Bestimmung mindestens eines Merkmals eines oder mehrerer Objekte umfassen, die in den Sensordatendarstellungen 16204 enthalten sind (z. B. mindestens einer Sensordatendarstellung 16204).
  • Als Beispiel kann der Prozess der Gefahrenidentifizierung die Bestimmung des Abstands des Inhalts der ersten Region 162041 und/oder der zweiten Region 162042 von einem vordefinierten Ort (z.B. vom LIDAR-System 16200 oder vom Fahrzeug oder einer Flugbahn oder geplanten Flugbahn des Fahrzeugs) umfassen. Veranschaulichend kann der Prozess der Gefahrenidentifizierung die Zuweisung eines Datenverarbeitungsmerkmals zu einem Teil einer Sensordatendarstellung 16204 in Abhängigkeit von der Entfernung des Inhalts dieses Teils von einer vordefinierten Stelle umfassen. Beispielsweise kann einem Teil, der ein Objekt enthält, das sich näher an der Trajektorie des Fahrzeugs befindet, ein höheres Datenverarbeitungsmerkmal zugeordnet werden als einem Teil, der ein Objekt enthält, das sich weiter entfernt befindet.
  • Als weiteres Beispiel kann der Prozess der Gefahrenidentifizierung die Bestimmung der Geschwindigkeit des Inhalts der ersten Region 162041 und/oder der zweiten Region 162042 umfassen. Veranschaulichend kann der Prozess der Gefahrenidentifizierung die Zuweisung eines Datenverarbeitungsmerkmals zu einem Teil einer Sensordatendarstellung 16204 entsprechend der Geschwindigkeit des Inhalts dieses Teils umfassen. Beispielsweise kann einem Teil, der ein Objekt enthält, das sich mit hoher Geschwindigkeit bewegt, eine höhere Datenverarbeitungseigenschaft zugewiesen werden als einem Teil, der ein Objekt enthält, das sich mit niedriger oder langsamer Geschwindigkeit bewegt.
  • Als weiteres Beispiel kann der Prozess der Gefahrenermittlung die Bestimmung der Bewegungsrichtung des Inhalts der ersten Region 162041 und/oder der zweiten Region 162042 umfassen. Veranschaulichend kann der Gefahrenidentifizierungsprozess die Zuweisung einer Datenverarbeitungseigenschaft zu einem Teil einer Sensordatendarstellung 16204 entsprechend der Bewegungsrichtung des Inhalts dieses Teils umfassen. Beispielsweise kann einem Teil, der ein Objekt enthält, das sich auf das Fahrzeug oder auf die geplante Trajektorie des Fahrzeugs zubewegt, eine höhere Datenverarbeitungseigenschaft zugeordnet werden als einem Teil, der ein Objekt enthält, das sich in einer parallelen Richtung oder in einer anderen Richtung wegbewegt.
  • Als weiteres Beispiel kann der Prozess der Gefahrenermittlung die Bestimmung der Größe des Inhalts der ersten Region 162041 und/oder der zweiten Region 162042 umfassen. Veranschaulichend kann der Prozess der Gefahrenidentifizierung die Zuweisung eines Datenverarbeitungsmerkmals zu einem Teil einer Sensordatendarstellung 16204 entsprechend der Größe des Inhalts dieses Teils umfassen. Beispielsweise kann einem Teil, der ein großes Objekt (z.B. einen Bus oder einen Lastwagen) enthält, im Vergleich zu einem Teil, der ein kleines oder kleineres Objekt enthält, ein höheres Datenverarbeitungsmerkmal zugeordnet werden.
  • Als weiteres Beispiel kann der Prozess der Gefahrenermittlung die Bestimmung der Art des Inhalts der ersten Region 162041 und/oder der zweiten Region 162042 umfassen. Veranschaulichend kann der Prozess der Gefahrenidentifizierung die Zuweisung eines Datenverarbeitungsmerkmals zu einem Teil einer Sensordatendarstellung 16204 entsprechend der Art des Inhalts dieses Teils (z.B. entsprechend dem Ergebnis des Objektklassifizierungsprozesses) umfassen. Beispielsweise kann einem Teil, der ein motorisiertes Objekt (z.B. ein Auto) enthält, im Vergleich zu einem Teil, der ein nicht motorisiertes Objekt (z.B. ein Fahrrad) enthält, ein höheres oder anderes Datenverarbeitungsmerkmal zugeordnet werden.
  • Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie mindestens eine Komponente des LIDAR-Systems 16200 in Übereinstimmung mit den Datenverarbeitungsmerkmalen der ersten Region 162041 und der zweiten Region 162042 steuern (z.B. in Übereinstimmung mit dem ersten Datenverarbeitungsmerkmal und mit dem zweiten Datenverarbeitungsmerkmal). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie mindestens eine Komponente des LIDAR-Systems 16200 steuern, um den ersten Bereich 162041 und/oder den zweiten Bereich 162042 mit dem jeweiligen Datenverarbeitungsmerkmal zu verarbeiten.
  • Beispielsweise können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass sie die mindestens eine Komponente so steuern, dass sich ein erster Stromverbrauch für die Verarbeitung der ersten Region 162041 und ein zweiter Stromverbrauch für die Verarbeitung der zweiten Region 162042 ergibt. Beispielsweise können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass sie die Lichtquelle 42 steuern, z.B. um einen ersten Stromverbrauch für die Beleuchtung des ersten Bereichs 162041 und einen zweiten (z.B. anderen, z.B. niedrigeren) Stromverbrauch für die Beleuchtung des zweiten Bereichs 162042 zu haben. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie die Lichtquelle 42 so steuern, dass sich eine Zielleistungsaufnahme ergibt (z.B. eine erste Leistungsaufnahme für die Ausstrahlung von Licht in Richtung des ersten Bereichs 162041 und eine zweite (z.B. andere, z.B. niedrigere) Leistungsaufnahme für die Ausstrahlung von Licht in Richtung des zweiten Bereichs 162042-). Als ein weiteres Beispiel können der eine oder die mehreren Prozessoren 16202 so konfiguriert werden, dass sie mindestens eine elektrische Komponente steuern (z.B. ausgewählt aus einer Gruppe, die aus einem oder mehreren Verstärkern besteht, wie einem oder mehreren Transimpedanzverstärkern, einem oder mehreren Analog-Digital-Wandlern und einem oder mehreren Zeit-Digital-Wandlern), um z.B. eine Zielleistungsaufnahme zu erreichen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie die elektrische Komponente so steuern, dass sich eine erste Leistungsaufnahme zur Verarbeitung (z.B. zur Umwandlung oder Verstärkung) eines Signals ergibt, das mit der ersten Region 162041 verbunden ist, und eine zweite (z.B. andere, z.B. niedrigere) Leistungsaufnahme zur Verarbeitung eines Signals, das mit der zweiten Region 162042 verbunden ist. Beispielsweise kann ein Analog-Digital-Wandler (z.B. ein oder mehrere Analog-Digital-Wandler) so gesteuert werden, dass er eine kleinere Abtastrate für einen Bereich mit einer damit verbundenen geringeren Datenverarbeitungscharakteristik liefert.
  • Als weiteres Beispiel können der eine oder mehrere Prozessoren 16202 so konfiguriert werden, dass sie das LIDAR-System 16200 so steuern, dass es Sensordaten in der ersten Region 162041 mit einer ersten Auflösung und/oder einer ersten Bildrate und Sensordaten in der zweiten Region 162042 mit einer zweiten Auflösung und/oder einer zweiten Bildrate erfasst. Die zweite Auflösung kann sich von der ersten Auflösung unterscheiden und/oder die zweite Bildrate kann sich von der ersten Bildrate unterscheiden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16202 können so konfiguriert werden, dass sie Emitter- und/oder Empfängerkomponenten (z.B. die Lichtquelle 42, die Abtastkomponente und/oder den Sensor 52) steuern, um die erste Region 162041 mit der ersten Auflösung und/oder der ersten Bildrate und die zweite Region 162042 mit der zweiten Auflösung und/oder der zweiten Bildrate abzubilden. Die Fotodioden (z.B. die Sensorpixel) und/oder die Lichtemitter (z.B. die Emitterpixel) können z.B. zusammengefaßt werden, um die verschiedenen Auflösungen bereitzustellen (z.B. wie z.B. in bezug auf 150A bis 154B beschrieben). Einige der Fotodioden können ausgeschaltet werden, um eine reduzierte Bildrate für eine Region bereitzustellen (z.B. ein- und ausgeschaltet entsprechend der gewünschten Bildrate).
  • Als weiteres Beispiel können der eine oder mehrere Prozessoren 16202 so konfiguriert werden, dass sie die Sensordaten, die der ersten Region 162041 zugeordnet sind, unter Verwendung einer ersten Auflösung und/oder einer ersten Bildrate verarbeiten und die Sensordaten, die der zweiten Region 162042 zugeordnet sind, unter Verwendung einer zweiten Auflösung und/oder einer zweiten Bildrate verarbeiten. Nur ein Teil der Sensordaten, die einem Bereich des Sichtfeldes zugeordnet sind, können verarbeitet werden, um eine reduzierte Auflösung zu erhalten (z.B. 70% der Sensordaten oder 50% der Sensordaten). Die Sensordaten, die einer Region zugeordnet sind, können nicht für jede Sensordatendarstellung 16204 verarbeitet werden, um eine reduzierte Bildrate zu liefern (z.B. können die Sensordaten, die einer Region zugeordnet sind, für eine erste Sensordatendarstellung 16204 verarbeitet werden, aber nicht für eine zweite Sensordatendarstellung 16204, z.B. im Anschluss an die erste Sensordatendarstellung 16204).
  • 163A bis 163C zeigen jeweils eine Bestimmung der Regionen in einer Sensordatendarstellung in einer schematischen Darstellung nach verschiedenen Ausführungsformen. Jedes Quadrat des Gitters (z.B. in 163A und 163B) kann einem einzelnen Element der jeweiligen Sensordatendarstellung (z.B. einem einzelnen Element oder einem einzelnen Punkt der Punktwolke) entsprechen oder dieses anzeigen. Es wird davon ausgegangen, dass 163A bis 163C Fälle oder Szenarien illustrieren, die nur als Beispiele ausgewählt wurden, um den Betrieb des LIDAR-Systems 16200 zu beschreiben.
  • Wie z.B. in 163A und 163B dargestellt, können Kernbereiche einer Sensordarstellung, z.B. Kernbereiche des Sichtfeldes, durch eine hochauflösende Zone abgedeckt werden (z.B. eine erste hochauflösende Zone 163041 und eine dritte hochauflösende Zone 163043). Die Nicht-Kernbereiche einer Sensordarstellung können durch eine niedrigauflösende Zone abgedeckt werden (z.B. eine zweite niedrigauflösende Zone 163042 und eine vierte niedrigauflösende Zone 163044).
  • Wie z.B. in 163A dargestellt, kann in einer ersten Sensordatendarstellung 163021 die hochauflösende Zone 163041 einen zentralen Teil des Sichtfeldes des LIDAR-Systems 16200 und die niedrigauflösende Zone 163042 einen peripheren Teil (oder alle peripheren Teile) des Sichtfeldes abdecken.
  • Ein erstes Objekt 16306 (z.B. ein Auto) und ein zweites Objekt 16308 (z.B. ein Bus) können vorhanden sein oder im Sichtfeld erscheinen. Die Kabine 16306 und der Bus 16308 können als in Bewegung und potentiell gefährlich erkannt werden (z.B. nach ihrem Typ und ihrer Geschwindigkeit und/oder Bewegungsrichtung).
  • In einer zweiten Sensordatendarstellung 163022 können das Auto 16302 und der Bus 16304 an die hochauflösende Zone 163041 angeschlossen werden, z.B. an die erste Region 162041. Die zweite Sensordatendarstellung 163022 kann auf die erste Sensordatendarstellung 163021 folgen (z.B. zu einem späteren Zeitpunkt erfasst und/oder verarbeitet werden). Zur Veranschaulichung: In der zweiten Sensordatendarstellung 163022 kann die hochauflösende Zone 163041 vergrößert und/oder eine neue (z.B. zusätzliche) hochauflösende Zone 163041 erstellt werden, um die Teile des Sichtfeldes einschließlich des Fahrzeugs 16306 und des Busses 16308 zu umschließen.
  • Wie z.B. in 163B dargestellt, kann in einer dritten Sensordatendarstellung 163023 eine hochauflösende Zone 163043 einen zentralen Teil der Sensordatendarstellung 163023, z.B. des Sichtfeldes des LIDAR-Systems 16200, abdecken (z.B. entlang der gesamten horizontalen Richtung des Sichtfeldes). Eine Zone mit niedriger Auflösung 163044 kann einen peripheren Teil der Sensordatendarstellung 163023 abdecken (z.B. entlang der gesamten horizontalen Richtung des Sichtfeldes).
  • Ein drittes Objekt 16310 (z.B. ein erster Fußgänger) und ein viertes Objekt 16312 (z.B. ein zweiter Fußgänger) und ein fünftes Objekt 16314 (z.B. ein Zuschauer) können vorhanden sein oder im Sichtfeld erscheinen. Der erste Fußgänger 16310 und der zweite Fußgänger 16312 können als sich bewegend und potentiell gefährlich erkannt werden (z.B. nach Art und Bewegungsrichtung, z.B. zur Mitte des Sichtfeldes hin). Der umstehende Fußgänger 16314 kann als sich nicht bewegend erkannt werden (und/oder außerhalb einer Trajektorie des Fahrzeugs). Der Umstehende 16314 kann als eine Situation mit geringer Gefahr erkannt werden. In einer vierten Sensordatendarstellung 163024 (z.B. im Anschluss an die dritte Sensordatendarstellung 163023) können der erste Fußgänger 16310 und der zweite Fußgänger 16312 der hochauflösenden Zone 163043 zugeordnet werden. Der Passant 16314 kann außerhalb der Hochauflösungszone 163043 belassen werden (oder nur teilweise in die Hochauflösungszone 163043 einbezogen werden).
  • 163C und 163D, zeigt eine Draufsicht auf ein beispielhaftes Szenario mit einem Fahrzeug 16316, das mit dem LIDAR-System 16200 ausgerüstet ist, und zwei weiteren Objekten in seinem Sichtfeld (z.B. ein erstes Fahrzeug 16318 und ein zweites Fahrzeug 16320). Zu Beginn, z.B. zu einem ersten Zeitpunkt t1, bildet das LIDAR-System 16200 das Sichtfeld mit einer ersten (z.B. niedrigen) Auflösung ab, z.B. mit einer ersten Anzahl von Lichtstrahlen oder Impulsen 16322.
  • Das erste Fahrzeug 16318 kann einen niedrigeren Gefahrenwert aufweisen als das zweite Fahrzeug 16320. Das erste Fahrzeug 16318 kann sich z.B. außerhalb der geplanten Route des Fahrzeugs 16316 befinden (und sich nicht auf die geplante Route zubewegen, wie durch den Pfeil 16324 angezeigt wird, der vom Fahrzeug 16318 aus zeigt). Zur Veranschaulichung: Das erste Fahrzeug 16318 kann sich mit hoher Geschwindigkeit vom Fahrzeug 16316 entfernen, was zu einer Situation mit geringer Gefahr führt.
  • Das erste Fahrzeug 16318 kann sich näher (z.B. in Bezug auf das zweite Fahrzeug 16320) an einem vordefinierten Ort befinden, z.B. näher an dem mit dem LIDAR-System 16200 ausgerüsteten Fahrzeug 16316. Für das erste Fahrzeug 16318 kann in Anbetracht der größeren Nähe eine hohe Auflösung für die Objektklassifizierung und zur Bereitstellung qualitativ besserer Informationen (z.B. für die Versorgung eines Sensorfusionssystems) vorgesehen werden. Zur Veranschaulichung kann in dem Teil des Sichtfeldes, der das erste Fahrzeug 16318 einschließt, eine hochauflösende Zone 163045 bestimmt werden (z.B. kann eine erhöhte Anzahl von Lichtstrahlen 16322 emittiert werden). Die Darstellung in 163C und 163D kann als eine Darstellung in Polarkoordinaten beschrieben werden (illustrativ, mit Betonung auf dem Emissionswinkel der Lichtemission). Die Darstellung in 163A und 163B kann als Darstellung in kartesischen Koordinaten beschrieben werden (illustrativ, mit Betonung auf der Aufteilung des Gesichtsfeldes in einzelne Teile).
  • Das zweite Fahrzeug 16320 kann z.B. weiter entfernt sein, sich aber auf die Richtung und geplante Route des Fahrzeugs 16316 zubewegen (z.B. wie durch den Pfeil 16326 angezeigt, der vom Fahrzeug 16320 aus zeigt). Veranschaulichend kann sich das zweite Fahrzeug 16320 auf das Fahrzeug 16316 zubewegen, z.B. mit langsamer Geschwindigkeit, was zu einer Situation hoher Gefahr führt (z.B. kann das erste Fahrzeug 16318 eine niedrigere Gefahreneinstufung haben als das zweite Fahrzeug 16320). Für das zweite Fahrzeug 16320 kann eine Zone mit hoher Auflösung und hoher Bildwiederholrate 163046 vorgesehen werden, um rechtzeitig mehr Proben der Bewegung zu erhalten. Eine hohe Bildrate ist für das erste Fahrzeug 16318 möglicherweise nicht erforderlich (z.B. kann die hochauflösende Zone 163045 eine Zone mit niedriger Bildrate sein).
  • 164A und 164B zeigen jeweils ein Flussdiagramm eines Algorithmus in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Wie z.B. in 164A dargestellt, kann ein erster (z.B. einfacher) Algorithmus 16400 auf der Objekterkennung basieren. Der eine oder mehrere Prozessoren 16202 können mehrere Instanzen des Algorithmus 16400 parallel ausführen (z.B. um mehrere Sensordaten-Darstellungen parallel zu verarbeiten). Der Algorithmus 16400 kann einen Start in 16402 beinhalten, z.B. ausgelöst oder verzögert über einen Timer.
  • Der Algorithmus 16400 kann im Jahr 16404 die Erfassung eines Bildes beinhalten (zur Veranschaulichung: Erzeugung einer Sensordatendarstellung 16204).
  • Der Algorithmus 16400 kann im Jahr 16406 eine laufende Objekterkennung beinhalten (zur Veranschaulichung: Anwendung eines Objekterkennungsprozesses auf das Bild). Die Objekterkennung kann eine Liste von Objekten mit den zugehörigen Konfidenzniveaus liefern. Der Objekterkennungsprozess kann durch den einen oder mehrere Prozessoren 16202 und/oder durch ein Sensorfusionssystem in Kommunikation mit dem einen oder mehreren Prozessoren 16202 angewendet werden.
  • Die folgenden Algorithmusschritte können für jedes Objekt in der Liste der Objekte ausgeführt werden. Beispielsweise können die folgenden Algorithmusschritte für einige oder alle Objekte im Bild parallel ausgeführt werden.
  • Der Algorithmus 16400 kann in 16408 die Bestimmung einschließen, ob das Vertrauensniveau des Objekts (illustrativ das Erkennungs-Vertrauensniveau für ein Objekt) niedrig oder hoch ist.
  • Der Algorithmus 16400 kann in 16410 die Bestimmung einschließen, ob eine Unschärfe im Bildbereich einschließlich des Objekts schneller zunimmt als eine Pixelierung in diesem Bereich, falls das Vertrauensniveau des Objekts niedrig ist (z.B. unter einer ersten vordefinierten Vertrauensschwelle für die Erkennung). Der Algorithmus 16400 kann in 16412 die Erhöhung der Bildwiederholrate dieser Region einschließen, falls die Unschärfe schneller zunimmt als die Pixelierung. Der Algorithmus 16400 kann in 16414 die Erhöhung der Auflösung dieser Region einschließen, falls die Unschärfe nicht schneller zunimmt als die Pixelierung. Der Algorithmus 16400 kann dann den Neustart des Prozesses für das nächste Bild beinhalten (z.B. die Aufnahme des nächsten Bildes mit der angepassten Auflösung oder Framerate). Zur Veranschaulichung: Der Algorithmus 16400 kann die Aufnahme des nächsten Bildes beinhalten, z.B. in einem neuen Schritt 16404, z.B. nach einer vordefinierten Verzögerung.
  • Der Algorithmus 16400 kann in 16416 die Bestimmung einschließen, ob das Konfidenzniveau des Objekts innerhalb eines vordefinierten Schwellen-Akzeptanzbereichs liegt, falls das Konfidenzniveau des Objekts hoch ist (z.B. gleich oder oberhalb der ersten vordefinierten Erkennungs-Konfidenzschwelle und unterhalb einer zweiten vordefinierten Erkennungs-Konfidenzschwelle). Wenn das Objekt-Vertrauensniveau innerhalb des vordefinierten Schwellen-Akzeptanzbereichs liegt, kann der Algorithmus 16400 den Neustart des Prozesses für das nächste Bild beinhalten (z.B. die Aufnahme des nächsten Bildes ohne Änderung der Auflösung oder der Bildrate). Zur Veranschaulichung: Der Algorithmus 16400 kann die Aufnahme des nächsten Bildes beinhalten, z.B. in einem neuen Schritt 16404, z.B. nach einer vordefinierten Verzögerung.
  • Der Algorithmus 16400 kann in 16418 die Bestimmung einschließen, ob eine Unschärfe im Bildbereich einschließlich des Objekts größer ist als eine Pixelierung in diesem Bereich, falls das Vertrauensniveau des Objekts nicht innerhalb des Akzeptanzschwellenbereichs liegt und/oder falls das Vertrauensniveau des Objekts zu hoch ist (z. B. über der zweiten vordefinierten Vertrauensschwelle für die Erkennung). Der Algorithmus 16400 kann in 16420 eine Reduzierung der Auflösung dieser Region einschließen, falls die Unschärfe größer als die Pixelung ist. Der Algorithmus 16400 kann in 16422 die Reduzierung der Bildwiederholrate dieser Region einschließen, wenn die Unschärfe nicht größer als die Pixelierung ist. Der Algorithmus 16400 kann dann den Neustart des Prozesses für das nächste Bild beinhalten (z.B. die Aufnahme des nächsten Bildes mit der angepassten Auflösung oder Framerate). Zur Veranschaulichung: Der Algorithmus 16400 kann die Aufnahme des nächsten Bildes beinhalten, z.B. in einem neuen Schritt 16404, z.B. nach einer vordefinierten Verzögerung.
  • Wie z.B. in 164B dargestellt, kann ein erster (z.B. fortgeschrittener) Algorithmus 16430 auf der Objektklassifikation basieren. Der eine oder mehrere Prozessoren 16202 können mehrere Instanzen des Algorithmus 16430 parallel ausführen (z.B. um mehrere Sensordaten-Darstellungen parallel zu verarbeiten). Der Algorithmus 16430 kann einen Start in 16432 enthalten, z.B. ausgelöst oder verzögert über einen Timer.
  • Der Algorithmus 16430 kann in 16434 die Erfassung eines Bildes beinhalten (z.B. die Erzeugung einer Sensordatendarstellung 16204).
  • Der Algorithmus 16430 kann in 16436 eine laufende Objekterkennung beinhalten (zur Veranschaulichung: Anwendung eines Objekterkennungsprozesses auf das Bild). Die Objekterkennung kann eine Liste von Objekten mit den zugehörigen Konfidenzniveaus liefern. Der Objekterkennungsprozess kann durch den einen oder mehrere Prozessoren 16202 und/oder durch ein Sensorfusionssystem in Kommunikation mit dem einen oder mehreren Prozessoren 16202 angewendet werden.
  • Die folgenden Algorithmusschritte können für jedes Objekt in der Liste der Objekte ausgeführt werden. Beispielsweise können die folgenden Algorithmusschritte für einige oder alle Objekte im Bild parallel ausgeführt werden.
  • Der Algorithmus 16430 kann in 16438 die Bestimmung einschließen, ob das Vertrauensniveau des Objekts (illustrativ das Erkennungs-Vertrauensniveau für ein Objekt) niedrig oder hoch ist.
  • Der Algorithmus 16430 kann in 16440 die Bestimmung einschließen, ob eine Unschärfe im Bildbereich einschließlich des Objekts schneller zunimmt als eine Pixelierung in diesem Bereich, falls das Konfidenzniveau des Objekts niedrig ist (z.B. unter einer ersten vordefinierten Vertrauensschwelle für die Erkennung). Der Algorithmus 16430 kann im Jahr 16442 die Erhöhung der Bildrate dieses Bereichs einschließen, falls die Unschärfe schneller zunimmt als die Pixelierung. Der Algorithmus 16430 kann 16444 die Erhöhung der Auflösung dieser Region einschließen, falls die Unschärfe nicht schneller zunimmt als die Pixelierung. Der Algorithmus 16430 kann dann den Neustart des Prozesses für das nächste Bild beinhalten (z.B. die Aufnahme des nächsten Bildes mit der angepassten Auflösung oder Framerate). Zur Veranschaulichung: Der Algorithmus 16430 kann die Aufnahme des nächsten Bildes beinhalten, z.B. in einem neuen Schritt 16434, z.B. nach einer vordefinierten Verzögerung.
  • Der Algorithmus 16430 kann in 16446 das Ausführen eines Klassifikators beinhalten (z.B. die Anwendung eines Objektklassifikationsprozesses auf das Bild, z.B. für das Objekt oder jedes Objekt), falls das Vertrauensniveau des Objekts hoch ist (z.B. nicht unter der ersten vordefinierten Vertrauensschwelle der Erkennung). Der Klassifikator kann ein Konfidenzniveau (z.B. ein Klassifikations-Konfidenzniveau) für ein Objekt liefern (z.B. für jedes Objekt im Bild, z.B. kann der Klassifikator eine Liste von Objekten mit den zugehörigen Konfidenzniveaus liefern).
  • Der Algorithmus 16430 kann in 16448 die Bestimmung einschließen, ob das Klassifikator-Vertrauensniveau (illustrativ das Klassifikator-Vertrauensniveau für ein Objekt) niedrig oder hoch ist. Der Algorithmus 16430 kann das Fortfahren mit dem oben beschriebenen Algorithmusschritt 16440 (und den zugehörigen Algorithmusschritten 16442 bzw. 16444) einschließen, falls das Klassifikator-Vertrauensniveau niedrig ist (z.B. unterhalb eines ersten vordefinierten KlassifikationsVertrauensniveaus).
  • Der Algorithmus 16430 kann in 16450 die Bestimmung einschließen, ob das Konfidenzniveau des Klassifizierers innerhalb eines vordefinierten Schwellen-Akzeptanzbereichs liegt, falls das Konfidenzniveau des Klassifizierers hoch ist (z.B. gleich oder oberhalb der ersten vordefinierten Klassifizierungs-Konfidenzschwelle und unterhalb einer zweiten Konfidenzschwelle für die Klassifizierungserkennung). Für den Fall, dass das Klassifikator-Vertrauensniveau innerhalb des vordefinierten Schwellen-Akzeptanzbereichs liegt, kann der Algorithmus 16430 den Neustart des Prozesses für das nächste Bild beinhalten (z.B. die Aufnahme des nächsten Bildes ohne Änderung der Auflösung oder der Bildrate). Zur Veranschaulichung: Der Algorithmus 16430 kann die Aufnahme des nächsten Bildes beinhalten, z.B. in einem neuen Schritt 16434, z.B. nach einer vordefinierten Verzögerung.
  • Der Algorithmus 16430 kann in 16452 die Bestimmung einschließen, ob eine Unschärfe im Bereich des Bildes einschließlich des Objekts größer ist als eine Pixelierung in diesem Bereich, falls das Klassifikator-Vertrauensniveau nicht innerhalb des Schwellwert-Akzeptanzbereichs liegt und/oder falls das Klassifikator-Vertrauensniveau zu hoch ist (z.B. über dem zweiten vordefinierten Klassifikator-Vertrauensniveau). Der Algorithmus 16430 kann in 16454 eine Reduzierung der Auflösung dieser Region einschließen, falls die Unschärfe größer ist als die Pixelierung. Der Algorithmus 16430 kann 16456 die Reduzierung der Bildwiederholrate dieser Region einschließen, wenn die Unschärfe nicht größer als die Pixelierung ist. Der Algorithmus 16430 kann dann den Neustart des Prozesses für das nächste Bild beinhalten (z.B. die Aufnahme des nächsten Bildes mit der angepassten Auflösung oder Framerate). Zur Veranschaulichung: Der Algorithmus 16430 kann die Aufnahme des nächsten Bildes beinhalten, z.B. in einem neuen Schritt 16434, z.B. nach einer vordefinierten Verzögerung.
  • Eine Verarbeitung nach dem Algorithmus 16400 oder nach dem Algorithmus 16430 kann illustrativ der Bestimmung (z.B. Erkennen oder Klassifizieren) eines oder mehrerer Objekte und der entsprechenden Bestimmung einer oder mehrerer Regionen entsprechen (z.B. eine Region, die jedem Objekt zugeordnet oder mit jedem Objekt assoziiert ist). Die eine oder mehrere Regionen können sich zumindest teilweise überlappen. Diese Art der Verarbeitung kann eine Alternative (oder eine Ergänzung) zu einer Verarbeitung sein, bei der das Sichtfeld des LIDAR-Systems 16200, wie oben beschrieben, in einen Kernbereich- (z.B. eine zentrale Region) und einen- Nicht-Kernbereich (z.B. jeder andere Teil des Sichtfeldes) unterteilt wird. Es wird davon ausgegangen, dass die Verarbeitung auch mit einer Kombination der beiden oben beschriebenen Ansätze durchgeführt werden kann.
  • 164C zeigt ein Diagramm 16458, das ein Konfidenzniveau beschreibt, das sich im Laufe der Zeit in Übereinstimmung mit verschiedenen Ausführungsformen verändert. 164D zeigt ein Diagramm 16460, das einen Akzeptanzschwellenbereich beschreibt, der im Laufe der Zeit in Übereinstimmung mit verschiedenen Ausführungsformen variiert. 164E zeigt eine Bestimmung des Schwellenakzeptanzbereichs in einer schematischen Darstellung in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Der erste Algorithmus 16400 und der zweite Algorithmus 16430 können so konfiguriert werden, dass ein Konfidenzniveau (z. B. das Objekt-Konfidenzniveau und/oder das Klassifikator-Konfidenzniveau, illustrativ das Erkennungs-Konfidenzniveau und/oder das Klassifikations-Konfidenzniveau) innerhalb des vordefinierten Akzeptanzbereichs beibehalten wird.
  • Wie z.B. in dem Diagramm 16458 in 164C dargestellt, kann ein Konfidenzniveau (z.B. in Verbindung mit einer Sensordatendarstellung eines Objekts) als Funktion der Zeit variieren, wie durch das Sternsymbol in dem Diagramm 16458 dargestellt. Das Konfidenzniveau kann infolge der mit einem der Algorithmen implementierten Anpassungen variieren (z.B. infolge der angepassten Auflösung und/oder Framerate). Das Konfidenzniveau kann infolge unterschiedlicher Eigenschaften des zugehörigen Objekts (oder der Sensordatendarstellung) variieren. Zur Veranschaulichung: Das Vertrauensniveau kann variieren, wenn das Objekt seine Geschwindigkeit oder seinen Standort variiert (z.B. kann das Vertrauensniveau abnehmen, wenn sich das Objekt schneller oder weiter weg bewegt). Die Algorithmen können Anpassungen bereitstellen, um das Vertrauensniveau innerhalb des Akzeptanzbereichs 16462 zu bringen (z.B. zwischen einem niedrigen Schwellenwert 164621 und einem hohen Schwellenwert 16462h), falls das Vertrauensniveau zu hoch oder zu niedrig wird.
  • Wie z. B. in dem Diagramm 16460 in 164D dargestellt, kann der Akzeptanzbereich 16462 für ein Vertrauensniveau (z. B. in Verbindung mit einer Sensordatendarstellung oder mit einem Objekt) als Funktion der Zeit variieren (und/oder als Funktion eines Gefahrenwertes in Verbindung mit der Sensordatendarstellung oder mit dem Objekt). Beispielsweise kann ein erster (z.B. breiter) Annahmebereich 164621 zu einem ersten Zeitpunkt (und/oder für eine erste Gefahrenbewertung) und ein zweiter (z.B. anderer, z.B. engerer) Annahmebereich 164622 zu einem zweiten Zeitpunkt (und/oder für eine zweite Gefahrenbewertung) bereitgestellt werden. Zur Veranschaulichung: Der Akzeptanzbereich 16462 (z.B. die Werte für den Schwellenwert niedriges Niveau 164621 und/oder den Schwellenwert hohes Niveau 16462h) kann aufgrund unterschiedlicher Eigenschaften des zugehörigen Objekts (oder der Darstellung der Sensordaten) variieren. Beispielsweise kann ein Akzeptanzbereich 16462 variieren, wenn ein Objekt seine Bewegungsrichtung oder seine Geschwindigkeit ändert (z.B. kann der Akzeptanzbereich 16462 enger werden, wenn sich das Objekt auf das Fahrzeug oder die Flugbahn des Fahrzeugs zu bewegt).
  • Die Anpassung des Annahmebereichs 16462 kann z.B. durch den einen oder mehrere Prozessoren 16202 (und/oder durch ein Sensor-Fusionssystem) erfolgen, wie in 164E dargestellt. Zur Veranschaulichung kann die Anpassung des Akzeptanzbereichs 16462 per Software durchgeführt werden. Der untere Schwellenwert 164621 (z.B. ein minimaler Schwellenwert) und der obere Schwellenwert 16462h (z.B. ein maximaler Schwellenwert) können auf der Grundlage der Ergebnisse des Gefahrenerkennungsverfahrens bestimmt (z.B. berechnet) werden.
  • Der mit einem Objekt verbundene Schwellenwert der niedrigen Stufe 164621 und der Schwellenwert der hohen Stufe 16462h kann in Abhängigkeit von der mit diesem Objekt verbundenen Gefahrenbewertung bestimmt werden. Die Gefahreneinstufung kann für jedes erkannte Objekt und/oder jedes klassifizierte Objekt bestimmt (z.B. berechnet) werden. Der Gefährlichkeitswert kann unter Berücksichtigung einer ersten Eingabe 164641 bestimmt werden- , die eine Liste von erkannten Objekten mit den zugehörigen Konfidenzniveaus beschreibt. Zusätzlich oder alternativ kann der Gefahrenwert unter Berücksichtigung einer zweiten Eingabe 164642 bestimmt werden, die eine Liste von klassifizierten Objekten mit den zugehörigen Konfidenzniveaus beschreibt. Zusätzlich oder alternativ kann der Gefahrenwert optional unter Berücksichtigung der Eigengeschwindigkeit des Fahrzeugs bestimmt werden, z.B. unter Berücksichtigung einer Eingabe 164643- , die die Eigengeschwindigkeit des Fahrzeugs beschreibt (zur Veranschaulichung können höhere Schwellenwerte angegeben werden, wenn sich das Fahrzeug mit einer höheren Geschwindigkeit bewegt). Der Gefahrenwert für ein Objekt kann unter Berücksichtigung (z.B. durch Kombination) einer oder mehrerer Eigenschaften des Objekts (z.B. Abstand, Geschwindigkeit, Größe) bestimmt werden. Die Parameter oder die Eigenschaften, die zur Bestimmung des Gefahrenwertes verwendet werden, können miteinander kombiniert werden, z.B. mit entsprechenden Gewichtungsfaktoren (z.B. Gewichtungsparameter).
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1af ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Sensor mit einer oder mehreren Fotodioden enthalten, der so konfiguriert ist, dass er eine Vielzahl von Sensordatendarstellungen liefert. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren enthalten, die so konfiguriert sind, dass sie einen ersten Bereich und einen zweiten Bereich in mindestens einer Sensordatendarstellung der Vielzahl von Sensordatendarstellungen bestimmen. Eine erste Datenverarbeitungscharakteristik kann dem ersten Bereich zugeordnet werden und eine zweite Datenverarbeitungscharakteristik kann dem zweiten Bereich zugeordnet werden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie mindestens eine Komponente des LIDAR-Sensorsystems in Übereinstimmung mit der ersten Datenverarbeitungscharakteristik und mit der zweiten Datenverarbeitungscharakteristik steuern.
    • In Beispiel 2af kann der Gegenstand von Beispiel 1af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung der mindestens einen Komponente des LIDAR-Sensorsystems umfasst, so dass sich ein erster Stromverbrauch für die Verarbeitung des ersten Bereichs und ein zweiter Stromverbrauch für die Verarbeitung des zweiten Bereichs ergibt.
    • In Beispiel 3af kann der Gegenstand eines der Beispiele 1af oder 2af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung des einen oder der mehreren Prozessoren einschließt, um zu einem ersten Stromverbrauch für die Verarbeitung der ersten Region und zu einem zweiten Stromverbrauch für die Verarbeitung der zweiten Region zu führen.
    • In Beispiel 4af kann der Gegenstand eines der Beispiele 1af bis 3af optional eine Lichtquelle enthalten, die so konfiguriert ist, dass sie Licht aussendet, das vom Sensor erfasst wird. Die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems kann auch die Steuerung der Lichtquelle umfassen.
    • In Beispiel 5af kann der Gegenstand von Beispiel 4af optional beinhalten, dass die Lichtquelle eine oder mehrere Laserdioden enthält.
    • In Beispiel 6af kann der Gegenstand eines der Beispiele 1af bis 5af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung der Leistungsaufnahme mindestens einer elektrischen Komponente umfasst, die aus einer Gruppe elektrischer Komponenten ausgewählt wird, die aus einem oder mehreren Verstärkern, einem oder mehreren Analog-Digital-Wandlern und einem oder mehreren Zeit-Digital-Wandlern besteht.
    • In Beispiel 7af kann der Gegenstand eines der Beispiele 1af bis 6af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung des LIDAR-Sensorsystems zur Erfassung von Sensordaten im ersten Bereich mit einer ersten Auflösung und/oder einer ersten Bildrate und zur Erfassung von Sensordaten im zweiten Bereich mit einer zweiten Auflösung und/oder einer zweiten Bildrate umfasst. Die zweite Auflösung kann sich von der ersten Auflösung unterscheiden und/oder die zweite Bildrate kann sich von der ersten Bildrate unterscheiden.
    • In Beispiel 8af kann der Gegenstand eines der Beispiele 1af bis 7af optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um das erste Datenverarbeitungsmerkmal einem ersten Teil der mindestens einen Sensordatendarstellung zuzuordnen, um den ersten Bereich zu bestimmen, und um das zweite Datenverarbeitungsmerkmal einem zweiten Teil der Sensordatendarstellung zuzuordnen, um den zweiten Bereich zu bestimmen.
    • In Beispiel 9af kann der Gegenstand eines der Beispiele 1af bis 8af optional beinhalten, dass die Bestimmung der ersten Region und der zweiten Region die Anwendung eines Objekterkennungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen umfasst.
    • In Beispiel 10af kann der Gegenstand von Beispiel 9af optional beinhalten, dass die Anwendung eines Objekterkennungsprozesses die Bereitstellung eines Erkennungszuverlässigkeitsniveaus umfasst, das eine Schätzung für eine korrekte Identifizierung eines Objekts in der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen darstellt.
    • In Beispiel 11af kann der Gegenstand von Beispiel 10af optional beinhalten, dass der Objekterkennungsprozess einen maschinellen Lernalgorithmus enthält. Das Konfidenzniveau der Erkennung kann eine Wahrscheinlichkeit für die korrekte Identifizierung des Objekts angeben.
    • In Beispiel 12af kann der Gegenstand eines der Beispiele 10af oder 11af optional einschließen, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um zu bestimmen, ob das Erkennungs-Vertrauensniveau unter einem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt; und falls das Erkennungs-Vertrauensniveau unter dem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, zu bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, schneller zunimmt als eine Pixelierung in diesem Bereich; falls die Unschärfe schneller zunimmt als die Pixelierung, Erhöhen der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist; und falls die Unschärfe nicht schneller zunimmt als die Pixelierung, Erhöhen der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 13af kann der Gegenstand eines der Beispiele 10af bis 12af optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um zu bestimmen, ob das Erkennungs-Vertrauensniveau unter einem zweiten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, wobei der zweite vordefinierte Erkennungs-Vertrauens-Schwellenwert größer als ein erster vordefinierter Erkennungs-Vertrauens-Schwellenwert ist; falls das Erkennungs-Vertrauensniveau gleich oder über dem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert und unter dem zweiten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, bestimmen, ob das Erkennungs-Vertrauensniveau innerhalb eines vordefinierten Schwellenwert-Akzeptanzbereichs liegt; falls das Erkennungs-Vertrauensniveau innerhalb des vordefinierten Schwellwert-Akzeptanzbereichs liegt, die Datenverarbeitungscharakteristik des Bereichs, in dem das erkannte Objekt enthalten ist, unverändert beibehalten; und falls das Erkennungs-Vertrauensniveau nicht innerhalb des vordefinierten Schwellwert-Akzeptanzbereichs liegt, bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, größer ist als eine Pixelierung in diesem Bereich; falls die Unschärfe größer als die Pixelung ist, die Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren; und falls die Unschärfe nicht größer als die Pixelung ist, die Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren.
    • In Beispiel 14af kann der Gegenstand eines der Beispiele 10af bis 13af optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um zu bestimmen, ob das Erkennungs-Vertrauensniveau unter einem zweiten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, wobei der zweite vordefinierte Erkennungs-Vertrauens-Schwellenwert größer als ein erster vordefinierter Erkennungs-Vertrauens-Schwellenwert ist; und für den Fall, dass das Erkennungs-Vertrauensniveau gleich oder über dem zweiten vordefinierten Erkennungs-Vertrauens-Schwellenwert ist, zu bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, größer ist als eine Pixelierung in diesem Bereich; für den Fall, dass die Unschärfe größer ist als die Pixelierung, die Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren; und für den Fall, dass die Unschärfe nicht größer ist als die Pixelierung, die Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren.
    • In Beispiel 15af kann der Gegenstand eines der Beispiele 10af bis 14af optional einschließen, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um zu bestimmen, ob das Erkennungs-Vertrauensniveau unter einem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt; und falls das Erkennungs-Vertrauensniveau nicht unter dem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, wenden Sie einen Objektklassifizierungsprozess auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen an, die ein Klassifizierungs-Vertrauensniveau liefert, das einen Schätzwert für eine korrekte Klassifizierung eines Objekts in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen darstellt, in dem das erkannte Objekt enthalten ist; und Bestimmen, ob das Klassifizierungs-Vertrauensniveau unter einem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt; falls das Klassifizierungs-Vertrauensniveau unter dem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt, Bestimmen, ob eine Unschärfe in dem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, die das erkannte Objekt enthalten, schneller zunimmt als eine Pixelierung in dem Bereich; falls die Unschärfe schneller zunimmt als die Pixelierung, Erhöhen der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist; und falls die Unschärfe nicht schneller zunimmt als die Pixelierung, Erhöhen der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 16af kann der Gegenstand von Beispiel 15af optional einschließen, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um zu bestimmen, ob der Klassifizierungs-Vertrauensgrad unter einem zweiten vordefinierten Klassifizierungs-Vertrauensschwellenwert liegt, wobei der zweite vordefinierte Klassifizierungs-Vertrauensschwellenwert größer als der erste vordefinierte Klassifizierungs-Vertrauensschwellenwert ist; und falls der Klassifizierungs-Vertrauensgrad gleich oder über dem ersten vordefinierten Klassifizierungs-Vertrauensschwellenwert und unter dem zweiten vordefinierten Klassifizierungs-Vertrauensschwellenwert liegt, zu bestimmen, ob der Klassifizierungs-Vertrauensgrad innerhalb eines vordefinierten Klassifizierungs-Schwellenwert-Akzeptanzbereichs liegt; falls das Klassifizierungs-Vertrauensniveau innerhalb des vordefinierten Klassifizierungs-Schwellenwert-Akzeptanzbereichs liegt, ein Datenverarbeitungsmerkmal des Bereichs, in dem das erkannte Objekt enthalten ist, unverändert beibehalten; und falls das Klassifizierungs-Vertrauensniveau nicht innerhalb des vordefinierten Klassifizierungs-Schwellenwert-Akzeptanzbereichs liegt, bestimmen, ob eine Unschärfe im Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, größer ist als eine Pixelierung in diesem Bereich; falls die Unschärfe größer als die Pixelung ist, die Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren; und falls die Unschärfe nicht größer als die Pixelung ist, die Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren.
    • In Beispiel 17af kann der Gegenstand eines der Beispiele 15af oder 16af optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um zu bestimmen, ob das Klassifikations-Konfidenzniveau unter einer zweiten vordefinierten Klassifikations-Konfidenzschwelle liegt, wobei die zweite vordefinierte Klassifikations-Konfidenzschwelle größer als die erste vordefinierte Klassifikations-Konfidenzschwelle ist; und für den Fall, dass das Klassifizierungs-Vertrauensniveau gleich oder über dem zweiten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert ist, zu bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, größer ist als eine Pixelierung in diesem Bereich; für den Fall, dass die Unschärfe größer ist als die Pixelierung, die Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren; und für den Fall, dass die Unschärfe nicht größer ist als die Pixelierung, die Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist, zu reduzieren.
    • In Beispiel 18af kann der Gegenstand eines der Beispiele 1af bis 17af optional beinhalten, dass die Bestimmung der ersten Region und der zweiten Region die Anwendung eines Objektklassifizierungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen umfasst.
    • In Beispiel 19af kann der Gegenstand von Beispiel 18af optional beinhalten, dass die Anwendung eines Objektklassifizierungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen die Bereitstellung eines Klassifizierungs-Vertrauensniveaus umfasst, das eine Schätzung für eine korrekte Klassifizierung eines Objekts in der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen darstellt.
    • In Beispiel 20af kann der Gegenstand von Beispiel 19af optional beinhalten, dass der Objektklassifizierungsprozess einen maschinellen Lernalgorithmus beinhaltet. Das Konfidenzniveau der Klassifizierung kann eine Wahrscheinlichkeit für die korrekte Klassifizierung des Objekts angeben.
    • In Beispiel 21 af kann der Gegenstand eines der Beispiele 1af bis 20af optional beinhalten, dass die Bestimmung der ersten Region und der zweiten Region die Anwendung eines Verfahrens zur Gefahrenidentifizierung einschließt, mit dem eine potenzielle Gefahr in Verbindung mit der ersten Region und/oder in Verbindung mit der zweiten Region bestimmt wird.
    • In Beispiel 22af kann der Gegenstand von Beispiel 21af optional einschließen, dass die Anwendung eines Gefahrenidentifikationsprozesses die Bestimmung mindestens eines der folgenden Merkmale des Inhalts der mindestens einen Sensordatendarstellung der mehreren Sensordatendarstellungen umfasst: Abstand des Inhalts des ersten Bereichs und/oder des zweiten Bereichs von einem vordefinierten Ort; Geschwindigkeit des Inhalts des ersten Bereichs und/oder des zweiten Bereichs; Bewegungsrichtung des Inhalts des ersten Bereichs und/oder des zweiten Bereichs; Größe des Inhalts des ersten Bereichs und/oder des zweiten Bereichs; und Art des Inhalts des ersten Bereichs und/oder des zweiten Bereichs.
    • In Beispiel 23af kann der Gegenstand eines der Beispiele 1af bis 22af optional beinhalten, dass mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen eine vom Sensor empfangene LIDAR-Punktwolke enthält.
    • Beispiel 24af ist ein Fahrzeug, einschließlich eines LIDAR-Sensorsystems aus einem der Beispiele 1af bis 23af. Das Fahrzeug kann einen oder mehrere Prozessoren enthalten, die so konfiguriert sind, dass sie das Fahrzeug in Übereinstimmung mit den vom LIDAR-Sensorsystem gelieferten Informationen steuern.
    • Beispiel 25af ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann einen Sensor mit einer oder mehreren Fotodioden umfassen, die eine Vielzahl von Sensordaten darstellen. Das Verfahren kann die Bestimmung eines ersten Bereichs und eines zweiten Bereichs in mindestens einer Sensordatendarstellung der Vielzahl von Sensordatendarstellungen umfassen. Eine erste Datenverarbeitungscharakteristik kann dem ersten Bereich zugeordnet werden und eine zweite Datenverarbeitungscharakteristik kann dem zweiten Bereich zugeordnet werden. Das Verfahren kann die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems in Übereinstimmung mit der ersten Datenverarbeitungscharakteristik und mit der zweiten Datenverarbeitungscharakteristik umfassen.
    • In Beispiel 26af kann der Gegenstand von Beispiel 25af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung der mindestens einen Komponente des LIDAR-Sensorsystems umfasst, so dass sich ein erster Stromverbrauch für die Verarbeitung des ersten Bereichs und ein zweiter Stromverbrauch für die Verarbeitung des zweiten Bereichs ergibt.
    • In Beispiel 27af kann der Gegenstand eines der Beispiele 25af oder 26af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung eines oder mehrerer Prozessoren umfasst, um einen ersten Stromverbrauch für die Verarbeitung der ersten Region und einen zweiten Stromverbrauch für die Verarbeitung der zweiten Region zu erreichen.
    • In Beispiel 28af kann der Gegenstand eines der Beispiele 25af bis 27af optional eine Lichtquelle enthalten, die Licht aussendet, das vom Sensor erfasst werden soll. Die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems kann die Steuerung der Lichtquelle beinhalten.
    • In Beispiel 29af kann der Gegenstand von Beispiel 28af optional beinhalten, dass die Lichtquelle eine oder mehrere Laserdioden enthält.
    • In Beispiel 30af kann der Gegenstand eines der Beispiele 25af bis 29af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung mindestens einer elektrischen Komponente umfasst, die aus einer Gruppe elektrischer Komponenten ausgewählt wird, die aus einem oder mehreren Verstärkern, einem oder mehreren Analog-Digital-Wandlern und einem oder mehreren Zeit-Digital-Wandlern besteht.
    • In Beispiel 31af kann der Gegenstand eines der Beispiele 25af bis 30af optional beinhalten, dass die Steuerung mindestens einer Komponente des LIDAR-Sensorsystems die Steuerung des LIDAR-Sensorsystems umfasst, um Sensordaten im ersten Bereich mit einer ersten Auflösung und/oder einer ersten Bildrate und Sensordaten im zweiten Bereich mit einer zweiten Auflösung und/oder einer zweiten Bildrate zu erfassen. Die zweite Auflösung kann sich von der ersten Auflösung unterscheiden und/oder die zweite Bildrate kann sich von der ersten Bildrate unterscheiden.
    • In Beispiel 32af kann der Gegenstand eines der Beispiele 25af bis 31af optional die Zuweisung des ersten Datenverarbeitungsmerkmals zu einem ersten Teil der mindestens einen Sensordatendarstellung zur Bestimmung des ersten Bereichs und die Zuweisung des zweiten Datenverarbeitungsmerkmals zu einem zweiten Teil der Sensordatendarstellung zur Bestimmung des zweiten Bereichs umfassen.
    • In Beispiel 33af kann der Gegenstand eines der Beispiele 25af bis 32af optional beinhalten, dass die Bestimmung der ersten Region und der zweiten Region die Anwendung eines Objekterkennungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen umfasst.
    • In Beispiel 34af kann der Gegenstand von Beispiel 33af optional beinhalten, dass die Anwendung eines Objekterkennungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen die Bereitstellung eines Erkennungs-Vertrauensniveaus umfasst, das eine Schätzung für eine korrekte Identifizierung eines Objekts in der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen darstellt.
    • In Beispiel 35af kann der Gegenstand von Beispiel 34af optional beinhalten, dass der Objekterkennungsprozess einen maschinellen Lernalgorithmus beinhaltet. Das Konfidenzniveau der Erkennung kann eine Wahrscheinlichkeit für die korrekte Identifizierung des Objekts angeben.
    • In Beispiel 36af kann der Gegenstand eines der Beispiele 34af oder 35af optional die Bestimmung einschließen , ob das Erkennungs-Vertrauensniveau unter einem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt; und falls das Erkennungs-Vertrauensniveau unter dem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, die Bestimmung, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, schneller zunimmt als eine Pixelierung in diesem Bereich; falls die Unschärfe schneller zunimmt als die Pixelierung, Erhöhen der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist; und falls die Unschärfe nicht schneller zunimmt als die Pixelierung, Erhöhen der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 37af kann der Gegenstand eines der Beispiele 34af bis 36af optional die Bestimmung einschließen, ob das Erkennungs-Vertrauensniveau unterhalb einer zweiten vordefinierten Erkennungs-Vertrauensgrenze liegt, wobei die zweite vordefinierte Erkennungs-Vertrauensgrenze größer als eine erste vordefinierte Erkennungs-Vertrauensgrenze ist; und falls das Erkennungs-Vertrauensniveau gleich oder oberhalb der ersten vordefinierten Erkennungs-Vertrauensgrenze und unterhalb der zweiten vordefinierten Erkennungs-Vertrauensgrenze liegt, die Bestimmung, ob das Erkennungs-Vertrauensniveau innerhalb eines vordefinierten Schwellen-Akzeptanzbereichs liegt; falls das Erkennungs-Vertrauensniveau innerhalb des vordefinierten Schwellwert-Akzeptanzbereichs liegt, Beibehalten der Datenverarbeitungscharakteristik des Bereichs, in dem das erkannte Objekt eingeschlossen ist, unverändert; und falls das Erkennungs-Vertrauensniveau nicht innerhalb des vordefinierten Schwellwert-Akzeptanzbereichs liegt, Bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt eingeschlossen ist, größer ist als eine Pixelbildung in diesem Bereich; falls die Unschärfe größer als die Pixelung ist, Verringern der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist; und falls die Unschärfe nicht größer als die Pixelung ist, Verringern der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 38af kann der Gegenstand eines der Beispiele 34af bis 37af optional die Bestimmung einschließen, ob das Erkennungs-Konfidenzniveau unter einer zweiten vordefinierten Erkennungs-Konfidenzschwelle liegt, wobei die zweite vordefinierte Erkennungs-Konfidenzschwelle größer als eine erste vordefinierte Erkennungs-Konfidenzschwelle ist; und für den Fall, dass das Erkennungs-Vertrauensniveau gleich oder über dem zweiten vordefinierten Erkennungs-Vertrauens-Schwellenwert ist, Bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen größer ist als eine Pixelierung in diesem Bereich; für den Fall, dass die Unschärfe größer ist als die Pixelierung, Reduzieren der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist; und für den Fall, dass die Unschärfe nicht größer ist als die Pixelierung, Reduzieren der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 39af kann der Gegenstand eines der Beispiele 25af bis 38af optional die Bestimmung einschließen, ob das Erkennungs-Vertrauensniveau unter einem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt; und falls das Erkennungs-Vertrauensniveau nicht unter dem ersten vordefinierten Erkennungs-Vertrauens-Schwellenwert liegt, die Anwendung eines Objektklassifizierungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordaten-Darstellungen, der ein Klassifizierungs-Vertrauensniveau liefert, das einen Schätzwert für eine korrekte Klassifizierung eines Objekts in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordaten-Darstellungen darstellt, in dem das erkannte Objekt enthalten ist; und Bestimmen, ob das Klassifizierungs-Vertrauensniveau unter einem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt; falls das Klassifizierungs-Vertrauensniveau unter dem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt, Bestimmen, ob eine Unschärfe in dem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, die das erkannte Objekt enthalten, schneller zunimmt als eine Pixelierung in diesem Bereich; falls die Unschärfe schneller zunimmt als die Pixelierung, Erhöhen der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist; und falls die Unschärfe nicht schneller zunimmt als die Pixelierung, Erhöhen der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 40af kann der Gegenstand von Beispiel 39af optional die Bestimmung einschließen, ob das Klassifizierungs-Vertrauensniveau unter einem zweiten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt, wobei der zweite vordefinierte Klassifizierungs-Vertrauens-Schwellenwert größer als der erste vordefinierte Klassifizierungs-Vertrauens-Schwellenwert ist; und für den Fall, dass das Klassifizierungs-Vertrauensniveau gleich oder über dem ersten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert und unter dem zweiten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert liegt, die Bestimmung, ob das Klassifizierungs-Vertrauensniveau innerhalb eines vordefinierten Klassifizierungs-Schwellenwert-Akzeptanzbereichs liegt; falls das Klassifizierungs-Vertrauensniveau innerhalb des vordefinierten Klassifizierungs-Schwellenwert-Akzeptanzbereichs liegt, Aufrechterhalten einer Datenverarbeitungscharakteristik des Bereichs, in dem das erkannte Objekt eingeschlossen ist, unverändert; und falls das Klassifizierungs-Vertrauensniveau nicht innerhalb des vordefinierten Klassifizierungs-Schwellenwert-Akzeptanzbereichs liegt, Bestimmen, ob eine Unschärfe im Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt eingeschlossen ist, größer ist als eine Pixelierung in diesem Bereich; falls die Unschärfe größer als die Pixelung ist, Verringern der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist; und falls die Unschärfe nicht größer als die Pixelung ist, Verringern der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 41af kann der Gegenstand eines der Beispiele 39af oder 40af optional die Bestimmung einschließen, ob das Klassifikations-Konfidenzniveau unter einer zweiten vordefinierten Klassifikations-Konfidenzschwelle liegt, wobei die zweite vordefinierte Klassifikations-Konfidenzschwelle größer als die erste vordefinierte Klassifikations-Konfidenzschwelle ist; und für den Fall, dass das Klassifizierungs-Vertrauensniveau gleich oder über dem zweiten vordefinierten Klassifizierungs-Vertrauens-Schwellenwert ist, Bestimmen, ob eine Unschärfe in einem Bereich der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen, in denen das erkannte Objekt enthalten ist, größer ist als eine Pixelierung in dem Bereich; für den Fall, dass die Unschärfe größer ist als die Pixelierung, Reduzieren der Auflösung des Bereichs, in dem das erkannte Objekt enthalten ist; und für den Fall, dass die Unschärfe nicht größer ist als die Pixelierung, Reduzieren der Bildrate des Bereichs, in dem das erkannte Objekt enthalten ist.
    • In Beispiel 42af kann der Gegenstand eines der Beispiele 25af bis 41af optional beinhalten, dass die Bestimmung der ersten Region und der zweiten Region die Anwendung eines Objektklassifizierungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen umfasst.
    • In Beispiel 43af kann der Gegenstand von Beispiel 42af optional beinhalten, dass die Anwendung eines Objektklassifizierungsprozesses auf die mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen die Bereitstellung eines Klassifizierungs-Vertrauensniveaus umfasst, das eine Schätzung für eine korrekte Klassifizierung eines Objekts in der mindestens einen Sensordatendarstellung der Vielzahl von Sensordatendarstellungen darstellt.
    • In Beispiel 44af kann der Gegenstand von Beispiel 43af optional beinhalten, dass der Objektklassifizierungsprozess einen maschinellen Lernalgorithmus enthält. Das Konfidenzniveau der Klassifizierung kann eine Wahrscheinlichkeit für die korrekte Klassifizierung des Objekts angeben.
    • In Beispiel 45af kann der Gegenstand eines der Beispiele 25af bis 44af optional beinhalten, dass die Bestimmung der ersten Region und der zweiten Region die Anwendung eines Verfahrens zur Gefahrenidentifizierung einschließt, mit dem eine potenzielle Gefahr in Verbindung mit der ersten Region und/oder in Verbindung mit der zweiten Region bestimmt wird.
    • In Beispiel 46af kann der Gegenstand von Beispiel 45af optional beinhalten, dass die Anwendung eines Gefahrenidentifikationsprozesses die Bestimmung mindestens eines der folgenden Merkmale des Inhalts der mindestens einen Sensordatendarstellung der mehreren Sensordatendarstellungen umfasst: Abstand des Inhalts des ersten Bereichs und/oder des zweiten Bereichs von einem vordefinierten Ort; Geschwindigkeit des Inhalts des ersten Bereichs und/oder des zweiten Bereichs; Bewegungsrichtung des Inhalts des ersten Bereichs und/oder des zweiten Bereichs; Größe des Inhalts des ersten Bereichs und/oder des zweiten Bereichs; und Art des Inhalts des ersten Bereichs und/oder des zweiten Bereichs.
    • In Beispiel 47af kann der Gegenstand eines der Beispiele 25af bis 46af optional beinhalten, dass mindestens eine Sensordatendarstellung der Vielzahl von Sensordatendarstellungen eine vom Sensor empfangene LIDAR-Punktwolke enthält.
    • Beispiel 48af ist ein Verfahren zum Betrieb eines Fahrzeugs. Das Verfahren kann den Betrieb eines LIDAR-Sensorsystems von einem der Beispiele 25af bis 47af umfassen. Das Verfahren kann die Steuerung des Fahrzeugs in Übereinstimmung mit den vom LIDAR-Sensorsystem gelieferten Informationen umfassen.
    • Beispiel 49af ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium enthalten sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems der Beispiele 1 af bis 23af oder einem Fahrzeug des Beispiels 24af ausgeführt werden, das LIDAR-Sensorsystem oder das Fahrzeug veranlassen, das Verfahren eines der Beispiele 25af bis 48af auszuführen.
    • Beispiel 50af ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem oder ein Fahrzeug eines der oben genannten Verfahrensbeispiele, ein LIDAR-Sensorsystem oder ein Fahrzeug eines der oben genannten LIDAR-Sensorsysteme oder Fahrzeugbeispiele ausführen kann.
  • KAPITEL „DATENVERWENDUNG“.
  • Für eine bessere Objekterkennung ist es vorteilhaft, wenn das im Sichtfeld (FOV) befindliche Objekt mit einer Markierung versehen ist. Dieser Marker wird durch die Impulse der Entfernungsmesseinheit (LIDAR-Sensorsystem) angeregt bzw. aktiviert und sendet dann eine Markerstrahlung aus. In dieser Markerstrahlung wird die Objektinformation für die Detektion des Objektes hinterlegt. Die Markerstrahlung wird dann von einem Strahlungsdetektor, der Teil der Distanzmesseinheit eines LIDAR-Sensorsystems sein kann oder auch nicht, detektiert und die Objektinformation dem Objekt zugeordnet.
  • Die Abstandsmesseinheit kann in ein LIDAR-Sensorgerät (z.B. Kraftfahrzeug) integriert werden, insbesondere zur Unterstützung einer teil- oder vollautonomen Fahrfunktion. Das mit der Markierung versehene Objekt kann z.B. ein anderer Verkehrsteilnehmer sein, wie z.B. ein anderes Kraftfahrzeug oder ein Fußgänger oder Radfahrer, aber auch z.B. ein Verkehrszeichen o.ä. kann mit der Markierung versehen sein, oder eine Brücke mit einer bestimmten maximal zulässigen Tragfähigkeit oder ein Durchgang mit einer bestimmten maximal zulässigen Höhe.
  • Sobald sich das Objekt im Objektfeld, d.h. im Sichtfeld (FOV) der Distanzmesseinheit befindet, wird der Marker durch die elektromagnetische Distanzmessstrahlung angeregt bzw. bei einigen Implementierungen aktiviert und sendet seinerseits die Markerstrahlung aus. Diese wird vom Strahlungsdetektor detektiert, der in diesem Beispiel Teil des Kraftfahrzeugs ist (das über die emittierende Distanzmesseinheit verfügt), und eine Auswerteeinheit des Kraftfahrzeugs kann die Objektinformation mit dem Objekt in Verbindung bringen. Das Objekt kann einer bestimmten Objektklasse zugeordnet werden, die dem Fahrzeugführer angezeigt oder intern im Rahmen der teil- oder vollautonomen Fahrfunktion berücksichtigt werden kann. Je nachdem, ob es sich z.B. um einen Fussgänger am Strassenrand oder um einen Laternenpfahl handelt, kann die Fahrstrategie entsprechend angepasst werden (z.B. grösserer Sicherheitsabstand im Falle des Fussgängers).
  • Im Gegensatz dazu ist mit der in der Markerstrahlung gespeicherten oder eingebetteten Objektinformation eine zuverlässige Klassifizierung möglich, wenn Objekte, die in verschiedene Objektklassen fallen, mit Markern versehen werden, die sich in der jeweils in der Markerstrahlung gespeicherten Objektinformation unterscheiden. Beispielsweise können die Marker im Vergleich zu den oben genannten Bildauswertungsverfahren die Erkennungszeiten verkürzen. Andere Objekterkennungsverfahren, wie z.B. die Auswertung von Punktwolken, sind natürlich weiterhin möglich, auch die markerbasierte Erkennung kann eine vorteilhafte Ergänzung darstellen.
  • Die Art und Weise, wie die Objektinformation ausgewertet oder aus dem Detektorsignal des Strahlungsdetektors abgeleitet oder ausgelesen wird, kann im Detail auch vom Aufbau des Strahlungsdetektors selbst abhängen. Ist die Objektinformation z.B. frequenzcodiert, d.h. emittieren Marker mit unterschiedlichen Wellenlängen, die verschiedenen Objektklassen zugeordnet sind, so kann eine Zuordnung zum jeweiligen Marker bereits durch eine entsprechende Filterung einer entsprechenden Sensorfläche hergestellt werden. Bei einer entsprechenden Sensorfläche kann die jeweilige Markerstrahlung nur dann detektiert werden, wenn sie die „geeignete“ Wellenlänge hat, nämlich durch das Filter auf die Sensorfläche gelangt. Insofern kann die Tatsache, dass überhaupt ein Detektionssignal ausgegeben wird, darauf hinweisen, dass ein bestimmter Marker emittiert, also dessen Objektinformation vorhanden ist. Zum anderen kann aber auch die Objektinformation der Markerstrahlung z.B. moduliert werden (siehe unten im Detail), so dass sie dann z.B. durch eine entsprechende Signalverarbeitung ausgelesen werden kann.
  • Wie bereits oben erwähnt, unterscheidet sich die vom Marker (M) emittierte Markerstrahlung von jeder Abstandsmessstrahlung, die lediglich an einem rein reflektierenden Marker (MPR) reflektiert wird. Im Gegensatz zu einer rein reflektierten Distanzmessstrahlung, die eine Informationsverarbeitung bezüglich der Lage oder der Position des Markers im Objektraum ermöglicht, enthält die emittierte Markerstrahlung (M) daher zusätzliche oder ergänzende Informationen, die für eine schnelle und zuverlässige Objektdetektion nutzbar sind. Die Marker(M)-Strahlung kann sich in ihrer Frequenz (Wellenlänge) von der verwendeten Distanzmessstrahlung unterscheiden, alternativ oder zusätzlich kann die Objektinformation auf die Marker(M)-Strahlung aufmoduliert werden.
  • In einer bevorzugten Ausführungsform ist der Marker (M) ein passiver Marker (PM). Dieser emittiert die passive Markerstrahlung (MPRA) bei Anregung mit der Entfernungsmessstrahlung, z.B. aufgrund photophysikalischer Prozesse im Markermaterial. Die Markerstrahlung (MPRA) hat in einigen Ausführungsformen eine andere Wellenlänge als die Distanzmessstrahlung, wobei sich der Wellenlängenunterschied als Energiedifferenz zwischen verschiedenen Besetzungszuständen ergeben kann. Im Allgemeinen kann die Markerstrahlung (MPRA) eine höhere Energie haben als die Distanzmessstrahlung (sog. Up-Conversion), d.h. eine kürzere Wellenlänge aufweisen. In einigen Ausführungsformen hat die Markerstrahlung (MPRA) in einem Abwärtskonversionsprozess eine geringere Energie und dementsprechend eine längere Wellenlänge als die Distanzmessstrahlung.
  • In einer bevorzugten Ausführungsform ist der passive Marker ein Fluoreszenzmarker (in der Regel wäre aber z.B. auch ein Phosphoreszenzmarker denkbar). Besonders vorteilhaft kann es sein, nanoskalige Quantenpunkte (z.B. aus CdTe, ZnS, ZnSe, o ZnO) zu verwenden, da deren Emissionseigenschaften leicht einstellbar sind, d.h. dass bestimmte Wellenlängen definiert werden können. Damit ist es auch möglich, eine optimale Wellenlänge für eine bestimmte Objektklasse zu bestimmen.
  • In einer anderen bevorzugten Ausführungsform ist der Marker ein aktiver Marker (MA). Dieser verfügt über einen photoelektrischen Strahlungsempfänger und einen photoelektrischen Strahlungssender, wobei letzterer bei Aktivierung des Markers durch Bestrahlung des Strahlungsempfängers mit der Abstandsmessstrahlung die aktive Markerstrahlung (MAR) aussendet. Der Empfänger kann z.B. eine Fotodiode sein, als Sender kann z.B. eine Leuchtdiode (LED) vorgesehen werden. Eine LED strahlt typischerweise relativ weitwinklig (meist lambertsch), was insofern vorteilhaft sein kann, als dann die Wahrscheinlichkeit hoch ist, dass ein Teil der Strahlung auf den Strahlungsdetektor (des Distanzmesssystems) fällt.
  • Ein entsprechender aktiver Marker (MA) kann weiterhin z.B. eine Treiberelektronik für den Strahlungssender und / oder auch Signalauswertung und Logikfunktionen beinhalten. Der Sender kann z.B. von einer integrierten Energiequelle (Batterie, Einweg- oder wiederaufladbar) gespeist werden. Je nach Standort oder Anwendung können Sender und Empfänger und, falls vorhanden, weitere Komponenten zusammengesetzt und untergebracht werden. Alternativ oder zusätzlich kann ein Empfänger aber auch z.B. einem oder mehreren dezentralen Sendern zugeordnet werden.
  • Der Marker (MA, MP) kann z.B. in ein Kleidungsstück, z.B. eine Jacke, integriert sein. Das Kleidungsstück als Ganzes kann dann z.B. mit mehreren Markern ausgestattet werden, die entweder unabhängig voneinander als dezentrale Einheiten funktionieren (in einigen Ausführungsformen separat untergebracht) oder bestimmte Funktionalitäten miteinander teilen (z.B. die Stromversorgung und / oder den Empfänger oder eine bestimmte Logik usw.). Unabhängig davon im Detail kann der vorliegende Ansatz, d.h. die Markierung mittels Markerstrahlung, sogar eine weitgehende Differenzierung ermöglichen, indem z.B. nicht das gesamte Kleidungsstück mit der gleichen Objektinformation versehen wird. Bezogen auf die Person, die das Kleidungsstück trägt, können dann z.B. auch andere Arme und / oder Beine als der Torso markiert werden, was weitere Auswertungsmöglichkeiten eröffnen kann. Andererseits kann es aber auch vorzuziehen sein, dass, sobald ein Objekt mit einer Vielzahl von Markierungen versehen ist, diese die gleichen Objektinformationen tragen, insbesondere baugleich sind.
  • In einer bevorzugten Ausführungsform moduliert die Markerstrahlung des aktiven Markers (MA) die Objektinformation. Obwohl ein ausschließlich wellenlängencodiertes Rücksignal (Passive Marker MP) mit Vorteil verwendet werden kann, kann die Modulation der aktiven (MA) Markerstrahlung z.B. helfen, die übertragbare Informationsfülle zu erhöhen. So können z.B. zusätzliche Daten über Positions- und / oder Bewegungstrajektorien unterlegt werden. Zusätzlich oder alternativ kann die Modulation mit einer Wellenlängencodierung kombiniert werden. Die Abstandsmessstrahlung und die modulierte Markerstrahlung können in einigen Ausführungsformen die gleiche Wellenlänge haben. Soweit in diesem Fall generell spektrale Intensitätsverteilungen verglichen werden (d.h. von „gleichen“ oder „unterschiedlichen“ Wellenlängen), handelt es sich um einen Vergleich der dominanten Wellenlängen, d.h. es handelt sich nicht um diskrete Spektren (die möglich, aber nicht zwingend erforderlich sind).
  • Die Objektinformation kann z.B. über eine Amplitudenmodulation gespeichert werden. Die Markerstrahlung kann auch als kontinuierliches Signal ausgesendet werden, die Information ergibt sich dann aus der zeitlichen Variation ihrer Amplitude. Generell kann die Information mit der Modulation z.B. morse-code-ähnlich übertragen werden, sie kann auf der Basis gemeinsamer Kommunikationsstandards verwendet werden oder es kann ein eigenes Protokoll definiert werden.
  • In einer bevorzugten Ausführungsform wird die Markerstrahlung als zeitdiskretes Signal emittiert, d.h. die Information wird in einer Impulsfolge gespeichert. In diesem Fall ist eine Kombination mit einer Amplitudenmodulation generell möglich, in einigen Ausführungsformen ist sie eine Alternative. Die Information kann sich dann insbesondere aus der Impulsfolge, d.h. ihrer Anzahl und / oder dem zeitlichen Versatz zwischen den einzelnen Impulsen ergeben.
  • Wie bereits erwähnt, hat die Markerstrahlung in einer bevorzugten Ausführungsform mindestens eine spektrale Überlappung mit der Abstandsmessstrahlung, d.h. die Intensitätsverteilungen haben mindestens eine gemeinsame Teilmenge. In einigen Ausführungsformen kann es sich um Strahlung der gleichen Wellenlänge handeln. Dies kann zu einer vorteilhaften Integration dahingehend führen, dass der Detektor, mit dem die Markerstrahlung empfangen wird, Teil der Distanzmesseinheit ist. Derselbe Detektor detektiert dann zum einen die Markerstrahlung und zum anderen die vom Objektraum zurückreflektierte Abstandsmessstrahlung.
  • Eine weitere Ausführungsform bezieht sich auf eine Situation, in der ein Teil der Abstandsmessstrahlung am Objekt als Echoimpuls zurück zur Abstandsmesseinheit reflektiert wird. Der aktive Marker sendet dann die Markerstrahlung in einer bevorzugten Ausführungsform so aus, dass dieser Echopuls verstärkt wird, d.h. die scheinbare Reflektivität erhöht wird. Alternativ oder zusätzlich zur Codierung der Objektkategorie kann daher auch der Erfassungsbereich der emittierenden Distanzmesseinheit erhöht werden.
  • Es wird ein Verfahren und ein Abstandsmesssystem zum Erfassen eines in einem Objektraum befindlichen Objekts beschrieben, wobei bei dem Verfahren ein Abstandsmessimpuls mit einer auf Signalverzögerung basierenden Abstandsmesseinheit in den Objektraum emittiert wird, wobei das Objekt mit einer Markierung versehen ist, die bei Einwirkung des Abstandsmessimpulses eine elektromagnetische Markierung erzeugt. Emittierte Strahlung, in der eine Objektinformation zur Objekterkennung gespeichert ist, wobei die mit einem elektrischen Strahlungsdetektor detektierte Markerstrahlung und die Objektinformation zur Objekterkennung dem Objekt zugeordnet wird. Die Markerstrahlung kann sich in ihren spektralen Eigenschaften von der Distanzmessstrahlung unterscheiden, da die Objektinformation wellenlängencodiert werden kann. Zwischen der Aktivierung durch Bestrahlung und der Emission des Strahlungsgebers darf ein zeitlicher Versatz von maximal 100 ns liegen.
  • Im modernen Straßenverkehr zeichnet sich eine zunehmende Diskrepanz ab zwischen „intelligenten“ Fahrzeugen, die mit einer Vielzahl von Kommunikationsmitteln, Sensortechnologien und Assistenzsystemen ausgestattet sind, und „konventionellen“ oder technisch weniger gut ausgestatteten Verkehrsteilnehmern wie Fußgängern und Radfahrern, die auf ihre eigenen menschlichen Sinne angewiesen sind, d.h. im Wesentlichen optische und akustische Signale von Augen und Ohren zur Orientierung registrieren und Gefahrenrisiken assoziieren. Darüber hinaus haben Fußgänger und Radfahrer aufgrund der fortschreitenden fahrzeugseitigen Entwicklungen wie batteriebetriebene Fahrzeuge und autonomes Fahren zunehmend Schwierigkeiten bei der Früherkennung von Warnsignalen durch ihre eigenen Sinne. Ein beliebtes Beispiel sind batteriebetriebene Fahrzeuge, die deutlich weniger Lärm ausstoßen als Fahrzeuge mit Verbrennungsmotoren. Folglich können Elektrofahrzeuge bereits zu nah sein, bevor sie von einem Fußgänger oder Radfahrer erkannt werden, um richtig zu reagieren.
  • Andererseits sind auch konventionelle Verkehrsteilnehmer wie Fußgänger und Radfahrer darauf angewiesen, von autonom fahrenden Fahrzeugen richtig erkannt zu werden. Darüber hinaus muss die Software, die den autonomen Fahrablauf und das Fahrzeug steuert, ein adäquates Verfahren zur Verfügung stellen, um auf die Detektion anderer Verkehrsteilnehmer, einschließlich konventioneller Verkehrsteilnehmer wie Fußgänger und Radfahrer sowie anderer, z.B. Motorradfahrer und Fahrzeuge Dritter, zu reagieren. Mögliche Szenarien sind z.B. die Anpassung der Geschwindigkeit des Fahrzeugs oder die Einhaltung eines Abstands beim Überholen oder Abbremsen, um eine Kollision zu vermeiden, oder das Einleiten eines Ausweichmanövers oder anderer. Im Falle von Dämmerung oder Dunkelheit ergeben sich weitere Anforderungen an autonome Fahrzeuge. Eine weitere Herausforderung sind die individuellen Charakteristika der Verkehrsteilnehmer, die keinen eindeutigen Mustern folgen, was es äußerst schwierig macht, durch mathematische Algorithmen und Methoden der künstlichen Intelligenz berücksichtigt und gesteuert zu werden.
  • Fußgänger und Radfahrer sind derzeit an das traditionelle nicht-autonome Fahren von Fahrzeugen mit Verbrennungsmotoren gewöhnt und sind in der Regel in der Lage, ein aufkommendes Risiko intuitiv und ohne nennenswerte Aufmerksamkeit zu erkennen, zumindest solange sie nicht abgelenkt werden. Diese Ablenkung nimmt aufgrund der Omnipräsenz von Smartphones und ihrer jeweiligen Verwendung, die optische und mentale Ablenkung verursachen, oder durch die Verwendung von akustischen Mediengeräten, die Umgebungsgeräusche überlagern, zu. Darüber hinaus lassen sich die etablierten Wege der nonverbalen Kommunikation zwischen Verkehrsteilnehmern durch Blickkontakt, Mimik und Gestik in autonomen Fahrzeugen nicht ohne großen Aufwand, wenn überhaupt, umsetzen.
  • Es werden verschiedene Ansätze diskutiert, um die Kommunikation zwischen autonomen Fahrzeugen und anderen Verkehrsteilnehmern zu ermöglichen, z.B. Lichtbalken, Anzeigen an der Außenseite des Fahrzeugs oder Fahrzeuge, die Symbole auf die Straße projizieren.
  • Nach wie vor besteht jedoch das Problem, die Anwesenheit anderer Verkehrsteilnehmer, insbesondere von Fußgängern und Radfahrern, durch ein autonomes Fahrzeug oder ein Fahrzeug, das zumindest teilweise autonom fährt, sicher und zuverlässig zu erkennen und ein adäquates Folgeverfahren einzuleiten. Ferner ist es auch erforderlich, die anderen Verkehrsteilnehmer, insbesondere Fußgänger und Radfahrer, in die Lage zu versetzen, autonome Fahrzeuge oder Fahrzeuge, die in einem zumindest teilweise autonomen Modus fahren, und/oder Elektrofahrzeuge, die zeitweise von Batterien angetrieben werden, wahrzunehmen.
  • Detaillierte Offenbarung der Offenbarung „System zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer“.
  • Dementsprechend ist es Gegenstand der Offenbarung, ein System und Verfahren zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer vorzuschlagen, das die Sicherheit im Straßenverkehr erhöht und die Zuverlässigkeit der gegenseitigen Wahrnehmung verbessert.
  • Das Objekt wird durch ein System zur Erkennung und/oder zur Kommunikation mit einem Verkehrsteilnehmer gelöst, das ein erstes Objekt gemäß Beispiel 1x, ein entsprechendes Verfahren gemäß Beispiel 15x und ein Computerprogrammprodukt gemäß Beispiel 16x darstellt. Weitere Aspekte der Offenbarung sind in den abhängigen Beispielen angegeben.
  • Die Offenbarung basiert auf einem System zum Erfassen und/oder Kommunizieren mit einem Verkehrsteilnehmer, der ein erstes Objekt repräsentiert, mit einer Entfernungsmesseinheit, die dazu bestimmt ist, dem ersten Objekt zugeordnet zu werden, und die so konfiguriert ist, dass sie eine Entfernung zu einem zweiten Objekt bestimmt, das einen weiteren Verkehrsteilnehmer repräsentiert, basierend auf einer Laufzeit eines Signalimpulses, der von einer ersten Sendeeinheit ausgesendet, von dem zweiten Objekt reflektiert und von einer Erfassungseinheit der Entfernungsmesseinheit erfasst wird, um dem Verkehrsteilnehmer eine Orientierung im Straßenverkehr zu ermöglichen. Zugewiesen im Zusammenhang mit dieser Offenbarung bedeutet, dass jeder Teil einer Entfernungsmesseinheit funktionell mit einem Objekt oder Teilen eines Objekts verbunden und/oder physikalisch daran befestigt oder vollständig darin eingebettet sein kann. Entsprechend der Offenbarung umfasst das System ferner eine Erfassungs- und Informationseinheit, die dem zweiten Objekt zugeordnet werden soll und so konfiguriert ist, dass sie den von der ersten Sendeeinheit ausgesandten Signalimpuls erfasst und in Abhängigkeit vom Erfassungsergebnis ein von den menschlichen Sinnen wahrnehmbares Informationssignal ausgibt (z.B. Berührung, Sehen, Hören, Riechen, Schmecken, Temperaturfühlen, Empfinden unhörbarer akustischer Frequenzen, Gleichgewicht, magnetische Wahrnehmung und dergleichen).
  • Ein Verkehrsteilnehmer kann eine Person sein, die am Straßenverkehr teilnimmt, oder ein entsprechendes Fahrzeug, das von einer solchen Person benutzt wird. Im Hinblick auf ein Fahrzeug als Verkehrsteilnehmer kann das erfinderische System auch ohne aktives Fahren des Fahrzeugs benutzt werden, z.B. um das Fahrzeug als Hindernis zu erkennen. So kann das erfinderische System auch dann Nutzen stiften, wenn sich die Verkehrsteilnehmer im Allgemeinen nicht bewegen.
  • Das erste und zweite Objekt, das einen Verkehrsteilnehmer repräsentiert, kann ein Objekt sein, das zwar mobil ist, aber dennoch bei Verwendung eine Repräsentation des Verkehrsteilnehmers liefert. Ein entsprechendes mobiles Objekt kann von verschiedenen Verkehrsteilnehmern benutzt werden, z.B. muss eine Person, die verschiedene Autos besitzt, nicht jedes Auto mit einem solchen Objekt ausstatten. Beispiele für mobile Objekte sind tragbare elektronische Geräte, Kleidungsstücke, wie später erläutert, Zubehör, wie Stöcke, oder andere Gegenstände, die mit Verkehrsteilnehmern in Verbindung stehen. Alternativ kann der Gegenstand in ein Fahrzeug eingebaut sein, z.B. in ein Auto, ein Motorrad, ein Fahrrad, einen Rollstuhl, einen Rollator oder ähnliches. Der Einbau des Gegenstandes gewährleistet eine ständige Verfügbarkeit des Gegenstandes bei der Benutzung des Fahrzeugs. Mit anderen Worten, der Gegenstand neigt nicht dazu, vergessen zu werden oder verloren zu gehen. Darüber hinaus kann durch den Einbau oder zumindest die Verbindung des ersten und/oder zweiten Objekts mit einem Fahrzeug, das von einem Verkehrsteilnehmer benutzt wird, die bereits vorhandene Stromversorgung des Fahrzeugs, wie eine Batterie oder ein Dynamo, genutzt werden, um die Betriebsbereitschaft sicherzustellen.
  • Die Entfernungsmessungseinheit, die dem ersten Objekt zugeordnet werden soll, und die Erfassungs- und Informationseinheit, die dem zweiten Objekt zugeordnet werden soll, können getrennte Einheiten sein, die an dem jeweiligen Objekt angebracht oder anderweitig verbunden werden, um eine Positionsbeziehung herzustellen. Alternativ können die Einheiten in die jeweiligen Objekte eingebaut werden. Ähnlich wie bei der Beschreibung mobiler oder eingebauter Objekte können separate oder eingebaute Einheiten jeweils ihre eigenen Vorteile bieten.
  • In einigen Ausführungsformen ist die Abstandsmesseinheit ein LIDAR-Sensorgerät und die erste Emissionseinheit ist ein erstes LIDAR-Sensorsystem, das eine LIDAR-Lichtquelle umfasst und so konfiguriert ist, dass es elektromagnetische Signalimpulse emittiert, in einigen Ausführungen in einem Infrarot-Wellenlängenbereich, insbesondere in einem Wellenlängenbereich von 850 nm bis 8100 nm, und die Erfassungs- und Informationseinheit einen optischen Detektor bereitstellt, der dazu geeignet ist, die elektromagnetischen Signalimpulse zu erfassen, und/oder die Abstandsmesseinheit ein Ultraschallsystem ist und die erste Sendeeinheit so konfiguriert ist, dass sie akustische Signalimpulse aussendet, in einigen Ausführungsformen in einem Ultraschallbereich, und die Erfassungs- und Informationseinheit einen Ultraschalldetektor bereitstellt, der dazu geeignet ist, die akustischen Signalimpulse zu erfassen. In diesem Zusammenhang bezieht sich der Begriff „optisch“ auf den gesamten elektromagnetischen Wellenlängenbereich, d.h. vom Ultraviolett- über den Infrarot- bis zum Mikrowellenbereich und darüber hinaus. In einigen Ausführungsformen kann der optische Detektor eine Detektionsoptik, ein Sensorelement und einen Sensorcontroller aufweisen.
  • Das LIDAR-Sensorgerät ermöglicht die Messung von Abständen und/oder Geschwindigkeiten und/oder Trajektorien. Die Kenntnis einer Geschwindigkeit eines anderen Verkehrsteilnehmers aufgrund der Geschwindigkeit des zweiten Objekts kann die Einleitung eines entsprechenden Folgeverfahrens unterstützen. In diesem Zusammenhang kann die Abstandsmesseinheit so konfiguriert werden, dass sie die Geschwindigkeit des zweiten Objekts, die Geschwindigkeit selbst und die Bewegungsrichtungen zur Risikobeurteilung im Hinblick auf eine mögliche Kollision berücksichtigt. Alternativ können diese Überlegungen von einer separaten Steuereinheit des ersten Objekts durchgeführt oder auf andere Weise mit dem Verkehrsteilnehmer verbunden werden, basierend auf den von der Entfernungsmesseinheit gelieferten Entfernungs- und Geschwindigkeitsinformationen.
  • Gemäß der Offenbarung kann ein LIDAR-Sensorgerät eine Abstandsmesseinheit und einen Detektor enthalten. Ein LIDAR-Sensorsystem kann eine LIDAR-Sensormanagement-Software zur Verwendung in einem LIDAR-Sensormanagementsystem enthalten und kann auch ein LIDAR-Datenverarbeitungssystem umfassen.
  • Das LIDAR-Sensorgerät ist in einigen Ausführungsformen so angepasst, dass es Messungen innerhalb eines dreidimensionalen Detektionsraumes für eine zuverlässigere Detektion von Verkehrsteilnehmern ermöglicht. Bei einer zweidimensionalen Detektion, bei der Signalimpulse in einer im Wesentlichen horizontalen Ausrichtung zueinander ausgesendet werden, kann es vorkommen, dass zweite Objekte aufgrund von Hindernissen, die sich in einer Ausbreitungsrichtung der Signalimpulse vor dem zweiten Objekt befinden, nicht erkannt werden. Die Vorteile eines dreidimensionalen Erfassungsraumes sind nicht auf den Einsatz eines LIDAR-Sensors beschränkt, sondern gelten auch für andere Entfernungsmesstechniken, unabhängig davon, ob das ausgesendete Signal optisch oder akustisch ist.
  • Die Emission von optischen Impulsen in einem infraroten Wellenlängenbereich durch die erste Emissionseinheit vermeidet die Störung des Straßenverkehrs durch sichtbare Lichtsignale, die keine Informationen liefern sollen, sondern nur zu Messzwecken verwendet werden.
  • In ähnlicher Weise bietet die Verwendung eines Ultraschallsystems als Entfernungsmessgerät zur Aussendung akustischer Signalimpulse, bei einigen Implementierungen in einem Ultraschallbereich, den Vorteil, dass die Signalimpulse in der Regel von Menschen nicht gehört werden und als solche die Verkehrsteilnehmer nicht stören. Bei der Auswahl eines bestimmten Ultraschallbereichs kann auch das Hörvermögen von Tieren berücksichtigt werden. Damit sollen nicht nur Haustiere im Allgemeinen, sondern insbesondere „Funktionstiere“ wie Blindenführhunde oder Polizeipferde vor Irritationen in einer bereits lauten Umgebung geschützt werden.
  • Ein Ultraschallsystem wird in einigen Ausführungsformen für kurze Reichweiten von wenigen Metern eingesetzt. Ein System mit einem Ultraschallsystem kombiniert mit einem LIDAR-Sensor ist geeignet, kurze und lange Reichweiten mit ausreichender Präzision abzudecken.
  • Die Erfassungs- und Informationseinheit stellt einen Detektor zur Verfügung, der geeignet ist, die jeweiligen Signalimpulse zu detektieren, z.B. bei Verwendung einer Sendeeinheit, die optische Signalimpulse aussendet, einen optischen Detektor oder bei Verwendung einer Sendeeinheit, die akustische Signalimpulse aussendet, einen akustischen Detektor. Die Detektion von optischen Signalimpulsen in einem infraroten Wellenlängenbereich kann durch eine oder mehrere Fotodioden als Detektor der Erfassungs- und Informationseinheit des dem zweiten Objekt zugeordneten realisiert werden.
  • Um die Erkennung von Signalimpulsen von anderen Sendern als den zuerst zu erkennenden Objekten zu vermeiden, können die Detektoren so ausgelegt sein, dass sie nur ausgewählte Signale empfangen. Entsprechende Filter, wie Bandfilter, die für den Empfang von Signalen in einem bestimmten Bereich angepasst sind, können vorteilhaft eingesetzt werden. Zum Beispiel bietet ein optischer Detektor einen Bandfilter, der nur Wellenlängen durchlässt, die typischerweise von LIDAR-Sensoren emittiert werden, wie 905 nm und/oder 1050 nm und/oder 1550 nm. Das gleiche Prinzip gilt für akustische Detektoren.
  • Das System kann auch eine Entfernungsmesseinheit bereitstellen, die so konfiguriert ist, dass sie sowohl optische als auch akustische Signalimpulsarten durch eine oder mehrere Emissionseinheiten aussendet. Das Emittieren verschiedener Arten von Signalimpulsen kann Redundanz bieten, wenn der Detektor der Erfassungs- und Informationseinheit so konfiguriert ist, dass er beide Signalimpulstypen erkennt, oder die Erfassungs- und Informationseinheit bei Signalstörungen beide entsprechenden Detektortypen bereitstellt. Ferner können zwei Signaltypen die Erkennung des ersten Objekts unabhängig vom Detektortyp der Erfassungs- und Informationseinheit des zweiten Objekts ermöglichen, wobei es sich hier um einen optischen oder akustischen Detektor handelt.
  • Im Prinzip können der oder die Detektoren der Erfassungs- und Informationseinheit Punktdetektoren oder Flächendetektoren sein, wie ein CCD-Array. Einzelne Detektoren können eine Reihe von Detektoren in einer Linien- oder Flächenanordnung bilden.
  • Vorteilhafterweise stellt die Erfassungs- und Informationseinheit einen bzw. den Detektor zur Verfügung, um optische oder akustische Signalimpulse zu detektieren, wobei der Detektor eine Anordnung aus einer Vielzahl von Detektorelementen mit Akzeptanzwinkeln bereitstellt, die sich jeweils in verschiedene Richtungen öffnen, wobei sich die Akzeptanzwinkel überlappen, um eine 360°-Rundumdetektion in horizontaler Richtung zu ermöglichen, wenn sie dem zweiten Objekt zugeordnet sind.
  • Die Akzeptanzwinkel bilden einen Überlappungsbereich in einem Abstand von den Detektorelementen, der von den jeweiligen Akzeptanzwinkeln der Detektorelemente, der Anzahl der Detektorelemente und deren Abstand abhängt. Um die Anzahl der Detektorelemente zu reduzieren, kann ein Mindestabstand gewählt werden. Der Mindestabstand kann als Abstands-Schwellenwert definiert werden, von dem angenommen werden kann, dass er keine signifikante Verringerung des Risikos durch eine Warnung bewirkt, wenn der Abstand des detektierten ersten Objekts unter den Schwellenwert fällt. Wenn z.B. der Detektor der Erfassungs- und Informationseinheit das erste Objekt in einem Abstand von weniger als 30 cm detektiert, kann jede Warnung bereits zu spät kommen. In einer Variante kann der Mindestabstand in Abhängigkeit von der tatsächlichen Geschwindigkeit des ersten und/oder zweiten Objekts oder einer Relativgeschwindigkeit zwischen den Objekten gewählt werden. Der Mindestabstand nimmt mit zunehmender Geschwindigkeit zu. Da die Anzahl der Detektoren nicht reduziert werden darf, da sie sowohl niedrigere als auch höhere Geschwindigkeiten abdecken müssen, müssen zumindest nicht alle Detektoren mit positiver Auswirkung auf den Stromverbrauch betrieben werden.
  • Eine 360°-Rundum-Erkennung ermöglicht nicht nur eine frühere Warnung, sondern bietet auch mehr Flexibilität bei der Positionierung der Erfassungs- und Informationseinheit oder des zweiten Objekts.
  • Das von der Erfassungs- und Informationseinheit ausgegebene, von menschlichen Sinnen wahrnehmbare Informationssignal ist nach einer Ausgestaltung der Offenbarung ein optisches Lichtsignal mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm und/oder ein akustisches Signal mit Tönen in einem Frequenzbereich von 16 Hz bis 20.000 Hz und/oder ein mechanisches Schwingungssignal mit Schwingungen in einem Frequenzbereich von 1 Hz bis 500 Hz. Der akustische Frequenzbereich kann entsprechend dem Alter oder den Hörfähigkeiten einer Person oder eines Tieres wählbar sein.
  • Das Informationssignal ist vorteilhaft so gewählt, dass es sich von anderen Signalen unterscheidet, die in der Umgebung eines Verkehrsteilnehmers auffallen können. Beispielsweise sollte sich ein akustisches Signal der Erfassungs- und Informationseinheit von einem Signal unterscheiden, das von einem Telefongerät für eingehende Anrufe bereitgestellt wird. Darüber hinaus können optische Lichtsignale so gewählt werden, dass Benutzer, die unter Rot-Grün-Blindheit leiden, nicht mit Problemen konfrontiert werden, die sich aus ihrer Unzulänglichkeit ergeben. Ein mechanisches Vibrationssignal kann ein Informationssignal liefern, das unabhängig von Umgebungsgeräuschen und Lichtverhältnissen wahrnehmbar ist. Es muss jedoch ein physischer Kontakt oder zumindest ein Übertragungsweg hergestellt werden. Wenn ein Schwingungssignal für einen Verkehrsteilnehmer möglicherweise schwer zu interpretieren ist, müssen außerdem mehr als eine Information, insbesondere quantitative Informationen, bereitgestellt werden. Da eine vorgegebene Einstellung möglicherweise nicht für jeden einzelnen Verkehrsteilnehmer oder jedes zweite Objekt geeignet ist, kann die Erfassungs- und Informationseinheit eine Auswahlmöglichkeit bieten, um die Auswahl mindestens eines Signaltyps und/oder mindestens eines Signalparameters innerhalb eines Signaltypbereichs zu ermöglichen. Unabhängig vom einzelnen Verkehrsteilnehmer oder dem zweiten Objekt können die optischen Lichtsignale nicht nur zur Information des durch das zweite Objekt repräsentierten Verkehrsteilnehmers verwendet werden, sondern unterstützen bei entsprechender Auslegung der optischen Lichtsignale auch den Verkehrsteilnehmer und die Informationserkennung durch andere.
  • Die Signalerzeugungseinrichtung darf nicht auf die Ausgabe eines bestimmten Typs von Informationssignalen beschränkt sein, sondern kann auch verschiedene Arten von Informationssignalen parallel und/oder in Reihe liefern. Beispielsweise können intelligente Gläser eine Durchgangsrichtung und eine Durchgangsseite eines ersten Objekts durch optische Lichtsignale anzeigen, während das Seitenteil oder der Glasrahmen auf der Durchgangsseite parallel dazu ein mechanisches und/oder akustisches Signal abgibt. Wenn das erste Objekt seine relative Position zum zweiten Objekt ändert, können die sichtbaren oder akustischen Signale ihre Position auf ihrer jeweiligen Vorrichtung, z.B. dem Display eines Smartphones oder dem Rahmen eines Smartglases, ändern.
  • Das von den menschlichen Sinnen wahrnehmbare Informationssignal, das von der Erfassungs- und Informationseinheit ausgegeben wird, kann kontinuierlich oder gepulst sein. Optische Lichtsignale können weißes oder farbiges Licht oder eine Reihe verschiedener Farben sein, die z.B. mit zunehmendem Risiko von grün nach rot wechseln. In einigen Ausführungsformen werden optische Lichtsignale in einer Sichtlinie des durch das zweite Objekt dargestellten Verkehrsteilnehmers ausgestrahlt, um die Wahrnehmung durch den Verkehrsteilnehmer sicherzustellen. Darüber hinaus können optische Lichtsignale auch in seitlicher oder rückwärtiger Richtung ausgestrahlt werden, um von anderen Verkehrsteilnehmern erkannt zu werden und eine Information zu erhalten, die sich auf die Erkennung eines ersten Objekts bezieht und/oder darauf, dass der durch das zweite Objekt repräsentierte Verkehrsteilnehmer kurzfristig reagieren kann, z.B. durch Einleiten einer plötzlichen Bremsung. Die gleichen Prinzipien können für akustische Signale gelten.
  • In einigen Ausführungsformen umfasst die Erfassungs- und Informationseinheit einen bzw. den Detektor zur Erfassung optischer oder akustischer Signalimpulse und eine Steuervorrichtung und eine Signalerzeugungsvorrichtung, die miteinander und mit dem Detektor verbunden sind, wobei die Steuervorrichtung so konfiguriert ist, dass sie das von dem Detektor erfasste Signal interpretiert und die Signalerzeugungsvorrichtung so steuert, dass das ausgegebene Informationssignal in einer Qualität, insbesondere der Frequenz bzw. Wellenlänge und/oder der Impulsdauer und deren zeitlicher Änderung ausgegeben wird, die von menschlichen Sinnen in Abhängigkeit von dem Erfassungsergebnis wahrgenommen wird.
  • Ein Detektionsergebnis kann eine Geschwindigkeit im Allgemeinen und/oder eine Geschwindigkeit einer Abstandsverringerung und/oder ein Abstand und/oder eine Richtung eines detektierten Verkehrsteilnehmers sein, der durch ein erstes Objekt repräsentiert wird. Die Frequenz kann z.B. mit abnehmendem Abstand erhöht werden. Der Begriff Frequenz bezieht sich in diesem Zusammenhang auf eine Veränderung des Tons oder der Farbe und/oder der Wiederholungsrate des Informationssignals. Im Allgemeinen kann die Qualität des ausgesendeten Informationssignals das Risiko einer gegenwärtigen Situation im Straßenverkehr darstellen, indem die Wahrnehmungsparameter, die mit zunehmendem Risiko wahrgenommen werden sollen, erhöht werden.
  • In einer Verkörperung bietet die signalerzeugende Vorrichtung im Falle der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm eine Reihe von Lichtquellen, in einigen Implementierungen LEDs, Mini-LEDs oder Mikro-LEDs, die so angeordnet sind, dass sie eine zwei- oder dreidimensionale Information anzeigen.
  • LEDs sind einfach zu implementieren und bieten in der Regel eine lange Lebensdauer und damit Zuverlässigkeit, was insbesondere für Sicherheitsanwendungen wichtig ist.
  • Als Variante oder zusätzlich umfasst die Signalerzeugungseinrichtung im Falle der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm ein starres oder flexibles Flachbildschirmgerät und/oder ein Smartphone, eine Smart-Watch, einen Motorradhelm, ein Visier oder eine Augmented-Reality-Einrichtung.
  • Ein Anzeigegerät kann nicht nur ein optisches Lichtsignal als solches liefern, sondern auch ein optisches Lichtsignal in Form eines vorgegebenen Anzeigeelements, wie z.B. eines Pfeils, der eine Annäherungsrichtung eines ersten Objekts anzeigt, oder eines Symbols, wie z.B. eines Ausrufezeichens, die beide eine bestimmte Straßenverkehrssituation oder ein damit verbundenes Risiko darstellen. Darüber hinaus kann das Anzeigeelement weitere Informationen anzeigen, z.B. den quantitativen Wert einer Entfernung und/oder einer Geschwindigkeit.
  • Als weitere Variante oder zusätzlich umfasst die Signalerzeugungseinrichtung für den Fall der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm eine oder mehrere Lichtquellen, die jeweils einen oder mehrere mit der jeweiligen Lichtquelle gekoppelte Lichtwellenleiter bereitstellen und in der Lage sind, Licht über die Länge des Lichtwellenleiters auszusenden, und/oder die Signalerzeugungseinrichtung für den Fall der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm eine oder mehrere selbstleuchtende Fasern.
  • Optische Wellenleiter ermöglichen die flexible Führung eines optischen Lichtsignals zu einem Zielort durch Totalreflexion. Optische Wellenleiter können auch so ausgelegt werden, dass sie Licht über ihre Länge oder definierte Bereiche ausgeben. Selbstleuchtende Fasern oder Garne können Licht passiv oder aktiv emittieren. Dementsprechend können optische Lichtsignale über größere und/oder mehrere Bereiche verteilt werden, um besser wahrgenommen zu werden. Abhängig vom Design können Wellenleiter und/oder selbstleuchtende Fasern so angeordnet sein, dass sie lichtoptische Signale mit einer vorgegebenen Form und/oder verschiedenen Farben oder Schattierungen liefern.
  • Alternativ oder zusätzlich zur Verwendung von Wellenleitern oder selbstleuchtenden Fasern können optische Lichtsignale in planare Flächensegmente eingekoppelt werden, um nach Streuung und Homogenisierung innerhalb des Segments an mindestens einer Ausgangsfläche ausgegeben zu werden.
  • In einem weiteren Aspekt der Offenbarung umfasst das System ein Kleidungsstück, in einigen Implementierungen ein textiles Kleidungsstück, das dem zweiten Objekt zugeordnet werden soll, um das zweite Objekt mit der Erfassungs- und Informationseinheit zu versehen.
  • Beispiele für ein Kleidungsstück sind Jacken, Westen, insbesondere Sicherheitswesten, Hosen, Gürtel, Helme, Rucksäcke oder Schulranzen. Die Erfassungs- und Informationseinheit kann in das Kleidungsstück eingearbeitet oder daran befestigt sein oder in einer Tasche oder einem ähnlichen Aufnahmeteil des Kleidungsstücks untergebracht sein. Im Falle der Verwendung von Wellenleitern oder selbstleuchtenden Fasern können die Wellenleiter oder Fasern in textile Kleidungsstücke oder textile Teile eines Kleidungsstücks eingewebt sein. Alternativ bilden die Wellenleiter oder Fasern die textilen Kleidungsstücke bzw. Teile davon.
  • Da textile Kleidungsstücke in der Regel gewaschen werden müssen, sind die Erfassungs- und Informationseinheit und ihre Komponenten wasserdicht oder mit einem wasserdichten Gehäuse versehen. Alternativ sind die Erfassungs- und Informationseinheit oder zumindest empfindliche Teile davon abnehmbar, z.B. um sie von jeglichen Waschvorgängen auszuschließen.
  • Nach einem weiteren Aspekt dieses Aspekts umfasst das System eine an die Erfassungs- und Informationseinheit angeschlossene Einrichtung zur Strom- und Spannungsversorgung und in einigen Ausführungsformen eine daran anzukoppelnde Stromquelle, insbesondere eine Batterie oder einen wiederaufladbaren Akkumulator.
  • Die Verbindung ermöglicht den einfachen Austausch von Strom- und Stromversorgungen, wie Batterien, Netzbänken und anderen tragbaren Stromquellen, oder deren Entfernung. Darüber hinaus kann eine Schnittstelle zum Anschluss einer Strom- und Stromversorgung den Zugang zu Strom- und Stromversorgungen anderer Systeme ermöglichen und die Anzahl der Stromquellen entsprechend reduzieren.
  • In einigen Ausführungsformen ist die erste Sendeeinheit der Abstandsmesseinheit des ersten zu erfassenden Objekts so konfiguriert, dass sie eine Information über eine Position, einen Abstand, eine Geschwindigkeit und/oder eine Beschleunigung des ersten zu erfassenden Objekts durch die Signalimpulse bzw. eine Reihe von Signalimpulsen durch Frequenzmodulation oder Pulsmodulation oder einen Impulscode überträgt, wobei die Steuereinrichtung der Erfassungs- und Informationseinheit die zusätzliche Information interpretiert, die von dem (den) von dem Detektor detektierten Signalimpuls(en) geliefert wird, und die zusätzliche Information mit der Position, Geschwindigkeit und/oder Beschleunigung des zugehörigen zweiten Objekts vergleicht und das Informationssignal in Abhängigkeit von diesem Vergleich ausgibt.
  • Diese Art des Vergleichs berücksichtigt nicht nur die Position und die Bewegungsmerkmale des Verkehrsteilnehmers, der das erste Objekt repräsentiert, sondern auch ihre Beziehung zum zweiten Objekt. Die Position und die Bewegungsmerkmale des ersten Objekts in Bezug auf die Frequenzmodulation können beispielsweise einen Entfernungswert entsprechend der Frequenz der Signalimpulse liefern. Eine Pulsmodulation kann die gleiche Information durch die Verwendung unterschiedlicher Signalimpulse oder Signalimpulsamplituden liefern. Ein Impulscode kann solche Informationen ähnlich wie bei der Verwendung von Morsezeichen liefern.
  • Nach einem weiteren Aspekt dieses Aspekts stellt die Erfassungs- und Informationseinheit eine zweite Sendeeinheit zur Verfügung, die so konfiguriert ist, dass sie einen Signalimpuls oder eine Reihe von Signalimpulsen über einen optischen oder akustischen Übertragungsweg an einen Detektor des ersten zu erfassenden Objekts sendet, in einigen Ausführungsformen der gleiche Übertragungsweg, den der Detektor der Erfassungs- und Informationseinheit verwendet, um den Signalimpuls oder die Signalimpulse der ersten Sendeeinheit des ersten zu erfassenden Objekts zu empfangen, wobei die Steuervorrichtung so konfiguriert ist, dass sie eine Position, einen Abstand, eine Geschwindigkeit und/oder eine eigene Beschleunigung bestimmt und diese Information an den Detektor des ersten durch Frequenzmodulation oder Impulsmodulation oder einen Impulscode des Signalimpulses oder der Signalimpulse zu erfassenden Objekts überträgt.
  • Die bilaterale Kommunikation zwischen dem ersten und dem zweiten Objekt ermöglicht es dem ersten Objekt, die gleichen oder ähnliche Informationen über das zweite Objekt zu erhalten, wie bereits im Zusammenhang mit dem zweiten Objekt beschrieben, das das erste Objekt erkennt. Da verschiedene Beispiele für die Bereitstellung auffälliger Informationen beschrieben werden, bezieht sich der Begriff „ähnlich“ auf mindestens eines der Beispiele, während das zweite Objekt andere Wege der Informationsbereitstellung nutzen kann. Sowohl die Information selbst als auch die Art der Ausgabe solcher Informationen ist „ähnlich“ im Sinne einer Erkennungsinformation, kann aber in ihrer spezifischen Umsetzung variieren. So kann z.B. ein zweites Objekt, das einen Fußgänger repräsentiert, ein Entfernungssignal eines ersten Objekts empfangen, das als optisches Lichtsignal ausgegeben wird, während ein erstes Objekt, das einen Fahrer eines Kraftfahrzeugs repräsentiert, ein akustisches Signal über die Entfernung und Bewegungsrichtung des zweiten Objekts empfängt.
  • Alternativ oder zusätzlich sendet die zweite Sendeeinheit ein Signal aus, das Informationen über den durch das zweite Objekt repräsentierten Verkehrsteilnehmer enthält. Solche Informationen können die Art des Verkehrsteilnehmers sein, z.B. Fußgänger oder Radfahrer, sein Alter, z.B. unter oder über einem bestimmten Schwellenwert, Behinderungen, die im Straßenverkehr zu berücksichtigen sind, und/oder eine eindeutige Identität, um die von der zweiten Sendeeinheit ausgesandten Informationssignale der Identität zuzuordnen.
  • Der Detektor des ersten Objekts zur Erfassung der von der zweiten Sendeeinheit ausgesandten Signalimpulse kann ein Detektor der Detektionseinheit der Entfernungsmesseinheit oder ein separater Detektor sein.
  • In einigen Ausführungsformen umfasst die Erfassungs- und Informationseinheit eine Speichereinheit und eine Eingabeeinheit, wobei in der Speichereinheit über die Eingabeeinheit Schwellenwerte für Positionen, Abstände, Geschwindigkeiten, Beschleunigungen und/oder Kombinationen davon eingestellt werden können, wobei keine oder eingeschränkte Informationen von der zweiten Sendeeinheit an das erste zu erfassende Objekt übertragen werden, falls ein entsprechender Wert, der von dem erfassten Signalimpuls oder einer Reihe von Signalimpulsen geliefert wird, einen eingestellten Schwellenwert oder Kombinationen davon über- oder unterschreitet.
  • Die Einstellung von Schwellenwerten verhindert die Ausgabe von Informationen durch die zweite Sendeeinheit der Erfassungs- und Informationseinheit für jeden erkannten Signalimpuls. Insbesondere in einer Umgebung mit vielen Verkehrsteilnehmern kann die Anzahl der von der zweiten Sendeeinheit an das erste Objekt gesendeten Informationen sonst zu ununterscheidbaren Informationssequenzen führen, die die Fähigkeit, die wichtigsten Warnungen zu erkennen, verringern. Dies würde eher irritieren als die Orientierung zu unterstützen und die Sicherheit im Straßenverkehr zu erhöhen. Weiterhin ist davon auszugehen, dass sich ein Benutzer an ein mehr oder weniger ständig blinkendes oder piependes Gerät gewöhnt, ohne dass er darauf achtet, wenn nicht sogar ein solches Gerät oder eine entsprechende Funktionalität ausgeschaltet wird. Dementsprechend kann die Ausgabe von Informationen durch die Verwendung von Schwellenwerten auf die erforderlichen oder gewünschten Informationen beschränkt werden.
  • Schwellenwerte können nicht nur quantitative Werte sein, sondern auch qualitative Eigenschaften umfassen, wie z.B. die Übertragung von Informationen nur dann, wenn sich ein zweites Objekt bewegt. Die Schwellen können auch reziproke Beziehungen berücksichtigen, z.B. wenn sich ein zweites Objekt in einer Richtung x mit einer Geschwindigkeit y bewegt, wird ein Positionssignal an das erste Objekt gesendet, wenn die gemessene Entfernung unter z fällt. Als weiteres Beispiel, das die Grundprinzipien berücksichtigt, wird eine Information von der zweiten Sendeeinheit nicht gesendet, wenn die Geschwindigkeit des ersten Objekts unter einer bestimmten Schwelle liegt. Die zweite Sendeeinheit kann jedoch auch andere Informationssignale übertragen, die nicht von Schwellenwerten abhängig sind. Ferner können die erkannten Informationssignale auch priorisiert werden. Dementsprechend kann die zweite Sendeeinheit nur eine Information aussenden, die aufgrund einer definierten Rangfolge oder eines zugrunde liegenden Algorithmus das höchste Risiko darstellt.
  • Für das signalerzeugende Gerät der Erfassungs- und Informationseinheit können die gleichen Prinzipien der Schwelleneinstellung gelten, was die Ausgabe eines für die menschlichen Sinne wahrnehmbaren Informationssignals in Abhängigkeit vom Erkennungsergebnis betrifft. Insbesondere kann die Steuereinrichtung der Erfassungs- und Informationseinheit Schwellenwerte und/oder die Priorisierung von Signalimpulsen steuern, die von einer Vielzahl von ersten Objekten detektiert werden. Die Steuereinrichtung steuert die Signalerzeugungseinrichtung so, dass z.B. nur ein erstes Objekt mit dem geringsten Abstand und/oder ein erstes Objekt mit der höchsten Geschwindigkeit und/oder erste Objekte mit einer Bewegungsrichtung, die möglicherweise den Weg des zweiten Objekts kreuzen, die Erzeugung eines Informationssignals bewirken. Um einen detektierten Signalimpuls im Hinblick auf eine potentielle Kreuzung von Bewegungspfaden zu interpretieren, kann der Signalimpuls von einer Pfadinformation begleitet werden, z.B. basierend auf einem aktivierten Blinker oder einer Wegführung durch ein Navigationssystem.
  • In einem weiteren Aspekt umfasst die Erfassungs- und Informationseinheit eine Funkkommunikationseinheit. Die Funkkommunikationseinheit kann Teil der zweiten Sendeeinheit sein oder separat und überträgt Informationssignale als elektrisches Signal oder Funksignal, insbesondere ein Bluetooth-Signal, an eine weitere Signalerzeugungseinrichtung. Die weitere Signalerzeugungseinrichtung kann dem durch das zweite Objekt repräsentierten Verkehrsteilnehmer oder anderen Verkehrsteilnehmern zugeordnet werden. In Bezug auf den Verkehrsteilnehmer, der durch das zweite Objekt repräsentiert wird, kann das zweite Objekt in eine Position gebracht werden, in der die von der ersten Sendeeinheit ausgesandten Signalimpulse besser erfasst werden können, während es weniger gut in der Lage ist, einen Verkehrsteilnehmer mit entsprechenden Informationssignalen zu versorgen. Außerdem können andere Verkehrsteilnehmer, die nicht mit einer Erfassungs- und Informationseinheit ausgestattet sind, Informationen über die Verkehrssituation und potenzielle Risiken in der Nähe erhalten. Die weitere Signalerzeugungseinheit kann ein intelligentes Gerät sein, wie z.B. Smartphones, Smart-Uhren oder Augmented-Reality-Geräte, z.B. eine Smart Brille oder ein Head Mounted Display.
  • Die Offenbarung richtet sich auch auf ein Verfahren zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer, der ein erstes Objekt darstellt, umfassend:
  • Aussenden eines Signalimpulses zur Entfernungsbestimmung durch eine erste Sendeeinheit einer einem ersten Objekt zugeordneten Entfernungsmesseinheit, Reflektieren des Signalimpulses an einem zweiten Objekt, das einen weiteren Verkehrsteilnehmer repräsentiert, Erfassen des reflektierten Signals durch eine Erfassungseinheit der Entfernungsmesseinheit und Bestimmen der Entfernung aufgrund der gemessenen Laufzeit, weiteres Erfassen des von der ersten Sendeeinheit ausgesandten Signalimpulses durch eine dem zweiten Objekt zugeordnete Erfassungs- und Informationseinheit und Ausgeben eines für menschliche Sinne wahrnehmbaren Informationssignals durch die Erfassungs- und Informationseinheit in Abhängigkeit vom Erfassungsergebnis.
  • Das Verfahren bietet die gleichen Vorteile, die bereits für das offengelegte System und die entsprechenden Aspekte beschrieben wurden.
  • In einem anderen Aspekt kann das Verfahren weitere Schritte in Bezug auf die beschriebenen Systemverkörperungen beinhalten. So kann das Verfahren beispielsweise die Aussendung eines Signalimpulses oder einer Reihe von Signalimpulsen an einen Detektor des ersten Objekts oder eines anderen Objekts, das einen anderen Verkehrsteilnehmer oder ein Verkehrssteuerungssystem repräsentiert, über einen optischen oder akustischen Übertragungsweg umfassen, wobei in einigen Ausführungsformen derselbe Übertragungsweg von der Erfassungs- und Informationseinheit verwendet wird, um den Signalimpuls oder die Signalimpulse der ersten Sendeeinheit zu empfangen. Alternativ oder zusätzlich können Funksignalimpulse ausgesendet werden. In einigen Implementierungen können der Signalimpuls oder die Signalimpulse verschlüsselt sein. Der Signalimpuls oder die Signalimpulse können Informationssignale, wie eine Position, eine Entfernung, eine Geschwindigkeit und/oder eine Beschleunigung des zweiten Objekts bzw. der Erfassungs- und Informationseinheit oder des Steuergeräts, das die Erfassungs- und Informationseinheit und damit das zweite Objekt darstellt, übertragen. Weitere Informationen können persönliche Informationen über den Verkehrsteilnehmer, der durch das zweite Objekt repräsentiert wird, umfassen, sind aber nicht darauf beschränkt, z.B. sein Alter, Behinderungen oder andere Indikatoren, die die individuelle Leistung im Straßenverkehr beeinflussen können. In einigen Implementierungen können insbesondere persönliche Informationen einer Verschlüsselung unterliegen.
  • Die Offenbarung ist auch auf ein Computerprogrammprodukt gerichtet, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert ist, das eine Vielzahl von Anweisungen zur Ausführung des Verfahrens, wie es in dem offengelegten System beschrieben und/oder zu implementieren ist, enthält.
  • Das Medium kann eine Komponente des Systems oder ein übergeordneter Anbieter, z.B. ein Cloud-Service, sein. Das Computerprogrammprodukt oder Teile davon können Gegenstand eines Downloads auf ein intelligentes Gerät als App sein. Das Computerprogrammprodukt oder Teile davon können den Zugang zum Internet und zu cloudbasierten Diensten ermöglichen und/oder erleichtern.
  • Weitere Vorteile, Aspekte und Details der Offenbarung sind Gegenstand der Ansprüche (Beispiel 1x, 2x, 3x .....), der folgenden Beschreibung bevorzugter Ausführungsformen unter Anwendung der Grundsätze der Offenbarung und der Zeichnungen. In den Abbildungen bezeichnen identische Referenzzeichen identische Merkmale und Funktionen.
  • 8 zeigt eine erklärende Straßenverkehrssituation mit einem autonom angetriebenen Elektroauto als Verkehrsteilnehmer 802 repräsentiert durch ein erstes Objekt 820, einem Fußgänger als Verkehrsteilnehmer 803 repräsentiert durch ein zweites Objekt 830 und einem Radfahrer als Verkehrsteilnehmer 804 repräsentiert durch ein weiteres zweites Objekt 840. Das System 800 zur Erfassung des durch ein erstes Objekt 820 dargestellten Verkehrsteilnehmers 802 umfasst ein erstes Objekt 820, das in einigen Ausführungsformen als Teil eines allgemeinen Überwachungssystems in das Fahrzeug eingebaut ist, um das Fahrzeug durch das erste Objekt 820 als Verkehrsteilnehmer 802 darzustellen. Das erste Objekt 820 stellt eine Abstandsmesseinheit 821 zur Verfügung, um einen Abstand zu einem zweiten Objekt 830, 840 zu bestimmen, das, wie später beschrieben, weitere Verkehrsteilnehmer 803, 804 repräsentiert. Hier ist die Entfernungsmesseinheit 821 eine LIDAR-Erfassungseinrichtung, die eine Entfernung auf der Grundlage der Laufzeit eines Signalimpulses 8221 misst, der von einer ersten Sendeeinheit 822, hier einer LIDAR-Lichtquelle, ausgesendet, von einem zweiten Objekt 803, 804 reflektiert und von einer Erfassungseinheit 823 der Entfernungsmesseinheit 821 erfasst wird. Auch wenn nur ein Signalimpuls 8221 dargestellt ist, liefert die LIDAR-Abtasteinheit eine Vielzahl von Signalimpulsen 8221 innerhalb eines Emissionsraumes 8222, basierend auf der technischen Konfiguration der LIDAR-Abtasteinheit und/oder entsprechenden Einstellungen. Die Verkehrsteilnehmer 802, 803, 804 können mobil oder immobil, bodengestützt oder aus der Luft sein.
  • Weiterhin werden der Fußgänger als Verkehrsteilnehmer 803 und der Radfahrer als Verkehrsteilnehmer 804 jeweils durch ein zweites Objekt 830 bzw. 840 dargestellt. Als Beispiel ist das zweite Objekt 830, das den Fußgänger als Verkehrsteilnehmer 803 darstellt, ein Kleidungsstück 930, wie später mit Bezug auf beschrieben, und das zweite Objekt 840, das den Radfahrer als Verkehrsteilnehmer 804 darstellt, ist am Lenker des Fahrrads befestigt. Jedes der zweiten Objekte 830, 840 umfasst eine Erfassungs- und Informationseinheit 831, 841. Die jeweilige Erfassungs- und Informationseinheit 831, 841 kann in das zweite Objekt 830, 840 eingebaut oder anderweitig an dem zweiten Objekt befestigt oder mit diesem verbunden werden, um dem zweiten Objekt 830, 840 zugeordnet zu werden. Die Erfassungs- und Informationseinheit 831, 841 ist so konfiguriert, dass sie einen Signalimpuls 8221 erkennt, der von der ersten Sendeeinheit 822, hier von einem Detektor 833, 843, ausgesendet wird. Anstelle eines einzelnen Detektors können auch mehrere Detektoren vorgesehen werden, um den Detektionsraum zu vergrößern. Die Detektion des Signalimpulses 8221 durch einen Detektor 833, 843 wird als Beispiel zur Beschreibung des Grundprinzips angegeben. Die Detektoren 833, 843 stellen je einen Akzeptanzwinkel 8331, 8431 für die Detektion des Signalimpulses 8221 zur Verfügung, abhängig von der technischen Konfiguration oder einer individuellen Einstellmöglichkeit. Wird ein Signalimpuls 8221 von einem Detektor 8331, 8431 detektiert, so wird ein für menschliche Sinne wahrnehmbares Informationssignal in Abhängigkeit vom Detektionsergebnis ausgegeben. In der erläuternden Verkörperung in stellen die Erfassungs- und Informationseinheiten 831, 841 jeweils ein Steuergerät 834, 844 zur Verfügung, das ein signalerzeugendes Gerät 832, 842 in Abhängigkeit von verschiedenen Schwellenwerteinstellungen steuert.
  • Als Beispiel für verschiedene Schwellwerteinstellungen veranlasst das Steuergerät 833 der Erfassungs- und Informationseinheit 831 das Signalerzeugungsgerät 832 nur dann zur Ausgabe eines Informationssignals, wenn der erfasste Signalimpuls 8221 einen Abstand von weniger als 10 m anzeigt. Da ein Fußgänger als Verkehrsteilnehmer 803, repräsentiert durch das zweite Objekt 830, relativ langsam ist, sollte dieser Abstand ausreichen, um dem Fußgänger genügend Zeit zur Reaktion zu geben. Es können auch andere Einstellungen gewählt werden, z.B. wenn der Fussgänger einen mit höheren Bewegungsgeschwindigkeiten zu erwartenden Jogging-Takt ausführt. Um eine automatische Einstellung der Schwellenwerte zu ermöglichen, kann das Steuergerät 834 so konfiguriert werden, dass die Schwellenwerte in Abhängigkeit von den erfassten Bewegungseigenschaften des Fußgängers oder des ersten Objekts angepasst werden. Andererseits bewegt sich ein Radfahrer als Verkehrsteilnehmer 804 in der Regel mit sehr hoher Geschwindigkeit, so dass das Steuergerät 844 das Signalerzeugungsgerät 842 bereits dann zur Ausgabe eines Informationssignals veranlasst, wenn der erfasste Signalimpuls 8221 eine Entfernung von weniger als 20 m anzeigt. Das Steuergerät 844 kann auch so konfiguriert werden, dass es verschiedene und/oder automatische Einstellungen wie für das Steuergerät 834 beschrieben vornimmt.
  • Die Erfassungs- und Informationseinheiten 831, 841 bieten jeweils die Detektoren 833, 843, die so konfiguriert sind, dass sie infrarot-optische Signalimpulse durch eine oder mehrere Fotodioden erkennen.
  • Hier umfasst jeder Detektor 833, 843 mehrere Photodioden, die horizontal mit überlappenden Akzeptanzwinkeln um jede der Erfassungs- und Informationseinheiten 831, 841 angeordnet sind, um einen Detektionsraum für die Signalimpulse zu schaffen, die von der LI-DAR-Sensoreinrichtung emittiert werden und sich einer 360°-Rundumdetektion so weit wie möglich annähern.
  • Die Detektoren 833, 843 weisen jeweils Bandfiltern auf zur Reduzierung der Detektion auf die Haupt-LIDAR-Wellenlänge(n), um Rauschsignale auszuschließen. Hier lässt das Bandfilter nur Wellenlängen durch, die im Wesentlichen gleich 1050 nm sind. Der Begriff „im wesentlichen“ berücksichtigt die üblichen technischen Toleranzen in Bezug auf das emittierte Signal und das Bandfilter. Weiterhin können die zu übertragende(n) Wellenlänge(n) als individuelle Einstellungen oder nach einer Messung einer Signalstärke ausgewählt werden.
  • Die Signalerzeugungsgeräte 832, 842 geben unterschiedliche Informationssignale aus. Die Signalerzeugungseinrichtung 832 gibt ein optisches Lichtsignal und die Signalerzeugungseinrichtung 842 ein akustisches Signal aus. Die Signalerzeugungseinrichtungen 832, 842 können jedoch auch so konfiguriert werden, dass sie ein anderes Informationssignal oder mehrere Arten von Informationssignalen ausgeben, die von einem Detektionsergebnis, von einer individuellen Auswahl durch den jeweiligen Verkehrsteilnehmer oder automatisch in Abhängigkeit von den Umgebungsbedingungen abhängig sein können, z.B. optische Lichtsignale, wenn Lärm über einem bestimmten Schwellenwert wahrgenommen wird, oder akustische Signale, wenn eine wahrgenommene Umgebungsbeleuchtung das leichte Erkennen optischer Lichtsignale behindern kann.
  • Ferner umfassen die Erfassungs- und Informationseinheiten 831, 841 jeweils eine zweite Sendeeinheit (nicht abgebildet) zur Übertragung eines Signalimpulses oder einer Reihe von Signalimpulsen an die Detektionseinheit 823 der Entfernungsmesseinheit 821 oder einen anderen Detektor des ersten Objekts 820. Die Signalimpulse können Objektidentifizierungscodes enthalten, z.B. Objekttyp und -klassifizierung, Objektgeschwindigkeit und -bahn sowie das Verfahren der Bewegung. Die Signalimpulse liefern (liefern) dem Steuergerät 824 zusätzlich zur gemessenen Entfernung Informationen, insbesondere in Bezug auf eine Position in Form der Orientierung des zweiten Objekts 830, 840 in Bezug auf das erste Objekt 820, eine Entfernung zu Verifikationszwecken, eine Geschwindigkeit des zweiten Objekts 830, 840 und/oder eine Beschleunigung des zweiten Objekts 830, 840. Die entsprechenden Informationen werden von der Steuereinrichtung 834, 844 des zweiten Objekts 830, 840 zur Verfügung gestellt.
  • In der in dargestellten Ausführung umfasst die zweite Sendeeinheit der Erfassungs- und Informationseinheit 831 eine Funkkommunikationseinheit zur Übertragung der Informationssignale als elektrisches Signal an eine weitere Signalerzeugungseinrichtung. Die Signale können direkt oder über eine weitere Steuereinrichtung übertragen werden, um die empfangenen Signale zu verarbeiten, bevor die Signalerzeugungseinrichtung entsprechend gesteuert wird. Dabei wird ein Bluetooth-Protokoll verwendet, um ein Smartphone des Fußgängers 803 mit entsprechenden Informationen zu versorgen. Darüber hinaus können die Bluetooth-Signale auch von anderen Verkehrsteilnehmern empfangen werden. Dementsprechend wird ein Kommunikationsnetzwerk aufgebaut, um den Erfassungsraum virtuell zu erweitern oder um Verkehrsteilnehmer, die entweder mit einem System 800 ausgerüstet oder nicht ausgerüstet sind, mit entsprechenden Informationen zu versorgen, um einen Verkehrsteilnehmer 802 zu erfassen, der das erste Objekt 820 repräsentiert. Teile des Kommunikationsnetzes können, zumindest während bestimmter Zeiträume, in einem unilateralen Modus arbeiten, andere Teile des Kommunikationsnetzes können in bilateralen oder multilateralen Modi arbeiten. Zugriffsrechte, Informationssignale und andere Einstellungen können durch eine App, loT oder Cloud-Dienste verwaltet und grafisch, d.h. in Bildern, Symbolen oder Worten, auf einem geeigneten Gerät, z.B. einem Smartphone, einer Smartwatch oder einem Smart Glass (Brille), angezeigt werden.
  • Im Hinblick auf die Interaktion der Verkehrsteilnehmer und die Ausgabe von Informationssignalen ist eine weitere erläuternde Anwendung die Steuerung der Signalerzeugungseinrichtungen durch die jeweiligen Steuergeräte der Erfassungs- und Informationseinheiten auf der Grundlage der von den Funkkommunikationseinheiten gesendeten elektrischen Signale. Als Beispiel gehen mehrere Fußgänger in einem Abstand von 50 m hintereinander. Ein LIDAR-Sensor als Abstandsmesseinheit würde alle Fussgänger erfassen und die Erfassungs- und Informationseinheiten der erfassten Fussgänger würden ein Informationssignal ausgeben, wenn keine weiteren Massnahmen getroffen werden. Die Vielzahl der Informationssignale wäre eher verwirrend, da sie keinen weiteren Hinweis auf den detektierten Verkehrsteilnehmer liefern, der durch ein erstes Objekt repräsentiert wird, da das Informationssignal über einen großen Entfernungsbereich erscheint. Um eine bessere Führung zu gewährleisten, kann die erste Sendeeinheit so konfiguriert werden, dass sie eine Entfernungsinformation an die Erfassungs- und Informationseinheiten überträgt, so dass die signalerzeugenden Vorrichtungen entsprechend den eingestellten Entfernungsschwellen und/oder einer Bewegungsrichtung gesteuert werden können. Alternativ oder zusätzlich können die Funkkommunikationseinheiten verwendet werden, um Informationen über den durch das erste Objekt repräsentierten Verkehrsteilnehmer zu übertragen. Die Steuereinrichtungen der Erfassungs- und Informationseinheiten können beurteilen, ob die empfangene Information nach einem zugrundeliegenden Algorithmus priorisiert ist, und wenn dies der Fall ist, veranlasst die Steuereinrichtung die Signalerzeugungseinrichtung nicht zur Ausgabe eines Informationssignals. Der zugrundeliegende Algorithmus kann Entfernungssignalen Vorrang einräumen, so dass nur die Erfassungs- und Informationseinheit, die dem Verkehrsteilnehmer zugeordnet ist, der dem ersten Objekt am nächsten liegt, ein Informationssignal ausgibt. In einer weiteren Variante geben immer noch alle oder zumindest eine Mehrzahl der Erfassungs- und Informationseinheiten ein Informationssignal aus. Die Informationssignale liefern jedoch eine andere Qualität. Bei optischen Lichtsignalen erscheinen die Signale, die von der dem ersten Objekt am nächsten liegenden Signalerzeugungseinrichtung erzeugt werden, heller als die Signale in größerer Entfernung. Ein solcher visueller „Annäherungseffekt“ kann auch durch die Einstellung von entfernungsabhängigen Schwellenwerten für die Qualität der Qualität der ausgegebenen Informationssignale erreicht werden. Wenn sich zum Beispiel ein elektrisch betriebenes Auto einem erkannten Fußgänger nähert, kann es sich einschalten oder das hörbare Geräusch verstärken. Unter einem anderen Aspekt kann ein sich näherndes batteriebetriebenes Fahrzeug eine Geräuscherzeugungsvorrichtung einschalten und/oder eine akustische Frequenz variieren oder modulieren.
  • 9 zeigt ein Kleidungsstück 930, hier eine Jacke als erklärende Verkörperung, das von einem Fußgänger oder Radfahrer getragen werden kann. Das Kleidungsstück 930 verfügt über zwei Erfassungs- und Informationseinheiten 831, die jeweils einen Detektor 833, ein Signalerzeugungsgerät 832 und ein Steuergerät 834 aufweisen. Die Erfassungs- und Informationseinheiten 831 sind in das Kleidungsstück 930 integriert, können aber zumindest teilweise herausnehmbar sein, insbesondere im Hinblick auf die Stromversorgung und/oder intelligente Geräte, z.B. Smartphones o.ä., für Waschvorgänge.
  • In dieser Ausführungsform ist die Signalerzeugungseinheit 832 ein Lichtmodul zur Erzeugung optischer Lichtsignale, die in die Wellenleiter 931 eingekoppelt werden. Die Wellenleiter geben die lichtoptischen Signale über ihre Länge nacheinander aus. Das Lichtmodul besteht im Prinzip aus einer oder mehreren LEDs, insbesondere aus LEDs mit unterschiedlichen Farben. Jede LED koppelt Licht in einen oder mehrere Wellenleiter 931 separat ein. Alternativ können ein oder mehrere Wellenleiter 931 das Licht mehrerer LEDs führen.
  • Um die Wellenleiter 931 und das Lichtmodul vor Feuchtigkeit zu schützen und die Montage an das Kleidungsstück 930 zu erleichtern, können die Wellenleiter 931 und das Lichtmodul zusammen vergossen werden. Alternativ oder zusätzlich können auch andere Komponenten, wie der Detektor 833 und/oder das Steuergerät 834, Teil einer bzw. der vergossenen Konfiguration sein.
  • Der Wellenleiter 931 besteht in einigen Ausführungen aus einem thermoplastischen und flexiblen Material, z.B. Polymethylmethacrylat (PMMA) oder thermoplastischem Polyurethan (TPU).
  • Das Kleidungsstück 930 kann weitere Erfassungs- und Informationseinheiten 831 in seitlichen Bereichen, wie Schulterpartien oder Ärmeln, oder auf dem Rücken bieten.
  • Die Erfassungs- und Informationseinheiten 831 verfügen über eine Stromversorgung (nicht abgebildet), wie z.B. eine Batterie, einen Akkumulator und/oder eine Schnittstelle zum Anschluss an ein Netzteil oder ein Smartphone. Das Netzteil kann mit der Erfassungs- und Informationseinheit 831 gekoppelt oder in die Erfassungs- und Informationseinheit 831 eingebaut werden. Weiterhin kann jede Erfassungs- und Informationseinheit 831 eine eigene Stromversorgung bereitstellen oder zumindest einige der Erfassungs- und Informationseinheiten 831 sind an eine Stromversorgung gekoppelt.
  • Das Grundprinzip der erfinderischen Methode zur Erkennung eines Verkehrsteilnehmers 802, der das erste Objekt 820 darstellt, ist in 10 dargestellt. Im Schritt S1010 wird ein Signalimpuls 8221 zur Entfernungsbestimmung durch eine erste Sendeeinheit 822 einer dem ersten Objekt 820 zugeordneten Entfernungsmesseinheit 821 ausgesendet. Der ausgesandte Signalimpuls 8221 wird dann an einem zweiten Objekt 830, 840 reflektiert, das einen weiteren Verkehrsteilnehmer 803, 804 gemäß Schritt S1020 repräsentiert. Das reflektierte Signal wird von einer Detektionseinheit 823 der Entfernungsmesseinheit 821 erfasst und anhand der gemessenen Laufzeit im Schritt S1021 eine Entfernung ermittelt.
  • Ferner wird der von der ersten Sendeeinheit 822 ausgesandte Signalimpuls 8221 von einer Erfassungs- und Informationseinheit 831, 841 erfasst, die dem zweiten Objekt 830, 840 gemäß Schritt S1030 zugeordnet ist. Im Schritt S1031 wird von der Erfassungs- und Informationseinheit 831, 841 in Abhängigkeit vom Detektionsergebnis ein für die menschlichen Sinne wahrnehmbares Informationssignal ausgegeben.
  • Auch wenn in die Schritte S1020 und S1021 parallel zu den Schritten S1030 und S1031 dargestellt sind, kann das Verfahren auch seriell angewendet werden, z.B. wenn die Erfassungs- und Informationseinheit 831, 841 von der ersten Sendeeinheit 822 auch mit einer Entfernungsinformation versorgt werden soll. Ferner kann die Erfassungs- und Informationseinheit 831, 841 auch einen Signalimpuls oder eine Reihe von Signalimpulsen an einen Detektor des ersten Objekts oder eines anderen Objekts, das einen anderen Verkehrsteilnehmer oder ein Verkehrssteuerungssystem repräsentiert, über einen optischen oder akustischen Übertragungsweg aussenden, wobei in einigen Implementierungen derselbe Übertragungsweg von der Erfassungs- und Informationseinheit verwendet wird, um den Signalimpuls oder die Signalimpulse der ersten Sendeeinheit zu empfangen. Alternativ oder zusätzlich können Funksignalimpulse übertragen werden.
  • Es ist zu beachten, dass es sich bei den angegebenen Beispielen um spezifische Ausführungsformen handelt und nicht beabsichtigt ist, den in den Ansprüchen angegebenen Schutzumfang einzuschränken (Beispiel 1x, 2x, 3x .....). Insbesondere können einzelne Merkmale einer Ausführungsform mit einer anderen Ausführungsform kombiniert werden. Beispielsweise muss das Kleidungsstück nicht mit einem Lichtmodul als Signalerzeugungsvorrichtung versehen sein, sondern kann mit einer akustischen Signalerzeugungsvorrichtung ausgestattet sein. Ferner können anstelle von Wellenleitern selbstleuchtende Fasern verwendet werden. Die Offenbarung ist auch nicht auf bestimmte Arten von Verkehrsteilnehmern beschränkt. Insbesondere muss der Verkehrsteilnehmer, der durch das erste Objekt repräsentiert wird, nicht unbedingt ein Fahrer eines Kraftfahrzeugs sein, oder die Verkehrsteilnehmer, die durch das zweite Objekt repräsentiert werden, müssen nicht unbedingt nicht motorisiert sein. Die Verkehrsteilnehmer können auch vom gleichen Typ sein.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 8 bis 10 oben beschrieben, können mit einer intelligenten (d.h. intelligenten) Straßenbeleuchtung kombiniert werden. Die Steuerung der Straßenbeleuchtung kann somit die von den Verkehrsteilnehmern empfangenen Informationen berücksichtigen.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1x ist ein System zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer, der ein erstes Objekt repräsentiert. Das vorteilhafte System umfasst: eine Entfernungsmesseinheit, die dem ersten Objekt zugeordnet werden soll und konfiguriert ist, um eine Entfernung zu einem zweiten Objekt zu bestimmen, das einen weiteren Verkehrsteilnehmer repräsentiert, basierend auf einer Laufzeit eines Signalimpulses, der von einer ersten Sendeeinheit ausgesendet, von dem zweiten Objekt reflektiert und von einer Erfassungseinheit der Entfernungsmesseinheit erfasst wird, um dem Verkehrsteilnehmer eine Orientierung im Straßenverkehr zu ermöglichen, eine Erfassungs- und Informationseinheit, die dem zweiten Objekt zugeordnet werden soll und konfiguriert ist, um den von der ersten Sendeeinheit ausgesendeten Signalimpuls zu erfassen und ein von menschlichen Sinnen wahrnehmbares Informationssignal in Abhängigkeit von dem Erfassungsergebnis auszugeben.
    • In Beispiel 2x kann der Gegenstand von Beispiel 1x optional beinhalten, dass die Distanzmesseinheit ein LIDAR-Sensorgerät ist und die erste Emissionseinheit ein erstes LIDAR-Sensorsystem ist, das eine LIDAR-Lichtquelle umfasst und so konfiguriert ist, dass es optische Signalimpulse emittiert, beispielsweise in einem Infrarot-Wellenlängenbereich, insbesondere in einem Wellenlängenbereich von 850 nm bis 8100 nm, und die Erfassungs- und Informationseinheit einen optischen Detektor bereitstellt, der so ausgelegt ist, dass er die optischen Signalimpulse erfasst, und/oder die Entfernungsmesseinheit ein Ultraschallsystem ist und die erste Sendeeinheit so konfiguriert ist, dass sie akustische Signalimpulse, beispielsweise in einem Ultraschallbereich, aussendet, und die Erfassungs- und Informationseinheit einen Ultraschalldetektor bereitstellt, der so ausgelegt ist, dass er die akustischen Signalimpulse erfasst.
    • In Beispiel 3x kann der Gegenstand eines beliebigen von Beispiel 1x oder 2x optional beinhalten, dass die Erfassungs- und Informationseinheit einen bzw. den Detektor bereitstellt, um optische oder akustische Signalimpulse zu detektieren, wobei der Detektor eine Anordnung aus einer Vielzahl von Detektorelementen mit Akzeptanzwinkeln bereitstellt, die sich jeweils in verschiedene Richtungen öffnen, wobei sich die Akzeptanzwinkel überlappen, um eine 360°-Rundum-Detektion in horizontaler Richtung zu ermöglichen, wenn sie dem zweiten Objekt zugeordnet werden.
    • In Beispiel 4x kann der Gegenstand eines jeden von Beispiel 1x bis 3x optional beinhalten, dass das von der Erfassungs- und Informationseinheit ausgegebene, von menschlichen Sinnen wahrnehmbare Informationssignal ein optisches Lichtsignal mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm und/oder ein akustisches Signal mit Tönen in einem Frequenzbereich von 16 Hz bis 20.000 Hz und/oder ein mechanisches Schwingungssignal mit Schwingungen in einem Frequenzbereich von 1 Hz bis 500 Hz ist.
    • In Beispiel 5x kann der Gegenstand eines jeden von Beispiel 1x bis 4x optional beinhalten, dass die Erfassungs- und Informationseinheit einen bzw. den Detektor zur Erfassung optischer oder akustischer Signalimpulse und eine Steuervorrichtung und eine Signalerzeugungsvorrichtung umfasst, die miteinander und mit dem Detektor verbunden sind, wobei die Steuervorrichtung so konfiguriert ist, dass sie das vom Detektor erfasste Signal interpretiert und die Signalerzeugungsvorrichtung so steuert, dass das ausgegebene Informationssignal in einer Qualität, insbesondere der Frequenz bzw. Wellenlänge und/oder der Impulsdauer und deren zeitlicher Änderung, die von menschlichen Sinnen in Abhängigkeit vom Erfassungsergebnis wahrgenommen wird, ausgegeben wird.
    • In Beispiel 6x kann der Gegenstand von Beispiel 5x optional beinhalten, dass das signalerzeugende Gerät im Falle der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm eine Reihe von Lichtquellen, z.B. LEDs, Mini-LEDs oder Mikro-LEDs, bereitstellt, die so angeordnet sind, dass sie eine zwei- oder dreidimensionale Information anzeigen.
    • In Beispiel 7x kann der Gegenstand von Beispiel 5x optional beinhalten, dass die Signalerzeugungsvorrichtung im Falle der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm ein starres oder flexibles Flachbildschirmgerät und/oder ein Smartphone, eine Smart-Uhr oder ein Gerät der erweiterten Realität umfasst.
    • In Beispiel 8x kann der Gegenstand von Beispiel 5x optional beinhalten, dass die Signalerzeugungsvorrichtung im Falle der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm eine oder mehrere Lichtquellen umfasst, die jeweils einen oder mehrere optische Wellenleiter (300.1), die mit der jeweiligen Lichtquelle gekoppelt und in der Lage sind, Licht über die Länge des Lichtwellenleiters (300.1) auszusenden, und/oder die Signalerzeugungsvorrichtung, im Falle der Ausgabe eines optischen Lichtsignals mit Licht in einem Wellenlängenbereich von 380 nm bis 780 nm, eine oder mehrere selbstleuchtende Fasern umfasst.
    • In Beispiel 9x kann der Gegenstand eines der Beispiele 5x bis 8x optional beinhalten, dass das System ein Kleidungsstück, z.B. ein Textil-Kleidungsstück, das dem zweiten Objekt zugeordnet werden soll, um das zweite Objekt mit der Erfassungs- und Informationseinheit zu versehen.
    • In Beispiel 10x kann der Gegenstand von Beispiel 9x optional beinhalten, dass das System ferner eine Vorrichtung zur Strom- und Spannungsversorgung, die mit der Erfassungs- und Informationseinheit verbunden ist, und beispielsweise eine daran zu koppelnde Stromquelle, insbesondere eine Batterie oder einen wiederaufladbaren Akkumulator, umfasst.
    • In Beispiel 11x kann der Gegenstand eines der Beispiele 5x bis 10x optional beinhalten, dass die erste Sendeeinheit der Abstandsmesseinheit des ersten zu erfassenden Objekts so konfiguriert ist, dass sie eine Information über eine Position, einen Abstand, eine Geschwindigkeit und/oder eine Beschleunigung des ersten zu erfassenden Objekts durch die Signalimpulse bzw. eine Reihe von Signalimpulsen überträgt, durch Frequenzmodulation oder Pulsmodulation oder einen Pulscode, wobei die Steuereinrichtung der Erfassungs- und Informationseinheit die durch den oder die vom Detektor erfassten Signalpuls(e) bereitgestellte Zusatzinformation interpretiert und die Zusatzinformation mit der Position, Geschwindigkeit und/oder Beschleunigung des zugehörigen zweiten Objekts vergleicht und in Abhängigkeit von diesem Vergleich das Informationssignal ausgibt.
    • In Beispiel 12x kann der Gegenstand eines der Beispiele 5x bis 11x optional beinhalten, dass die Erfassungs- und Informationseinheit eine zweite Sendeeinheit bereitstellt, die so konfiguriert ist, dass sie einen Signalimpuls oder eine Reihe von Signalimpulsen über einen optischen oder akustischen Übertragungsweg an einen Detektor des ersten zu erfassenden Objekts sendet, in einigen Implementierungen derselbe Übertragungsweg, der vom Detektor der Erfassungs- und Informationseinheit verwendet wird, um den Signalimpuls oder die Signalimpulse der ersten Sendeeinheit des ersten zu erfassenden Objekts zu empfangen, wobei die Steuervorrichtung so konfiguriert ist, dass sie eine Position, einen Abstand, eine eigene Geschwindigkeit und/oder eine eigene Beschleunigung bestimmt und diese Informationen durch Frequenzmodulation oder Impulsmodulation oder einen Impulscode des Signalimpulses oder der Signalimpulse an den Detektor des ersten zu erfassenden Objekts überträgt.
    • In Beispiel 13x kann der Gegenstand von Beispiel 12x optional beinhalten, dass die Erfassungs- und Informationseinheit eine Speichereinheit und eine Eingabeeinheit umfasst, wobei in der Speichereinheit über die Eingabeeinheit Schwellenwerte für Positionen, Abstände, Geschwindigkeiten, Beschleunigungen und/oder Kombinationen davon eingestellt werden können, wobei keine oder eingeschränkte Informationen von der zweiten Ausgabeeinheit an das erste zu erfassende Objekt übertragen werden, falls ein entsprechender Wert, der von dem erfassten Signalimpuls oder einer Reihe von Signalimpulsen geliefert wird, einen eingestellten Schwellenwert oder Kombinationen davon über- oder unterschreitet.
    • In Beispiel 14x kann der Gegenstand eines jeden der Beispiele 1x bis 13x optional beinhalten, dass die Erfassungs- und Informationseinheit eine Funkkommunikationseinheit umfasst.
    • Beispiel 15x ist ein Verfahren zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer, der ein erstes Objekt repräsentiert. Das Verfahren umfasst: Aussenden eines Signalimpulses zur Entfernungsbestimmung durch eine erste Sendeeinheit einer dem ersten Objekt zugeordneten Entfernungsmesseinheit, Reflektieren des Signalimpulses an einem zweiten Objekt, das einen weiteren Verkehrsteilnehmer repräsentiert, Erfassen des reflektierten Signals durch eine Erfassungseinheit der Entfernungsmesseinheit und Bestimmen der Entfernung auf der Grundlage der gemessenen Laufzeit, ferner Erfassen des von der ersten Sendeeinheit ausgesandten Signalimpulses durch eine dem zweiten Objekt zugeordnete Erfassungs- und Informationseinheit, Ausgeben eines für menschliche Sinne wahrnehmbaren Informationssignals durch die Erfassungs- und Informationseinheit in Abhängigkeit vom Erfassungsergebnis.
    • Beispiel 16x ist ein Computerprogrammprodukt. Das Computerprogrammprodukt umfasst eine Vielzahl von Befehlen, die in einem nicht vorübergehenden computerlesbaren Medium enthalten sein können, um das Verfahren gemäß Beispiel 15x auszuführen und/oder in einem System gemäß einem der Beispiele 1x bis 14x zu implementieren.
  • Im konventionellen Kfz-Anwendungsbereich (z.B. in einem konventionellen Kfz-System) kann die Fahrzeug-zu-Fahrzeug-Kommunikation (V2V) mittels Hochfrequenzkommunikation erfolgen. In einem typischen System kann derselbe Hochfrequenzkanal für die Authentifizierung und Datenübertragung zur Verfügung gestellt werden. Die Kommunikation kann geändert und/oder unterbrochen werden, z.B. wenn der besagte Hochfrequenzkanal gestört oder gekreuzt wird. Das Funkkommunikationssignal kann verschlüsselt werden, und das System kann gemäß Sicherheitsstandards entworfen werden (z.B. kann das Design so ausgelegt werden, dass es dem Automotive Safety Integrity Level (ASIL) entspricht, je nach dem Risiko, das von einer Fehlfunktion des Systems ausgeht). Ein konventionelles Kfz-System kann unabhängige Systeme für Reichweite und Kommunikation enthalten.
  • Zu einem Ranging-System (z.B. einem LIDAR-System, wie z.B. einem Flash-LIDAR-System oder einem Scan-LIDAR-System) können verschiedene Ausführungsformen einschließlich Ranging und Kommunikationsfähigkeiten gehören. Die zusätzliche Kommunikationsfunktionalität kann dem Ranging-System durch einen Lichtpulsmechanismus (z.B. einen Laserpulsmechanismus) zur Verfügung gestellt werden. Das Ranging-System (z.B. ein Signalmodulator des Ranging-Systems, auch als elektrischer Modulator bezeichnet) kann so konfiguriert werden, dass es Daten in ein LIDAR-Signal (z.B. in einen Lichtpuls) kodiert. Zur Veranschaulichung: Ein hierin beschriebenes LIDAR-Signal kann ein Entfernungsmesssignal (z.B. kann so konfiguriert werden, dass es Entfernungsmessfähigkeiten besitzt) und/oder ein Kommunikationssignal (z.B. kann es so konfiguriert werden, dass es Datenkommunikationsfähigkeiten besitzt) enthalten. Eine hier beschriebene Konfiguration kann die Kommunikation zwischen verschiedenen Objekten (z.B. zwischen Entfernungsmesssystemen, zwischen Fahrzeugen, zwischen einem Fahrzeug und einer Verkehrsleitstelle usw.) in einem Anwendungsgebiet ermöglichen, in dem die Entfernungsmessung implementiert ist (z.B. Lichterfassung und Entfernungsmessung, wie LIDAR).
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 145A bis 149E, kann der Begriff „Signalmodulation“ (auch als „elektrische Modulation“ bezeichnet) verwendet werden, um eine Modulation eines Signals zur Kodierung von Daten in einem solchen Signal (z.B. ein Lichtsignal oder ein elektrisches Signal, z.B. ein LIDAR-Signal) zu beschreiben. Zum Beispiel kann ein Lichtsignal (z.B. ein Lichtimpuls) elektrisch so moduliert werden, dass das Lichtsignal Daten oder Informationen trägt oder überträgt. Analog dazu kann der Begriff „Signaldemodulation“ (auch als „elektrische Demodulation“ bezeichnet) verwendet werden, um eine Dekodierung von Daten aus einem Signal (z.B. aus einem Lichtsignal, wie z.B. einem Lichtimpuls) zu beschreiben. Die elektrische Modulation kann im Folgenden gegebenenfalls als Modulation bezeichnet werden. Elektrische Demodulation kann im Folgenden gegebenenfalls als Demodulation bezeichnet werden. Im Zusammenhang mit der vorliegenden Anwendung kann die von einem Signalmodulator durchgeführte Modulation eine Signalmodulation (z.B. eine elektrische Modulation) sein, und eine von einem oder mehreren Prozessoren durchgeführte Demodulation kann eine Signaldemodulation (z.B. eine elektrische Demodulation) sein.
  • Ein optischer Kommunikationskanal (auch als optischer Datenkanal bezeichnet) kann bereitgestellt werden. Der optische Kommunikationskanal kann alternativ oder in Kombination mit einem Hauptdatenübertragungskanal (z.B. einem funkbasierten Hauptkanal) verwendet werden. Der optische Kommunikationskanal kann z.B. verwendet werden, wenn keine Funkkommunikation verfügbar ist, z.B. für den Austausch kritischer Informationen (z.B. zwischen Fahrzeugen). Zur Veranschaulichung: Ein Kommunikationssystem (z.B. eines Fahrzeugs) kann eine oder mehrere Komponenten enthalten, die für die Funkkommunikation konfiguriert sind (z.B. ein Funkkommunikationsgerät), sowie eine oder mehrere Komponenten, die für die optische Kommunikation konfiguriert sind (z.B. ein Entfernungsmesssystem wie ein LIDAR-System, das wie hier beschrieben konfiguriert ist). Zur weiteren Veranschaulichung kann ein Kommunikationssystem eine oder mehrere Komponenten enthalten, die für Inband-Kommunikation konfiguriert sind, und eine oder mehrere Komponenten, die für Out-of-Band-Kommunikation konfiguriert sind.
  • Der optische Kommunikationskanal kann für den Austausch jeder Art von Daten oder Informationen verwendet werden (z.B. kann der Kanal für den Austausch verschiedener Arten von Daten abhängig von der Datenbandbreite des optischen Kommunikationskanals bereitgestellt werden). Beispielsweise kann der optische Kommunikationskanal für den Austausch sensibler Informationen (z.B. Schlüsselaustausch oder sicherheitskritische Informationen, z.B. Authentifizierungsdaten) verwendet werden, z.B. kann der optische Kommunikationskanal in Verbindung mit dem funkbasierten Kanal für Authentifizierung und Schlüsselaustausch verwendet werden. Dies kann die Sicherheit der Kommunikation erhöhen, ähnlich wie bei einer 2-Faktor-Authentifizierung- (zur Veranschaulichung: Kommunikation über zwei verschiedene Medien). Als Beispielszenario kann der optische Kommunikationskanal im Falle von Kfz-LIDAR zusätzlich zum Hauptdatenübertragungskanal (zur Veranschaulichung: In-Band-Kanal) eine sichere Authentifizierung zwischen benachbarten Fahrzeugen ermöglichen. Der (z.B. zusätzliche) optische Datenkanal (z.B. der Out-of-Band-Kanal, OOB) kann gerichtet sein und/oder auf einer direkten Sichtverbindung basieren. Dies kann dazu führen, dass der optische Datenkanal im Vergleich zum radiobasierten Kanal schwieriger zu stören oder zu schneiden ist. Dies kann zum Beispiel damit zusammenhängen, dass Radiowellen und Licht elektromagnetische Wellen mit unterschiedlichen Frequenzen sind.
  • In verschiedenen Ausführungsformen kann ein Ranging-System so konfiguriert werden, dass einem Ranging-Puls (z.B. einem Laserpuls) eine Modulation (z.B. eine Zeitbereichsmodulation) überlagert wird, z.B. um Daten zu kodieren (zur Veranschaulichung: Überlagerung eines LIDAR-Pulses mit Ranging-Fähigkeiten zur Kodierung von Daten im LIDAR-Puls). Die Modulation kann eine von der Dauer des Pulses abhängige Zeitdauer haben. Der Puls kann eine Pulsdauer, tPuls, (auch als Pulsbreite bezeichnet) im Bereich von etwa 500 ps bis etwa 1 µs haben, zum Beispiel von etwa 1 ns bis etwa 500 ns, zum Beispiel von etwa 2 ns bis etwa 50 ns. Das Entfernungsmesssystem (z.B. ein Lichtdetektions- und Entfernungsmesssystem) kann in einem Sensorgerät (z.B. einem Fahrzeug) enthalten sein. Die Daten (z.B. verschlüsselt und/oder gesendet) können verschiedene Arten von Informationen enthalten, z.B. sensible Informationen (z.B. können die Daten sicherheitsbezogene Daten und/oder sicherheitsbezogene Daten enthalten). Als Beispiel können die Daten sicherheitskritische Kommunikation umfassen. Als weiteres Beispiel können die Daten einen oder mehrere Verschlüsselungsschlüssel zur sicheren Kommunikation sensibler Daten enthalten (z.B. Kommunikation nur mit dem einen oder mehreren Systemen oder Objekten, die sich im Sichtfeld des Ranging-Systems befinden, z.B. in der Sichtlinie des Ranging-Systems). Als weiteres Beispiel können die Daten Daten des Integritätsgrades der Fahrzeugsicherheit enthalten und/oder die Daten können den Vorschriften des Integritätsgrades der Fahrzeugsicherheit entsprechen (mit anderen Worten, sie können in Übereinstimmung mit den Vorschriften des Integritätsgrades der Fahrzeugsicherheit sein, wie sie z.B. in der ISO 26262 „Funktionale Sicherheit von Straßenfahrzeugen“ definiert sind.
  • In verschiedenen Ausführungsformen kann ein Puls (z.B. ein LIDAR-Puls, wie ein Lichtpuls, z.B. ein Laserpuls) eine vordefinierte Wellenform haben (z.B. eine vordefinierte erste Wellenform, z.B. sinusförmig oder Gaußförmig). Das Ranging-System (z.B. der Signalmodulator) kann so konfiguriert werden, dass es die vordefinierte Wellenform eines Impulses in eine modifizierte Wellenform, z.B. eine modifizierte zweite Wellenform, modifiziert (d.h. einen oder mehrere Abschnitte oder eine oder mehrere Eigenschaften der vordefinierten Wellenform eines Impulses so modifiziert, dass der Impuls die modifizierte Wellenform aufweist). Veranschaulichend kann der Signalmodulator so konfiguriert werden, dass er die vordefinierte Wellenform eines Lichtimpulses (veranschaulichend die vordefinierte Wellenform, die zum Emittieren eines Lichtimpulses verwendet werden soll) so modifiziert, dass der Lichtimpuls (z.B. der emittierte Lichtimpuls) eine modifizierte Wellenform hat, die sich von der vordefinierten Wellenform unterscheidet (veranschaulichend kann sich die modifizierte zweite Wellenform von der vordefinierten ersten Wellenform unterscheiden). Der Puls kann im Zeitbereich mit einer oder mehreren vollständigen oder teilweisen Wellenformen moduliert werden. Die Modulation kann innerhalb der Impulsdauer tpulse (auch als Signalzeit tsignal bezeichnet) liegen. Die Modifikation der Wellenform (zur Veranschaulichung: die Erzeugung der modifizierten Wellenform) kann die Modulation (d.h. die Codierung) von Daten auf den Puls ermöglichen. Beispielsweise kann der Signalmodulator so konfiguriert werden, dass er die Amplitude der vordefinierten Wellenform des Impulses modifiziert, d.h. die modifizierte Wellenform kann im Vergleich zur vordefinierten Wellenform eine andere Amplitude haben. Als weiteres Beispiel kann der Signalmodulator so konfiguriert werden, dass er ein oder mehrere höckerartige Strukturelemente in die vordefinierte Wellenform des Impulses einfügt (z.B. einen oder mehrere Höcker oder Spitzen), z.B. kann die modifizierte Wellenform ein oder mehrere höckerartige Strukturelemente enthalten. Der Signalmodulator kann so konfiguriert werden, dass er die Form der einzelnen höckerartigen Strukturelemente moduliert, z.B. unter Beibehaltung einer konstanten Gesamtpulsbreite. Als weiteres Beispiel kann der Signalmodulator so konfiguriert werden, dass er die Dauer der vordefinierten Wellenform des Impulses modifiziert (z.B. kann der Signalmodulator so konfiguriert werden, dass er die Zeit- oder Impulsbreite der Wellenform des Impulses moduliert, z.B. durch Modifizieren oder Verschieben der Anstiegszeit und/oder der Abfallzeit des Impulses), z.B. kann die modifizierte Wellenform eine andere Dauer im Vergleich zur vordefinierten Wellenform haben.
  • Im Folgenden werden verschiedene Eigenschaften oder Aspekte im Zusammenhang mit „einer Wellenform“ beschrieben. Es ist beabsichtigt, dass „eine Wellenform“ die vordefinierte Wellenform und/oder die modifizierte Wellenform beschreiben kann, sofern nicht anders angegeben. Zur Veranschaulichung: Die Eigenschaften oder Aspekte, die in Bezug auf eine Wellenform beschrieben werden, können auf die vordefinierte Wellenform und/oder die modifizierte Wellenform zutreffen. Eine Wellenform (z.B. in einem Ranging-System) kann durch die Komponenten bestimmt werden, die für die Erzeugung des Pulses (z.B. des LIDAR-Pulses, wie z.B. eines Laserpulses für ein LIDAR) vorgesehen sind, illustrativ durch die Reaktion solcher Komponenten. Als Beispiel kann eine Wellenform (oder eine Teilwellenform) linear, sinusförmig, exponentiell und/oder Gaußförmig sein (mit anderen Worten, eine Wellenform oder Teilwellenform kann eine lineare Form, sinusförmige Form, exponentielle Form und/oder Gaußform haben). Jede Wellenform kann eine oder mehrere damit verbundene charakteristische Eigenschaften aufweisen. Die eine oder mehrere charakteristische Eigenschaften können z.B. von der Form der Wellenform abhängen (z.B. von einer charakteristischen Form der Wellenform). In einem beispielhaften Fall kann ein Laserpuls für ein LIDAR ein Hochleistungspuls sein, z.B. kann der Laserpuls für eine kurze Dauer (z.B. weniger als 20 ns oder weniger als 10 ns) eine hohe Laserspitzenleistung aufweisen. Dieser Laserpuls kann durch die Ladung und/oder Entladung elektronischer Komponenten auf einem Festkörperlaser erzeugt werden, z.B. durch Zuführung eines geeigneten Strompulses zum Festkörperlaser. Eine Antwort solcher elektronischen Komponenten kann linear, sinusförmig, exponentiell und/oder Gaußförmig sein.
  • Die Modulation im Zeitbereich kann einen entsprechenden Effekt im Frequenzbereich bewirken. Die Eigenschaften des Signals im Frequenzbereich können von den Eigenschaften des Signals (z.B. des Impulses) im Zeitbereich abhängen. Jede vollständige oder teilweise Wellenform kann eine eindeutige Signatur im Frequenzbereich erzeugen. Im Frequenzbereich kann eine Eigenschaft der Wellenform durch eine oder mehrere Frequenzkomponenten des Signals im Frequenzbereich dargestellt werden (zur Veranschaulichung: eine Eigenschaft der Wellenform kann in Form von Gruppen von Frequenzspitzen gefunden werden). Veranschaulichend kann jede vollständige oder partielle Wellenform eine oder mehrere Frequenzbereichskomponenten im Frequenzbereich erzeugen (z.B. Peaks, auch als Antwortspitzen bezeichnet). Die eine oder mehrere Frequenzbereichskomponenten können für jede Wellenform unterschiedlich sein (veranschaulichend kann jede Wellenform oder Teilwellenform mit einem Frequenzbereichssignal verbunden sein, das verschiedene Peaks enthält, z.B. eine unterschiedliche Anzahl von Peaks, Peaks mit unterschiedlicher Amplitude und/oder Peaks bei unterschiedlichen Frequenzen). Beispielsweise kann eine sinusförmige Wellenform im Vergleich zu einer exponentiellen Wellenform oder zu einer linearen Wellenform oder zu einer Gaußschen Wellenform mit einem anderen Satz von Peaks assoziiert sein.
  • Zum Beispiel kann die Frequenz, bei der eine oder mehrere Komponenten eines Signals im Frequenzbereich auftreten, vom Signalzeitsignal t und/oder vom Typ der vollständigen oder teilweisen Wellenform abhängen. Illustrativ kann eine Wellenform, die einen Impuls komprimiert (z.B. eine Exponentialwellenform, illustrativ eine Wellenform mit exponentiellen Wellenformanteilen, z.B. mit exponentiellen Flanken) höhere Frequenzspitzen erzeugen oder mit diesen verbunden sein (z.B. eine oder mehrere Spitzen bei höherer Frequenz). Eine Wellenform, die einen Impuls aufweitet (z.B. eine sinusförmige Wellenform), kann Peaks mit niedrigerer Frequenz erzeugen. Als weiteres Beispiel kann die Amplitude (auch als Amplitude bezeichnet) einer Komponente davon abhängen, wie oft die zugehörige Wellenform (oder Teilwellenform) innerhalb des Impulses wiederholt wird (z.B. von der Anzahl der Wiederholungen derselben Wellenform oder Teilwellenform entlang des Impulses). Veranschaulichend kann eine bestimmte Signatur (z.B. die Spitzensignatur) stärker als der Hintergrund im Frequenzbereich sein, wenn der Puls die gleiche Wellenform (z.B. die zugehörige Wellenform) mehr als einmal enthält.
  • Als weiteres Beispiel kann die Formcharakteristik die Zeitunterschiede für jeden Amplitudenpegel zwischen verschiedenen Wellenformen beeinflussen. Zur Veranschaulichung: Ein Zeitpunkt, zu dem eine Wellenform (z.B. ein Impuls mit dieser Wellenform) einen bestimmten Amplitudenpegel (z.B. einen Spitzenpegel) erreicht, kann von der Formcharakteristik abhängig sein. Die Zeitunterschiede können zu einem entsprechenden Unterschied im Frequenzbereich führen (veranschaulichend eine unterschiedliche Antwort in der Frequenz). Als Beispielfall kann eine Zeitdifferenz zwischen dem 50%-Punkt für den Anstieg und dem 50%-Punkt für den Abfall bei einem Impuls mit einer für den Anstieg und den Abfall charakteristischen Sinusform höher sein als bei einem Impuls mit einer Sinusform für den Anstieg und einer Exponentialform für den Abfall. Der 50%-Punkt für den Anstieg (Abklingen) kann als der Zeitpunkt verstanden werden, an dem die Wellenform während des Anstiegs (Abklingens) die 50% ihrer maximalen Amplitude erreicht.
  • Als weiteres Beispiel kann eine Wellenform (z.B. ein Lichtimpuls) einen ersten Teil (z.B. einen Anstiegsteil) und einen zweiten Teil (z.B. einen Abklingteil, auch als Abfallteil bezeichnet) enthalten. Die Teile der Wellenform können eine partielle Wellenform sein oder haben (z.B. eine partielle sinusförmige Wellenform, eine partielle lineare Wellenform, eine partielle exponentielle Wellenform oder eine partielle Gaußsche Wellenform). Der erste Teil kann die gleiche partielle Wellenform wie der zweite Teil haben, oder der erste Teil kann eine andere partielle Wellenform im Vergleich zum zweiten Teil haben. Der Typ der partiellen Wellenformen, z.B. eine Steigung der Wellenform (z.B. im ersten Teil und/oder im zweiten Teil, z.B. die Anstiegs- und/oder Abstiegssteigung) kann die Position einer oder mehrerer Frequenzbereichskomponenten bestimmen, die mit der Wellenform verbunden sind. Beispielsweise kann eine Wellenform mit schnellem exponentiellem Abklingen (z.B. ein zweiter Teil mit einer exponentiellen Teilwellenform) mit Spitzen in einem höheren Frequenzbereich in Bezug auf eine Wellenform mit sinusförmigem oder linearem Abklingen (zur Veranschaulichung: langsameres Abklingen) assoziiert werden.
  • Die unterschiedlichen Frequenzbereichsantworten oder -ausgänge, die von verschiedenen Wellenformen geliefert werden, können Mittel zur Verwendung eines Impulses für verschiedene Zwecke zusätzlich zur Reichweite bereitstellen, z.B. zur Kodierung und/oder Dekodierung von Daten (z.B. zur Modulation von Daten auf einen Lichtimpuls). Die Kodierung kann auf Wellenformmodulation basieren (z.B. Wellenformmodulation). Zur Veranschaulichung: Eine Änderung der Wellenform (z.B. der Wellenform) kann zur Kodierung von Daten auf dem Sender verwendet werden (z.B. auf der Emitter- oder Kodiererseite eines Ranging-Systems). Zur weiteren Veranschaulichung kann die Änderung der vordefinierten Wellenform eines Lichtimpulses in die modifizierte Wellenform verwendet werden, um Daten auf dem Lichtimpuls zu kodieren. Eine erste Wellenform kann einen ersten Datentyp repräsentieren (z.B. ein erstes Bit oder eine erste Bitgruppe) und eine zweite Wellenform kann einen zweiten Datentyp repräsentieren (z.B. ein zweites Bit oder eine zweite Bitgruppe). Beispielsweise kann die vordefinierte Wellenform einen ersten Datentyp und die modifizierte Wellenform einen zweiten Datentyp repräsentieren. Als weiteres Beispiel kann eine modifizierte Wellenform einen ersten Datentyp und eine andere modifizierte Wellenform einen zweiten Datentyp repräsentieren. Ein Empfänger (z.B. die Empfängerseite oder die Decoderseite eines Entfernungsmesssystems oder eines anderen Systems, das für die Wellenlänge des übertragenen Lichtsignals empfindlich ist) kann so konfiguriert werden, dass er den Impuls (z.B. zum Decodieren der Daten) durch das mit der Wellenform verbundene Signal im Frequenzbereich interpretiert. Zur Veranschaulichung: Der Empfänger kann so konfiguriert werden, dass er die Auswirkung der Änderung (z.B. die Auswirkung der unterschiedlichen Eigenschaften verschiedener Wellenformen) als Signaturspitzen der Wellenform (z.B. der Wellenformform) im Frequenzbereich beobachtet, um die Daten zu dekodieren. Eine solche Dekodierungsmethode (zur Veranschaulichung, basierend auf der Signatur im Frequenzbereich) kann unabhängig von der Amplitudeninformation sein (z.B. darf sie sich nicht auf die Amplitudeninformation stützen). Die Dekodiermethode kann für die Wiedergewinnung kleiner Signale mit hohen Rauschpegeln bereitgestellt werden.
  • Das Ortungssystem (oder ein Fahrzeug) kann Zugang zu einer Datenbank haben. Die Datenbank kann beispielsweise in einem Speicher des Entfernungsmesssystems (oder des Fahrzeugs) oder in einem Systemexternen- Gerät gespeichert sein (z.B. kann das Entfernungsmesssystem kommunikativ mit dem Gerät gekoppelt sein). Die Datenbank kann eine Vielzahl von Wellenformen (z.B. von Stromwellenformen, die von einem Signalmodulator geliefert werden können, um entsprechende Lichtimpulse zu erzeugen) speichern, die mit entsprechenden Informationen (z.B. entsprechende Daten, wie z.B. entsprechende Bits) verknüpft sind. Zur Veranschaulichung: Die Datenbank kann eine Vielzahl von Befehlen und/oder Eigenschaften (z.B. Parametersätze) speichern, die mit der Erzeugung einer entsprechenden Wellenform verbunden sind. Die Datenbank kann Befehle und/oder Eigenschaften speichern, die einer Treiberschaltung (z.B. einem Lichtquellen-Controller), z.B. einer analogen Treiberschaltung, zur Verfügung zu stellen sind. Beispielsweise kann die Datenbank ein vordefiniertes Signal (z.B. ein vordefiniertes pulsbreitenmoduliertes (PWM-)Signal) zum Laden eines Kondensators speichern, der zur Erzeugung einer Wellenform (oder Teilwellenform) verwendet werden soll. Als weiteres Beispiel kann die Datenbank eine Konfiguration zur Steuerung einer Vielzahl von Schaltern speichern, um zumindest einige Kondensatoren einer Vielzahl von Kondensatoren zu entladen, um eine Laserdiode so anzusteuern, dass sie einen Lichtimpuls mit einer bestimmten Wellenform emittiert, wie in Bezug auf 155B bis 157B beschrieben. Als weiteres Beispiel kann die Datenbank Instruktionen speichern, die von einer Stromquelle (z.B. einer programmierbaren Stromquelle) interpretiert werden sollen, z.B. kann die Stromquelle eine Vielzahl von Stromwerten bestimmen, die für die Erzeugung einer Wellenform aus den zugehörigen Instruktionen bereitzustellen sind. Es kann auch ein kombinierter Ansatz (z.B. mit analogen Parametern und mit Befehlen) vorgesehen werden.
  • Die Datenbank kann ein Codebuch speichern oder ein solches sein, das z.B. eine Tabelle mit Wellenformen enthält, die auf entsprechende Bitsequenzen abgebildet werden. Zur Veranschaulichung: Jede Wellenform kann mit einem entsprechenden Bitwert oder einer entsprechenden Bitfolge verknüpft sein. Ein Ranging-System kann so konfiguriert werden, dass es einen Lichtimpuls entsprechend dem Codebuch kodiert/dekodiert (z.B. moduliert/demoduliert) (zur Veranschaulichung: Abrufen der zugehörigen Wellenform oder Daten aus dem Codebuch). Das Codebuch kann zwischen verschiedenen Verkehrsteilnehmern standardisiert werden (z.B. zwischen verschiedenen Entfernungsmesssystemen, z.B. von verschiedenen Herstellern).
  • Das Frequenzbereichssignal kann aus dem Zeitbereichssignal bestimmt (z. B. abgerufen oder berechnet) werden, z. B. durch Fast-Fourier-Transformation (FFT). Das Ranging-System (z.B. ein oder mehrere Prozessoren) kann so konfiguriert werden, dass verschiedene Wellenformen entsprechend den jeweiligen Frequenzbereichskomponenten (z.B. der Position der jeweiligen Peaks) unterschieden werden können. Die Zuverlässigkeit einer solchen Unterscheidung kann von der Anzahl der verschiedenen Frequenzbereichskomponenten in den Frequenzbereichssignalen abhängen, die den verschiedenen Wellenformen zugeordnet sind. Die Zuverlässigkeit einer solchen Unterscheidung kann auch von der Größe der Frequenzbereichskomponenten abhängen (z.B. von der relativen Größe der Frequenzbereichskomponenten in den Frequenzbereichssignalen, die verschiedenen Wellenformen zugeordnet sind). Die Datenkodierungs- und/oder -dekodierungsfähigkeiten können mit der Fähigkeit zur Unterscheidung verschiedener Wellenformen zusammenhängen (zur Veranschaulichung: je mehr Wellenformen unterschieden werden können, desto mehr Bits können kodiert werden).
  • In verschiedenen Ausführungsformen kann eine Wellenform ein oder mehrere höckerartige Strukturelemente enthalten (z.B. einen oder mehrere Höcker oder Spitzen). Illustrativ kann ein Lichtimpuls im Zeitbereich mit einem oder mehreren Buckeln moduliert werden (z.B. kann ein Hauptimpuls mit der Dauer tsignal = 182 ns im Zeitbereich mit drei Buckeln moduliert werden). Es wird davon ausgegangen, dass der hier verwendete Wert von 182 ns nur als Beispiel gewählt wird (zur Veranschaulichung, zu Darstellungszwecken), und dass der Lichtimpuls auch eine andere Dauer haben kann, z.B. eine kürzere Dauer (z.B. von etwa 10 ns bis etwa 20 ns, z.B. 18 ns). Dies kann als codierter Buckel bezeichnet werden (z.B. codierter Buckelpuls). Ein höckerartiges Strukturelement kann als ein Teil (oder Unterteil) der Wellenform (oder des Pulses) verstanden werden, der einen ersten Teil (z.B. Anstieg) und einen zweiten Teil (z.B. Abklingen) aufweist. Zur Veranschaulichung: Jedes höckerartige Strukturelement kann einen Anstieg und einen Abfall enthalten, die der Reaktion der elektronischen Komponenten folgen. Der erste Teil und der zweite Teil eines höckerartigen Strukturelements können eine gleiche Teilwellenform (z.B. gleicher Typ) oder unterschiedliche Teilwellenformen aufweisen. Zum Beispiel kann ein Buckel einen sinusförmigen Anstieg und einen linearen Abfall aufweisen.
  • Zur Veranschaulichung: Ein Puls mit einem oder mehreren höckerartigen Strukturelementen kann in einen oder mehrere Teile oder Unterteile unterteilt werden. Zum Beispiel kann ein Puls mit drei Höckern in insgesamt sechs Teile unterteilt werden. Eine Amplitude (z.B. eine Tiefe) einer höckerartigen Struktur (veranschaulichend das Ausmaß des jeweiligen Anstiegs und Abfalls) kann von den Besonderheiten der Anwendung abhängig sein, z.B. von Überlegungen zum Signalton-Rausch-Verhältnis. Beispielsweise kann der Signalmodulator so konfiguriert werden, dass er eine Modulationstiefe für eine höckerartige Struktur in einem Bereich von etwa 10% der maximalen Amplitude (z.B. der höckerartigen Struktur) bis etwa 50% der maximalen Amplitude liefert. Ein solcher Modulationsgrad kann eine Demodulation, z.B. die Dekodierung der Daten, ermöglichen. Eine solche Auswahl des Modulationstiefenbereichs kann mit dem Kodierungs-/Dekodierungsverfahren zusammenhängen, das keine Amplitudeninformation verwendet. Illustrativ kann eine Teilmodulation vorgesehen werden (z.B. wird die Amplitude nicht wesentlich auf 0 reduziert). Dadurch kann der Effekt einer vereinfachten Schaltungstopologie erzielt werden.
  • Die Eigenschaften eines oder mehrerer höckerartiger Strukturelemente (z.B. die Art der Teilwellenformen, die Modulationstiefe, die Anzahl der höckerartigen Strukturelemente) können sich im Frequenzbereich entsprechend auswirken. Beispielsweise kann eine Wellenform, die einen oder mehrere Buckel mit jeweils sinusförmiger Formcharakteristik (z.B. sinusförmiger Anstieg und sinusförmiger Abfall) enthält, einem anderen Signal im Frequenzbereich zugeordnet sein als eine Wellenform, die einen oder mehrere Buckel mit mindestens einer linearen Teilwellenform und/oder mindestens einer exponentiellen Teilwellenform (z.B. linearer Anstieg und/oder exponentieller Abfall) enthält.
  • Die verschiedenen Wellenformen (illustrativ, einschließlich der verschiedenen höckerartigen Strukturelemente) können unterschiedliche Frequenzbereichsantworten liefern (z.B. können verschiedene Frequenzen aus der FFT identifiziert werden). Beispielsweise kann eine Wellenform mit Höckern, die einen exponentiellen Zerfall aufweisen, mit höheren Frequenzspitzen (z.B. über 20 MHz im Falle eines Lichtimpulses mit einer Impulsdauer von 182 ns und mit drei höckerartigen Strukturelementen) in Bezug auf die Wellenform mit Höckern, die einen sinusförmigen Zerfall aufweisen, assoziiert werden. Als weiteres Beispiel kann eine Wellenform mit Buckeln mit linearem Anstieg und exponentiellem Abklingen mit höheren Frequenzspitzen (z.B. bei etwa 35 MHz im Falle eines Lichtimpulses mit einer Impulsdauer von 182 ns und mit drei buckelartigen Strukturelementen) in Bezug auf die Wellenform mit Buckeln mit sinusförmigem Anstieg und sinusförmigem Abklingen assoziiert werden. Die höheren Frequenzkomponenten können durch eine höhere Kompression der Wellenform bereitgestellt werden, die durch die Kombination von linearen und exponentiellen Antworten in Bezug auf den sinusförmigen Anstieg entsteht.
  • Ein höckerartiges Strukturelement kann unabhängig von den anderen höckerartigen Strukturelementen konfiguriert werden. Eine Wellenform kann eine Vielzahl von höckerartigen Strukturelementen umfassen, und jede höckerartige Struktur kann unterschiedliche Eigenschaften (z.B. Abschnitte mit unterschiedlichen Teilwellenformen) in Bezug auf jede andere höckerartige Struktur haben. Alternativ können ein oder mehrere erste höckerartige Strukturelemente (z.B. eine erste Teilmenge) andere Eigenschaften haben als ein oder mehrere zweite höckerartige Strukturelemente (z.B. eine zweite Teilmenge). Zur Veranschaulichung: Eine Wellenform kann ein Multiplex von Teilwellenformen enthalten (z.B. ein Multiplex von Anstiegs und Abfallreaktionen).
  • Eine Wellenform mit einer Vielzahl von Höckern (z.B. drei Höcker) kann eine Vielzahl unterschiedlicher Konfigurationen aufweisen. Zum Beispiel können in einer Referenzwellenform alle Höcker einen sinusförmigen Anstieg und Abfall aufweisen. Durch Modifizieren der Referenzwellenform können verschiedene Konfigurationen bereitgestellt werden. Der erste Anstieg und das letzte Abklingen können für alle möglichen Wellenformen sinusförmig gehalten werden (zur Veranschaulichung: der erste Anstieg und das letzte Abklingen können für alle möglichen Wellenformen einen sinusförmigen Charakter haben oder behalten). Dies kann die Komplexität der Hochleistungsentladung mehrerer elektronischer Komponenten reduzieren. Dies kann auch die möglichen Kombinationen für den kodierten Buckel vereinfachen. Zum Beispiel kann mindestens einer der Buckel einen linearen Abklingvorgang aufweisen (dies kann dazu führen, dass ein oder mehrere Peaks im Frequenzbereich in Bezug auf die Referenzwellenform fehlen). Ein weiteres Beispiel: Mindestens einer der Buckel kann einen exponentiellen Abfall aufweisen (dies kann zu höheren Frequenzkomponenten führen). Ein weiteres Beispiel ist, dass mindestens einer der Buckel einen linearen Abfall und mindestens einer der Buckel einen exponentiellen Abfall aufweisen kann (dies kann zu unterschiedlichen Peaks/Spitzen im Frequenzbereich im Vergleich zum vorherigen Beispiel führen). Ein weiteres Beispiel ist, dass mindestens einer der Buckel einen linearen Anstieg, mindestens einer der Buckel einen linearen Abfall und mindestens einer der Buckel einen exponentiellen Abfall aufweisen kann (dies kann zu einer ausgeprägten Frequenzkomponente führen, die z.B. mit keiner der anderen Wellenformen verbunden ist). Ein weiteres Beispiel ist, dass mindestens einer der Buckel einen exponentiellen Anstieg, mindestens einer der Buckel einen linearen Abfall und mindestens einer der Buckel einen exponentiellen Abfall aufweisen kann (diese Wellenform kann eine Verdünnung der letzten Anstiegsreaktion und andere Peaks im Frequenzbereich im Vergleich zum vorherigen Beispiel liefern). Ein weiteres Beispiel ist, dass mindestens einer der Buckel einen Gaußschen Anstieg und/oder mindestens einer der Buckel einen Gaußschen Abfall aufweisen kann.
  • Die unabhängige Konfiguration der höckerartigen Strukturelemente kann die Kodierung einer Vielzahl von Bits in einer einzigen Wellenform (z.B. in einem einzigen Impuls) ermöglichen. Zur Veranschaulichung: Ein Teil der Wellenform und/oder einer höckerartigen Struktur (z.B. jede Teilwellenform) kann eine Art von Information, z.B. ein Bit, repräsentieren oder damit verbunden sein.
  • Als Beispiel kann ein Dreistöcklimpuls für LIDAR insgesamt sechs Signalabschnitte haben, illustrativ drei Anstiege und drei Abfälle, von denen jeder zur Datenkodierung verwendet werden kann. Angenommen, es stehen zwei verschiedene Anstiege zur Kodierung zur Verfügung (z.B. ein sinusförmiger Anstieg und ein linearer Anstieg), und angenommen, es stehen zwei verschiedene Abklingzeiten zur Kodierung zur Verfügung (z.B. eine sinusförmige und eine exponentielle Abklingzeit), dann kann log2(2) = 1 Bit bei jedem Anstieg und log2(2) = 1 Bit bei jeder Abklingzeit kodiert werden. Insgesamt kann dies 6*1 Bit entsprechen, das auf die sechs Signalabschnitte eines Dreisprungimpulses kodiert werden kann. Die Anzahl der Bits pro Anstieg/Abfall kann durch eine größere Vielfalt von Wellenformen erhöht werden.
  • Es kann eine Bitrate berechnet werden (z. B. eine maximale Anzahl von Bits, die pro Sekunde übertragen werden, wobei von Null Fehlern und einer einzelnen Übertragung ausgegangen wird). Die Bitrate kann berechnet werden als B i t r a t e [ b i t / s ] = B i t s p u l s e * P u l s e r a t e ,
    Figure DE112020001131T5_0020
    wobei Bitspulse [bit/pulse] die Anzahl der Bits sein oder beschreiben kann, die in einen Impuls kodiert werden können, und Pulserate [pulse/s] die Anzahl der Impulse sein oder beschreiben kann, die pro Sekunde ausgegeben werden. Die Anzahl der Impulse, die pro Sekunde emittiert werden, kann geschätzt werden als I m p u l s z a h l [ P u l s / s ] = Arbeitszyklus t Puls
    Figure DE112020001131T5_0021
    unter Verwendung des Tastverhältnisses des Systems (das eine Laserbeschränkung sein kann) und der Pulsdauer. Unter Bezugnahme auf das vorhergehende Beispiel und unter der Annahme, dass das Tastverhältnis 0,1 % und die Impulsdauer tpulse 10 ns beträgt, können die folgenden Werte für einen Dreipunktimpuls berechnet werden,
    • Pulserate = 0.001/10-9 = 105 Pulse/s,
    • Bitimpuls = 6 Bit/Impuls,
    • Bitrate = 6*105 = 600*103 Bit/s, oder 600 kbit/s.
  • In verschiedenen Ausführungsformen kann ein Algorithmus zur Spitzenwerterkennung implementiert sein (z.B. durch den einen oder mehrere Prozessoren). Zur Veranschaulichung kann eine oder mehrere Bedingungen für eine Frequenzbereichskomponente vorgesehen werden, die für die Demodulation (z.B. für die Datendekodierung) in Betracht kommt. Als Beispiel kann eine Frequenzbereichskomponente mit einer Amplitude unterhalb einer vordefinierten Amplitudenschwelle vernachlässigt werden (z.B. unterhalb einer Amplitudenschwelle von 30% die maximale Amplitude des Signals). Ein weiteres Beispiel ist die Vernachlässigung von Frequenzbereichskomponenten mit einem Frequenzabstand unterhalb einer vordefinierten Trennschwelle (z.B. 2 MHz). Eine solche eine oder mehrere Bedingungen können für die direkte Verarbeitung eines Frequenzbereichsverlaufs mit einem höheren Rauschpegel vorgesehen werden (z.B. in einer Situation, in der die Signalleistung gering oder das Rauschen höher als erwartet ist). Der hohe Rauschpegel kann die Signalqualität verschlechtern, z.B. das Signal-Rausch-Verhältnis (SNR). Zur Veranschaulichung: Es können eine oder mehrere Bedingungen zur Reduzierung eines großen Rauschpegels vorgesehen werden. Das verarbeitete (z. B. gereinigte) Signal im Frequenzbereich kann anschließend analysiert werden.
  • In verschiedenen Ausführungsformen kann die Kodierung auf einer Verschiebung der Wellenform im Zeitbereich beruhen (z.B. auf einer Zeitverschiebung der buckelartigen Strukturelemente, z.B. gegenüber einer vordefinierten Wellenform oder Referenzwelle). Illustrativ kann die Kodierung auf einer Modulation der Pulsbreite basieren, z.B. der Anstiegszeit und/oder der Abfallzeit (z.B. können verschiedene Wellenformen oder verschiedene Pulse zu verschiedenen Zeitpunkten ansteigen und/oder abfallen, z.B. verschobene Zeitpunkte). Eine solche Kodierung kann eine Elastizität gegenüber Rauschen bieten. Die Dekodierung kann nach einer Gesamtsignalzeit (z.B. der Gesamtpulsbreite) durchgeführt werden. Illustrativ kann eine Impulsbreite ein oder mehrere Bits repräsentieren oder mit einem oder mehreren Bits assoziiert sein. Zusätzlich oder alternativ kann die Dekodierung gemäß der Signatur des Signals im Frequenzbereich durchgeführt werden. Die Gesamtsignalzeit kann verändert werden, ohne die Reichweite des Systems zu beeinflussen (z.B. ohne die Reichweite eines LIDAR-Systems zu beeinflussen).
  • Die Gesamtsignalzeit (z.B. des Impulses) kann moduliert werden (z.B. kann der Signalmodulator so konfiguriert werden, dass er die Dauer der vordefinierten Wellenform modifiziert). Eine solche Modulation kann zusätzlich oder alternativ zu der oben beschriebenen Modulation durchgeführt werden (z.B. zusätzlich oder alternativ zur Modulation der Teilwellenformen eines oder mehrerer buckelförmiger Strukturelemente). Somit können die beiden Modulationen unabhängig oder gleichzeitig angewendet werden. Dies kann zu einer Erhöhung der Bitrate und/oder zu einer Trennung der Qualität der zu übertragenden Informationen führen.
  • Die Modulation der Signalzeit kann auf verschiedene Weise realisiert werden. Beispielsweise kann die volle Breite bei halbem Pulsmaximum erhöht werden. Als weiteres Beispiel können die Anstiegs- und/oder Abklingzeiten erhöht werden (z.B. die erste sinusförmige Anstiegszeit und/oder die letzte sinusförmige Abklingzeit der Referenzkurve). Die Verschiebung der Anstiegs- und/oder Abklingzeit kann erkannt werden (z.B. können Wellenformen oder Impulse anhand der entsprechenden Zeitverschiebung voneinander unterschieden werden). Es kann ein Schwellenwert für die Zeitverschiebung definiert werden. Der Schwellwert kann von der Signalzeit abhängig sein (z.B. kann eine maximale Zeitverschiebung, für die verschiedene Wellenformen unterschieden werden können, als maximaler Prozentsatz der Gesamtsignalzeit angegeben werden, z.B. kann der Schwellwert 25% der Signalzeit betragen). Oberhalb der Zeitverschiebung des Schwellwertes kann ein Sättigungsverhalten auftreten. Zur Veranschaulichung kann ein linearer Bereich und ein Sättigungsbereich (z.B. nichtlinearer Bereich) in einem Diagramm bestimmt werden, das die demodulierte Signalzeit im Verhältnis zur modulierten Zeitverschiebung zeigt.
  • Es kann eine Bitrate berechnet werden (z. B. eine maximale Anzahl von Bits, die pro Sekunde im linearen Bereich übertragen werden). Die Bitrate kann von einer Schrittweite abhängig sein (z. B. von einem Unterschied zwischen benachbarten Zeitverschiebungen). Als Beispiel kann die Schrittweite 5% der Signalzeit betragen. Die Bitrate (unter der Annahme einer Pulserate wie oben beschrieben) kann wie folgt berechnet werden: Schritte = Schwellenzeit verschieben Schrittweite + 1 = 25 % 5 % + 1 = 6,
    Figure DE112020001131T5_0022
    B i t i m p u l s [ B i t / I m p u l s ] = l o g 2 ( ) b i t = l o g 2 ( 6 ) b i t = 2,58 b i t ,
    Figure DE112020001131T5_0023

    Bitrate = 2,58*105 Bit/s = 258*103 Bit/s oder 258 kbit/s.
  • Die Bitrate kann z. B. durch Verringern der Schrittweite erhöht werden. Als Beispiel kann die Bitrate bei einer Schrittgröße von 2 % wie folgt berechnet werden, Schritte = 25 % 2 % + 1 = 13,
    Figure DE112020001131T5_0024
    B i t i m p u l s [ B i t / I m p u l s ] = l o g 2 ( Schritte ) b i t = l o g 2 ( 13 ) bit = 3,70 bit ,
    Figure DE112020001131T5_0025
    B i t r a t e = 3,70 * 105 = 370 * 103 Bit/s , oder 370 kbit/s .
    Figure DE112020001131T5_0026
  • Die Bitrate kann von der Schrittgröße abhängig sein. Zur Veranschaulichung: Die Bitrate kann von der Fähigkeit abhängen, eine Zeitdifferenz zwischen einer Zeitverschiebung eines empfangenen Signals zu erkennen (z. B. zu unterscheiden).
  • In verschiedenen Ausführungsformen kann eine Modulation nach einer Kombination von einem oder mehreren der oben beschriebenen Aspekte vorgesehen werden. Zur Veranschaulichung: Eine Modulation kann durch eine Kombination aus der Modulation der inneren Formantwort eines Buckelimpulses, z.B. mit sinusförmigem Anstieg und Abfall, und der Modulation (z.B. durch Zeitverschiebung) der Anstiegs- und/oder Abfallzeit des Buckelimpulses erfolgen. Eine Modulation der Pulsbreite kann einen entsprechenden Effekt im Frequenzbereich bewirken (z.B. kann eine größere Pulsbreite mit stärkeren Peaks in der unteren Frequenzseite des Signals im Frequenzbereich verbunden sein). Die Demodulation eines Impulses mit modulierter Innenform kann auf einem Muster von Impulsfrequenzen im Frequenzbereich basieren (z.B. ein Muster, das zu einer früheren Kalibrierung passt, z.B. eine Differenz in Bezug auf ein vordefiniertes oder Referenzmuster). Die Demodulation eines Impulses mit modulierter Anstiegs- und/oder Abklingzeit kann auf der Gesamtsignalzeit des gesamten Impulses basieren. Auf diese Weise können unabhängige Modulations und/oder Demodulationsprozesse bereitgestellt werden. Die Kombination kann die Bitrate erhöhen (z.B. durch Kanalaggregation). Die Kombination kann eine qualitative Unterteilung der zu übertragenden Daten in getrennte Ströme ermöglichen (z.B. kann ein erster Strom eine Fahrzeug-Identifikationsnummer (VIN) übertragen und ein zweiter Strom einen Verschlüsselungsschlüssel).
  • Das Entfernungsmesssystem und/oder die hier beschriebene Methode kann dem Entfernungsmesssystem zusätzliche Fähigkeiten verleihen (z.B. Datenkommunikationsfähigkeiten). Zwei unabhängige Datenkommunikationsströme über zwei unabhängige Modulationsmethoden können unabhängig oder in Kombination bereitgestellt werden. Die Kombination der Modulationsmethoden kann eine erhöhte Datenrate, Redundanz und/oder eine verringerte Fehlerrate (z.B. höhere Zuverlässigkeit) bieten. Die hier beschriebenen Modulationsverfahren dürfen die Reichweite des Ranging-Systems, z.B. für Laufzeit-Messungen (z.B. in einem Laufzeit-LIDAR), nicht beeinträchtigen oder verschlechtern. Die hier beschriebenen Modulationsverfahren dürfen ein funkgestütztes System nicht stören und dürfen von einem funkgestützten System (z.B. Radar, Mobilkommunikation, Wi-Fi) nicht gestört werden.
  • Die hier beschriebenen Modulationsverfahren können in bereits bestehende Reichweitensysteme implementiert werden. Zur Veranschaulichung kann ein vorhandenes Entfernungsmesssystem (z.B. die Komponenten) angepasst werden, um die gewünschte Pulsmodulation zu erzielen. Ein Laserimpulsschema des Entfernungsmesssystems kann zur Kodierung von Daten für die Übertragung angepasst werden, und es kann ein zusätzlicher Signalverarbeitungsschritt zur Dekodierung von Daten vom Empfänger vorgesehen werden. Auf diese Weise können die hier beschriebenen Modulationsverfahren mit einem relativ geringen Implementierungsaufwand bereitgestellt werden.
  • Ein Entfernungsmesssystem, das wie hier beschrieben konfiguriert ist, darf andere Entfernungsmesssysteme (z.B. LIDAR-Systeme, z.B. von anderen Fahrzeugen) nicht stören, z.B. mit Entfernungsmesssystemen, die nicht wie hier beschrieben konfiguriert oder mit einer solchen Konfiguration nicht kompatibel sind.
  • Eine Konfiguration, wie sie hier beschrieben ist, kann eine erhöhte Sicherheit bieten (z.B. in der Automobilanwendung). Beispielsweise können Fahrzeuge über einen oder mehrere zusätzliche optische Kommunikationskanäle sicherheitskritische Informationen auch dann übermitteln, wenn die Funkkommunikation nicht funktioniert. Eine Konfiguration, wie hier beschrieben, kann erhöhte Sicherheit bieten. Beispielsweise kann eine sichere Authentisierung zwischen benachbarten Fahrzeugen vorgesehen werden, die aufgrund der für die Erkennung des Signals erforderlichen Sichtverbindung (ähnlich der Zwei-Faktor-Authentisierung) widerstandsfähiger gegen Hackerangriffe ist. Darüber hinaus kann ein Signal mit den Authentifizierungsdaten in der Nähe des Fahrzeugs enthalten sein und die gleichen Eigenschaften wie ein Reichweitenmesssystem aufweisen. Veranschaulichend kann es sein, dass nur die vom Reichweitenmesssystem erfassten Fahrzeuge in der Lage sind, das Signal zu empfangen, und/oder dass die erfassten Fahrzeuge diejenigen sind, die sich in der näheren Umgebung befinden und somit ein Hauptinteresse daran haben, einen Kommunikationskanal zu ermöglichen.
  • 145A und 145B zeigen jeweils einen Ausschnitt eines Entfernungsmesssystems 14500 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Ranging System 14500 kann als LIDAR-System sein oder konfiguriert werden (z.B. als LIDAR-Sensorsystem 10, z.B. als Flash-LIDAR-Sensorsystem 10 oder als Scanning-LIDAR-Sensorsystem 10). Das Ranging System 14500 kann z.B. in einem Sensorgerät, wie z.B. einem Fahrzeug (z.B. einem Auto, wie z.B. einem Elektroauto), enthalten sein. Das Messtastersystem 14500 kann als das z.B. in Bezug auf 131 bis 137 beschriebene Messtastersystem 13300 und/oder als das z.B. in Bezug auf 138 bis 144 beschriebene Messtastersystem 13800 konfiguriert sein oder konfiguriert werden. Es wird davon ausgegangen, dass in 145A und 145B nur einige der Komponenten des Luftbildsystems 14500 dargestellt werden können. Das Messtastersystem 14500 kann jede andere Komponente enthalten, die z.B. in Bezug auf das LIDAR-Sensorsystem 10 und/oder in Bezug auf das Messtastersystem 13300 und/oder in Bezug auf das Messtastersystem 13800 beschrieben ist.
  • 145A zeigt einen Ausschnitt einer Emitterseite 14502 (auch Encoderseite genannt) des Ranging Systems 14500 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Entfernungsmesssystem 14500 kann eine Lichtquelle 42 enthalten. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht, z.B. ein Lichtsignal, aussendet. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge, z.B. in einem vordefinierten Wellenlängenbereich, aussendet. Die Lichtquelle 42 kann z.B. so konfiguriert werden, dass sie Licht im Infrarot- und/oder nahen Infrarotbereich emittiert (z.B. im Bereich von etwa 700 nm bis etwa 5000 nm, z.B. im Bereich von etwa 860 nm bis etwa 1600 nm, z.B. 905 nm). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht kontinuierlich oder gepulst emittiert (z.B. einen oder mehrere Lichtpulse, wie eine Folge von Laserpulsen). Als Beispiel kann die Lichtquelle 42 als Laserlichtquelle konfiguriert werden. Die Lichtquelle 42 kann mindestens eine Laserlichtquelle enthalten (z.B. konfiguriert als die beschriebene Laserlichtquelle, z.B. in Bezug auf 59). Die Laserlichtquelle kann mindestens eine Laserdiode enthalten. Als Beispiel kann die Lichtquelle 42 ein Array von Lichtemittern enthalten (z.B. ein VCSEL-Array). Als weiteres Beispiel kann die Lichtquelle 42 (oder das Ranging-System 14500) ein Strahlführungssystem enthalten (z.B. ein System mit einem MEMS-Spiegel).
  • Das Ranging-System 14500 kann auch mehr als eine Lichtquelle 42 enthalten, die beispielsweise so konfiguriert ist, dass sie Licht in unterschiedlichen Wellenlängenbereichen und/oder mit unterschiedlichen Polarisationsorientierungen und/oder mit unterschiedlichen Raten (z.B. Pulsraten) emittiert. Beispielsweise kann eine erste Lichtquelle für Messbereichsoperationen und eine zweite Lichtquelle für die Datenübertragung konfiguriert oder dediziert sein.
  • Das Ranging-System 14500 kann einen Lichtquellen-Controller 14506 enthalten. Der Lichtquellen-Controller 14506 kann als Lichtquellen-Controller 13312 konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 131 bis 137 beschrieben; und/oder als Lichtquellen-Controller 13804, wie z.B. in Bezug auf 138 bis 144 beschrieben. Der Lichtquellen-Controller 14506 kann zur Steuerung der Lichtquelle 42 konfiguriert werden (z.B. zur Steuerung einer Lichtemission durch die Lichtquelle 42).
  • Der Lichtquellen-Controller 14506 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie mindestens einen Lichtimpuls 14508 aussendet (z.B. einen oder mehrere Lichtimpulse 14508, wie z.B. eine Folge von Lichtimpulsen 14508). Ein Lichtimpuls 14508 (z.B. jeder Lichtimpuls 14508) kann eine vordefinierte Wellenform haben (z.B. eine vordefinierte erste Wellenform). Zur Veranschaulichung: Die Lichtquelle 42 kann so konfiguriert werden, dass ein von der Lichtquelle 42 ausgesandter Lichtpuls (z.B. ein Laserpuls) die vordefinierte Wellenform haben kann. Als Beispiel kann die vordefinierte Wellenform eine sinusförmige Wellenform sein, z.B. kann ein Lichtpuls eine sinusförmige Form haben (z.B. kann ein Laserpuls eine sinusförmige Form haben).
  • Ein Lichtpuls 14508 kann eine Pulsdauer im Bereich von etwa 500 ps bis etwa 1 µs haben, z.B. von etwa 1 ns bis etwa 500 ns, z.B. von etwa 2 ns bis etwa 50 ns, z.B. 182 ns (nur als Beispielfall). Ein Lichtpuls 14508 kann eine oder mehrere Portionen enthalten. Als Beispiel kann ein Lichtimpuls 14508 einen ersten Anteil haben, z.B. einen Anstiegsanteil. Der Lichtimpuls 14508 kann einen zweiten Anteil haben, z.B. einen Abklinganteil (auch als Abfallanteil bezeichnet). Illustrativ kann der Lichtimpuls 14508 so konfiguriert werden, dass eine Amplitude (mit anderen Worten: eine Impulshöhe) des Lichtimpulses 14508 im ersten Teil zunimmt (z.B. von einem Anfangswert, wie z.B. im Wesentlichen 0, bis zu einem vordefinierten Wert, wie z.B. einem maximalen Amplitudenwert des Lichtimpulses 14508). Der Lichtimpuls 14508 kann so konfiguriert werden, dass die Amplitude im zweiten Teil abnimmt (z.B. von einem vordefinierten Wert, wie z.B. dem Maximalwert, bis hinunter zum Anfangswert, wie z.B. im Wesentlichen 0).
  • Ein Teil des Lichtimpulses 14508 kann eine vordefinierte Wellenform oder Teilwellenform haben. Zur Veranschaulichung: Ein Teil des Lichtimpulses 14508 kann eine Form haben, die einem Teil einer Wellenform (z.B. der vordefinierten Wellenform) entspricht. Der erste Teil des Lichtimpulses 14508 kann eine (z.B. erste) Teilwellenform haben (z.B. entsprechend einem Anstiegsteil einer sinusförmigen Wellenform). Der zweite Teil des Lichtimpulses 14508 kann eine (z.B. zweite) Teilwellenform aufweisen (z.B. entsprechend einem Abklingteil einer Sinuswellenform). Die erste Teilwellenform kann die gleiche sein wie die zweite Teilwellenform (z.B. kann ein Lichtimpuls 14508 die gleiche Art von Anstieg und Abklingen aufweisen). Zum Beispiel kann ein Lichtimpuls 14508 mit der vordefinierten Wellenform einen ersten Teil und einen zweiten Teil mit der gleichen Teilwellenform haben (z.B. sinusförmiger Anstieg und sinusförmiger Abfall). Die erste Teilwellenform kann sich von der zweiten Teilwellenform unterscheiden (z.B. kann ein Lichtimpuls 14508 mit der vordefinierten Wellenform einen anderen Typ von Anstieg und Abklingen haben), wie weiter unten näher beschrieben wird.
  • Ein Teil des Lichtimpulses 14508 kann eine Steigung oder eine Flanke aufweisen (z.B. eine Anstiegs- oder Abklingflanke). Die Eigenschaften der Flanke (z.B. die Steilheit, die Krümmung oder die Länge) können durch die Form des Teils (z.B. durch die Teilwellenform des Teils) definiert werden. Zum Beispiel kann ein Abschnitt mit einer sinusförmigen Teilwellenform eine weniger steile Steigung aufweisen als ein Abschnitt mit einer exponentiellen Teilwellenform. Zur Veranschaulichung: Der Lichtpuls 14508 kann eine erste Steigung im ersten Teil und eine zweite Steigung im zweiten Teil haben. Die erste Steigung kann die gleiche wie die zweite Steigung sein oder sich von der zweiten Steigung unterscheiden (z.B. steiler oder weniger steil).
  • Ein Teil des Lichtimpulses 14508 kann eine Zeitdauer haben (z.B. eine Anstiegszeit oder eine Abklingzeit). Die Zeitdauer kann durch die Form des Teils definiert werden. Zum Beispiel kann der erste Teil ungefähr die gleiche Dauer wie der zweite Teil haben (z.B. kann ein Lichtpuls 14508 ungefähr die gleiche Anstiegszeit und Abklingzeit haben). Als weiteres Beispiel können der erste Teil und der zweite Teil eine unterschiedliche Zeitdauer haben (z.B. kann ein Puls eine andere Anstiegszeit als die Abklingzeit haben).
  • Das Entfernungsmesssystem 14500 kann einen Signalmodulator 14510 enthalten. Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform von mindestens einem Lichtimpuls 14508 in eine modifizierte Wellenform (z.B. eine modifizierte zweite Wellenform) modifiziert, so dass der mindestens eine Lichtimpuls 14508 die modifizierte Wellenform hat (z.B. wie mindestens ein erster Teil oder ein zweiter Teil des Lichtimpulses 14508 eine modifizierte Teilwellenform hat, die sich von der vordefinierten Wellenform unterscheidet). Die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 kann die Wellenform sein oder beschreiben, die verwendet würde, um den Lichtimpuls 14508 zu emittieren, wenn keine Modifikation durchgeführt wurde (z.B. die Wellenform, die dem Lichtimpuls 14508 zugeordnet wäre, oder die Wellenform, die der Lichtimpuls 14508 hätte, wenn keine Modifikation durchgeführt würde). Die modifizierte (z.B. zweite) Wellenform kann sich von der vordefinierten (z.B. erste) Wellenform unterscheiden. Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er mindestens einen Lichtimpuls 14508 elektrisch so moduliert, dass der mindestens eine Lichtimpuls 14508 eine modifizierte Wellenform aufweist, die sich von der vordefinierten Wellenform unterscheidet. Der Signalmodulator 14510 kann so konfiguriert werden, dass er eine Modulation im Zeitbereich auf den mindestens einen Lichtimpuls 14508 erzeugt. Zum Beispiel kann der Signalmodulator 14510 so konfiguriert werden, dass er ein moduliertes Signal (z.B. ein moduliertes elektrisches Signal) erzeugt. Der Signalmodulator 14510 kann so konfiguriert werden, dass er das modulierte Signal an die Lichtquelle 42 (und/oder an den Lichtquellen-Controller 14506) liefert. Die Lichtquelle 42 kann den mindestens einen Lichtimpuls 14508 in Übereinstimmung mit dem modulierten Signal aussenden. Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die Lichtquelle 42 elektrisch so moduliert, dass mindestens ein Lichtimpuls 14508 mit der modifizierten Wellenform emittiert wird.
  • Der Signalmodulator 14510 und der Lichtquellenregler 14506 können auch in einem einzigen Gerät (z.B. in einem einzigen Modul) kombiniert werden. Zur Veranschaulichung: Das Reichweitenmesssystem 14500 kann ein Gerät mit dem Signalmodulator 14510 und dem Lichtquellensteuergerät 14506 enthalten. Zur Veranschaulichung kann das Gerät auch als Signalmodulator 14510 und Lichtquellensteuergerät 14506 konfiguriert werden, z.B. kann das Gerät so konfiguriert werden, dass es als Signalmodulator 14510 und Lichtquellensteuergerät 14506 arbeitet (zur Steuerung der Lichtquelle 42 und zur Änderung der vordefinierten Wellenform von mindestens einem Lichtpuls 14508).
  • Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 modifiziert (zur Veranschaulichung, um die vordefinierte Wellenform zu modifizieren, die für die Aussendung des mindestens einen Lichtimpulses 14508 zu verwenden ist), um die Fähigkeiten des mindestens einen Lichtimpulses 14508 zu verbessern (zur Veranschaulichung, so dass der mindestens eine Lichtimpuls 14508 für Bereichsmessungen und/oder für andere Anwendungen verwendet werden kann). Als Beispiel kann der Signalmodulator 14510 so konfiguriert werden, dass er Daten auf den mindestens einen Lichtpuls 14508 moduliert (mit anderen Worten: Daten kodiert). Zur Veranschaulichung: Die Modifikation der vordefinierten Wellenform kann Mittel zur Datenkodierung bereitstellen (z.B. kann die modifizierte Wellenform Daten darstellen oder kodieren, z.B. entsprechend einem oder mehreren Unterschieden zwischen der modifizierten Wellenform und der vordefinierten Wellenform). Beispielsweise kann der Signalmodulator so konfiguriert werden, dass er sicherheitsrelevante Daten auf den mindestens einen Lichtpuls 14508 moduliert. Die sicherheitsbezogenen Daten können ASIL-Daten (Automotive Safety Integrity Level) enthalten und/oder den ASIL-Vorschriften entsprechen (mit anderen Worten, die sicherheitsbezogenen Daten können den ASIL-Vorschriften entsprechen). Zusätzlich oder alternativ kann der Signalmodulator 14510 so konfiguriert werden, dass er sicherheitsrelevante Daten auf den mindestens einen Lichtpuls 14508 moduliert. Die sicherheitsbezogenen Daten können kryptographische Informationen enthalten (z.B. einen oder mehrere kryptographische Schlüssel und/oder Authentisierungsdaten, wie z.B. eine Fahrzeug-Identifikationsnummer).
  • Es wird davon ausgegangen, dass der Signalmodulator 14510 so konfiguriert werden kann, dass er eine Vielzahl von Lichtimpulsen 14508 moduliert (z.B. um die vordefinierte Wellenform einer Vielzahl von Lichtimpulsen 14508 zu einer entsprechenden modifizierten Wellenform zu modifizieren). Zum Beispiel kann der Signalmodulator 14510 so konfiguriert werden, dass er die vordefinierte Wellenform eines ersten Lichtimpulses und eines zweiten Lichtimpulses so modifiziert, dass der erste Lichtimpuls und der zweite Lichtimpuls eine entsprechende modifizierte Wellenform haben (zur Veranschaulichung: jeder unterscheidet sich von der vordefinierten Wellenform). Der erste Lichtimpuls kann eine andere modifizierte Wellenform in Bezug auf den zweiten Lichtimpuls haben (zur Veranschaulichung: der erste Lichtimpuls und der zweite Lichtimpuls können unterschiedliche Datentypen kodieren oder übertragen, wie z.B. unterschiedliche ein oder mehrere Bits). Alternativ kann der erste Lichtimpuls dieselbe modifizierte Wellenform wie der zweite Lichtimpuls haben (zur Veranschaulichung: der erste Lichtimpuls und der zweite Lichtimpuls können dieselbe Art von Daten kodieren oder übertragen, wie z.B. dasselbe oder mehrere Bits).
  • Der Signalmodulator 14510 kann so konfiguriert werden, dass eine Amplitude der vordefinierten Wellenform des mindestens einen Lichtimpulses 14508 modifiziert (z.B. moduliert) wird (zur Veranschaulichung: eine Amplitude des mindestens einen Lichtimpulses 14508). Die Amplitude (z.B. eine maximale Amplitude) der modifizierten Wellenform kann größer oder kleiner als die Amplitude (z.B. die maximale Amplitude) der vordefinierten Wellenform sein. Die Amplitude der modifizierten Wellenform kann innerhalb der Dauer der modifizierten Wellenform (z.B. innerhalb der Dauer des Lichtimpulses 14508) variieren (z.B. schwingen).
  • Beispielsweise kann der Signalmodulator 14510 so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass die modifizierte Wellenform des mindestens einen Lichtimpulses 14508 ein oder mehrere höckerartige Strukturelemente (z.B. mehrere höckerartige Strukturelemente) enthält. Eine höckerartige Struktur (z.B. ein Buckel oder eine Spitze) kann als ein Teil einer Wellenform verstanden werden, in dem die Amplitude der Wellenform von einem lokalen Minimum (oder dem absoluten Minimum) zu einem lokalen Maximum (oder dem absoluten Maximum) und zurück zum lokalen Minimum variiert. Veranschaulichend kann eine sinusförmige Wellenform als eine Wellenform mit einer einzigen höckerähnlichen Struktur, z.B. einem einzigen Buckel, verstanden werden (wie z.B. in 147A gezeigt). Ein Beispiel für eine Wellenform mit einer Vielzahl von höckerartigen Strukturelementen (z.B. drei) ist z.B. in 147D dargestellt.
  • Verschiedene höckerartige Strukturelemente können unterschiedliche Modulationstiefen haben (z.B. unterschiedliches lokales Maximum und/oder unterschiedliches lokales Minimum). Ein höckerartiges Strukturelement kann einen oder mehrere Abschnitte haben, ähnlich wie oben für den Lichtpuls 14508 beschrieben. Zur Veranschaulichung: Eine höckerartige Struktur kann einen ersten Teil haben (z.B. Anstiegsteil). Ein höckerartiges Strukturelement kann einen zweiten Teil haben (z.B. einen Zerfallsteil). Der erste Teil kann eine (z.B. erste) Form oder eine Formcharakteristik haben, z.B. eine (erste) Teilwellenform. Der zweite Teil kann eine (z.B. zweite) Form- oder Gestaltcharakteristik haben, z.B. eine (zweite) partielle Wellenform. Die erste partielle Wellenform kann die gleiche sein wie die zweite partielle Wellenform (z.B. kann ein buckelartiges Strukturelement die gleiche Art von Anstieg und Abklingen haben, z.B. sinusförmiger Anstieg und sinusförmiger Abklingen). Die erste partielle Wellenform kann sich von der zweiten partiellen Wellenform unterscheiden (z.B. kann ein höckerartiges Strukturelement einen anderen Typ von Anstieg und Abklingen haben, z.B. lineares Ansteigen und sinusförmiges Abfallen). Der erste Teil kann eine erste Steigung aufweisen. Der zweite Teil kann eine zweite Steigung aufweisen. Die erste Steigung kann die gleiche wie die zweite Steigung sein oder sich von der zweiten Steigung unterscheiden. Der erste Teil und der zweite Teil können ungefähr die gleiche Dauer haben, oder der erste Teil und der zweite Teil können eine unterschiedliche Zeitdauer haben.
  • Der Signalmodulator 14510 kann so konfiguriert werden, dass er eine oder mehrere Eigenschaften eines oder mehrerer höckerartiger Strukturelemente modifiziert (z.B. mindestens ein höckerartiges Strukturelement oder mehr als ein höckerartiges Strukturelement oder alle höckerartigen Strukturelemente). Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 entsprechend einer oder mehrerer gewünschter Eigenschaften der höckerartigen Strukturelemente, die in die modifizierte Wellenform aufgenommen werden sollen, modifiziert. Beispielsweise kann der Signalmodulator 14510 so konfiguriert werden, dass er die Position des einen oder der mehreren höckerartigen Strukturelemente modifiziert (z.B. die Mittelposition eines höckerartigen Strukturelements, z.B. die Startzeit des ersten Abschnitts und/oder die Endzeit des zweiten Abschnitts). Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 modifiziert, um eine entsprechende Position des einen oder der mehreren höckerartigen Strukturelemente der modifizierten Wellenform auszuwählen oder zu definieren. Als weiteres Beispiel kann der Signalmodulator 14510 so konfiguriert werden, dass er den ersten Teil und/oder den zweiten Teil eines höckerartigen Strukturelements modifiziert (z.B. die Steigung und/oder die Zeitdauer, z.B. so, dass ein Teil eine steilere oder weniger steile Steigung hat oder dass ein Teil eine längere oder kürzere Zeitdauer hat). Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die Anstiegsflanke und/oder die Abfallflanke eines höckerartigen Strukturelements modifiziert. Zur weiteren Veranschaulichung kann der Signalmodulator 14510 so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 modifiziert, um einen entsprechenden ersten Teil und/oder zweiten Teil des einen oder der mehreren höckerartigen Strukturelemente der modifizierten Wellenform auszuwählen oder zu definieren.
  • Der Signalmodulator 14510 kann so konfiguriert werden, dass er die Dauer (d.h. die Impulsbreite) der vordefinierten Wellenform des mindestens einen Lichtimpulses 14508 modifiziert. Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform so modifiziert, dass die modifizierte Wellenform (zur Veranschaulichung: der mindestens eine Lichtimpuls 14508) eine längere oder kürzere Dauer in Bezug auf die vordefinierte Wellenform hat.
  • Die Modifikation der vordefinierten Wellenform (z.B. des mindestens einen Lichtimpulses 14508) im Zeitbereich kann einen entsprechenden Effekt im Frequenzbereich haben oder erzeugen. Illustrativ kann, wie oben beschrieben, eine Wellenform mit einem entsprechenden Signal im Frequenzbereich verbunden sein (z.B. erzeugt oder erhalten durch eine Fast-Fourier-Transformation der Wellenform). Eine Wellenform kann einer oder mehreren Komponenten im Frequenzbereich zugeordnet werden (z.B. Spitzen, illustrativ, das Signal im Frequenzbereich kann einen oder mehrere Spitzen haben, die auch als Frequenzkomponenten bezeichnet werden). Die Eigenschaften der Wellenform im Zeitbereich können das Signal im Frequenzbereich definieren (z.B. die Amplitude der Peaks, die Anzahl der Peaks und/oder die Frequenzposition der Peaks). Beispielsweise kann die Steigung eines Teils eines Lichtimpulses 14508 (z.B. der zugehörigen Wellenform) das Vorhandensein (oder Fehlen) von Komponenten im Frequenzbereich bei höheren (z.B. über 20 MHz, z.B. für einen Impuls mit einer Dauer von 182 ns und mit drei höckerartigen Strukturelementen) oder niedrigeren Frequenzen (z.B. unter 5 MHz, z.B. für einen Impuls mit einer Dauer von 182 ns und mit drei höckerartigen Strukturelementen) bestimmen. Illustrativ kann die Form oder die charakteristische Form eines Teils (z.B. des Anstiegs oder des Abfalls) das Vorhandensein (oder Fehlen) von Frequenzbereichskomponenten bei bestimmten Frequenzen bestimmen.
  • Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der erste Teil und der zweite Teil des Lichtimpulses 14508 (zur Veranschaulichung, der modifizierten Wellenform) mit Komponenten im Frequenzbereich bei unterschiedlichen Frequenzen verbunden sind (z.B. erzeugen).
  • Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der zweite Teil mit Komponenten im höheren Frequenzbereich in Bezug auf den ersten Teil assoziiert ist. Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der zweite Teil mit einer höheren Frequenzkomponente im Frequenzbereich in Bezug auf jede Frequenzkomponente im Frequenzbereich, die mit dem ersten Teil verbunden ist, assoziiert wird. Zum Beispiel kann der Signalmodulator 14510 so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der zweite Teil eine steilere Steigung in Bezug auf den ersten Teil aufweist. Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er im zweiten Teil des mindestens einen Lichtimpulses 14508 eine Steigung erzeugt, die steiler ist als jede Steigung im ersten Teil. Als Beispiel kann der erste Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform und der zweite Teil eine exponentielle Teilwellenform (oder eine Gauß'sche Teilwellenform) aufweisen. Als weiteres Beispiel kann der erste Teil eine sinusförmige Teilwellenform und der zweite Teil eine lineare Teilwellenform aufweisen.
  • Zusätzlich oder alternativ dazu kann der Signalmodulator 14510 so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der zweite Teil mit Komponenten im niedrigeren Frequenzbereich in Bezug auf den ersten Teil assoziiert wird. Zur Veranschaulichung: Der Signalmodulator 14510 kann so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der zweite Teil mit einer niedrigeren Frequenzkomponente im Frequenzbereich in Bezug auf jede Frequenzkomponente im Frequenzbereich verbunden ist, die mit dem ersten Teil verbunden ist. Zum Beispiel kann der Signalmodulator 14510 so konfiguriert werden, dass er die vordefinierte Wellenform des mindestens einen Lichtimpulses 14508 so modifiziert, dass der zweite Teil eine weniger steile Steigung in Bezug auf den ersten Teil aufweist. Anders ausgedrückt: Der Signalmodulator 14510 kann so konfiguriert werden, dass er im zweiten Teil des mindestens einen Lichtimpulses 14508 eine Steigung erzeugt, die weniger steil ist als jede Steigung im ersten Teil. Zum Beispiel kann der zweite Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform und der erste Teil eine exponentielle Teilwellenform (oder eine Gauß'sche Teilwellenform) aufweisen. Als weiteres Beispiel kann der zweite Teil eine sinusförmige Teilwellenform und der erste Teil eine lineare Teilwellenform aufweisen.
  • Es wird davon ausgegangen, dass es sich bei den Frequenzbereichskomponenten mit höherer (oder niedrigerer) Frequenz, die mit dem ersten Teil und/oder mit dem zweiten Teil verbunden sind, um Frequenzbereichskomponenten mit einer Amplitude oberhalb eines bestimmten Schwellenwertes handeln kann, wie weiter unten näher beschrieben wird. Veranschaulichend kann es sich bei den Frequenzbereichskomponenten mit höherer (oder niedrigerer) Frequenz nicht um Rauschen handeln, sondern um eine oder mehrere Eigenschaften des ersten und/oder des zweiten Teils.
  • 145B zeigt einen Ausschnitt einer Empfängerseite 14504 (auch Encoderseite genannt) des Ranging Systems 14500 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Ranging-System 14500 kann einen Sensor 52 (z.B. einen LIDAR-Sensor) enthalten. Der Sensor 52 kann einen oder mehrere Sensorpixel enthalten. Der Sensor 52 kann eine oder mehrere Fotodioden enthalten. Zur Veranschaulichung: Jedes Sensorpixel kann eine entsprechende Fotodiode (z. B. desselben Typs oder verschiedener Typen) enthalten oder damit verbunden sein. Die eine oder mehrere Fotodioden können so konfiguriert sein, dass sie als Reaktion auf den Empfang eines Lichtimpulses 14512 (z.B. als Reaktion auf einen Lichtimpuls 14512, der auf den Sensor 52 auftrifft) ein Empfangssignal (z.B. ein elektrisches Signal, wie z.B. einen Strom) liefern. Illustrativ kann das empfangene Signal den empfangenen Lichtimpuls 14512 repräsentieren (z.B. kann das empfangene Signal eine oder mehrere Eigenschaften, z.B. eine Form oder ein Formmerkmal, haben, die mit einer oder mehreren Eigenschaften des empfangenen Lichtimpulses 14512 verbunden sind).
  • Das Entfernungsmesssystem 14500 kann auch mehr als einen Sensor 52 enthalten. Beispielsweise kann ein erster Sensor für die Messbereichsbestimmung und ein zweiter Sensor für die Datenkommunikation (z.B. für den Datenempfang) konfiguriert oder reserviert sein.
  • Ein empfangener Lichtimpuls 14512 kann ein dem Entfernungsmesssystem 14500 zugeordneter Lichtimpuls sein (z.B. ein Echosignal, wie ein vom Entfernungsmesssystem 14500 ausgesandter und zum Entfernungsmesssystem zurückreflektierter Lichtimpuls), z.B. kann der empfangene Lichtimpuls 14512 ein eigener Lichtimpuls sein. Alternativ kann der empfangene Lichtimpuls 14512 ein Lichtimpuls sein, der einer anderen Quelle zugeordnet ist (z.B. einem anderen Entfernungsmesssystem, wie z.B. einem anderen LIDAR-Sensorsystem), z.B. kann der empfangene Lichtimpuls 14512 ein Fremdlichtimpuls sein. Der empfangene Lichtimpuls 14512 kann die gleichen Eigenschaften und/oder die gleiche Konfiguration wie ein Lichtimpuls 14508 haben (z.B. als gesendeter Lichtimpuls). Der empfangene Lichtimpuls 14512 kann eine Impulsdauer im Bereich von ca. 500 ps bis ca. 1 µs haben, z.B. von ca. 1 ns bis ca. 500 ns, z.B. von ca. 2 ns bis ca. 50 ns, z.B. 182 ns (nur als Beispiel).
  • Das Ranging-System 14500 kann einen oder mehrere Prozessoren 14514 enthalten. Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren (z.B. dekodieren oder interpretieren). Die Demodulation kann ein demoduliertes Signal bestimmen (z.B. bereitstellen). Zur Veranschaulichung: Ein oder mehrere Prozessoren 14514 können so konfiguriert werden, dass sie Daten aus dem empfangenen Signal (oder aus dem empfangenen Lichtimpuls 14512) extrahieren. Als Beispiel kann das empfangene Signal sicherheitsbezogene Daten enthalten. Die sicherheitsbezogenen Daten können ASIL-Daten (Automotive Safety Integrity Level) enthalten und/oder mit den ASIL-Vorschriften übereinstimmen. Zusätzlich oder alternativ kann das empfangene Signal sicherheitsrelevante Daten enthalten. Die sicherheitsbezogenen Daten können kryptographische Informationen enthalten (z. B. einen oder mehrere kryptographische Schlüssel und/oder Authentifizierungsdaten).
  • Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal analysieren, z.B. um eine oder mehrere Eigenschaften des empfangenen Signals (z.B. einer Wellenform des empfangenen Signals) zu bestimmen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, um das demodulierte Signal zu bestimmen, indem sie z.B. eine Differenz einer Wellenform des empfangenen Signals (z.B. einer modifizierten Wellenform des empfangenen Signals) in Bezug auf eine vordefinierte Wellenform bestimmen (z.B. durch Berechnung). Die Differenz kann z.B. durch eine Modifikation einer Wellenform des empfangenen Lichtimpulses durch einen Signalmodulator eines anderen Entfernungsmesssystems (z.B. eines anderen LIDAR-Sensorsystems) bereitgestellt werden. Der eine oder die mehreren Prozessoren 14514 können beispielsweise so konfiguriert werden, dass sie eine Analyse des empfangenen Signals im Frequenzbereich durchführen, z.B. um eine Fast-Fourier-Transformation des empfangenen Signals durchzuführen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie ein Signal im Frequenzbereich bestimmen, das mit der Wellenform des empfangenen Signals verknüpft ist. Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie eine Differenz zwischen dem Signal im Frequenzbereich, das mit dem empfangenen Signal (illustrativ mit der Wellenform des empfangenen Signals, z.B. der Wellenform des empfangenen Lichtimpulses 14512) verknüpft ist, und dem Signal im Frequenzbereich, das mit der vordefinierten Wellenform verknüpft ist, bestimmen.
  • Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie eine oder mehrere Eigenschaften des empfangenen Signals bestimmen.
  • Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie eine Amplitude der (z. B. modifizierten) Wellenform des empfangenen Signals bestimmen (z. B. eine Amplitude des empfangenen Lichtimpulses 14512). Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie die Amplitude der Wellenform des empfangenen Signals in Bezug auf die vordefinierte Wellenform (z.B. eine Differenz zwischen der Amplitude der Wellenform des empfangenen Signals und der Amplitude der vordefinierten Wellenform) bestimmen.
  • Beispielsweise können der eine oder die mehreren Prozessoren 14514 so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie ein oder mehrere höckerartige Strukturelemente in der Wellenform des empfangenen Signals bestimmen (z.B. durch Identifizierung und/oder Charakterisierung) (z.B. von mindestens einem höckerartigen Strukturelement oder mehr als einem höckerartigen Strukturelement oder allen höckerartigen Strukturelementen). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie das Vorhandensein und/oder die Eigenschaften (z.B. Formcharakteristik, Teilwellenformen, Anstiegsflanke, Abklingflanke, Tiefe) des einen oder der mehreren höckerartigen Strukturelemente bestimmen. Der eine oder die mehreren Prozessoren 14514 können z.B. so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie eine Position (z.B. eine Mittelposition) des einen oder der mehreren höckerartigen Strukturelemente bestimmen. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie den ersten Teil und/oder den zweiten Teil eines höckerartigen Strukturelements (z.B. die Steigung und/oder die Zeitdauer) bestimmen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie eine Anstiegsflanke und/oder eine Abklingflanke eines höckerartigen Strukturelements bestimmen.
  • Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie eine Dauer (z. B. eine Pulsbreite) der Wellenform des empfangenen Signals bestimmen. Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie die Dauer der Wellenform des empfangenen Signals in Bezug auf die vordefinierte Wellenform (z.B. eine Differenz zwischen der Dauer der Wellenform des empfangenen Signals und der Dauer der vordefinierten Wellenform) bestimmen.
  • Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie das empfangene Signal demodulieren, indem sie eine oder mehrere Eigenschaften eines ersten Teils und/oder eines zweiten Teils des empfangenen Signals (z.B. der Wellenform des empfangenen Signals oder des Lichtimpulses 14512) bestimmen. Der erste Teil und der zweite Teil können ungefähr die gleiche Zeitdauer haben. Alternativ können der erste Teil und der zweite Teil eine unterschiedliche Zeitdauer haben.
  • Beispielsweise können der eine oder die mehreren Prozessoren 14514 so konfiguriert werden, dass sie die Demodulation durchführen (zur Veranschaulichung, um das empfangene Signal zu demodulieren), indem sie die Wellenform des empfangenen Signals bestimmen, um Komponenten im höheren Frequenzbereich, die mit dem zweiten Teil als mit dem ersten Teil verbunden sind, zu bestimmen (z. B. zu identifizieren oder zu berechnen).
  • Der eine oder die mehreren Prozessoren 14514 können so konfiguriert werden, dass sie eine höhere Frequenzkomponente in dem Frequenzbereich bestimmen, der dem zweiten Teil zugeordnet ist, als jede andere Frequenzkomponente in dem Frequenzbereich, der dem ersten Teil zugeordnet ist. Als Beispiel kann der zweite Teil eine steilere Steigung in Bezug auf den ersten Teil aufweisen. Anders ausgedrückt, kann die Steigung im zweiten Teil des empfangenen Signals steiler sein als jede Steigung im ersten Teil des empfangenen Signals. Beispielsweise kann der erste Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform und der zweite Teil eine exponentielle Teilwellenform (oder eine Gaußsche Teilwellenform) aufweisen. Als weiteres Beispiel kann der erste Teil eine sinusförmige Teilwellenform und der zweite Teil eine lineare Teilwellenform aufweisen.
  • Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 14514 so konfiguriert werden, dass sie eine niedrigere Frequenzkomponente in dem Frequenzbereich bestimmen, der dem zweiten Teil zugeordnet ist, als jede andere Frequenzkomponente in dem Frequenzbereich- , der dem ersten Teil zugeordnet ist. Als Beispiel kann der zweite Teil eine weniger steile Steigung in Bezug auf den ersten Teil aufweisen. Anders ausgedrückt, die Steigung im zweiten Teil des empfangenen Signals kann weniger steil sein als jede Steigung im ersten Teil des empfangenen Signals. Als Beispiel kann der zweite Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform und der erste Teil eine exponentielle Teilwellenform (oder eine Gauß'sche Teilwellenform) aufweisen. Als weiteres Beispiel kann der zweite Teil eine sinusförmige Teilwellenform und der erste Teil eine lineare Teilwellenform aufweisen.
  • 145C zeigt ein Diagramm 14516 mit einer Vielzahl von Wellenformen. Aus Gründen der Übersichtlichkeit der Darstellung sind die zweite Wellenform 14520 und die vierte Wellenform 14524 mit einer Verschiebung (z.B. 10 ns) gegenüber der ersten Wellenform 14518 und der dritten Wellenform 14522 dargestellt. Es versteht sich von selbst, dass die in 145C dargestellten Wellenformen oder Kombinationen von Teilwellenformen nur als Beispiel gewählt werden, und es können auch andere Wellenformen oder Kombinationen von Wellenformen angegeben werden.
  • Eine Wellenform (oder eine Teilwellenform) kann eine beliebige Wellenform (zur Veranschaulichung: kann jede beliebige Form oder Formcharakteristik haben) sein, die durch das Ranging-System 14500 erzeugt werden kann (z.B. durch die Komponenten des Ranging-Systems 14500, z.B. durch eine mit der Lichtquelle 42 gekoppelte Lade-/Entladeeinrichtung).
  • Eine Wellenform kann einen ersten Teil und einen zweiten Teil mit den gleichen Formeigenschaften haben. Beispielsweise kann eine (z.B. erste) Wellenform eine sinusförmige Wellenform 14518 sein, z.B. kann eine Wellenform einen sinusförmigen ersten Teil und einen sinusförmigen zweiten Teil haben. Als weiteres Beispiel kann eine (z.B. dritte) Wellenform eine exponentielle Wellenform 14522 sein, z.B. kann eine Wellenform einen exponentiellen ersten Teil und einen exponentiellen zweiten Teil haben.
  • Eine Wellenform kann einen ersten Teil und einen zweiten Teil mit unterschiedlichen Formeigenschaften haben. Zum Beispiel kann eine (z.B. zweite) Wellenform 14520 einen sinusförmigen ersten Teil und einen exponentiellen zweiten Teil haben. Als weiteres Beispiel kann eine (z.B. vierte) Wellenform 14524 einen linearen ersten Teil und einen sinusförmigen zweiten Teil haben.
  • Die vordefinierte Wellenform kann unter den möglichen Wellenformen für das Ranging-System 14500 ausgewählt werden. Als Beispiel kann die vordefinierte Wellenform die sinusförmige Wellenform 14518 sein.
  • 145D zeigt ein Kommunikationssystem 14526 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Ranging-System 14500 kann in ein Kommunikationssystem 14526 eingebunden werden, z.B. kann es für die optische Kommunikation im Kommunikationssystem 14526 verwendet werden.
  • Das Kommunikationssystem 14526 kann ein Funkkommunikationsgerät 14528 (auch als mobiles Funkgerät bezeichnet) enthalten. Das Funkkommunikationsgerät 14528 kann einen Datenkodierer 14530 enthalten. Der Datenkodierer 14530 kann so konfiguriert werden, dass er die zu übertragenden Daten gemäß einem mobilen Funkkommunikationsprotokoll kodiert. Die Funkkommunikationsvorrichtung 14528 kann einen Funksender 14532 (z.B. einen mobilen Funksender) enthalten. Der Funksender 14532 kann so konfiguriert werden, dass er die kodierten Daten in Übereinstimmung mit dem Mobilfunk-Kommunikationsprotokoll (z.B. in Übereinstimmung mit einem standardisierten Mobilfunk-Kommunikationsprotokoll) überträgt. Die verschlüsselten Daten können mit einem oder mehreren kryptographischen Schlüsseln, die über das Ranging-System 14500 übertragen werden, verschlüsselt und/oder digital signiert werden (illustrativ, ähnlich einer Zwei-Faktor-Authentifizierung).
  • 145E zeigt ein elektrisches Diagramm einer möglichen Schaltung zur Erzeugung einer Stromwellenform, die zu einem Laserlichtimpuls mit Formen führt, wie sie z.B. in 145C, 147A, 147D, 147G, 148A, 148B, 149A, 149B und 149D gezeigt und hierin beschrieben sind. Der Laserpuls kann von der Laserdiode 14550 emittiert werden. Die Energie eines solchen Laserpulses kann hauptsächlich durch einen Kondensator 14552 bereitgestellt werden. Der Kondensator 14552 kann über einen steuerbaren Widerstand 14560 in die Laserdiode entladen werden. Der steuerbare Widerstand 14560 kann über einen Waveshape-Controller 14564 (auch als Waveshape-Controller bezeichnet) gesteuert werden. Der Waveshape-Controller 14564 kann so konfiguriert werden, dass er die an einen Steuereingang 14560g des steuerbaren Widerstands 14560g gelieferte Spannung moduliert und dadurch den Strom durch die Laserdiode und damit den emittierten Laserlichtpuls formt. Der Kondensator 14552 kann durch eine Ladeschaltung 14570 (auch als Kondensatorladeschaltung 14570 bezeichnet) geladen werden. Es kann zahlreiche Möglichkeiten geben, eine Kondensatorladeschaltung zu implementieren. Eine sehr einfache, die aus einer steuerbaren Gleichstromquelle 14574 und einem Ladewiderstand 14572 besteht, ist in 145E nur als Beispiel dargestellt. Fortschrittlichere und energieeffizientere Ladeschaltungen, die z.B. auf Schaltnetzteilwandlung basieren, können stattdessen verwendet werden. Die Spannung der Gleichstromquelle 14574 kann durch den Waveshape-Regler 14564 gesteuert werden (nicht in 145E dargestellt). Je nach gewünschter Amplitude des Laserlichtpulses kann die Spannung der regelbaren Gleichstromquelle eingestellt werden. Je höher die Amplitude des Lichtes ist, desto höher kann die mit dem Waveshape-Regler eingestellte Spannung sein. Als Teil der Waveshape-Steuerung kann eine Lookup-Tabelle verwendet werden, die die gewünschte Lichtamplitude in die jeweils eingestellte Spannung in Übereinstimmung mit den einzelnen in der jeweiligen Implementierung verwendeten Komponenten übersetzt.
  • 145F zeigt als weiteres Beispiel die konkrete Umsetzung der in 145E gezeigten Grundschaltung, bei der der gesteuerte Widerstand durch einen MOSFET (Metalloxid-Feldeffekttransistor) realisiert werden kann, der auf der Halbleitertechnologie Si (Silizium), GaN (Gallium-Nitrit) oder SiC (Siliziumkarbid) basieren kann. Die Laserdiode 14550 kann eine Struktur enthalten, bei der die Kathode elektrisch mit dem Metallgehäuse der Vorrichtung verbunden werden kann, die auf einem Kühlkörper montiert werden kann. Um sehr gute thermische Eigenschaften zu erreichen, die eine gute Kühlung der Laserdiode 14550 ermöglichen, kann die Kathode der Laserdiode nicht nur thermisch, sondern auch elektrisch mit einem metallischen Kühlkörper verbunden sein. Da der Kühlkörper mit Masse 14554 verbunden werden kann, kann die Wellenformregelung 14564, die eine geregelte Spannung zwischen einem Gate-Anschluss 14562g und einem Source-Anschluss 14562s des Transistors 14562s bereitstellt, als elektrisch isolierte Schaltung, auch als „Floating-Gate-Treiber“ bezeichnet, implementiert werden, wodurch jegliche elektrische Masseschleifen vermieden werden.
  • 145G zeigt ein weiteres Beispiel für eine Schaltung zur Erzeugung einer Stromwellenform, die zu einem Laserlichtimpuls mit Formen führt, wie sie z.B. in 145C, 147A, 147D, 147G, 148A, 148B, 149A, 149B und 149D gezeigt und hierin beschrieben sind. Die Schaltung kann in Aufbau und Funktionsprinzip der in 145F gezeigten Schaltung ähnlich sein. Anstelle eines einzelnen Kondensator-Transistor-Paares kann die Schaltung jedoch mehrere Transistoren 14562a, 14562b, 14562c usw. und mehrere Kondensatoren 14552a, 14552b, 14552c usw. enthalten, die Transistor-Kondensator-Paare bilden. Die Transistor-Kondensator-Paare können alle parallel geschaltet sein und können alle einzeln elektrische Leistung an die Laserdiode 14550 liefern. Während der i-te Transistor 14562i leitend ist, kann der Laserdiode 14550 Energie zugeführt und der entsprechende i-te Kondensator 14552i entladen werden. Das Aufladen der Kondensatoren kann durch die Ladeschaltungen 14570a, 14570b, 14570c usw. erfolgen, die jeweils aus einer steuerbaren Gleichstromquelle 14574a, 14574b, 14574c usw. und den entsprechenden Ladewiderständen 14572a, 14572b, 14572c usw. bestehen. Die Ladespannung für jeden Kondensator 14570i kann individuell über die jeweilige steuerbare Gleichstromquelle 14574i durch die Wellenformregelung 14564 eingestellt werden (nicht in 145G dargestellt).
  • Die Steuerung des i-ten Transistors 14562i durch die Wellenformregelung kann auf die gleiche Weise erfolgen wie bei der in 145F gezeigten Schaltung, bei der die Gate-Source-Spannung so moduliert werden kann, dass eine Laserdioden-Stromwellenform erzeugt wird, die zu der gewünschten Laserpulslichtwellenform führt. Hier kann jedoch jedes Gate-Source-Steuermuster ein gültiges Gate-Source-Steuermuster sein (bestehend aus einer bestimmten Gate-Source-Spannungswellenform a für den Transistor 14562a, einer bestimmten Gate-Source-Spannungswellenform b für den Transistor 14562b, einer bestimmten Gate-Source-Spannungswellenform- c für den Transistor 14562c usw.), wobei die Summe der Drain-Ströme aller Transistoren 14562a, 14562b, 14562c, die die Laserdioden-Stromwellenform erzeugen, zu der gewünschten Laserpulslichtwellenform führen kann. Ein „offensichtliches“ Gate-Source-Steuermuster, das auch als „Standard-Steuermuster“ bezeichnet werden kann, kann das Muster sein, bei dem jeder der i-Transistoren den i-ten Bruchteil des Laserdiodenstroms führt, was im Falle identischer variabler Gleichstromquellen 14570i, identischer Einstellspannungen der jeweiligen Gleichspannungsquellen, identischer Kondensatoren 14552i und identischer Transistoren 14562i identische Gate-Source-Spannungswellenformen sein oder diesen entsprechen kann, die in Phase zueinander sind (keine Zeitunterschiede/Verzögerungen zwischen den unterschiedlichen Gate-Source-Spannungen von einem Transistor zu jedem anderen Transistor).
  • Das beschriebene Standard-Regelmuster (und/oder andere denkbare Regelmuster) kann die Transistoren 14562a, 14562b, 14562c usw. als steuerbare Widerstände verwenden, entsprechend der in 145E beschriebenen Grundfunktion. In anderen denkbaren Regelmustern, die als „additive Regelmuster“ bezeichnet werden, können jedoch die Transistoren 14562a, 14562b, 14562c usw. als Schalter verwendet und entweder ganz ein oder ganz ausgeschaltet werden. Dies kann dazu führen, dass die in den Kondensatoren gespeicherte Energie vollständig in den Laserpuls „eingebaut“ wird. Dies kann sich von dem Standard-Regelmuster und anderen denkbaren Regelmustern, die als „subtraktive Regelmuster“ bezeichnet werden, unterscheiden, bei denen die Transistoren 14562a, 14562b, 14562c usw. als steuerbare Widerstände verwendet werden können, wobei ein Teil der in den Kondensatoren gespeicherten Energie von den Transistoren „subtrahiert“ werden kann und nur der Rest in den Laserpuls „addiert“ werden kann.
  • Additive Regelmuster können den Vorteil bieten, die Schaltung im Vergleich zu den subtraktiven Regelmustern energieeffizienter zu nutzen. Die Laserimpulswellenformen, die durch additive Steuermuster erzeugt werden können, dürfen jedoch keine willkürliche Wellenform des Laserimpulses erzeugen. Es kann jedoch ein additives Steuermuster verwendet werden, das eine Laserpulswellenform erzeugt, die der gewünschten Wellenform nahe kommt. Die Auswahl der Einstellungen der Gleichspannungsquellen sowie der Wellenformen für die Gate-Source-Spannungen der einzelnen Transistoren kann in der Wellenform-Steuerung 14564, z.B. auf der Basis von Lookup-Tabellen, implementiert werden.
  • Wie bereits erwähnt, kann die in 145G gezeigte Schaltung, die ein additives Regelmuster verwendet, den Vorteil bieten, dass sie im Vergleich zu der gleichen Schaltung, die ein subtraktives Regelmuster verwendet, energieeffizienter ist. Die in 145G gezeigte Schaltung, die eine additive Regelung verwendet, kann im Vergleich zu den in 145E und 145F gezeigten Schaltungen ebenfalls energieeffizienter sein; sie kann jedoch mehr Komponenten enthalten und die in der Wellenform-Regelschaltung 14564 implementierte Regelung kann komplexer sein. Je nach den Erfordernissen der Anwendung kann es möglich sein, eine Schaltung gemäß 145E und 145F mit der „subtraktiven“ Impulsformungsmethode oder der „additiven“ Impulsformungsmethode gemäß 145G zu wählen.
  • Es wird davon ausgegangen, dass die in 145E bis 145G gezeigten Schaltpläne nur als Beispiel für mögliche Schaltungskonfigurationen zur Bereitstellung eines Lichtpulses (z.B. eines Laserpulses), wie hier beschrieben, dienen (z.B. nur als beispielhafte Implementierung der Lichtquelle 42, des Lichtquellen-Controllers 14506 und des Signalmodulators 14510). Andere Schaltungskonfigurationen, z.B. unter Einbeziehung anderer Komponenten und/oder in anderer Weise ausgelegt, können ebenfalls vorgesehen werden.
  • 146 zeigt ein System 14600 mit einem ersten Fahrzeug 14602 und einem zweiten Fahrzeug 14604 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das erste Fahrzeug 14602 könnte ein Beispiel für ein erstes Sensorgerät sein. Das zweite Fahrzeug 14604 kann ein Beispiel für eine zweite Sensoreinrichtung sein.
  • Das erste Fahrzeug 14602 und/oder das zweite Fahrzeug 14602 kann ein LIDAR-Sensorsystem enthalten (z.B. als Beispiel für das Reichweitenmesssystem 14500). Zur Veranschaulichung kann die Senderseite und die Empfängerseite des LIDAR-Sensorsystems des ersten Fahrzeugs 14602 und die Empfängerseite des LIDAR-Sensorsystems des zweiten Fahrzeugs 14604 zeigen.
  • Das LIDAR-Sensorsystem des ersten Fahrzeugs 14602 kann auf der Emitterseite einen LIDAR-Auslöser 14606 enthalten (der LIDAR-Auslöser 14608 kann ein Beispiel für den Lichtquellen-Controller 14506 sein). Das LIDAR-Sensorsystem kann auf der Emitterseite einen Impulsgenerator 14608 enthalten (der Impulsgenerator 14608 kann ein Beispiel für den Signalmodulator 14510 sein). Das LIDAR-Sensorsystem kann eine Laserquelle 14610 enthalten (die Laserquelle 14610 kann ein Beispiel für die Lichtquelle 42 sein). Das LIDAR-Sensorsystem kann eine Datenbank 14612 enthalten (die Datenbank 14612 kann ein Beispiel für einen Speicher sein, auf den das LIDAR-Sensorsystem Zugriff haben kann).
  • Das LIDAR-Sensorsystem des ersten Fahrzeugs 14602 kann so konfiguriert werden, dass es einen oder mehrere Laserpulse 14614 mit einer vordefinierten Wellenform aussendet. Der Impulsgenerator 14608 kann so konfiguriert werden, dass er die vordefinierte Wellenform mindestens eines Laserimpulses 14614 so modifiziert, dass der mindestens eine Laserimpuls 14614 eine modifizierte Wellenform aufweist, die sich von der vordefinierten Wellenform unterscheidet. Als Beispiel kann der Impulsgenerator 14608 aus der Datenbank eine Modulation abrufen, die auf die vordefinierte Wellenform des mindestens einen Laserimpulses 14614 anzuwenden ist, um gewünschte Daten oder Informationen über den mindestens einen Laserimpuls 14614 zu kodieren (z.B. entsprechende Anweisungen und/oder Parameter, die zur Modifizierung der vordefinierten Wellenform des mindestens einen Laserimpulses 14614 zu verwenden sind). Zur Veranschaulichung: Das erste Fahrzeug 14602 kann Daten oder Informationen an das zweite Fahrzeug 14604 übertragen, indem es Daten auf den mindestens einen Laserpuls 14614 kodiert (z.B. moduliert).
  • Das LIDAR-Sensorsystem des zweiten Fahrzeugs 14604 kann so konfiguriert werden, dass es einen oder mehrere Laserpulse 14614 empfängt, die z.B. vom ersten Fahrzeug 14602 ausgesendet werden. Das LIDAR-Sensorsystem kann einen Fotodetektor 14616 enthalten (der Fotodetektor 14616 kann ein Beispiel für den Sensor 52 sein). Das LIDAR-Sensorsystem kann einen Demodulator 14620 enthalten (der Demodulator 14620 kann ein Beispiel für den einen oder mehrere Prozessoren 14514 sein). Der Demodulator 14620 kann für die Datenabfrage konfiguriert werden. Zur Veranschaulichung: Der Demodulator 14620 kann so konfiguriert werden, dass er ein vom Fotodetektor 14616 erzeugtes Empfangssignal demoduliert, um Daten 14620 aus den empfangenen Laserimpulsen 14614 zu extrahieren (z.B. sicherheitsbezogene Daten oder sicherheitsbezogene Daten, z.B. eine Fahrzeug-Identifikationsnummer oder einen Verschlüsselungsschlüssel).
  • Das LIDAR-Sensorsystem des ersten Fahrzeugs 14602 kann auf der Empfängerseite gleiche oder ähnliche Komponenten haben wie das LIDAR-Sensorsystem des zweiten Fahrzeugs 14604. Zum Beispiel kann das LIDAR-Sensorsystem des ersten Fahrzeugs 14602 einen Fotodetektor 14622 und einen Demodulator 14624 enthalten. Der Demodulator 14624 kann so konfiguriert werden, dass er einen oder mehrere Daten 14626 aus einem empfangenen Laserpuls bestimmt. Als Beispiel kann der Demodulator 14624 so konfiguriert werden, dass er aus einem empfangenen Laserpuls eine Laufzeit bestimmt, z.B. für den Fall, dass der empfangene Laserpuls ein Echosignal ist (z.B. ein ausgesandter Laserpuls 14614, der zum Fahrzeug 14602 zurückreflektiert wird). Der Demodulator 14624 kann so konfiguriert werden, dass er aus dem ermittelten Zeitüberschreitungslicht einen Abstand zu einem Objekt bestimmt (z.B. einen Abstand vom zweiten Fahrzeug 14604). Zur Veranschaulichung: Das erste Fahrzeug 14602 kann die emittierten Laserpulse 14614 für Entfernungsmessungen und/oder zur Datenkommunikation verwenden.
  • 147A bis 147C zeigen einen Modulations- und Demodulationsprozess in Übereinstimmung mit verschiedenen Ausführungsformen.
  • zeigt ein Diagramm 14702 im Zeitbereich. Das Diagramm 14702 kann in diesem beispielhaften Fall vier verschiedene Wellenformen mit einer Zeitdauer, tsignal, von 182 ns enthalten (z.B. mit unterschiedlichen Formcharakteristiken im ersten Teil und/oder im zweiten Teil). Eine erste Wellenform 14704 kann einen sinusförmigen Anstieg und einen sinusförmigen Abfall aufweisen. Eine zweite Wellenform 14706 kann einen sinusförmigen Anstieg und einen exponentiellen Abfall aufweisen. Eine dritte Wellenform 14708 kann einen linearen Anstieg und einen sinusförmigen Abfall aufweisen. Eine vierte Wellenform 14710 kann einen exponentiellen Anstieg und einen exponentiellen Abfall aufweisen.
  • 147B zeigt ein Diagramm 14712 im Frequenzbereich (z.B. mittels FFT erhalten). Aus Gründen der Übersichtlichkeit der Darstellung werden Frequenzbereichskomponenten (z.B. Peaks) unter 5% der maximalen Frequenzbereichskomponente in dem Diagramm 14712 nicht dargestellt. Das Diagramm 14712 kann vier verschiedene Signale im Frequenzbereich enthalten. Jedes Frequenzbereichssignal kann einer entsprechenden Wellenform zugeordnet werden, die im Diagramm 14702 dargestellt ist. Zur Veranschaulichung: jeder Wellenform können entsprechende Peaks (z.B. ein eindeutiger Satz von Peaks) zugeordnet sein. Beispielsweise können die Peaks bei niedrigen Frequenzen den Wellenformen mit sinusförmigen und linearen Teilwellenformen zugeordnet werden. Die Peaks bei Zwischenfrequenz können mit den Wellenformen mit sinusförmiger Teilwellenform, aber ohne lineare Teilwellenform assoziiert werden. Die Spitzen bei hoher Frequenz können den Wellenformen mit exponentiellen Teilwellenformen zugeordnet werden.
  • 147C zeigt eine Tabelle 14714, die das Vorhandensein oder Fehlen einer Spitze bei einer bestimmten Frequenz für jede in 147A gezeigte Wellenform beschreibt. Ein „Y“ in der Tabelle 14714 kann das Vorhandensein einer Spitze bei der jeweiligen Frequenz beschreiben. Ein „N“ in der Tabelle 14714 kann das Fehlen einer Spitze bei der jeweiligen Frequenz beschreiben.
  • Als Beispiel kann die Wellenform 14704 als die vordefinierte Wellenform (z.B. als Referenzwellenform) betrachtet werden. Die anderen Wellenformen 14706 14708 14710 können von der Bezugswellenform 14704 unterschieden werden (z.B. von den verschiedenen Peaks), z.B. können jeweils modifizierte Wellenformen sein, z.B. kann die Wellenform 14708 durch das Fehlen von zwei Frequenzen unterscheidbar sein (z.B. durch das Fehlen eines Peaks bei 10,99 MHz und bei 12,21 MHz). Die Wellenform 14708 kann von der Wellenform 14710 aufgrund der Spitze bei 12,21 MHz für die Wellenform 14710 unterschieden werden. Die Fähigkeit, die drei Wellenformen zu unterscheiden, kann die Kodierung von 3 Bits ermöglichen.
  • 147D bis 1471 zeigen einen Modulations- und Demodulationsprozess nach verschiedenen Ausführungsformen.
  • zeigt ein Diagramm 14716 im Zeitbereich. Das Diagramm 14716 kann in diesem beispielhaften Fall vier verschiedene Wellenformen mit einer Zeitdauer, tsignal, von 182 ns enthalten. Jede Wellenform kann drei Höcker enthalten. Eine erste Wellenform 14718 kann Buckel enthalten, die jeweils einen sinusförmigen Anstieg und einen sinusförmigen Abfall aufweisen. Eine zweite Wellenform 14720 kann Buckel enthalten, die jeweils einen sinusförmigen Anstieg und einen exponentiellen Abfall aufweisen. Eine dritte Wellenform 14722 kann Buckel enthalten, die jeweils einen linearen Anstieg und einen sinusförmigen Abfall aufweisen. Eine vierte Wellenform 14724 kann Buckel enthalten, die jeweils einen linearen Anstieg und einen exponentiellen Abfall aufweisen.
  • 147E zeigt ein Diagramm 14726 im Frequenzbereich (z.B. mittels FFT erhalten). Aus Gründen der Übersichtlichkeit der Darstellung werden Frequenzbereichskomponenten (z.B. Peaks) unter 5% der maximalen Frequenzbereichskomponente in dem Diagramm 14726 nicht dargestellt. Das Diagramm 14726 kann vier verschiedene Signale im Frequenzbereich enthalten, die jeweils einer entsprechenden Wellenform zugeordnet sind, die im Diagramm 14716 dargestellt ist.
  • 147F zeigt eine Tabelle 14728, die das Vorhandensein oder Fehlen einer Spitze bei einer bestimmten Frequenz für jede in 147D gezeigte Wellenform beschreibt. Das exponentielle Abklingen der zweiten Wellenform 14720 kann von dem sinusförmigen Abklingen der ersten Wellenform 14718 aufgrund der höheren Frequenzkomponenten, die mit der zweiten Wellenform 14720 verbunden sind (z.B. in diesem Fall über 20 MHz), unterschieden werden. Bei der vierten Wellenform 14724 können die höheren Frequenzen mit der exponentiellen Antwort, z.B. dem exponentiellen Abklingen, assoziiert sein (z.B. einschließlich einer zusätzlichen Spitze bei der Frequenz 34,18 MHz). Die zusätzliche Spitze bei der vierten Wellenform 14724 kann mit einer höheren Kompression der Wellenform zusammenhängen, die durch die Kombination von linearen und exponentiellen Antworten in Bezug auf den sinusförmigen Anstieg der zweiten Wellenform 14720 entsteht.
  • 147G bis 1471 zeigen einen Modulations- und Demodulationsprozess nach verschiedenen Ausführungsformen.
  • zeigt ein Diagramm 14730 im Zeitbereich. Das Diagramm 14730 kann in diesem exemplarischen Fall sechs verschiedene Wellenformen mit einer Zeitdauer, tsignal, von 182 ns enthalten. Jede Wellenform kann drei Höcker enthalten. Der erste Anstieg und der letzte Abfall können für jede Wellenform sinusförmig sein (zur Veranschaulichung: der erste Anstieg und der letzte Abfall können auf einer Sinuskurve gehalten werden). Eine erste Wellenform 14732 kann Buckel mit sinusförmigem Anstieg und sinusförmigem Abklingen enthalten. Eine zweite Wellenform 14734 kann Buckel mit sinusförmigem Anstieg und linearem Abklingen enthalten. Eine dritte Wellenform 14736 kann Buckel mit sinusförmigem Anstieg und exponentiellem Abklingen enthalten. Eine vierte Wellenform 14738 kann Buckel mit einem linearen und einem exponentiellen Zerfall enthalten. Eine fünfte Wellenform 14740 kann Buckel mit einem linearen Zerfall, einem exponentiellen Zerfall und einem linearen Anstieg enthalten. Eine sechste Wellenform 14742 kann Buckel mit einem linearen Zerfall, einem exponentiellen Zerfall und einem exponentiellen Anstieg enthalten.
  • 147H zeigt ein Diagramm 14744 im Frequenzbereich (z.B. mittels FFT erhalten). Aus Gründen der Übersichtlichkeit der Darstellung werden Frequenzbereichskomponenten (z.B. Peaks) unter 5% der maximalen Frequenzbereichskomponente in dem Diagramm 14744 nicht dargestellt. Das Diagramm 14744 kann sechs verschiedene Signale im Frequenzbereich enthalten, die jeweils einer entsprechenden Wellenform in Diagramm 14730 zugeordnet sind.
  • 1471 zeigt eine Tabelle 14746, die das Vorhandensein oder Fehlen einer Spitze bei einer bestimmten Frequenz für jede in 147H gezeigte Wellenform beschreibt. Die erste Wellenform 14732 kann als Referenzwellenform betrachtet werden. Die zweite Wellenform 14734 kann von der Wellenform 14732 durch das Fehlen von zwei zusätzlichen Frequenzen unterschieden werden. Die dritte Wellenform 14736 unterscheidet sich von der Wellenform 14732 durch das Vorhandensein bei 12,21 MHz und höheren Frequenzen bei 21,97 MHz und 23,19 MHz und das Fehlen bei 10,99 MHz. Die vierte Wellenform 14738 (illustrativ eine Kombination aus der zweiten Wellenform 14734 und der dritten Wellenform 14736) unterscheidet sich von der dritten Wellenform 14736 durch das Fehlen der Spitzen bei 12,21 MHz und 23,19 MHz und durch das Vorhandensein der Spitze bei 10,99 MHz. Die fünfte Wellenform 14740 kann eine lineare Anstiegsantwort hinzufügen. Die lineare Antwort kann eine Kompression darstellen und kann Antwortspitzen in allen Frequenzen mit Ausnahme von 20,75 MHz erzeugen. Das mit der fünften Wellenform 14740 verbundene Signal kann sich von allen anderen Signalen unterscheiden. In der sechsten Wellenform 14742 kann der lineare Anstieg der fünften Wellenform 14740 durch einen exponentiellen Anstieg ersetzt werden. Dies kann zu einer Verdünnung der letzten Anstiegsantwort führen, die drei Spitzen eliminiert und eine zusätzliche Spitze bei 20,75 MHz in Bezug auf die fünfte Wellenform 14740 hinzufügen kann.
  • Die Tabelle 14746 kann veranschaulichen, dass sechs Bits auf einem einzigen 3-Höcker-Impuls (z.B. einer einzigen 3-Höcker-Wellenform) kodiert werden können. In diesem Beispiel können maximal drei Anstiege/Abfall von insgesamt vier zur Modulation des Signals gegenüber der Referenz verwendet werden. Der zusätzlich verfügbare Anstieg/Abfall kann mit der gleichen Antwort weiter moduliert werden, um die Frequenzspitzen zu vertiefen. Dies kann die Detektionszuverlässigkeit erhöhen. Alternativ kann der zusätzlich verfügbare Anstieg/Abfall weiter moduliert werden, um die Anzahl der Bits von drei auf vier für einen 3-Sprung-Puls zu erhöhen.
  • 148A bis 148E zeigen einen Modulations- und Demodulationsprozess nach verschiedenen Ausführungsformen.
  • 148A zeigt ein Diagramm 14802 einschließlich der sechs Wellenformen, die im Diagramm 14730 in 147G dargestellt sind und in denen Rauschen eingeführt wurde (zur Veranschaulichung: die sechs Wellenformen im Diagramm 14802 entsprechen einer verrauschten Version der sechs Wellenformen, die im Diagramm 14730 dargestellt sind). 148B zeigt ein Oszilloskopbild 14804 des verrauschten Signals der sechsten Wellenform 14742.
  • Der Frequenzgang im Frequenzbereich mit einem höheren Rauschpegel kann direkt verarbeitet werden (z.B. mit einem HF-Spektrumanalysator). 148C zeigt ein Diagramm 14806 im Frequenzbereich mit sechs Signalen, die den sechs in 148A gezeigten Wellenformen zugeordnet sind und einen großen Rauschpegel aufweisen. Zur Verarbeitung des Frequenzbereichs kann ein Algorithmus zur Spitzenwerterkennung verwendet werden. Als Beispiel kann ein Algorithmus zur Spitzenwerterkennung eine Amplitudenschwelle von 30 % der maximalen Amplitude des Signals und einen minimalen Frequenzabstand von 2 MHz enthalten. Der Spitzenwert-Erkennungsalgorithmus kann die Spitzen, die die gewünschten Kriterien nicht erfüllen, entfernen (zur Veranschaulichung: der Algorithmus kann alle Spitzen ignorieren, die nicht den Bedingungen entsprechen). 148D zeigt ein Diagramm 14808 im Frequenzbereich nach Anwendung des Spitzenwert-Erkennungsalgorithmus. Zur Veranschaulichung: Das Diagramm 14808 kann einer bearbeiteten (z.B. bereinigten) Version dem Diagramm 14806 entsprechen.
  • 148E zeigt eine Tabelle 14810, die das Vorhandensein oder Fehlen einer Spitze bei einer bestimmten Frequenz für jede in 148A gezeigte Wellenform beschreibt. Die erste Wellenform 14732 kann sich von der zweiten Wellenform 14734 um einen einzelnen Peak unterscheiden. In ähnlicher Weise kann sich die vierte Wellenform 14738 von der fünften Wellenform 14740 um einen einzigen Peak unterscheiden.
  • 149A bis 149E zeigen einen Modulations- und Demodulationsprozess in Übereinstimmung mit verschiedenen Ausführungsformen.
  • 149A zeigt ein Diagramm 14902 im Zeitbereich, die die verrauschte erste Wellenform 14732 (z.B. Referenzwelle) zeigt, die in Diagramm 14802 in 148A dargestellt ist. Das Diagramm 14902 kann neun Wellenformen enthalten, von denen jede der verrauschten ersten Wellenform 14732 mit einer unterschiedlichen Zeitverschiebung entspricht (z.B. mit einer Zeitverschiebung, die einem unterschiedlichen Prozentsatz der Gesamtdauer der Wellenform entspricht, z.B. von 0% bis 40% mit einer Schrittweite von 5%). 149B zeigt ein Oszilloskopbild 14904 des verrauschten Signals der ersten Wellenform 14732.
  • 149C zeigt ein Diagramm 14906 im Frequenzbereich, das neun Signale zeigt, die den neun Wellenformen zugeordnet sind, die im Diagramm 14902 in 149A dargestellt sind. Die mit den verschiedenen Wellenformen verbundenen Frequenzspitzen können von ähnlicher Natur sein.
  • 149D zeigt ein Diagramm 14908, das als Beispiel zwei verschobene Wellenformen und einen entsprechenden Gaußschen Fit enthält. Das Diagramm 14908 kann die erste Wellenform 147320 mit einer Zeitverschiebung von 0 % und einem entsprechenden grundlegenden Gauß-Fit 14910 enthalten. Das Diagramm 14908 kann die erste Wellenform 147321 mit einer Zeitverschiebung von 40 % und einem entsprechenden grundlegenden Gaußschen Fit 14912 enthalten.
  • 149E zeigt ein Diagramm 14914 mit einem Vergleich zwischen der Korrelation der modulierten Zeitverschiebung und der demodulierten Signalzeit. Der Vergleich kann durch eine erste Kurve 14916 für die nicht verrauschte erste Wellenform 14732 und durch eine zweite Kurve 14918 für die verrauschte erste Wellenform 14732 veranschaulicht werden. Die Kurve 14914 kann eine lineare Korrelation für eine Zeitverschiebung bis zu 25% und ein Sättigungsverhalten danach veranschaulichen.
  • Wellenformen mit unterschiedlichen Zeitverschiebungen können unterschiedliche Daten- oder Informationstypen darstellen oder mit ihnen verbunden sein, z.B. mit einem oder mehreren unterschiedlichen Bits.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 155B bis 157B beschrieben, können so konfiguriert werden, dass sie einen zeitmodulierten Laserpuls erzeugen, z.B. um eine saubere und/oder glatte Wellenform zu erzeugen.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 155B bis 157B beschrieben, können mit den Ausführungsformen, wie unter Bezugnahme auf 145A bis 149E beschrieben, kombiniert werden.
  • Darüber hinaus können verschiedene Ausführungsformen, wie unter Bezugnahme auf 145A bis 149E beschrieben, die Übertragung einer Identifikationsinformation eines Fahrzeuges mittels LIDAR und optional zusätzlich eine Geschwindigkeit eines LIDAR-Objektes beinhalten, wobei in diesem Fall die Assoziation zwischen dem Fahrzeug und der Geschwindigkeit des LIDAR-Objektes bereits erreicht ist. Dieser Mechanismus kann auch eine intelligente Vertragsumgebung, z.B. zwischen zwei Fahrzeugen, ermöglichen. Dies kann z.B. eine temporäre Priorisierung von Fahrzeugen innerhalb des Verkehrs ermöglichen, z.B. eine Priorisierung von Polizei und/oder Krankenwagen gegenüber „normalen“ Verkehrsteilnehmern.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ab ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Lichtquelle enthalten. Das LIDAR-Sensorsystem kann eine Lichtquellensteuerung enthalten. Der Lichtquellen-Controller kann so konfiguriert werden, dass er die Lichtquelle so steuert, dass sie einen oder mehrere Lichtpulse aussendet, die jeweils eine vordefinierte erste Wellenform haben. Das LIDAR-Sensorsystem kann einen Signalmodulator enthalten. Der Signalmodulator kann so konfiguriert werden, dass er die vordefinierte erste Wellenform mindestens eines Lichtimpulses zu einer modifizierten zweiten Wellenform modifiziert, so dass der mindestens eine emittierte Lichtimpuls die modifizierte zweite Wellenform aufweist.
    • In Beispiel 2ab kann der Gegenstand von Beispiel 1ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er die Amplitude und/oder die Dauer der vordefinierten ersten Wellenform des mindestens einen Lichtimpulses modifiziert.
    • In Beispiel 3ab kann der Gegenstand eines der Beispiele 1ab oder 2ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er die Form der vordefinierten ersten Wellenform des mindestens einen Lichtimpulses modifiziert.
    • In Beispiel 4ab kann der Gegenstand von Beispiel 3ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er die vordefinierte erste Wellenform des mindestens einen Lichtimpulses so modifiziert, dass die modifizierte zweite Wellenform des mindestens einen Lichtimpulses ein oder mehrere höckerartige Strukturelemente enthält.
    • In Beispiel 5ab kann der Gegenstand von Beispiel 4ab optional beinhalten, dass der Signalmodulator so konfiguriert wird, dass er die Position eines oder mehrerer höckerartiger Strukturelemente verändert.
    • In Beispiel 6ab kann der Gegenstand eines der Beispiele 4ab oder 5ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er die Anstiegsflanke und/oder die Abfallflanke von mindestens einem höckerartigen Strukturelement modifiziert.
    • In Beispiel 7ab kann der Gegenstand eines der Beispiele 1ab bis 6ab optional beinhalten, dass der mindestens eine Lichtimpuls eine Impulsdauer im Bereich von etwa 500 ps bis etwa 1 µs hat, zum Beispiel von etwa 1 ns bis etwa 500 ns, zum Beispiel von etwa 2 ns bis etwa 50 ns.
    • In Beispiel 8ab kann der Gegenstand eines der Beispiele 1ab bis 7ab optional beinhalten, dass der mindestens eine Lichtpuls einen ersten und einen zweiten Teil enthält. Der Signalmodulator kann so konfiguriert werden, dass er die vordefinierte erste Wellenform des mindestens einen Lichtimpulses so modifiziert, dass der zweite Teil mit einer höheren Frequenzkomponente im Frequenzbereich in Bezug auf jede Frequenzkomponente im Frequenzbereich, die mit dem ersten Teil verbunden ist, assoziiert ist.
    • In Beispiel 9ab kann der Gegenstand eines der Beispiele 1ab bis 8ab optional beinhalten, dass der mindestens eine Lichtpuls einen ersten und einen zweiten Teil enthält. Der Signalmodulator kann so konfiguriert werden, dass er im zweiten Teil des mindestens einen Lichtimpulses eine Steigung erzeugt, die steiler ist als jede Steigung im ersten Teil des mindestens einen Lichtimpulses.
    • In Beispiel 10ab kann der Gegenstand eines der Beispiele 8ab oder 9ab optional beinhalten, dass der erste Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform aufweist. Der zweite Teil kann eine exponentielle Teilwellenform haben.
    • In Beispiel 11 ab kann der Gegenstand eines der Beispiele 8ab bis 10ab optional beinhalten, dass der erste Teil und der zweite Teil ungefähr die gleiche Zeitdauer haben.
    • In Beispiel 12ab kann der Gegenstand eines jeden der Beispiele 1ab bis 11ab optional beinhalten, dass die Lichtquelle mindestens eine Laserlichtquelle umfasst.
    • In Beispiel 13ab kann der Gegenstand von Beispiel 12ab optional beinhalten, dass die mindestens eine Laserlichtquelle mindestens eine Laserdiode enthält.
    • In Beispiel 14ab kann der Gegenstand eines der Beispiele 1ab bis 13ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er Daten auf den mindestens einen Lichtpuls moduliert.
    • In Beispiel 15ab kann der Gegenstand eines der Beispiele 1ab bis 14ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er sicherheitsbezogene Daten und/oder sicherheitsbezogene Daten auf den mindestens einen Lichtpuls moduliert.
    • In Beispiel 16ab kann der Gegenstand eines der Beispiele 1ab bis 15ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er sicherheitsrelevante Daten auf den mindestens einen Lichtpuls moduliert. Die sicherheitsbezogenen Daten können in Übereinstimmung mit den Vorschriften des Sicherheitsintegritätsniveaus von Kraftfahrzeugen stehen.
    • In Beispiel 17ab kann der Gegenstand eines der Beispiele 1ab bis 16ab optional beinhalten, dass der Signalmodulator so konfiguriert ist, dass er sicherheitsrelevante Daten auf den mindestens einen Lichtpuls moduliert. Die sicherheitsbezogenen Daten können kryptographische Informationen enthalten.
    • In Beispiel 18ab kann der Gegenstand von Beispiel 17ab optional beinhalten, dass die kryptografischen Informationen einen oder mehrere kryptografische Schlüssel und/oder Authentifizierungsdaten enthalten.
    • Beispiel 19ab ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Sensor mit einer oder mehreren Fotodioden enthalten, die so konfiguriert sind, dass sie als Reaktion auf den Empfang eines Lichtimpulses ein Empfangssignal liefern. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren enthalten, die so konfiguriert sind, dass sie das empfangene Signal demodulieren, um ein demoduliertes Signal zu bestimmen, indem sie eine Differenz einer Wellenform des empfangenen Signals in Bezug auf eine vordefinierte Wellenform bestimmen.
    • In Beispiel 20ab kann der Gegenstand von Beispiel 19ab optional beinhalten, dass der Unterschied durch eine Modifikation einer Wellenform des empfangenen Lichtimpulses durch einen Signalmodulator eines anderen LIDAR-Sensorsystems bereitgestellt wird.
    • In Beispiel 21ab kann der Gegenstand eines der Beispiele 19ab oder 20ab optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie das Signal demodulieren, indem sie eine Amplitude und/oder eine Dauer der Wellenform des empfangenen Signals in Bezug auf die vordefinierte Wellenform bestimmen.
    • In Beispiel 22ab kann der Gegenstand eines der Beispiele 19ab bis 21ab optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie das Signal demodulieren, indem sie ein oder mehrere höckerartige Strukturelemente in der Wellenform des empfangenen Signals bestimmen.
    • In Beispiel 23ab kann der Gegenstand von Beispiel 22ab optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie das Signal demodulieren, indem sie eine Position des einen oder der mehreren höckerartigen Strukturelemente bestimmen.
    • In Beispiel 24ab kann der Gegenstand eines der Beispiele 22ab oder 23ab optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie das Signal demodulieren, indem sie eine Anstiegsflanke und/oder eine Abklingflanke mindestens eines höckerartigen Strukturelements bestimmen.
    • In Beispiel 25ab kann der Gegenstand eines der Beispiele 19ab bis 24ab optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie das empfangene Signal demodulieren, indem sie ein Signal im Frequenzbereich bestimmen, das mit der Wellenform des empfangenen Signals verknüpft ist.
    • In Beispiel 26ab kann der Gegenstand eines der Beispiele 19ab bis 25ab optional beinhalten, dass der empfangene Lichtimpuls eine Impulsdauer im Bereich von etwa 500 ps bis etwa 1 µs hat, z.B. von etwa 1 ns bis etwa 500 ns, z.B. von etwa 2 ns bis etwa 50 ns.
    • In Beispiel 27ab kann der Gegenstand eines jeden der Beispiele 19ab bis 26ab optional beinhalten, dass das empfangene Signal einen ersten und einen zweiten Teil enthält. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Demodulation durchführen, indem sie die Wellenform des empfangenen Signals bestimmen, um eine höhere Frequenzkomponente in dem dem zweiten Teil zugeordneten Frequenzbereich zu bestimmen als jede andere Frequenzkomponente in dem dem ersten Teil zugeordneten Frequenzbereich.
    • In Beispiel 28ab kann der Gegenstand eines jeden der Beispiele 19ab bis 27ab optional beinhalten, dass das empfangene Signal einen ersten und einen zweiten Teil enthält. Eine Steigung im zweiten Teil des empfangenen Signals kann steiler sein als jede Steigung im ersten Teil des empfangenen Signals.
    • In Beispiel 29ab kann der Gegenstand eines der Beispiele 27ab oder 28ab wahlweise beinhalten, dass der erste Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform aufweist. Der zweite Teil kann eine exponentielle Teilwellenform haben.
    • In Beispiel 30ab kann der Gegenstand eines jeden der Beispiele 27ab bis 29ab optional beinhalten, dass der erste Teil und der zweite Teil ungefähr die gleiche Zeitdauer haben.
    • In Beispiel 31ab kann der Gegenstand eines der Beispiele 19ab bis 30ab optional beinhalten, dass das empfangene Signal sicherheitsbezogene Daten und/oder sicherheitsbezogene Daten enthält.
    • In Beispiel 32ab kann der Gegenstand eines jeden der Beispiele 19ab bis 31ab optional beinhalten, dass das empfangene Signal sicherheitsbezogene Daten enthält. Die sicherheitsbezogenen Daten können in Übereinstimmung mit den Vorschriften des Sicherheitsintegritätsniveaus von Kraftfahrzeugen stehen.
    • In Beispiel 33ab kann der Gegenstand eines jeden der Beispiele 19ab bis 32ab optional beinhalten, dass das empfangene Signal sicherheitsbezogene Daten enthält. Die sicherheitsbezogenen Daten können kryptographische Informationen enthalten.
    • In Beispiel 34ab kann der Gegenstand von Beispiel 33ab optional beinhalten, dass die kryptografischen Informationen einen oder mehrere kryptografische Schlüssel und/oder Authentifizierungsdaten enthalten.
    • Beispiel 35ab ist ein Kommunikationssystem. Das Kommunikationssystem kann ein Funkkommunikationsgerät umfassen. Die Funkkommunikationsvorrichtung kann einen Datenkodierer enthalten, der so konfiguriert ist, dass er die zu übertragenden Daten gemäß einem Mobilfunk-Kommunikationsprotokoll kodiert, sowie einen Mobilfunksender, der so konfiguriert ist, dass er die kodierten Daten gemäß dem Mobilfunk-Kommunikationsprotokoll überträgt. Das Kommunikationssystem kann ein LIDAR-Sensorsystem enthalten. Das LIDAR-Sensorsystem kann eine Lichtquelle, eine Lichtquellensteuerung, die so konfiguriert ist, dass sie die Lichtquelle so steuert, dass sie mindestens einen Lichtimpuls aussendet, und einen Signalmodulator umfassen, der so konfiguriert ist, dass er sicherheitsbezogene Daten und/oder sicherheitsbezogene Daten auf den mindestens einen Lichtimpuls moduliert.
    • In Beispiel 36ab kann der Gegenstand von Beispiel 35ab optional einschließen, dass die sicherheitsbezogenen Daten den Vorschriften des Sicherheitsintegritätsniveaus von Kraftfahrzeugen entsprechen.
    • In Beispiel 37ab kann der Gegenstand eines der Beispiele 35ab oder 36ab optional beinhalten, dass die sicherheitsbezogenen Daten kryptographische Informationen enthalten.
    • In Beispiel 38ab kann der Gegenstand von Beispiel 37ab optional beinhalten, dass die kryptografischen Informationen einen oder mehrere kryptografische Schlüssel und/oder Authentifizierungsdaten enthalten.
    • In Beispiel 39ab kann der Gegenstand eines der Beispiele 35ab bis 38ab optional beinhalten, dass die verschlüsselten Daten mit einem oder mehreren kryptographischen Schlüsseln, die über das LIDAR-Sensorsystem übertragen werden, verschlüsselt oder digital signiert werden.
    • Beispiel 40ab ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann die Aussendung eines oder mehrerer Lichtpulse mit einer vordefinierten ersten Wellenform beinhalten. Das Verfahren kann das Modifizieren der vordefinierten ersten Wellenform mindestens eines Lichtimpulses umfassen, so dass der mindestens eine Lichtimpuls eine modifizierte zweite Wellenform hat.
    • In Beispiel 41ab kann der Gegenstand von Beispiel 40ab optional beinhalten, dass die Änderung der vordefinierten ersten Wellenform die Änderung der Amplitude und/oder der Dauer der vordefinierten ersten Wellenform des mindestens einen Lichtimpulses umfasst.
    • In Beispiel 42ab kann der Gegenstand eines der Beispiele 40ab oder 41ab optional beinhalten, dass die Modifizierung der vordefinierten ersten Wellenform die Modifizierung der Form der vordefinierten ersten Wellenform des mindestens einen Lichtimpulses einschließt.
    • In Beispiel 43ab kann der Gegenstand von Beispiel 42ab optional beinhalten, dass die Änderung der vordefinierten ersten Wellenform die Einführung eines oder mehrerer höckerartiger Strukturelemente in die vordefinierte erste Wellenform des mindestens einen Lichtimpulses beinhaltet.
    • In Beispiel 44ab kann der Gegenstand von Beispiel 43ab optional beinhalten, dass die Änderung der vordefinierten ersten Wellenform die Änderung der Position eines oder mehrerer höckerartiger Strukturelemente einschließt.
    • In Beispiel 45ab kann der Gegenstand eines der Beispiele 43ab oder 44ab optional beinhalten, dass die Änderung der vordefinierten ersten Wellenform die Änderung der Anstiegsflanke und/oder der Abfallflanke von mindestens einem höckerartigen Strukturelement umfasst.
    • In Beispiel 46ab kann der Gegenstand eines der Beispiele 40ab bis 45ab optional beinhalten, dass der mindestens eine Lichtimpuls mit einer Impulsdauer im Bereich von etwa 500 ps bis etwa 1 µs emittiert wird, z.B. von etwa 1 ns bis etwa 500 ns, z.B. von etwa 2 ns bis etwa 50 ns.
    • In Beispiel 47ab kann der Gegenstand eines der Beispiele 40ab bis 46ab optional beinhalten, dass der mindestens eine Lichtpuls einen ersten und einen zweiten Teil enthält. Die vordefinierte erste Wellenform des mindestens einen Lichtimpulses kann so modifiziert werden, dass der zweite Teil mit einer höheren Frequenzkomponente im Frequenzbereich in Bezug auf jede Frequenzkomponente im Frequenzbereich verbunden ist, die mit dem ersten Teil verbunden ist.
    • In Beispiel 48ab kann der Gegenstand eines der Beispiele 40ab bis 47ab optional beinhalten, dass der mindestens eine Lichtpuls einen ersten und einen zweiten Teil enthält. Im zweiten Teil des mindestens einen Lichtimpulses kann eine Steigung erzeugt werden, die steiler ist als jede Steigung im ersten Teil des mindestens einen Lichtimpulses.
    • In Beispiel 49ab kann der Gegenstand eines der Beispiele 47ab oder 48ab wahlweise beinhalten, dass der erste Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform aufweist. Der zweite Teil kann eine exponentielle partielle Wellenform haben.
    • In Beispiel 50ab kann der Gegenstand eines der Beispiele 47ab bis 49ab optional beinhalten, dass der erste Teil und der zweite Teil ungefähr die gleiche Zeitdauer haben.
    • In Beispiel 51ab kann der Gegenstand eines der Beispiele 40ab bis 50ab optional beinhalten, dass der mindestens eine Lichtpuls als mindestens ein Laserlichtpuls emittiert wird.
    • In Beispiel 52ab kann der Gegenstand von Beispiel 51ab optional beinhalten, dass der mindestens eine Laserlichtpuls als mindestens ein Laserdioden-Lichtpuls emittiert wird.
    • In Beispiel 53ab kann der Gegenstand eines der Beispiele 40ab bis 52ab optional die Modulation von Daten auf den mindestens einen Lichtpuls beinhalten.
    • In Beispiel 54ab kann der Gegenstand eines der Beispiele 40ab bis 53ab optional die Modulation sicherheitsbezogener Daten und/oder sicherheitsbezogener Daten auf den mindestens einen Lichtpuls beinhalten.
    • In Beispiel 55ab kann der Gegenstand eines der Beispiele 40ab bis 54ab optional die Modulation sicherheitsrelevanter Daten auf den mindestens einen Lichtpuls beinhalten. Die sicherheitsbezogenen Daten können in Übereinstimmung mit den Vorschriften des Sicherheitsintegritätsniveaus von Kraftfahrzeugen stehen.
    • In Beispiel 56ab kann der Gegenstand eines der Beispiele 40ab bis 55ab optional die Modulation sicherheitsrelevanter Daten auf den mindestens einen Lichtpuls beinhalten. Die sicherheitsbezogenen Daten können kryptographische Informationen enthalten.
    • In Beispiel 57ab kann der Gegenstand von Beispiel 56ab optional beinhalten, dass die kryptografischen Informationen einen oder mehrere kryptografische Schlüssel und/oder Authentifizierungsdaten enthalten.
    • Beispiel 58ab ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann einen Sensor mit einer oder mehreren Fotodioden umfassen, die als Reaktion auf den Empfang eines Lichtimpulses ein Empfangssignal liefern. Das Verfahren kann die Demodulation des empfangenen Signals umfassen, um ein demoduliertes Signal zu bestimmen, indem eine Differenz einer Wellenform des empfangenen Signals in Bezug auf eine vordefinierte Wellenform bestimmt wird.
    • In Beispiel 59ab kann der Gegenstand von Beispiel 58ab optional beinhalten, dass der Unterschied durch eine Modifikation einer Wellenform des empfangenen Lichtimpulses durch einen Signalmodulator eines anderen LIDAR-Sensorsystems bereitgestellt wird.
    • In Beispiel 60ab kann der Gegenstand des Beispiels eines der Beispiele 58ab oder 59ab optional beinhalten, dass die Demodulation des Signals die Bestimmung einer Amplitude und/oder einer Dauer der Wellenform des empfangenen Signals in Bezug auf die vordefinierte Wellenform umfasst.
    • In Beispiel 61ab kann der Gegenstand eines der Beispiele 58ab bis 60ab optional beinhalten, dass die Demodulation des Signals die Bestimmung eines oder mehrerer höckerartiger Strukturelemente in der Wellenform umfasst.
    • In Beispiel 62ab kann der Gegenstand von Beispiel 61ab optional beinhalten, dass die Demodulation des Signals die Bestimmung der Position eines oder mehrerer höckerartiger Strukturelemente einschließt.
    • In Beispiel 63ab kann der Gegenstand eines der Beispiele 61ab oder 62ab optional beinhalten, dass die Demodulation des Signals die Bestimmung der Anstiegsflanke und/oder der Abfallflanke von mindestens einem höckerartigen Strukturelement umfasst.
    • In Beispiel 64ab kann der Gegenstand eines der Beispiele 58ab bis 63ab optional beinhalten, dass die Demodulation des Signals die Bestimmung eines Signals im Frequenzbereich umfasst, das mit der Wellenform des empfangenen Signals verknüpft ist.
    • In Beispiel 65ab kann der Gegenstand eines der Beispiele 58ab bis 64ab optional beinhalten, dass der empfangene Lichtimpuls eine Impulsdauer im Bereich von etwa 500 ps bis etwa 1 µs hat, zum Beispiel von etwa 1 ns bis etwa 500 ns, zum Beispiel von etwa 2 ns bis etwa 50 ns.
    • In Beispiel 66ab kann der Gegenstand eines der Beispiele 58ab bis 65ab optional beinhalten, dass das empfangene Signal einen ersten und einen zweiten Teil enthält. Die Demodulation kann durch Bestimmung der Wellenform des empfangenen Signals durchgeführt werden, um eine höhere Frequenzkomponente im Frequenzbereich zu bestimmen, die mit dem zweiten Teil verbunden ist, als jede andere Frequenzkomponente im Frequenzbereich, die mit dem ersten Teil verbunden ist.
    • In Beispiel 67ab kann der Gegenstand eines jeden der Beispiele 58ab bis 66ab optional beinhalten, dass das empfangene Signal einen ersten und einen zweiten Teil enthält. Eine Steigung im zweiten Teil des empfangenen Signals kann steiler sein als jede Steigung im ersten Teil des empfangenen Signals.
    • In Beispiel 68ab kann der Gegenstand eines der Beispiele 66ab oder 67ab wahlweise beinhalten, dass der erste Teil eine lineare Teilwellenform oder eine sinusförmige Teilwellenform aufweist. Der zweite Teil kann eine exponentielle partielle Wellenform haben.
    • In Beispiel 69ab kann der Gegenstand eines der Beispiele 66ab bis 68ab optional beinhalten, dass der erste Teil und der zweite Teil ungefähr die gleiche Zeitdauer haben.
    • In Beispiel 70ab kann der Gegenstand eines der Beispiele 58ab bis 69ab optional beinhalten, dass das empfangene Signal sicherheitsbezogene Daten und/oder sicherheitsbezogene Daten enthält.
    • In Beispiel 71ab kann der Gegenstand eines der Beispiele 58ab bis 70ab optional beinhalten, dass das empfangene Signal sicherheitsrelevante Daten enthält. Die sicherheitsbezogenen Daten können in Übereinstimmung mit den Vorschriften des Sicherheitsintegritätsniveaus von Kraftfahrzeugen stehen.
    • In Beispiel 72ab kann der Gegenstand eines der Beispiele 58ab bis 71ab optional beinhalten, dass das empfangene Signal sicherheitsrelevante Daten enthält. Die sicherheitsbezogenen Daten können kryptographische Informationen enthalten.
    • In Beispiel 73ab kann der Gegenstand von Beispiel 72ab optional beinhalten, dass die kryptografischen Informationen einen oder mehrere kryptografische Schlüssel und/oder Authentifizierungsdaten enthalten.
    • Beispiel 74ab ist ein Verfahren zum Betrieb eines Kommunikationssystems. Das Verfahren kann eine erste Methode zum Betrieb eines Funkkommunikationsgeräts umfassen. Die erste Methode kann die Kodierung von zu übertragenden Daten in Übereinstimmung mit einem Mobilfunkkommunikationsprotokoll umfassen. Die erste Methode kann die Übertragung der kodierten Daten in Übereinstimmung mit dem Mobilfunkkommunikationsprotokoll beinhalten. Das Verfahren kann ein zweites Verfahren zum Betrieb eines LIDAR-Sensorsystems umfassen. Das zweite Verfahren kann die Aussendung mindestens eines Lichtimpulses umfassen. Die zweite Methode kann die Modulation sicherheitsbezogener Daten und/oder sicherheitsbezogener Daten auf den mindestens einen Lichtimpuls umfassen.
    • In Beispiel 75ab kann der Gegenstand von Beispiel 74ab optional einschließen, dass die sicherheitsbezogenen Daten den Vorschriften des Sicherheitsintegritätslevels für Kraftfahrzeuge entsprechen.
    • In Beispiel 76ab kann der Gegenstand eines der Beispiele 74ab oder 75ab optional beinhalten, dass die sicherheitsbezogenen Daten kryptographische Informationen enthalten.
    • In Beispiel 77ab kann der Gegenstand von Beispiel 76ab optional beinhalten, dass die kryptografischen Informationen einen oder mehrere kryptografische Schlüssel und/oder Authentifizierungsdaten enthalten.
    • In Beispiel 78ab kann der Gegenstand eines der Beispiele 74ab bis 77ab optional beinhalten, dass die verschlüsselten Daten mit einem oder mehreren kryptographischen Schlüsseln, die vom LIDAR-Sensorsystem übertragen werden, verschlüsselt oder digital signiert werden.
    • Beispiel 79ab ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium enthalten sein können und die bei Ausführung durch ein Computerprogrammgerät eines LIDAR-Sensorsystems der Beispiele 1ab bis 34ab das LIDAR-Sensorsystem veranlassen, das Verfahren eines der Beispiele 40ab bis 73ab auszuführen.
    • Beispiel 80ab ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eine der Methoden für ein LIDAR-Sensorsystem eines der oben genannten Methodenbeispiele ausführt.
    • Beispiel 81ab ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines Kommunikationssystems eines der Beispiele 35ab bis 39ab ausgeführt werden, das Kommunikationssystem veranlassen, das Verfahren eines der Beispiele 74ab bis 78ab auszuführen.
    • Beispiel 82ab ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht-transitorischen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein Kommunikationssystem eines beliebigen der oben genannten Verfahrensbeispiele ausführt.
  • Ein optischer Entfernungsmesser oder ein optisches Entfernungsmesssystem kann auf direkten Laufzeit-Messungen basieren. Die Laufzeit kann direkt gemessen werden, z.B. durch Berücksichtigung (z.B. Messung) der Zeit zwischen einem gesendeten Impuls und einem damit verbundenen empfangenen Impuls. Die Laufzeit kann indirekt gemessen werden, wobei ein Zwischenmaß (z.B. eine Phasenverschiebung eines modulierten Signals) zur Messung oder Berechnung der Laufzeit verwendet werden kann. Ein direkter Laufzeit-Sensor oder ein direktes Laufzeit-System (z.B. ein Sensorsystem) kann nach einem vordefinierten Abtastschema realisiert werden. Als Beispiel kann das vordefinierte Abtastschema ein FlashLIDAR mit diffusiver Emission oder Mehrstrahlemission sein. Als weiteres Beispiel kann das vordefinierte Abtastschema das Abtasten mit einem zweidimensionalen Emitter-Array sein oder beinhalten. Als weiteres Beispiel kann das vordefinierte Abtastschema ein Abtast-LIDAR sein. Das Scan-LIDAR kann z.B. einen mechanisch rotierenden Kopf und/oder einen zweidimensionalen MEMS-Spiegel umfassen. Das Scan-LIDAR kann auf einem hybriden Ansatz basieren, z.B. kann das Scan-LIDAR als HybridFlash-System konfiguriert werden, wobei das Scannen spalten- oder zeilenweise erfolgen kann.
  • Übersprechen kann die Reichweite und/oder die Leistung der Reichweite negativ beeinflussen. Das Übersprechen kann als ein Phänomen verstanden werden, bei dem ein auf einem Schaltkreis oder Kanal übertragenes Signal einen unerwünschten Effekt in einem anderen Schaltkreis oder Kanal erzeugt. Alternativ können übersprechbezogene Signale auch als Störsignale oder Konfliktsignale bezeichnet werden. Zum Beispiel kann Übersprechen zwischen LIDAR-Systemen auftreten (z.B. zwischen LIDAR-Systemen verschiedener Verkehrsteilnehmer, z.B. verschiedener Fahrzeuge). Ein solches Übersprechen kann dazu führen, dass ein System (z.B. ein LIDAR-System eines Fahrzeugs) das Signal eines anderen Systems (z.B. von einem LIDAR-System eines anderen Fahrzeugs, z.B. eines anderen Autos) nicht als „fremd“ oder „fremdes“ Signal identifizieren kann. Außerdem kann ein solches Übersprechen zu Beeinträchtigungen führen, z.B. durch Signalkollisionen. Ein direktes Einzelpuls-Laufzeit-LIDAR-System kann von solchem Übersprechen besonders betroffen sein.
  • Ein weiteres Beispiel ist das Übersprechen zwischen gleichzeitig arbeitenden LIDAR-Systemen und Subsystemen (z.B. in einem Fahrzeug eingebaut oder angeordnet). Das Übersprechen zwischen den Systemen kann sich negativ auf die Reichweitenleistung auswirken. Beispielsweise kann es vorkommen, dass parallel arbeitende LIDAR-Systeme nicht unterschieden werden. Ein weiteres Beispiel ist, dass LIDAR-Subsysteme oder sogar einzelne Sensorpixel nicht unterschieden werden können. Durch zusätzliche Koordination kann ein solches Übersprechen abgeschwächt oder wesentlich verhindert werden. Eine solche Koordination kann jedoch die Systemkomplexität erhöhen und Overheads oder andere Nachteile verursachen (z.B. durch die Einführung von Leerlaufzeiten oder „Blackout“-Zeiten).
  • Darüber hinaus kann die Aktualisierungsrate eines LIDAR-Systems durch einen oder mehrere normalerweise feste Parameter, wie z.B. feste Intervalle und/oder Wartezeiten oder „Blackout“-Zeiten, negativ beeinflusst werden (z.B. kann ein LIDAR-System normalerweise eine gewisse Wartezeit für die Rückkehr eines Laufzeitsignals beinhalten). Eine Blackout-Zeit kann als Zeit zwischen dem Abschluss eines Messfensters und dem Beginn des nächsten Messfensters verstanden werden. Während der Blackout-Zeit darf kein (z.B. neues) Laufzeitsignal abgegeben werden (z.B. darf kein LIDAR-Signal abgegeben werden, während auf die Rückkehr des vorherigen LIDAR-Signals gewartet wird). Daher kann ein LIDAR-System normalerweise eine feste Aktualisierungsrate haben.
  • Verschiedene Ausführungsformen können darauf beruhen, ein Lichtsignal (z.B. ein LIDAR-Signal, das z.B. ein Ranging-Signal enthält) so zu konfigurieren, dass Übersprecheffekte reduziert oder wesentlich eliminiert werden können. Das Lichtsignal kann so konfiguriert werden (z.B. kann es eine Rahmenstruktur haben), dass ein Ranging-System (z.B. ein LIDAR-System, wie das LIDAR-Sensorsystem 10) zwischen einem eigenen Lichtsignal (z.B. ein Lichtsignal, das von dem Ranging-System ausgesendet wird) und einem Fremdlichtsignal (z.B. ein Lichtsignal, das von einem anderen Ranging-System ausgesendet wird) unterscheiden kann.
  • In verschiedenen Ausführungsformen kann die Datenkommunikation auf oder zusätzlich zum Lichtsignal hinzugefügt werden (z.B. in dem Lichtsignal mit der Rahmenstruktur). Das Lichtsignal kann so konfiguriert sein (z.B. moduliert oder kodiert), dass es Daten trägt (z.B. zur Übertragung von Informationen). Das Lichtsignal kann so konfiguriert werden, dass die Datenkommunikation die Reichweitenleistung nicht beeinträchtigt und kein zusätzliches Übersprechen verursacht. Die zusätzliche Datenkommunikation kann so konfiguriert werden, dass eine sinnvolle Datenmenge in kurzer Zeit transportiert werden kann (z.B. im Hinblick auf die hohe Mobilität der Verkehrsteilnehmer). Beispielsweise können die Daten eine oder mehrere Anweisungen oder Befehle enthalten, die an ein anderes Ranging-System gerichtet sind. Die Datenkommunikation kann z.B. durch eine synergetische Nutzung einer oder mehrerer Hardwarekomponenten des Reichweitensystems realisiert werden. Die Datenkommunikation kann auf der Seite des Decoders rechnerisch nachvollziehbar sein (z.B. kann sie von dem die Daten empfangenden Ranging-System decodiert werden). Das empfangende Ranging-System kann zur Prüfung der Datenintegrität konfiguriert werden.
  • In verschiedenen Ausführungsformen können ein oder mehrere Konzepte im Zusammenhang mit digitaler Kommunikation auf ein weitreichendes System angewandt werden. Aus der System und Komponentenperspektive kann ein Ranging-System auch für die Datenübertragung verwendet werden.
  • Digitale Kommunikation kann als die Übertragung von Daten (z.B. ein digitaler Bitstrom oder ein digitalisiertes Analogsignal) über einen Punkt-zu-Mehrpunkt-Kommunikationskanal oder einen Punkt-zu-Mehrpunkt-Kommunikationskanal beschrieben werden. Als Beispiel kann die digitale Kommunikation die Übertragung von Daten, die als Lichtsignal dargestellt werden (z.B. Infrarotlicht oder sichtbares Licht), über einen optischen drahtlosen Kanal (z.B. über die Luft) umfassen. Die zu übertragenden Daten können auf ein Signal und/oder auf eine Folge von Impulsen (z.B. von Impulsen im Zeitbereich des Basisbandes) abgebildet werden. Eine solche Abbildung kann als Leitungscodierung oder digitale Modulation bezeichnet werden. Illustrativ können die Daten (z.B. eine zu übertragende Nachricht) durch eine Folge von Impulsen dargestellt werden. Die Abbildung kann die Form des Impulses in der Zeitdomäne definieren, z.B. in Kombination mit einem Impulsformungsfilter. Ein Beispiel für digitale Kommunikation kann die Optical Wireless Communication (OWC) (auch als Visible Light Communication (VLC) bezeichnet) sein, bei der das von einer lichtemittierenden Komponente (z.B. einer Leuchtdiode oder einem Laser) erzeugte (z.B. ausgestrahlte) Licht zur Übertragung von Daten moduliert werden kann. Es können verschiedene Modulationsschemata implementiert werden, z.B. ein gepulstes Schema (z.B. Pulspositionsmodulation (PPM) oder Pulsamplitudenmodulation (PAM)) oder ein nicht gepulstes Schema (z.B. Orthogonal Frequency Division Multiplexing (OFDM)).
  • In verschiedenen Ausführungsformen können Zeilenkodierungs- oder Modulationsschemata, die denen in der optischen Kommunikation und/oder in Impulsfunkverfahren ähnlich sind, verwendet werden, um ein Lichtsignal des Entfernungsmesssystems zu kodieren (veranschaulichend, um es elektrisch zu modulieren). Als Beispiel können die Leitungskodierungs- oder Modulationsschemata OnOff-Keying (OOK), Pulsamplitudenmodulation (PAM) und Pulspositionsmodulation (PPM) umfassen. Zur Veranschaulichung kann ein der optischen drahtlosen Kommunikation ähnliches Schema für die Fahrzeug-Fahrzeug-Kommunikation (V2V) und/oder die Fahrzeug-Umwelt-Kommunikation (V2X) (auch als Fahrzeug-zu-Alles-Kommunikation bezeichnet) implementiert werden.
  • Ein Kommunikationssystem kann gemäß einem Open System Interconnection (OSI)-Schichtdesign konfiguriert werden. Das OSl-Modell kann die Kommunikationsfunktionen eines Kommunikationssystems (z.B. eines Telekommunikationssystems) charakterisieren und standardisieren. Eine solche Standardisierung kann unabhängig von der internen Struktur und Technologie des Kommunikationssystems sein. Zur Veranschaulichung: Das OSl-Modell unterteilt ein Kommunikationssystem in Abstraktionsschichten. Eine Schicht kann die darüber liegende Schicht bedienen, und eine Schicht kann von der darunter liegenden Schicht bedient werden. Ein Beispiel für ein OSl-Modell mit sieben Schichten ist in Tabelle 4w aufgeführt. Eine Datenverbindungsschicht kann in eine Logical Link Control (LCC)-Unterschicht und in eine Medium Access Control (MAC)-Unterschicht unterteilt werden. Die LCC-Unterschicht kann näher an der physikalischen Schicht liegen als die MAC-Unterschicht.
    Figure DE112020001131T5_0027
    Figure DE112020001131T5_0028
    Figure DE112020001131T5_0029
  • Code Division Multiple Access (CDMA) kann als Mehrfachzugriffsschema beschrieben werden, bei dem eine Vielzahl von Sendern gleichzeitig Informationen über einen einzigen Kommunikationskanal senden. Ein solches Schema kann es mehreren Benutzern ermöglichen, das Medium gemeinsam zu nutzen (veranschaulicht durch den einzigen Kommunikationskanal). Um dies ohne ungebührliche Interferenzen zwischen den Benutzern zu ermöglichen, kann CDMA die Spread-Spectrum-Technologie und ein spezielles Kodierungsschema verwenden (z.B. kann jedem Sender ein Code zugewiesen werden). Zur Veranschaulichung: Die Bandbreite der Daten kann (z.B. gleichmäßig) bei gleicher Sendeleistung gespreizt werden. Die zu übertragenden Daten können (z.B. durch bitweises XOR) mit einem Spreizcode kombiniert werden (z.B. durch bitweises XOR). Der Spreizcode kann ein Pseudozufallscode mit einer engen Mehrdeutigkeitsfunktion sein. Der Spreizcode kann mit einer höheren Rate laufen als die zu übertragenden Daten.
  • Im CDMA-Schema kann jeder Benutzer einen anderen Spreizcode zur Modulation des jeweiligen Signals verwenden (zur Veranschaulichung: zur Codierung der jeweils übertragenen Daten). Die Leistung (z.B. die Qualität) der Datenübertragung kann von der Trennung zwischen den Signalen abhängen (z.B. zwischen dem Signal eines vorgesehenen Benutzers und den Signalen eines oder mehrerer anderer Benutzer). Die Signaltrennung kann durch die Korrelation des empfangenen Signals mit dem lokal erzeugten Code, der dem vorgesehenen Benutzer zugeordnet ist, erreicht werden. Ein CDMA-basiertes System kann so konfiguriert werden, dass das Signal im Falle einer übereinstimmenden Korrelation (z.B. im Falle einer hohen Korrelationsfunktion) extrahiert wird.
  • Das CDMA-Schema kann ein synchrones CDMA-Schema sein, bei dem jedem Benutzer ein Code orthogonal (zur Veranschaulichung: mit Nullkreuzkorrelation) zu den Codes anderer Benutzer zur Verfügung gestellt wird, um das jeweilige Signal zu modulieren. Das CDMA-Schema kann ein asynchroner CDMA sein. Asynchrones CDMA kann auch bereitgestellt werden (z.B. wie in einem Automobilkontext), wenn eine große Anzahl von Sendern in unregelmäßigen Abständen jeweils eine relativ kleine Menge an Datenverkehr erzeugt.
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 131A bis BILD.137, kann der Begriff „Signalmodulation“ (auch als „elektrische Modulation“ bezeichnet) verwendet werden, um eine Modulation eines Signals zur Kodierung von Daten in einem solchen Signal (z.B. ein Lichtsignal oder ein elektrisches Signal, z.B. ein LIDAR-Signal) zu beschreiben. Zum Beispiel kann eine Lichtquelle elektrisch so moduliert werden, dass das Lichtsignal Daten oder Informationen trägt oder überträgt. Zur Veranschaulichung: Ein elektrisch moduliertes Lichtsignal kann eine Folge von Lichtimpulsen enthalten, die (z.B. zeitlich beabstandet) so angeordnet sind, dass Daten entsprechend der Anordnung der Lichtimpulse extrahiert oder interpretiert werden können. Analog dazu kann der Begriff „Signaldemodulation“ (auch als „elektrische Demodulation“ bezeichnet) verwendet werden, um eine Dekodierung von Daten aus einem Signal (z.B. aus einem Lichtsignal, wie z.B. einer Folge von Lichtimpulsen) zu beschreiben.
  • In verschiedenen Ausführungsformen kann eine Vielzahl verschiedener Signalmodulationscodes verwendet werden, um ein Lichtsignal zu kodieren und/oder zu dekodieren (z.B. zur Anpassung eines Lichtsignals für die Übertragung von Daten). Bei der Mehrzahl der verschiedenen Signalmodulationscodes kann es sich um CDMA-Codes handeln (z.B. Codes, die den in einem CDMA-Schema vorgesehenen Spreizcodes gleich oder ähnlich sind). Als Beispiel kann die Vielzahl der Signalmodulationscodes Walsh-Codes, Hadamard-Matrizen, Gold-Code-Konstruktionsschemata und „Pseudo-Rausch“-(PN-)Sequenzen umfassen.
  • In verschiedenen Ausführungsformen kann ein rahmenbasiertes Signalisierungsschema für ein Reichweitensystem bereitgestellt werden. Das von dem Reichweitenmesssystem ausgesandte Lichtsignal kann als Rahmen konfiguriert oder strukturiert sein. Zur Veranschaulichung: Das Lichtsignal kann einen oder mehrere Abschnitte (z.B. Rahmenabschnitte) enthalten, und jeder Abschnitt kann mit einem Inhaltstyp verbunden sein (z.B. kann jeder Abschnitt eine bestimmte Art von Information tragen). Das rahmenbasierte Signalisierungsschema kann eine vordefinierte Rahmenstruktur enthalten (z.B. angepasst, um harmonisiert und/oder standardisiert zu werden). Ein oder mehrere Kodierungsschemata (auch als Signalmodulationsschemata oder elektrische Modulationsschemata oder Kodierungsschemata bezeichnet) können bereitgestellt werden, um einen Rahmen aufzubauen (z.B. um einen Rahmen zu erzeugen).
  • Im Zusammenhang mit dem vorliegenden Antrag, z.B. in Bezug auf 131A bis 137, kann der Begriff „Rahmen“ verwendet werden, um eine logische Struktur eines Signals (z.B. eines Lichtsignals oder eines elektrischen Signals) zu beschreiben. Illustrativ kann der Begriff „Rahmen“ eine Anordnung (z.B. eine Struktur) für den Inhalt des Rahmens (z.B. für das Signal oder die Signalkomponenten) beschreiben oder definieren. Die Anordnung des Inhalts des Rahmens innerhalb des Rahmens kann konfiguriert werden, um Daten oder Informationen bereitzustellen. Ein Rahmen kann eine Folge von Symbolen oder Symboldarstellungen enthalten. Ein Symbol oder eine Symboldarstellung kann je nach seiner Position innerhalb des Rahmens eine unterschiedliche Bedeutung haben (z.B. kann es verschiedene Arten von Daten repräsentieren). Ein Rahmen kann eine vordefinierte Zeitdauer haben. Zur Veranschaulichung: Ein Rahmen kann ein Zeitfenster definieren, innerhalb dessen ein Signal eine vordefinierte Bedeutung haben kann. Beispielsweise kann ein Lichtsignal, das so konfiguriert ist, dass es eine Rahmenstruktur hat, eine Folge von Lichtimpulsen enthalten, die Daten oder Informationen repräsentieren (oder tragen). Ein Rahmen kann durch einen Code (z.B. einen Signalmodulationscode) definiert werden, der die Anordnung der Symbole innerhalb des Rahmens definieren kann.
  • Die Symbole können aus einem vordefinierten Alphabet gezogen werden (z.B. aus einem binären Alphabet mit Symbolen in {0; 1}, aus einem ternären Alphabet oder aus einem Alphabet höherer Ordnung). Illustrativ kann ein Symbol ein oder mehrere Bits darstellen. Ein in einem Rahmen oder in einem Rahmenabschnitt enthaltenes Symbol kann durch eine Signaldarstellung dieses Symbols dargestellt werden. Eine Signaldarstellung eines Symbols kann z.B. ein analoges Signal (z.B. ein Strom oder eine Spannung) sein, auf das dieses Symbol abgebildet wird. Eine Signaldarstellung eines Symbols kann z.B. ein Zeitbereichssignal (z.B. ein Lichtimpuls, im folgenden auch als Puls bezeichnet) sein, auf das dieses Symbol abgebildet werden kann. Veranschaulichend kann ein Rahmen als eine Folge von einem oder mehreren Symbolen (z.B. „0“ und „1“) verstanden werden, die als eine Folge von einer oder mehreren Signaldarstellungen dieser Symbole (z.B. ein oder mehrere Ströme oder Stromstärken, ein oder mehrere Impulse usw.) dargestellt oder gespeichert werden. Somit kann ein und derselbe Rahmen auf unterschiedliche Weise implementiert werden. Beispielsweise kann ein und derselbe Rahmen als ein oder mehrere elektrische Signale gespeichert und als ein oder mehrere Lichtimpulse ausgesendet oder übertragen werden.
  • Ein Symbol kann auf eine Signaldarstellung des Symbols abgebildet werden, z.B. auf ein Zeitbereichssymbol (zur Veranschaulichung: Jedes Symbol kann mit einem entsprechenden Zeitbereichssymbol verknüpft sein). Das Zeitbereichssymbol kann eine Symboldauer TS haben. Jedes Zeitbereichssymbol kann die gleiche Symboldauer TS haben, oder Zeitbereichssymbole, die verschiedenen Symbolen zugeordnet sind, können unterschiedliche Symboldauern TS1, TS2,..., TSn haben.
  • Ein Beispiel für eine Signaldarstellung kann ein Impuls (z.B. ein Gaußscher Impuls) mit einer Symbolamplitude (z.B. eine Impulsamplitude) und einer Symboldauer TS (z.B. eine Impulsdauer) sein. Zeitbereichssymbole, die unterschiedlichen Symbolen zugeordnet sind, können unterschiedliche Symbolamplituden (und gleiche oder unterschiedliche Symboldauern) haben, oder Zeitbereichssymbole, die unterschiedlichen Symbolen zugeordnet sind, können die gleiche Symbolamplitude (und unterschiedliche Symboldauern) haben. Wenn beispielsweise ein binäres Alphabet (z.B. ein unipolares binäres Alphabet) verwendet wird, kann das „1‟-Symbol auf einen Gaußschen Impuls mit einer bestimmten Amplitude und einer bestimmten Symboldauer und das „0“-Symbol auf einen Gaußschen Impuls mit Nullamplitude und der gleichen Symboldauer abgebildet werden.
  • Ein Rahmen kann eine Länge haben, z.B. N (N kann z.B. die Anzahl der im Rahmen enthaltenen Symbole beschreiben). Die Länge eines Rahmens kann vordefiniert (z.B. fest) oder variabel sein. Zum Beispiel kann die Länge eines Rahmens variabel sein, mit (oder zwischen) einer minimalen und einer maximalen Länge.
  • Im Zusammenhang mit der vorliegenden Anwendung kann ein Frame beispielsweise ein Lichtsignalsequenz-Frame, ein Referenz-Lichtsignalsequenz-Frame, ein Korrelationsergebnis-Frame oder ein Signalsequenz-Frame sein, wie im Folgenden näher beschrieben.
  • Zur Veranschaulichung: Ein Ranging-System kann so konfiguriert werden, dass es einen Rahmen erzeugt und/oder aussendet (z. B. ein Lichtsignalsequenz-Rahmen, z. B. eine Folge von Impulsen). Das Entfernungsmesssystem kann so konfiguriert werden, dass es ein Lichtsignal empfängt, z.B. eine Lichtsignalsequenz. Das Ranging-System kann so konfiguriert werden, dass es bestimmt, ob ein Frame in einer empfangenen Lichtsignalsequenz enthalten ist. Das Ranging-System kann so konfiguriert werden, dass es einen Rahmen in einer empfangenen Lichtsignalsequenz interpretiert (z.B. um Daten, wie Kommunikationsdatenbits, die in einem solchen Rahmen enthalten sind, zu dekodieren).
  • Das Ranging-System kann so konfiguriert werden, dass es einen oder mehrere Rahmen (z.B. eine oder mehrere Lichtimpulsfolgen) aussendet. Das Ranging-System kann so konfiguriert werden, dass es die Bilder mit einem zeitlichen Abstand (z.B. einer Zeitverzögerung) zwischen aufeinander folgenden Bildern emittiert. Der Zeitabstand kann aus einem Bereich zwischen einem minimalen Zeitabstand Tmin und einem maximalen Zeitabstand Tmax gewählt werden. Das eine oder mehrere Einzelbilder können gleiche oder unterschiedliche Länge und/oder Zusammensetzung haben. Das eine oder die mehreren Einzelbilder können vom gleichen Typ oder von verschiedenen Typen sein. Das Ranging-System kann so konfiguriert werden, dass es einen oder mehrere Frames in Übereinstimmung mit einem Medium-Zugriffsschema (z.B. ein Ranging-Medium-Zugriffsschema oder LIDAR-Medium-Zugriffsschema) aussendet, wie z.B. in Bezug auf 138 bis 144 beschrieben. Zur Veranschaulichung: Das Ranging-System kann für die Aktivitätserfassung konfiguriert werden.
  • Ein Rahmen kann eine vordefinierte Struktur enthalten. Der Rahmen kann einen oder mehrere (z.B. vordefinierte) Rahmenteile (z.B. ein oder mehrere Felder) umfassen. Jeder Teil kann mit einer vordefinierten Verwendung und/oder Funktion (z.B. Ranging, Datenkodierung und dergleichen) verbunden sein. Als Beispiel kann ein Rahmen einen einzelnen Teil enthalten (z.B. nur einen Präambelteil, nur einen Nutzlastteil usw.). Ein Teil kann eine variable Länge haben (z.B. eine blockweise variable Länge). Es kann auch ein spezieller Teil oder ein Satz von Teilen (z.B. desselben Typs) vorgesehen sein (z.B. eine spezielle Präambel und/oder ein Satz von Präambeln, z.B. für die Signalisierung).
  • Die Struktur eines Rahmens kann so konfiguriert werden, dass sie identifizierbar (und dekodierbar) ist. Illustrativ kann ein Fahrzeug (z.B. ein Reichweitenmesssystem des Fahrzeugs) so konfiguriert (oder in der Lage) sein, dass die Rahmenstruktur jedes Lichtsignals oder jeder Lichtsignalfolge, die das Fahrzeug empfängt (z.B. jedes Lichtsignals mit einer Rahmenstruktur), identifiziert werden kann. Dies kann den Effekt eines reduzierten Übersprechens bewirken, z.B. wenn verschiedene Fahrzeuge unterschiedliche Rahmen oder Rahmen mit unterschiedlicher Struktur aussenden (z.B. kann ein Entfernungsmesssystem so konfiguriert sein, dass es zwischen einem eigenen Signal und einem von einem anderen Entfernungsmesssystem ausgesendeten Signal unterscheidet). Somit können mehrere Entfernungsmesssysteme (z.B. in mehreren Fahrzeugen enthalten) in einem Gebiet betrieben werden. Als weiteres Beispiel kann dies für die Datenkommunikation vorgesehen werden. Zur Veranschaulichung: Identifikationsdaten und/oder verschiedene Arten von Daten und Signalisierungsinformationen können auf dem Rahmen kodiert und dekodiert werden. Als weiteres Beispiel kann dies eine verbesserte Zuverlässigkeit für die Datenübertragung bieten (z.B. kann eine Konsistenzprüfung implementiert werden).
  • Ein Rahmen und/oder ein Teil eines Rahmens kann einen oder mehrere Blöcke (z.B. Symbolblöcke) umfassen. Zur Veranschaulichung: Ein Rahmen kann in einen oder mehrere Rahmenabschnitte unterteilt sein, und jeder Rahmenabschnitt kann in einen oder mehrere Blöcke unterteilt sein. Ein Symbolblock kann ein oder mehrere Symbole enthalten. Verschiedene Blöcke können Symbole aus verschiedenen Alphabeten enthalten (z.B. kann ein erster Block Symbole aus einem binären Alphabet und ein zweiter Block Symbole aus einem ternären Alphabet enthalten). Ein Block kann ein Beispiel für einen Teil einer Symboldarstellung sein.
  • In verschiedenen Ausführungsformen können eine oder mehrere Regeln in Bezug auf die Konstruktion eines Rahmens definiert werden. Zum Beispiel können die eine oder mehrere Regeln die Rahmenlänge definieren oder bestimmen (und/oder ob die Rahmenlänge vordefiniert oder variabel ist). Als weiteres Beispiel können die eine oder die mehreren Regeln die Rahmenstruktur und/oder den einen oder die mehreren in einem Rahmen enthaltenen Teile definieren (z.B. eine vordefinierte Struktur, einen oder mehrere obligatorische Teile, einen oder mehrere optionale Teile). Als weiteres Beispiel können die eine oder mehrere Regeln die Länge der Teile definieren (und/oder ob die Länge vordefiniert oder variabel ist). Als weiteres Beispiel können die eine oder die mehreren Regeln die jeweilige Funktion der Teile definieren (z.B. vordefinierte Kodierung, reserviert oder zukünftige Verwendung).
  • Je nach Verwendungszweck des Rahmens können ein oder mehrere Teile (z.B. die Anzahl der Teile und/oder die jeweilige Funktion) konfiguriert (z.B. ausgewählt) werden.
  • Ein (z.B. generischer) Rahmen kann einen Präambelrahmenteil (auch Präambelfeld oder Präambel genannt) enthalten. Die Präambel kann so konfiguriert werden, dass sie Funktionen zur Signalerfassung und/oder Signalsynchronisation bietet. Zur Veranschaulichung: Der Präambel-Rahmenteil kann Erfassungssignale und/oder Bereichssignale und/oder Synchronisationssignale enthalten.
  • Der generische Rahmen kann (optional) einen Nutzlastrahmenteil enthalten (auch als Nutzlastfeld, Nutzlast oder PHY-Nutzlast bezeichnet, wobei PHY für die physikalische Schicht steht). Der Nutzlast-Rahmenteil kann so konfiguriert werden, dass er verschiedene Arten von Informationen, wie Identifikationsinformationen, Daten, Signalisierungsinformationen und/oder Steuerinformationen, bereitstellt und/oder verwaltet.
  • Der generische Rahmen kann (optional) einen Header-Frame-Teil enthalten (auch als Header-Feld, Header oder PHY-Header bezeichnet). Der Header-Frame-Teil kann Steuerdaten enthalten. Der Header kann die Flexibilität bieten, wie Daten und/oder Informationen in der Nutzlast und/oder in der Fußzeile angeordnet werden können. Der Header-Rahmenteil kann so konfiguriert werden, dass er verschiedene Arten von Informationen kodiert (z.B. über einen oder mehrere andere Rahmenteile).
  • Beispielsweise kann der Header-Frame-Teil so konfiguriert werden, dass er Informationen über den Nutzlast-Frame-Teil kodiert, wie zum Beispiel nutzlastspezifische Parameter, Typ der Nutzlast, nutzlasttypspezifische Parameter, Protokollversion und ähnliches. Nutzlastspezifische Parameter können z.B. die Länge der Nutzlast, die Konfiguration der Nutzlast, das Kodierungsschema der Nutzlast und/oder ein zur Kodierung verwendetes Codebuch umfassen (z.B. die Anzahl der in der Nutzlast enthaltenen zusätzlichen Ranging-Sequenzen, die Anzahl der in der Nutzlast kodierten Datensymbole, das zur Kodierung von Daten verwendete Codebuch, das zur Kodierung von Signalisierungs- und Steuerinformationen verwendete Codebuch und ähnliches). Die Art der Nutzlast kann z.B. Bereichs-, Datenübertragungs-, Signalisierungs- und/oder Steuerinformationen oder andere Arten von Informationen (z.B. Verwaltungsrahmen) umfassen. Die nutzlasttypspezifischen Parameter können z.B. das verwendete Ranging-Schema, das verwendete Datenkodierungsschema (z.B. das verwendete Mapping und/oder das verwendete Codebuch) oder das verwendete Signalisierungs- und/oder Steuerschema umfassen.
  • Als weiteres Beispiel kann der Header-Frame-Abschnitt Informationen über einen Footer-Frame-Abschnitt kodieren (der weiter unten näher beschrieben wird), wie z.B. Informationen, die beschreiben, dass keine Fußzeile vorhanden ist, Informationen, die beschreiben, dass die Fußzeile mit „Dummy-Bits“ gefüllt ist, um eine bestimmte (z.B. minimale) Frame-Länge zu erreichen, Informationen, die beschreiben, dass die Fußzeile Nutzlast-Fehlererkennungsinformationen und/oder Fehlerkorrekturinformationen (z.B. einschließlich Informationen über das verwendete Fehlererkennungs- und/oder Fehlerkorrekturschema) enthält, und ähnliches. Als ein weiteres Beispiel kann der Header-Frame-Teil Informationen über die Protokollversion (z.B. die Versionsnummer) kodieren. Die Information über die Protokollversion kann zukünftige Erweiterungen ermöglichen.
  • Der generische Rahmen kann (optional) einen Fußzeilenrahmenteil enthalten (auch als Fußzeilenfeld, Fußzeile oder PHY-Fußzeile bezeichnet). Die Fußzeile kann so konfiguriert werden, dass sie Frame-Konsistenzprüfungsfunktionen (z.B. Frame-Integritätstest und/oder Kollisionserkennung) bietet. Als Beispiel kann der Rahmenteil der Fußzeile Frame-Integritätstestsignale und/oder Kollisionserkennungssignale enthalten. Als weiteres Beispiel kann der Fußrahmenteil Symbole und/oder Symbolfolgen zur Fehlererkennung und/oder Fehlerkorrektur (z.B. Nutzlastfehlererkennung und/oder -korrektur) enthalten. Zusätzlich oder alternativ kann der Fußrahmenteil Dummysymbole und/oder Sequenzen von Dummysymbolen (z.B. „Dummy-Bits“) enthalten. Solche Dummysymbole und/oder -sequenzen können dazu dienen, eine bestimmte (z.B. minimale) Rahmenlänge zu erreichen.
  • Die physikalische Schicht kann das physikalische Kommunikationsmedium beschreiben (ähnlich der Datenkommunikation, wobei PHY Teil des OSl-Modells sein kann). Zur Veranschaulichung: Für ein Ranging-System kann das physikalische Kommunikationsmedium Luft sein (z.B., wo Lichtimpulse ausgesendet werden können).
  • Zur Veranschaulichung: Jeder Rahmenteil kann eine Folge von Symbolen (oder Signaldarstellungen) sein oder enthalten. Die Folge von Symbolen kann durch einen zugehörigen Teilcode definiert werden (z.B. einen Präambelcode, einen Nutzlastcode, einen Fußzeilencode und einen Headercode). Der Code kann aus dem binären Alphabet {0,1} oder aus einem anderen Alphabettyp stammen, z.B. können Kodierungsschemata höherer Ordnung bereitgestellt werden. Die Reihenfolge der Symbole kann von der Art des Rahmens abhängen, in dem der Teil enthalten ist.
  • Jeder Rahmenteil kann eine einstellbare Länge haben. Zur Veranschaulichung: Die Länge eines Rahmenteils (z.B. einer Präambel) kann je nach Rahmentyp angepasst oder ausgewählt werden. Es können Rahmenteile unterschiedlicher Länge definiert werden (z.B. Standard, kurz, mittel, lang). Dies kann für Flexibilität sorgen, z.B. während der Laufzeit. Zur Veranschaulichung: Die Länge eines Frame-Abschnitts (z.B. die Länge einer Präambel) kann die Leistung des Ranging-Systems beeinflussen oder bestimmen. Die dynamische Anpassung der Länge kann eine dynamische Anpassung der Leistungsparameter ermöglichen. Beispielsweise kann das Ranging-System so konfiguriert werden, dass verschiedene Längen für einen oder mehrere Teile eines Rahmens (z. B. während des Betriebs) ausgewählt werden können.
  • Ein (z.B. spezifischer) Rahmen kann aus der Struktur des oben beschriebenen generischen Rahmens abgeleitet werden. Illustrativ kann ein spezifischer (oder dedizierter) Rahmen einen oder mehrere Rahmenteile des generischen Rahmens umfassen (z.B. eine Präambel und/oder eine Nutzlast und/oder eine Kopf- und/oder Fußzeile). Als Beispiel kann ein Rahmen ein Ranging-Rahmen sein (z.B. für einen Ranging-Vorgang). Als weiteres Beispiel kann ein Rahmen ein Datenrahmen sein (z.B. für die Datenübertragung verwendet). Als weiteres Beispiel kann ein Rahmen ein Signalisierungs- und Steuerrahmen sein (auch als ACK-Rahmen (Short Acknowledgment) bezeichnet). Zur Veranschaulichung: Je nach Rahmentyp können ein oder mehrere Rahmenteile optional sein (z.B. weggelassen werden).
  • Beispielsweise können in einem Ranging-Rahmen die Kopfzeile und/oder die Nutzlast und/oder die Fußzeile optionale Teile sein (z.B. können eines oder mehrere solcher Felder weggelassen werden). Ein Ranging-Rahmen kann einen einzelnen Teil enthalten (z.B. die Präambel). In einem Ranging-Rahmen kann die Präambel z.B. für Ranging verwendet werden (z.B. allein oder zusammen mit einem oder mehreren anderen Teilen oder zusammen mit einem oder mehreren anderen (z.B. nachfolgenden) Ranging-Rahmen). Durch Variation der Präambellänge können bestimmte Leistungsparameter angepasst (z.B. optimiert) werden, wie z.B. Detektionsbereich (Detectionrange) und Updaterate. Zur Veranschaulichung: Bei der Entfernungsmessung über große Entfernungen kann eine bestimmte Mindestpräambellänge erforderlich sein, um Messungen bei niedrigen Signal-Rausch-Verhältnissen (SNRs) zu erhalten. Die Aktualisierungsrate des Systems kann umgekehrt proportional zur Präambellänge sein. In einem Ranging-Frame können zusätzliche Ranging-Symbole und/oder Folgen von Symbolen in der Nutzlast kodiert sein. Dies kann die Ranging-Leistung (z.B. die Qualität der Detektion) verbessern.
  • Als weiteres Beispiel kann in einem Datenrahmen die Nutzlast und/oder die Fußzeile optional sein. Alternativ dazu kann ein Datenrahmen auch einen einzelnen Teil enthalten (z.B. die Nutzlast, illustrativ kann nur die Nutzlast für die Datenübertragung verwendet werden). Der Datenrahmen einschließlich der einzelnen Nutzlast kann (optional) ein zusätzliches Feld (z.B. die Fußzeile) enthalten. In einem Datenrahmen kann die Präambel z.B. als „Marker“ für die Zeiterfassung und Synchronisation dienen, z.B. kann die Präambel den Beginn der Datenübertragung anzeigen (z.B. den Beginn der Nutzlast und/oder der Fußzeile). In einem Datenrahmen können Datensymbole und/oder Folgen von Datensymbolen in der Nutzlast kodiert sein. Solche Datensymbole und/oder -sequenzen können verschiedene Arten von Daten kodieren, z. B. Daten für die Kommunikation, Identifizierungsinformationen (z. B. Fahrzeug-Identifizierungsnummer, Fahrzeugtyp, Fahrzeug-ID, Fahrzeugseriennummer, Eck-ID (links, rechts, vorne, hinten), Pixel-ID, Subsystem-ID und dergleichen), Sicherheitsdaten (z. B, Informationen für den Austausch von Sicherheitsschlüsseln, für die Authentifizierung, für die Zwei-Faktor-Authentifizierung und dergleichen), Telemetriedaten (z.B. GPS-Koordinaten- , Geschwindigkeit, Bremsstatus und dergleichen), eine verkehrsbezogene Warnmeldung und/oder Warnung (z.B. über ein entdecktes Hindernis), ein Übertragungstoken zur Koordinierung der Kommunikation und Informationen zur Verwaltung der Übergabe an die HF-Kommunikation.
  • Als weiteres Beispiel kann in einem Signalisierungs- und Kontrollrahmen die Nutzlast und/oder die Fußzeile optional sein. Ein Signalisierungs- und Kontrollrahmen kann einen einzelnen Teil enthalten (z.B. die Präambel). Zur Veranschaulichung können eine oder mehrere bezeichnete Präambeln für die Signalisierung und/oder Steuerung verwendet werden (z.B. für die Aussendung einer Warnbake, eines kurzen ACK und ähnliches). In einem Signalisierungs- und Steuerrahmen kann die Präambel z.B. als „Marker“ für die Zeiterfassung und Synchronisierung dienen (z.B. kann die Präambel den Beginn der Signalisierungs- und Steuerinformation anzeigen, wie den Beginn der Nutzlast und/oder die Fußzeile). Zusätzlich oder alternativ dazu kann in einem Signalisierungs- und Steuerrahmen die Präambel selbst als Signalisierungs- und Steuerinformation dienen, z.B. für den Fall, dass eine Warnsignalleuchte und/oder ein kurzes ACK übertragen wird. In einem Signalisierungs- und Steuerrahmen können in der Nutzlast Symbole und/oder Sequenzen von Symbolen für Signalisierungs- und Steuerzwecke kodiert sein. Solche Symbole und/oder Sequenzen können z.B. Baken, Bestätigungsmeldungen (ACK-Meldungen) und andere Arten von Informationen beschreiben oder enthalten.
  • Ein Präambelrahmenteil kann auch für die Kanalschätzung konfiguriert werden. Ein Satz von vordefinierten Präambeln (z.B. von vordefinierten Präambelcodes) kann definiert werden. Ein Präambel-Codebuch kann zur Verfügung gestellt werden (z.B. kann das Ranging-System Zugriff auf das Präambel-Codebuch haben). Das Präambel-Codebuch kann die vordefinierten Präambeln beschreiben oder enthalten (z.B. eine Vereinigung, eine Sammlung oder eine Liste aller vordefinierten Präambeln). Jede Präambel im Präambel-Codebuch kann zur Definition einer Anzahl „virtueller“ Kanäle verwendet werden. Ein virtueller Kanal kann einer zugehörigen Funktion zugeordnet werden (z.B. für Ruf-, Daten-, Signal- und Steuerinformationen). Der Präambelcode kann so konfiguriert werden, dass er gute Autokorrelationseigenschaften aufweist. Die Präambelcodes im Präambelcodebuch können so konfiguriert werden, dass sie gute Kreuzkorrelationseigenschaften haben. Gute Autokorrelationseigenschaften können die Timing-Auflösung und/oder die Timing-Präzision verbessern (z.B. wenn die Präambel für Ranging verwendet wird), und es können gute Kreuzkorrelationseigenschaften zur Unterscheidung eines eigenen Signals von einem Fremdsignal bereitgestellt werden. Ein Teilnehmer (z.B. ein Verkehrsteilnehmer, wie z.B. ein Fahrzeug oder ein Entfernungsmesssystem eines Fahrzeugs) kann je nach gewählter Präambel auswählen, welchen Kanal er abonnieren möchte (z.B. welchen Kanal er sprechen und/oder hören möchte). Ein solcher kanalbasierter Ansatz kann auch für den Fall vorgesehen werden, dass spezielle Rahmen und/oder Nachrichten übermittelt werden (z.B. spezielle Rahmen für die Ausstrahlung von Benachrichtigungen oder Warnungen). Ein Präambel-Codebuch kann spezifisch für ein Reichweitensystem (oder fahrzeugspezifisch) sein. Zur Veranschaulichung: Verschiedene Hersteller können „nicht überlappende“ Präambel-Codebücher zur Verfügung stellen. Dies kann den Effekt haben, dass ein System von anderen Systemen (z.B. von anderen Herstellern) entkoppelt werden kann, wodurch die durch die Geräte der anderen Hersteller verursachten Beeinträchtigungen verringert werden.
  • Im Kontext der vorliegenden Anwendung können gute Autokorrelationseigenschaften verwendet werden, um ein Signal zu beschreiben, das eine Autokorrelation unterhalb einer vordefinierten Autokorrelationsschwelle liefert, falls das Signal mit einer verschobenen (z.B. zeitverschobenen oder verzögerten, illustrativ mit einer Zeitverschiebung ungleich 0) Version von sich selbst korreliert ist. Der Autokorrelationsschwellenwert kann je nach der beabsichtigten Anwendung gewählt werden. Zum Beispiel kann der Autokorrelationsschwellenwert kleiner als 0,5 sein, z.B. kleiner als 0,1, z.B. im Wesentlichen 0. Im Kontext der vorliegenden Anwendung können gute Kreuzkorrelationseigenschaften zur Beschreibung eines Signals verwendet werden, das eine Kreuzkorrelation unterhalb eines vordefinierten Kreuzkorrelationsschwellenwerts liefert, falls das Signal mit einem anderen Signal (z.B. einem anderen Signal) kreuzkorreliert ist. Der Kreuzkorrelationsschwellenwert kann in Abhängigkeit von der beabsichtigten Anwendung gewählt werden. Zum Beispiel kann der Kreuzkorrelationsschwellenwert kleiner als 0,5 sein, z.B. kleiner als 0,1, z.B. im wesentlichen 0. Das Signal kann z.B. ein Vollbild oder ein Vollbildteil sein, wie z.B. ein Lichtsignalsequenz-Vollbild oder ein Referenz-Lichtsignalsequenz-Vollbild.
  • In verschiedenen Ausführungsformen kann ein Kodierungsschema (auch als Kodierungsverfahren bezeichnet) zur Verfügung gestellt werden. Das Kodierungsschema kann gute Autokorrelations- und/oder Kreuzkorrelationseigenschaften aufweisen (zur Veranschaulichung: Das Kodierungsschema kann die Kodierung und/oder Dekodierung von Signalen mit guten Autokorrelations- und/oder Kreuzkorrelationseigenschaften ermöglichen). Das zur Verfügung gestellte Kodierungsschema kann den Effekt eines reduzierten Übersprechens zwischen einem Entfernungsmesssystem und anderen Entfernungsmesssystemen (oder zwischen Subsystemen- eines Entfernungsmesssystems) bieten, wodurch der gleichzeitige Betrieb mehrerer Entfernungsmesssysteme ermöglicht wird. Als weiteres Beispiel kann das zur Verfügung gestellte Kodierungsschema eine „Blackout“-Zeit reduzieren. Als weiteres Beispiel kann das bereitgestellte Kodierungsschema eine Datenkodierung ermöglichen.
  • Das Kodierungsschema kann so konfiguriert werden, dass eine Symbolfolge (z.B. eines großen Symbolblocks) blockweise zusammengesetzt und/oder zerlegt werden kann. Illustrativ kann eine blockweise Kodierungsstrategie bereitgestellt werden (z.B. ein blockweises Kodierungsverfahren). Eine Symbolfolge kann z.B. in einem Rahmen oder in einem Rahmenteil enthalten sein. Die Zusammensetzung und/oder Zerlegung kann unter Verwendung kleinerer Unterblöcke von Symbolen erfolgen (z.B. kleine Symbolblöcke). Das Schema kann für die Kodierung mit variabler Blocklänge und/oder für den gleichzeitigen Betrieb und/oder für die Datenkodierung vorgesehen werden. Ein entsprechender Kodierer und/oder Dekodierer kann vorgesehen werden, wie weiter unten näher beschrieben wird. Die blockweise Operation kann den mit der Datenübertragung verbundenen Rechenaufwand verringern (zur Veranschaulichung: die blockweise Operation kann eine rechentechnisch nachvollziehbare Implementierung sein).
  • Der blockweise Kodierungsprozess kann die Aufteilung eines Rahmens (oder Rahmenteils) in einen oder mehrere Symbolblöcke (z. B. einen Rahmen oder einen Rahmenteil, der kodiert oder dekodiert werden soll) umfassen. Der blockweise Codierungsprozess kann die Codierung jedes Symbolblocks auf einen entsprechenden Impulsfolgeblock umfassen (zur Veranschaulichung: die Symbolblöcke können eineindeutig auf Impulsfolgeblöcke abgebildet werden). Eine Impulsfolge kann eine Folge von Lichtimpulsen sein. Ein Impulsfolgenblock kann eine Teilmenge von Lichtimpulsen einer Impulsfolge sein. Eine Pulssequenz kann ein Beispiel für eine Lichtsignalsequenz oder einen Lichtsignalsequenzrahmen sein.
  • Der blockweise Kodierungsprozess kann die Übertragung eines oder mehrerer Impulsfolgeblöcke umfassen (zur Veranschaulichung: die Kombination aller Impulsfolgeblöcke kann den ursprünglichen Rahmen oder Rahmenteil darstellen). Die blockweise Kodierungsstrategie kann die Verwendung von Impulsen mit größerer Impulsdauer ermöglichen, wodurch die Komplexität der zugehörigen Elektronik reduziert wird. Die blockweise Kodierungsstrategie kann auch den Berechnungsaufwand auf der Empfängerseite reduzieren (z.B. kann die Datendekodierung einfacher sein). Illustrativ kann die blockweise Kodierungsstrategie einige der Unzulänglichkeiten eines konventionellen CDMA-Kodierungsschemas überwinden.
  • In verschiedenen Ausführungsformen kann der Kodierungsprozess einen Kodierungsprozess beinhalten (auch als Signalmodulationsprozess bezeichnet). Der Kodierungsprozess kann zur Kodierung (mit anderen Worten: Abbildung) eines Rahmens auf eine Signaldarstellung des Rahmens (z.B. ein physikalisches Zeitbereichssignal) dienen. Die Kodierung kann auf einzelne Symbole eines Rahmens oder Rahmenabschnitts, auf Symbolblöcke innerhalb des Rahmens oder auf den gesamten Rahmen angewendet werden. Beispielsweise kann der Kodierungsprozess in Kombination mit einem Impulsformungsfilter die Form eines Impulses in der Zeitdomäne definieren (z.B. eines oder mehrerer Impulse, die mit einem Rahmen verbunden sind, z.B. mit einem oder mehreren im Rahmen enthaltenen Symbolen). Als Beispiel kann der Kodierungsprozess ein oder mehrere Signalmodulationsschemata umfassen, wie z.B. On-Off-Tastung (OOK), Pulsamplitudenmodulation (PAM), Pulspositionsmodulation (PPM) und ähnliches. Das eine oder die mehreren Signalmodulationsschemata können in Kombination mit einem Impulsformungsfilter (z.B. Gauß-förmig) verwendet werden, um die Symbole eines Rahmens, Symbolblöcke innerhalb des Rahmens oder den gesamten Rahmen in ein Zeitbereichssignal zu kodieren. Der Kodierungsprozess kann gute Autokorrelations und/oder Kreuzkorrelationseigenschaften aufweisen. Wenn beispielsweise ein Frame gute Autokorrelationseigenschaften hat, kann der gesamte Frame für die Ranging-Funktion bereitgestellt werden. Ein weiteres Beispiel: Wenn ein Frame gute Kreuzkorrelationseigenschaften hat, kann der Frame zur Reduzierung von Fremd-Übersprechen und/oder Frame-Fehlern bereitgestellt werden.
  • Als Beispiel kann ein CDMA-ähnlicher Ansatz (z.B. asynchrones CDMA) gewählt werden. Der Kodierungsprozess kann einen oder mehrere Signalmodulationscodes (z.B. Spreizcodes) zur Kodierung (z.B. elektrische Modulation) des Rahmens beinhalten (oder verwenden), wie z.B. Walsh-Codes, Hadamard-Matrizen, Gold-Code-Konstruktionsschemata und PN-Sequenzen. Der Kodierungsprozess kann eine XOR-Operation zwischen einem Code (z.B. einem Signalmodulationscode) und einem oder mehreren Symbolen eines Rahmens (z.B. einer Folge von Symbolen, z.B. einer binären Symbolfolge) umfassen. Die XOR-Operation kann eine kodierte Darstellung des einen oder der mehreren Eingangssymbole liefern (z.B. eine CDMA-kodierte Darstellung der Eingangssequenz). Der Kodierungsprozess kann die Umwandlung der kodierten Darstellung des einen oder der mehreren Eingangssymbole in eine Folge von Impulsen (z.B. Gauss-Form) umfassen.
  • Die Kodierung eines Symbolblocks auf den zugehörigen Impulsfolge-Block kann durch Zugriff auf einen Speicher oder eine Datenbank erfolgen (z.B. Abrufen des Impulsblocks, der dem Symbolblock zugeordnet werden soll, aus einem Speicher oder einer Datenbank). Das Ranging-System kann auf einen solchen Speicher und/oder eine solche Datenbank zugreifen. Beispielsweise kann ein Entfernungsmesssystem solche Informationen lokal speichern (z.B. in einem Speicher des Entfernungsmesssystems und/oder eines Fahrzeugs). Als weiteres Beispiel kann ein Messbereichssystem (oder alle Messbereichssysteme) Zugriff auf eine systemexterne (z.B. zentralisierte) Datenbank oder eine Datenbank haben, in der solche Informationen (z.B. standardisierte Informationen) gespeichert sind.
  • Der Speicher und/oder die Datenbank kann jeden möglichen Symbolblock enthalten oder speichern, der auf einen entsprechenden Impulsfolgenblock abgebildet wird. Zur Veranschaulichung: Der Speicher und/oder die Datenbank können ein Codebuch (z.B. eine Nachschlagetabelle) enthalten oder speichern. Das Codebuch kann für jede mögliche Folge von Symbolen in einem Rahmen oder Rahmenteil eine entsprechende (z.B. Referenz-)Impulsfolge (z.B. im Zeitbereich) speichern. Die Verwendung eines Codebuchs kann durch die Wahl einer geeigneten Größe (z.B. Länge) für die Impulsfolgeblöcke ermöglicht werden (z.B. kann eine kleine Größe, z.B. eine Impulsfolge und/oder ein Impulsfolgeblock nur eine begrenzte Anzahl von Impulsen enthalten, z.B. weniger als zehn Impulse, z.B. weniger als fünf Impulse). Eine Pulssequenz und/oder ein Pulssequenzblock kann so konfiguriert sein, dass sie gute (z.B. günstige) Autokorrelations- und/oder Kreuzkorrelationseigenschaften aufweisen. Als Beispiel kann eine Impulsfolge eines Impulsfolgenblocks als Analog/Digital-(A/D-) Abtastwerte mit einer gegebenen Amplitude und Zeitauflösung (z.B. 8bit- Amplitudenauflösung, entsprechend 256 Werten, 25 Abtastwerte pro Impulsfolgenblock, die die Zeitauflösung definieren) gespeichert (z.B. dargestellt) werden.
  • In verschiedenen Ausführungsformen kann der Kodierungsprozess auch einen Dekodierungsprozess umfassen (auch als Signaldemodulationsprozess bezeichnet). Der Dekodierungsprozess kann so konfiguriert werden, dass ein Frame dekodiert wird (z.B. zur Dekodierung eines Frames, der einen oder mehrere Impulse oder Impulsfolgen enthält oder durch diese dargestellt wird). Zur Veranschaulichung: Der Dekodierungsprozess kann aus der Impulsfolge eine Folge von Symbolen (z.B. Kommunikationsdatenbits) bestimmen. Der Dekodierungsprozess kann mit Hilfe von Korrelationsempfängerkonzepten implementiert werden (z.B. kann das Ranging-System einen oder mehrere Korrelationsempfänger enthalten, die auch als Funktionsblöcke für die Kreuzkorrelation bezeichnet werden), analog zu CDMA oder gepulsten Funksystemen. Der Dekodierungsprozess kann auch so konfiguriert werden, dass eine Zeitverzögerung (d.h. eine Zeitdifferenz) zwischen Aussendung und Empfang eines Signals bestimmt (z.B. gemessen oder berechnet) wird. Die Zeitdifferenz kann die Zeitverschiebung (ToF) darstellen. Der Dekodiervorgang kann sowohl bei langen Impulsfolgen oder Impulsfolgeblöcken (z.B. mit mehr als fünf Impulsen oder mehr als zehn Impulsen) als auch bei kurzen Impulsfolgen oder Impulsfolgeblöcken (z.B. mit fünf oder weniger Impulsen) durchgeführt werden.
  • Als Beispiel kann der Betrieb des Ranging-Systems wie folgt aussehen. Das Entfernungsmesssystem kann eine gewählte Impulsfolge x1 aussenden (die auszusendende Impulsfolge kann z.B. durch einen Indikatorvektor dargestellt werden, der z.B. in einem Register gespeichert ist). Das Entfernungsmesssystem kann die Emission derselben Impulsfolge x1 wiederholen, um aufeinander folgende Entfernungsmessungen durchzuführen. Die Impulsfolge x1 kann in den „Schauplatz“ (z.B. die Umgebung um oder vor dem Entfernungsmesssystem, z.B. vor einem Fahrzeug) wandern. Die Impulsfolge kann von einem Ziel reflektiert werden (z.B. von einem Objekt im Sichtfeld des Entfernungsmessgeräts, z.B. einem anderen Fahrzeug, einem Baum oder ähnlichem). Die reflektierte Impulsfolge kann zurück zum Entfernungsmesssystem gelangen (z.B. zu einem Sensor des Entfernungsmesssystems). Die detektierte Impulsfolge y1 kann einem Korrelationsempfänger zugeführt werden. Der Korrelationsempfänger kann so konfiguriert werden, dass er die erfasste Impulsfolge y1 mit der gesendeten Impulsfolge x1 korreliert (z.B. zur Auswertung einer Kreuzkorrelation zwischen der erfassten Impulsfolge y1 und der gesendeten Impulsfolge x1 oder zur Durchführung einer Kreuzkorrelationsoperation an der erfassten Impulsfolge y1 und der gesendeten Impulsfolge x1). Der Korrelationsempfänger kann so konfiguriert werden, dass er aus dem Korrelationsergebnis z1 eine Zeitverzögerung bestimmt (z.B. die ToF). Die Bestimmung kann unter Berücksichtigung des deutlichen Peaks am Ausgang des Korrelationsempfängers durchgeführt werden.
  • In verschiedenen Ausführungsformen kann das Ranging-System eine oder mehrere Komponenten enthalten, die so konfiguriert sind, dass sie den Kodierungsprozess, den blockweisen Kodierungsprozess und/oder den Dekodierungsprozess durchführen. Das RangingSystem kann eine Enkoderseite (auch als Senderseite bezeichnet) und eine Dekoderseite (auch als Empfängerseite oder Detektorseite bezeichnet) umfassen.
  • Das Ranging-System kann (z.B. auf der Enkoderseite) ein Register (z.B. ein Schieberegister) enthalten. Das Register (auch als Init-Register bezeichnet) kann so konfiguriert werden, dass es einen Indikatorvektor (auch als Indexvektor bezeichnet) speichert, der die gewählte Impulsfolge (illustrativ die auszusendende Impulsfolge) repräsentiert. Der Indikatorvektor kann eine bestimmte Länge haben, z.B. N (z.B. die Anzahl der Elemente des Vektors). Das Init-Register kann eine Länge (z.B. M) haben, die größer als die Länge des Indikatorvektors ist.
  • Das Ranging-System kann einen Tx-Puffer (z.B. ein kreisförmiges Schieberegister) enthalten. Der Tx-Puffer kann eine Länge (z.B. M, gleich oder unterschiedlich in Bezug auf das Init-Register) haben, die größer als die Länge des Indikatorvektors ist. Der Tx-Puffer kann so konfiguriert werden, dass er den Indikatorvektor aus dem Init-Register empfängt (z.B. kann nach der Initialisierung, z.B. durch ein Init-Signal angezeigt, der Indikatorvektor Element für Element in den Tx-Puffer geladen werden). Das Init-Register und der Tx-Puffer können durch ein gemeinsames Taktsignal getaktet werden (z.B. durch einen gemeinsamen Referenztakt). Das Init-Register und der Tx-Puffer können so konfiguriert werden, dass mit jedem Taktzyklus der Init-Registerinhalt (z.B. der Indikatorvektor) um eine Position nach rechts verschoben wird. Auf diese Weise kann der Indikatorvektor, der die Sequenz repräsentiert, Takt für Takt in den Tx-Puffer geladen werden. Der Tx-Puffer kann so konfiguriert werden, dass der Indikatorvektor im Laufe der Zeit (z.B. unendlich oder bis zur Bereitstellung eines Stoppsignals) eingekreist (d.h. wiederholt) wird.
  • Das Ranging-System kann einen Übertragungsblock (auch als Tx-Block bezeichnet) enthalten. Der Tx-Puffer und der Übertragungsblock können so konfiguriert werden, dass das erste Element des Tx-Puffers als Eingang für den Übertragungsblock verwendet wird. Der Übertragungsblock kann so konfiguriert werden, dass eine Signaldarstellung (z.B. ein Impuls) entsprechend dem aktuellen Element des Indikatorvektors (z.B. entsprechend dem vom Tx-Puffer empfangenen Eingang) erzeugt wird. Als Beispiel kann der Übertragungsblock so konfiguriert werden, dass er einen Impuls erzeugt, wenn der Eintrag im Register „1“ ist, und der Übertragungsblock kann so konfiguriert werden, dass er keinen Impuls erzeugt, wenn der Eintrag im Register „0“ ist.
  • Das Reichweitensystem kann eine Symbolgestaltungsphase umfassen. Die Symbolformungsstufe kann so konfiguriert werden, dass sie die Impulsform bestimmt (z.B. erzeugt). Beispielsweise kann die Symbolformungsstufe so konfiguriert werden, dass sie auf der Grundlage eines Impulsformfilters eine Impulsform erzeugt. Als weiteres Beispiel kann die Symbolformungsstufe so konfiguriert werden, dass sie eine Impulsform unter Verwendung einer digitalisierten Impulsform erzeugt.
  • Das Ranging-System kann einen Treiber (z. B. einen analogen Treiber) enthalten. Der Treiber kann so konfiguriert werden, dass er den Impuls oder die Impulsfolge (z.B. die Folge geformter Impulse) von der Symbolformungsstufe empfängt. Der Treiber kann mit einem Lichtemitter (z.B. einer Lichtquelle, z.B. einem Laser) gekoppelt (z.B. kommunikativ gekoppelt) sein. Der Treiber kann so konfiguriert werden, dass er den Lichtemitter so steuert, dass er in Übereinstimmung mit dem empfangenen Impuls oder der Impulsfolge Licht aussendet.
  • Das Ranging-System kann (z.B. auf der Decoderseite) einen Rx-Block enthalten. Der Rx-Block kann so konfiguriert werden, dass er eine empfangene Impulsfolge erfasst. Der Rx-Block kann einen Sensor enthalten (z.B. einen optoelektronischen Detektor, z.B. mit einer Fotodiode (PD) oder einer Lawinenfotodiode (APD)). Der Rx-Block kann einen Verstärker enthalten (z.B. einen Transimpedanzverstärker (TIA)). Der Verstärker kann so konfiguriert werden, dass er das empfangene Signal verstärkt. Der Rx-Block kann einen Signalwandler (z.B. einen Analog-Digital-Wandler (ADC)) enthalten. Der Signalkonverter kann so konfiguriert werden, dass er das Signal in ein digitalisiertes Signal umwandelt. Der Rx-Block kann so konfiguriert werden, dass er einen Indikatorvektor ausgibt, der die Erkennung darstellt (z.B. die empfangene Impulsfolge). Der Ausgang kann eine vordefinierte A/D-Auflösung haben.
  • Das Ranging-System kann einen Rx-Puffer (z.B. ein Schieberegister) enthalten. Der Rx-Puffer kann so konfiguriert werden, dass er den Ausgang des Rx-Blocks empfängt. Zur Veranschaulichung: Der Ausgang des Rx-Blocks kann durch ein Element in den Rx-Puffer geladen werden, z.B. getaktet durch einen gemeinsamen Referenztakt (z.B. der gleiche Referenztakt wie auf der Emitterseite oder ein anderer Referenztakt).
  • Das Ranging-System kann einen Korrelationsempfänger enthalten (auch als Kreuzkorrelationsfunktionsblock bezeichnet). Der Korrelationsempfänger kann sowohl auf den Tx-Puffer als auch auf den Rx-Puffer zugreifen. Der Korrelationsempfänger kann so konfiguriert werden, dass er die Kreuzkorrelation zwischen dem Inhalt beider Register bestimmt.
  • Zusätzlich oder alternativ kann der Korrelationsempfänger so konfiguriert werden, dass er gemessene und/oder abgetastete Daten als Eingabe empfängt. Dadurch kann es möglich sein, bei der Durchführung der Korrelationsoperation auf der Empfängerseite eine tatsächliche Impulsform des gesendeten Signals zu berücksichtigen. Dies kann die Dekodierungsleistung verbessern und beispielsweise für die Behandlung von Aspekten der funktionalen Sicherheit relevant sein.
  • Zusätzlich oder alternativ kann der Korrelationsempfänger so konfiguriert werden, dass er abgegriffene abgetastete Daten als Eingabe empfängt. Dadurch kann es möglich sein, bei der Durchführung der Korrelationsoperation auf der Empfängerseite eine tatsächliche Impulsform des gesendeten Signals zu berücksichtigen. Dies kann die Dekodierungsleistung verbessern.
  • Das Ranging-System kann ein Spitzenwert-Erkennungssystem umfassen. Das Spitzenwert-Erkennungssystem kann so konfiguriert werden, dass es den Ausgang (auch als Kreuzkorrelationsausgang bezeichnet) des Korrelationsempfängers empfängt (z.B. ein Signal mit einem oder mehreren Spitzenwerten, die die Kreuzkorrelation zwischen dem Inhalt der Register darstellen). Das Peakerkennungssystem kann so konfiguriert werden, dass es die Zeitverzögerung auf der Grundlage eines oder mehrerer identifizierter Peaks in der Kreuzkorrelation bestimmt (z.B. berechnet). Die ermittelte Verzögerung (zur Veranschaulichung: zwischen dem gesendeten Signal und dem empfangenen Signal) kann die ToF darstellen. Das Peakerkennungssystem kann so konfiguriert werden, dass es ein Konfidenzmaß oder ein Gültigkeitssignal für die aktuelle Ausgabe liefert (z.B. basierend auf der Höhe des erkannten Peaks oder basierend auf der Höhe des erkannten Peaks in Bezug auf andere Peaks oder basierend auf der Höhe des erkannten Peaks in Bezug auf frühere Ergebnisse oder basierend auf einer Kombination dieser Ansätze). Ein Peak-Detektionssystem kann ein Beispiel für einen oder mehrere Prozessoren sein, oder es kann einen oder mehrere Prozessoren umfassen.
  • In verschiedenen Ausführungsformen kann das Ranging-System so konfiguriert werden, dass es den Ranging-Vorgang unter Verwendung einer Vielzahl von Impulsfolgeblöcken (z.B. zwei oder mehr Impulsfolgeblöcke) durchführt. Das Ranging-System kann so konfiguriert werden, dass es mehrere Impulsfolgeblöcke gleichzeitig verwendet. Dies kann den Effekt einer besseren (z.B. genaueren oder rechnerisch effizienteren) Dekodierungsleistung erbringen. Beispielsweise können Impulsfolgeblöcke zeitveränderliche, zufällige Impulsfolgeblöcke sein (z.B. ist der Datenstrom möglicherweise nicht a priori vor dem Ranging-System bekannt).
  • Als Beispiel kann der Betrieb des Ranging-Systems wie folgt aussehen. Das Ranging-System kann so konfiguriert werden, dass es zwei Impulsfolgeblöcke (z.B. nacheinander) aussendet. Der Decoder kann so konfiguriert werden, dass er nur mit der ersten Sequenz und/oder nur mit der zweiten Sequenz arbeitet (z.B. um die Sequenzen einzeln zu decodieren). Dies kann den Effekt haben, dass eine Aktualisierungsrate (z.B. eine Aktualisierungsrate) für das Ranging-System erhöht werden kann (z.B. verdoppelt im Fall von zwei Impulsfolgeblöcken). Illustrativ kann jede Dekodierung (z.B. bei der ersten Sequenz oder bei der zweiten Sequenz) eine Aktualisierung bewirken. Zusätzlich oder alternativ kann der Decoder so konfiguriert werden, dass er auf beiden Sequenzen gemeinsam arbeitet (z.B. mit der Hälfte der Aktualisierungsrate im Vergleich zum vorherigen Ansatz). Dies kann den Effekt haben, dass eine längere Sequenz und mehr Signalleistung erfasst werden kann, wodurch das Signal-Rausch-Verhältnis (SNR) verbessert und der Betriebsbereich (z.B. der Erfassungsbereich) vergrößert wird. Das Ranging-System kann so konfiguriert werden, dass der Decoder zwischen den beiden Betriebsarten umgeschaltet werden kann (z.B. während der Laufzeit). Die Umschaltung kann in Software implementiert werden. Dadurch ist eine flexible Anpassung und Rekonfiguration, z.B. auf der Basis der aktuellen Bedingungen, möglich. Die beiden Betriebsarten des Detektors können zusammen betrieben werden. Illustrativ kann der Detektor so konfiguriert werden, dass beide Modi parallel implementiert werden können.
  • Die Aussendung der Impulsfolgeblöcke kann nach einem „Blackout-freien“ Brennkonzept konfiguriert werden. Zur Veranschaulichung: Das Ranging-System kann so konfiguriert werden, dass die Sequenzen direkt nacheinander emittiert werden (z.B. im Wesentlichen ohne Wartezeit oder mit im Wesentlichen Nullauffüllung nach jeder Sequenz). Das Ranging-System kann so konfiguriert werden, dass es die Sequenzen schneller ausgibt als ToF-Aktualisierungen.
  • Für diese Betriebsart (z.B. mit mehreren ausgesendeten Impulsfolgen) kann das Ranging-System (und die verschiedenen Komponenten) in ähnlicher Weise konfiguriert werden wie oben beschrieben (z.B. beim Betrieb mit einer einzigen Impulsfolge). Die relevanten Unterschiede werden weiter unten näher beschrieben.
  • Das Init-Register kann so konfiguriert werden, dass es zwei (oder mehr) Signalsequenz-Rahmen(Frames) (z.B. eine Sequenz A und eine Sequenz B) speichert, z.B. in verketteter Form. Die Verkettung der beiden Sequenzen kann eine längere Sequenz bilden (z.B. eine verkettete Sequenz AB).
  • Das Ranging-System kann zusätzliche Tx-Puffer enthalten, zum Beispiel drei Tx-Puffer. Jeder Tx-Puffer kann die gleiche Länge haben, z.B. M. Ein erster Tx-Puffer kann so konfiguriert werden, dass er die aktuell verschobene Version der verketteten Sequenz AB enthält (z.B. um die Sequenz AB aus dem Init-Register zu empfangen). Ein zweiter Tx-Puffer kann so konfiguriert werden, dass er die gegenwärtig verschobene Version der Sequenz A enthält (z.B. um die Sequenz A vom Init-Register zu empfangen). Ein dritter Tx-Puffer kann so konfiguriert werden, dass er die gegenwärtig verschobene Version der Sequenz B enthält (z.B. um die Sequenz B vom Init-Register zu empfangen). Nach der Initialisierung (Init-Signal) kann der Tx-Block so konfiguriert werden, dass er die verkettete Sequenz AB ausgibt, z.B. in sich wiederholender Weise.
  • Der Rx-Block kann so konfiguriert werden, dass er die verkettete Sequenz AB empfängt. Der Rx-Puffer kann so konfiguriert werden, dass er die empfangene verkettete Sequenz AB speichert (z.B. zum Empfang).
  • Das Ranging-System kann zusätzliche Korrelationsempfänger enthalten (z.B. eine Vielzahl von Korrelationsempfängern, z.B. drei). Die Korrelationsempfänger können parallel angeordnet sein. Der Rx-Block kann so konfiguriert werden, dass er den Rx-Block-Ausgang für die Mehrzahl (z.B. drei) von Korrelationsempfängern bereitstellt. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die Kreuzkorrelation zwischen dem Rx-Puffer (z.B. die empfangene verkettete Sequenz AB, die im Rx-Puffer gespeichert ist) und einem entsprechenden Tx-Puffer (z.B. Speicherung der gesendeten verketteten Sequenz AB, der Sequenz A bzw. der Sequenz B) bestimmt.
  • Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die Ausgabe (z.B. die Kreuzkorrelationsausgabe) an das Peakerkennungssystem liefert. Das Peak-Detektionssystem kann so konfiguriert werden, dass es die Zeitverzögerung auf der Grundlage der identifizierten einen oder mehreren Peaks in der entsprechenden Kreuzkorrelation (z.B. in den drei Kreuzkorrelationen, die von den drei Korrelationsempfängern geliefert werden) bestimmt. Die ermittelte Verzögerung kann die ToF der verketteten Sequenz AB, der Sequenz A bzw. der Sequenz B darstellen.
  • In verschiedenen Ausführungsformen kann das Ranging-System (z.B. der eine oder mehrere Korrelationsempfänger) so konfiguriert werden, dass ein Übersprechen mit einem anderen Ranging-System reduziert oder wesentlich eliminiert werden kann.
  • Immer dann, wenn mehr als ein Entfernungsmesssystem (z.B. mehr als ein LIDAR-System) in unmittelbarer Nähe betrieben werden, kann es zu Übersprechen oder widersprüchlichen Signalen zwischen den Entfernungsmesssystemen kommen. Beispielsweise kann ein erstes Entfernungsmesssystem eine erste Impulsfolge x1 aussenden, aber es kann nicht nur sein eigenes reflektiertes Signal y1, sondern auch ein Signal y2, das ursprünglich von einem zweiten Entfernungsmesssystem (z.B. einem Fremdsystem) ausgesendet wurde, erkennen (z.B. empfangen). Das von dem ersten Entfernungsmesssystem detektierte Signal kann also eine Überlagerung von y1 und y2 sein. Dies kann zu Detektionsfehlern (z.B. Fehler in Punktwolken), falschen Detektionen oder sogar Systemstörungen führen.
  • Ein Korrelationsempfänger kann so konfiguriert werden, dass er zwischen einer eigenen Impulsfolge (z. B. einer Sequenz, die vom Entfernungsmesssystem einschließlich des Korrelationsempfängers ausgesendet wird) und einer fremden Impulsfolge (z. B. von einem fremden Entfernungsmesssystem ausgesendet) unterscheidet. Zur Veranschaulichung: Der Korrelationsempfänger kann so konfiguriert werden, dass er die Kreuzkorrelationsoperation auf der Grundlage der Kenntnis einer eigenen Impulsfolge durchführt (z.B. kann er so konfiguriert werden, dass er nach einer bestimmten Sequenz sucht, wie z.B. der eigenen Impulsfolge). Der Korrelationsempfänger kann so konfiguriert werden, dass er eine fremde Impulsfolge herausfiltert. Dies kann die Bestimmung der ToF auch bei starkem außerirdischen Übersprechen ermöglichen.
  • Diese Operation kann durchgeführt werden, wenn das Entfernungsmesssystem und das Alien-Ranging-System nach einem impulsfolgenbasierten Entfernungsmessverfahren arbeiten. Als Beispiel kann eine Sequenz eindeutig zugeordnet werden. Zur Veranschaulichung: Es kann zu jedem Zeitpunkt nur eine einzige Impulsfolge mit einem einzigen Entfernungsmesssystem, einem Entfernungsmess-Subsystem oder einem einzelnen Pixel (z.B. einem einzelnen Pixel in einer Pixelgruppe), wie z.B. einer partiellen Lichtquelle (z.B. in einer Lichtquellengruppe, wie z.B. in Bezug auf 158 bis 161C beschrieben), verbunden sein. Diese Art des Betriebs oder Ansatzes kann den Betrieb einer Vielzahl von Entfernungsmesssystemen in unmittelbarer Nähe und/oder gleichzeitig mit geringer gegenseitiger Beeinflussung ermöglichen. Zur Veranschaulichung: Verschiedene Entfernungsmesssysteme, Entfernungsmess-Subsysteme oder einzelne Pixel können gleichzeitig eine zugewiesene Impulsfolge aussenden. Die verschiedenen Entfernungsmesssysteme sind möglicherweise nicht aufeinander abgestimmt (z.B. können die Signale auf der Detektorseite allein aufgrund der Kenntnis über die emittierte Sequenz entkoppelt werden). Die Sequenzen, die von verschiedenen Ranging-Systemen ausgesendet werden, können so konfiguriert werden, dass sie gegenseitig gute Kreuzkorrelationseigenschaften haben (z.B. kann eine Teilmenge von Sequenzen mit günstigen Eigenschaften verschiedenen Ranging-Systemen, Ranging-Subsystemen oder einzelnen Pixeln vorab zugewiesen werden). Das Ranging-System für diese Art von Betrieb kann in ähnlicher Weise wie oben beschrieben in Bezug auf eine einzelne Sequenz und/oder in Bezug auf eine Vielzahl von Sequenzen konfiguriert werden.
  • In verschiedenen Ausführungsformen kann für die Implementierung von Datenkommunikationsfähigkeiten im Ranging-System ein Datenkodierungsschema in Kombination mit den Impulsfolgeblöcken bereitgestellt werden, zum Beispiel in einer rahmenartigen Struktur.
  • Die Daten (z. B. Telemetriedaten, Fahrzeugkennung, Sicherheitsschlüssel, eine Warnmeldung, Signalinformationen und dergleichen) können durch eine Folge von Symbolen (z. B. eine Folge von Bits, z. B. CDMA-kodiert) dargestellt werden. Diese Symbolfolge kann in eine Folge von Symbolblöcken unterteilt sein (z.B. eine Folge von Rahmensymbolblöcken). Die Symbolblöcke können z.B. blockweise auf eine ganze Impulsfolge abgebildet werden. „Blockweise“ kann verwendet werden, um zu beschreiben, dass ein Block von Eingangsdaten auch einen „Block“ von Ausgangsdaten ergibt. Die Abbildung kann vollständig deterministisch sein (z.B. a priori bekannt, z.B. vorbelegt oder während der Laufzeit ausgewählt), oder die Abbildung kann eine Zufallskomponente enthalten.
  • Als Beispiel kann der Speicher oder die Datenbank (illustrativ ein Codebuch) Informationen speichern, die eine Impulsfolge (oder einen Sequenzblock) mit entsprechenden Daten (illustrativ mit einer entsprechenden Bedeutung) abbilden. Wenn eine Anzahl von X verschiedenen Eingabeblöcken vorgesehen ist, kann das Codebuch Y>=X Ausgabesequenzen, auch als Codesequenzen bezeichnet, liefern. Beispielsweise kann im Falle einer Lookup-Tabellen-Implementierung die Lookup-Tabelle insgesamt Y Codesequenzen enthalten. Die Codesequenzen in der Nachschlagetabelle können beschriftet sein (z.B. in Verbindung mit einer ganzen Zahl), z.B. als Codesequenz#1, Codesequenz#2, ...., Codesequenz#Y. Eine Lookup-Tabellen-Implementierung kann eine schnelle Operation bieten, wenn X ausreichend klein ist (z.B. weniger als 100 Eingabeblöcke oder weniger als 50 Eingabeblöcke). Jede Codesequenz kann eine Länge haben. Die Länge einer Codesequenz kann mit einer Anzahl von Zeitschlitzen verbunden sein (z.B. 16 Zeitschlitze).
  • Auf der Encoder-Seite kann der Tx-Puffer so konfiguriert werden, dass er die Codesequenzen empfängt. Der Tx-Block kann so konfiguriert werden, dass er die Codesequenzen aussendet. Eine Gesamt-Impulsfolge (oder eine kombinierte Impulsfolge) kann eine Länge haben, die der Summe der Längen der einzelnen Signaldarstellungssequenzen entspricht (z.B. 128 Zeitschlitze im Falle von 8 Impulsfolgen, die jeweils 16 Zeitschlitze lang sind.)
  • Auf der Detektorseite kann der Rx-Block (z.B. der Rx-Puffer) für den Empfang des detektierten Signals konfiguriert werden. Der Inhalt des Rx-Puffers kann zur Dekodierung verwendet werden. Als Beispiel kann die detektierte Impulsfolge eine gedämpfte Version der ausgesendeten Impulsfolge sein.
  • Auf der Detektorseite (zur Veranschaulichung: eine erste Decoderstufe) kann das Ranging-System eine Bank paralleler Korrelationsempfänger umfassen. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er das Eingangssignal (z.B. eine Eingangssequenz, z.B. den Inhalt oder den Ausgang des Rx-Puffers) empfängt. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die empfangene Eingabe mit einer Codesequenz im Codebuch korreliert (z.B. eine bestimmte, diesem Korrelationsempfänger zugeordnete Codesequenz, die auch als Referenzcodesequenz bezeichnet wird). Als Beispiel kann das Ranging-System einen Korrelationsempfänger für jede im Codebuch gespeicherte Sequenz enthalten (z.B. Y-Korrelationsempfänger, auch Korrelationsempfängerblöcke oder Korrelationsempfängerstufen genannt).
  • In dieser Konfiguration darf die Ausgabe eines Korrelationsempfängers höchstens einen (mit anderen Worten: null oder eins) signifikanten Peak enthalten. Das Vorhandensein von höchstens einem signifikanten Peak kann mit guten Autokorrelationseigenschaften der Codesequenzen im Codebuch zusammenhängen. Wenn z.B. das Eingangssignal eine Länge von N Zeitschlitzen hat und wenn die Referenzcodesequenz ebenfalls eine Länge von N Zeitschlitzen hat, dann kann der Ausgang des Korrelationsempfängers 2N-1 Ausgangswerte enthalten, und der signifikante Peak (falls vorhanden) kann einer dieser Werte sein.
  • Ein Korrelationsempfänger kann so konfiguriert werden, dass er ein Ausgangssignal mit einer signifikanten Spitze liefert, falls das Eingangssignal durch die Referenzcodesequenz codiert ist (oder ursprünglich codiert wurde) (zur Veranschaulichung: Verwendung einer Codesequenz, die der Referenzcodesequenz für diesen Korrelationsempfänger entspricht). Ein Korrelationsempfänger kann so konfiguriert werden, dass er ein Ausgangssignal ohne signifikanten Spitzenwert liefert, wenn das Eingangssignal durch eine Codesequenz codiert wird, die sich von der Referenzcodesequenz für diesen Korrelationsempfänger unterscheidet (z.B. wenn die codierende Codesequenz und die Referenzcodesequenz gute gegenseitige Kreuzkorrelationseigenschaften haben).
  • Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die Ausgabe an das Spitzenwert-Erkennungssystem liefert (zur Veranschaulichung: eine zweite Decoderstufe, z.B. die Entscheidungsstufe). Zur Veranschaulichung kann der Kreuzkorrelationsausgang aller Korrelationsempfängerstufen parallel in das Spitzenwert-Erfassungssystem eingespeist werden. Das Spitzenwert-Erkennungssystem kann so konfiguriert werden, dass es parallel nach Spitzen im empfangenen Ausgangssignal aller Korrelationsempfänger sucht. Das Spitzenwert-Erkennungssystem kann so konfiguriert werden, dass es ein inverses Mapping (z.B. Dekodierung) durchführt. Auf der Grundlage der gefundenen Peaks (z.B. signifikante Peaks) kann das Peak-Erkennungssystem so konfiguriert werden, dass es ein inverses Mapping zurück zu den Datensymbolen durchführt. Das Peakerkennungssystem kann so konfiguriert werden, dass es die (z.B. dekodierten) Datensymbole ausgibt, z.B. als Dekodierungsergebnis.
  • In verschiedenen Ausführungsformen kann das Ranging-System so konfiguriert werden, dass mehrere Impulsfolgeblöcke gemeinsam (z.B. gleichzeitig oder parallel) dekodiert werden können. Veranschaulichend kann das Ranging-System so konfiguriert werden, dass es eine Vielzahl von Sequenzblöcken sammelt (z.B. speichert oder akkumuliert) und diese zusammen dekodiert (veranschaulichend kann das Ranging-System so konfiguriert werden, dass es im Laufe der Zeit mehrere aufeinanderfolgende Sequenzblöcke aufnimmt). Dies kann in einem Frame-basierten Ansatz erfolgen, bei dem jeder Frame eine vordefinierte Anzahl von Impulsfolgeblöcken enthalten kann (z.B. kann er in eine vordefinierte Anzahl von Impulsfolgeblöcken unterteilt werden).
  • Nur als Beispiel kann ein Rahmen in B=8 Blöcke aufgeteilt werden. Jeder Block kann in eine Codesequenz mit einer bestimmten Länge kodiert werden, z.B. eine Codesequenz mit einer Länge von 16 Zeitschlitzen. Der Rahmen kann eine Rahmenlänge von 8 x 16 = 128 Zeitschlitze haben. Die 8 Blöcke, die illustrativ einer übertragenen Impulsfolge mit einer Länge von 128 Zeitschlitzen entsprechen, können zusammen dekodiert werden.
  • Wie oben beschrieben, kann jeder Korrelationsempfänger so konfiguriert werden, dass er eine empfangene Eingangssequenz mit einer dem Korrelationsempfänger zugeordneten Referenzsequenz korreliert (z. B. mit einer der im Speicher oder in der Datenbank gespeicherten Referenzsequenzen). Die Eingangssequenz kann in der Regel eine Vielzahl von Sequenzblöcken enthalten oder aus einer solchen bestehen. Die (jeweilige) Referenzsequenz kann einen einzelnen Block umfassen (z.B. kann die Referenzsequenz nur einen Block lang sein). Zur Veranschaulichung: Die Referenzsequenz kann kürzer als die Eingabesequenz sein. Beispielsweise kann die Eingabesequenz eine Länge von 128 Zeitschlitzen haben, und die für die Kreuzkorrelation verwendete Referenzsequenz kann eine Länge von 16 Zeitschlitzen haben. Die Größe des Tx-Puffers (auch als Eingangspuffer bezeichnet) kann entsprechend gewählt werden (z.B. so, dass der Tx-Puffer eine ganze Impulsfolge aufnehmen kann, z.B. einen Indikatorvektor, der die Impulsfolge darstellt). Im Falle einer Eingangssequenz mit einer Länge von 128 Zeitschlitzen kann der Tx-Puffer beispielsweise mindestens die Länge 128 haben, z.B. die Länge 168.
  • Jeder Korrelationsempfänger kann so konfiguriert werden, dass er den Eingangspuffer übernimmt (z.B. um den Inhalt des Tx-Puffers zu empfangen, z.B. um die Eingangssequenz aus dem Tx-Puffer zu empfangen). Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die empfangene Eingangssequenz mit der entsprechenden Referenzcodesequenz korreliert. Die Länge des Ausgangs eines Korrelationsempfängers (z.B. die Länge eines Kreuzkorrelationsergebnisses) kann von der Länge der Eingangssequenz (und/oder des Eingangspuffers) abhängig sein. Beispielsweise kann die Länge des Kreuzkorrelationsergebnisses (2 x Länge des Eingangspuffers)1 betragen (z.B. 2x168-1 = 335). Zur Veranschaulichung: (2 x Eingangssequenzlänge)1 Werte können gespeichert werden.
  • Ein Speicher (z. B. des Entfernungsmesssystems oder eines Fahrzeugs) kann so konfiguriert werden, dass er mindestens eine Anzahl von Werten (z. B. Kreuzkorrelationsergebnisse) speichert, die der Anzahl der im Codebuch gespeicherten Codefolgen (z. B. Y, z. B. die Anzahl der Korrelationsempfänger) multipliziert mit der Länge des Eingangspuffers entspricht. Der Speicher kann als Array (z.B. ein zweidimensionales Array) konfiguriert werden. Das Array kann z.B. eine Anzahl von Zeilen (oder Spalten) entsprechend der Anzahl der Codefolgen (z.B. Y) und eine Anzahl von Spalten (oder Zeilen) entsprechend der Eingangspufferlänge enthalten. Im Fall Y = 64 Codesequenzen können beispielsweise die Ergebnisse aller Korrelationsempfänger in einem numerischen Array mit 64 Zeilen und 335 Spalten gespeichert werden.
  • Die Korrelationsempfänger können so konfiguriert werden, dass im Speicher (z.B. im Array) in jeder Spalte (oder Zeile, je nach Anordnung des Arrays) höchstens ein signifikanter Peak vorhanden sein darf. Dies kann z.B. mit den guten gegenseitigen Kreuzkorrelationseigenschaften der Sequenzen im Codebuch und/oder mit einem vernachlässigbaren Rauschen zusammenhängen. Das Peak-Detektionssystem kann so konfiguriert werden, dass es den Maximalwert in einem Korrelationsempfänger-Ausgang als signifikanten Peak betrachtet (z.B. wenn mehr als ein signifikanter Peak im Kreuzkorrelationsergebnis vorhanden ist) (z.B. zur Identifizierung). Dies kann ein erstes Entscheidungskriterium sein.
  • Die Maximalwerte (z.B. abgeleitet über alle Korrelationsempfängerausgänge) können eine Periodizität haben. Die Periodizität kann (z.B. proportional) auf der Zeitdifferenz zwischen aufeinander folgenden Blöcken basieren. Die Periodizität kann z.B. dann gegeben sein, wenn die Codesequenzen gute Autokorrelationseigenschaften haben. Die Periodizität kann z.B. dann gegeben sein, wenn die Blöcke direkt nacheinander gesendet werden (z.B. mit im wesentlichen keiner Lücke zwischen aufeinanderfolgenden Blöcken) oder wenn die Blöcke mit einer definierten (z.B. konstanten) Lücke zwischen aufeinanderfolgenden Blöcken gesendet werden. Die Lücke kann ein Vielfaches der Dauer eines Zeitschlitzes in der Signaldarstellungssequenz sein. Als Beispiel: Wenn die Impulsfolgeblöcke direkt nacheinander wiederholt werden (z.B. keine Lücke), kann die Länge der Impulsfolgeblöcke 16 Zeitschlitze betragen. In diesem Fall kann es in den Maximalwerten eine Periodizität geben, die 16 Zeitschlitzen entspricht.
  • Das Spitzenwert-Erkennungssystem kann so konfiguriert werden, dass es den Dekodierungsprozess unter Berücksichtigung der Periodizität in den Maximalwerten durchführt. Dies kann zuverlässigere Dekodierungsentscheidungen ermöglichen. Zur Veranschaulichung: Das Spitzenwert-Erkennungssystem kann so konfiguriert werden, dass es unter Berücksichtigung der Periodizität des Signals (z.B. auf der Grundlage der Zeitdifferenz zwischen aufeinander folgenden Blöcken) nach einem signifikanten Spitzenwert im Korrelationsempfängerausgang sucht. Beispielsweise können die Maximalwerte neu angeordnet (mit anderen Worten umgestaltet) werden, z.B. in ein zweidimensionales Array. Die erste Dimension des Arrays in einer Richtung kann entsprechend der Signalperiodizität bestimmt (z.B. ausgewählt) werden. Die zweite Dimension kann durch die Umformung der Datenpunkte in das Array abgeleitet werden. Als Beispiel: Wenn die Signalperiodizität 16 Zeitschlitzen entspricht, kann eine Dimension des Arrays (z.B. die Anzahl der Zeilen) als 16 gewählt werden. Die Anzahl der Spalten kann durch die Umordnung der Daten in das Array bestimmt werden.
  • Das Spitzenwert-Erkennungssystem kann so konfiguriert werden, dass eine gemeinsame Dekodierung unter Verwendung des neu angeordneten Arrays durchgeführt wird. Wenn man die Anzahl der Blöcke (z.B. B-Blöcke) kennt, die zusammen kodiert und gesendet werden, und wenn die Zeitdifferenz zwischen den einzelnen Blöcken gleich ist, kann das Spitzenwert-Erkennungssystem so konfiguriert werden, dass es nach B aufeinander folgenden Werten im Array sucht. Solche Werte können sich in derselben Zeile (d.h. in derselben Zeile) befinden, wodurch sich die größte Summe ergibt (zur Veranschaulichung: die Summe der Werte aus dieser Zeile kann größer sein als die Summe der Werte aus jeder anderen Zeile des Arrays). Dies kann ein zweites Entscheidungskriterium sein.
  • In verschiedenen Ausführungsformen kann das Codebuch unter den Teilnehmern „standardisiert“ werden (z.B. Teilnehmer, die beabsichtigen, miteinander zu kommunizieren, z.B. unter Verwendung eines herstellerspezifischen Standards oder eines globalen Standards).
  • In verschiedenen Ausführungsformen kann das Ranging-System entsprechend einer Kombination der oben beschriebenen Ansätze (z.B. der Operationen) konfiguriert werden. Zur Veranschaulichung kann ein einziger Systemaufbau mit synergetischer Nutzung der Komponenten vorgesehen werden. Das Reichweitenmesssystem kann so konfiguriert werden, dass es eine Mehrblock-Entfernungsmessung und Datenübertragung ermöglicht (z.B. können die Emitterseite und die Decoderseite für eine Mehrblock-Entfernungsmessung und Datenübertragung konfiguriert werden). Die Impulsfolgen und/oder Impulsfolgeblöcke können so konfiguriert (z.B. ausgewählt) werden, dass ein paralleler und unabhängiger Betrieb von variabler Aktualisierungsrate und Datenübertragung möglich ist.
  • In verschiedenen Ausführungsformen können die Impulsfolgen und/oder die Impulsfolgeblöcke nach einer oder mehreren vordefinierten Bedingungen konfiguriert (z.B. ausgewählt) werden. Die Pulssequenzen und/oder die Pulssequenzblöcke können gute Auto- und/oder gegenseitige Kreuzkorrelationseigenschaften aufweisen. Die Pulssequenzen und/oder die Pulssequenzblöcke können eine geringe maximale Autokorrelation aufweisen. Illustrativ kann eine Pulssequenz so konfiguriert werden, dass die Autokorrelation zwischen der Pulssequenz und ihrer (zeit-)verschobenen Version so klein wie möglich sein kann (z.B. weniger als 0,1 oder weniger als 0,05). Alle möglichen Verschiebungen zwischen den Sequenzen können bestimmt werden, und die maximale Autokorrelation über alle möglichen Verschiebungen kann als Qualitätsmaß für eine bestimmte Sequenz angesehen werden. Die Pulssequenzen und/oder die Pulssequenzblöcke können so gewählt werden, dass eine geringe maximale Kreuzkorrelation zwischen einer Referenzsequenz und einer oder mehreren relevanten Testsequenzen vorliegt. Eine Prüfsequenz kann eine Sequenz sein, die für Systeme mit gleichzeitiger Entfernungsmessung oder zur Kodierung verschiedener Datensymbole verwendet wird. Unter Berücksichtigung aller möglichen Testsequenzen und aller möglichen Verschiebungen kann die maximale Kreuzkorrelation als Qualitätsmaß betrachtet werden. Die Impulsfolgen und/oder die Impulsfolgeblöcke können eine geringe Anzahl von Impulsen enthalten, z.B. weniger als zehn oder weniger als fünf. Auf diese Weise kann beispielsweise das emittierte Licht auf einige wenige Pulse konzentriert werden, um eine bessere SNR-Leistung zu erzielen.
  • In verschiedenen Ausführungsformen kann ein Codierungsschema für die Impulsfolge vorgesehen werden. Das Impulsfolge-Kodierungsschema kann als blockweises Impulsfolge-Kodierungsschema konfiguriert werden- . Bevorzugte oder weniger bevorzugte Konfigurationen können mittels statistischer und numerischer Analyse bestimmt werden. Das Impulsfolge-Kodierungsschema kann so konfiguriert werden, dass es eine oder mehrere der oben beschriebenen Bedingungen erfüllt.
  • Ein Indikatorvektor (auch Vektor genannt) kann verwendet werden, um eine Impulsfolge zu beschreiben (z.B. um die Konfiguration einer Impulsfolge zu definieren). Zur Veranschaulichung: Jedes Element des Vektors kann einem Zeitschlitz entsprechen. Der Wert des Vektors (z.B. der Elementwert) kann eine Impulsamplitude für das jeweilige Zeitfenster definieren. Als Beispiel kann der Indikatorvektor ein binärer Indikator mit Elementen in {0,1} sein. Die Länge des Indikatorvektors (z.B. die Anzahl der Elemente oder Zeitschlitze) kann durch eine ganze Zahl beschrieben werden, z.B. N. Die Anzahl der Vektoreinträge, die auf 1 gesetzt werden, kann durch eine andere ganze Zahl beschrieben werden, z.B. K. K kann kleiner als N sein. Die Anzahl der Vektoreinträge, die auf 0 gesetzt werden, kann N-K sein. Eine Impulsfolge, die den Einträgen im Indikatorvektor entspricht, kann bereitgestellt werden.
  • Eine Überlappung zwischen zwei Indikatorvektoren (z.B. gleicher Länge) kann durch eine ganze Zahl beschrieben werden, z.B. E. Die Überlappung E kann die Anzahl der Vektorelemente beschreiben oder darstellen, die in beiden Vektoren an der gleichen Position auf 1 gesetzt sind (z.B. wenn die beiden Vektoren ausgerichtet sind, z.B. zeitlich synchronisiert sind). Eine Verschiebung zwischen zwei Indikatorvektoren kann durch eine ganzzahlige Zahl beschrieben werden, z.B. S. Die Verschiebung S kann beschreiben, wie weit bis zum Gleichstand die Indikatorvektoren verschoben sind, illustrativ um wie viele Elemente die Indikatorvektoren verschoben sind. Eine Verschiebung S kann auch für zirkuläre Verschiebungen definiert werden, ähnlich wie bei zirkulären Schieberegistern. Die Überlappung E kann für zwei verschobene Indikatorvektoren definiert werden. Als Beispiel kann die Überlappung E zwischen einem Vektor und seiner verschobenen Version definiert werden. Als weiteres Beispiel kann die Überlappung E zwischen einem Vektor und der verschobenen Version eines anderen Vektors definiert werden (z.B. wenn die Vektoren die gleiche Länge N haben).
  • In Bezug auf die oben beschriebenen Bedingungen für die Impulsfolgen und/oder die Impulsfolgeblöcke können die Indikatorvektoren nach einem oder mehreren der nachfolgend näher beschriebenen Aspekte konfiguriert werden.
  • Ein Indikatorvektor kann so konfiguriert werden, dass die maximale Überlappung E des Vektors mit sich selbst für alle möglichen kreisförmigen Verschiebungen, die ungleich Null sind, minimiert wird. Dies kann gute Autokorrelationseigenschaften gewährleisten. Ein Indikatorvektor kann so konfiguriert werden, dass die maximale Überlappung E des Vektors mit dem anderen Referenzvektor für alle möglichen Kreisverschiebungen minimiert wird. Dies kann gute Kreuzkorrelationseigenschaften gewährleisten. Ein Indikatorvektor kann so konfiguriert werden, dass K << N. Dies kann einer geringen Anzahl von Impulsen in der entsprechenden Impulsfolge entsprechen.
  • Ein Schwellenwert T kann als Qualitätskriterium definiert werden (z.B. eines Indikatorvektors, z.B. einer Codesequenz). Der Schwellenwert T kann ein Schwellenwert für die Überlappung E sein (z.B. für eine maximal zulässige Überlappung E in Verbindung mit einem Indikatorvektor). Zur Veranschaulichung: Der Schwellenwert T kann eine Obergrenze für die maximale Überlappung über alle möglichen kreisförmigen Verschiebungen darstellen. Eine Sequenz kann als „gut“ eingestuft werden, wenn die maximale Überlappung kleiner ist als der Schwellenwert T. Eine Sequenz kann als „schlecht“ eingestuft werden, wenn die maximale Überlappung größer oder gleich dem Schwellenwert T ist.
  • Der Schwellenwert T kann für jeden Indikatorvektor spezifisch sein (z.B. kann ein anderer Schwellenwert mit verschiedenen Indikatorvektoren verbunden sein). Beispielsweise kann der Schwellenwert T auf der Grundlage der Anzahl der Einsen in einem Indikatorvektor bestimmt (z.B. festgelegt) werden (z.B. kann T ein Bruchteil von K sein). Als Beispiel kann T definiert werden als T = Boden (K/2). T kann eine Qualitätsschwelle sein. Der Qualitätsschwellenwert kann verwendet werden, um auf Autokorrelationseigenschaften zu testen. Der entsprechende Test kann als „Autokorrelationstest“ bezeichnet werden.
  • Ein gleicher oder ähnlicher Ansatz kann für die Prüfung der Kreuzkorrelationseigenschaften eines Indikatorvektors vorgesehen werden. In diesem Fall kann die maximale Überlappung unter Berücksichtigung eines gegebenen Satzes von Sequenzen und/oder Indikatorvektoren bestimmt werden. Zur Veranschaulichung: Die maximale Überlappung kann für alle möglichen Sequenzen und/oder Indikatorvektoren im Satz und über alle möglichen Kreisverschiebungen bestimmt werden. Der entsprechende Test kann als „Kreuzkorrelationstest“ bezeichnet werden.
  • In verschiedenen Ausführungsformen kann ein Algorithmus zur Prüfung der Indikatorvektoren bereitgestellt werden (z.B. zur Identifizierung eines oder mehrerer Indikatorvektoren, die alle die oben beschriebenen Eigenschaften erfüllen). Zur Veranschaulichung: Der Algorithmus kann so konfiguriert werden, dass er einen Satz von Indikatorvektoren erzeugt.
  • Als Beispiel kann der Algorithmus so konfiguriert werden, dass er mit einem leeren Satz von Indikatorvektoren (auch als Testsatz bezeichnet) beginnt. Der Algorithmus kann so konfiguriert werden, dass er dem Testsatz Indikatorvektoren hinzufügt (zur Veranschaulichung: Schritt für Schritt). Der Algorithmus kann so konfiguriert werden, dass er dem Testsatz einen Kandidaten-Indikatorvektor hinzufügt, falls der Kandidaten-Indikatorvektor den Autokorrelationstest und den Kreuzkorrelationstest besteht. Falls der Kandidaten-Indikatorvektor einen der Tests nicht besteht, kann nach dem Zufallsprinzip ein neuer Kandidatenvektor generiert werden. Der Algorithmus kann so konfiguriert werden, dass der Prozess mit dem neu generierten Kandidatenvektor wiederholt wird. Der Algorithmus kann so konfiguriert werden, dass der Prozess wiederholt wird, bis der Testsatz eine gewünschte Größe erreicht hat (z.B. bis der Testsatz eine gewünschte Anzahl von Indikatorvektoren enthält).
  • In verschiedenen Ausführungsformen können eine oder mehrere Bedingungen für die Auswahl der Zahl N (z.B. die Länge eines Indikatorvektors) und/oder der Zahl K (z.B. die Zahl 1 in einem Indikatorvektor) vorgesehen werden. Auf der Grundlage der Kombinatorik kann die Anzahl der möglichen Indikatorvektoren der Länge N mit K Einsen unter Verwendung der Binominalkoeffizienten berechnet werden, wie durch Gleichung 7w,
    (7w) beschrieben
  • Die Anzahl der möglichen Indikatorvektoren der Länge N mit K und einer gewissen Überlappung E kann auf ähnliche Weise berechnet werden. Auf der Grundlage solcher Ergebnisse (und durch Aufsummieren von Teilergebnissen) kann die Anzahl der Indikatorvektoren mit einer Überlappung E kleiner als ein bestimmter Schwellenwert (z.B. der Schwellenwert T, z.B. T = floor(K/2)) berechnet werden. Dies kann Hinweise auf die Auto- und Kreuzkorrelationseigenschaften der Vektoren unter den oben beschriebenen Bedingungen geben. Illustrativ können solche Ergebnisse die Wahrscheinlichkeit beschreiben, dass eine bestimmte Sequenz den Qualitätstest (z.B. den Autokorrelationstest und den Kreuzkorrelationstest) nicht besteht (oder besteht). Die Berechnungen können für Vektoren durchgeführt werden, die ausgerichtet sind und/oder für verschobene Vektoren (z.B. durch Verwendung der numerischen Simulation zur Ableitung der relativen Häufigkeit für bestimmte Vektorkonfigurationen, um zirkuläre Verschiebungen zwischen Vektoren zu berücksichtigen).
  • Basierend auf den Berechnungen kann eine Konfiguration von K angegeben werden, die die Wahrscheinlichkeit minimiert, dass eine zufällig gewählte Sequenz den Qualitätstest nicht besteht (z.B. identifiziert). Dies kann einen Hinweis auf bevorzugte und weniger bevorzugte Konfigurationen von K in Bezug auf die Vektorlänge N liefern. Als Beispiel kann in der bevorzugten Konfiguration K so gewählt werden, dass es im Bereich 0,1*N <= K <= 0,17*N liegt. Als weiteres Beispiel kann in der weniger bevorzugten Konfiguration K so gewählt werden, dass es im Bereich 0,06*N <= K <= 0,28*N liegt.
  • In verschiedenen Ausführungsformen kann das hier beschriebene Reichweitensystem und/oder das hier beschriebene Kodierungsverfahren so konfiguriert werden, dass es eine oder mehrere der folgenden Funktionalitäten und/oder Aspekte bietet.
  • Das rahmenbasierte Kodierungsschema kann sowohl Ranging, Datenkommunikation als auch Signalisierung ermöglichen. Darüber hinaus kann das framegenaue Kodierungsschema die Einbeziehung weiterer Merkmale wie eine Frame-Konsistenzprüfung ermöglichen. Der rahmenbasierte Ansatz kann Flexibilität bieten und die Grundlage für einen Standard zur Harmonisierung von LIDAR-Signalisierungsschemata unter den LIDAR-Anbietern bilden. Ein Rahmen kann eine bekannte Struktur haben, die von jedem (z.B. von jedem Teilnehmer) identifiziert und „dekodiert“ werden kann. Signale von verschiedenen (z.B. fremden) LIDAR-Systemen können identifiziert und (falls erforderlich) verworfen werden, wodurch „fremdes“ Übersprechen teilweise eliminiert wird. Identifizierungsdaten und verschiedene Arten von Daten und Signalinformationen können auf dem Rahmen kodiert und dekodiert werden (wodurch Datenkommunikationsfähigkeiten bereitgestellt werden). Es können Konsistenzprüfungen vorgesehen werden.
  • Das Kodierungsschema mit guten Auto- und Kreuzkorrelationseigenschaften kann das Übersprechen reduzieren und den gleichzeitigen Betrieb (z.B. von mehreren LIDAR-Systemen) ermöglichen. Ein blockweises Kodierungsschema kann die „Blackout“-Zeit reduzieren (zur Veranschaulichung: die Aktualisierung kann schneller sein als die ToF von entfernten Objekten). Ein blockweises Kodierungsschema kann eine effiziente Datenkodierung ermöglichen. Codes zur Überprüfung der Frame-Konsistenz können die Überprüfung der Frame-Integrität und die Identifizierung potenzieller Kollisionen ermöglichen (sie können auch ein Mittel zur Überprüfung der Datenkonsistenz darstellen). Als Beispiel kann das Ranging-System so konfiguriert werden, dass es einen oder mehrere Frames gemäß einem LIDAR-Medienzugriffsschema einschließlich Kollisionsvermeidung aussendet, wie es z.B. in Bezug auf 138 bis 144 beschrieben ist. Blockweise Schemata können eine rechnerisch nachvollziehbare Implementierung bieten. Ein Impulsfolge-Kodierungsschema kann leicht zu implementieren und zu parametrisieren sein. Das Kodierungsschema für Impulsfolgen kann gute Auto- und Kreuzkorrelationseigenschaften ermöglichen. Das Kodierungsschema für Impulsfolgen kann blockweise sein und den Aufbau von Rahmen ermöglichen. Das Kodierungsschema für Impulsfolgen kann effiziente Implementierungen ermöglichen.
  • Die verschiedenen Ausführungsformen können miteinander kombiniert werden (zur Veranschaulichung: die Teillösungen können für eine einheitliche Lösung kombiniert werden).
  • 131A bis 131G zeigen einen Rahmen 13100 mit einem oder mehreren Rahmenteilen in einer schematischen Darstellung gemäß verschiedenen Ausführungsformen.
  • Das Frame 13100 kann z.B. ein Lichtsignal-Sequenz-Frame, ein Referenz-Lichtsignal-Sequenz-Frame, ein Korrelationsergebnis-Frame oder ein Signalsequenz-Frame sein, wie weiter unten näher beschrieben.
  • Der Rahmen 13100 kann einen oder mehrere Rahmenteile (z.B. vordefinierte Rahmenteile) enthalten. Jeder Rahmenteil kann einen vordefinierten Inhaltstyp haben (z.B. Signalinhaltstyp). Zur Veranschaulichung: Jeder Rahmenteil kann unterschiedliche Datentypen enthalten und/oder eine unterschiedliche Funktionalität haben. Der Rahmen 13100 (z.B. jeder Rahmenteil) kann ein oder mehrere Symbole (z.B. eine Folge von Symbolen) enthalten.
  • Der Rahmen 13100 kann einen Präambelrahmenteil 13102 enthalten. Der Präambel-Rahmenteil (Preamble) 13102 kann Erfassungssignale und/oder Bereichssignale und/oder Synchronisationssignale enthalten.
  • Der Rahmen 13100 kann einen Kopfrahmenteil (Header) 13104 enthalten. Der Header-Frame-Teil 13104 kann Steuerdaten enthalten.
  • Der Rahmen 13100 kann einen Nutzlastrahmenteil (Payload) 13106 enthalten. Der Nutzlast-Rahmenteil 13106 kann Identifikations- und/oder Steuersignale enthalten.
  • Der Rahmen 13100 kann einen Fußzeilenrahmenteil (Footer) 13108 enthalten. Der Fußrahmenteil 13108 kann Rahmenintegritätstestsignale und/oder Kollisionserkennungssignale enthalten.
  • Zusätzlich oder alternativ kann der Rahmen 13100 (oder jeder Rahmenteil) einen oder mehrere (z.B. eine Vielzahl) Symboldarstellungsteile enthalten. Illustrativ kann der Rahmen 13100 (oder jeder Rahmenteil) in eine Vielzahl von Symboldarstellungsabschnitten (z.B. eine Vielzahl von Blöcken) unterteilt sein. Jeder Symboldarstellungsteil kann eine Signaldarstellung eines Symbols oder eine Vielzahl von Signaldarstellungen enthalten, die jeweils ein Symbol darstellen (z.B. ein oder mehrere Bits). Die Aufteilung des Rahmens 13100 in eine Vielzahl von Symboldarstellungsabschnitten kann den Kodierungs- und Dekodierungsprozess vereinfachen (z.B. kann er blockweise durchgeführt werden).
  • Der Rahmen 13100 kann eine Länge haben (zur Veranschaulichung: er repräsentiert eine Reihe von Symbolen, die im Rahmen enthalten sind). Die Rahmenlänge kann eine vordefinierte (z.B. feste) Länge sein. Alternativ kann die Rahmenlänge variabel sein. Zum Beispiel kann die Rahmenlänge zwischen (oder mit) einer minimalen und einer maximalen Länge variabel sein.
  • Der Typ und die Anzahl der Rahmenteile eines Rahmens 13100 kann je nach Rahmentyp (z.B. nach der beabsichtigten Anwendung des Rahmens) ausgewählt werden.
  • Als Beispiel kann ein Frame 13100 als Ranging Frame konfiguriert werden (wie z.B. in 131B und 131C dargestellt). In einem Ranging-Frame kann der Header-Frame-Teil 13104 und/oder der Nutzlast-Frame-Teil 13106 optional sein (z.B. kann er aus dem Frame weggelassen werden). Ein Entfernungsrahmen kann z.B. einen einzelnen Rahmenteil enthalten, z.B. den Präambelrahmenteil 13102.
  • Als weiteres Beispiel kann ein Rahmen 13100 als Datenrahmen konfiguriert werden (wie z.B. in 131D und 131E dargestellt). In einem Datenrahmen kann der Nutzlastrahmenteil 13106 und/oder der Fußrahmenteil 13108 optional sein (wie in 131D dargestellt). Ein Datenrahmen kann einen einzelnen Rahmenteil enthalten, z.B. den Nutzlastrahmenteil 13106 (wie in 131E dargestellt). Optional kann der Datenrahmen zusätzlich zum Nutzlastrahmenteil 13106 auch den Fußrahmenteil 13108 enthalten.
  • Als weiteres Beispiel kann ein Rahmen 13100 als Signalisierungs- und Steuerrahmen konfiguriert werden (wie z.B. in 131 F und 131 G dargestellt). In einem Signalisierungs- und Steuerrahmen kann der Nutzlastrahmenteil 13106 und/oder der Fußrahmenteil 13108 optional sein. Ein Signalisierungs- und Steuerrahmen kann z.B. einen einzelnen Rahmenteil enthalten, z.B. den Präambelrahmenteil 13102.
  • 132A bis 132C zeigen die Abbildung eines Rahmens 13100 auf ein Zeitbereichssignal 13200 in einer schematischen Darstellung gemäß verschiedener Ausführungsformen.
  • Der Frame 13100 kann auf ein Zeit-Domäne-Signal 13200 abgebildet werden. Zur Veranschaulichung: Jedes Symbol im Rahmen 13100 kann einem entsprechenden Signal im Zeitbereich zugeordnet werden (z.B. einer Signaldarstellung des Symbols, wie z.B. einem Impuls). Die Zuordnung (mit anderen Worten, die Assoziation oder die Kodierung) kann blockweise erfolgen. Illustrativ kann jeder Symbolblock des Rahmens auf einen entsprechenden Impulsfolgenblock des Zeitbereichssignals 13200 abgebildet werden. Der blockweise Ansatz kann die Kodierung des Rahmens 13100 vereinfachen.
  • Das Zeit-Domäne-Signal 13200 (illustrativ die Kombination der Zeit-Domäne (Timedomain)-Blöcke) kann als ein Frame (z.B. ein Lichtsignalsequenz-Frame) betrachtet werden und/oder es kann den Frame 13100 repräsentieren.
  • Das Zeitbereichssignal 13200 kann z.B. einen oder mehrere (z.B. Licht-)Pulse enthalten (z.B. eine Pulsfolge, z.B. einen oder mehrere Pulsfolgeblöcke). Ein Impuls kann eine Darstellung eines Symbols liefern. Illustrativ kann ein Impuls je nach seiner Amplitude und/oder seiner Dauer ein anderes Symbol darstellen oder mit einem anderen Symbol assoziiert sein. Zum Beispiel kann ein Impuls 131021 mit einer Amplitude von im wesentlichen Null das Symbol „0“ darstellen (wie z.B. in 132B dargestellt). Als weiteres Beispiel kann ein Impuls 131022 mit einer Amplitude größer als Null das Symbol „1“ darstellen (wie z.B. in 132C dargestellt). Ein Impuls kann eine Impulsdauer Ts haben. Die Impulsdauer kann fest oder variabel sein. Zum Beispiel kann die Dauer eines Impulses 10 ns betragen, zum Beispiel 20 ns.
  • 133A bis 133F zeigen ein Entfernungsmesssystem 13300 und verschiedene Aspekte eines Betriebs des Entfernungsmesssystems 13300 in einer schematischen Darstellung, in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Ranging System 13300 kann als LIDAR-System sein oder konfiguriert werden (z.B. als LIDAR-Sensorsystem 10, z.B. als Flash-LIDAR-Sensorsystem 10 oder als Scanning-LIDAR-Sensorsystem 10). Das Ranging System 13300 kann z.B. in einem Sensorgerät, wie z.B. einem Fahrzeug 13326, wie in 133D und 133F dargestellt, enthalten sein (z.B. in einem Auto, wie z.B. einem Elektroauto).
  • Das Ranging-System 13300 kann einen Speicher 13302 enthalten. Zusätzlich oder alternativ kann das Ranging-System 13300 Zugriff auf den Speicher 13302 haben (z.B. kann der Speicher 13302 extern zum Ranging-System sein), z.B. kann das Ranging-System 13300 kommunikativ mit dem Speicher 13302 gekoppelt sein (z.B. kann der Speicher 13302 eine zentralisierte Datenbank sein), z.B. über eine drahtlose Verbindung.
  • Der Speicher 13302 (z.B. ein Schieberegister) kann ein oder mehrere Referenz-Lichtsignal-Sequenz-Bilder 13304 (z.B. eine Vielzahl von Referenz-Lichtsignal-Sequenz-Bildern) speichern. Jedes Referenzlichtsignal-Sequenz-Frame 13304 kann einen oder mehrere vordefinierte Frame-Abschnitte enthalten, die jeweils einen vordefinierten Signalinhaltstyp haben. Veranschaulichend kann das eine oder die mehreren Referenzlichtsignal-Sequenz-Frames 13304, die im Speicher 13302 gespeichert sind, vom Ranging-System 13300 verwendet werden, um ein auszusendendes Signal zu erzeugen (z.B. eine auszusendende Lichtsignalsequenz) und/oder um zu bestimmen, ob ein empfangenes Signal ein eigenes Signal oder ein Fremdsignal ist.
  • Der eine oder mehrere (z.B. die Vielzahl von) Referenzlichtsignalsequenzrahmen 13304, die im Speicher 13302 gespeichert sind, können in Übereinstimmung mit einer Vielzahl verschiedener Signalmodulationscodes codiert werden. Zur Veranschaulichung: Eine vom Entfernungsmesssystem 13300 auszusendende Lichtsignalsequenz kann im Speicher 13302 als Referenz-Lichtsignalsequenz-Frame 13304 gespeichert werden, der in Übereinstimmung mit einem Signalmodulationscode codiert (d.h. moduliert) ist. Bei der Mehrzahl der Signalmodulationscodes kann es sich um Codemultiplex-Vielfachzugriffscodes handeln.
  • Das eine oder mehrere Referenzlichtsignalsequenz-Bilder 13304 können gute Auto- und/oder Kreuzkorrelationseigenschaften haben (z.B. gegenseitige Kreuzkorrelationseigenschaften). Die vordefinierten Bildausschnitte eines Referenzlichtsignalsequenz-Bildes 13304 (z.B. von jedem der Referenzlichtsignalsequenz-Bilder 13304) können so konfiguriert werden, dass eine Autokorrelation eines Bildausschnitts mit einer zeitverschobenen Version dieses Bildausschnitts (z.B. um eine andere Zeitverschiebung als 0 verschoben) unter einem vordefinierten Autokorrelationsschwellenwert liegen kann. Zusätzlich oder alternativ können die vordefinierten Bildteile eines Referenzlichtsignalsequenz-Bildes 13304 (z.B. von jedem der Referenzlichtsignalsequenz-Bilder 13304) so konfiguriert werden, dass eine Kreuzkorrelation eines Bildteils mit einem anderen (z.B. anderen) Bildteil unter einem Kreuzkorrelationsschwellenwert liegen kann.
  • Der Speicher 13302 (oder ein anderer Speicher des Ranging-Systems 13300) kann eine Vielzahl von Symbolcodes 13306 speichern. Die Symbolcodes 13306 können zur Generierung (z.B. Kodierung) eines Signalsequenzrahmens 13310 verwendet werden, wie weiter unten näher beschrieben wird. Bei der Mehrzahl der Symbolcodes 13306 kann es sich um eine Mehrzahl verschiedener Signalmodulationscodes handeln, z.B. von Code Division Multiple Access-Codes.
  • Das Entfernungsmesssystem 13300 kann (z.B. auf einer Emitterseite) eine Lichtquelle 42 enthalten. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht ausstrahlt (z.B. ein Lichtsignal, wie z.B. ein Lasersignal). Zum Beispiel kann die Lichtquelle 42 so konfiguriert sein, dass sie Licht mit einer Wellenlänge im Bereich von etwa 800 nm bis etwa 1600 nm emittiert. Die Lichtquelle 42 kann eine Laserquelle enthalten. Als Beispiel kann die Lichtquelle 42 eine Anordnung von Lichtemittern (z.B. eine VCSEL-Anordnung) enthalten. Als weiteres Beispiel kann die Lichtquelle 42 (oder das Ranging-System 13300) ein Strahlführungssystem enthalten (z.B. ein System mit einem MEMS-Spiegel).
  • Das Entfernungsmesssystem 13300 kann einen Signalgenerator 13308 enthalten. Der Signalgenerator 13308 kann so konfiguriert werden, dass er einen Signalsequenzrahmen 13310 erzeugt. Der Signalsequenz-Frame 13310 kann einen oder mehrere vordefinierte Frame-Abschnitte mit einem vordefinierten Signalinhaltstyp enthalten.
  • Der Signalsequenzrahmen 13310 kann eine Vielzahl von Symboldarstellungsabschnitten enthalten. Jeder Symboldarstellungsteil kann eine Signaldarstellung eines Symbols (oder eine Vielzahl von Signaldarstellungen, die jeweils ein Symbol darstellen) enthalten. Illustrativ kann eine Signaldarstellung im Signalsequenzrahmen 13310 als ein analoges Signal (z.B. ein Strom oder eine Spannung) verstanden werden, das ein Symbol repräsentiert. Als Beispiel kann ein erster Strom das Symbol „1“ und ein zweiter Strom (z.B. niedriger als der erste Strom) das Symbol „0“ repräsentieren.
  • Der Signalgenerator 13308 kann so konfiguriert werden, dass er den Signalsequenzrahmen 13310 in Übereinstimmung mit mindestens einem Symbolcode 13306 aus der Vielzahl der im Speicher 13302 gespeicherten Symbolcodes 13306 erzeugt. Zur Veranschaulichung: Der Signalgenerator 13308 kann den Symbolcode 13306 verwenden, um die Symboldarstellungsabschnitte des Signalsequenzrahmens 13310 zu kodieren (z.B. zur Bestimmung der Anordnung der Signaldarstellungen innerhalb des Signalsequenzrahmens 13310, z.B. innerhalb jedes Symboldarstellungsabschnitts). Jeder Symboldarstellungsteil kann einzeln kodiert werden. Alternativ können die Symboldarstellungsteile gemeinsam kodiert werden (z.B. parallel).
  • Der Signalgenerator 13308 kann so konfiguriert werden, dass er den Signalsequenzrahmen 13310 in Übereinstimmung mit einem Referenzlichtsignalsequenzrahmen 13304 erzeugt. Veranschaulichend kann der Signalgenerator 13308 so konfiguriert werden, dass er den Signalsequenzrahmen 13310 durch Kodierung des Referenzlichtsignalsequenzrahmens 13304 erzeugt (veranschaulichend durch Anwendung des Symbolcodes 13306 auf den Referenzlichtsignalsequenzrahmen 13304).
  • Das Entfernungsmesssystem 13300 kann einen Lichtquellen-Controller 13312 enthalten, der zur Steuerung der Lichtquelle 42 konfiguriert ist. Der Lichtquellen-Controller 13312 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie ein Lichtsignalsequenz-Frame 13314 in Übereinstimmung mit dem Signalsequenz-Frame 13310 aussendet. Der Lichtsignalsequenz-Frame 13314 kann einen oder mehrere vordefinierte Frame-Abschnitte mit einem vordefinierten Inhaltstyp enthalten.
  • Zur Veranschaulichung: Der Lichtquellen-Controller 13312 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie eine Folge von Impulsen (z.B. eine Lichtsignalfolge 13316) in Übereinstimmung mit dem Signalfolge-Frame 13310 aussendet (z.B. in Übereinstimmung mit den im Signalfolge-Frame 13310 dargestellten Symbolen). Die Lichtsignalsequenz 13316 kann als Lichtsignalsequenz-Frame 13314 oder als eine (z.B. zeitliche) Darstellung des Lichtsignalsequenz-Frames 13314 verstanden werden. Die Lichtsignalsequenz 13316 kann einen oder mehrere Lichtsignalsequenzabschnitte enthalten (illustrativ, entsprechend dem einen oder den mehreren Rahmenabschnitten des Lichtsignalsequenzrahmens 13314).
  • Der Lichtquellen-Controller 13312 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie eine einzelne Lichtsignalsequenz Frame 13314 (z.B. eine einzelne Lichtsignalsequenz 13316) aussendet, wie z.B. in 133B dargestellt. Zusätzlich oder alternativ kann der Lichtquellen-Controller 13312 so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie eine Vielzahl von Lichtsignalsequenz-Frames 13314 (z.B. eine Vielzahl von Lichtsignalsequenzen 13316) emittiert, wie z.B. in 133C dargestellt. Als Beispiel kann das Ranging-System so konfiguriert werden, dass es ein erstes Lichtsignalsequenz-Frame 133141, ein zweites Lichtsignalsequenz-Frame 133142, ein drittes Lichtsignalsequenz-Frame 133143 und ein viertes Lichtsignalsequenz-Frame 133144 aussendet. Die Lichtsignalsequenz-Frames 13314 können mit einem zeitlichen Abstand (z.B. fest oder variierend) zwischen aufeinanderfolgenden Lichtsignalsequenz-Frames 13314 emittiert werden.
  • Das Ranging-System 13300 kann (z.B. auf einer Empfängerseite) einen Sensor 52 (z.B. den LIDAR-Sensor 52) enthalten. Der Sensor 52 kann eine oder mehrere Fotodioden enthalten (z.B. eine oder mehrere Lawinenfotodioden). Die eine oder mehrere Fotodioden können in einem Array angeordnet sein (z.B. ein 1 D-Fotodiodenarray, ein 2D-Fotodiodenarray oder sogar eine einzelne Fotodiode). Die eine oder mehrere Fotodioden können so konfiguriert werden, dass sie eine Empfangslichtsignalsequenz 13316r liefern (z.B. eine Empfangslichtsignalsequenz Frame 13314r, falls die Empfangslichtsignalsequenz 13316r eine Frame-Struktur hat).
  • Zur Veranschaulichung: Licht kann auf den Sensor 52 auftreffen (z.B. LIDAR-Licht, z.B. eigenes oder fremdes Licht). Das auf den Sensor 52 auftreffende Licht kann z.B. das vom Entfernungsmesssystem 13300 ausgestrahlte Licht sein, das von einem Objekt 13328 (z.B. einem Baum) im Sichtfeld des Entfernungsmesssystems 13300 zum Entfernungsmesssystem 13300 zurückreflektiert wird, wie in 133D und 133F dargestellt.
  • Das Entfernungsmesssystem 13300 kann einen oder mehrere Korrelationsempfänger 13318 enthalten. Jeder Korrelationsempfänger 13318 kann so konfiguriert werden, dass er den einen oder die mehreren Teile der empfangenen Lichtsignalsequenz 13316r (z.B. den einen oder die mehreren Rahmenteile eines empfangenen Lichtsignalsequenzrahmens 13314r) mit dem einen oder den mehreren Rahmenteilen eines Referenzlichtsignalsequenzrahmens 13304 korreliert (zur Veranschaulichung, zur Auswertung einer Kreuzkorrelation oder zur Durchführung einer Kreuzkorrelationsoperation), um ein Korrelationsausgangssignal 13320 zu liefern.
  • Jeder Korrelationsempfänger 13318 kann einem Referenz-Lichtsignal-Sequenzrahmen 13304 zugeordnet (oder zugewiesen) werden (z.B. unterschiedlich für jeden Korrelationsempfänger 13318). Jeder Korrelationsempfänger 13318 kann so konfiguriert werden, dass er einen oder mehrere Abschnitte der empfangenen Lichtsignalsequenz 13316r mit einem oder mehreren Rahmenabschnitten des Referenzlichtsignalsequenzrahmens 13304 korreliert, der diesem Korrelationsempfänger 13318 zugeordnet ist, um das Korrelationsergebnis 13320 auszugeben.
  • Das Korrelationsergebnis, das am Ausgang 13320 ausgegeben wird, kann beschreiben, ob (oder auf welchem Korrelationsgrad) die empfangene Lichtsignalsequenz 13316r mit dem Referenz-Lichtsignalsequenz-Frame 13304 korreliert ist. Wenn die empfangene Lichtsignalsequenz 13316r mit der ausgesendeten Lichtsignalsequenz 13316 übereinstimmt oder zumindest diese enthält, kann das Korrelationsergebnis 13320 eine positive Übereinstimmung (z.B. hohe Korrelation) beschreiben. Andernfalls kann das Korrelationsergebnis am Ausgang 13320 eine negative Übereinstimmung beschreiben (z.B. niedrige Korrelation), z.B. wenn die empfangene Lichtsignalfolge 13316r von einem anderen Entfernungsmesssystem erzeugt wurde.
  • Wie z.B. in 133F dargestellt, kann die empfangene Lichtsignalfolge 13316r eine Überlagerung der vom Entfernungsmesssystem 13300 (z.B. vom Fahrzeug 13326 einschließlich des Entfernungsmesssystems 13326) ausgesendeten Lichtsignalfolge 133141 (oder Lichtsignalfolge-Frame 133161) und einer von einem anderen Entfernungsmesssystem (z.B. von einem anderen Fahrzeug 13330) ausgesendeten Fremdlichtsignalfolge 133142 (oder Lichtsignalfolge-Frame 133162) sein. Zur Veranschaulichung: Die empfangene Lichtsignalfolge 13316r kann eine empfangene eigene Lichtsignalfolge 133141 r (oder Lichtsignalfolgerahmen 133161r) und eine Fremdlichtsignalfolge 133142r (oder Lichtsignalfolgerahmen 133162r) enthalten.
  • Beispielsweise können das eigene Lichtsignal und das Fremdlichtsignal auch von demselben Entfernungsmesssystem 13300 erzeugt werden, z.B. durch verschiedene Subsysteme des Entfernungsmesssystems 13300, wie z.B. verschiedene Lichtemitter oder verschiedene Pixel eines Lichtemitters des Entfernungsmesssystems 13300.
  • Ein Beispiel für die Ausgabe des Korrelationsergebnisses 13320 ist in 133E dargestellt. Die emittierte Lichtsignalsequenz 13314 oder Lichtsignalsequenz Frame 13316 kann mehrfach (z.B. fünfmal) wiederholt werden. Das/die am Entfernungsmesssystem 13300 detektierte(n) Signal(e), z.B. die empfangene Lichtsignalsequenz 13314r oder Lichtsignalsequenz Frame 13316r, kann/können mit dem/den gesendeten Signal(en) korreliert werden. Der Korrelationsausgang 13320 kann einen oder mehrere (z.B. fünf) Peaks (z.B. signifikante Peaks) beschreiben oder enthalten, die das Vorhandensein einer Kreuzkorrelation zwischen dem gesendeten Signal und dem empfangenen Signal beschreiben.
  • Ein weiteres Beispiel für die Ausgabe des Korrelationsergebnisses 13320 ist in dargestellt. Die ausgegebene eigene Lichtsignalsequenz 133141 oder Lichtsignalsequenz Frame 133161 kann mehrfach (z.B. fünfmal) wiederholt werden. Das/die am Entfernungsmesssystem 13300 detektierte(n) Signal(e), z.B. die empfangene Lichtsignalsequenz 13314r oder Lichtsignalsequenz-Frame 13316r, kann/können eine Überlagerung des eigenen Signals und des Fremdsignals sein. Der Korrelationsausgang 13320 kann einen oder mehrere (z.B. fünf) Peaks (z.B. signifikante Peaks) beschreiben oder enthalten, die das Vorhandensein einer Kreuzkorrelation zwischen dem gesendeten Signal und dem empfangenen Signal beschreiben (z.B. für das eigene gesendete Signal, aber nicht für das fremde gesendete Signal). Das fremde Sendesignal kann z.B. mit einem anderen Code kodiert sein oder von einem anderen Referenz-Lichtsignal-Sequenzrahmen erzeugt werden. Auf diese Weise kann ein Übersprechen zwischen gleichzeitig arbeitenden Entfernungsmesssystemen (oder Subsystemen des Entfernungsmesssystems 13300) reduziert oder wesentlich eliminiert werden.
  • Zusätzlich oder alternativ kann der Korrelationsausgang 13320 einen Korrelationsergebnisrahmen 13322 mit einem oder mehreren vordefinierten Rahmenabschnitten mit dem vordefinierten Signalinhaltstyp enthalten. Das Korrelationsergebnis-Frame 13322 kann die empfangene Lichtsignalsequenz 13316r oder das empfangene Lichtsignalsequenz-Frame 13314r sein oder darstellen, zum Beispiel im Falle einer positiven Korrelation. Das Korrelationsergebnis-Frame 13322 kann dem Referenz-Lichtsignalfolge-Frame 13304 entsprechen (z.B. in Verbindung mit diesem Korrelationsempfänger 13308).
  • Der Korrelationsergebnisrahmen 13322 kann eine Vielzahl von Symboldarstellungsteilen enthalten. Jeder Symboldarstellungsteil kann eine Signaldarstellung eines Symbols (oder eine Vielzahl von Signaldarstellungen, die jeweils ein Symbol darstellen) enthalten. Illustrativ kann eine Signaldarstellung im Korrelationsergebnisrahmen 13322 als ein analoges Signal (z.B. ein Strom oder eine Spannung) verstanden werden, das ein Symbol repräsentiert.
  • Das Ranging-System 13300 (z.B. ein oder mehrere Prozessoren 13324 des Ranging-Systems 13300) kann so konfiguriert werden, dass es die Symboldarstellungsteile des Korrelationsergebnisrahmens 13322 dekodiert. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 13324 können Daten extrahieren oder interpretieren, die im Korrelationsergebnisrahmen 13322 enthalten sind, indem sie die darin enthaltenen Symboldarstellungsteile (z.B. die Signaldarstellungen) dekodieren. Anders ausgedrückt: Der eine oder die mehreren Prozessoren 13324 können so konfiguriert werden, dass sie ein oder mehrere Kommunikationsdatenbits unter Verwendung des Inhalts des Korrelationsergebnisausgangs 13320 (z. B. des Korrelationsergebnisrahmens 13322) bestimmen. Zur Veranschaulichung: Die Kommunikationsdatenbits können die Informationen und/oder die Signale beschreiben oder darstellen, die in jedem Rahmenteil des Korrelationsergebnisrahmens 13322 enthalten sind. Jeder Symboldarstellungsteil kann einzeln dekodiert werden. Alternativ können die Symboldarstellungsteile auch gemeinsam (z.B. parallel) decodiert werden.
  • Der eine oder die mehreren Prozessoren 13324 können so konfiguriert werden, dass sie einen oder mehrere Laufzeit-Werte anhand des Inhalts des Korrelationsergebnisses 13320 bestimmen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 13324 können so konfiguriert werden, dass sie einen oder mehrere Laufzeit-Werte aus dem einen oder den mehreren Peaks berechnen, die in der Korrelationsergebnisausgabe 13320 enthalten sind (z.B. kann die Zeit, zu der ein Peak erzeugt wird, einer Laufzeit für die zugehörige Lichtsignalsequenz 13316 entsprechen).
  • 134A bis 134C zeigen jeweils ein Entfernungsmesssystem 13400 in einer schematischen Darstellung, entsprechend verschiedener Ausführungsformen.
  • Das Ranging-System 13400 kann als Ranging-System 13300 konfiguriert werden. Zur Veranschaulichung kann das Ranging System 13400 eine beispielhafte Realisierung des Ranging Systems 13300 beschreiben.
  • Das Ranging-System 13400 kann (z.B. auf der Enkoderseite) ein Schieberegister 13402 (auch als Init-Register bezeichnet) enthalten, das so konfiguriert ist, dass es einen Indikatorvektor speichert, der einen Referenz-Lichtsignal-Sequenzrahmen darstellt. Das Schieberegister 13402 kann ein Beispiel für den Speicher 13302 sein.
  • Das Ranging-System 13400 kann einen Tx-Puffer 13404 enthalten (z.B. ein kreisförmiges Schieberegister). Der Tx-Puffer 13404 kann so konfiguriert werden, dass er den Indikatorvektor aus dem Init-Register 13402 empfängt (z.B. nach Initialisierung, z.B. durch ein Init-Signal angezeigt). Das Init-Register 13402 und der Tx-Puffer 13406 können durch ein gemeinsames Taktsignal getaktet werden (z.B. durch einen gemeinsamen Referenztakt 13406). Der Tx-Puffer 13404 kann so konfiguriert werden, dass der Indikatorvektor im Zeitablauf umlaufen wird.
  • Das Ranging-System 13400 kann einen Tx Block 13408 enthalten. Der Tx Block 13408 kann so konfiguriert werden, dass er eine Signaldarstellung (z.B. einen Impuls) entsprechend dem aktuellen Element des Indikatorvektors erzeugt (z.B. entsprechend einem vom Tx Buffer 13404 empfangenen Eingang).
  • Das Ranging-System 13400 (z.B. der Tx Block 13408) kann eine Symbolgestaltungsstufe 13410 enthalten. Die Symbolformungsstufe 13410 kann zur Bestimmung der Impulsform konfiguriert werden, z.B. basierend auf einem Impulsformfilter oder unter Verwendung einer digitalisierten Impulsform.
  • Eine Kombination aus dem Tx-Puffer 13404 und der Symbolformungsstufe 13410 kann ein Beispiel für den Signalgenerator 13308 sein.
  • Das Ranging-System 13400 (z. B. der Tx Block 13408) kann einen Treiber 13412 (z. B. einen analogen Treiber) enthalten. Der Treiber 13412 kann mit einem Lichtemitter 13414 (z.B. der Lichtquelle 42, z.B. einem Laser) gekoppelt werden. Der Treiber 13412 kann so konfiguriert werden, dass er den Lichtsender 13414 so steuert, dass dieser entsprechend der empfangenen Signaldarstellung oder Signaldarstellungssequenz Licht aussendet. Der Treiber 13412 kann ein Beispiel für den Lichtquellen-Controller 13312 sein.
  • Das Ranging-System 13400 kann (z.B. auf der Detektorseite) einen Rx-Block 13416 enthalten. Der Rx Block 13416 kann so konfiguriert werden, dass er eine empfangene Lichtimpulsfolge erfasst. Der Rx Block 13416 kann einen optoelektronischen Detektor 13418 enthalten, z.B. mit einer Fotodiode (PD) oder einer Lawinenfotodiode (APD). Der Rx Block 13416 kann einen Verstärker 13420 (z.B. einen Transimpedanzverstärker (TIA)) enthalten, der so konfiguriert ist, dass er das empfangene Signal verstärkt. Der Rx Block 13416 kann einen Signalwandler 13422 (z.B. einen Analog-Digital-Wandler (ADC)) enthalten, der so konfiguriert ist, dass er das Signal in ein digitalisiertes Signal umwandelt. Der Rx-Block 13416 kann so konfiguriert werden, dass er einen Indikatorvektor ausgibt, der die Erkennung darstellt (z.B. die empfangene Impulsfolge). Der Rx Block 13416 kann ein Beispiel für den Sensor 52 sein (z.B. für eine oder mehrere Komponenten, die im Sensor 52 enthalten sind).
  • Das Ranging-System 13400 kann einen Rx-Puffer 13424 (z.B. ein Schieberegister) enthalten, der so konfiguriert ist, dass er den Ausgang des Rx-Blocks 13416 (z.B. Element für Element geladen) empfängt.
  • Das Entfernungsmesssystem 13400 kann einen Korrelationsempfänger 13426 enthalten. Der Korrelationsempfänger 13426 kann sowohl auf den Tx-Puffer 13404 als auch auf den Rx-Puffer 13424 zugreifen. Der Korrelationsempfänger 13426 kann so konfiguriert werden, dass er die Korrelation zwischen dem Inhalt der beiden Register bestimmt.
  • Zusätzlich oder alternativ kann der Korrelationsempfänger 13426 so konfiguriert werden, dass er gemessene und/oder abgetastete Daten als Eingang empfängt (wie z.B. in 134B dargestellt), z.B. durch einen zusätzlichen Rx-Block 13428 auf der Senderseite und einen Tx-Sample-Puffer 13430.
  • Zusätzlich oder alternativ kann der Korrelationsempfänger 13426 so konfiguriert werden, dass er abgegriffene Abtastdaten als Eingang empfängt (wie z.B. in 134C dargestellt), z.B. mit Hilfe eines Tx-Sample-Puffers 13430.
  • Das Entfernungsmesssystem 13400 kann ein Spitzenwertdetektionssystem 13432 enthalten. Das Spitzenwert-Erkennungssystem 13432 kann so konfiguriert werden, dass es den Ausgang 13434 des Korrelationsempfängers 13426 empfängt. Das Spitzenwert-Detektionssystem 13432 kann so konfiguriert werden, dass es auf der Grundlage eines oder mehrerer identifizierter Spitzenwerte im Korrelationsausgang 13434 eine Zeitabschaltung bestimmt. Das Spitzenwert-Erkennungssystem 13432 kann so konfiguriert werden, dass es ein oder mehrere Kommunikationsdatenbits aus dem Korrelationsausgang 13434 bestimmt. Das Spitzenwert-Erkennungssystem 13432 kann ein Beispiel für den einen oder mehrere Prozessoren 13324 sein. Die Korrelationsausgabe 13434 kann ein Beispiel für die Korrelationsergebnisausgabe 13320 sein.
  • 135A bis 135F zeigen jeweils einen oder mehrere Teile des Entfernungsmesssystems 13400 in einer schematischen Darstellung, in Übereinstimmung mit verschiedenen Ausführungsformen.
  • 135G zeigt ein Codebuch 13508 in schematischer Darstellung, in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Wie in 135A und 135B dargestellt, kann das Entfernungsmesssystem 13400 so konfiguriert werden, dass es eine Vielzahl von Impulsfolgen direkt nacheinander aussendet. In dieser Konfiguration kann das Init-Register 13402 so konfiguriert werden, dass es z.B. zwei (oder mehr) Signalsequenzrahmen (z.B. eine Sequenz A und eine Sequenz B) in verketteter Form speichert. Die Verkettung der beiden Sequenzen kann die verkettete Sequenz AB bilden. Das Ranging-System 13402 kann zusätzliche Tx-Puffer 13404 enthalten. Ein erster Tx-Puffer 13502-1 kann so konfiguriert werden, dass er die derzeit verschobene Version der verketteten Sequenz AB enthält. Ein zweiter Tx-Puffer 13502-2 kann so konfiguriert werden, dass er die gegenwärtig verschobene Version der Sequenz A enthält. Ein dritter Tx-Puffer 13502-3 kann so konfiguriert werden, dass er die gegenwärtig verschobene Version der Sequenz B enthält. Nach der Initialisierung (Init-Signal) kann der Tx-Block 13408 so konfiguriert werden, dass er die verkettete Sequenz AB ausgibt. Der Rx-Block 13402 kann so konfiguriert werden, dass er die verkettete Sequenz AB empfängt. Der Rx-Puffer 13424 kann so konfiguriert werden, dass er die empfangene verkettete Sequenz AB speichert.
  • Das Entfernungsmesssystem 13400 kann zusätzliche Korrelationsempfänger enthalten, die z.B. parallel angeordnet sind. Der Rx-Block 13402 kann so konfiguriert werden, dass sein Ausgang den mehreren Korrelationsempfängern zur Verfügung steht. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die Korrelation zwischen dem Rx-Puffer und einem entsprechenden Tx-Puffer bestimmt und einen Ausgang für das Spitzenwert-Erfassungssystem 13432 bereitstellt. Als Beispiel kann das Ranging-System 13400 einen ersten Korrelationsempfänger 13504-1 enthalten, der mit dem ersten Tx-Puffer 13502-1 verbunden ist und einen ersten Korrelationsausgang 13506-1 bereitstellt. Das Ranging-System 13400 kann einen zweiten Korrelationsempfänger 13504-2 enthalten, der mit dem zweiten Tx-Puffer 13502-2 verbunden ist und einen zweiten Korrelationsausgang 13506-2 bereitstellt. Das Ranging-System 13400 kann einen dritten Korrelationsempfänger 13504-3 enthalten, der mit dem dritten Tx-Puffer 13502-3 verbunden ist und einen dritten Korrelationsausgang 13506-3 bereitstellt.
  • Jeder Korrelationsempfänger kann so konfiguriert werden, dass er den Ausgang (z.B. den Kreuzkorrelationsausgang) an das Peakerkennungssystem 13432 liefert. Das Peak-Detektionssystem 13432 kann so konfiguriert werden, dass es die Zeitverzögerung auf der Grundlage der identifizierten ein oder mehreren Peaks in den von den Korrelationsempfängern gelieferten Korrelationsergebnissen bestimmt. Die ermittelte Verzögerung kann die ToF der verketteten Sequenz AB, der Sequenz A bzw. der Sequenz B darstellen.
  • Wie in 135C und 135D dargestellt, kann das Entfernungsmesssystem 13400 Datenkommunikationsfähigkeiten haben. Illustrativ kann ein Datenkodierungsschema in Kombination mit der rahmenartigen Struktur des ausgestrahlten Lichtsignals implementiert werden.
  • Ein Speicher des Entfernungsmesssystems 13400 (z.B. der Speicher 13302) oder eine Datenbank kann Informationen speichern, die eine Impulsfolge (z.B. eine Lichtsignalfolge) mit entsprechenden Daten (z.B. mit entsprechenden Codefolgen, z.B. Symbolfolgen) abbilden. Der Speicher kann z.B. ein Codebuch sein oder speichern (ein beispielhaftes Codebuch 13508 ist z.B. in 135G dargestellt). Das Codebuch 13508 kann für jede mögliche Eingangssequenz (z.B. Codesequenz) eine Ausgangssequenz (z.B. eine Impulsfolge) bereitstellen. Zur Veranschaulichung: Zur Codierung bestimmter Daten in einer Impulsfolge kann das Ranging-System 13400 die entsprechende Codesequenz aus dem Codebuch 13508 abrufen (und verwenden). Das Codebuch 13508 kann unter den Teilnehmern „standardisiert“ werden (z.B. Teilnehmer, die beabsichtigen, miteinander zu kommunizieren).
  • Auf der Encoderseite kann der Tx-Puffer 13404 für den Empfang von Codesequenzen konfiguriert werden. Der Tx-Block 13408 kann so konfiguriert werden, dass er die Codesequenzen aussendet. Auf der Decoderseite kann der Rx-Block 13416 (z.B. der Rx-Puffer 13424) so konfiguriert werden, dass er das erkannte Signal empfängt. Der Inhalt des Rx-Puffers 13424 kann zur Dekodierung verwendet werden. Als Beispiel kann das detektierte Signal (z.B. die detektierte Sequenz) eine gedämpfte Version des gesendeten Signals (z.B. die gesendete Sequenz) sein.
  • Auf der Decoderseite kann das Ranging-System 13400 eine Bank paralleler Korrelationsempfänger 13504-1, 13504-2,..., 13504-n enthalten. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er das Eingangssignal (z.B. eine Eingangssequenz, z.B. den Inhalt oder den Ausgang des Rx-Puffers 13424) empfängt. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er die empfangene Eingabe mit einer Codesequenz im Codebuch korreliert (z.B. eine Referenzcodesequenz, die diesem Korrelationsempfänger zugeordnet ist). Als Beispiel kann das Ranging-System 13400 einen Korrelationsempfänger für jede im Codebuch gespeicherte Sequenz enthalten.
  • In dieser Konfiguration darf die Ausgabe eines Korrelationsempfängers höchstens einen (mit anderen Worten: null oder eins) signifikanten Peak enthalten. Ein Korrelationsempfänger kann so konfiguriert werden, dass er ein Ausgangssignal mit einer signifikanten Spitze liefert, falls das Eingangssignal mit Hilfe der Referenzcodesequenz codiert ist (oder ursprünglich codiert wurde).
  • Jeder Korrelationsempfänger kann so konfiguriert werden, dass er das jeweilige Korrelationsergebnis an das Spitzenwert-Erfassungssystem 13432 ausgibt. Das Spitzenwert-Erkennungssystem 13432 kann so konfiguriert werden, dass es ein inverses Mapping (z.B. Dekodierung) durchführt. Auf der Grundlage der gefundenen Peaks (z.B. signifikante Peaks) kann das Peak-Erkennungssystem 13432 so konfiguriert werden, dass es ein inverses Mapping zurück zu den in der Impulsfolge kodierten Daten durchführt. Das Spitzenwert-Erkennungssystem 13432 kann so konfiguriert werden, dass es die (z.B. dekodierten) Datensymbole z.B. als Dekodierungsergebnis ausgibt.
  • Wie in 135E und 135F dargestellt, kann das Ranging System 13400 entsprechend einer Kombination der oben beschriebenen Ansätze (z.B. der Operationen) konfiguriert werden (z.B. in Bezug auf 135A bis 135B und auf 136 A bis 136B). Zur Veranschaulichung: Die verschiedenen Komponenten des Entfernungsmesssystems 13400 können zur Implementierung der Entfernungsmessung und Datenübertragung verwendet (und konfiguriert) werden.
  • 136A bis 136D zeigen verschiedene Eigenschaften, die mit einem Indikatorvektor 13602 in Übereinstimmung mit verschiedenen Ausführungsformen verbunden sind.
  • Ein Indikatorvektor (z.B. ein Referenz-Lichtsignal-Sequenzrahmen) 13602 kann N Elemente enthalten. Der Indikatorvektor 13602 kann K Elemente enthalten, die auf 1 gesetzt sind, und N-K Elemente, die auf 0 gesetzt sind. Eine Impulsfolge 13604 kann in Übereinstimmung mit dem Indikatorvektor 13602 erzeugt werden
  • Eine Überlappung, E, zwischen einem ersten Indikatorvektor 136021 und einem zweiten Indikatorvektor 13602-2 kann die Anzahl der Vektorelemente darstellen, die in beiden Vektoren an derselben Position auf 1 gesetzt sind (wie z.B. in 136B dargestellt).
  • Eine Verschiebung, S, zwischen zwei Indikatorvektoren kann beschreiben, wie weit bis zum Gleichstand die Indikatorvektoren verschoben werden. 136C zeigt zum Beispiel eine Verschiebung S=4 zwischen dem zweiten Indikatorvektor 136022 und seiner verschobenen Version 136022s oder seiner kreisförmig verschobenen Version 136022c.
  • Die Überlappung E kann zwischen einem Vektor und der verschobenen Version eines anderen Vektors definiert werden, wie z.B. in 136D zwischen dem ersten Vektor 136021 und dem verschobenen zweiten Vektor 136022 dargestellt ist.
  • 137 zeigt ein Flussdiagramm und den Algorithmus 13700 zur Auswahl eines oder mehrerer Indikatorvektoren 13602.
  • Der Algorithmus 13700 kann so konfiguriert werden, dass er eine Reihe von Indikatorvektoren erzeugt.
  • Der Algorithmus 13700 kann einen „Start“ in 13702 enthalten. Der Algorithmus kann im Jahr 13704 die Erstellung eines leeren Satzes von Indikatorvektoren (auch als Testsatz bezeichnet) beinhalten.
  • Der Algorithmus 13700 kann in 13706 die Erzeugung eines Kandidatenindikatorvektors beinhalten (z.B. die zufällige Konstruktion eines Kandidatenvektors der Länge N, der K Einsen enthält).
  • Der Algorithmus 13700 kann in 13708 die Bestimmung einer maximalen Überlappung des Kandidatenvektors mit sich selbst (z.B. über alle möglichen Verschiebungen) beinhalten.
  • Der Algorithmus 13700 kann in 13710 die Bestimmung einschließen, ob der Kandidaten-Indikatorvektor einen Autokorrelationstest bestanden hat (z.B. auf der Grundlage der in 13708 erhaltenen Ergebnisse). Falls nicht, kann der Algorithmus 13700 den Indikatorvektor verwerfen und einen neuen Kandidaten-Indikatorvektor erstellen (z.B. zurück zu 13706).
  • Der Algorithmus kann in 13712 die Bestimmung einer maximalen Überlappung des Kandidatenvektors mit allen anderen Vektoren im Testsatz (falls vorhanden) und über alle möglichen Verschiebungen umfassen.
  • Der Algorithmus 13700 kann in 13714 die Bestimmung einschließen, ob der Kandidaten-Indikatorvektor einen Kreuzkorrelationstest bestanden hat (z.B. auf der Grundlage der in 13712 erhaltenen Ergebnisse). Der Algorithmus 13700 kann das Verwerfen des Indikatorvektors und das Erstellen eines neuen Kandidatenindikatorvektors (z.B. zurück zu 13706) umfassen, falls der Kandidatenindikatorvektor den Kreuzkorrelationstest nicht bestanden hat.
  • Der Algorithmus 13700 kann in 13716 das Hinzufügen des Indikatorvektors zum Testsatz einschließen (illustrativ, falls der Kandidaten-Indikatorvektor beide Tests bestanden hat).
  • Der Algorithmus 13700 kann in 13718 die Bestimmung einschließen, ob der Testsatz eine gewünschte Größe erreicht hat. Der Algorithmus kann in 13720 einen Stopp einschließen, wenn die Testmenge die gewünschte Größe erreicht hat. Der Prozess kann mit einem neuen Kandidatenindikatorvektor wiederholt werden (z.B. kann der Algorithmus bis 13706 zurückgehen), falls die Testmenge die gewünschte Größe nicht erreicht hat.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1w ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Speicher enthalten, der ein oder mehrere Referenz-Lichtsignalsequenz-Bilder speichert. Jedes Referenz-Lichtsignal-Sequenz-Frame kann einen oder mehrere vordefinierte Frame-Abschnitte enthalten. Jeder vordefinierte Bildausschnitt kann einen vordefinierten Signalinhaltstyp haben. Das LIDAR-Sensorsystem kann einen Sensor mit einer oder mehreren Fotodioden enthalten, die so konfiguriert sind, dass sie eine empfangene Lichtsignalsequenz liefern. Die empfangene Lichtsignalsequenz kann einen oder mehrere Lichtsignalsequenzabschnitte enthalten. Das LIDAR-Sensorsystem kann einen oder mehrere Korrelationsempfänger enthalten. Jeder Korrelationsempfänger kann mit mindestens einem Referenz-Lichtsignal-Sequenzrahmen verbunden sein. Jeder Korrelationsempfänger kann so konfiguriert werden, dass er einen oder mehrere Lichtsignalsequenzabschnitte der empfangenen Lichtsignalsequenz mit einem oder mehreren vordefinierten Rahmenabschnitten des zugehörigen Referenz-Lichtsignalsequenzrahmens korreliert, um ein Korrelationsergebnis zu erzeugen.
    • In Beispiel 2w kann der Gegenstand von Beispiel 1w optional beinhalten, dass die Korrelationsergebnisausgabe einen Korrelationsergebnisrahmen mit einem oder mehreren vordefinierten Rahmenabschnitten mit dem vordefinierten Signalinhaltstyp enthält.
    • Im Beispiel 3w kann der Gegenstand des Beispiels 2w optional beinhalten, dass das Korrelationsergebnisbild dem Referenz-Lichtsignalfolgebild entspricht, das dem jeweiligen Korrelationsempfänger zugeordnet ist.
    • In Beispiel 4w kann der Gegenstand eines der Beispiele 2w oder 3w optional beinhalten, dass der Korrelationsergebnisrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Signaldarstellung eines Symbols enthält und jedes Symbol ein oder mehrere Bits repräsentiert.
    • In Beispiel 5w kann der Gegenstand eines der Beispiele 2w bis 4w optional beinhalten, dass der Korrelationsergebnisrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Vielzahl von Signaldarstellungen enthält, jede Signaldarstellung eine Signaldarstellung eines Symbols ist und jedes Symbol ein oder mehrere Bits darstellt.
    • In Beispiel 6w kann der Gegenstand von Beispiel 5w optional beinhalten, dass jeder Teil der Symboldarstellung einzeln dekodiert wird.
    • In Beispiel 7w kann der Gegenstand von Beispiel 5w optional beinhalten, dass die Teile der Symboldarstellung gemeinsam dekodiert werden.
    • In Beispiel 8w kann der Gegenstand eines der Beispiele 2w bis 7w optional beinhalten, dass der Korrelationsergebnisrahmen einen Präambelrahmenteil mit Erfassungssignalen und/oder Entfernungssignalen und/oder Synchronisationssignalen enthält.
    • In Beispiel 9w kann der Gegenstand eines der Beispiele 2w bis 8w optional beinhalten, dass der Korrelationsergebnisrahmen einen Header-Frame-Teil mit Steuerdaten enthält.
    • In Beispiel 10w kann der Gegenstand eines der Beispiele 2w bis 9w optional beinhalten, dass der Korrelationsergebnisrahmen einen Nutzlastrahmenteil mit Identifikations- und/oder Steuersignalen enthält.
    • In Beispiel 11w kann der Gegenstand eines der Beispiele 2w bis 10w optional beinhalten, dass der Korrelationsergebnisrahmen einen Fußzeilenrahmenteil mit Rahmenintegritätstestsignalen und/oder Kollisionserkennungssignalen enthält.
    • In Beispiel 12w kann der Gegenstand eines der Beispiele 2w bis 11w optional beinhalten, dass der Korrelationsergebnisrahmen eine vordefinierte Länge oder eine variable Länge mit einer minimalen Länge und einer maximalen Länge hat.
    • In Beispiel 13w kann der Gegenstand eines der Beispiele 1w bis 12w optional beinhalten, dass der Speicher eine Vielzahl von Referenz-Lichtsignalsequenz-Bildern speichert, von denen jedes einen oder mehrere vordefinierte Bildabschnitte enthält.
    • In Beispiel 14w kann der Gegenstand eines der Beispiele 1w bis 13w optional beinhalten, dass der Speicher eine Vielzahl von Referenz-Lichtsignal-Sequenzrahmen speichert, die in Übereinstimmung mit einer Vielzahl verschiedener Signalmodulationscodes codiert werden.
    • In Beispiel 15w kann der Gegenstand von Beispiel 14w optional beinhalten, dass die Mehrzahl der verschiedenen Signalmodulationscodes Code Division Multiple Access-Codes sind.
    • In Beispiel 16w kann der Gegenstand eines der Beispiele 1w bis 15w optional einen oder mehrere Prozessoren enthalten, die so konfiguriert sind, dass sie einen oder mehrere Flugzeitwerte unter Verwendung des Inhalts der Korrelationsergebnisausgabe bestimmen.
    • In Beispiel 17w kann der Gegenstand eines der Beispiele 1 bis 16 optional einen oder mehrere Prozessoren enthalten, die so konfiguriert sind, dass sie ein oder mehrere Kommunikationsdatenbits unter Verwendung des Inhalts der Korrelationsergebnisausgabe bestimmen.
    • In Beispiel 18w kann der Gegenstand eines der Beispiele 1w bis 17w optional beinhalten, dass die vordefinierten Bildausschnitte des einen oder mehrerer Referenz-Lichtsignalsequenz-Bilder eine Folge von Impulsen enthalten.
    • In Beispiel 19w kann der Gegenstand eines der Beispiele 1w bis 18w optional beinhalten, dass die vordefinierten Bildteile des einen oder mehrerer Referenz-Lichtsignalsequenz-Bilder so konfiguriert sind, dass eine Autokorrelation eines Bildteils mit einer zeitverschobenen Version des Bildteils unter einem vordefinierten Autokorrelationsschwellenwert liegt.
    • In Beispiel 20w kann der Gegenstand eines der Beispiele 1w bis 19w optional beinhalten, dass die vordefinierten Bildteile des einen oder mehrerer Referenz-Lichtsignalsequenz-Bilder so konfiguriert sind, dass eine Kreuzkorrelation eines Bildteils mit einem anderen Bildteil unter einem vordefinierten Kreuzkorrelationsschwellenwert liegt.
    • In Beispiel 21w kann der Gegenstand eines der Beispiele 1w bis 20w optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 22w kann der Gegenstand eines der Beispiele 1w bis 21w optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • Beispiel 23w ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Lichtquelle enthalten, die so konfiguriert ist, dass sie ein Lichtsignal aussendet. Das LIDAR-Sensorsystem kann einen Signalgenerator enthalten, der so konfiguriert ist, dass er ein Signalsequenz-Frame erzeugt, das einen oder mehrere vordefinierte Frame-Abschnitte mit einem vordefinierten Signalinhaltstyp enthält. Das LIDAR-Sensorsystem kann einen Lichtquellen-Controller enthalten, der so konfiguriert ist, dass er die Lichtquelle so steuert, dass sie ein Lichtsignalsequenz-Frame gemäß dem Signalsequenz-Frame emittiert, wobei das Lichtsignalsequenz-Frame einen oder mehrere vordefinierte Frame-Abschnitte mit einem vordefinierten Signalinhaltstyp enthält.
    • In Beispiel 24w kann der Gegenstand von Beispiel 23w optional beinhalten, dass der Lichtsignalsequenzrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Signaldarstellung eines Symbols enthält und jedes Symbol ein oder mehrere Bits darstellt.
    • In Beispiel 25w kann der Gegenstand eines der Beispiele 23w oder 24w optional beinhalten, dass der Lichtsignalsequenzrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Vielzahl von Signaldarstellungen enthält, jede Symboldarstellung ein Symbol darstellt und jedes Symbol ein oder mehrere Bits repräsentiert.
    • In Beispiel 26w kann der Gegenstand von Beispiel 25w optional beinhalten, dass jeder Teil der Symboldarstellung individuell kodiert wird.
    • In Beispiel 27w kann der Gegenstand von Beispiel 26w optional beinhalten, dass die Teile der Symboldarstellung gemeinsam kodiert werden.
    • In Beispiel 28w kann der Gegenstand eines der Beispiele 23w bis 27w optional beinhalten, dass das Lichtsignalsequenz-Frame einen Präambel-Frame-Abschnitt mit Erfassungssignalen und/oder Synchronisationssignalen enthält.
    • In Beispiel 29w kann der Gegenstand eines der Beispiele 23w bis 28w optional beinhalten, dass das Lichtsignalsequenz-Frame einen Header-Frame-Teil mit Steuerdaten enthält.
    • In Beispiel 30w kann der Gegenstand eines der Beispiele 23w bis 29w optional beinhalten, dass der Lichtsignalsequenzrahmen einen Nutzlastrahmenteil mit Identifikations- und/oder Steuersignalen enthält.
    • In Beispiel 31w kann der Gegenstand eines der Beispiele 23w bis 30w optional beinhalten, dass der Lichtsignalsequenzrahmen einen Fußzeilenrahmenteil mit Rahmenintegritätstestsignalen und/oder Kollisionserkennungssignalen enthält.
    • In Beispiel 32w kann der Gegenstand eines der Beispiele 23w bis 31w optional beinhalten, dass der Lichtsignal-Sequenzrahmen eine vordefinierte Länge oder eine variable Länge mit einer minimalen Länge und einer maximalen Länge hat.
    • In Beispiel 33w kann der Gegenstand eines jeden der Beispiele 23w bis 32w optional einen Speicher zur Speicherung einer Vielzahl von Symbolcodes enthalten. Der Signalgenerator kann so konfiguriert werden, dass er den Signalsequenzrahmen in Übereinstimmung mit mindestens einem Symbolcode aus der Vielzahl der Symbolcodes erzeugt.
    • In Beispiel 34w kann der Gegenstand von Beispiel 33w optional beinhalten, dass die Vielzahl der Symbolcodes eine Vielzahl verschiedener Signalmodulationscodes ist.
    • In Beispiel 35w kann der Gegenstand von Beispiel 34w optional beinhalten, dass die Mehrzahl der verschiedenen Signalmodulationscodes Code Division Multiple Access-Codes sind.
    • In Beispiel 36w kann der Gegenstand eines der Beispiele 23w bis 35w optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 37w kann der Gegenstand eines der Beispiele 23w bis 36w optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • Beispiel 38w ist ein Fahrzeug, einschließlich eines oder mehrerer LIDAR-Sensorsysteme gemäß einem der Beispiele 1w bis 37w.
    • In Beispiel 39w kann der Gegenstand von Beispiel 38w optional eine Vielzahl von LIDAR-Sensorsystemen gemäß einem der Beispiele 1w bis 37w umfassen. Ein Signalgenerator eines LIDAR-Sensorsystems kann so konfiguriert werden, dass er einen Signalsequenzrahmen erzeugt, der sich zumindest teilweise von einem Signalsequenzrahmen unterscheidet, der von einem Signalgenerator eines anderen LIDAR-Sensorsystems erzeugt wird.
    • In Beispiel 40w kann der Gegenstand von Beispiel 39w optional beinhalten, dass jeder Signalgenerator so konfiguriert ist, dass er einen Signalsequenzrahmen erzeugt, dass eine Autokorrelation- des Signalsequenzrahmens mit einer zeitverschobenen Version des Signalsequenzrahmens unter einem vordefinierten Autokorrelationsschwellenwert liegt.
    • In Beispiel 41w kann der Gegenstand eines der Beispiele 39w oder 40w optional beinhalten, dass jeder Signalgenerator so konfiguriert ist, dass er einen Signalsequenzrahmen erzeugt, so dass eine Korrelation des Signalsequenzrahmens mit einem von einem anderen Signalgenerator erzeugten Signalsequenzrahmen unter einem vordefinierten Kreuzkorrelationsschwellenwert liegt.
    • Beispiel 42w ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann einen Speicher enthalten, der ein oder mehrere Referenzlichtsignal-Sequenz-Frames speichert, wobei jedes Referenzlichtsignal-Sequenz-Frame einen oder mehrere vordefinierte Frame-Abschnitte mit einem vordefinierten Signalinhaltstyp enthält. Das Verfahren kann einen Sensor enthalten, der eine oder mehrere Fotodioden enthält und eine empfangene Lichtsignalsequenz bereitstellt, wobei die empfangene Lichtsignalsequenz einen oder mehrere Lichtsignalsequenzabschnitte enthält. Das Verfahren kann das Korrelieren des einen oder der mehreren Lichtsignalsequenzabschnitte der empfangenen Lichtsignalsequenz mit dem einen oder den mehreren vordefinierten Rahmenabschnitten des einen oder der mehreren Referenz-Lichtsignalsequenzrahmen umfassen, um ein Korrelationsergebnis zu erzeugen.
    • In Beispiel 43w kann der Gegenstand von Beispiel 42w optional beinhalten, dass die Korrelationsergebnisausgabe einen Korrelationsergebnisrahmen mit einem oder mehreren vordefinierten Rahmenabschnitten mit dem vordefinierten Signalinhaltstyp enthält.
    • In Beispiel 44w kann der Gegenstand von Beispiel 43w optional beinhalten, dass der Korrelationsergebnisrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Signaldarstellung eines Symbols enthält und jedes Symbol ein oder mehrere Bits darstellt.
    • In Beispiel 45w kann der Gegenstand eines der Beispiele 43w oder 44w optional beinhalten, dass der Korrelationsergebnisrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Vielzahl von Signaldarstellungen enthält, wobei jede Symboldarstellung ein Symbol darstellt und jedes Symbol ein oder mehrere Bits repräsentiert.
    • In Beispiel 46w kann der Gegenstand von Beispiel 45w optional beinhalten, dass jeder Teil der Symboldarstellung einzeln dekodiert wird.
    • In Beispiel 47w kann der Gegenstand von Beispiel 45w optional beinhalten, dass die Teile der Symboldarstellung gemeinsam dekodiert werden.
    • In Beispiel 48w kann der Gegenstand eines der Beispiele 43w bis 47w optional beinhalten, dass der Korrelationsergebnisrahmen einen Präambelrahmenteil mit Erfassungssignalen und/oder Bereichssignalen und/oder Synchronisationssignalen enthält.
    • In Beispiel 49w kann der Gegenstand eines der Beispiele 43w bis 48w optional beinhalten, dass der Korrelationsergebnisrahmen einen Header-Frame-Teil mit Steuerdaten enthält.
    • In Beispiel 50w kann der Gegenstand eines der Beispiele 43w bis 49w optional beinhalten, dass der Korrelationsergebnisrahmen einen Nutzlastrahmenteil mit Identifikations- und/oder Steuersignalen enthält.
    • In Beispiel 51w kann der Gegenstand eines der Beispiele 43w bis 50w optional beinhalten, dass der Korrelationsergebnisrahmen einen Fußzeilenrahmenteil mit Rahmenintegritätstestsignalen und/oder Kollisionserkennungssignalen enthält.
    • In Beispiel 52w kann der Gegenstand eines der Beispiele 43w bis 51w optional beinhalten, dass der Korrelationsergebnisrahmen eine vordefinierte Länge oder eine variable Länge mit einer minimalen Länge und einer maximalen Länge hat.
    • In Beispiel 53w kann der Gegenstand eines der Beispiele 42w bis 52w optional beinhalten, dass der Speicher eine Vielzahl von Referenz-Lichtsignalsequenz-Bildern speichert, von denen jedes einen oder mehrere vordefinierte Bildabschnitte enthält.
    • In Beispiel 54w kann der Gegenstand eines der Beispiele 42w bis 53w optional beinhalten, dass der Speicher eine Vielzahl von Referenz-Lichtsignal-Sequenzrahmen speichert, die in Übereinstimmung mit einer Vielzahl verschiedener Signalmodulationscodes codiert werden.
    • In Beispiel 55w kann der Gegenstand von Beispiel 54w optional beinhalten, dass die Mehrzahl der verschiedenen Signalmodulationscodes Code Division Multiple Access-Codes sind.
    • In Beispiel 56w kann der Gegenstand eines der Beispiele 42w bis 55w optional die Bestimmung eines oder mehrerer Flugzeitwerte unter Verwendung des Inhalts der Korrelationsergebnisausgabe umfassen.
    • In Beispiel 57w kann der Gegenstand eines der Beispiele 42w bis 56w optional die Bestimmung eines oder mehrerer Kommunikationsdatenbits unter Verwendung des Inhalts der Korrelationsergebnisausgabe umfassen.
    • In Beispiel 58w kann der Gegenstand eines der Beispiele 42w bis 57w optional die vordefinierten Bildausschnitte des einen oder mehrerer Referenz-Lichtsignalsequenz-Bilder mit einer Folge von Impulsen enthalten.
    • In Beispiel 59w kann der Gegenstand eines der Beispiele 42w bis 58w optional beinhalten, dass die vordefinierten Bildbereiche des einen oder mehrerer Referenz-Lichtsignalsequenz-Bilder so konfiguriert sind, dass eine Autokorrelation eines Bildbereichs mit einer zeitverschobenen Version des Bildbereichs unter einem vordefinierten Autokorrelationsschwellenwert liegt.
    • In Beispiel 60w kann der Gegenstand eines der Beispiele 42w bis 59w optional beinhalten, dass die vordefinierten Rahmenabschnitte des einen oder mehrerer Referenz-Lichtsignalsequenzrahmen so konfiguriert sind, dass eine Kreuzkorrelation eines Rahmenabschnitts mit einem anderen Rahmenabschnitt unter einem vordefinierten Kreuzkorrelationsschwellenwert liegt.
    • In Beispiel 61w kann der Gegenstand eines der Beispiele 42w bis 60w optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 62w kann der Gegenstand eines der Beispiele 42w bis 61w optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert wird.
    • Beispiel 63w ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann das Aussenden eines Lichtsignals beinhalten. Das Verfahren kann die Erzeugung eines Signalsequenzrahmens mit einem oder mehreren vordefinierten Rahmenabschnitten mit einem vordefinierten Signalinhaltstyp umfassen. Das Verfahren kann die Steuerung der Emission eines Lichtsignalsequenzrahmens in Übereinstimmung mit dem Signalsequenzrahmen umfassen, wobei der Lichtsignalsequenzrahmen einen oder mehrere vordefinierte Rahmenabschnitte mit dem vordefinierten Signalinhaltstyp enthält.
    • In Beispiel 64w kann der Gegenstand von Beispiel 63w optional beinhalten, dass der Lichtsignalsequenzrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Signaldarstellung eines Symbols enthält und jedes Symbol ein oder mehrere Bits darstellt.
    • In Beispiel 65w kann der Gegenstand eines der Beispiele 63w oder 64w optional beinhalten, dass der Lichtsignalsequenzrahmen eine Vielzahl von Symboldarstellungsabschnitten enthält, wobei jeder Symboldarstellungsabschnitt eine Vielzahl von Signaldarstellungen enthält, jede Symboldarstellung ein Symbol darstellt und jedes Symbol ein oder mehrere Bits repräsentiert.
    • In Beispiel 66w kann der Gegenstand von Beispiel 65w optional beinhalten, dass jeder Teil der Symboldarstellung individuell kodiert wird.
    • In Beispiel 67w kann der Gegenstand von Beispiel 65w optional beinhalten, dass die Teile der Symboldarstellung gemeinsam kodiert werden.
    • In Beispiel 68w kann der Gegenstand eines der Beispiele 63w bis 67w optional beinhalten, dass das Lichtsignalsequenz-Frame einen Präambel-Frame-Teil mit Erfassungssignalen und/oder Synchronisationssignalen enthält.
    • In Beispiel 69w kann der Gegenstand eines der Beispiele 63w bis 68w optional beinhalten, dass das Lichtsignalsequenz-Frame einen Header-Frame-Teil mit Steuerdaten enthält.
    • In Beispiel 70w kann der Gegenstand eines der Beispiele 63w bis 69w optional beinhalten, dass der Lichtsignalsequenzrahmen einen Nutzlastrahmenteil mit Identifikationssignalen und/oder Steuersignalen enthält.
    • In Beispiel 71w kann der Gegenstand eines der Beispiele 63w bis 70w optional beinhalten, dass der Lichtsignalsequenzrahmen einen Fußzeilenrahmenteil mit Rahmenintegritätstestsignalen und/oder Kollisionserkennungssignalen enthält.
    • In Beispiel 72w kann der Gegenstand eines der Beispiele 63w bis 71w optional beinhalten, dass der Lichtsignalsequenzrahmen eine vordefinierte Länge oder eine variable Länge mit einer minimalen Länge und einer maximalen Länge hat.
    • In Beispiel 73w kann der Gegenstand eines jeden der Beispiele 63w bis 72w optional einen Speicher zur Speicherung einer Vielzahl von Symbolcodes enthalten. Der Signalsequenzrahmen kann in Übereinstimmung mit mindestens einem Symbolcode aus der Vielzahl der Symbolcodes erzeugt werden.
    • In Beispiel 74w kann der Gegenstand von Beispiel 73w optional beinhalten, dass die Vielzahl der Symbolcodes eine Vielzahl verschiedener Signalmodulationscodes ist.
    • In Beispiel 75w kann der Gegenstand von Beispiel 74w optional beinhalten, dass die Mehrzahl der verschiedenen Signalmodulationscodes Code Division Multiple Access-Codes sind.
    • In Beispiel 76w kann der Gegenstand eines der Beispiele 63w bis 75w optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert ist.
    • In Beispiel 77w kann der Gegenstand eines der Beispiele 63w bis 76w optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • Beispiel 78w ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems innerhalb eines Fahrzeugs, wobei das Verfahren zum Betrieb eines LIDAR-Sensorsystems eines der Beispiele 43w bis 77w beinhaltet.
  • Verschiedene Ausführungsformen können auf der Implementierung von digitalen Kommunikationskonzepten in ein reichweitenstarkes System (z.B. in ein LIDAR-System, wie das LIDAR-Sensorsystem 10) basieren. Veranschaulichend kann aus System- und Komponentensicht ein Ranging-System zur Datenübertragung verwendet werden. Die Daten können in ein LIDAR-Signal (z.B. in ein Lichtsignal) kodiert werden. Anders ausgedrückt, das LIDAR-Signal kann so konfiguriert werden, dass es Daten oder Informationen überträgt (z.B. zusätzlich zu den Entfernungsmessungs-Fähigkeiten des LIDAR-Signals). Die Daten (z.B. die Information) können als Unicast-, Multicast- oder Broadcast-Signal übertragen werden. Zur Veranschaulichung: Ein hierin beschriebenes LIDAR-Signal kann ein Entfernungsmesssignal (z.B. kann so konfiguriert werden, dass es Entfernungsmessfunktionen besitzt) und/oder ein Kommunikationssignal (z.B. kann es so konfiguriert werden, dass es Datenkommunikationsfunktionen besitzt) aufweisen.
  • Konventionelle Reichweitensysteme können unkoordiniert sein (z.B. Reichweitensysteme verschiedener Teilnehmer, wie z.B. Verkehrsteilnehmer, z.B. verschiedene Fahrzeuge, wie z.B. verschiedene Autos). Dasselbe kann auch für die jeweiligen konventionellen Ranging-Systeme gelten. Beispielsweise kann jeder Teilnehmer oder jedes Entfernungsmesssystem ohne Berücksichtigung der anderen Teilnehmer arbeiten (z.B. im gleichen Gebiet). Es kann sein, dass es keine harmonisierte Norm für den Mediumzugang (z.B. LIDAR Mediumzugang) und/oder die Fehlerkontrolle gibt. Dies kann zu Signalkollisionen führen (z.B. Ranging-Signal-Kollisionen, z.B. Interferenzen oder Rauschen, die dadurch entstehen, dass mehrere Ranging-Signale im wesentlichen zur gleichen Zeit gesendet/empfangen werden). Die mangelnde Koordination kann die Zuverlässigkeit des Austauschs von Daten oder Signalisierungs- und Steuerinformationen (z.B. zwischen Entfernungsmesssystemen) beeinträchtigen.
  • In verschiedenen Ausführungsformen kann ein mittleres Zugangsschema für ein Reichweitensystem (z.B. ein LIDAR-System) vorgesehen werden. Das hier beschriebene Medium-Zugriffsschema (auch als Ranging-Medium-Zugriffsschema, LIDAR-Medium-Zugriffsschema oder Lichtemissionsschema bezeichnet) kann für die Steuerung des Betriebs eines Ranging-Systems vorgesehen werden. Die Aussendung eines LIDAR-Signals von einem Entfernungsmesssystem kann so gesteuert werden, dass die Kollision mit anderen Signalen von systemexternen Quellen reduziert oder im wesentlichen eliminiert wird (z.B. mit anderen LIDAR-Signalen von anderen Entfernungsmesssystemen oder mit anderen Signaltypen). Das LIDAR-Signal kann so konfiguriert werden (z.B. kodiert oder elektrisch moduliert), dass eine Fehlerkontrolle über den Inhalt des LIDAR-Signals möglich ist.
  • Das Ranging-Medium-Zugriffsschema kann ein Persistenzschema sein oder als solches konfiguriert werden (illustrativ, ähnlich einem persistenten CSMA-Schema, z.B. ein persistentes CSMA-Schema). Das hier beschriebene Medium-Zugriffsschema kann so konfiguriert werden, dass der Zugriff mehrerer Teilnehmer auf das Medium (z.B. auf den Ranging-Kanal, z.B. den LIDAR-Kanal) koordiniert wird. Dies kann die Anzahl der Kollisionen von LIDAR-Signalen auf dem Medium reduzieren oder minimieren und/oder so viele störungsfreie Übertragungen wie möglich ermöglichen. Eine solche Wirkung kann für jede Art von Signal vorgesehen werden, z.B. für ein Reichweitensignal, ein Signal für die Datenkommunikation oder ein Signal zur Übermittlung von Signalinformationen oder Steuernachrichten. Das hier beschriebene Medienzugriffsschema kann so konfiguriert werden, dass es vollständig verteilt ist (z.B. ohne eine lokale oder zentralisierte Koordinierungsstelle). Daher kann das hier beschriebene Medienzugriffsschema für den automobilen Kontext geeignet sein (z.B. kann das Schema eine hohe Fahrzeugmobilität vorsehen).
  • Nach dem Ranging-Medium-Zugangsschema kann eine Aktivitätserfassung auf dem Medium (z.B. mit randomisierten Wartezeiten) und/oder eine verteilte Koordination in einem Ranging-System vorgesehen werden. Aktivitätserfassung und/oder verteilte Koordination können zur Kollisionsvermeidung vorgesehen werden (z.B. zur Reduzierung oder Eliminierung von Signalkollisionen, z.B. bei Ranging, Datenkommunikation und Signalisierung).
  • Das Entfernungsmesssystem kann für die Aktivitätsmessung konfiguriert werden. Zur Veranschaulichung: Das Entfernungsmesssystem kann so konfiguriert werden, dass es das Vorhandensein eines oder mehrerer anderer Signale (z.B. ein fremdes oder fremdartiges LIDAR-Signal, das von einem anderen Entfernungsmesssystem ausgesendet wird) vor oder während der Aussendung seines eigenen LIDAR-Signals berücksichtigt. Durch die Aktivitätserfassung kann der Effekt erzielt werden, dass Signalkollisionen beim Zugriff auf das Medium proaktiv verhindert werden (z.B. kann es unwahrscheinlicher sein, dass das eigene LIDAR-Signal das Signal eines anderen Teilnehmers stört).
  • Für eine verteilte Koordination kann ein konfliktbasierter Backoff-Mechanismus vorgesehen werden. Das hier beschriebene verteilte Koordinationsschema kann die Wahrscheinlichkeit einer erfolgreichen Distanzmessung erhöhen (z.B. eine erfolgreiche Übertragung eines oder mehrerer LIDAR-Signale, z.B. mit Ranging-Fähigkeiten). Das verteilte Koordinationsschema kann eine geringere Latenzzeit und/oder kürzere Wartezeiten für alle Teilnehmer als Ganzes bieten. Dieser Effekt kann auch dann erzielt werden, wenn Datenkommunikations- und/oder Signalisierungsinformationen auf der Oberseite des Entfernungsmessbetriebs hinzugefügt werden (z.B. durch Konfiguration des ausgesendeten LIDAR-Signals als Rahmen, wie weiter unten näher beschrieben).
  • Zur Veranschaulichung: Das Medium-Zugriffsschema für ein Reichweitenmesssystem kann einem oder mehreren digitalen Kommunikationsschemata ähnlich sein, wie z.B. Carrier Sense Multiple Access (CSMA) und Distributed Coordination Function (DCF), wie sie z.B. im IEEE 802.11-Standard übernommen wurden. Beispielsweise kann ein Entfernungsmesssystem, das entsprechend dem hier beschriebenen Medienzugriffsschema konfiguriert ist, so konfiguriert werden, dass es auf dem Medium horcht, um festzustellen (z.B. um zu bewerten), ob vor (und/oder während) der Aussendung eines LIDAR-Signals Aktivität vorhanden ist (z.B. um festzustellen, ob andere Signale auf dem Medium, z.B. in der Luft, vorhanden sind oder vorhanden sein können). So kann das Entfernungsmesssystem so konfiguriert werden, dass es Übersprechen (und/oder das Vorhandensein von widersprüchlichen Signalen) oder andere mögliche Quellen von Übersprechen im Medium, z.B. von anderen Entfernungsmesssystemen, identifiziert.
  • In verschiedenen Ausführungsformen kann das Ranging-System so konfiguriert werden, dass es den Ranging-Kanal so lange abhört, bis der Kanal als untätig erkannt wird (z. B. um weiterhin festzustellen, ob auf dem Medium Aktivität vorhanden ist, bis keine Aktivität mehr festgestellt wird). Das Ranging-System kann so konfiguriert werden, dass es sendet (z.B. Licht ausstrahlt, z.B. ein Lichtsignal), sobald der Kanal als untätig erkannt wird (z.B. um sofort mit der Datenübertragung zu beginnen). Eine solche Konfiguration kann als 1-persistentes Schema bezeichnet werden. Zur Veranschaulichung: Das Ranging-System kann in ähnlicher Weise konfiguriert werden wie das 1-persistente-CSMA (auch als 1-persistentes-CSMA-Schema bezeichnet) für ein Kommunikationssystem (z.B. eine Station). Das 1-persistente-CSMA-Schema kann als egoistisches Schema beschrieben werden (illustrativ kann die Übertragung sofort beginnen, falls oder sobald das Medium frei ist). Das 1persistente-CSMA-Schema kann jedoch anfällig für Signalkollisionen sein (z.B. Übersprechen), wenn zwei oder mehr 1persistente-Teilnehmer warten (z.B. beginnen die wartenden Teilnehmer ungefähr zur gleichen Zeit mit der Übertragung). Darüber hinaus kann das 1persistente- CSMA-Schema anfällig für Signalkollisionen sein, da ein von einem wartenden System ausgestrahltes Signal innerhalb der Messung des Systems liegen kann, das das Medium zuvor verwendet hat (und somit dessen Messung beeinflusst).
  • In verschiedenen Ausführungsformen kann das Ranging-System so konfiguriert werden, dass es mit der Übertragung wartet (z.B. um die Übertragung zu verschieben), und zwar für eine Zeitspanne (z.B. eine zufällige Zeitspanne), die aus einer Wahrscheinlichkeitsverteilung gezogen wird, falls das Medium beschäftigt ist (z.B. falls das Ranging-System eine Aktivität auf dem Medium feststellt). Das Ranging-System kann so konfiguriert werden, dass es sendet, wenn das Medium nach Ablauf der Wartezeit im Leerlauf ist, oder dass es auf eine weitere Zeitspanne wartet, wenn das Medium noch beschäftigt ist. Die Verwendung von zufälligen Verzögerungen (z.B. zufällige Wartezeiten) kann die Wahrscheinlichkeit von Kollisionen verringern. Zur Veranschaulichung: Das Ranging-System kann in ähnlicher Weise konfiguriert werden wie nicht-persistentes- CSMA (auch als nicht-persistentes- CSMA-Schema bezeichnet) für ein Kommunikationssystem. Beim nicht-persistenten- CSMA-Schema kann das Medium jedoch nach dem Ende der Übertragung unbenutzt bleiben, selbst wenn ein oder mehrere Teilnehmer auf die Übertragung warten. Illustrativ kann es zu unnötigen Wartezeiten kommen.
  • In verschiedenen Ausführungsformen kann das Ranging-System so konfiguriert werden, dass es mit einer Wahrscheinlichkeit P sendet, falls das Medium im Leerlauf ist (und/oder die Übertragung um einen Zeitschlitz mit der Wahrscheinlichkeit 1-P verschiebt). Der Zeitschlitz kann so gewählt werden, dass er ein Vielfaches der Ausbreitungsverzögerung ist (z.B. kann der Zeitschlitz so gewählt werden, dass er gleich der maximalen Ausbreitungsverzögerung ist). Zur Veranschaulichung: Das Ranging-System kann so konfiguriert werden, dass es feststellt, ob das Medium besetzt ist, und das Abhören fortsetzt, bis das Medium im Leerlauf ist. Das Ranging-System kann so konfiguriert werden, dass es mit der Wahrscheinlichkeit P sendet und/oder einen Zeitschlitz mit der Wahrscheinlichkeit 1-P verzögert, sobald das Medium im Leerlauf ist. Zur Veranschaulichung: Das Ranging-System kann auf ähnliche Weise konfiguriert werden wie p-persistentes CSMA (auch als p-persistentes- CSMA-Schema bezeichnet), z.B. kann es Aspekte des 1-persistenten- CSMA und des nicht-persistenten- CSMA kombinieren.
  • Das Ranging-System kann so konfiguriert werden, dass es ein Wahrscheinlichkeitsergebnis X (z.B. eine Zufallszahl) bestimmt (z.B. erzeugt oder auswählt). Das Ranging-System kann so konfiguriert werden, dass es das Wahrscheinlichkeitsergebnis X mit der Wahrscheinlichkeit P vergleicht. Das Ranging-System kann so konfiguriert werden, dass es sendet, wenn das Wahrscheinlichkeitsergebnis gleich oder kleiner als die Wahrscheinlichkeit ist (X<=P). Das Ranging-System kann so konfiguriert werden, dass es nicht sendet (z.B. um zu warten, z.B. auf ein Zeitfenster), wenn das Ergebnis der Wahrscheinlichkeit größer als die Wahrscheinlichkeit ist (X>P). Bei jedem Zyklus kann ein neues Wahrscheinlichkeitsergebnis bestimmt werden (z.B. für jede Entscheidung).
  • In verschiedenen Ausführungsformen kann das Ranging-System konfiguriert werden (Schritt 1), um festzustellen, ob das Medium besetzt ist. Das Ranging-System kann so konfiguriert werden, dass es das Abhören solange fortsetzt, bis das Medium im Leerlauf ist. Das Ranging-System kann so konfiguriert werden (Schritt 2), dass es einen Zeitschlitz wartet, falls das Medium im Leerlauf ist (z.B. um die Übertragung für die Dauer eines Zeitschlitzes zu verzögern). Das Ranging-System kann so konfiguriert werden (Schritt 3a), dass es feststellt, ob das Medium nach Ablauf des Zeitschlitzes immer noch im Leerlauf ist (z.B. um festzustellen, ob das Medium wieder belegt ist). Für den Fall, dass das Ranging-System feststellt, dass das Medium (noch) unbeschäftigt ist, kann das Ranging-System so konfiguriert werden (Schritt 3b), dass es mit der Wahrscheinlichkeit P überträgt (z.B. ein LIDAR-Signal aussendet, das z.B. ein Ranging-Signal und/oder ein Kommunikationssignal enthält) und/oder mit der Wahrscheinlichkeit 1-P einen Zeitschlitz verzögert (z.B. wartet). Für den Fall, dass die Übertragung (erneut) verzögert wird, kann das Ranging-System so konfiguriert werden, dass es die Bestimmung der Verfügbarkeit des Mediums und die Übertragung mit der Wahrscheinlichkeit P und/oder das Warten mit der Wahrscheinlichkeit 1P wiederholt, beispielhaft kann das Ranging-System so konfiguriert werden, dass es die Schritte 3a und 3b wiederholt. Dies kann als erzwungenes System mit anhaltender Wartezeit bezeichnet werden.
  • Eine erzwungene Wartezeit (zur Veranschaulichung: eine erzwungene Wartezeit für mindestens ein Zeitfenster) kann z.B. durch eine Änderung des Wahrscheinlichkeitsergebnisses vorgesehen werden. Zur Veranschaulichung: Nachdem das Medium untätig geworden ist, kann das Wahrscheinlichkeitsergebnis X so konfiguriert werden, dass das Warten erzwungen werden kann. Als Beispiel kann X vorbelegt und größer als P sein (z.B. X kann gleich 2 sein).
  • Das Zeitfenster (zur Veranschaulichung: die Mindestwartezeit) kann je nach einer oder mehreren Eigenschaften des Reichweitensystems bestimmt oder ausgewählt werden. Beispielsweise kann das Zeitfenster in Übereinstimmung mit der Zeit gewählt werden, die das LIDAR-Signal benötigt, um sich zu einem Objekt und wieder zurück auszubreiten (illustrativ, in Übereinstimmung mit einer maximalen Flugzeit des Entfernungsmesssystems). Es kann eine maximale Zeit tdmax bestimmt werden, die das LIDAR-Signal benötigt, um einen maximalen Erfassungsbereich dmax (z.B. kann ein Objekt in einer Entfernung dmax erfasst werden) des Ranging-Systems auszubreiten. Die Zeit tdmax kann die Zeit sein, die das LIDAR-Signal benötigt, um die Entfernung dmax zu durchlaufen (zur Veranschaulichung: tmax=dmax/v, wobei v die Geschwindigkeit des LIDAR-Signals ist). Ein Zeitschlitz für das Ranging-Medium-Zugriffsschema kann in einem Bereich von etwa 2*tdmax bis etwa 4*tdmax definiert oder ausgewählt werden. Ein längerer Zeitschlitz (z.B. größer als 2*tdmax) kann vorgesehen oder ausgewählt werden (z.B. dynamisch), z.B. für den Fall, dass Datenkommunikation oder Signalisierung im LIDAR-Signal implementiert sind.
  • Die Wahrscheinlichkeit P kann in Abhängigkeit vom Ausmaß der mittleren Auslastung bestimmt (z.B. ausgewählt) werden. Beispielsweise können bei reichweitenstarken Systemen (z.B. LIDAR-Systemen) nicht viele Teilnehmer das Medium gleichzeitig nutzen, und die Auslastung kann im Vergleich zu konventionellen Kommunikationssystemen eher gering sein (wobei P, z.B. bei persistenter CSMA, so gewählt werden kann, dass es gleich 0,1 ist, da die Auslastung des Mediums hoch sein kann). Dies kann mit dem sehr gerichteten oder begrenzten Emissionsfeld (FOE) und Sichtfeld (FOV) eines Entfernungsmesssystems und mit dem Einsatz in sich schnell bewegenden Umgebungen (z.B. wie bei LIDAR-Sensoren in Kraftfahrzeugen) zusammenhängen. Im Ranging-Medium-Zugangsschema kann P so gewählt werden, dass es im Bereich 1<=P<=0,1 (gleich oder kleiner als 1 und gleich oder größer als 0,1) liegt. Der Wert 1 kann einbezogen werden, um eine sofortige Übertragung nach Ablauf der Wartezeit zu ermöglichen.
  • In verschiedenen Ausführungsformen kann das Ranging-System so konfiguriert werden, dass das Ranging-Medium-Zugriffsschema implementiert wird (z.B. um ein Verfahren entsprechend dem Ranging-System einzuleiten), bevor das LIDAR-Signal ausgesendet werden soll (z.B. bevor die Aussendung des LIDAR-Signals tatsächlich fällig wäre). Beispielsweise kann das Ranging-System so konfiguriert werden, dass es das Ranging-Medium-Zugriffsschema ein Zeitschlitz vor einem gewünschten oder beabsichtigten Sendezeitpunkt einleitet (z.B. vor einem angestrebten Zeitpunkt, zu dem das LIDAR-Signal ausgesendet werden soll). Diese Implementierung kann einen Ausgleich für die mit dem Ranging-Medium-Zugriffsschema verbundene Wartezeit bieten. Die vorherige Initiierung des Ranging-Medium-Access-Schemas kann mit der Korrelation des Übersprechens zwischen nachfolgend abgetasteten und gemessenen Pixeln zusammenhängen. Wenn bei der Messung eines bestimmten Pixels Übersprechen festgestellt wird, kann die Messung eines nachfolgend gemessenen Pixels ebenfalls durch Übersprechen beeinträchtigt werden. Dies kann z.B. in einem Ranging-System auftreten, in dem der Detektor das Licht von einem größeren Teil des Sichtfeldes sammelt (z.B. in dem der Detektor einen Teil des Sichtfeldes abdeckt, der mehrere Pixel im Emissionsfeld enthält). Die vorherige Initiierung des Ranging-Medium-Zugangsschemas kann auch mit der Emission von Einzelbildern verbunden sein, die bei Ranging-Anwendungen gleich oder ähnlich zueinander sein können.
  • Es können ein oder mehrere zusätzliche Aspekte des Ranging-Medium-Access-Schemas vorgesehen werden, die den Aspekten im Zusammenhang mit der digitalen Kommunikation ähnlich sein können, z.B. wie sie im IEEE 802.11 DCF-Protokoll beschrieben sind, das in der digitalen Kommunikation verwendet wird, die CSMA/CA für die Ausstrahlung implementiert (z.B. ohne Feedback-Mechanismen unter Verwendung von Bestätigung (ACK)).
  • In verschiedenen Ausführungsformen kann die Regelung für den weitreichenden mittleren Zugang auch eine Backoff-Regelung umfassen. Das Ranging-Medium-Zugriffsschema kann so konfiguriert werden, dass Teilnehmer (z.B. Ranging-Systeme), die seit längerer Zeit auf den Zugriff auf das Medium warten (oder gewartet haben), eine höhere Wahrscheinlichkeit haben, auf das Medium zuzugreifen (z.B. in Bezug auf andere Teilnehmer). Veranschaulichend kann das Reichweitenmedium-Zugangsschema so konfiguriert werden, dass Fairness unter den Teilnehmern gewährleistet werden kann (veranschaulichend durch Berücksichtigung der zuvor aufgewendeten Wartezeit). Ein sogenannter Backoff-Algorithmus kann bereitgestellt werden. Ein Backoff-Algorithmus kann als ein Kollisionsauflösungsmechanismus zur Berechnung oder Berücksichtigung der Wartezeit beschrieben werden, auf die ein Teilnehmer wartet, bevor er die Daten übermittelt. Eine Implementierung nach dem Backoff-Algorithmus kann Signalkollisionen reduzieren oder minimieren.
  • Ein Ranging-System mit einem zu übertragenden Rahmen (z.B. ein LIDAR-Signal) kann so konfiguriert werden, dass es das Medium erfasst. Das Ranging-System kann so konfiguriert werden, dass es auf eine Zeit wartet, die einer vordefinierten Verzögerung entspricht (auch als Interframe Space, IFS, bezeichnet), falls das Medium im Leerlauf ist. Das Ranging-System kann so konfiguriert werden, dass es feststellt, ob das Medium während dieser vordefinierten Verzögerung im Leerlauf bleibt (z.B. um festzustellen, ob das Medium nach Ablauf des IFS im Leerlauf ist). Das Ranging-System kann so konfiguriert werden, dass es sofort nach Ablauf des IFS (mit anderen Worten: bestanden) sendet, falls das Medium (noch) nicht in Betrieb ist. Das Ranging-System kann so konfiguriert werden, dass es die Übertragung aufschiebt (mit anderen Worten: verschiebt), wenn das Medium besetzt ist (entweder anfangs besetzt oder während des IFS besetzt wird). Das Ranging-System kann so konfiguriert werden, dass es das Medium weiter überwacht, bis die aktuelle Übertragung (z.B. die Übertragung, die das Medium gerade belegt) beendet ist. Das Ranging-System kann so konfiguriert werden, dass es ein weiteres IFS verzögert (z.B. um auf ein weiteres IFS zu warten), sobald die aktuelle Übertragung beendet ist. Das Ranging-System kann so konfiguriert werden, dass es eine zufällige Zeitspanne zurückzieht, falls das Medium während des IFS untätig bleibt (z.B. falls das Medium nach Ablauf des IFS immer noch untätig ist). Zur Veranschaulichung: Das Ranging-System kann so konfiguriert werden, dass die Übertragung um eine zusätzliche Zeitspanne verschoben wird (auch als Backoff-Zeit bezeichnet). Das Ranging-System kann so konfiguriert werden, dass es das Medium nach Ablauf der Backoff-Zeit erfasst. Das Ranging-System kann so konfiguriert werden, dass es sendet, wenn das Medium im Leerlauf ist. Das Ranging-System kann mit einem Backoff-Timer ausgestattet sein, der so konfiguriert ist, dass er die Backoff-Zeit verfolgt (z.B. zur Überwachung des Ablaufs der Backoff-Zeit). Der Backoff-Timer kann angehalten werden, falls das Medium während der Backoff-Zeit beschäftigt wird. Der Backoff-Timer kann wiederaufgenommen werden, falls oder sobald das Medium im Leerlauf ist. Das Reichweitenmesssystem kann so konfiguriert werden, dass das Reichweitenmesssystem einen IFS vor dem angestrebten Emissionszeitpunkt mit dem Zugriff auf das Medium beginnt. Ein solcher Betrieb kann dem Betrieb einer Station nach dem IEEE 802.11 DCF-Protokoll ähneln, in dem die verteilte Koordinierungsfunktion (DCF) eine Reihe von Verzögerungen aufweisen kann, die einem Prioritätsschema entsprechen.
  • Die Backoff-Zeit kann in Übereinstimmung mit einem Konkurrenzfenster bestimmt (z.B. berechnet) werden. Das Konkurrenzfenster kann als eine Reihe von ganzen Zahlen beschrieben werden. Die Länge der Serie kann variiert werden. Die Backoff-Zeit kann eine Anzahl von Zeitschlitzen umfassen, die entsprechend einer (z.B. zufällig) aus dem Konkurrenzfenster ausgewählten Zahl bestimmt wird (zur Veranschaulichung: die Backoff-Zeit kann N Zeitschlitze umfassen, wobei N eine aus dem Konkurrenzfenster ausgewählte Zahl ist).
  • In verschiedenen Ausführungsformen kann das RangingMedium-Zugriffsschema so konfiguriert werden, dass es an unterschiedliche Lastbedingungen auf dem Medium angepasst werden kann. Zur Veranschaulichung: Das Reichweitenmedium-Zugriffsschema kann so konfiguriert werden, dass es unter verschiedenen Lastbedingungen auf dem Medium effizient und stabil bleibt. Als Beispiel kann die Größe des Konkurrenzfensters angepasst werden (z.B. kann die Backoff-Zeit angepasst werden). Falls das Konkurrenzfenster sehr kurz gewählt wird, können die zufälligen Wartezeiten mehrerer Teilnehmer nahe beieinander liegen (z.B. können verschiedene Reichweiten-Systeme die gleiche Anzahl aus dem Konkurrenzfenster auswählen). Dies kann zu einer erhöhten Anzahl von Signalkollisionen führen. Wenn das Contention Window lang gewählt wird, können die Verzögerungen durch das Warten zunehmen (z.B. können sie zu lang sein). Daher kann ein Ranging-System so konfiguriert werden, dass es die Größe des Contention-Fensters in adaptiver Weise verändert.
  • Das Schema für den reichweitenstarken mittleren Zugang kann eine oder mehrere vordefinierte Contention-Fenstergrößen umfassen. Beispielsweise kann das Schema für den Bereich der mittleren Zugangsmöglichkeiten die Wettbewerbsfenstergrößen 3, 7, 15, 31, 63, 127 und 255 umfassen (zur Veranschaulichung: annähernde Verdoppelung der Größe in jedem Schritt in exponentieller Weise, z.B. 22-1, 23-1, 24-1, 25-1, usw.). Der Wert 255 kann ein Maximalwert sein (z.B. ein maximal zulässiger Wert). Das Konkurrenzfenster kann eine Reihe von ganzzahligen Zahlen im Bereich von 0 bis zur Konkurrenzfenstergröße 1 enthalten. Das Ranging-System kann so konfiguriert werden, dass es eine erste Größe des Sammelfensters (z.B. der Länge 3) auswählt, wie dies bei der Initiierung des Ranging-Medium-Zugriffsschemas illustrativ ist. Das Ranging-System kann so konfiguriert werden, dass es eine zweite Fenstergröße (z.B. größer, z.B. den nächsthöheren Wert zur ersten Fenstergröße, z.B. 7) wählt, falls der Medienzugriff fehlschlägt. Illustrativ kann ein solcher Betrieb dem Betrieb einer Station nach einem binären exponentiellen Backoff ähnlich sein, wie er im IEEE 802.11 DCF-Protokoll beschrieben wird, in dem die Contention-Fenstergrößen 7, 15, 31, 63, 127 und 255 beschrieben sind. Eine kleinere Fenstergröße (z.B. 3) kann für ein Ranging-System in Bezug auf die digitale Kommunikation angesichts der zu erwartenden geringeren Belegung des Mediums implementiert werden.
  • In verschiedenen Ausführungsformen kann das Reichweitenmedium-Zugriffsschema für die Priorisierung von Daten konfiguriert werden. Veranschaulichend kann das Ranging-Medium-Zugriffsschema eine Priorisierung (oder Depriorisierung) eines oder mehrerer Typen von ausgesendeten Signalen oder Informationen (z.B. Ranging, Daten und Signalisierungsinformationen) ermöglichen, indem die jeweiligen Verzögerungen entsprechend angepasst werden (veranschaulichend durch Variation der Länge des IFS je nach Art der zu übertragenden Daten). Das Ranging-Medium-Zugangsschema kann einen ersten Interframe-Abstand, z.B. einen kurzen Interframe-Abstand (SIFS), beinhalten. Der SIFS kann für alle sofortigen oder hochprioritären Reaktionsaktionen verwendet oder mit diesen verbunden werden, wie z.B. Warnmeldungen in einer Datenkommunikations- oder Signalisierungseinstellung. Das Schema für den reichweitenstarken mittleren Zugriff kann einen zweiten Interframe-Spacing, z.B. einen Distributed Coordination Interframe Spacing (DIFS), umfassen. Der DIFS kann für den normalen Prioritätskampf um den Zugang verwendet oder mit diesem verbunden werden, z.B. für Standard-Ranging Information oder für die Verbreitung von Telemetriedaten niedriger Priorität. Die SIFS- und/oder DIFS-Werte können als Wartezeit gewählt werden (z.B. als IFS), je nach der Art der vom Ranging-System auszuführenden Operation (z.B. die Art der zu übertragenden Daten oder des zu übertragenden Rahmens). Das SIFS kann kürzer als das DIFS sein. Das SIFS kann gleich oder proportional zum Zeitschlitz sein, z.B. SIFS = 1*Zeitschlitz. Der DIFS kann gleich oder proportional zum Zeitschlitz sein, z.B. DIFS = 2*Zeitschlitz. Im IEEE-802.11-DCF-Protokoll kann ein Prioritätsschema bereitgestellt werden, um einen prioritätsbasierten Zugriff zu implementieren, indem verschiedene Werte (z. B. drei) für den Inter-Frame-Abstand (IFS) verwendet werden.
  • Ein konventionelles Ranging-System kann nur begrenzte Möglichkeiten haben, die Gültigkeit der Messungen auf Permeationsmessbasis zu bestimmen (illustrativ, ohne Berücksichtigung benachbarter Pixel und/oder ohne Berücksichtigung zeitlicher Abhängigkeiten zwischen den Pixeln). In einem konventionellen Ranging-System gibt es möglicherweise keine dedizierten Mittel für eine Überprüfung der Signalkonsistenz.
  • In verschiedenen Ausführungsformen kann ein rahmenbasiertes Signalisierungsschema für ein Reichweitensystem bereitgestellt werden. Das von einem Entfernungsmesssystem ausgestrahlte LIDAR-Signal (z.B. das Lichtsignal) kann als Rahmen konfiguriert oder strukturiert sein. Zur Veranschaulichung: Das LIDARSignal kann einen oder mehrere Abschnitte (z.B. Rahmenabschnitte) aufweisen, und jeder Abschnitt kann mit einem Inhaltstyp verbunden sein (z.B. kann jeder Abschnitt einen bestimmten Informationstyp tragen). Das rahmenbasierte Signalisierungsschema kann eine vordefinierte Rahmenstruktur aufweisen (z.B. angepasst, um harmonisiert und/oder standardisiert zu werden). Ein oder mehrere Kodierungsschemata (auch als Modulationsschemata oder Kodierungsschemata bezeichnet) können bereitgestellt werden, um einen Rahmen aufzubauen (z.B. um einen Rahmen zu generieren).
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 138 bis 144, kann der Begriff „Rahmen“ verwendet werden, um eine logische Struktur eines Signals zu beschreiben (z.B. ein elektrisches Signal oder ein LIDAR-Signal, wie z.B. ein Lichtsignal). Illustrativ kann der Begriff „Rahmen“ eine Anordnung (z.B. eine Struktur) für den Inhalt des Rahmens (z.B. für das Signal oder die Signalkomponenten) beschreiben oder definieren. Die Anordnung des Inhalts innerhalb des Rahmens kann konfiguriert werden, um Daten oder Informationen bereitzustellen. Ein Rahmen kann eine Folge von Symbolen oder Symboldarstellungen aufweisen. Ein Symbol oder eine Symboldarstellung kann je nach seiner Position innerhalb des Rahmens eine unterschiedliche Bedeutung haben (z.B. kann es verschiedene Arten von Daten repräsentieren). Ein Rahmen kann eine vordefinierte Zeitdauer haben. Zur Veranschaulichung: Ein Rahmen kann ein Zeitfenster definieren, innerhalb dessen ein Signal eine vordefinierte Bedeutung haben kann. Beispielsweise kann ein Lichtsignal, das so konfiguriert ist, dass es eine Rahmenstruktur hat, eine Folge von Lichtimpulsen aufweisen, die Daten oder Informationen repräsentieren (oder tragen). Ein Rahmen kann durch einen Code (z.B. einen Signalmodulationscode) definiert werden, der die Anordnung der Symbole innerhalb des Rahmens definieren kann. Ein in einem Rahmen oder in einem Rahmenabschnitt enthaltenes Symbol kann durch eine Signaldarstellung dieses Symbols dargestellt werden. Eine Signaldarstellung eines Symbols kann z.B. ein analoges Signal (z.B. ein Strom oder eine Spannung) sein, auf das dieses Symbol abgebildet wird. Eine Signaldarstellung eines Symbols kann z.B. ein Zeitbereichssignal (z.B. ein Impuls, wie z.B. ein Lichtimpuls) sein, auf das dieses Symbol abgebildet wird. Veranschaulichend kann ein Rahmen als eine Folge von einem oder mehreren Symbolen (z.B. „0“ und „1“) verstanden werden, die als eine Folge von einer oder mehreren Signaldarstellungen dieser Symbole (z.B. ein oder mehrere Ströme oder Stromstärken, ein oder mehrere Impulse usw.) dargestellt oder gespeichert werden.
  • Die Symbole können aus einem vordefinierten Alphabet gezogen werden (z.B. aus einem binären Alphabet mit Symbolen in {0; 1}, aus einem ternären Alphabet oder aus einem Alphabet höherer Ordnung). Illustrativ kann ein Symbol ein oder mehrere Bits darstellen. Ein in einem Rahmen oder in einem Rahmenabschnitt enthaltenes Symbol kann durch eine Signaldarstellung dieses Symbols dargestellt werden. Eine Signaldarstellung eines Symbols kann z.B. ein analoges Signal (z.B. ein Strom oder eine Spannung) sein, auf das dieses Symbol abgebildet wird. Eine Signaldarstellung eines Symbols kann z.B. ein Zeitbereichssignal (z.B. ein Lichtimpuls, im folgenden auch als Puls bezeichnet) sein, auf das dieses Symbol abgebildet wird. Ein und derselbe Rahmen kann auf unterschiedliche Weise implementiert werden. Zum Beispiel kann ein und derselbe Rahmen als ein oder mehrere elektrische Signale gespeichert und als ein oder mehrere Lichtimpulse ausgesendet oder übertragen werden. Ein Rahmen kann eine Länge haben, z.B. N (N kann z.B. die Anzahl der im Rahmen enthaltenen Symbole beschreiben). Die Länge eines Rahmens kann vordefiniert (z.B. fest) oder variabel sein. Zum Beispiel kann die Länge eines Rahmens variabel sein, mit (oder zwischen) einer minimalen und einer maximalen Länge.
  • Ein Zeitbereichssymbol kann eine Symboldauer TS haben. Jedes Zeitbereichssymbol kann die gleiche Symboldauer TS haben, oder Zeitbereichssymbole, die verschiedenen Symbolen zugeordnet sind, können unterschiedliche Symboldauern TS1, TS2,..., TSn haben. Zeitbereichssymbole, die unterschiedlichen Symbolen zugeordnet sind, können unterschiedliche Symbolamplituden (und gleiche oder unterschiedliche Symboldauern) haben, oder Zeitbereichssymbole, die unterschiedlichen Symbolen zugeordnet sind, können die gleiche Symbolamplitude (und unterschiedliche Symboldauern) haben. Wenn beispielsweise ein binäres Alphabet (z.B. ein unipolares binäres Alphabet) verwendet wird, kann das Symbol „1“ auf einen Gaußschen Impuls mit einer bestimmten Amplitude und einer bestimmten Symboldauer und das Symbol „0“ auf einen Gaußschen Impuls mit Nullamplitude und der gleichen Symboldauer abgebildet werden.
  • Das Ranging-System kann so konfiguriert werden, dass es einen oder mehrere Rahmen ausstrahlt (z.B. ein oder mehrere Lichtsignale, die als Rahmen konfiguriert oder strukturiert sind, wie z.B. eine oder mehrere Lichtimpulsfolgen). Das Ranging-System kann so konfiguriert werden, dass die Frames mit einem zeitlichen Abstand (z.B. einer Zeitverzögerung) zwischen aufeinander folgenden Frames emittiert werden. Der Zeitabstand kann aus einem Bereich zwischen einem minimalen Zeitabstand Tmin und einem maximalen Zeitabstand Tmax gewählt werden. Das eine oder mehrere Einzelbilder können gleiche oder unterschiedliche Länge und/oder Zusammensetzung haben. Das eine oder die mehreren Einzelbilder können vom gleichen Typ oder von verschiedenen Typen sein.
  • Ein Rahmen kann eine vordefinierte Struktur aufweisen. Der Rahmen kann einen oder mehrere (z.B. vordefinierte) Rahmenteile (z.B. ein oder mehrere Felder) umfassen. Jeder Teil kann mit einer vordefinierten Verwendung und/oder Funktion (z.B. Ranging, Datenkodierung und dergleichen) verbunden sein. Als Beispiel kann ein Rahmen einen einzelnen Teil enthalten (z.B. nur einen Präambelteil, nur einen Nutzlastteil usw.). Ein Teil kann eine variable Länge haben (z.B. eine blockweise variable Länge). Der eine oder mehrere Abschnitte (z.B. die Anzahl der Abschnitte und/oder die jeweilige Funktion) können je nach der beabsichtigten Anwendung des Rahmens konfiguriert (z.B. ausgewählt) werden (z.B. je nach Rahmentyp, wie z.B. Ranging-Frame, Datenrahmen oder Signalisierungs und Steuerrahmen).
  • Ein (z.B. generischer) Rahmen kann einen Präambelrahmenteil (auch Präambelfeld, Präambelteil oder Präambel genannt) aufweisen. Die Präambel kann so konfiguriert werden, dass sie Funktionen zur Signalerfassung und/oder Signalsynchronisation bietet. Zur Veranschaulichung: Der Präambel-Rahmenteil kann Erfassungssignale und/oder Bereichssignale und/oder Synchronisationssignale aufweisen.
  • Der generische Rahmen kann (optional) einen Nutzlastrahmenteil aufweisen (auch als Nutzlastfeld, Nutzlastteil, Nutzlast oder PHY-Nutzlast bezeichnet, wobei PHY für die physikalische Schicht steht). Der Nutzlast-Rahmenteil kann so konfiguriert werden, dass er verschiedene Arten von Informationen, wie z.B. Identifikationsinformationen, Daten, Signalisierungsinformationen und/oder Steuerinformationen, bereitstellt und/oder verwaltet.
  • Der generische Rahmen kann (optional) einen Header-Frame-Teil aufweisen (auch als Header-Feld, Header-Teil-Header oder PHY-Header bezeichnet). Der Header-Frame-Teil kann Steuerdaten aufweisen. Der Header kann die Flexibilität bieten, wie Daten und/oder Informationen in der Nutzlast und/oder in der Fußzeile angeordnet werden können. Der Header-Rahmenteil kann so konfiguriert werden, dass er verschiedene Arten von Informationen (z.B. über einen oder mehrere andere Rahmenteile) kodiert.
  • Beispielsweise kann der Header-Frame-Teil so konfiguriert werden, dass er Informationen über den Nutzlast-Frame-Teil kodiert, wie zum Beispiel nutzlastspezifische Parameter, Typ der Nutzlast, nutzlasttypspezifische Parameter, Protokollversion und ähnliches. Nutzlastspezifische Parameter können z.B. die Länge der Nutzlast, die Konfiguration der Nutzlast, das Kodierungsschema der Nutzlast und/oder ein zur Kodierung verwendetes Codebuch umfassen (z.B. die Anzahl der in der Nutzlast enthaltenen zusätzlichen Ranging-Sequenzen, die Anzahl der in der Nutzlast kodierten Datensymbole, das zur Kodierung von Daten verwendete Codebuch, das zur Kodierung von Signalisierungs- und Steuerinformationen verwendete Codebuch und ähnliches). Die Art der Nutzlast kann z.B. Bereichs-, Datenübertragungs-, Signalisierungs- und/oder Steuerinformationen oder andere Arten von Informationen (z.B. Verwaltungsrahmen) umfassen. Die nutzlasttypspezifischen Parameter können z.B. das verwendete Ranging-Schema, das verwendete Datenkodierungsschema (z.B. das verwendete Mapping und/oder das verwendete Codebuch) oder das verwendete Signalisierungs- und/oder Steuerschema umfassen.
  • Als weiteres Beispiel kann der Header-Frame-Abschnitt Informationen über einen Footer-Frame-Abschnitt kodieren (der weiter unten näher beschrieben wird), wie z.B. Informationen, die beschreiben, dass keine Fußzeile vorhanden ist, Informationen, die beschreiben, dass die Fußzeile mit „Dummy-Bits“ gefüllt ist, um eine bestimmte (z.B. minimale) Frame-Länge zu erreichen, Informationen, die beschreiben, dass die Fußzeile Nutzlast-Fehlererkennungsinformationen und/oder Fehlerkorrekturinformationen (z.B. einschließlich Informationen über das verwendete Fehlererkennungs- und/oder Fehlerkorrekturschema) enthält, und ähnliches. Als ein weiteres Beispiel kann der Header-Frame-Teil Informationen über die Protokollversion (z.B. die Versionsnummer) kodieren. Die Information über die Protokollversion kann zukünftige Erweiterungen ermöglichen.
  • Der generische Rahmen kann (optional) einen Fußzeilenrahmenteil aufweisen (auch als Fußzeilenfeld, Fußzeilenteil, Fußzeile oder PHY-Fußzeile bezeichnet). Die Fußzeile kann so konfiguriert werden, dass sie Frame-Konsistenzprüfungsfunktionen (z.B. Frame-Integritätstest und/oder Kollisionserkennung) bietet. Als Beispiel kann der Rahmenteil der Fußzeile Rahmenintegritätstestsignale und/oder Kollisionserkennungssignale aufweisen. Als weiteres Beispiel kann der Fußrahmenteil Symbole und/oder Symbolfolgen zur Fehlererkennung und/oder Fehlerkorrektur (z.B. Nutzlastfehlererkennung und/oder -korrektur) aufweisen. Zusätzlich oder alternativ kann der Fußrahmenteil Dummysymbole und/oder Sequenzen von Dummysymbolen (z.B. „Dummy-Bits“) aufweisen. Solche Dummysymbole und/oder -sequenzen können dazu dienen, eine bestimmte (z.B. minimale) Rahmenlänge zu erreichen.
  • Die physikalische Schicht kann das physikalische Kommunikationsmedium beschreiben (ähnlich der Datenkommunikation, wobei PHY Teil des OSl-Modells sein kann).
  • Ein (z.B. spezifischer) Rahmen kann aus der Struktur des oben beschriebenen generischen Rahmens abgeleitet werden. Illustrativ kann ein spezifischer (oder dedizierter) Rahmen einen oder mehrere Rahmenteile des generischen Rahmens umfassen (z.B. eine Präambel und/oder eine Nutzlast und/oder eine Kopf- und/oder Fußzeile). Als Beispiel kann ein Rahmen ein Ranging-Rahmen sein (z.B. für einen Ranging-Vorgang). Als weiteres Beispiel kann ein Rahmen ein Datenrahmen sein (z.B. für die Datenübertragung verwendet). Als weiteres Beispiel kann ein Rahmen ein Signalisierungs- und Steuerrahmen sein (auch als ACK-Rahmen (Short Acknowledgment) bezeichnet). Zur Veranschaulichung: Je nach Rahmentyp können ein oder mehrere Rahmenteile optional sein (z.B. weggelassen werden).
  • Beispielsweise können in einem Ranging-Rahmen die Kopfzeile und/oder die Nutzlast und/oder die Fußzeile optionale Teile sein (z.B. können eines oder mehrere solcher Felder weggelassen werden). Ein Ranging-Rahmen kann einen einzelnen Teil aufweisen (z.B. die Präambel). In einem Ranging-Rahmen kann die Präambel z.B. für Ranging verwendet werden (z.B. allein oder zusammen mit einem oder mehreren anderen Teilen oder zusammen mit einem oder mehreren anderen (z.B. nachfolgenden) Ranging-Rahmen). Durch Variation der Präambellänge können bestimmte Leistungsparameter angepasst (z.B. optimiert) werden, wie z.B. Detectionrange und Updaterate. Zur Veranschaulichung: Bei der Entfernungsmessung über große Entfernungen kann eine bestimmte Mindestpräambellänge erforderlich sein, um Messungen bei niedrigen Signal-Rausch-Verhältnissen (SNRs) zu erhalten. Die Aktualisierungsrate des Systems kann umgekehrt proportional zur Präambellänge sein. In einem Ranging-Frame können zusätzliche Ranging-Symbole und/oder Folgen von Symbolen in der Nutzlast kodiert sein. Dies kann die Ranging-Leistung (z.B. die Qualität der Detektion) verbessern.
  • Als weiteres Beispiel kann in einem Datenrahmen die Nutzlast und/oder die Fußzeile optional sein. Alternativ dazu kann ein Datenrahmen auch einen einzelnen Teil aufweisen (z.B. die Nutzlast, illustrativ kann nur die Nutzlast für die Datenübertragung verwendet werden). Der Datenrahmen einschließlich der einzelnen Nutzlast kann (optional) ein zusätzliches Feld (z.B. die Fußzeile) aufweisen. In einem Datenrahmen kann die Präambel z.B. als „Marker“ für die Zeiterfassung und Synchronisation dienen, z.B. kann die Präambel den Beginn der Datenübertragung anzeigen (z.B. den Beginn der Nutzlast und/oder der Fußzeile). In einem Datenrahmen können Datensymbole und/oder Folgen von Datensymbolen in der Nutzlast kodiert sein. Solche Datensymbole und/oder -sequenzen können verschiedene Arten von Daten kodieren, z. B. Daten für die Kommunikation, Identifizierungsinformationen (z. B. Fahrzeug-Identifizierungsnummer, Fahrzeugtyp, Fahrzeug-ID, Fahrzeugseriennummer, Eck-ID (links, rechts, vorne, hinten), Pixel-ID, Subsystem-ID und dergleichen), Sicherheitsdaten (z. B, Informationen für den Austausch von Sicherheitsschlüsseln, für die Authentifizierung, für die Zwei-Faktor-Authentifizierung und dergleichen), Telemetriedaten (z.B. GPS-Koordinaten- , Geschwindigkeit, Bremsstatus und dergleichen), eine verkehrsbezogene Warnmeldung und/oder Warnung (z.B. über ein entdecktes Hindernis), ein Übertragungstoken zur Koordinierung der Kommunikation und Informationen zur Verwaltung der Übergabe an die HF-Kommunikation.
  • Als weiteres Beispiel kann in einem Signalisierungs- und Kontrollrahmen die Nutzlast und/oder die Fußzeile optional sein. Ein Signalisierungs- und Kontrollrahmen kann einen einzelnen Teil aufweisen (z.B. die Präambel). Zur Veranschaulichung können eine oder mehrere bezeichnete Präambeln für die Signalisierung und/oder Steuerung verwendet werden (z.B. für die Aussendung einer Warnbake, eines kurzen ACK und ähnliches). In einem Signalisierungs- und Steuerrahmen kann die Präambel z.B. als „Marker“ für die Zeiterfassung und Synchronisierung dienen (z.B. kann die Präambel den Beginn der Signalisierungs- und Steuerinformation anzeigen, wie den Beginn der Nutzlast und/oder o die Fußzeile). Zusätzlich oder alternativ dazu kann in einem Signalisierungs- und Steuerrahmen die Präambel selbst als Signalisierungs- und Steuerinformation dienen, z.B. für den Fall, dass eine Warnsignalleuchte und/oder ein kurzes ACK übertragen wird. In einem Signalisierungs- und Steuerrahmen können in der Nutzlast Symbole und/oder Sequenzen von Symbolen für Signalisierungs- und Steuerzwecke kodiert sein. Solche Symbole und/oder Sequenzen können z.B. Baken, Bestätigungsmeldungen (ACK-Meldungen) und andere Arten von Informationen beschreiben oder aufweisen.
  • Ein Präambelrahmenteil kann auch für die Kanalschätzung konfiguriert werden. Ein Satz von vordefinierten Präambeln (z.B. von vordefinierten Präambelcodes) kann definiert werden. Ein Präambel-Codebuch kann zur Verfügung gestellt werden (z.B. kann das Ranging-System Zugriff auf das Präambel-Codebuch haben). Das Präambel-Codebuch kann die vordefinierten Präambeln beschreiben oder aufweisen (z.B. eine Vereinigung, eine Sammlung oder eine Liste aller vordefinierten Präambeln). Jede Präambel im Präambel-Codebuch kann zur Definition einer Anzahl „virtueller“ Kanäle verwendet werden. Ein virtueller Kanal kann einer zugehörigen Funktion zugeordnet werden (z.B. für Ruf-, Daten-, Signal- und Steuerinformationen). Der Präambelcode kann so konfiguriert werden, dass er gute Autokorrelationseigenschaften aufweist. Die Präambelcodes im Präambelcodebuch können so konfiguriert werden, dass sie gute Kreuzkorrelationseigenschaften haben. Gute Autokorrelationseigenschaften können die Timing-Auflösung und/oder die Timing-Präzision verbessern (z. B. wenn die Präambel für die Entfernungsmessung verwendet wird), und es können gute Autokorrelationseigenschaften zur Unterscheidung eines eigenen Signals von einem Fremdsignal bereitgestellt werden. Ein Teilnehmer (z.B. ein Verkehrsteilnehmer, wie z.B. ein Fahrzeug oder ein Entfernungsmesssystem eines Fahrzeugs) kann je nach gewählter Präambel auswählen, auf welchem Kanal er abonnieren möchte (z.B. auf welchem Kanal er sprechen und/oder zuhören möchte). Ein solcher kanalbasierter Ansatz kann auch für den Fall vorgesehen werden, dass spezielle Rahmen und/oder Nachrichten übermittelt werden (z.B. spezielle Rahmen für die Ausstrahlung von Benachrichtigungen oder Warnungen). Ein Präambel-Codebuch kann spezifisch für ein Reichweitensystem (oder fahrzeugspezifisch) sein. Beispielsweise können verschiedene Hersteller „nicht überlappende“ Präambel-Codebücher zur Verfügung stellen. Als weiteres Beispiel können „nicht überlappende“ Präambel-Codebücher für besondere Arten oder Klassen von Fahrzeugen (oder Verkehrsteilnehmern), wie Polizeifahrzeuge oder Einsatzfahrzeuge (z.B. ein Krankenwagen), bereitgestellt werden. Dies kann den Effekt haben, dass ein System von anderen Systemen (z.B. von anderen Herstellern) entkoppelt werden kann, wodurch die durch die Ausrüstung der anderen Hersteller verursachten Beeinträchtigungen verringert werden.
  • Im Kontext der vorliegenden Anwendung können gute Autokorrelationseigenschaften verwendet werden, um ein Signal zu beschreiben, das eine Autokorrelation unterhalb einer vordefinierten Autokorrelationsschwelle liefert, falls das Signal mit einer verschobenen (z.B. zeitverschobenen oder verzögerten, illustrativ mit einer Zeitverschiebung ungleich 0) Version von sich selbst korreliert ist. Der Autokorrelationsschwellenwert kann je nach der beabsichtigten Anwendung gewählt werden. Zum Beispiel kann der Autokorrelationsschwellenwert kleiner als 0,5 sein, z.B. kleiner als 0,1, z.B. im Wesentlichen 0. Im Kontext der vorliegenden Anwendung können gute Kreuzkorrelationseigenschaften zur Beschreibung eines Signals verwendet werden, das eine Kreuzkorrelation unterhalb eines vordefinierten Kreuzkorrelationsschwellenwerts liefert, falls das Signal mit einem anderen Signal (z.B. einem anderen Signal) kreuzkorreliert ist. Der Kreuzkorrelationsschwellenwert kann in Abhängigkeit von der beabsichtigten Anwendung gewählt werden. Zum Beispiel kann der Kreuzkorrelationsschwellenwert kleiner als 0,5 sein, z.B. kleiner als 0,1, z.B. im Wesentlichen 0. Das Signal kann z.B. ein Rahmen oder ein Rahmenteil sein.
  • In verschiedenen Ausführungsformen kann ein Kodierungsschema (auch als Kodierungsverfahren bezeichnet) zur Verfügung gestellt werden. Das Kodierungsschema kann so konfiguriert werden, dass ein Symbol (zur Veranschaulichung: ein zeitdiskretes Symbol) eines Rahmens auf ein physikalisches Zeitbereichssignal kodiert wird. Das Kodierungsschema kann ein Leitungs-Kodierungsschema oder ein Modulationsschema aufweisen oder als solches konfiguriert werden, ähnlich denen, die in der optischen Kommunikation und/oder in Impulsfunk-Schemata vorgesehen sind. Als Beispiel kann das Kodierungsschema OnOff-Keying (OOK), Puls-Amplituden-Modulation (PAM) und/oder Puls-Positions-Modulation (PPM) beinhalten. Beispielsweise kann das Kodierungsverfahren in Kombination mit einem Impulsformungsfilter die Form eines Impulses im Zeitbereich definieren (z.B. eines oder mehrerer Impulse, die mit einem Rahmen verbunden sind, z.B. mit einem oder mehreren Symbolen, die in dem Rahmen enthalten sind). Zur Veranschaulichung: Das eine oder die mehreren Modulationsschemata können in Kombination mit einem Impulsformungsfilter (z.B. Gauß-förmig) verwendet werden, um die Symbole eines Rahmens, Symbolblöcke innerhalb des Rahmens oder den gesamten Rahmen in ein Zeitbereichssignal zu kodieren.
  • In verschiedenen Ausführungsformen kann ein Frame-Konsistenzprüfungsschema zur Fehlererkennung bereitgestellt werden (z.B. kann ein Frame-Konsistenzprüfungscode in einem als Frame strukturierten LIDAR-Signal enthalten sein). Die Frame-Konsistenzprüfung kann die Überprüfung der Frame-Integrität und/oder die Identifizierung potenzieller Kollisionen ermöglichen. Illustrativ kann die Konfiguration eines LIDAR-Signals als Rahmen eine Prüfung auf Datenkonsistenz und/oder Signalkonsistenz ermöglichen.
  • Ein Rahmenkonsistenzprüfungscode kann in einem Rahmen enthalten sein (z.B. z.B. im Rahmenteil der Fußzeile, z.B. in der PHY-Fußzeile). Eine Frame-Konsistenzprüfung (Code) kann die Überprüfung der Frame-Integrität und/oder die Identifizierung potenzieller Fehler im Frame ermöglichen, z.B. aufgrund von Frame-Kollisionen (z.B. verursacht durch die Überlagerung von Signalen oder Frames verschiedener LIDAR-Systeme auf dem Medium oder durch andere Übersprecheffekte). Zusätzlich oder alternativ kann eine Frame-Konsistenzprüfung (Code) Mittel zur Überprüfung der Datenkonsistenz bereitstellen (z.B. können die übertragenen Daten durch Rauschen oder Übersprechen von anderen Systemen verfälscht werden).
  • Der Kodierungsprozess kann so konfiguriert werden, dass ein Rahmen auf redundante Weise kodiert wird. Die Redundanz kann es dem Empfänger (z.B. einer Empfängerseite des Ranging-Systems, auch als Decoderseite bezeichnet) ermöglichen, eine begrenzte Anzahl von Fehlern zu erkennen, die überall in der Nachricht auftreten können. Zusätzlich kann die Redundanz es dem Empfänger ermöglichen, einen oder mehrere Fehler zu korrigieren. Veranschaulichend kann dies den in Kommunikationssystemen verwendeten Fehlererkennungscodes ähnlich sein, wie z.B. CRC-Codes (Cyclic Redundancy Check) und FEC-Codes (Forward Error Correction).
  • Das Ranging-System kann so konfiguriert werden, dass es den Frame-Konsistenzprüfungscode zum Frame hinzufügt. Beispielsweise kann das Ranging-System eine Frame-Konsistenz-Prüfcode-Erzeugungsstufe aufweisen (z.B. auf der Encoder-Seite, auch als Emitter-Seite bezeichnet). Die Phase der Codegenerierung für die Frame-Konsistenzprüfung kann so konfiguriert werden, dass ein Frame als Eingabe empfangen wird (z.B. ein ganzer Frame, z.B. mit einer Präambel, einem Header und einer Nutzlast). Bei der Eingabe kann es sich z.B. um digitale Daten oder einen Bitstrom handeln (zur Veranschaulichung: Darstellung der zu kodierenden Daten, z.B. Beschreibung der Präambel und/oder des Headers und/oder der Nutzlast oder Komponenten davon). Als weiteres Beispiel kann die Eingabe eine Folge von Datensymbolblöcken sein (z.B. Blöcke, die den gesamten Rahmen oder Teile des Rahmens repräsentieren). Als weiteres Beispiel kann die Eingabe selbst aus Impulsfolgen bestehen, die für eine spätere Emission erzeugt werden können. Die Phase der Generierung des Frame-Konsistenzprüfungscodes kann so konfiguriert werden, dass der Frame-Konsistenzprüfungscode dem empfangenen Frame hinzugefügt wird.
  • Zur Veranschaulichung: Das Ranging-System kann einen Frame-Datenpuffer aufweisen. Der Rahmendatenpuffer kann (z.B. kann er so konfiguriert werden, dass er Eingangsdaten (z.B. einen Bitstrom) empfängt), die die Rahmenstruktur, illustrativ als Datenblock, beschreiben. Der Inhalt des Rahmendatenpuffers kann auf die Symbole (oder Symbolblöcke) abgebildet werden, aus denen der Rahmen besteht (z.B. mit Ausnahme des Fußrahmenteils, z.B. der PHY-Fußzeile). Diese Operation kann z.B. von einem Signalgenerator des Ranging-Systems durchgeführt werden (z.B. wie z.B. in Bezug auf 131A bis 137 beschrieben). Zusätzlich kann der Rahmendatenpuffer so konfiguriert werden, dass er den Inhalt des Datenblocks als Eingabe für einen Rahmenkonsistenz-Prüfcode-Generator bereitstellt. Die Ausgabe des Rahmenkonsistenz-Prüfcode-Generators kann auf die Symbole (oder Symbolblöcke) des Fußrahmenteils des Rahmens abgebildet werden. Der endgültige Rahmen kann beide Komponenten zusammen aufweisen, illustrativ, den Rahmen ohne Fußzeilenrahmenteil und den Fußzeilenrahmenteil. Das Ranging-System kann so konfiguriert werden, dass es den endgültigen Rahmen (z.B. die Rahmenblöcke) auf eine Impulsfolge oder Impulsfolgeblöcke abbildet (wie z.B. in Bezug auf 131A bis 137 beschrieben).
  • Bei dem Code für die Rahmenkonsistenzprüfung kann es sich um einen Blockcode handeln, der Fehler erkennt und korrigiert, z. B. einen Reed-Solomon-Code, Hamming-Code, Hadamard-Code, Expander-Code, Golay-Code und ReedMuller-Code.
  • In einem konventionellen Reichweitenmesssystem kann kein wirksames Mittel zur Fehlerkontrolle bereitgestellt oder implementiert werden.
  • In verschiedenen Ausführungsformen kann ein Feedback-Mechanismus (auch als Fehlerkontrollmechanismus oder Fehlerprotokoll bezeichnet) für ein Ranging-System vorgesehen sein. Der Rückkopplungsmechanismus kann auf harmonisierten Signalen basieren (z.B. für Datenkommunikation und/oder Signalisierung). Der Feedback-Mechanismus kann die Implementierung einer Fehlerkontrolle ermöglichen. Die Fehlerkontrolle kann die Zuverlässigkeit eines Ranging-Betriebs erhöhen, z.B. für den Fall, dass die Datenkommunikation auf den Ranging-Betrieb aufgesetzt wird. Zusätzlich oder alternativ kann eine harmonisierte MAC-Rahmenstruktur (Medium Access Control) für ein LIDAR-Signal vorgesehen werden. Diese harmonisierte MAC-Rahmenstruktur kann die Implementierung einer Fehlerkontrolle erleichtern.
  • Das Fehlerkontrollprotokoll kann für eine zuverlässige Übertragung sorgen (z.B. für Datenkommunikation und/oder Signalisierung). Zur Veranschaulichung: Das Fehlerkontrollprotokoll kann zur Erhöhung der Zuverlässigkeit der Datenkommunikation und/oder des Austauschs von Signalisierungsinformationen bereitgestellt werden.
  • Der Fehlerkontrollmechanismus kann die erneute Übertragung von Frames vorsehen, die nicht bestätigt wurden oder für die die andere Seite eine erneute Übertragung verlangt. Der Fehlerkontrollmechanismus kann z.B. für den Fall vorgesehen werden, dass die Erkennung eines Fehlers nicht ausreicht, z.B. bei der Übertragung von Informationen, wie Daten oder Signalisierungs- und Kontrollinformationen.
  • Beispielsweise kann der Fehlerkontrollmechanismus eine Fehlererkennung beinhalten. Als weiteres Beispiel kann der Fehlerkontrollmechanismus auch Unicast umfassen, das eine Quittierung erfordert. Der Fehlerkontrollmechanismus kann eine positive Quittierung (ACK) umfassen. Zur Veranschaulichung: Das Ziel (z.B. ein empfangendes Ranging-System) kann so konfiguriert werden, dass es eine positive Bestätigung in Bezug auf erfolgreich empfangene Frames (z.B. fehlerfreie Frames) zurückgibt. Als weiteres Beispiel kann der Fehlerkontrollmechanismus eine erneute Übertragung nach einer Zeitüberschreitung beinhalten. Zur Veranschaulichung: Die Quelle (z.B. das sendende Ranging-System) kann so konfiguriert werden, dass sie einen nicht bestätigten Frame (z.B. nach einer vordefinierten Zeitspanne) erneut sendet. Als weiteres Beispiel kann der Fehlerkontrollmechanismus eine negative Quittierung und erneute Übertragung umfassen. Zur Veranschaulichung: Das Ziel kann so konfiguriert werden, dass es in Bezug auf Rahmen, in denen ein Fehler erkannt wurde, eine negative Bestätigung zurücksendet (z.B. sendet). Die Quelle kann so konfiguriert werden, dass sie solche Rahmen erneut überträgt. Diese Mechanismen können eine unzuverlässige Verbindung in eine zuverlässige umwandeln. Zur Veranschaulichung: Das Reichweitenmedium-Zugriffsschema kann ein Protokoll ähnlich der Standardversion des IEEE 802.11 DCF-Protokolls aufweisen oder entsprechend konfiguriert sein.
  • Der (die) Fehlerkontrollmechanismus(e) kann (können) z. B. durch Codierung der relevanten MAC-Informationen (Medium Access Control) in einen Rahmen (z. B. in ein LIDAR-Signal) implementiert werden. Zur Veranschaulichung: Die ACK kann Teil einiger MAC-Protokolle sein, die für die Koordination des Medienzugriffs von Bedeutung sind, z.B. wie sie im IEEE 802.11 DCF MAC oder in den IEEE 802.11p-Protokollen verwendet werden.
  • Die MAC-Informationen können auf jede geeignete Weise in einen Rahmen eingefügt werden. Beispielsweise kann ein MAC-Frame in den Nutzlast-Frame-Teil (z.B. in die PHY-Nutzlast) eines Frames eingeschlossen werden (z.B. ähnlich wie in Kommunikationssystemen nach dem OSI-Modell). Der MAC-Frame kann einen Header-Frame-Abschnitt (z.B. einen MAC-Header) und/oder einen Nutzlast-Frame-Abschnitt (z.B. eine MAC-Nutzlast) und/oder einen Footer-Frame-Abschnitt (z.B. eine MAC-Footer) aufweisen, wobei einige dieser Abschnitte optional sein können. Relevante Informationen für die Fehlerkontrolle können in einer solchen MAC-Rahmenstruktur kodiert sein.
  • Der MAC-Header kann verschiedene Arten von Informationen aufweisen, die sich auf den MAC-Rahmen beziehen (z.B. kann er Datensignale aufweisen, die den MAC-Rahmen beschreiben). Die Informationen können z.B. Zieladresse, Quelladresse, Stream-ID, Sequenznummer, Typ und Konfiguration des MAC-Rahmens (Rahmentyp, Nutzlastkonfiguration, wie Länge und/oder Protokollversion) umfassen. Der MAC-Header kann eine feste Länge haben.
  • Die MAC-Nutzlast kann verschiedene Arten von Informationen aufweisen, die sich auf einzelne Frame-Typen beziehen (z.B. kann sie Datensignale aufweisen, die einzelne Frame-Typen beschreiben). Die MAC-Nutzlast kann eine feste Länge haben.
  • Die MAC-Fußzeile kann Integritätsprüfungsdatensignale (oder -codes) aufweisen. Die MAC-Fußzeile kann für die Integritätsprüfung des MAC-Headers und/oder der MAC-Nutzlast konfiguriert werden. Die MAC-Fußzeile kann eine feste Länge haben.
  • Zur Veranschaulichung: Das Zugangsschema für das Reichweitenmedium kann MAC-Protokolle umfassen, die denen ähnlich sind, die im IEEE 802.1 1p-Standard für Dedicated Short Range Communication (DSRC) definiert sind. Solche MAC-Protokolle können sowohl für die Fahrzeug-zu-Fahrzeug-Kommunikation (V2V) als auch für die Fahrzeug-zu-Infrastruktur-Kommunikation (V2l) bereitgestellt werden. Zur Veranschaulichung: Im Reichweitenmedium-Zugriffsschema kann eine MAC-Schicht für den Austausch von Daten und Signalisierungsinformationen vorgesehen werden. Über der MAC-Schicht kann eine Netzwerkschicht vorgesehen werden. Die Netzwerkschicht kann für die Realisierung anspruchsvoller Kommunikationssysteme vorgesehen werden.
  • In verschiedenen Ausführungsformen kann das Ranging-Medium-Access-Schema eine Kollisionserkennung (CD) beinhalten, z.B. einen Kollisionserkennungsmechanismus. Unter Kollisionserkennung kann die Fähigkeit des Systems (z.B. des Ranging Systems) verstanden werden, während der Übertragung auf das Medium zu hören (illustrativ, nicht nur vor der Übertragung). Die Fähigkeiten der Kollisionserkennung können zu jeder Konfiguration des hier beschriebenen Zugriffsschemas für das Reichweitenmedium hinzugefügt werden (z.B. die beschriebenen Persistenzschemata, das Schema mit ACK usw.).
  • Ein Ranging-System kann einen emittierenden/übertragenden Teil des elektrischen und optischen Frontends (z.B. eine Emitterseite) umfassen. Das Ranging-System kann einen detektierenden/empfangenden Teil des elektrischen und optischen Frontends umfassen (z.B. eine Detektorseite). Der Sende-/Empfangsteil kann vom Detektor-/Empfangsteil entkoppelt (illustrativ, unabhängig) sein. Die Entkopplung kann die Implementierung einer Kollisionserkennung im Ranging-System ermöglichen. Veranschaulichend kann die Beeinträchtigung des Übersprechens vom Sender zum Detektor vernachlässigt werden. In der HF-basierten drahtlosen Kommunikation hingegen kann der Dynamikbereich der Signale auf dem Medium sehr groß sein, so dass ein sendender Teilnehmer möglicherweise eingehende schwache Signale nicht effektiv von Rauschen und Übersprechen unterscheiden kann, die durch seine eigene Übertragung verursacht werden. Daher kann die Kollisionserkennung bei herkömmlichen drahtlosen Netzwerken unpraktisch sein.
  • Das Ranging-System kann so konfiguriert werden, dass das Medium während der Übertragung weiterhin abgehört wird. Das Ranging-System kann so konfiguriert werden, dass es die Übertragung beendet, falls (z.B. sobald) das Ranging-System eine Kollision feststellt (z.B. kann das Ranging-System so konfiguriert werden, dass es feststellt, ob ein anderes Signal, z.B. ein LIDAR-Signal, vorhanden ist, und die Übertragung entsprechend beendet). Dies kann die Menge der verschwendeten Kapazität auf dem Medium reduzieren. Wenn zwei Frames kollidieren, kann das Medium für die Dauer der Übertragung der beiden beschädigten Frames unbrauchbar bleiben. Bei langen Frames (z.B. lang in Bezug auf die Übertragungszeit) kann die Menge der verschwendeten Kapazität auf dem Medium hoch sein. Das hier beschriebene Kollisionserkennungsprinzip kann dem im CSMA/CD-Schema verwendeten Prinzip ähnlich sein, wie es im IEEE 802.3-Standard beschrieben ist (z.B. für drahtgebundene LAN-Netzwerke).
  • 138 zeigt einen Ausschnitt eines Ranging Systems 13800 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Ranging System 13800 kann als LIDAR-System sein oder konfiguriert werden (z.B. als LIDAR-Sensorsystem 10, z.B. als Flash-LIDAR-Sensorsystem 10 oder als Scanning-LIDAR-Sensorsystem 10). Das Ranging System 13800 kann z.B. in einem Sensorgerät, wie z.B. einem Fahrzeug (z.B. einem Auto, wie z.B. einem Elektroauto), enthalten sein. Das Messtastersystem 13800 kann als das Messtastersystem 13300 konfiguriert sein oder konfiguriert werden, das z.B. in Bezug auf 131 bis 137 beschrieben ist. Es versteht sich von selbst, dass in 138 nur einige der Komponenten des Messsystems 13800 dargestellt werden können. Das Messtastersystem 13800 kann jede andere Komponente aufweisen, die z.B. in Bezug auf das LIDAR-Sensorsystem 10 und/oder das Messtastersystem 13300 beschrieben ist.
  • Das Entfernungsmesssystem 13800 kann eine Lichtquelle 42 aufweisen. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht, z.B. ein Lichtsignal, aussendet. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge, z.B. in einem vordefinierten Wellenlängenbereich, emittiert. Die Lichtquelle 42 kann z.B. so konfiguriert werden, dass sie Licht im Infrarot- und/oder nahen Infrarotbereich emittiert (z.B. im Bereich von etwa 700 nm bis etwa 5000 nm, z.B. im Bereich von etwa 860 nm bis etwa 1600 nm, z.B. 905 nm). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht kontinuierlich emittiert, oder sie kann so konfiguriert werden, dass sie Licht gepulst emittiert (z.B. eine Folge von Lichtpulsen, wie eine Folge von Laserpulsen). Das Entfernungsmesssystem 13800 kann auch mehr als eine Lichtquelle 42 aufweisen, z.B. konfiguriert, um Licht in verschiedenen Wellenlängenbereichen und/oder mit unterschiedlichen Raten (z.B. Pulsraten) zu emittieren. Als Beispiel kann die Lichtquelle 42 als Laserlichtquelle konfiguriert werden. Die Lichtquelle 42 kann eine Laserlichtquelle aufweisen (z.B. konfiguriert als die beschriebene Laserlichtquelle, z.B. in Bezug auf 59). Als Beispiel kann die Lichtquelle 42 ein Array von Lichtemittern aufweisen (z.B. ein VCSEL-Array). Als weiteres Beispiel kann die Lichtquelle 42 (oder das Ranging-System 13300) ein Strahlführungssystem aufweisen (z.B. ein System mit einem MEMS-Spiegel).
  • Das Ranging-System 13800 kann einen Sensor 52 aufweisen (z.B. den LIDAR-Sensor 52). Der Sensor 52 kann eine oder mehrere Fotodioden aufweisen (z.B. eine oder mehrere Lawinenfotodioden). Die eine oder mehrere Fotodioden können in einem Array angeordnet sein (z.B. ein 1D-Fotodiodenarray, ein 2D-Fotodiodenarray oder sogar eine einzelne Fotodiode). Die eine oder mehrere Fotodioden können so konfiguriert werden, dass sie ein empfangenes Lichtsignal (z.B. eine empfangene Lichtsignalfolge, z.B. ein oder mehrere empfangene Lichtimpulse) liefern. Zur Veranschaulichung: Die eine oder mehrere Fotodioden können so konfiguriert werden, dass sie als Reaktion auf Licht, das auf den Sensor 52 auftrifft, ein Signal (z.B. ein elektrisches Signal, wie z.B. einen Strom) erzeugen.
  • Das auf den Sensor 52 auftreffende Lichtsignal (z.B. das empfangene Lichtsignal) kann mit einem vom Reichweitenmesssystem 13800 ausgestrahlten Lichtsignal verknüpft sein (z.B. kann das empfangene Lichtsignal ein eigenes Lichtsignal sein). Bei dem empfangenen Lichtsignal kann es sich um ein Echo-Lichtsignal handeln. Zur Veranschaulichung: Das empfangene Lichtsignal kann ein Lichtsignal sein, das vom Entfernungsmesssystem 13800 ausgesendet und von einem Objekt im Sichtfeld des Entfernungsmesssystems 13800 (z.B. einem Fahrzeug, einem Baum, einem Verkehrszeichen, einem Fußgänger usw.) zum Entfernungsmesssystem 13800 zurückreflektiert (oder gestreut) wird (z.B. auf den Sensor 52).
  • Zusätzlich oder alternativ kann das auf den Sensor 52 auftreffende Lichtsignal einer anderen Quelle als dem Entfernungsmesssystem 13800 zugeordnet werden (z.B. kann das empfangene Lichtsignal einem anderen Entfernungsmesssystem zugeordnet werden). Beispielsweise kann das empfangene Lichtsignal ein Lichtsignal sein, das von einem anderen Entfernungsmesssystem ausgestrahlt wird, oder es kann ein reflektiertes oder gestreutes Lichtsignal sein, das von einem anderen Entfernungsmesssystem ausgestrahlt wird. Zur Veranschaulichung: Das empfangene Lichtsignal kann ein Fremdlichtsignal sein.
  • Das Ranging-System 13800 kann einen oder mehrere Prozessoren 13802 aufweisen. Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen (z.B. auswerten), ob der Sensor 52 ein Lichtsignal empfängt (z.B. ob der Sensor 52 gerade ein Lichtsignal empfängt). Beispielsweise können der eine oder die mehreren Prozessoren 13802 so konfiguriert werden, dass sie ein von der einen oder den mehreren Fotodioden erzeugtes Signal empfangen (z.B. können der eine oder die mehreren Prozessoren 13802 kommunikativ mit dem Sensor 52 gekoppelt werden). Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen, ob der Sensor 52 ein Lichtsignal in Übereinstimmung mit dem von der einen oder den mehreren Fotodioden erzeugten Signal empfängt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen, dass der Sensor 52 ein Lichtsignal empfängt, wenn das von der einen oder den mehreren Fotodioden erzeugte Signal über einem vordefinierten Schwellenwert liegt (z.B. einem Stromschwellenwert). Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen, dass der Sensor 52 kein Lichtsignal empfängt, falls das von der einen oder den mehreren Fotodioden erzeugte Signal unter einem vordefinierten Schwellenwert liegt.
  • Der eine oder mehrere Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen, ob der Sensor 52 kontinuierlich (z.B. kontinuierlich) ein Lichtsignal empfängt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie das von der einen oder den mehreren Fotodioden erzeugte Signal kontinuierlich mit dem vordefinierten Schwellenwert vergleichen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 13802 so konfiguriert werden, dass sie bestimmen, ob der Sensor 52 in bestimmten Zeitintervallen (z.B. in regelmäßigen oder zufälligen Zeitabständen) ein Lichtsignal empfängt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie das von der einen oder den mehreren Fotodioden erzeugte Signal in bestimmten Zeitintervallen mit dem vordefinierten Schwellenwert vergleichen.
  • Ob der Sensor 52 ein Lichtsignal empfängt, kann ein Hinweis darauf sein, ob das Medium (z.B. die Luft, z.B. die Umgebung im Sichtfeld des Entfernungsmesssystems 13800) beschäftigt (oder im Leerlauf) ist. Veranschaulichend kann ein vom Sensor 52 empfangenes Lichtsignal (z.B. ein Fremdlichtsignal) ein Hinweis darauf sein, dass das Medium belegt ist (z.B. von einem anderen Entfernungsmesssystem verwendet wird).
  • Der eine oder mehrere Prozessoren 13802 können so konfiguriert werden, dass sie einen Laufzeit-Wert für ein empfangenes Lichtsignal bestimmen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen, ob das empfangene Lichtsignal ein Echosignal ist (z.B. ein Lichtsignal, das mit einem vom Entfernungsmesssystem 13800 ausgestrahlten Lichtsignal verknüpft ist). Der eine oder die mehreren Prozessoren 13802 können so konfiguriert werden, dass sie einen Laufzeit-Wert bestimmen, falls das empfangene Lichtsignal ein Echosignal ist.
  • Das Entfernungsmesssystem 13800 kann einen Lichtquellen-Controller 13804 aufweisen. Der Lichtquellen-Controller 13804 kann als Lichtquellen-Controller 13312 konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 131 bis 137 beschrieben. Der Lichtquellen-Controller 13804 kann zur Steuerung der Lichtquelle 42 konfiguriert werden (z.B. zur Steuerung einer Lichtemission der Lichtquelle 42). Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie eine Lichtsignalsequenz gemäß einem vordefinierten Rahmen aussendet (z.B. eine vordefinierte Rahmenstruktur, z.B. kann die Lichtquelle 42 so gesteuert werden, dass sie einen Lichtsignalsequenzrahmen aussendet). Die Lichtsignalsequenz (z.B. eine Sequenz von Lichtimpulsen) kann eine Vielzahl von Bits des Rahmens darstellen. Die Rahmenstruktur und die Lichtsequenz werden weiter unten näher beschrieben, z.B. in Bezug auf 139A bis 140C. Das Ranging-System 13800 kann eine Frame-Konsistenzprüfcode-Erzeugungsstufe 13806 aufweisen (z.B. einen Frame-Datenpuffer 13808 und einen Frame-Konsistenzprüfcode-Generator 13810). Die Konfiguration der Codegenerierungsstufe 13806 für die Rahmenkonsistenzprüfung wird weiter unten ausführlicher beschrieben, z.B. in Bezug auf 139A bis 140C.
  • Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht ausstrahlt, je nachdem, ob der Sensor 52 ein Lichtsignal empfängt (zur Veranschaulichung: abhängig davon, ob das Medium beschäftigt oder im Leerlauf ist). Zum Beispiel kann der Lichtquellen-Controller 13804 mit dem einen oder mehreren Prozessoren 13802 gekoppelt werden, z.B. kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er als Eingang ein Signal von dem einen oder mehreren Prozessoren 13802 empfängt. Der Eingang von dem einen oder den mehreren Prozessoren 13802 kann anzeigen, ob der Sensor 52 ein Lichtsignal empfängt.
  • Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass eine laufende Lichtemission gestoppt wird, falls der Sensor 52 ein Lichtsignal (z.B. ein Fremdlichtsignal) empfängt. Zur Veranschaulichung: Der eine oder mehrere Prozessoren 13802 können bestimmen, ob der Sensor 52 während der Lichtemission durch die Lichtquelle 42 ein Lichtsignal empfängt. Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie kein Licht mehr aussendet, falls ein solches (z.B. fremdes) Lichtsignal vom Sensor 52 empfangen wird. Zur Veranschaulichung: Der eine oder mehrere Prozessoren 13802 und/oder der Lichtquellen-Controller 13804 können gemäß einem Kollisionserkennungsmechanismus konfiguriert werden.
  • Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er eine Startzeit für die Lichtemission (mit anderen Worten: eine Startzeit der Lichtemission) steuert oder einstellt. Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 steuert, um eine Startzeit der Lichtemission in Abhängigkeit davon zu steuern, ob der Sensor 52 ein Lichtsignal empfängt. Zur Veranschaulichung: Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie eine Lichtemission startet oder verzögert.
  • Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht in Abhängigkeit von einem Lichtemissionsschema emittiert (zur Veranschaulichung: nach einem Lichtemissionsschema). Das Lichtemissionsschema kann die Startzeit für das Aussenden von Licht festlegen. Zur Veranschaulichung: Die Startzeit für das Aussenden von Licht kann vom Lichtemissionsschema abhängig sein (z.B. kann die Startzeit durch das angenommene Lichtemissionsschema definiert sein). Die Startzeit kann angepasst werden, wenn der Sensor 52 ein Lichtsignal empfängt. Das Lichtaussendungsschema kann eine oder mehrere Regeln oder Parameter aufweisen oder definieren, die die Startzeit definieren. Das Lichtemissionsschema kann variiert werden (z.B. dynamisch). Zur Veranschaulichung: Der Lichtquellen-Controller 13804 kann nach verschiedenen Lichtemissionsschemata oder nach verschiedenen Konfigurationen des Lichtemissionsschemas arbeiten (z.B. 1-persistent, nicht persistent, persistent, erzwungenes Warten persistent, mit Quittierung, mit Kollisionserkennung).
  • Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht aussendet, falls der Sensor 52 kein Lichtsignal empfängt (zur Veranschaulichung, falls das Medium im Leerlauf ist). Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht aussendet, falls der Sensor 52 für eine vordefinierte Zeitspanne kein Lichtsignal empfängt. Zur Veranschaulichung: Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht aussendet, wenn das Medium während der vordefinierten Zeitspanne im Leerlauf ist.
  • Beispielsweise kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie sofort Licht aussendet (z.B. um die aktuelle Zeit als Startzeit einzustellen). Zur Veranschaulichung: Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht aussendet, sobald der Sensor 52 kein Lichtsignal empfängt (z.B. sobald der eine oder mehrere Prozessoren 13802 feststellen, dass der Sensor 52 kein Lichtsignal empfängt). Als weiteres Beispiel kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass die Lichtemission verzögert (d.h. verschoben) wird (z.B. um die Zeitspanne zu verschieben), wie weiter unten näher beschrieben wird.
  • Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass die Startzeit um eine Zeitperiode verschoben wird (zur Veranschaulichung: eine Zeitperiode kann einem oder mehreren Zeitschlitzen entsprechen oder diese aufweisen). Als Beispiel kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Lichtquelle 42 zwingt, eine Zeitspanne abzuwarten, bevor sie Licht aussendet (z.B. kann die Zeitspanne eine erzwungene Zeitspanne sein). Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie nach dieser Zeitspanne Licht aussendet (z.B. wenn der Sensor 52 kein Lichtsignal empfängt). Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Startzeit um eine Zeitperiode ein oder mehrere Male verschiebt. Als Beispiel kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Startzeit jedes Mal um eine Zeitperiode verschiebt, wenn der Sensor 52 am Ende einer Zeitperiode ein Lichtsignal empfängt (z.B. jedes Mal, wenn das Medium am Ende der Zeitperiode beschäftigt ist).
  • Die Zeitspanne kann eine feste Zeitspanne sein. Das Lichtemissionsschema kann eine feste Dauer für die Zeitperiode definieren (z.B. kann die Dauer eines Zeitschlitzes in einem Bereich von etwa 2*tdmax bis etwa 4*tdmax gewählt werden; die Dauer einer Zeitperiode kann eine feste Anzahl von Zeitschlitzen sein, z.B. 1 Zeitschlitz).
  • Die Zeitspanne kann eine variable Zeitspanne sein (z.B. kann die Zeitspanne eine variable Anzahl von Zeitfenstern umfassen). Die Zeitperiode kann gewählt werden (z.B. durch den einen oder mehrere Prozessoren 13802 oder den Lichtquellen-Controller 13804), abhängig von der Art des zu übertragenden Signals (z.B. die Art des Rahmens). Für ein Signal mit höherer Priorität kann eine kürzere Zeitperiode gewählt werden. Zum Beispiel kann die Zeitspanne für Daten mit höherer Priorität ein kurzer Interframe-Abstand (SIFS) sein oder einen solchen aufweisen. Der Zeitraum kann ein verteilter Koordinations-Interframe-Abstand (DIFS) für Daten mit normaler Priorität oder niedrigerer Priorität sein oder aufweisen. Als weiteres Beispiel kann der Zeitraum eine Backoff-Zeit sein oder aufweisen. Die Backoff-Zeit kann entsprechend einem Konkurrenzfenster (z.B. ein binäres exponentielles Backoff-Konkurrenzfenster) bestimmt werden. Das Konkurrenzfenster kann von variabler Länge sein (z.B. kann die Größe des Konkurrenzfensters 3, 7, 15, 31, 63, 127 oder 255 Zeitschlitze betragen). Zur Veranschaulichung: Der Zeitraum (z.B. die Backoff-Zeit) kann eine Anzahl von Zeitfenstern umfassen, die (z.B. zufällig) aus dem Konkurrenzfenster ausgewählt wurden (z.B. ausgewählt in einem Bereich von 0 bis zur Größe des Konkurrenzfensters 1). Die Größe des Konkurrenzsystems kann auf adaptive Weise variiert werden (z.B. kann sie im Falle einer fehlgeschlagenen Übertragung erhöht werden, z.B. auf die nächsthöhere Größe).
  • Die Zeitspanne kann eine zufällig bestimmte Zeitspanne sein. Als Beispiel kann eine Lichtemissionswahrscheinlichkeit mit der Lichtemission verbunden sein. Die Zeitspanne kann entsprechend der Lichtemissionswahrscheinlichkeit zufällig bestimmt werden.
  • Der Lichtquellen-Controller 13804 (und/oder der eine oder mehrere Prozessoren 13802) kann konfiguriert werden, um festzustellen (z.B. zur Überwachung), ob die Zeitspanne (z.B. die Backoff-Zeit) abgelaufen ist. Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er feststellt, ob die Zeitspanne über ein oder mehrere Zeitintervalle verstrichen ist. Zur Veranschaulichung: Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Bestimmung der verstrichenen Zeitspanne unterbricht. Als Beispiel kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Bestimmung pausiert, falls der Sensor 52 während der Zeitspanne ein Lichtsignal empfängt. Die Lichtquellensteuerung 13804 kann so konfiguriert werden, dass die Bestimmung der verstrichenen Zeitspanne erneut gestartet wird, falls der Sensor 52 kein Lichtsignal empfängt. Das eine oder mehrere Intervalle können dadurch bestimmt werden, ob der Sensor 52 während der Zeitperiode ein Lichtsignal empfängt.
  • 139A und 139B zeigen jeweils den Aufbau eines Rahmens 13900 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • 139C zeigt in einer schematischen Darstellung die Funktionsweise des Entfernungsmesssystems 13800 im Verhältnis zu einem Rahmen 13900 nach verschiedenen Ausführungsformen.
  • Die in 139A gezeigte Struktur (z.B. die Zusammensetzung) des Rahmens 13900 kann ein Beispiel für eine generische Rahmenstruktur sein, z.B. aus einem oder mehreren Rahmenteilen (auch Felder genannt), die in einem Rahmen 13900 vorhanden sein können. Der Typ und die Anzahl der Rahmenteile eines Rahmens 13900 kann je nach Rahmentyp ausgewählt werden (z.B. nach der beabsichtigten Anwendung des Rahmens, wie z.B. Ranging-Frame, Datenrahmen oder Signalisierungs- und Steuerrahmen).
  • Der Rahmen 13900 kann einen oder mehrere Rahmenteile (z.B. vordefinierte Rahmenteile) aufweisen. Jeder Rahmenteil kann einen vordefinierten Inhaltstyp haben (z.B. Signalinhaltstyp). Zur Veranschaulichung: Jeder Rahmenteil kann unterschiedliche Datentypen aufweisen und/oder eine unterschiedliche Funktionalität haben. Der Rahmen 13900 (z. B. jeder Rahmenteil) kann ein oder mehrere Symbole (z. B. eine Folge von Symbolen) aufweisen. Der Rahmen 13900 kann eine Länge haben (zur Veranschaulichung: er repräsentiert eine Anzahl von Symbolen, die im Rahmen aufweisen sind). Die Rahmenlänge kann eine vordefinierte (z.B. feste) Länge haben. Alternativ kann die Rahmenlänge variabel sein. Zum Beispiel kann die Rahmenlänge zwischen (oder mit) einer minimalen Länge und einer maximalen Länge variabel sein.
  • Der Rahmen 13900 kann einen Präambelrahmenteil 13902 aufweisen. Der Präambel-Rahmenteil 13902 kann Erfassungssignale und/oder Bereichssignale und/oder Synchronisationssignale aufweisen. Der Rahmen 13900 kann einen Header-Rahmenteil 13904 aufweisen. Der Header-Frame-Teil 13904 kann Steuerdaten aufweisen. Der Rahmen 13900 kann einen Nutzlast-Rahmenteil 13906 aufweisen. Der Nutzlast-Rahmenteil 13906 kann Identifikationssignale und/oder Steuersignale aufweisen. Der Rahmen 13900 kann einen Fußrahmenteil 13908 aufweisen. Der Footer-Frame-Teil 13908 kann Fehlererkennungs- und/oder Fehlerkorrekturinformationen aufweisen. Der Fußrahmenteil 13908 kann einen Rahmenkonsistenz-Prüfcode aufweisen, wie in 139C dargestellt.
  • Der Rahmen (z.B. ein vordefinierter Rahmen des Ranging Systems 13800) kann ein Physical Layer (PHY)-Rahmen 13900p sein oder einen solchen aufweisen (z.B. einschließlich einer PHY-Präambel 13902p und/oder eines PHY-Headers 13904p und/oder einer PHY-Nutzlast 13906p und/oder einer PHY-Fußzeile 13908p). Der vordefinierte Rahmen kann ein MAC-Rahmen 13900m sein oder einen MAC-Rahmen 13900m aufweisen (z.B. einschließlich eines MAC-Headers 13904m und/oder einer MAC-Nutzlast 13906m und/oder einer MAC-Fußzeile 13908m). Der MAC-Rahmen 13900m kann z.B. im Nutzlast-Rahmenteil 13906p eines PHY-Rahmens 13900p enthalten sein, wie in 139B dargestellt.
  • Das Ranging-System 13800 kann so konfiguriert werden, dass der Rahmenkonsistenz-Prüfcode in den Rahmen 13900 eingeführt wird. Als Beispiel kann das Ranging-System 13800 eine Frame-Konsistenzprüfcode-Generierungsstufe 13806 aufweisen. Die Rahmenkonsistenz-Prüfcode-Erzeugungsstufe 13806 kann so konfiguriert werden, dass sie Eingabedaten 13910 empfängt, z.B. einen Rahmen, z.B. einen ganzen Rahmen, der z.B. eine Präambel, einen Header und eine Nutzlast enthält. Die Eingabedaten 13910 (z.B. ein Bitstrom) können die Rahmenstruktur beschreiben. Die Frame-Konsistenzprüfungscode-Erzeugungsstufe 13806 kann so konfiguriert werden, dass der Frame-Konsistenzprüfungscode dem empfangenen Frame hinzugefügt wird.
  • Die Codegenerierungsstufe 13806 der Frame-Konsistenzprüfung kann einen Frame-Datenpuffer 13808 aufweisen. Der Rahmendatenpuffer 13808 kann die Eingabedaten 13910 aufweisen (z.B. kann er so konfiguriert werden, dass er die Eingabedaten 13910 empfängt). Der Inhalt des Rahmendatenpuffers 13910 kann auf die Symbole (oder Symbolblöcke) abgebildet werden, die den Rahmen definieren (z.B. mit Ausnahme des Fußrahmenteils). Illustrativ kann der Rahmendatenpuffer 13808 eine gemappte Darstellung 13912 der Eingangsdaten 13910 liefern. Zusätzlich kann der Rahmendatenpuffer 13808 so konfiguriert werden, dass er den Inhalt der Daten als Eingabe für einen Rahmenkonsistenz-Prüfcode-Generator 13810 bereitstellt. Der Rahmenkonsistenz-Prüfcode-Generator 13810 kann so konfiguriert werden, dass er einen Rahmenkonsistenz-Prüfcode in Übereinstimmung mit der empfangenen Eingabe erzeugt. Die Ausgabe des Rahmenkonsistenz-Prüfcode-Generators 13810 kann auf die Symbole (oder Symbolblöcke) des Fußzeilen-Rahmenteils des Rahmens abgebildet werden. Zur Veranschaulichung: Der Rahmenkonsistenz-Prüfcode-Generator 13810 kann eine abgebildete Darstellung 13914 des Rahmenteils einschließlich des Rahmenkonsistenz-Prüfcodes liefern.
  • Der Daten-Frame-Puffer kann die Abbildung eines ersten Frame-Abschnitts 139001 (z.B. einschließlich des Präambel-Frame-Abschnitts und/oder des Header-Frame-Abschnitts und/oder des Nutzlast-Frame-Abschnitts) liefern. Der Frame-Konsistenz-Prüfcode-Generator 13810 kann die Abbildung eines zweiten Frame-Abschnitts 139002 (z.B. einschließlich des Fußzeilen-Frame-Abschnitts) liefern. Der endgültige Frame 13900 kann sowohl den ersten Frame-Abschnitt 139001 als auch den zweiten Frame-Abschnitt 139002 aufweisen, z.B. den Frame ohne Fußzeilen-Frame-Abschnitt und den Fußzeilen-Frame-Abschnitt.
  • 140A zeigt eine Zeitbereichsdarstellung eines Rahmens 13900 in einer schematischen Ansicht in Übereinstimmung mit verschiedenen Ausführungsformen. 140B und 140C zeigen jeweils eine Zeitbereichsdarstellung eines Frame-Symbols in einer schematischen Ansicht in Übereinstimmung mit verschiedenen Ausführungsformen. 140D zeigt jeweils eine Zeitbereichsdarstellung mehrerer Frames 13900 in einer schematischen Ansicht in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Die im Zusammenhang mit dem Frame 13900 beschriebene Frame-Struktur kann auf ein Zeitbereichssignal angewendet werden, z.B. ein LIDAR-Signal, das von einem Ranging-System ausgesendet wird. Zur Veranschaulichung: Das Ranging-System 13800 kann so konfiguriert werden, dass es ein LIDAR-Signal (z.B. ein Lichtsignal) mit einer Rahmenstruktur aussendet.
  • Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es ein Lichtsignalsequenz-Bild 14002 aussendet (z.B. kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie das Lichtsignalsequenz-Bild 14002 aussendet). Zur Veranschaulichung: Das Entfernungsmesssystem kann so konfiguriert werden, dass es eine Lichtsignalsequenz aussendet (z.B. eine Sequenz von Lichtimpulsen, z.B. in Gauss-Form). Die Lichtsignalsequenz kann entsprechend der Struktur des Rahmens 13900 strukturiert sein. Illustrativ können die Lichtimpulse in der Sequenz entsprechend der Struktur des Rahmens 13900 angeordnet sein (z.B. zeitlich voneinander beabstandet). Die Lichtsignalsequenz Frame 14002 kann eine Sequenz von Lichtimpulsen aufweisen oder durch die Sequenz von Lichtimpulsen dargestellt werden (z.B. kann ein Lichtimpuls eine Signaldarstellung eines Symbols sein, z.B. eines oder mehrerer Bits). Der Lichtsignalsequenzrahmen 14002 kann so konfiguriert werden, dass er Daten oder Informationen entsprechend der Struktur der Lichtimpulsfolge überträgt.
  • Illustrativ kann ein Symbol (z.B. aus einem binären Alphabet mit Symbolen in {0;1}) auf ein Zeitbereichssignal, z.B. einen Lichtpuls, abgebildet werden (illustrativ dargestellt durch). Abhängig von seiner Amplitude und/oder seiner Dauer kann ein Lichtimpuls ein anderes Symbol darstellen oder mit einem anderen Symbol assoziiert sein. Als Beispiel kann ein Impuls 140041 mit einer Amplitude von im wesentlichen Null das Symbol „0“ darstellen (wie z.B. in 140B illustriert). Als weiteres Beispiel kann ein Impuls 140042 mit einer Amplitude größer als Null das Symbol „1“ darstellen (wie z.B. in 140C dargestellt). Ein Impuls kann eine Impulsdauer Ts haben. Die Impulsdauer kann fest oder variabel sein. Zum Beispiel kann die Dauer eines Impulses 10 ns betragen, zum Beispiel 20 ns.
  • Das Ranging-System 13800 kann so konfiguriert werden, dass es eine Vielzahl von Lichtsignalsequenz-Frames 14002 (z.B. eine Vielzahl von Lichtsignalsequenzen) emittiert, wie z.B. in 140D dargestellt. Als Beispiel kann das Ranging-System so konfiguriert werden, dass es ein erstes Lichtsignalsequenz-Frame 140021, ein zweites Lichtsignalsequenz-Frame 140022, ein drittes Lichtsignalsequenz-Frame 140023 und ein viertes Lichtsignalsequenz-Frame 140024 aussendet. Die Lichtsignalsequenz-Frames 14002 können mit einem zeitlichen Abstand (z.B. fest oder variierend) zwischen aufeinanderfolgenden Lichtsignalsequenz-Frames 14002 emittiert werden. Die Lichtsignalsequenz-Bilder 14002 können die gleiche Länge oder eine unterschiedliche Länge haben.
  • Verschiedene Aspekte des Lichtemissionsschemas (z.B. die Konfiguration des Ranging Systems 13800) werden im Folgenden näher beschrieben, z.B. in Bezug auf 141A bis 144. Es wird davon ausgegangen, dass die verschiedenen Aspekte oder Merkmale miteinander kombiniert werden können (z.B. kann das Ranging System 13800 entsprechend einer Kombination von einem oder mehreren der verschiedenen Aspekte konfiguriert werden).
  • 141A bis 141H zeigen jeweils verschiedene Aspekte (z.B. Diagramme und/oder Flussdiagramme) des Lichtemissionsschemas nach verschiedenen Ausführungsformen.
  • Das Lichtemissionsschema kann als 1-persistentes Schema konfiguriert werden, wie z.B. in 141A und 141B dargestellt.
  • Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es den Kanal so lange hört, bis der Kanal als frei empfunden wird (zur Veranschaulichung: so lange das Medium besetzt ist), wie in dem Diagramm 14102 in dargestellt. Zur Veranschaulichung kann der eine oder mehrere Prozessor(en) 13802 so konfiguriert werden, dass er kontinuierlich bestimmt, ob der Sensor 52 ein Lichtsignal empfängt, bis der Sensor 52 kein Lichtsignal mehr empfängt (anders ausgedrückt, bis der Sensor 52 kein Lichtsignal mehr empfängt). Der Lichtquellen-Controller 13804 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie Licht aussendet, sobald der Kanal im Leerlauf erfasst wird (z.B. sobald der Sensor 52 kein Lichtsignal mehr empfängt).
  • Das 1-persistente Schema kann durch das in 141B dargestellte Flussdiagramm 14104 beschrieben werden. Das Ranging-System 13800 (z.B. der eine oder mehrere Prozessoren 13802) kann so konfiguriert werden, dass es bestimmt (z.B. auswertet), ob das Medium im Leerlauf (oder besetzt) ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es die Auswertung wiederholt, falls das Medium belegt ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es sendet (z.B. Licht ausstrahlt, z.B. ein Lichtsignal), wenn das Medium im Leerlauf ist.
  • Das Lichtemissionsschema kann als nicht-persistentes Schema konfiguriert werden, wie z.B. in 141C und 141D dargestellt.
  • Das Ranging-System 13800 kann so konfiguriert werden, dass es mit der Übertragung für eine bestimmte Zeitspanne (z.B. Wartezeit oder Zeitverzögerung) wartet, die aus einer Wahrscheinlichkeitsverteilung für den Fall gezogen wird, dass das Medium beschäftigt ist, wie in dem Diagramm 14106 in 141C dargestellt. Zur Veranschaulichung: Der eine oder mehrere Prozessoren 13802 können so konfiguriert werden, dass sie bestimmen, ob der Sensor 52 zu bestimmten (z.B. zufälligen) Zeitpunkten, die durch eine Wahrscheinlichkeitsverteilung definiert sind, ein Lichtsignal empfängt. Zu jedem Zeitpunkt kann das Entfernungsmesssystem 13800 so konfiguriert werden, dass es sendet, wenn das Medium im Leerlauf ist (z.B. kann der Lichtquellen-Controller 13804 so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass sie zu diesem Zeitpunkt Licht aussendet). Alternativ kann das Ranging-System 13800 so konfiguriert werden, dass es auf eine andere (z.B. zufällige) Zeitspanne wartet, falls das Medium noch beschäftigt ist.
  • Das nicht-persistente Schema kann durch das in 141D dargestellte Flussdiagramm 14108 beschrieben werden. Das Ranging-System 13800 kann so konfiguriert werden, dass es bestimmt, ob das Medium im Leerlauf (oder besetzt) ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es eine zufällige Zeitspanne wartet, bevor es die nächste Auswertung durchführt, falls das Medium besetzt ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es sendet, wenn das Medium im Leerlauf ist.
  • Das Lichtemissionsschema kann als persistentes Schema konfiguriert werden, wie z.B. in 141E und 141F dargestellt.
  • Das Ranging-System 13800 kann so konfiguriert werden, dass es das Medium kontinuierlich abtastet, um festzustellen, ob das Medium besetzt ist, wie in dem Diagramm 14110 in dargestellt. Das Ranging-System 13800 kann so konfiguriert werden, dass es in Übereinstimmung mit einem Wahrscheinlichkeitsergebnis X (z.B. einer zufällig generierten Zahl) sendet, falls (oder sobald) das Medium im Leerlauf ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es nicht sendet, wenn das Wahrscheinlichkeitsergebnis X größer als eine Wahrscheinlichkeit P ist (wobei 0<=P<=1 oder 0,1 <=P<=1). In einem solchen Fall kann das Ranging-System 13800 so konfiguriert werden, dass die Übertragung um einen Zeitschlitz verschoben wird. Nach dem Zeitschlitz kann das Ranging-System 13800 so konfiguriert werden, dass es ein neues Wahrscheinlichkeitsergebnis X bestimmt (z.B. um eine neue Zufallszahl zu erzeugen), falls das Medium noch untätig ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es sendet, wenn (oder sobald) das Wahrscheinlichkeitsergebnis X gleich oder kleiner als P ist.
  • Das nicht-persistente Schema kann durch das in 141F dargestellte Flussdiagramm 14112 beschrieben werden. Das Ranging-System 13800 kann so konfiguriert werden, dass es bestimmt, ob das Medium im Leerlauf (oder besetzt) ist. Das Ranging-System 13800 kann so konfiguriert werden, dass die Auswertung wiederholt wird, falls (z.B. solange) das Medium besetzt ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es eine Zufallszahl X (z. B. im gleichen Bereich wie eine Wahrscheinlichkeit P, z. B. 0<=X<=1 oder 0,1 <=X<=1) bestimmt (z. B. erzeugt oder auswählt), falls das Medium nicht benutzt wird. Das Ranging-System 13800 kann so konfiguriert werden, dass es nicht sendet, wenn X größer als P ist. In diesem Fall kann das Ranging-System 13800 so konfiguriert werden, dass es einen Zeitschlitz wartet. Das Ranging-System 13800 kann so konfiguriert werden, dass es feststellt, ob das Medium nach Ablauf des Zeitschlitzes noch im Leerlauf ist (oder während des Zeitschlitzes belegt ist). Das Ranging-System 13800 kann so konfiguriert werden, dass es den Prozess neu startet (oder einen Backoff-Prozess implementiert, z.B. auf das Ende einer laufenden Übertragung wartet und eine Backoff-Zeit abwartet), falls das Medium beschäftigt ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es eine weitere Zufallszahl X bestimmt, falls das Medium im Leerlauf ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es die Auswertung des Mediums und die Auswahl von X wiederholt, bis ein X gleich oder kleiner als P erzeugt wird. Das Messbereichssystem 13800 kann so konfiguriert werden, dass es sendet, wenn X gleich oder kleiner als P ist.
  • Das Lichtemissionsschema kann als ein erzwungenes, anhaltendes Warteschema konfiguriert werden, wie z.B. in 141G und 141H dargestellt.
  • Im Hinblick auf das im Zusammenhang mit 141E und 141F beschriebene persistente Schema kann das Ranging-System 13800 so konfiguriert werden, dass der erste Wert von X (immer) größer als P ist. Zur Veranschaulichung: Das Ranging-System 13800 kann so konfiguriert werden, dass die Übertragung immer um mindestens einen Zeitschlitz verschoben ist, wie in dem Diagramm 14114 in dargestellt.
  • Das System des erzwungenen Wartens kann durch das in 141F gezeigte Flussdiagramm 14116 beschrieben werden. In Bezug auf das Flussdiagramm 14112, das sich auf das persistente Schema bezieht, kann das Ranging-System 13800 so konfiguriert werden, dass ein Wahrscheinlichkeitsergebnis X größer als P, z.B. größer als 1 (z.B. X=2), als erstes Wahrscheinlichkeitsergebnis festgelegt wird.
  • 142A und 142B zeigen ein Diagramm 14202 und ein Flussdiagramm 14204, die sich auf ein Lichtemissionsschema beziehen, einschließlich einer Back-Off-Zeit in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Lichtemissionsschema kann Kollisionsvermeidung beinhalten. Das Lichtemissionsschema kann eine Priorisierung (z.B. prioritätsbasierter Zugriff) für verschiedene Arten von Daten beinhalten. Als Beispiel kann das Lichtemissionsschema eine Backoff-Zeit aufweisen (z.B. kann es einen Backoff-Algorithmus aufweisen oder nach einem Backoff-Algorithmus konfiguriert werden).
  • Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es sendet, wenn das Medium für eine vorgegebene Zeitspanne (z.B. für eine längere Zeitspanne als das DIFS) im Leerlauf (z.B. frei) ist, wie in dem Diagramm 14202 in 142A dargestellt.
  • Das Ranging-System 13800 kann so konfiguriert werden, dass es feststellt, ob das Medium besetzt ist (z.B. wenn das Ranging-System 13800 einen Rahmen zu übertragen hat). Das Ranging-System 13800 kann so konfiguriert werden, dass es eine Zeitspanne wartet (z.B. einen Interframe-Abstand, IFS), falls das Medium im Leerlauf ist (z.B. vor der Übertragung). Die Dauer des IFS kann je nach dem zu übertragenden Rahmen variiert werden (z.B. kann das IFS ein SIFS im Falle von Daten mit hoher Priorität oder ein DIFS im Falle von Daten mit normaler oder niedriger Priorität enthalten).
  • Das Ranging-System 13800 kann so konfiguriert werden, dass es (zur Veranschaulichung: nach Ablauf des IFS) auf eine Anzahl von Zeitschlitzen wartet, die gemäß einem Konkurrenzfenster (z. B. ein Konkurrenzfenster, dessen Größe mit Hilfe eines binären exponentiellen Backoffs bestimmt wird) bestimmt wird. Die Anzahl der Zeitschlitze kann eine Backoff-Zeit bestimmen oder eine Backoff-Zeit darstellen (z.B. kann die Backoff-Zeit eine Anzahl von Zeitschlitzen umfassen, die nach dem Zufallsprinzip entsprechend einer im Konkurrenzfenster enthaltenen Zahl bestimmt wird). Das Ranging-System 13800 kann so konfiguriert werden, dass es sendet, falls das Medium nach Ablauf des IFS und der Backoff-Zeit (noch) im Leerlauf ist.
  • Ein solches Lichtemissionsschema kann durch das Flussdiagramm 14204 in 142B beschrieben werden. Das Entfernungsmesssystem 13800 kann einen zu übertragenden Rahmen aufweisen (z.B. ein zu übertragendes Lichtsignal, z.B. einen Lichtsignalfolge-Rahmen). Das Ranging-System 13800 kann so konfiguriert werden, dass es feststellt, ob sich das Medium im Leerlauf befindet. Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es eine vom IFS festgelegte Zeitspanne abwartet, falls das Medium im Leerlauf ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es sendet, wenn das Medium nach Ablauf des IFS (noch) im Leerlauf ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es wartet, bis eine laufende Übertragung endet (z.B. um zu warten, bis das Medium inaktiv wird), falls das Medium nach dem IFS beschäftigt ist (und/oder falls das Medium anfangs beschäftigt war). Das Ranging System 13800 kann so konfiguriert werden, dass es nach dem Ende der aktuellen Übertragung auf eine vom IFS definierte Zeitspanne wartet. Das Ranging System 13800 kann so konfiguriert werden, dass es nach Ablauf des IFS feststellt, ob das Medium im Leerlauf ist. Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es eine Backoff-Zeit (z. B. zur Verzögerung der Übertragung) durchführt, wenn das Medium im Leerlauf ist. Das Ranging-System 13800 kann so konfiguriert werden, dass die Übertragung nach Ablauf der Backoff-Zeit erfolgt. Das Ranging-System 13800 kann so konfiguriert werden, dass es wartet, bis eine laufende Übertragung endet, falls das Medium nach dem IFS beschäftigt ist. Das Ranging-System 13800 kann so konfiguriert werden, dass ein Backoff-Zähler (z.B. die Auswertung des Ablaufs der Backoff-Zeit) angehalten wird, falls das Medium während der Backoff-Zeit beschäftigt ist.
  • 143A und 143B zeigen jeweils ein Flussdiagramm 14302 14304 in Bezug auf ein Lichtemissionsschema einschließlich einer Rücklaufzeit und Kollisionserkennung in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Lichtemissionsschema kann eine Kollisionserkennung beinhalten, wie im Flussdiagramm 14302 in 143A dargestellt. Die Kollisionserkennung (z.B. die zugehörigen Schritte und/oder die zugehörige Konfiguration des Entfernungsmesssystems 13800) kann in jeder Konfiguration des Lichtemissionsschemas implementiert (z.B. eingeführt) werden (zur Veranschaulichung in einem der anderen Flussdiagramme 14104, 14108, 14112, 14116, 14204).
  • Die Schritte zur Kollisionserkennung können am Ende des Prozesses hinzugefügt werden (z.B. am Ende des jeweiligen Flussdiagramms). Die Kollisionserkennung kann die Übertragung durch das Ranging-System 13800 ersetzen (oder zusätzliche Schritte einführen). Zur Veranschaulichung: Das Ranging-System 13800 kann so konfiguriert werden, dass es die Kollisionserkennung jederzeit auswertet, wenn das Ranging-System 13800 senden würde (z.B. zu jedem Zeitpunkt, zu dem das Ranging-System 13800 für die Übertragung in Frage kommt). Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es die Übertragung wiederholt, bis die Übertragung abgeschlossen ist und/oder falls keine Kollision erkannt wird. Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es den Prozess neu startet (z.B. um zum Anfang des jeweiligen Flussdiagramms zurückzukehren), falls eine Kollision erkannt wird. Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es den laufenden Betrieb beendet, falls die Übertragung durchgeführt wird und keine Kollision erkannt wird (z.B. kann ein Erfolg für den laufenden Betrieb festgestellt werden).
  • Als Beispiel kann das Flussdiagramm 14304 in 143B die Kollisionserkennung veranschaulichen, die im Backoff-Schema eingeführt wurde, das im Zusammenhang mit 142A und 142B beschrieben wird. Als Beispiel kann das Flussdiagramm 14304 dem Flussdiagramm 14204 entsprechen, in dem die Kollisionserkennung eingeführt wird.
  • 144 zeigt ein Flussdiagramm 14402 in Bezug auf ein Lichtemissionsschema einschließlich eines Fehlererkennungsprotokolls in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Lichtemissionsschema kann ein Protokoll mit Fehlererkennung und/oder Fehlerkontrolle aufweisen. Das Lichtemissionsschema kann eine Quittierung beinhalten (z.B. verlangen). Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es auf eine Bestätigung von einem anderen System (z.B. einem anderen Entfernungsmesssystem) wartet, z.B. von dem System, an das der Rahmen übertragen wurde.
  • Das Ranging-System 13800 kann so konfiguriert werden, dass ein Zähler zu Beginn des Schemas auf 0 gesetzt wird (z.B. K=0). Das Ranging-System 13800 kann so konfiguriert werden, dass es kontinuierlich bestimmt, ob der Kanal im Leerlauf ist, bis der Kanal im Leerlauf ist. Das Ranging-System 13800 kann so konfiguriert werden, dass es auf ein IFS wartet (z.B. vor der Übertragung), falls der Kanal im Leerlauf ist. Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es die Bestimmung wiederholt, falls der Kanal nach Ablauf des IFS nicht mehr frei ist. Das Entfernungsmesssystem 13800 kann so konfiguriert werden, dass es eine Zufallszahl R zwischen 0 und 2K1 wählt, wenn der Kanal noch frei ist (z.B. eine Zahl R innerhalb des Konkurrenzfensters). Das Ranging-System 13800 kann so konfiguriert werden, dass es auf eine Anzahl von Zeitschlitzen wartet, die gleich R ist (zur Veranschaulichung: eine Backoff-Zeit). Das Ranging-System 13800 kann so konfiguriert werden, dass es den Zähler der Zeitschlitze pausiert, falls das Medium während dieser Wartezeit beschäftigt wird. Das Ranging-System 13800 kann so konfiguriert werden, dass es einen Rahmen sendet, nachdem die R-Zeitschlitze abgelaufen sind. Das Ranging-System 13800 kann so konfiguriert werden, dass es auf eine Bestätigung wartet, nachdem der Rahmen übertragen wurde. Das Ranging-System 13800 kann so konfiguriert werden, dass es nach Ablauf einer vordefinierten Zeitspanne (z.B. einer Zeitüberschreitung) feststellt, ob eine Bestätigung empfangen wurde. Das Ranging-System 13800 kann so konfiguriert werden, dass es die laufende Operation beendet, wenn die Bestätigung empfangen wird (z.B. kann ein Erfolg für die laufende Operation festgestellt werden). Das Ranging-System 13800 kann so konfiguriert werden, dass der Zähler erhöht wird (z.B. K=K+1), falls das Ranging-System 13800 die Bestätigung nicht erhält. Das Ranging-System 13800 kann so konfiguriert werden, dass es den Vorgang wiederholt, wenn K gleich oder unter einem vordefinierten Schwellenwert liegt (z.B. K<=15). Das Ranging-System 13800 kann so konfiguriert werden, dass es den aktuellen Vorgang abbricht, wenn K über dem Schwellenwert liegt.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1aa ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann eine Lichtquelle aufweisen. Das LIDAR-Sensorsystem kann einen Sensor mit einer oder mehreren Fotodioden aufweisen, die so konfiguriert sind, dass sie ein empfangenes Lichtsignal liefern. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie feststellen, ob der Sensor ein Lichtsignal empfängt. Das LIDAR-Sensorsystem kann einen Lichtquellen-Controller aufweisen, der so konfiguriert ist, dass er die Lichtquelle so steuert, dass sie Licht emittiert, je nachdem, ob der Sensor ein Lichtsignal empfängt.
    • In Beispiel 2aa kann der Gegenstand von Beispiel 1aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um die Lichtquelle so zu steuern, dass eine Startzeit der Lichtemission in Abhängigkeit davon gesteuert wird, ob der Sensor ein Lichtsignal empfängt.
    • In Beispiel 3aa kann der Gegenstand eines der Beispiele 1aa oder 2aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um die Lichtquelle so zu steuern, dass sie Licht in Abhängigkeit von einem Lichtemissionsschema emittiert. Die Startzeit der Lichtemission in Abhängigkeit vom Lichtemissionsschema kann angepasst werden, falls der Sensor ein Lichtsignal empfängt.
    • In Beispiel 4aa kann der Gegenstand eines der Beispiele 1aa bis 3aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um die Startzeit um eine Zeitperiode zu verschieben.
    • In Beispiel 5aa kann der Gegenstand von Beispiel 4aa optional einschließen, dass die Zeitspanne eine feste Zeitspanne, eine variable Zeitspanne, eine zufällig bestimmte Zeitspanne ist.
    • In Beispiel 6aa kann der Gegenstand eines der Beispiele 1aa bis 5aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um festzustellen, ob die Zeitspanne über ein oder mehrere Zeitintervalle verstrichen ist.
    • In Beispiel 7aa kann der Gegenstand eines der Beispiele 1aa bis 6aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um die Lichtquelle so zu steuern, dass sie Licht aussendet, falls der Sensor kein Lichtsignal empfängt.
    • In Beispiel 8aa kann der Gegenstand von Beispiel 7aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um die Lichtquelle so zu steuern, dass sie Licht aussendet, falls der Sensor für eine vordefinierte Zeitspanne kein Lichtsignal empfängt.
    • In Beispiel 9aa kann der Gegenstand eines der Beispiele 1aa bis 8aa optional beinhalten, dass die Lichtquellensteuerung weiter so konfiguriert wird, dass sie die Lichtquelle so steuert, dass eine laufende Lichtemission gestoppt wird, falls der Sensor ein Lichtsignal empfängt.
    • In Beispiel 10aa kann der Gegenstand eines der Beispiele 7aa bis 9aa optional beinhalten, dass das Lichtsignal mit einem Lichtsignal verbunden ist, das von einem anderen LIDAR-Sensorsystem ausgesendet wird.
    • In Beispiel 11aa kann der Gegenstand eines der Beispiele 1aa bis 9aa optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert sind, dass sie einen Laufzeitwert für ein empfangenes Lichtsignal bestimmen.
    • In Beispiel 12aa kann der Gegenstand von Beispiel 11aa optional beinhalten, dass das empfangene Lichtsignal mit einem vom LIDAR-Sensorsystem emittierten Lichtsignal verknüpft wird.
    • In Beispiel 13aa kann der Gegenstand eines der Beispiele 1aa bis 12aa optional beinhalten, dass die Lichtquellensteuerung weiter konfiguriert wird, um die Lichtquelle so zu steuern, dass sie eine Lichtsignalsequenz in Übereinstimmung mit einem vordefinierten Rahmen aussendet. Die Lichtsignalsequenz kann eine Vielzahl von Bits des Rahmens darstellen.
    • In Beispiel 14aa kann der Gegenstand von Beispiel 13aa optional beinhalten, dass der vordefinierte Rahmen ein MAC-Rahmen (Medium Access Control) ist.
    • In Beispiel 15aa kann der Gegenstand eines der Beispiele 13aa oder 14aa optional beinhalten, dass der vordefinierte Rahmen einen Kopfteil und einen Nutzlastteil enthält.
    • In Beispiel 16aa kann der Gegenstand von Beispiel 15aa optional beinhalten, dass der vordefinierte Rahmen ferner einen Fußzeilenrahmenteil mit Fehlererkennungs- und/oder Fehlerkorrekturinformationen enthält.
    • In Beispiel 17aa kann der Gegenstand eines der Beispiele 1aa bis 16aa optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 18aa kann der Gegenstand eines der Beispiele 1aa bis 16aa optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 19aa kann der Gegenstand eines jeden der Beispiele 1aa bis 18aa optional beinhalten, dass die Lichtquelle eine Laserlichtquelle enthält.
    • Beispiel 20aa ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann die Bereitstellung einer Lichtquelle beinhalten. Das Verfahren kann die Bereitstellung eines Sensors mit einer oder mehreren Fotodioden umfassen, die so konfiguriert sind, dass sie ein empfangenes Lichtsignal liefern. Das Verfahren kann die Bestimmung einschließen, ob der Sensor ein Lichtsignal empfängt. Das Verfahren kann die Steuerung der Lichtquelle zum Aussenden von Licht in Abhängigkeit davon umfassen, ob der Sensor ein Lichtsignal empfängt.
    • In Beispiel 21aa kann der Gegenstand von Beispiel 20aa optional die Steuerung einer Startzeit für das Aussenden von Licht in Abhängigkeit davon umfassen, ob der Sensor ein Lichtsignal empfängt.
    • In Beispiel 22aa kann der Gegenstand eines der Beispiele 20aa oder 21aa wahlweise die Steuerung der Lichtquelle zur Emission von Licht in Abhängigkeit von einem Lichtemissionsschema umfassen. Die Anfangszeit der Lichtemission in Abhängigkeit vom Lichtemissionsschema kann angepasst werden, falls der Sensor ein Lichtsignal empfängt.
    • In Beispiel 23aa kann der Gegenstand eines jeden der Beispiele 20aa bis 22aa optional die Verschiebung der Startzeit um einen Zeitraum umfassen.
    • In Beispiel 24aa kann der Gegenstand von Beispiel 23aa optional einschließen, dass es sich bei der Zeitspanne um eine feste Zeitspanne, eine variable Zeitspanne, eine zufällig bestimmte Zeitspanne handelt.
    • In Beispiel 25aa kann der Gegenstand eines der Beispiele 20aa bis 24aa optional die Bestimmung einschließen, ob die Zeitspanne über ein oder mehrere Zeitintervalle verstrichen ist.
    • In Beispiel 26aa kann der Gegenstand eines der Beispiele 20aa bis 25aa optional die Steuerung der Quelle zur Aussendung von Licht für den Fall umfassen, dass der Sensor kein Lichtsignal empfängt.
    • In Beispiel 27aa kann der Gegenstand von Beispiel 26aa optional die Steuerung der Lichtquelle zum Aussenden von Licht für den Fall umfassen, dass der Sensor während einer vordefinierten Zeitspanne kein Lichtsignal empfängt.
    • In Beispiel 28aa kann der Gegenstand eines der Beispiele 20aa bis 27aa optional die Steuerung der Lichtquelle umfassen, um eine laufende Lichtemission zu stoppen, falls der Sensor ein Lichtsignal empfängt.
    • In Beispiel 29aa kann der Gegenstand eines der Beispiele 26aa bis 28aa optional beinhalten, dass das Lichtsignal mit einem Lichtsignal verbunden ist, das von einem anderen LIDAR-Sensorsystem ausgesendet wird.
    • In Beispiel 30aa kann der Gegenstand eines der Beispiele 20aa bis 28aa optional die Bestimmung eines Flugzeitwertes für ein empfangenes Lichtsignal beinhalten.
    • In Beispiel 31aa kann der Gegenstand von Beispiel 30aa optional beinhalten, dass das empfangene Lichtsignal mit einem vom LIDAR-Sensorsystem emittierten Lichtsignal verknüpft wird.
    • In Beispiel 32aa kann der Gegenstand eines der Beispiele 20aa bis 31aa optional die Steuerung der Lichtquelle zur Aussendung einer Lichtsignalsequenz in Übereinstimmung mit einem vordefinierten Rahmen umfassen. Die Lichtsignalfolge kann eine Vielzahl von Bits des Rahmens darstellen.
    • In Beispiel 33aa kann der Gegenstand von Beispiel 32aa optional beinhalten, dass der vordefinierte Rahmen ein MAC-Rahmen (Medium Access Control) ist.
    • In Beispiel 34aa kann der Gegenstand eines der Beispiele 32aa oder 33aa optional beinhalten, dass der vordefinierte Rahmen einen Kopfteil und einen Nutzlastteil enthält.
    • In Beispiel 35aa kann der Gegenstand von Beispiel 34aa optional beinhalten, dass der vordefinierte Rahmen ferner einen Fußzeilenrahmenteil mit Fehlererkennungs- und/oder Fehlerkorrekturinformationen enthält.
    • In Beispiel 36aa kann der Gegenstand eines der Beispiele 20aa bis 35aa optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 37aa kann der Gegenstand eines der Beispiele 20aa bis 35aa optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 38aa kann der Gegenstand eines der Beispiele 20aa bis 37aa optional beinhalten, dass die Lichtquelle eine Laserlichtquelle enthält.
    • Beispiel 39aa ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems der Beispiele 1aa bis 19aa ausgeführt werden, das gesteuerte LIDAR-Sensorsystem veranlassen, das Verfahren eines der Beispiele 20aa bis 38aa auszuführen.
    • Beispiel 40aa ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eine der Methoden für ein LIDAR-Sensorsystem eines der oben genannten Methodenbeispiele ausführt.
  • In den letzten Jahren haben die Automobilindustrie und verschiedene Technologieunternehmen bedeutende Fortschritte gemacht, um selbstfahrende Fahrzeuge Wirklichkeit werden zu lassen. Autonome Fahrzeuge (AV) sind in der Lage, relevante Signale und Hindernisse zu erkennen, die Verkehrsbedingungen zu analysieren und geeignete Navigationspfade zu generieren, um Passagiere ohne menschliches Zutun an ihr Ziel zu bringen. Infolgedessen haben AVs das große Potenzial, Verkehrssysteme grundlegend zu verändern, indem sie die persönliche Sicherheit erhöhen, die Zufriedenheit der Benutzer erhöhen, die Umweltbelastung verringern, die Infrastrukturkosten senken und Zeit für die Fahrer sparen.
  • Autonomes Fahren (oder halbautonomes Fahren) stellt jedoch sehr hohe Anforderungen, einschließlich ausgefeilter Erfassungs- und Kommunikationsfähigkeiten.
  • Zu den hochentwickelten Sensoren gehören Kameras und andere Entfernungssensoren zur Wahrnehmung der Umwelt. Beispielsweise können in diesem technischen Kontext LIDAR-Sensoren aufgrund ihrer fortschrittlichen 3D-Erfassungsfähigkeiten und ihrer großen Reichweite zur Verfügung gestellt werden.
  • Darüber hinaus sind fortgeschrittene Kommunikationsfähigkeiten Voraussetzung. Bei den Fahrzeugen wird in der Regel von einer Netzwerkkonnektivität (z.B. LTE- oder 5G-Konnektivität) und in vielen Fällen von einer dedizierten Fahrzeug-zu-Fahrzeug- (V2V) oder Fahrzeug-zu-Infrastruktur- (V2l) Kommunikation ausgegangen.
  • Damit werden viele neue Anwendungsfälle realisierbar. Ein erster gangbarer Schritt in Richtung autonomes Fahren sind Anwendungsfälle wie Platooning, bei dem Fahrzeuge Konvois bilden, die vom ersten Fahrzeug im Konvoi gesteuert werden, um die Straßennutzung zu erhöhen, oder Valet Parking, bei dem das Fahrzeug auf dem Parkplatz abgesetzt wird und dann vollautomatisch die Manöver durchführt, die das Fahrzeug benötigt, um seinen Parkplatz zu erreichen.
  • Trotz der ansprechenden Auswirkungen, die große Anstrengungen sowohl von globalen Automobilherstellern als auch von Technologieunternehmen anziehen, bringt es auch neue und herausfordernde Sicherheitsbedrohungen sowohl für AVs als auch für Benutzer mit sich. Zuallererst ist AV aufgrund der Freilegung der Fernsteuerungsschnittstelle mit einem breiten Spektrum von Cyberangriffen konfrontiert, die zu Sicherheitsproblemen für Fahrer, Passagiere und Fußgänger führen können.
  • Um die Fahrzeugkontrolle zu sichern, wird in der Regel eine Ein-Faktor-Authentifizierung auf der Basis eines physischen Schlüssels oder biometrischer Daten an einem Fahrzeug implementiert, was heutzutage zu endlosen Fahrzeugdiebstahl-Unfällen führt. Eine Fahrzeugfernsteuerung bietet Gegnern jedoch große automobile Angriffsflächen, so dass für Fahrzeuge, z.B. AVs, eine Identitätsauthentifizierung mit höherer Sicherheitsgarantie erforderlich ist. Für die Identitätsüberprüfung zwischen einem Smartphone und einem Fahrzeug, z.B. einem AV, kann eine Multi-Faktor-Authentifizierung mit der Integration mehrerer Authentifizierungsfaktoren, z.B. Login und Passwort, geheime Daten, sichere Geräte und biometrische Daten, bereitgestellt werden. Eine n-Faktor-Authentifizierung erhöht die Sicherheit der Ein-Faktor-Authentifizierung, so dass selbst n-1-Faktoren versehentlich offengelegt werden, die Sicherheitsgarantie würde nicht ausarten.
  • In verschiedenen Ausführungsformen ist ein Mechanismus vorgesehen, der es erlaubt, einen verifizierten Ort als zusätzlichen Faktor für die Authentifizierung einzubeziehen.
  • Verschiedene Ausführungsformen können einen LIDAR-Sensor als Teil eines Out-of-Band (OOB)-Kommunikationsmechanismus bereitstellen, der aufgrund der Sichtlinien-Eigenschaften (LOS) und der begrenzten Reichweite der LIDAR-Sendung und des LIDAR-Empfangs die Überprüfung der Anwesenheit an einem bestimmten Ort ermöglicht. OOB bedeutet in diesem Zusammenhang, dass die Kommunikation nicht über den Haupt-In-Band (Funk-)Kanal (z.B. eine bestehende LTE- oder 5G-Verbindung) erfolgt, der zur Ermittlung des ersten Faktors (z.B. Kombination von Login und Passwort) verwendet werden kann, sondern über eine andere unabhängige Verbindung.
  • Mögliche Szenarien für die V2V- und V2l-Authentifizierung unter Verwendung eines LIDAR-basierten OOB-Kanals sind in 182 und 183 unten dargestellt.
  • 182 zeigt ein Kommunikationssystem 18200 mit einem ersten Fahrzeug 18202 und einem zweiten Fahrzeug 18204 und zwei etablierten Kommunikationskanälen nach verschiedenen Ausführungsformen.
  • Das erste Fahrzeug 18202 verfügt über einen Mobilfunkkommunikationskreislauf und eine Mobilfunkschnittstelle einschließlich einer ersten Antenne 18206. Das zweite Fahrzeug 18204 kann ebenfalls über eine Mobilfunk-Kommunikationsschaltung und eine Mobilfunk-Kommunikationsschnittstelle einschließlich einer zweiten Antenne 18208 verfügen. Die Mobilfunk-Kommunikationsschaltungen und Mobilfunk-Kommunikationsschnittstellen können nach jedem gewünschten Mobilfunk-Kommunikationsstandard wie UMTS (Universal Mobile Telecommunications System), LTE (Long Term Evolution), CDMA2000 (Code Division Multiple Access 2000), 5G und dergleichen konfiguriert werden. Das System 18200 kann ferner ein Mobilfunk-Kernnetz 18210 aufweisen (die ebenfalls vorgesehenen Funkzugangsnetze (RANs) mit den entsprechenden Basisstationen sind in den Abbildungen aus Gründen der Einfachheit nicht dargestellt). Eine erste Kommunikationsverbindung (auch als erster Kommunikationskanal oder Haupt-In-Band-Kanal bezeichnet) 18212 kann zwischen dem ersten Fahrzeug 18202 und dem zweiten Fahrzeug 18204 über die RANs und das Kernnetz 18210 hergestellt werden.
  • Darüber hinaus kann das erste Fahrzeug 18202 über mindestens ein erstes LIDAR-Sensorsystem 10 und das zweite Fahrzeug 18204 über mindestens ein zweites LIDAR-Sensorsystem 10 verfügen. Zum Beispiel kann das erste Fahrzeug 18202 ein erstes LIDAR-Sensorsystem 10 an der Vorderseite des ersten Fahrzeugs 18202 und ein weiteres erstes LIDAR-Sensorsystem 10 an der Rückseite des ersten Fahrzeugs 18202 angeordnet sein. Darüber hinaus kann das zweite Fahrzeug 18204 ein zweites LIDAR-Sensorsystem 10, das an der Vorderseite des zweiten Fahrzeugs 18204 angeordnet ist, und ein weiteres zweites LIDAR-Sensorsystem 10, das an der Rückseite des zweiten Fahrzeugs 18204 angeordnet ist, aufweisen.
  • Eine zweite Kommunikationsverbindung (auch als zweiter Kommunikationskanal oder (LIDAR-basierter) Out-of-Band (OOB)-Kanal bezeichnet) 18214 kann zwischen dem ersten Fahrzeug 18202 und dem zweiten Fahrzeug 18204 hergestellt werden, z.B. über das erste LIDAR-Sensorsystem 10, das an der Vorderseite des ersten Fahrzeugs 18202 angeordnet ist, und das zweite LIDAR-Sensorsystem 10, das an der Rückseite des zweiten Fahrzeugs 18204 angeordnet ist.
  • Jedes LIDAR-Sensorsystem 10 kann einen Sensor 52 mit einer oder mehreren Fotodioden und einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie digitale Daten aus einem von der einen oder den mehreren Fotodioden empfangenen Lichtsignal dekodieren.
  • Mit anderen Worten: 182 zeigt ein mögliches Szenario für eine Fahrzeug-zu-Fahrzeug (V2V)-Authentifizierung unter Verwendung eines LIDAR-basierten OOB-Kanals, wie im Folgenden näher beschrieben wird.
  • 183 zeigt ein Kommunikationssystem 18300 mit einem Fahrzeug 18302 und einer Verkehrsinfrastruktur 18304 (z.B. einer Parkplatzinfrastruktur oder einem Verkehrsposten oder einer Ampel o.ä.) und zwei etablierten Kommunikationskanälen nach verschiedenen Ausführungsformen.
  • Das Fahrzeug 18302 verfügt über einen Mobilfunkkommunikationskreislauf und eine Mobilfunkschnittstelle einschließlich Antenne 18306. Die Verkehrsinfrastruktur 18304 kann auch eine Mobilfunk-Kommunikationsschaltung und eine Mobilfunk-Kommunikationsschnittstelle einschließlich einer Antenne 18308 haben. Die Mobilfunk-Kommunikationsschaltungen und Mobilfunk-Kommunikationsschnittstellen können nach jedem gewünschten Mobilfunk-Kommunikationsstandard wie UMTS (Universal Mobile Telecommunications System), LTE (Long Term Evolution), CDMA2000 (Code Division Multiple Access 2000), 5G und dergleichen konfiguriert werden. Das Kommunikationssystem 18300 kann ferner ein Mobilfunk-Kernnetz 18310 aufweisen (die ebenfalls vorgesehenen Funkzugangsnetze (RANs) mit den entsprechenden Basisstationen sind in den Abbildungen aus Gründen der Einfachheit nicht dargestellt). Eine erste Kommunikationsverbindung (auch als erster Kommunikationskanal oder Haupt-In-Band-Kanal bezeichnet) 18312 kann zwischen dem Fahrzeug 18302 und der Verkehrsinfrastruktur 18304 über die RANs und das Kernnetz 18310 hergestellt werden.
  • Darüber hinaus kann das Fahrzeug 18302 über mindestens ein erstes LIDAR-Sensorsystem 10 und die Verkehrsinfrastruktur 18304 über mindestens ein zweites LIDAR-Sensorsystem 10 verfügen. Zum Beispiel kann das Fahrzeug 18302 ein erstes LIDAR-Sensorsystem 10 an der Vorderseite des Fahrzeugs 18302 und ein weiteres erstes LIDAR-Sensorsystem 10 an der Rückseite des Fahrzeugs 18302 angeordnet sein. Darüber hinaus kann die Verkehrsinfrastruktur 18304 ein zweites LIDAR-Sensorsystem 10 an der Vorderseite der Verkehrsinfrastruktur 18304 (die Seite, die auf die Straße gerichtet ist, von der aus sich die Fahrzeuge der Verkehrsinfrastruktur 18304 nähern sollen) und optional ein weiteres zweites LIDAR-Sensorsystem 10, das an einer anderen Seite der Verkehrsinfrastruktur 18304 angeordnet ist, aufweisen. Jedes LIDAR-Sensorsystem 10, z.B. jedes zweite LIDAR-Sensorsystem 10, kann eine LIDAR-kompatible Schnittstelle mit einem LIDAR-Sender und einem LIDAR-Detektor aufweisen.
  • Eine zweite Kommunikationsverbindung (auch als zweiter Kommunikationskanal oder (LIDAR-basierter) Out-of-Band (OOB)-Kanal bezeichnet) 18314 kann zwischen dem Fahrzeug 18302 und der Verkehrsinfrastruktur 18304 hergestellt werden, z.B. über das erste LIDAR-Sensorsystem 10, das an der Frontseite des Fahrzeugs 18302 angeordnet ist, und das zweite LIDAR-Sensorsystem 10, das an der Verkehrsinfrastruktur 18304 angeordnet ist.
  • Jedes LIDAR-Sensorsystem 10 kann einen Sensor 52 mit einer oder mehreren Fotodioden und einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie digitale Daten aus einem von der einen oder den mehreren Fotodioden empfangenen Lichtsignal dekodieren.
  • Mit anderen Worten, 183 zeigt ein mögliches Szenario für eine Fahrzeug-zu-Infrastruktur (V2I)-Authentifizierung unter Verwendung eines LIDAR-basierten OOB-Kanals, wie im Folgenden ausführlicher beschrieben wird.
  • Es ist zu beachten, dass ein LIDAR-Sensorsystem zwar von Natur aus kein Kommunikationsgerät ist, aber im Wesentlichen alle notwendigen Komponenten enthält, die zur Kommunikation benötigt werden, z.B. wenn die zu übertragende Datenmenge pro Zeitdauer nicht zu hoch ist.
  • Aufgrund der LOS-Eigenschaften (line of sight) und der begrenzten Reichweite des LIDAR-Sensorsystems 10 ist eine Lichtsignalübertragung über den OOB-Kanal 18214, 18314 schwer zu injizieren, schwer abzuhören und schwer abzufangen. Darüber hinaus bietet das LIDAR-Sensorsystem 10 aufgrund seiner Beschaffenheit die Möglichkeit, eine wirklich unabhängige Kommunikationsverbindung herzustellen.
  • In verschiedenen Ausführungsformen wird ein Zwei-Faktor-Authentifizierungsschema zur Verfügung gestellt, das die Verwendung eines eingeschränkten OOB-Kanals 18214, 18314 ermöglicht, wodurch es möglich wird, die LIDAR-Sensorsysteme 10 für den Austausch von OOB-Nachrichten zu verwenden, die zur Überprüfung des Standorts des zugehörigen Objekts, z.B. eines Fahrzeugs oder einer Verkehrsinfrastruktur, bereitgestellt werden. In verschiedenen Ausführungsformen können die Nachrichten so kodiert werden, dass die LIDAR-Sensorsysteme 10 für die Übermittlung der OOB-Nachrichten verwendet werden können.
  • Es ist auch zu beachten, dass das Verfahren nach verschiedenen Ausführungsformen, obwohl sie nur für die Zwei-Faktor-Authentifizierung vorgestellt wird, erweitert werden kann, um eine Mehr-Faktor-Authentifizierung auf einfache Weise zu ermöglichen.
  • Im Folgenden wird eine Zwei-Faktor-Authentifizierung unter Verwendung eines eingeschränkten Out-of-Band-Kanals ausführlicher beschrieben.
  • Verschiedene Ausführungsformen bieten sowohl Einweg- als auch gegenseitige Authentisierungen für verschiedene Anwendungsfälle, die ein unterschiedliches Sicherheitsniveau erfordern.
  • Als Authentifizierungsfaktoren verwendet das Schema nach verschiedenen Ausführungsformen ein über Mobilfunk (z.B. LTE- oder 5G-) übertragenes Token auf Basis des Bandkommunikationskanals 18212, 18312 und eine über Lidar übertragene Zufallszahl auf Basis des Out-of-Band-Kanals 18214, 18314. In verschiedenen Ausführungsformen wird davon ausgegangen, dass die Kommunikationspartner über einen oder mehrere vorab gemeinsam genutzte (kryptographische) Schlüssel verfügen, sowie über einen bandbasierten (Mobilfunk) Kommunikationskanal 18212, 18312, der grundlegende mobile Netzwerksicherheit wie z.B. Datenvertraulichkeit unterstützt.
  • Da verschiedene Ausführungsformen die Sicherheitsmerkmale des HMAC (Hash Message Authentication Code) für die Generierung von Authentifizierungsnachrichten und LIDAR als OOB-Kanal 18214, 18314 nutzen, eignet er sich dort, wo ein leichtgewichtiges und schnelles Authentifizierungsschema gewünscht wird. Unter Berücksichtigung der LOS-Eigenschaften und der begrenzten Reichweite des LIDAR-Sensors ermöglicht er zudem eine standortbasierte Authentifizierung in der Nähe des LIDAR-Sensors.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung vorgestellt. Als erstes wird ein Schema für ein einseitiges Authentifizierungsszenario vorgestellt. Dies ist z.B. relevant in Szenarien, wie sie beschrieben werden, in denen ein Fahrzeug (z.B. ein Auto) die Authentizität einer anderen Entität feststellen muss, bevor die Kontrolle übergeben wird. Ein zweites beschriebenes Schema ist für Szenarien mit gegenseitiger Authentisierung relevant, in denen eine starke Authentisierung unter den Kommunikationspartnern erwünscht ist. Verschiedene Ausführungsformen können leicht von der Einweg-Authentifizierung zum gegenseitigen Authentifizierungsschema erweitert werden.
  • Im Folgenden wird eine einseitige Zwei-Faktor-Authentifizierung ausführlicher beschrieben.
  • Betrachtet man ein Szenario wie in 183 dargestellt, so ist ein Nachrichtenfluss zur Durchführung einer einseitigen Zwei-Faktor-Authentifizierung in einem Nachrichtenflussdiagramm 18400 in 184 dargestellt. In diesem Beispiel werden das „Auto/Fahrzeug“ und der „Parkplatz“ (als ein Beispiel für eine Verkehrsinfrastruktur 18304) als Kommunikationspartner betrachtet. In einem anderen Anwendungsfall kann es jeder sein, der eine Zwei-Faktor-Authentifizierung durchführen möchte. Im Nachrichtenfluss wird der „Parkplatz“ (als ein Beispiel einer Verkehrsinfrastruktur 18304) durch ein Fahrzeug (z.B. Fahrzeug 18302, z.B. ein Auto) authentifiziert.
  • Die Einzelheiten jeder Nachricht im Nachrichtenflussdiagramm 18400, die zwischen dem Fahrzeug 18302 und der Verkehrsinfrastruktur 18304 (z.B. dem Parkplatz) ausgetauscht wird, und der damit verbundene Prozess werden weiter unten beschrieben:
    • Parkplatzbenachrichtigung 18402:
      • Wenn sich das Fahrzeug 18302 (z.B. ein Auto) auf dem Weg zum Parkplatz 18304 befindet, generiert und sendet die Mobilfunk-Kommunikationsschaltung des Fahrzeugs 18302 (z.B. über die Antenne 18306) eine Parkmeldung 18402 über den In-Band-Kommunikationskanal 18312 an den Parkplatz 18304, um die Verfügbarkeit eines Parkplatzes zu prüfen. Während dieses Vorgangs sendet sie auch einen Token-Wert über den In-Band-Kommunikationskanal 18312, auch Token_A genannt.
    • Bestätigungsmeldung 18404:
      • Die Mobilfunk-Kommunikationsschaltung des Parkplatzes 18304 empfängt und decodiert die Parkmeldung 18402 und prüft dann die Verfügbarkeit der Parkplätze innerhalb der Parkinfrastruktur (die eine Vielzahl von Fahrzeugparkplätzen bereitstellt), der der Parkplatz 18304 zugeordnet ist. Dann gibt der Parkplatz 18304 Informationen über einen verfügbaren Parkplatz der Parkinfrastruktur durch Kodierung, Generierung einer Bestätigungsnachricht 18404 und Übermittlung derselben an das Fahrzeug 18302 über den In-Band-Kommunikationskanal 18312.
    • OOB-Herausforderungsnachricht 18406:
      • Nachdem die Bestätigungsnachricht 18404 empfangen und dekodiert wurde, kodiert das LIDAR-Sensorsystem 10 des Fahrzeugs 18302 und erzeugt so eine OOB-Herausforderungsnachricht 18406. Die OOB-Herausforderungsnachricht 18406 kann eine Zufallszahl des Fahrzeugs (RN_C) aufweisen. Die OOB-Herausforderungsnachricht 18406 wird über den Lidar-basierten OOB-Kanal 18314 an den Parkplatz 18304 geliefert. Die Größe der Zufallszahl kann je nach Leistungsfähigkeit des LIDAR-Sensorsystems flexibel geändert werden 10. Um einen Replay-Angriff zu verhindern, ist die Zufallszahl nur für eine bestimmte (z.B. vordefinierte Zeit) gültig.
    • Authentifizierungsnachricht 18408:
      • Nachdem die OOB-Herausforderungsnachricht 18406 empfangen und dekodiert wurde, kodiert das LIDAR-Sensorsystem 10 des Parkplatzes 18304 oder einer anderen Entität des Parkplatzes 18304 und erzeugt so eine Authentifizierungsnachricht 18408, die unter Verwendung des über den In-Band-Kommunikationskanal 18312 empfangenen Token_A und des über den OOB-Kanal 18314 empfangenen RN_C zu authentifizieren ist. Der Parkplatz 18304 sendet die Authentifizierungsnachricht 18408 über den In-Band-Kommunikationskanal 18312 an das Fahrzeug 18302. Nachdem das Fahrzeug 18302 die Authentifizierungsnachricht 18408 empfangen und decodiert hat, verifiziert das Fahrzeug 18302 die Authentifizierungsnachricht 18408 im Jahr 18410.
      Die Authentifizierungsnachricht 18408 kann den folgenden Inhalt haben:
      • Die Authentifizierungsnachricht 18408 enthält eine Verkettung von zwei Hash-Ergebnissen und dem Token (Token_A), die vom Fahrzeug 18302 (z.B. dem Auto) zum Parkplatz 18304 über den In-Band-Kanal 18312 übertragen werden. Die Zufallszahl RN_C wird als ipad und opad des HMAC zum Auffüllen verwendet. Wenn die Zufallszahlen nicht lang genug zum Auffüllen sind, wird die jeweilige Zufallszahl so lange wiederholt, bis sie eine ausreichende Länge zum Auffüllen hat.
    • Beendete Nachricht 18412:
      • Nachdem das Fahrzeug 18302 (z.B. das Auto), wie oben erwähnt, die Authentisierungsnachricht 18408 empfangen und dekodiert hat, verifiziert es (im Jahre 18410) die Authentisierungsnachricht 18408, indem es den gleichen Wert erzeugt und mit der Authentisierungsnachricht 18408 vergleicht. Durch den Verifizierungsprozess 18410 kann das Fahrzeug 18302 (z.B. das Auto) die Authentizität des Parkplatzes 18304 (der illustrativ einen Kommunikationsgenossen des Fahrzeugs 18302 darstellt) verifizieren:
        • -Wenn der Kommunikationspartner, der authentifiziert werden möchte, über einen vorher geteilten (kryptographischen, z.B. symmetrischen) Schlüssel verfügt.
        • -Wenn die Kommunikationspartei, die einen vorher gemeinsam genutzten (kryptographischen, z.B. symmetrischen) Schlüssel hat, dieselbe Kommunikationspartei ist und das Token über den In-Band-Kommunikationskanal 18312 empfangen hat.
        • -Wenn die Kommunikationspartei, die einen vorher gemeinsam genutzten (kryptographischen, z.B. symmetrischen) Schlüssel und Token hat, physisch auf dem Parkplatz präsentiert wird (Ortsfaktor) und die Zufallszahl über den OOB-Kommunikationskanal 18314 erhalten hat.
        Wenn der Verifizierungsprozess 18410 erfolgreich abgeschlossen ist, generiert das Fahrzeug 18302 (z.B. das Auto) die Fertigmeldung 18412 und sendet sie über den In-Band-Kommunikationskanal 18312 an den Parkplatz 18304, um den Parkplatz 18304 darüber zu informieren, dass der Authentifizierungsprozess erfolgreich abgeschlossen wurde.
  • So zeigt 184 illustrativ einen Einweg-Authentifizierungsprozess unter Verwendung eines Mobilfunk-In-Band-Kommunikationskanals 18312 und eines LIDAR-basierten OOB-Kommunikationskanals 18314.
  • Im Folgenden wird eine gegenseitige Zwei-Faktor-Authentifizierung ausführlicher beschrieben.
  • 185 zeigt ein Flussdiagramm 18500, das einen gegenseitigen Zwei-Faktor-Authentifizierungsprozess in Übereinstimmung mit verschiedenen Ausführungsformen veranschaulicht.
  • Ein gegenseitiger Authentifizierungsprozess ähnelt der Einweg-Authentifizierung, wie sie unter Bezugnahme auf 184 oben beschrieben wurde.
  • 185 beschreibt die Prozessreihenfolge eines Authentifizierungsinitiators (als Beispiel kann das Fahrzeug 18302 (z.B. das Auto) der Initiator im Beispielszenario sein). Nach dem Start des Prozesses im Jahr 18502 prüft das Fahrzeug 18302 (z.B. das Auto) im Jahr 18504, ob es über einen vorher gemeinsam genutzten (kryptographischen, z.B. symmetrischen) Schlüssel verfügt. Wenn das Fahrzeug 18302 (z.B. das Auto) nicht über den vorab freigegebenen (kryptographischen, z.B. symmetrischen) Schlüssel verfügt („Nein“ in 18504), ist die Authentifizierung fehlgeschlagen und der Prozess wird 18506 beendet (z.B. durch Generierung und Senden einer entsprechenden Fehlermeldung an den Parkplatz 18304). Wenn das Fahrzeug 18302 (z.B. das Auto) den vorher geteilten (kryptographischen, z.B. symmetrischen) Schlüssel hat („Ja“ in 18504), kann das Fahrzeug 18302 (z.B. das Auto) eine Zufallszahl RN_C erzeugen und weiterhin eine Zufallszahl-Nachricht einschließlich der Zufallszahl RN_C erzeugen und die Zufallszahl-Nachricht über den OBB-Kommunikationskanal 18314 an den Parkplatz 18304 in 18508 senden. Für den Fall, dass das Fahrzeug 18302 (z.B. das Auto) keine weitere Zufallszahl RN_P vom Parkplatz 18304 über den OBB-Kommunikationskanal 18314 (siehe 184) empfängt (dies wird 18510 überprüft) - „Nein“ in 18510 - geht das Fahrzeug 18302 (z.B. das Auto) davon aus, dass der Parkplatz 18304 (Kommunikationspartner) keine gegenseitige Authentisierung erfordert und führt den Authentisierungsprozess, wie weiter unten beschrieben, weiter in 18514 durch. Für den Fall, dass das Fahrzeug 18302 (z.B. das Auto) die weitere Zufallszahl RN_P vom Parkplatz 18304 über den Lidar-basierten OOB-Kommunikationskanal 18314 empfängt und dekodiert („Ja“ in 18510), geht das Fahrzeug 18302 (z.B. das Auto) davon aus, dass der Parkplatz 18304 eine gegenseitige Authentisierung erfordert, und erzeugt und sendet eine erste Authentisierungsnachricht 1 an den Parkplatz 18304 über den In-Band-Kommunikationskanal 18312 (in 18512). Nach Empfang und Dekodierung einer zweiten Authentifizierungsnachricht 2 vom Parkplatz 18304 über den In-Band-Kommunikationskanal 18312 (in 18514) kann das Fahrzeug 18302 (z.B. das Auto) die zweite Authentifizierungsnachricht 2 in 18516 verifizieren. Wenn die Verifizierung fehlschlägt („Nein“ in 18516), ist die Authentifizierung fehlgeschlagen und der Prozess ist beendet (z.B. durch Generierung und Senden einer entsprechenden Fehlermeldung an den Parkplatz 18304) in 18506. Wenn die Verifizierung erfolgreich war („Ja“ in 18516), erlaubt das Fahrzeug 18302 einer angeforderten Ressource den Zugriff durch den Parkplatz 18304 (im Allgemeinen durch den authentifizierten Kommunikationspartner) in 18518. Dann wird der Authentisierungsprozess 18520 erfolgreich abgeschlossen („Ja“ in 18520).
  • Ein entsprechendes Nachrichtenflussdiagramm 18600 wird nun unter Bezugnahme auf 186 beschrieben.
    • - Parkplatzbenachrichtigung Nachricht 18602:
      • Wenn sich das Fahrzeug 18302 (z.B. ein Auto) auf dem Weg zum Parkplatz 18304 befindet, generiert und sendet die Mobilfunk-Kommunikationsschaltung des Fahrzeugs 18302 (z.B. über die Antenne 18306) eine Parkingbenachrichtigung 18402 über den In-Band-Kommunikationskanal 18312 zum Parkplatz 18304, um die Verfügbarkeit eines Parkplatzes mit einem Token-Wert, auch als Token_A bezeichnet, zu prüfen.
    • - Bestätigungsmeldung 18604:
      • Die Mobilfunk-Kommunikationsschaltung des Parkplatzes 18304 empfängt und decodiert die Parkmeldung 18402 und prüft dann die Verfügbarkeit der Parkplätze innerhalb der Parkinfrastruktur (die eine Vielzahl von Fahrzeugparkplätzen bereitstellt), der der Parkplatz 18304 zugeordnet ist. Dann gibt der Parkplatz 18304 Informationen über einen verfügbaren Parkplatz der Parkinfrastruktur durch Kodierung, Generierung einer Bestätigungsnachricht 18404 und Übermittlung derselben an das Fahrzeug 18302 über den In-Band-Kommunikationskanal 18312.
    • - OOB-Herausforderung Eine Botschaft 18606:
      • Nachdem das Fahrzeug 18302 die Bestätigungsnachricht 18604 empfangen und dekodiert hat, kann das Fahrzeug 18302 die OOB-Challenge-A-Nachricht 18606 erzeugen und diese über den LIDAR-basierten OOB-Kommunikationskanal 18314 zum Parkplatz 18304 übertragen. Die OOB-Herausforderungs-A-Nachricht 18606 kann eine erste Zufallszahl des Fahrzeugs 18302 (z.B. des Autos) aufweisen (RN_C). Abhängig von der Leistungsfähigkeit des LIDAR-Sensorsystems 10 des Fahrzeugs 18302 und des Parkplatzes 18304 kann die Grösse der ersten Zufallszahl RN_C flexibel verändert werden.
    • -OOB-Herausforderung B-Meldung 18608:
      • Darüber hinaus kann der Parkplatz 18304 die OOB-Herausforderungs-B-Nachricht 18608 generieren und diese über den LIDAR-basierten OOB-Kommunikationskanal 18314 an das Fahrzeug 18302 übertragen. Die OOB-Herausforderungs-B-Meldung 18608 kann eine zweite Zufallszahl des Parkplatzes 18304 (RN_P) aufweisen. Abhängig von der Leistungsfähigkeit des LIDAR-Sensorsystems 10 des Fahrzeugs 18302 und des Parkplatzes 18304 kann die Größe der zweiten Zufallszahl RN_P flexibel geändert werden.
    • -Erste Authentifizierungsnachricht A 18610:
      • Nachdem das Fahrzeug die OOB-Challenge-B-Meldung 18608 empfangen und dekodiert hat, kann es die erste Authentifizierungsnachricht A 18610 erzeugen und diese über den In-Band-Kommunikationskanal 18312 an den Parkplatz 18304 senden. Die erste Authentisierungsnachricht A 18610 kann zur Authentisierung des Fahrzeugs 18302 (z.B. des Autos) verwendet werden und wird auf einem Kommunikationspartner, z.B. dem Parkplatz 18304, verifiziert. Die erste Authentisierungsnachricht A 18610 kann Zufallszahlen aufweisen, um zu beweisen, dass das Fahrzeug 18302 (z.B. das Auto) derselbe Kommunikationspartner ist, der das Parken angefordert (durch Senden der Parkbenachrichtigungsnachricht 18602), den Token erhalten hat und der auf dem Parkplatz 18304 physisch anwesend war und die zweite Zufallszahl RN_P über den LIDAR-basierten OOB-Kommunikationskanal 18314 erhalten hat.
  • Die erste Authentifizierungsnachricht A 18610 kann den folgenden Inhalt haben:
    • -Erste Authentifizierungsnachricht A 18610 Verifizierung 18612:
      • Nach dem Empfang und der Dekodierung der ersten Authentifizierungsnachricht A 18610 kann der Parkplatz 18304 die gleiche Nachricht erzeugen und die erzeugte mit der vergleichen, die der Parkplatz 18304 über den In-Band-Kommunikationskanal 18312 empfangen hat (erster Authentifizierungsnachricht A 18610 Verifikationsprozess 18612). Durch die erste Authentifizierungsnachricht A 18610 Verifikationsprozess 18612 kann der Parkplatz 18304 das Fahrzeug 18302 (z.B. das Auto) authentifizieren.
    • - Zweite Authentifizierungsnachricht B 18614:
      • Wenn die erste Authentisierungsnachricht A 18610 Verifikationsprozess 18612 erfolgreich war, kann der Parkplatz 18304 die zweite Authentisierungsnachricht B 18614 generieren und diese über den In-Band-Kommunikationskanal 18312 an das Fahrzeug 18302 übertragen. Die zweite Authentisierungsnachricht B 18614 kann zur Authentisierung des Parkplatzes 18304 verwendet werden und wird auf einem Kommunikationspartner, z.B. dem Fahrzeug 18302, verifiziert. Die zweite Authentifizierungsnachricht B 18614 kann Zufallszahlen aufweisen, um zu beweisen, dass der Parkplatz 18304 derselbe Kommunikationspartner ist, der die Bestätigungsnachricht 18604 gesendet hat. Die zweite Authentifizierungsnachricht B 18614 kann vom Parkplatz generiert werden und Token_A den Parkplatz 18304 aufweisen, der vom Fahrzeug 18302 empfangen wurde, als dieses die Parknachricht 18602 sandte.
  • Die zweite Authentifizierungsnachricht B 18614 kann den folgenden Inhalt haben:
    • -Zweite Authentifizierungsnachricht B 18614 Verifizierung 18616:
      • Nachdem das Fahrzeug 18302 die zweite Authentifizierungsnachricht B 18614 empfangen und dekodiert hat, kann das Fahrzeug 18302 die gleiche Nachricht erzeugen und die erzeugte mit der vergleichen, die das Fahrzeug 18302 über den In-Band-Kommunikationskanal 18312 empfangen hat (Verifikationsprozess der zweiten Authentifizierungsnachricht B 18614 18616). Durch die zweite Authentifizierungsnachricht B 18614 Verifikationsprozess 18616 kann das Fahrzeug 18302 den Parkplatz 18304 authentifizieren.
  • Im Folgenden wird eine Verwendung von LIDAR-Sensoren für die OOB-Kommunikation näher beschrieben.
  • Der folgende Abschnitt beschreibt, wie das LIDAR-Sensorsystem 10 für die OOB-Kommunikation verwendet werden kann. Aus Hardware-Sicht verfügt das LIDAR-Sensorsystem 10 über alle für die Datenkommunikation erforderlichen Komponenten: Es hat einen Emitterteil, der während einer Kommunikationssitzung in einer Kommunikationsverbindung als Sender verwendet werden kann; und es hat einen Detektorteil, der während einer Kommunikationssitzung in einer Kommunikationsverbindung als Empfänger verwendet werden kann.
  • Verschiedene Ausführungsformen liefern das Format und die Kodierung/Dekodierung verschiedener OOB-Nachrichten einschließlich der vom LIDAR-Sensorsystem 10 zu übertragenden Daten.
  • Nachfolgend finden Sie eine Liste der Möglichkeiten:
    • 1. die jeweilige OOB-Nachricht (oder Teile davon) direkt in das LIDAR-Signal kodieren, z. B. unter Verwendung geeigneter Pulsmodulationsverfahren, unter Verwendung von Impulsfolgen-/Rahmenkodierungs- und Korrelationsempfängerkonzepten oder unter Verwendung anderer geeigneter Signalkodierungsverfahren, z. B. wie in dieser Offenbarung unter Bezugnahme auf 131 bis 144 beschrieben.
    • 2. Modulation der Aktivität:
      1. a) Die OOB-Meldung (oder Teile davon) wird in Form einer „Zeitlücke“ zwischen einzelnen LIDAR-Messungen kodiert, die möglicherweise durch ein Vielfaches eines vordefinierten „Zeitschlitzes“ quantifiziert wird. In diesem Fall könnte die zufällige OOB-Meldung (oder Teile davon) der Anzahl der Zeitschlitze entsprechen, die zwischen einer ersten Messung und einer zweiten Messung gezählt werden.
      2. b) Dasselbe wie oben, wobei die OOB-Meldung in Form einer „Zeitdauer“ der LIDAR-Aktivität kodiert ist, möglicherweise quantifiziert durch ein Vielfaches eines vordefinierten „Zeitfensters“.
      3. c) Kombination von a) und b).
    • 3. Kodierung durch die Anzahl der nachfolgend durchgeführten Messungen:
      1. a) Kodieren Sie die OOB-Meldung (oder Teile davon) in die Anzahl der nachfolgend durchgeführten Messungen, bevor zwischen den Messungen eine Pause entsteht.
      2. b) Oder alternativ die OOB-Meldung (oder Teile davon) in die Anzahl der nachfolgend durchgeführten Messungen pro Zeitdauer kodieren.
      3. c) Kombination von a) und b).
    • 4. Bitweiser Challenge-Response-Austausch / bitweise Übertragungsschemata ähnlich wie bei RFID-Systemen
    • 5. Modulation der Ausgangsleistung des LIDAR auf einer größeren Zeitskala (kleine Modulationsfrequenz im Vergleich zum LIDAR-Impuls / Messwiederholfrequenz) unter Verwendung eines beliebigen SoA-Modulationsschemas (analog oder digital).
    • 6. Eine Kombination einer oder mehrerer der Möglichkeiten 2. bis 5. wie oben beschrieben.
  • Welche dieser Methoden für die Datenübertragung verwendet wird (oder verwendet werden kann), kann von mehreren Faktoren abhängen, u.a. von den technischen Möglichkeiten, die das jeweilige LIDAR-Sensorsystem 10 bietet, oder von dem Maß an Interdependenz, das akzeptabel ist, ohne die Funktionsfähigkeit zu beeinträchtigen. Hochentwickelte LIDAR-Sensorsysteme 10 können eine direkte Kodierung der OOB-Nachricht auf die Ranging-Signale ermöglichen (Möglichkeit 1.). Dies kann die Kapazität des OOB-Kommunikationskanals 18314 erhöhen oder die Gesamtzeit, die für den Informationsaustausch benötigt wird, verringern. Wenn jedoch das entsprechende LIDAR-Sensorsystem 10 diese Möglichkeit nicht zulässt und die OOB-Kommunikation leicht genug ist, dann können die anderen Schemata (Möglichkeit 2. bis 6.) für den OOB-Nachrichtenaustausch verwendet werden.
  • Im Folgenden werden verschiedene Merkmale des Schemas der verschiedenen Ausführungsformen näher beschrieben.
  • Die Schemata nach verschiedenen Ausführungsformen können bestimmte Merkmale aufweisen, die sie für anspruchsvolle Automobilanwendungen mit einem LIDAR-basierten OOB-Kommunikationskanal 18314 geeignet machen.
    • - In verschiedenen Ausführungsformen kann ein Schema ein wirksames Mittel zur Zwei-Faktor-Authentifizierung darstellen, indem es einen bestätigten Standort als zweiten Faktor für ein erhöhtes Sicherheitsniveau hinzufügt.
    • - In verschiedenen Ausführungsformen kann ein Schema auf dem gut etablierten HMAC-Schema mit nachgewiesener Sicherheit basieren:
      • -Sicherheit gegen Man in the Middle-Angriffe.
        • -- Sicher gegen Replay-Angriffe.
        • -- Schnelle Berechnungsgeschwindigkeit durch Verwendung der Hash-Funktion.
      • - Abhängig von der erforderlichen Sicherheitsstufe können verschiedene Algorithmen wie SHA-1, SHA-256, SHA-384 und SHA-512 verwendet werden, deren kryptographische Stärke erwiesen ist.
  • In verschiedenen Ausführungsformen kann ein Schema in der Lage sein, einen eingeschränkten OOB-Kanal zu nutzen, der es ermöglicht, LIDAR-Sensoren 52 oder möglicherweise andere aktive Sensoren/Aktuatoren und passive Sensoren als Teil einer OOB-Kommunikationsverbindung (mit anderen Worten: OOB-Kommunikationskanal) zu verwenden, um als zweiten Faktor eine bestätigte Position zu liefern.
    • --Dies kann vorgesehen werden, da in zukünftigen Fahrzeugen eine große Anzahl hochentwickelter Sensoren implementiert werden, die solche Aufgaben erfüllen können.
      • -LIDAR-Sensoren und Radarsensoren umfassen einen Emitter und einen Detektor, die im Wesentlichen die Hälfte einer Kommunikationsverbindung bilden. In Szenarien, in denen zwei Fahrzeuge über übereinstimmende Sensoren (passender Typ und FOE / FOV des Sensors) verfügen, kann eine Kommunikationsverbindung leicht hergestellt werden. In Szenarien, in denen Fahrzeuge mit der Infrastruktur kommunizieren, kann der entsprechende Sender und Detektor leicht in die Infrastruktureinheit integriert werden.
      • -Potenziell kann auch das Frontlicht des Fahrzeugs als Emitter für eine unidirektionale OOB-Kanalübertragung verwendet werden.
  • Da für die OOB-Kommunikation Sensoren mit begrenzter Reichweite und einer LOS-Charakteristik verwendet werden, ist es sehr schwierig, Nachrichten auf der LIDAR-Kommunikationsverbindung zu injizieren / abzuhören / abzufangen.
  • Im Folgenden werden verschiedene mögliche Anwendungsfälle und Anwendungen und damit verschiedene Ausführungsformen näher beschrieben.
  • Sichere und Multi-Faktor-Authentifizierung ist ein anspruchsvolles, aber hoch relevantes Problem, das viele Anwendungsfälle im Kontext der Fahrzeug-zu-Fahrzeug- (V2V) oder Fahrzeug-zu-Infrastruktur- (V2I) Kommunikation erfasst, die direkt oder indirekt mit der Fahrzeugmobilität zusammenhängen. Dies gilt umso mehr im Hinblick auf zukünftige Anwendungen einschließlich ADAS sowie Anwendungen des autonomen Fahrens.
  • Mögliche Anwendungsszenarien und Anwendungsfälle sind unter anderem:
    • -Valet-Parken:
      • Das bedeutet, dass Parkmanöver vollautomatisch durch das Fahrzeug (z.B. Fahrzeug 18302) ausgeführt werden. Der Fahrer kann das Fahrzeug (z.B. Fahrzeug 18302) in den Einfahrtsbereich der Parkierungsanlage stellen und aktiviert die Funktion des Valet-Parkens (z.B. über ein Smartphone). Sobald er seine Fahrt fortsetzen möchte, ruft er das Fahrzeug zurück und nimmt es im Ausfahrtsbereich in Empfang.
    • Aufgabe:
      • Das Valet-Parking-System muss sich gegenüber dem Fahrzeug authentifizieren, bevor das Fahrzeug die Kontrolle an das Valet-Parking-System abgibt.
    • Platzierung:
      • Im Transportwesen ist die Zugbildung ein Verfahren zum gemeinsamen Fahren einer Gruppe von Fahrzeugen. Sie soll die Kapazität von Straßen über ein automatisiertes Straßensystem erhöhen. Zugverbände verringern die Abstände zwischen Fahrzeugen wie Autos oder Lastwagen durch elektronische und möglicherweise mechanische Kopplung. Diese Fähigkeit würde es vielen Fahrzeugen wie Autos oder Lastwagen ermöglichen, gleichzeitig zu beschleunigen oder zu bremsen. Dieses System ermöglicht auch einen engeren Abstand zwischen den Fahrzeugen, indem der für die menschliche Reaktion erforderliche Reaktionsabstand eliminiert wird.
    • Aufgabe:
      • Die Fahrzeugkolonne muss sich gegenüber dem Fahrzeug authentifizieren, bevor das Fahrzeug seine Kontrolle an die Kolonne übergibt.
    • Servicestelle, Autowerkstatt, Fahrzeugprüfeinrichtung:
      • Aufgabe:
        • Möglichkeit, sich gegenüber dem Fahrzeug zu authentifizieren, bevor das Fahrzeug den erweiterten Zugriff auf sein internes System an die Einrichtung übergibt (z.B. Fahrzeug erlaubt erweiterten Zugriff auf Diagnosefunktionen oder Konfigurationen, Fahrzeug erlaubt ein Firmware-Update über die Einrichtung).
    • Fahrzeugzugang, Garagentor:
      • Aufgabe:
        • Fahrzeug authentifiziert sich gegenüber einem Zugangskontrollmechanismus, um Zugang zu erhalten (z.B. Garagentor/Parkplatzzufahrtstor öffnet sich erst, nachdem sich das Fahrzeug authentifiziert hat).
  • Im Folgenden werden verschiedene mögliche Kommunikationsszenarien ausführlicher beschrieben.
  • Verschiedene Fahrzeug-zu-Fahrzeug- (V2V) oder Fahrzeug-zu-Infrastruktur- (V2l) Kommunikationsszenarien werden durch die Schemata nach verschiedenen Ausführungsformen abgedeckt. Im vorhergehenden Abschnitt wurde ein Beispiel angeführt, bei dem die In-Band-Kommunikation über das Mobilfunknetz (wie LTE oder 5G) realisiert wurde. Die Schemata nach verschiedenen Ausführungsformen funktionieren jedoch auch unter der Annahme einer direkten V2V- oder V2l-Kommunikation, z.B. unter Verwendung von hochfrequenzbasierter DSRC (dedicated short range communication) / IEEE 802.11p.
  • Das Authentisierungsschema nach verschiedenen Ausführungsformen basiert auf einem sogenannten HMAC-Schema, das modifiziert und teilweise erweitert wird, um einen potenziell kapazitätsbeschränkten OOB-Kommunikationskanal, z.B. basierend auf einem LIDAR-Sensorsystem 10, für eine sichere Zwei-Faktor-Authentisierung zu nutzen.
  • Verschiedene zusätzliche Ausführungsformen werden weiter unten beschrieben.
  • Im Folgenden wird eine Zugbeglaubigung näher beschrieben.
  • Platooning ist ein Verfahren zum gemeinsamen Fahren einer Gruppe von Fahrzeugen. Der Zugführer/Führer/Anführer (d.h. das Fahrzeug, das den Zug anführt) führt den Weg an und die nachfolgenden Fahrzeuge (z.B. Autos) folgen dem Führer. Da der Zugführer die Geschwindigkeit und Richtung kontrolliert und die nachfolgenden Fahrzeuge auf die Entscheidung des Führungsfahrzeugs reagieren, kann ein böswilliges Fahrzeug (z.B. ein Auto) unter den Mitgliedern einer Zuggruppe eine ernsthafte Bedrohung darstellen, z.B. kann ein böswilliges Fahrzeug absichtlich einen Unfall verursachen. Daher ist eine starke gegenseitige Authentisierungslösung erforderlich:
    • - Beglaubigung des Anführers: Wenn ein Fahrzeug dem Zug beitritt, muss es dem Anführer/Führer/Leiter vertrauen.
    • - Authentifizierung des Beitretendem: Der Anführer muss dem Fahrzeug vertrauen, das dem Zug beitritt.
  • Für dieses Szenario werden im Folgenden zwei Authentifizierungsschemata vorgestellt. In einem ersten beispielhaften Schema führen der Anführer und der Beitretende eine gegenseitige Authentifizierung über weitergeleitete OOB-Nachrichten innerhalb des Zugs durch. In einem zweiten beispielhaften Schema wird die gegenseitige Authentifizierung paarweise zwischen benachbarten Fahrzeugen durchgeführt, während der Zug wächst und ein Vertrauensnetzwerk aufbaut (und keine zusätzliche Weiterleitung von OOB-Meldungen erforderlich ist).
  • Gegenseitige Authentifizierung zwischen Anführer und Beitretendem mittels OOB-Nachrichten-Weiterleitung:
  • Eine erste Lösung bietet eine gegenseitige Authentifizierung zwischen dem Anführer und dem Beitretenden.
  • Die Lösung bietet Folgendes:
    • - Die Fahrzeuge im Zug benötigen möglicherweise die Fähigkeit zur Weiterleitung von OOB-Nachrichten, z.B. können Nachrichten, die an einem vorderen Sensor (Sensor an der Vorderseite des Fahrzeugs) empfangen werden, an einem hinteren Sensor (Sensor an der Rückseite des Fahrzeugs) reemittiert werden; und umgekehrt. (Bemerkung: Das nachsendende Fahrzeug darf diese Nachrichten lesen, ohne dass das Authentifizierungsschema beeinträchtigt wird).
  • Wir gehen auch davon aus, dass der Anführer und der Beitretende vorgeteilte (z.B. vordefinierte) Schlüssel halten können. Der Anführer erhält mehrere Schlüssel von einer zentralen Stelle / einem Server im Voraus (die Anzahl der Schlüssel ist durch die maximale Zuggröße begrenzt, z.B. ein Hash-Schlüsselanhänger der entsprechenden Länge). Der Beitretende erhält beim Beitritt einen Schlüssel von derselben Zentraleinheit / demselben Server. Für die gemeinsame Nutzung von Schlüsseln können gut bekannte Schlüsselverteilungsschemata verwendet werden.
  • 187 beschreibt ein Dienstszenario 18700 und ein Nachrichtenflussdiagramm 18750.
  • 187 ein Fahrzeugzug 18702 gebildet z.B. aus drei Fahrzeugen 18704, 18706, 18708, die über LIDAR-basierte OOB-Kommunikationsfähigkeiten verfügen 18710, 18712.
  • Ein gegenseitiger Authentisierungsprozess beginnt damit, dass ein Verbindungsfahrzeug (ein Fahrzeug, das dem Fahrzeugzug 18702 beitreten will bzw. neu hinzukommt) 18714 eine Zugbeitrittsbenachrichtigungsnachricht 18752 an das Führungsfahrzeug 18704 des Fahrzeugzuges 18702 über den In-Band-Kommunikationskanal 18716 über ein Mobilfunk-Kernnetz 18718 (konfiguriert gemäß einem Mobilfunk-Kommunikationsstandard wie 5G oder LTE oder ähnlichem) sendet.
  • Dann kann das Führungsfahrzeug 18704 des Fahrzeugzuges 18702 eine Bestätigungsnachricht 18754 erzeugen und über denselben In-Band-Kommunikationskanal 18716 an das Verbindungsfahrzeug 18714 senden.
  • Dann können das Führungsfahrzeug 18704 des Fahrzeugzuges 18702 und das Verbindungsfahrzeug 18714 ihre Zufallszahlen zur gegenseitigen Authentifizierung (wie oben beschrieben) unter Verwendung von LIDAR als OOB-Kommunikationskanal austauschen. Die Fahrzeuge 18706, 18708, die sich zwischen dem Führungsfahrzeug 18704 und dem Verbindungsfahrzeug 18714 des Fahrzeugzuges 18702 befinden, leiten die auf den LIDAR-Sensorsystemen 10 der Fahrzeuge 18706, 18708 empfangenen Zufallszahlen über OOB-Kommunikation weiter.
  • Im Einzelnen kann das Führungsfahrzeug 18704 des Fahrzeugzuges 18702 über eine erste LIDAR-basierte OOB-Kommunikationsverbindung 18710 zwischen dem Führungsfahrzeug 18704 und dem zweiten Fahrzeug 18706 eine erste OOB-Challenge-A-Nachricht 18756 einschließlich einer ersten Zufallszahl RN_1 erzeugen und an ein zweites Fahrzeug 18706 des Fahrzeugzuges 18702 übertragen, die ebenfalls vom Führungsfahrzeug 18704 des Fahrzeugzuges 18702 erzeugt und/oder gespeichert wird. Das zweite Fahrzeug 18706 empfängt die OOB-Herausforderungs-A-Nachricht 18756 und leitet diese in einer ersten Weiterleitungsnachricht 18758 über eine zweite LIDAR-basierte OOB-Kommunikationsverbindung 18712 zwischen dem zweiten Fahrzeug 18706 und dem dritten Fahrzeug 18708 des Fahrzeugzuges 18702 an das dritte Fahrzeug 18708 weiter. Nach Empfang der ersten Weiterleitungsnachricht 18758 baut das dritte Fahrzeug 18708 eine dritte OOB-Kommunikationsverbindung 18718 zum Verbindungsfahrzeug 18714 auf. Darüber hinaus generiert und sendet das dritte Fahrzeug 18708 eine zweite Weiterleitungsnachricht 18760, die ebenfalls die erste Zufallszahl RN_1 enthält, über die dritte OOB-Kommunikationsverbindung 18718 an das Verbindungsfahrzeug 18714. Das Verbindungsfahrzeug 18714 kann eine zweite Zufallszahl RN_2 erzeugen und kann eine zweite OOB-Challenge-B-Nachricht 18762 einschließlich der zweiten Zufallszahl RN_2 erzeugen und über die dritte OOB-Kommunikationsverbindung 18718 an das dritte Fahrzeug 18708 senden. Das dritte Fahrzeug 18708 empfängt die zweite OOB-Herausforderungs-B-Nachricht 18762 und leitet diese in einer dritten Weiterleitungsnachricht 18764 über die zweite LIDAR-basierte OOB-Kommunikationsverbindung 18712 zwischen dem dritten Fahrzeug 18708 und dem zweiten Fahrzeug 18706 des Fahrzeugzuges 18702 an das zweite Fahrzeug 18706 weiter. Das zweite Fahrzeug 18706 empfängt die dritte Weiterleitungsnachricht 18764 und leitet diese in einer vierten Weiterleitungsnachricht 18766, die ebenfalls die zweite Zufallszahl RN_2 enthält, über die erste LIDAR-basierte OOB-Kommunikationsverbindung 18710 zwischen dem zweiten Fahrzeug 18706 und dem Führungsfahrzeug 18704 des Fahrzeugzuges 18702 an das Führungsfahrzeug 18704 weiter.
  • Nachdem das Führungsfahrzeug 18704 die vierte Weiterleitungsnachricht 18766 einschließlich der zweiten Zufallszahl RN_2 empfangen und dekodiert hat, kann das Führungsfahrzeug 18704 eine erste Authentifizierungsnachricht A 18768 erzeugen und diese über den In-Band-Mobilfunkkanal 18716 an das Verbindungsfahrzeug 18714 senden. Die erste Authentisierungsnachricht A 18768 kann zur Authentisierung des Führungsfahrzeugs 18704 verwendet werden und kann auf einem Kommunikationsgenossen, z.B. dem Verbindungsfahrzeug 18714, verifiziert werden. Die erste Authentifizierungsnachricht A 18768 kann Zufallszahlen aufweisen, um zu beweisen, dass das Führungsfahrzeug 18704 derselbe Kommunikationspartner ist, der behauptet, das Führungsfahrzeug 18704 des Fahrzeugzuges 18702 zu sein (durch Senden der Zugbeitrittsbenachrichtigungsnachricht 18752), der das Token erhalten hat und der die zweite Zufallszahl RN_2 über die LIDAR-basierten OOB-Kommunikationskanäle 18718, 18712 und 18710 erhalten hat.
  • Die erste Authentifizierungsnachricht A 18768 kann den folgenden Inhalt haben:
  • Nach dem Empfang und der Dekodierung der ersten Authentifizierungsnachricht A 18768 kann das Verbindungsfahrzeug 18714 die gleiche Nachricht generieren und die generierte mit der Nachricht vergleichen, die das Verbindungsfahrzeug 18714 über den In-Band-Kommunikationskanal 18312 empfangen hat (erste Authentifizierungsnachricht A 18768 Verifikationsprozess 18770). Durch die erste Authentifizierungsnachricht A 18768 Verifikationsprozess 18770 kann das Verbindungsfahrzeug 18714 das Führungsfahrzeug 18704 authentifizieren.
  • Wenn die erste Authentifizierungsnachricht A 18768 Verifikationsprozess 18770 erfolgreich war, kann das Verbindungsfahrzeug 18714 eine zweite Authentifizierungsnachricht B 18772 erzeugen und diese über den In-Band-Kommunikationskanal 18312 an das Führungsfahrzeug 18704 übertragen. Die zweite Authentisierungsnachricht B 18772 kann zur Authentisierung des Verbindungsfahrzeugs 18714 verwendet werden und wird auf einem Kommunikationspartner, z.B. dem Führungsfahrzeug 18704, verifiziert. Die zweite Authentifizierungsnachricht B 18772 kann Zufallszahlen aufweisen, um zu beweisen, dass das Verbindungsfahrzeug 18714 derselbe Kommunikationspartner ist, der die Bestätigungsnachricht 18754 gesendet hat. Die zweite Authentifizierungsnachricht B 18772 kann vom Verbindungsfahrzeug 18714 generiert werden und kann Token_A aufweisen, das das Verbindungsfahrzeug 18714 vom Führungsfahrzeug 18704 erhielt, als es die Verbindungsnachricht 18752 sandte.
  • Die zweite Authentifizierungsnachricht B 18772 kann den folgenden Inhalt haben:
  • Nachdem das Führungsfahrzeug 18704 die zweite Authentifizierungsnachricht B 18772 empfangen und dekodiert hat, kann das Führungsfahrzeug 18704 die gleiche Nachricht generieren und die generierte mit der vergleichen, die das Führungsfahrzeug 18704 über den In-Band-Kommunikationskanal 18312 empfangen hat (Verifikationsprozess der zweiten Authentifizierungsnachricht B 18772 18774). Durch die zweite Authentifizierungsnachricht B 18772 Verifikationsprozess 18774 kann das Führungsfahrzeug 18704 das beitretende Fahrzeug 18714 authentifizieren.
  • Durch die zweite Authentifizierungsnachricht B 18772 Verifikationsprozess 18774 kann das Führungsfahrzeug 18704 die Authentizität des beitretenden Fahrzeugs 18714 verifizieren (welches illustrativ eine Kommunikationsgenossin des Führungsfahrzeugs 18704 darstellt):
    • - Wenn der Kommunikationspartner, der authentifiziert werden möchte, über einen vorher gemeinsam genutzten (kryptografischen, z.B. symmetrischen) Schlüssel verfügt.
    • - Wenn die Kommunikationspartei, die über einen vorab freigegebenen (kryptografischen, z.B. symmetrischen) Schlüssel verfügt, dieselbe Kommunikationspartei ist und das Token über den In-Band-Kommunikationskanal 18312 empfangen hat.
    • - Wenn die Kommunikationspartei, die über einen vorab gemeinsam genutzten (kryptographischen, z.B. symmetrischen) Schlüssel und Token verfügt, physisch am beitretenden Fahrzeug 18714 (Ortsfaktor) präsentiert wird und die Zufallszahl über einen beliebigen OOB-Kommunikationskanal 18314 empfangen hat.
    • - Wenn der Verifizierungsprozess 18774 erfolgreich abgeschlossen ist, generiert das Führungsfahrzeug 18704 eine Fertigmeldung 18776 und sendet diese über den In-Band-Kommunikationskanal 18312 an den Parkplatz 18304, um den Parkplatz 18304 zu benachrichtigen, dass der Authentifizierungsprozess erfolgreich abgeschlossen wurde.
  • Dieser Prozess kann eine oder mehrere der folgenden Wirkungen haben:
    • - Information an das Führungsfahrzeug 18704, dass das Verbindungsfahrzeug 18714, das die Aufnahme in den Fahrzeugzug 18702 beantragt hatte, physisch vorgestellt wird.
  • Keine Verschlüsselung: Alle Daten, die über den LIDAR-basierten OOB-Kommunikationskanal übertragen werden, müssen nicht verschlüsselt werden. Dies erhöht die Geschwindigkeit des Authentifizierungsprozesses.
  • Kein Man-in-the-Middle-Angriff: Falls ein böswilliges Fahrzeug in der Mitte des Führungsfahrzeugs 18704 und des Verbindungsfahrzeugs 18714 die Zufallszahl ändert, können beide Authentifizierungs-Kommunikationspartner (das Führungsfahrzeug 18704 und das Verbindungsfahrzeug 18714) dies bemerken. Ein Man-in-the-Middle-Angriff ist somit nicht möglich.
  • No-Replay-Angriff: Da die Zufallszahl nur während einer bestimmten Zeit gültig ist, ist ein Replay-Angriff nicht möglich.
  • In verschiedenen Ausführungsformen besteht das beste Angriffsszenario, das ein bösartiges Fahrzeug in der Mitte der Zuggruppe annehmen kann, darin, die erhaltene Zufallszahl nicht weiterzuleiten. Wenn die Zufallszahl aufgrund der Instabilität des bösartigen Fahrzeugs oder des Kanals nicht gesendet wird, versucht das Verbindungsfahrzeug, LIDAR-Signale direkt an das Führungsfahrzeug zu senden, indem es neben dem Führungsfahrzeug fährt.
  • Authentifizierung, die ein Netzwerk des Vertrauens aufbaut:
  • Ein zweites Schema stützt sich auf paarweise gegenseitige Beglaubigungen, wenn der Zug wächst. Bei dieser Lösung werden das Führungsfahrzeug und das Verbindungsfahrzeug nicht direkt miteinander authentifiziert, sondern indirekt über die Fahrzeuge innerhalb des Fahrzeugzuges, um ein Vertrauensnetz aufzubauen.
  • Das Konzept lautet wie folgt:
  • Aus der Perspektive des neu hinzukommenden Fahrzeugs von 18714: Das neu hinzukommende Fahrzeug 18714 vertraut dem Fahrzeugzug 18702 Führungsfahrzeug 18704, weil das Führungsfahrzeug 18704 (z.B. Auto) davor ihm ebenfalls vertraut. Dies wurde auch angenommen, als das vorausfahrende Führungsfahrzeug 18704 (z.B. Auto) zu einem früheren Zeitpunkt dem Fahrzeugzug 18702 beitrat. Und so weiter. Und so kann das neu hinzukommende Fahrzeug 18714 durch Induktion dem Führungsfahrzeug 18704 vertrauen, ohne sich direkt bei ihm zu authentifizieren.
  • Aus der Perspektive des Führungsfahrzeugs von 18704: Das Führungsfahrzeug 18704 vertraut dem zu dem Fahrzeugzug 18702 neu hinzukommenden Fahrzeug 18714, weil ihm auch das hintere Fahrzeug vertraut. Das war auch die Annahme, als das hintere Fahrzeug darüber entschied, ob das neu hinzukommende Fahrzeug 18714 dem Fahrzeugzug 18702 beitreten darf. Und so weiter. Und so kann das Führungsfahrzeug 18704 durch Induktion dem neu beitretenden Fahrzeug 18704 vertrauen, ohne sich direkt bei ihm zu authentifizieren.
  • Durch die rein paarweise Feststellung der Authentizität ist für verschiedene Ausführungsformen keine OOB-Nachrichtenweiterleitung erforderlich.
  • Im Folgenden wird eine Authentifizierung unter Verwendung von Radar-, Ultraschall- und anderen Sensoren für die OOB-Kommunikation ausführlicher beschrieben.
  • Das vorgeschlagene Authentifizierungsschema ist in dem Sinne sehr leichtgewichtig, dass für die Kommunikation auf dem OOB-Kommunikationskanal nur geringe Datenmengen übertragen werden müssen (d.h. das vorgeschlagene OOB-Kommunikationsschema erfordert nur sehr geringe Datenraten). Darüber hinaus haben einige der oben vorgestellten LIDAR-Kodierungsschemata (z.B. die Möglichkeiten 2. bis 6.) sehr geringe Hardware- und Systemanforderungen. Dies macht die vorgeschlagene Lösung schließlich auch für Anwendungen geeignet, die andere Sensoren als LIDAR verwenden.
  • Als Beispiel können die folgenden Sensoren verwendet werden:
    • Radar:
      • Ähnlich wie ein LIDAR-Sensor 52 verfügt ein Radarsensor über Sende- und Empfangsantennen und Schaltkreise, die die Aussendung und den Empfang von elektromagnetischen Impulsen ermöglichen. Diese Pulse können verwendet werden, um leichte OOB-Nachrichten unter Verwendung der oben dargestellten Schemata zu transportieren.
    • Ultraschall-Abstandssensor:
      • Wie bei LIDAR und Radar verfügt ein Ultraschall-Abstandssensor über einen Ultraschall-Sender und -Empfänger, die für die Datenkommunikation verwendet werden könnten. Da die Schallgeschwindigkeit deutlich geringer als die Lichtgeschwindigkeit ist, können weniger Daten übertragen werden. Da das OOB-Nachrichtenübermittlungsschema in dieser Arbeit jedoch sehr leicht ist, eignen sie sich für das vorgeschlagene Authentifizierungsschema.
    • Frontlicht und einfacher Photodetektor:
      • Neben den oben vorgestellten Reichweitensensoren könnten auch langsame Signalgeber (z.B. das Autoscheinwerferlicht) und einfache Fotodetektoren, die billig und leicht in Autos oder Infrastruktur zu integrieren sind, für die einseitige OOB-Kommunikation verwendet werden.
  • Es ist zu beachten, dass auch eine Kombination der oben genannten Sensoren, darunter auch ein LIDAR-Sensor, zur Verbesserung der Sicherheit (z.B. können mehrere OOB-Kanäle gemeinsam genutzt werden, um Angriffe zu erschweren), zur Verbesserung der Zuverlässigkeit (z.B. können mehrere OOB-Kommunikationskanäle zur Redundanz genutzt werden, wenn ein Kanal ausfällt) oder zur vielseitigeren Gestaltung des Schemas (z.B. wenn ein Kommunikationspartner keinen LIDAR-Sensor hat, könnte stattdessen ein verfügbarer Radarsensor verwendet werden) verwendet werden könnte.
  • Im Folgenden wird eine regionen- oder winkelselektive Aussendung von OOB-Meldungen näher beschrieben.
  • Aufgrund der Sichtverbindung (LOS) des LIDAR-Sensorsystems ist die Kommunikation über den OOB-Kommunikationskanal inhärent sicher gegen das Einspeisen / Abhören / Abfangen von Nachrichten (all dies würde voraussetzen, dass ein Angreifer innerhalb der LOS zwischen den Authentifizierungspartnern positioniert ist, was wohl schwer zu erreichen wäre). Dieser Effekt gilt sowohl für Flash- als auch für scannende LIDAR-Systeme.
  • Da ein LIDAR-Sensor im Wesentlichen ein abbildender Sensor ist, bei dem das Sichtfeld (FoV) in Pixel / Differenzwinkel aufgeteilt ist, kann das Schema nach verschiedenen Ausführungsformen weiter abgesichert werden. Ein Aspekt ist es, die OOB-Meldungen nur in bestimmten Regionen oder Winkelabschnitten des FoV zu emittieren, indem die Emission der OOB-Meldungen regionenselektiv und/oder abtastwinkelselektiv gemacht wird.
  • Als Beispiel kann das LIDAR-Sensorsystem 10 mit einer Objekterfassungsstufe gekoppelt werden (was normalerweise bei LIDAR, Kamera oder möglicherweise anderen Sensorvorrichtungen der Fall ist). In diesem Fall kann der Ausgang der Detektionsstufe dazu verwendet werden, Teile innerhalb der FoV zu identifizieren, in denen sich ein gewünschter Kommunikationspartner (z.B. ein Fahrzeug oder eine Infrastruktureinheit mit bestimmten Merkmalen) befindet. Wenn es mehrere Verkehrsteilnehmer gibt, können diese natürlich ebenso erkannt werden wie mögliche Ziele des authentifizierungsbezogenen Informationsaustauschs (jeweils mit individueller Authentifizierung).
  • Basierend auf diesen Informationen kann das Emissionsmuster übernommen werden und die sicherheitsrelevanten OOB-Nachrichten werden nur in der/den definierten Region(en) emittiert, was es für einen Angreifer erschwert, Nachrichten abzufangen / abzuhören / zu belauschen. Die regionenselektive oder winkelselektive Ausstrahlung von OOB-Meldungen ist in 188 (für einen Verkehrsteilnehmer) dargestellt. Um dieses Verfahren zu erleichtern, kann das LIDAR-Sensorsystem 10 solche FOV-bezogenen oder winkelselektiven Informationen verwenden, um die Aussendung solcher authentifizierungsbezogenen Informationen in das definierte FoV (oder mehr als ein FoV, wenn mehr Verkehrsobjekte vorhanden sind) auszulösen.
  • Die Regionen für die OOB-Kommunikation können während der Laufzeit dynamisch angepasst werden, wobei auch die relative Bewegung der beiden Authentifizierungspartner berücksichtigt wird.
  • Darüber hinaus kann dieser Prozess durch die Verwendung von Messungen anderer Sensorsysteme, wie Radar-, Ultraschall- oder Kamerasysteme, erleichtert oder verstärkt werden. Wenn z.B. die Daten mehrerer Systeme über die Gültigkeit eines identifizierten Objekts (d.h. eines identifizierten Kommunikationspartners) einschließlich der Erkennung und Positionierung eines solchen Objekts übereinstimmen, dann sendet das LIDAR-System OOB-Authentifizierungsnachrichten nur in dieses bestimmte FoV.
  • 188 zeigt eine FoV 18800 eines beispielhaften LIDAR-Sensorsystems 10 illustriert durch ein Raster 18802 mit einem identifizierten beabsichtigten Kommunikationspartner (z.B. Fahrzeug 18804 in 188) gemäß verschiedener Ausführungsformen.
  • illustriert eine regionenselektive Emission von OOB-Meldungen. Nach der Identifizierung des vorgesehenen Kommunikationspartners 18804 innerhalb der FoV (schwarzes Gitter) 18802 wird die entsprechende Region identifiziert (dargestellt durch Kasten 18806) und die sicherheitsrelevanten OOB-Meldungen werden nur in der identifizierten Region ausgesendet.
  • Das LIDAR-Sensorsystem 10 kann die Position des Objekts (z.B. des Fahrzeugs) 18804 bestimmen, das das andere LIDAR-Sensorsystem 10 trägt. Ein Steuergerät des LIDAR-Sensorsystems 10 kann eine Senderanordnung unter Berücksichtigung der Lage des Objekts (z.B. des Fahrzeugs) 18804 steuern. Zur Veranschaulichung: Ein Steuergerät des LIDAR-Sensorsystems 10 kann die Senderanordnung so steuern, dass sie den/die Lichtstrahl(en) nur in Richtung der ermittelten Position des ermittelten Objekts (z.B. Fahrzeug) 18804 aussendet.
  • Kombination mit messbasierten Authentifizierungsschemata
  • Das LIDAR-Sensorsystem 10 ist ein Messgerät, das in erster Linie zur Gewinnung von Tiefenbildern der Umgebung eingesetzt wird.
  • Neben LIDAR-Messdaten können auch Messdaten von anderen Sensoren (Radar, Ultraschall, Kamera, etc.) zur Authentifizierung wie oben beschrieben verwendet werden.
  • Darüber hinaus kann eine Kombination von LIDAR-basierten Messungen mit einer oder mehreren Messungen, die mit anderen Mitteln (wie Messungen mit einem Radar-, Ultraschall- und/oder Kamerasystem) erhalten wurden, zur Authentifizierung verwendet werden.
  • Alle der oben genannten messbasierten Ansätze können mit dem in dieser Offenbarung vorgestellten OOB-Authentifizierungsschema kombiniert werden. Abhängig von den Details der Realisierung können die LIDAR-Messungen als zusätzliche Faktoren verwendet werden, um das vorgeschlagene Zwei-Faktor-Authentifizierungsschema auf drei oder mehr Faktoren zu erweitern. Alternativ kann die Kombination der LIDAR-Messungen zusammen mit der OOB-Herausforderung verwendet werden, um gemeinsam einen einzigen, aber stärkeren Faktor innerhalb des vorgeschlagenen Zwei-Faktor-Authentifizierungsschemas zu bilden.
  • Ablauf- und Erneuerungsmechanismus der Authentifizierung: In einem Aspekt kann der Authentifizierungsprozess das Tragen eines Zeitstempels (z.B. ein Token mit einem Zeitstempel) beinhalten, der nur für einen vordefinierten oder pro Anwendungsfall definierten Zeitraum gültig ist und nach Ablauf der Ablaufzeit erneuert werden muss. Eine solche Erneuerung kann automatisch durch das System erfolgen oder aktiv durch einen Benutzer ausgelöst werden.
  • Weitere mobile Anwendungsfälle und Anwendungen: In einem weiteren Aspekt können die vorgeschlagenen Methoden auf Fahrzeuge (Autos, Züge, Motorräder usw.), aber auch auf fliegende Objekte (wie Drohnen) angewendet werden. Im letzteren Fall kann ein Fahrzeug (z.B. ein Polizeiauto), das mit einer Drohne ausgerüstet ist, diese auslösen und über die beschriebenen Methoden eine authentifizierte Kommunikation durchführen. In einer weiteren Ausführungsform können autonom fahrende Fahrzeuge, z.B. im städtischen Umfeld (sog. City-Cars), durch die beschriebenen Methoden zur gegenseitigen Authentisierung miteinander an- und abkoppeln. Dasselbe würde für autonom fahrende Fahrzeuge gelten, die so konstruiert sind, dass sie sich in zwei Teilfahrzeuge aufspalten können, die sich später auf der Grundlage des vorgeschlagenen Authentifizierungsverfahrens wieder miteinander verbinden können.
  • Erweiterung der Authentisierung (z.B. in Richtung Fahrzeuginnenraum): In einer weiteren Ausprägung kann ein Fahrzeug, sobald es authentifiziert ist, diese Authentisierung an den Fahrzeuginnenraum (Fahrgastraum) weitergeben, entweder durch lichtbasierte Kommunikation, auch Visuelle Lichtkommunikation (VLC, sowohl für sichtbare als auch für infrarote Strahlung) genannt, unter Verwendung von (fest) im Fahrzeug installierten Innenleuchten oder über ein (Nahbereichs-)Kommunikationsmittel (Bluetooth, Ultraschall). Dies kann es ermöglichen, dass auch Kommunikationsgeräte wie Smartphones oder Tablets authentifiziert werden können (2nd-Level-Authentifizierung). Dazu können solche Geräte zunächst ihre Identifikationsdaten über die beschriebenen Kommunikationsmittel an das LIDAR-System übermitteln, das dann diese Informationen in den Authentisierungsprozess einfließen lassen und die Bestätigung an das registrierte Gerät zurücksenden kann. Natürlich ist eine solche Authentisierung zweiter Stufe nicht so sicher wie eine Authentisierung erster Stufe.
  • Situationsabhängige Anpassung der Hashing-Methode: In einem anderen Aspekt kann die Hashing-Methode (wie die Verwendung bestimmter Hash-Funktionen wie SHA-1, SHA-256, SHA-512 usw.) in Abhängigkeit vom Fahrzeugabstand (zu anderen Objekten) oder der Fahrzeuggeschwindigkeit oder der Fahrzeugrelativgeschwindigkeit (im Verhältnis zu anderen Verkehrsobjekten) angepasst werden. Beispielsweise kann ein Fahrzeug mit einer geringeren Relativgeschwindigkeit in Bezug auf einen anderen Verkehrsteilnehmer eine stärkere Hash-Funktion verwenden, da mehr Zeit für die Berechnung und Datenübertragung zur Verfügung steht und möglicherweise die Notwendigkeit besteht, die Möglichkeit einer Hash-Kollision zu verringern. Unter einem anderen Aspekt kann die Stärke der Hash-Funktion auf einen höheren Standard gesetzt werden, wenn z.B. von einer SAE-Stufe (wie 4) auf eine andere (wie SAE 5) gewechselt wird.
  • Es ist zu beachten, dass die Bestimmung der Position des Objekts, das das andere LIDAR-Sensorsystem trägt, von anderen Sensoren durchgeführt werden kann. Im Prinzip kann die Bestimmung der Lage eines Objekts auch durch andere Arten von Sensoren, die mit einem Fahrzeug verbunden (z.B. an einem Fahrzeug befestigt) sind (Kamera, Radar, Ultraschall und dergleichen), oder im Zusammenwirken mehrerer Sensoren erfolgen.
  • Unter verschiedenen Aspekten dieser Offenbarung kann eine LIDAR-Emitteranordnung des LIDAR-Sensorsystems 10 verstanden werden:
    • a) dass die Lichtquelle(n) 42 (z.B. die Laserdioden) ein kodiertes Signal nur in Richtung der zuvor bestimmten „Objektlage“ aussenden;
    • b) die Strahllenkungseinheit durch einen Controller so gesteuert wird, dass nur die zuvor bestimmte „Objektlage“ durch den Lichtstrahl abgedeckt wird.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1an ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Sensor mit einer oder mehreren Fotodioden und einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie digitale Daten aus einem von der einen oder den mehreren Fotodioden empfangenen Lichtsignal dekodieren, wobei die digitalen Daten Authentifizierungsdaten zur Authentifizierung eines anderen LIDAR-Sensorsystems aufweisen, das andere LIDAR-Sensorsystem unter Verwendung der Authentifizierungsdaten der digitalen Daten authentifizieren, die Position eines Objekts bestimmen, das das andere LIDAR-Sensorsystem trägt, und eine Emitteranordnung unter Berücksichtigung der Position des Objekts steuern.
    • In Beispiel 2an kann der Gegenstand von Beispiel 1an optional beinhalten, dass das LIDAR-Sensorsystem einen weiteren Sensor enthält, der zur Erfassung von Sensordaten konfiguriert ist. Der eine oder die mehreren Prozessoren sind ferner so konfiguriert, dass sie anhand der erfassten Sensordaten die Position eines Objekts bestimmen, das das andere LIDAR-Sensorsystem trägt.
    • In Beispiel 3an kann der Gegenstand von Beispiel 2an optional beinhalten, dass der weitere Sensor zu einem Sensortyp gehört, der aus einer Gruppe von Sensortypen ausgewählt wird, die aus einem Kamerasensor, einem Radarsensor und einem Ultraschallsensor besteht.
    • In Beispiel 4an kann der Gegenstand eines der Beispiele 1an bis 3an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich eine Lichtquelle enthält. Der eine oder die mehreren Prozessoren sind so konfiguriert, dass sie die Lichtquelle so steuern, dass sie Licht in Richtung der ermittelten Position des Objekts emittiert.
    • In Beispiel 5an kann der Gegenstand von Beispiel 4an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich eine Lichtquelle enthält. Der eine oder die mehreren Prozessoren sind so konfiguriert, dass sie die Lichtquelle so steuern, dass sie Licht, das ein kodiertes Signal darstellt, in Richtung der ermittelten Position des Objekts aussendet.
    • In Beispiel 6an kann der Gegenstand eines der Beispiele 1an bis 5an optional beinhalten, dass das LIDAR-Sensorsystem ferner eine Strahllenkungseinheit und einen Strahllenkungscontroller umfasst, der so konfiguriert ist, dass er die Strahllenkungseinheit so steuert, dass sie im Wesentlichen nur die bestimmte Position des Objekts abdeckt.
    • In Beispiel 7an kann der Gegenstand eines der Beispiele 1an bis 6an optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Mobilfunk-Transceiver zum Senden und/oder Empfangen von Informationen gemäß einem standardisierten Mobilfunkprotokoll umfasst.
    • In Beispiel 8an kann der Gegenstand eines der Beispiele 1an bis 7an optional beinhalten, dass die Authentifizierungsdaten einen kryptografischen Hash-Wert aufweisen, der über mindestens einen Teil der vom LIDAR-Sensorsystem bereitgestellten Authentifizierungsinitialisierungsdaten berechnet wird. Der eine oder die mehreren Prozessoren sind ferner so konfiguriert, dass sie die digitalen Daten durch Überprüfung des kryptographischen Hash-Wertes verifizieren.
    • In Beispiel 9an kann der Gegenstand von Beispiel 8an optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um die digitalen Daten zu verifizieren, indem der kryptographische Hash-Wert unter Verwendung eines gemeinsamen Schlüssels überprüft wird, der vom LIDAR-Sensorsystem und dem anderen LIDAR-Sensorsystem gemeinsam genutzt wird.
    • In Beispiel 10an kann der Gegenstand eines der Beispiele 8an oder 9an optional beinhalten, dass die Authentifizierungsinitialisierungsdaten eine oder mehrere Zufallszahlen aufweisen.
    • In Beispiel 11an kann der Gegenstand eines der Beispiele 3an bis 10an optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um eine Hash-Funktion zur Überprüfung des kryptografischen Hash-Wertes gemäß einem oder mehreren Auswahlkriterien auszuwählen.
    • In Beispiel 12an kann der Gegenstand eines der Beispiele 1an bis 11an optional beinhalten, dass das eine oder mehrere Auswahlkriterien aus einer Gruppe von Auswahlkriterien ausgewählt werden, die aus einer Geschwindigkeit des Fahrzeugs, einem SAE-Niveau und einem Wichtigkeitsniveau besteht.
    • In Beispiel 13an kann der Gegenstand eines der Beispiele 1an bis 12an optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um die digitalen Daten unter Verwendung eines gemeinsamen Schlüssels zu verifizieren, der aus einem Satz von mehreren gemeinsamen Schlüsseln ausgewählt wird.
    • In Beispiel 14an kann der Gegenstand eines der Beispiele 1an bis 13an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um einen Sitzungsschlüssel zu erzeugen und Daten mit dem Sitzungsschlüssel zu verschlüsseln.
    • In Beispiel 15an kann der Gegenstand eines der Beispiele 1an bis 14an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um einen Sitzungsschlüssel zu erzeugen und verschlüsselte Daten unter Verwendung des Sitzungsschlüssels zu entschlüsseln.
    • In Beispiel 16an kann der Gegenstand eines der Beispiele 1an bis 15an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen oder mehrere weitere Sensoren enthält, die von einem anderen Typ als der Sensor sind.
    • In Beispiel 17an kann der Gegenstand von Beispiel 16an optional beinhalten, dass der eine oder die mehreren weiteren Sensoren einen oder mehrere Sensoren umfassen, die aus einer Gruppe ausgewählt werden, die aus einem Ultraschallsensor, einem Radarsensor und einem Nahbereichsmobilfunksensor besteht.
    • In Beispiel 18an kann der Gegenstand eines der Beispiele 16an oder 17an optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere weitere Sensoren auswählen, um Sensordatensignale zu empfangen; und dass sie digitale Daten aus den Sensordatensignalen dekodieren, die von dem ausgewählten einen oder den ausgewählten mehreren weiteren Sensoren empfangen werden.
    • Beispiel 19an ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie digitale Daten einschließlich Authentifizierungsdaten codieren, um das LIDAR-Sensorsystem zu authentifizieren; eine Lichtquelle, die so konfiguriert ist, dass sie ein Lichtsignal emittiert; eine Lichtquellensteuerung, die so konfiguriert ist, dass sie die Lichtquelle so steuert, dass sie das Lichtsignal emittiert, wobei das Lichtsignal die codierten digitalen Daten enthält, und eine optische Komponente, die so konfiguriert ist, dass sie einen Emissionswinkel des emittierten Lichtsignals steuert. Die Lichtquellensteuerung ist ferner so konfiguriert, dass sie die optische Komponente steuert, um den Emissionswinkel so auszuwählen, dass das Lichtsignal zu einem anderen LIDAR-Sensorsystem hin emittiert wird. Der gewählte Emissionswinkel des emittierten Lichtsignals deckt einen Teil eines Sichtfeldes des LIDAR-Sensorsystems ab.
    • In Beispiel 20an kann der Gegenstand von Beispiel 19an optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Mobilfunk-Sender/Empfänger zum Senden und/oder Empfangen von Informationen gemäß einem standardisierten Mobilfunk-Kommunikationsprotokoll umfasst.
    • In Beispiel 21an kann der Gegenstand eines der Beispiele 19an oder 20an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen Zufallszahlengenerator zur Erzeugung einer oder mehrerer Zufallszahlen enthält;. Der eine oder die mehreren Prozessoren sind so konfiguriert, dass sie die erzeugte(n) Zufallszahl(en) in die kodierten digitalen Daten einfügen.
    • In Beispiel 22an kann der Gegenstand eines der Beispiele 19an bis 21an optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass sie eine erste Nachricht mit den kodierten digitalen Daten und Authentifizierungsinitialisierungsdaten für das andere LIDAR-Sensorsystem erzeugen.
    • In Beispiel 23an kann der Gegenstand eines der Beispiele 19an bis 22an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um eine Authentifizierungsantwortnachricht von dem anderen LIDAR-Sensorsystem zu empfangen und das andere LIDAR-Sensorsystem anhand des Inhalts der empfangenen Authentifizierungsantwortnachricht zu authentifizieren.
    • In Beispiel 24an kann der Gegenstand von Beispiel 23an optional beinhalten, dass die Authentifizierungsantwortnachricht einen kryptografischen Hash-Wert enthält, der über mindestens einen Teil der empfangenen Authentifizierungsdaten berechnet wird.
    • In Beispiel 25an kann der Gegenstand von Beispiel 24an optional beinhalten, dass der kryptografische Hash-Wert unter Verwendung eines kryptografischen Schlüssels berechnet wird, der vom LIDAR-Sensorsystem und dem anderen LIDAR-Sensorsystem gemeinsam genutzt wird.
    • In Beispiel 26an kann der Gegenstand eines der Beispiele 24an oder 25an optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um eine Hash-Funktion zur Berechnung des Hash-Wertes gemäß einem oder mehreren Auswahlkriterien auszuwählen.
    • In Beispiel 27an kann der Gegenstand eines der Beispiele 23an bis 26an optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Mobilfunk-Transceiver zum Senden und/oder Empfangen von Informationen gemäß einem standardisierten Mobilfunkprotokoll umfasst. Der eine oder die mehreren Prozessoren sind ferner so konfiguriert, dass sie die Authentifizierungsantwortnachricht über den Mobilfunk-Kommunikations-Sender/Empfänger empfangen.
    • In Beispiel 28an kann der Gegenstand eines der Beispiele 19an bis 27an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um einen Sitzungsschlüssel zu erzeugen und Daten mit dem Sitzungsschlüssel zu verschlüsseln.
    • In Beispiel 29an kann der Gegenstand eines der Beispiele 19an bis 28an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um einen Sitzungsschlüssel zu erzeugen und verschlüsselte Daten mit Hilfe des Sitzungsschlüssels zu entschlüsseln.
    • In Beispiel 30an kann der Gegenstand eines der Beispiele 19an bis 29an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen oder mehrere weitere Sensoren enthält, die von einem anderen Typ als der Sensor sind.
    • In Beispiel 31an kann der Gegenstand von Beispiel 30an optional beinhalten, dass der eine oder die mehreren weiteren Sensoren einen oder mehrere Sensoren umfassen, die aus einer Gruppe ausgewählt werden, die aus einem Ultraschallsensor, einem Radarsensor und einem Nahbereichsmobilfunksensor besteht.
    • In Beispiel 32an kann der Gegenstand eines der Beispiele 30an oder 31an optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere weitere Sensoren auswählen, um Sensordatensignale zu empfangen; und dass sie digitale Daten aus den Sensordatensignalen dekodieren, die von dem ausgewählten einen oder den ausgewählten mehreren weiteren Sensoren empfangen werden.
    • Beispiel 33an ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann einen Sensor mit einer oder mehreren Fotodioden aufweisen; einen oder mehrere Prozessoren, die so konfiguriert sind, dass sie digitale Daten aus einem von der einen oder den mehreren Fotodioden empfangenen Lichtsignal dekodieren, wobei die digitalen Daten eine Anforderung nach Authentifizierung und Authentifizierungsinitialisierungsdaten aufweisen, die von einem anderen LIDAR-Sensorsystem übertragen werden; um eine Authentifizierungsantwortnachricht zu erzeugen, die Authentifizierungsdaten enthält, die unter Verwendung mindestens eines Teils der Authentifizierungsinitialisierungsdaten berechnet werden; um die Position eines Objekts zu bestimmen, das das andere LIDAR-Sensorsystem trägt; und um eine optische Empfängeranordnung unter Berücksichtigung der Position des Objekts zu steuern.
    • In Beispiel 34an kann der Gegenstand von Beispiel 33an optional einschließen, dass das LIDAR-Sensorsystem ferner einen mobilen Funkkommunikationstransceiver zum Senden und/oder Empfangen von Informationen gemäß einem standardisierten Mobilfunkprotokoll umfasst.
    • In Beispiel 35an kann der Gegenstand eines der Beispiele 33an oder 34an optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie einen kryptografischen Hash-Wert über mindestens einen Teil der empfangenen Authentifizierungsinitialisierungsdaten berechnen.
    • In Beispiel 36an kann der Gegenstand von Beispiel 35an optional beinhalten, dass der kryptografische Hash-Wert unter Verwendung eines kryptografischen gemeinsamen Schlüssels berechnet wird, der vom LIDAR-Sensorsystem und dem anderen LIDAR-Sensorsystem gemeinsam genutzt wird.
    • In Beispiel 37an kann der Gegenstand eines der Beispiele 35an oder 36an optional beinhalten, dass die Authentifizierungsinitialisierungsdaten eine oder mehrere Zufallszahlen aufweisen. Der eine oder die mehreren Prozessoren sind ferner so konfiguriert, dass sie den kryptografischen Hash-Wert über mindestens einen Teil der empfangenen eine oder mehreren Zufallszahlen berechnen.
    • In Beispiel 38an kann der Gegenstand eines der Beispiele 35an bis 37an optional beinhalten, dass der eine oder die mehreren Prozessoren weiter konfiguriert werden, um eine Hash-Funktion zur Berechnung des kryptografischen Hash-Wertes gemäß einem oder mehreren Auswahlkriterien auszuwählen.
    • In Beispiel 39an kann der Gegenstand eines der Beispiele 33an bis 38an optional beinhalten, dass das LIDAR-Sensorsystem ferner einen Mobilfunk-Transceiver zum Senden und/oder Empfangen von Informationen gemäß einem standardisierten Mobilfunkprotokoll umfasst. Der eine oder die mehreren Prozessoren sind ferner so konfiguriert, dass sie die Authentifizierungsantwortnachricht über den Mobilfunk-Kommunikations-Sender/Empfänger übertragen.
    • In Beispiel 40an kann der Gegenstand eines der Beispiele 33an bis 39an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um einen Sitzungsschlüssel zu erzeugen und Daten mit dem Sitzungsschlüssel zu verschlüsseln.
    • In Beispiel 41an kann der Gegenstand eines der Beispiele 33an bis 40an optional beinhalten, dass der eine oder mehrere Prozessoren weiter konfiguriert werden, um einen Sitzungsschlüssel zu erzeugen und verschlüsselte Daten unter Verwendung des Sitzungsschlüssels zu entschlüsseln.
    • In Beispiel 42an kann der Gegenstand eines der Beispiele 33an bis 41an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen oder mehrere weitere Sensoren enthält, die von einem anderen Typ als der Sensor sind.
    • In Beispiel 43an kann der Gegenstand von Beispiel 42an optional beinhalten, dass der eine oder die mehreren weiteren Sensoren einen oder mehrere Sensoren umfassen, die aus einer Gruppe ausgewählt werden, die aus einem Ultraschallsensor, einem Radarsensor und einem Nahbereichsmobilfunksensor besteht.
    • In Beispiel 44an kann der Gegenstand eines der Beispiele 42an oder 43an optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere weitere Sensoren auswählen, um Sensordatensignale zu empfangen; und dass sie digitale Daten aus den Sensordatensignalen dekodieren, die von dem ausgewählten einen oder den ausgewählten mehreren weiteren Sensoren empfangen werden.
    • Beispiel 45an ist ein Fahrzeug. Das Fahrzeug kann ein LIDAR-Sensorsystem aus einem der Beispiele 1an bis 44an aufweisen.
    • Beispiel 46an ist ein Fahrzeuggruppensteuergerät. Das Fahrzeuggruppensteuergerät kann ein LIDAR-Sensorsystem aus einem der Beispiele 1an bis 44an aufweisen; ein Gruppensteuergerät, das so konfiguriert ist, dass es eine Gruppe von authentifizierten Fahrzeugen bildet und die Fahrzeuge der Gruppe gemeinsam steuert.
    • Beispiel 47an ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann einen Sensor umfassen, der eine oder mehrere Fotodioden umfasst, die ein Lichtsignal empfangen; Decodieren digitaler Daten aus dem von der einen oder den mehreren Fotodioden empfangenen Lichtsignal, wobei die digitalen Daten Authentifizierungsdaten umfassen, um ein anderes LIDAR-Sensorsystem zu authentifizieren; Authentifizieren des anderen LIDAR-Sensorsystems unter Verwendung der Authentifizierungsdaten der digitalen Daten; Bestimmen des Orts eines Objekts, das das andere LIDAR-Sensorsystem trägt; und Steuern einer Empfängeroptikanordnung unter Berücksichtigung des Orts des Objekts.
    • In Beispiel 48an kann der Gegenstand von Beispiel 47an optional beinhalten, dass das Verfahren ferner einen Mobilfunk-Kommunikationstransceiver umfasst, der Informationen gemäß einem standardisierten Mobilfunkprotokoll sendet und/oder empfängt.
    • In Beispiel 49an kann der Gegenstand eines der Beispiele 47an oder 48an optional beinhalten, dass die Authentifizierungsdaten einen kryptografischen Hash-Wert aufweisen, der über mindestens einen Teil der vom LIDAR-Sensorsystem bereitgestellten Authentifizierungsinitialisierungsdaten berechnet wird. Das Verfahren kann ferner die Dekodierung der digitalen Daten durch Überprüfung des kryptographischen Hash-Wertes umfassen.
    • In Beispiel 50an kann der Gegenstand von Beispiel 49an optional beinhalten, dass die Dekodierung der digitalen Daten die Überprüfung des kryptografischen Hash-Wertes unter Verwendung eines gemeinsamen Schlüssels umfasst, der vom LIDAR-Sensorsystem und dem anderen LIDAR-Sensorsystem gemeinsam genutzt wird.
    • In Beispiel 51an kann der Gegenstand eines der Beispiele 49an oder 50an optional beinhalten, dass die Authentifizierungsinitialisierungsdaten eine oder mehrere Zufallszahlen aufweisen.
    • In Beispiel 52an kann der Gegenstand eines der Beispiele 49an bis 51an optional beinhalten, dass eine Hash-Funktion zur Überprüfung des kryptografischen Hash-Wertes in Übereinstimmung mit einem oder mehreren Auswahlkriterien ausgewählt wird.
    • In Beispiel 53an kann der Gegenstand eines der Beispiele 47an bis 52an optional beinhalten, dass die digitalen Daten unter Verwendung eines gemeinsam genutzten Schlüssels decodiert werden, der aus einem Satz von mehreren gemeinsam genutzten Schlüsseln ausgewählt wird.
    • In Beispiel 54an kann der Gegenstand eines der Beispiele 47an bis 53an optional beinhalten, dass das Verfahren weiterhin die Erzeugung eines Sitzungsschlüssels und die Verschlüsselung von Daten mit dem Sitzungsschlüssel umfasst.
    • In Beispiel 55an kann der Gegenstand eines der Beispiele 47an bis 54an optional beinhalten, dass das Verfahren weiterhin die Erzeugung eines Sitzungsschlüssels und die Entschlüsselung verschlüsselter Daten mit dem Sitzungsschlüssel umfasst.
    • In Beispiel 56an kann der Gegenstand eines der Beispiele 47an bis 55an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen oder mehrere weitere Sensoren enthält, die von einem anderen Typ als der Sensor sind.
    • In Beispiel 57an kann der Gegenstand von Beispiel 56an optional beinhalten, dass der eine oder die mehreren weiteren Sensoren einen oder mehrere Sensoren umfassen, die aus einer Gruppe ausgewählt werden, die aus einem Ultraschallsensor, einem Radarsensor und einem Nahbereichsmobilfunksensor besteht.
    • In Beispiel 58an kann der Gegenstand eines der Beispiele 56an oder 57an optional beinhalten, dass das Verfahren ferner die Auswahl eines oder mehrerer weiterer Sensoren zum Empfang von Sensordatensignalen und die Dekodierung digitaler Daten aus den Sensordatensignalen, die von dem ausgewählten einen oder mehreren weiteren Sensoren empfangen werden, umfasst.
    • Beispiel 59an ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann die Codierung digitaler Daten einschließlich Authentifizierungsdaten zur Authentifizierung des LIDAR-Sensorsystems, die Aussendung eines Lichtsignals und die Steuerung der Aussendung des Lichtsignals umfassen. Das Lichtsignal enthält die kodierten digitalen Daten. Die Steuerung der Emission des Lichtsignals umfasst die Auswahl eines Emissionswinkels, so dass das Lichtsignal zu einem anderen LIDAR-Sensorsystem hin emittiert wird. Der gewählte Emissionswinkel des emittierten Lichtsignals deckt einen Teil eines Sichtfeldes des LIDAR-Sensorsystems ab.
    • In Beispiel 60an kann der Gegenstand von Beispiel 59an optional einschließen, dass das Verfahren weiterhin einen Mobilfunk-Kommunikationstransceiver einschließt, der Informationen gemäß einem standardisierten Mobilfunk-Kommunikationsprotokoll sendet und/oder empfängt.
    • In Beispiel 61an kann der Gegenstand eines der Beispiele 59an oder 60an optional beinhalten, dass das Verfahren weiterhin die Erzeugung einer oder mehrerer Zufallszahlen und das Einfügen der erzeugten Zufallszahlen in die kodierten digitalen Daten umfasst.
    • In Beispiel 62an kann der Gegenstand eines der Beispiele 59an bis 61an optional beinhalten, dass das Verfahren ferner die Erzeugung einer ersten Nachricht mit den kodierten digitalen Daten und Authentifizierungsinitialisierungsdaten für das andere LIDAR-Sensorsystem umfasst.
    • In Beispiel 63an kann der Gegenstand eines der Beispiele 59an bis 62an optional beinhalten, dass das Verfahren ferner den Empfang einer Authentifizierungsantwortnachricht vom anderen LIDAR-Sensorsystem und die Authentifizierung des anderen LIDAR-Sensorsystems anhand des Inhalts der empfangenen Authentifizierungsantwortnachricht umfasst.
    • In Beispiel 64an kann der Gegenstand von Beispiel 63an optional beinhalten, dass die Authentifizierungsantwortnachricht einen kryptografischen Hash-Wert enthält, der über mindestens einen Teil der empfangenen Authentifizierungsdaten berechnet wird.
    • In Beispiel 65an kann der Gegenstand von Beispiel 64an optional beinhalten, dass der kryptografische Hash-Wert unter Verwendung eines kryptografischen Schlüssels berechnet wird, der vom LIDAR-Sensorsystem und dem anderen LIDAR-Sensorsystem gemeinsam genutzt wird.
    • In Beispiel 66an kann der Gegenstand eines der Beispiele 64an oder 65an optional beinhalten, dass eine Hash-Funktion zur Überprüfung des kryptographischen Hash-Wertes in Übereinstimmung mit einem oder mehreren Auswahlkriterien ausgewählt wird.
    • In Beispiel 67an kann der Gegenstand eines der Beispiele 63an bis 66an optional einschließen, dass das Verfahren ferner einen Mobilfunk-Kommunikationstransceiver einschließt, der Informationen gemäß einem standardisierten Mobilfunk-Kommunikationsprotokoll sendet und/oder empfängt; und das Empfangen der Authentifizierungsantwortnachricht über den Mobilfunk-Kommunikationstransceiver.
    • In Beispiel 68an kann der Gegenstand eines der Beispiele 59an bis 67an optional beinhalten, dass das Verfahren weiterhin die Erzeugung eines Sitzungsschlüssels und die Verschlüsselung von Daten mit dem Sitzungsschlüssel umfasst.
    • In Beispiel 69an kann der Gegenstand eines der Beispiele 59an bis 68an optional beinhalten, dass das Verfahren weiterhin die Erzeugung eines Sitzungsschlüssels und die Entschlüsselung verschlüsselter Daten unter Verwendung des Sitzungsschlüssels umfasst.
    • In Beispiel 70an kann der Gegenstand eines der Beispiele 59an bis 69an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen oder mehrere weitere Sensoren enthält, die von einem anderen Typ als der Sensor sind.
    • In Beispiel 71an kann der Gegenstand von Beispiel 70an optional beinhalten, dass der eine oder die mehreren weiteren Sensoren einen oder mehrere Sensoren umfassen, die aus einer Gruppe ausgewählt werden, die aus einem Ultraschallsensor, einem Radarsensor und einem Nahbereichsmobilfunksensor besteht.
    • In Beispiel 72an kann der Gegenstand eines der Beispiele 70an oder 71an optional beinhalten, dass das Verfahren weiterhin die Auswahl eines oder mehrerer weiterer Sensoren zum Empfang von Sensordatensignalen und die Dekodierung digitaler Daten aus den Sensordatensignalen, die von dem ausgewählten einen oder mehreren weiteren Sensoren empfangen werden, umfasst.
    • Beispiel 73an ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann einen Sensor umfassen, der eine oder mehrere Fotodioden enthält, die ein Lichtsignal empfangen; Decodieren digitaler Daten aus dem von der einen oder den mehreren Fotodioden empfangenen Lichtsignal, wobei die digitalen Daten eine Anforderung für Authentifizierungs- und Authentifizierungsinitialisierungsdaten aufweisen, die von einem anderen LIDAR-Sensorsystem übertragen werden; Erzeugen einer Authentifizierungsantwortnachricht, die Authentifizierungsdaten enthält, die unter Verwendung mindestens eines Teils der Authentifizierungsinitialisierungsdaten berechnet werden; Bestimmen der Position eines Objekts, das das andere LIDAR-Sensorsystem trägt; und Steuern einer Empfängeroptikanordnung unter Berücksichtigung der Position des Objekts.
    • In Beispiel 74an kann der Gegenstand von Beispiel 73an optional einschließen, dass das Verfahren ferner einen Mobilfunk-Kommunikationstransceiver einschließt, der Informationen gemäß einem standardisierten Mobilfunk-Kommunikationsprotokoll sendet und/oder empfängt.
    • In Beispiel 75an kann der Gegenstand eines der Beispiele 73an oder 74an optional beinhalten, dass das Verfahren weiterhin die Berechnung eines kryptografischen Hash-Wertes über mindestens einen Teil der empfangenen Authentifizierungsinitialisierungsdaten umfasst.
    • In Beispiel 76an kann der Gegenstand von Beispiel 75an optional beinhalten, dass der kryptografische Hash-Wert unter Verwendung eines kryptografischen gemeinsamen Schlüssels berechnet wird, der vom LIDAR-Sensorsystem und dem anderen LIDAR-Sensorsystem gemeinsam genutzt wird.
    • In Beispiel 77an kann der Gegenstand eines der Beispiele 75an oder 76an optional beinhalten, dass die Authentifizierungsinitialisierungsdaten eine oder mehrere Zufallszahlen aufweisen. Der kryptografische Hash-Wert wird über mindestens einen Teil der empfangenen eine oder mehreren Zufallszahlen berechnet.
    • In Beispiel 78an kann der Gegenstand eines der Beispiele 75an bis 77an optional beinhalten, dass eine Hash-Funktion zur Überprüfung des kryptographischen Hash-Wertes in Übereinstimmung mit einem oder mehreren Auswahlkriterien ausgewählt wird.
    • In Beispiel 79an kann der Gegenstand eines der Beispiele 75an bis 78an optional beinhalten, dass das Verfahren ferner einen Mobilfunk-Kommunikationstransceiver umfasst, der Informationen gemäß einem standardisierten Mobilfunkprotokoll sendet und/oder empfängt. Der eine oder die mehreren Prozessoren sind ferner so konfiguriert, dass sie die Authentifizierungsantwortnachricht über den Mobilfunk-Kommunikations-Sender/Empfänger übertragen.
    • In Beispiel 80an kann der Gegenstand eines der Beispiele 73an bis 79an optional beinhalten, dass das Verfahren weiterhin die Erzeugung eines Sitzungsschlüssels und die Verschlüsselung von Daten mit dem Sitzungsschlüssel umfasst.
    • In Beispiel 81an kann der Gegenstand eines der Beispiele 73an bis 80an optional beinhalten, dass das Verfahren weiterhin die Erzeugung eines Sitzungsschlüssels und die Entschlüsselung verschlüsselter Daten mit dem Sitzungsschlüssel umfasst.
    • In Beispiel 82an kann der Gegenstand eines der Beispiele 73an bis 81an optional beinhalten, dass das LIDAR-Sensorsystem zusätzlich einen oder mehrere weitere Sensoren enthält, die von einem anderen Typ als der Sensor sind.
    • In Beispiel 83an kann der Gegenstand von Beispiel 82an optional beinhalten, dass der eine oder die mehreren weiteren Sensoren einen oder mehrere Sensoren umfassen, die aus einer Gruppe ausgewählt werden, die aus einem Ultraschallsensor, einem Radarsensor und einem Nahbereichsmobilfunksensor besteht.
    • In Beispiel 84an kann der Gegenstand eines der Beispiele 82an oder 83an optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere weitere Sensoren auswählen, um Sensordatensignale zu empfangen; und dass sie digitale Daten aus den Sensordatensignalen dekodieren, die von dem ausgewählten einen oder den ausgewählten mehreren weiteren Sensoren empfangen werden.
    • Beispiel 85an ist ein Computerprogrammprodukt. Das Computerprogrammprodukt kann eine Vielzahl von Programmbefehlen aufweisen, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1an bis 44an ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 47an bis 84an auszuführen.
    • Beispiel 86an ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorsystem nach einem der oben genannten Verfahrensbeispiele, ein LIDAR-Sensorsystem nach einem der oben genannten LIDAR-Sensorsystembeispiele ausführt.
  • Fahrzeuge (z.B. Automobile) werden immer autonomer oder automatisiert (z.B. in der Lage, verschiedene Funktionen, wie das Fahren, mit minimaler menschlicher Unterstützung auszuführen). Ein Fahrzeug kann oder wird so konfiguriert sein oder werden, dass es sich in einer Umgebung mit wenig oder schließlich ohne direkte oder indirekte menschliche Hilfe bewegen kann. Zur Realisierung der gewünschten autonomen Funktionen kann eine Vielzahl von Sensoren und/oder Sensorsystemen in einem Fahrzeug vorgesehen sein, wie z.B. Kameras (z.B. Nacht- und Tagsichtkameras), Ultraschallsensoren (z.B. ultraschallabgebende und -abtastende Systeme), Inertialsensoren, LIDAR- und/oder RADAR-Umgebungsabtast- und -erkennungssysteme und dergleichen.
  • Die Ausgabe der Sensoren kann fusioniert (z.B. können Daten von verschiedenen Sensoren zusammengeführt werden) und analysiert werden. Die Sensorsignale können von einem Sensorgerät selbst vorverarbeitet werden (z.B. von einem Sensorsystem selbst), oder die Sensorsignale können von einem oder mehreren Systemen oder Geräten des Fahrzeugs verarbeitet werden (z.B. von einem Datenverarbeitungssystem, einem Karosseriesteuerungssystem, einem Bordcomputer, einem Datenanalyse-, Handhabungs- und Speichergerät und dergleichen).
  • Ein Sensordatenanalysesystem kann durch intelligente Sensorfusion und Kamerabilderkennung mit anschließender Analyse der Objektklassifizierung unterstützt werden. Die Analyse der Objektklassifizierung kann zu Datenpunkten führen, die zur Definition und Ausführung geeigneter Fahrzeugsteuerbefehle (z.B. Fahrzeuglenkung) verwendet werden können. Nicht autonome oder teilweise- autonome Fahrzeuge (z.B. nicht oder teilweise-autonom fahrende Fahrzeuge) können von solchen Messungen und Analyseverfahren profitieren.
  • Die Erfassung und Datenanalyse kann jedoch recht umständlich sein und viele Ressourcen erfordern (und verbrauchen), z.B. Rechenleistung und Datenspeicherung. Darüber hinaus kann es Verkehrssituationen geben, in denen die mit der Szenenanalyse verbundenen Berechnungen übermäßig viel Zeit benötigen oder eine mathematische Lösung nicht existiert. In solchen Situationen kann es sein, dass eine ordnungsgemäße und zeitkritische Fahrzeugsteuerung nicht zur Verfügung steht.
  • In einem konventionellen System (z.B. in einem konventionellen Fahrzeug oder in einer konventionellen Verkehrsbeeinflussungsanlage) können im Hinblick auf das oben genannte Problem verschiedene Methoden und Funktionalitäten bereitgestellt oder implementiert werden. Zur Steuerung des Verkehrsflusses kann eine Verkehrsdichtekarte verwendet werden. Eine solche Verkehrsdichtekarte kann von Zeit zu Zeit unter Verwendung des Radarabtastungsmesssystems eines Fahrzeugs aktualisiert werden. Es kann ein Verfahren zur Vorhersage der Verkehrsflussbedingungen an ausgewählten Orten und zu ausgewählten Tagen und Zeiten bereitgestellt werden. Es kann ein Verfahren zur Umgehung von Hindernissen bereitgestellt werden, z.B. basierend auf GPS-basierter Navigation. Es kann ein Verfahren zur Darstellung der Verkehrsflussbedingungen auf einem Display realisiert werden. Es kann ein Verfahren zum Abbremsen eines Fahrzeugs vorgesehen werden, wenn sich viele Ampeln auf der Route befinden. Es kann ein Verfahren implementiert werden, um die Aufmerksamkeit des Fahrers zu fokussieren, wenn aufgrund von Umgebungskartendaten ungünstige Wetterbedingungen zu erwarten sind. Das Risiko, das mit dem Fahren einer Route entlang schiffbarer Wege verbunden ist, kann bewertet werden, und solche Informationen können für eine korrekte Fahrzeugführung verwendet werden. Es kann eine Datenbank erzeugt und verwendet werden, die historische Daten der Verkehrspolizei sowie Aufzeichnungen von Menschenansammlungen enthält, und es können vorausschauende Verarbeitungsmittel zur korrekten Fahrzeugführung auf der Grundlage dieser Datenbank implementiert werden. Es kann eine Routenoptimierung auf der Grundlage vom Benutzer wählbarer thematischer Karten erreicht werden. Es kann auch möglich sein, Fahrzeugtrajektorien und Verkehrsdichten auf der Grundlage von Smartphone-GPS-Daten zu überwachen. Darüber hinaus können Automobilhersteller andere Techniken unter Verwendung automatisch übermittelter Fahrzeug-Metadaten verwenden. Es kann auch möglich sein, das Nahbereichs-Ultraschall-Detektionssystem eines Fahrzeugs zu verwenden, um eine Umgebung in der Nähe zu messen und zu charakterisieren und, wenn dies mit vielen Fahrzeugen geschieht, die die gleiche Straße befahren, eine Objektkarte zu erstellen.
  • Ein konventionelles System kann jedoch auf ein bestimmtes Szenario beschränkt sein, z.B. auf die Verkehrssicherheit im kleinen Maßstab oder auf die Routenplanungssituation im großen Maßstab. Ein konventionelles System bietet möglicherweise auch keine regelmäßige oder kontinuierliche Aktualisierung und Aggregation von Verkehrskarten.
  • In verschiedenen Ausführungsformen kann ein Verfahren bereitgestellt werden, die so konfiguriert ist, dass sie eine oder mehrere Aktionen im Zusammenhang mit der Fahrzeugsteuerung unterstützt. Das Verfahren kann so konfiguriert werden, dass es die Erzeugung von Sensordaten und/oder die Erzeugung von Fahrzeugbefehlen (z.B. Fahrzeugsteuerbefehle) auf der Grundlage einer oder mehrerer (z.B. GPS-codierter) verkehrsbezogener Bedingungen, die für das Fahrzeug relevant sind, anpasst (z.B. optimiert).
  • In verschiedenen Ausführungsformen kann ein Verfahren bereitgestellt werden, die so konfiguriert ist, dass sie eine oder mehrere Aktionen im Zusammenhang mit der Bestimmung (z.B. Überwachung und/oder Vorhersage) einer oder mehrerer verkehrsbezogener Bedingungen unterstützt. Das Verfahren kann so konfiguriert werden, dass es Daten (z.B. Verkehrskartendaten), die eine oder mehrere verkehrsbezogene Bedingungen beschreiben, auf der Grundlage von Daten aus einer oder mehreren Quellen (z.B. Sensordaten, die von einem oder mehreren Fahrzeugen geliefert werden, und/oder Verkehrssteuerungsdaten, die von einem oder mehreren Verkehrssteuerungsgeräten geliefert werden) modifiziert oder aktualisiert.
  • In einem komplexen Szenario (z.B. einem komplexen Verkehrsszenario), z.B. hohe Verkehrsdichte, unübersichtliche Verkehrsführung, hohe Anzahl von Fahrspuren und Kreuzungen u.ä., können die Sensordaten des eigenen Fahrzeugs (z.B. von einem oder mehreren Sensorsystemen des eigenen Fahrzeugs geliefert) für eine sichere (z.B. gefahrlose) Fahrzeugsteuerung nicht ausreichen. Zusätzliche Daten (z.B. zusätzliche Anweisungen und/oder Befehle), die von außerhalb des eigenen Fahrzeugs bereitgestellt werden (z.B. durch ein fahrzeugexternes Gerät oder System), können in solchen Fällen zur Verbesserung der Verkehrssicherheit verwendet werden. Zusätzliche Daten können auch für die Bereitstellung von Vorhersagen über eine oder mehrere verkehrsbezogene Bedingungen verwendet werden, z.B. für Routenplanungsvorhersagen. Zur Veranschaulichung: Solche zusätzlichen Daten können für eine effiziente Routenplanung auf einer großen Skala (z.B. Entfernung) verwendet werden, z.B. auf der km-Skala.
  • Verschiedene Ausführungsformen können darauf ausgerichtet sein, eine schnelle und zuverlässige Fahrzeugsteuerung (z.B. schnelle und zuverlässige Wege zur Lenkung eines Fahrzeugs) durch eine bekannte oder unbekannte Umgebung zu ermöglichen. Die hier beschriebene Methode (bzw. das Gerät) kann sowohl im kleinen Maßstab (z.B. von einigen wenigen Metern bis zu einigen zehn Metern, z.B. von etwa 1 m bis zu etwa 100 m) als auch im großen Maßstab (von einigen hundert Metern bis zu einigen Kilometern, z.B. von etwa 200 m bis zu etwa 10 km) anwendbar sein.
  • In verschiedenen Ausführungsformen kann eine Verkehrskarte (TRM) zur Verfügung gestellt werden. Die Verkehrskarte kann Informationen beschreiben oder aufweisen, die für die Fahrzeugsteuerung (z.B. Fahrzeuglenkungssteuerung) und/oder Umweltsensierung verwendet werden können. Illustrativ kann die Verkehrskarte einen oder mehrere verkehrsbezogene Zustände beschreiben (z.B. ein oder mehrere Verkehrsszenarien). Die Informationen oder Daten, die in einer Verkehrskarte beschrieben oder enthalten sind, können als Verkehrskartendaten bezeichnet werden.
  • Die Verkehrskarte kann einen oder mehrere Sätze oder Teilmengen von Informationen enthalten (z.B. Sätze oder Teilmengen von Verkehrskartendaten). Die Verkehrskarte kann eine oder mehrere Verkehrsdichtekarten (Traffic Density Maps, TDM) enthalten (zur Veranschaulichung: eine oder mehrere Karten, die einen oder mehrere bestimmte oder gemessene verkehrsbezogene Zustände beschreiben, wie z.B. Fahrzeugdichte, Sichtbarkeit, Wetter und ähnliches). Die Verkehrskarte kann eine oder mehrere Verkehrsdichtewahrscheinlichkeitskarten (Traffic Density Probability Maps, TDPM) enthalten (zur Veranschaulichung: eine oder mehrere Karten, die eine oder mehrere vorhergesagte oder prognostizierte verkehrsbezogene Bedingungen beschreiben). Die Verkehrskarte kann eine oder mehrere Verkehrsereigniskarten (TEM) enthalten (veranschaulichend eine oder mehrere Karten, die ein oder mehrere verkehrsbezogene Ereignisse beschreiben, wie z.B. einen Unfall, das Auftreten von Straßenschäden und ähnliches). Ein verkehrsbezogener Zustand kann gleich oder ähnlich einem Verkehrszustand und/oder einer Umweltsituation sein, wie z.B. in Bezug auf 123 bzw. 124 bis 126 beschrieben. Zusätzlich oder alternativ kann eine Verkehrskarte Informationen enthalten, die nach der beschriebenen Methode bestimmt wurden, wie z.B. in Bezug auf 85 bis 88 beschrieben.
  • Die Verkehrskarte kann GPS-kodiert sein (z.B. kann die Verkehrsdichtekarte und/oder die Verkehrsdichtewahrscheinlichkeitskarte und/oder die Verkehrsereigniskarte GPS-kodiert sein). Illustrativ können die Verkehrskartendaten (z.B. jeder Satz oder Teilsatz von Verkehrskartendaten) mit einer GPS-Position oder GPS-Koordinaten verknüpft sein (mit anderen Worten: die Verkehrskartendaten können GPS-kodiert sein). Die Verkehrskartendaten können Identifikationsinformationen, wie z.B. zeitlich und räumlich korrelierte Daten, weiter beschreiben oder enthalten. Beispielsweise kann ein Satz von Verkehrskartendaten einen Zeitstempel und/oder Standortdaten enthalten, z.B. in Verbindung mit einem oder mehreren Referenzgeräten wie einem Straßeninfrastrukturelement, einem Verkehrskontrollgerät und ähnlichem. Zur Veranschaulichung: Die eine oder mehrere verkehrsbezogene Bedingungen können GPS-kodiert sein, z.B. können sie mit dem Standort eines Fahrzeugs verknüpft sein (z.B. mit den GPS-Koordinaten eines Fahrzeugs).
  • In verschiedenen Ausprägungen kann eine Verkehrskarte (z.B. die Verkehrskartendaten) einen oder mehrere (z.B. GPS-codierte) Befehle für die Sensorik eines Fahrzeugs aufweisen. Als Beispiel kann eine Verkehrskarte eine oder mehrere Anweisungen für ein LIDAR-Sensorsystem aufweisen. Ein Fahrzeug (z.B. ein Sensorgerät), das so konfiguriert ist, dass es eine solche Verkehrskarte verwendet (d.h. empfängt und interpretiert), kann (z.B. automatisch) Sensormessungen durchführen, die auf der Grundlage der genannten Befehle optimiert werden. Zur Veranschaulichung: Ein Fahrzeug kann so konfiguriert sein, dass es ein oder mehrere Sensorsysteme auf der Grundlage eines oder mehrerer in der Verkehrskarte enthaltener Befehle steuert (z.B. konfiguriert). Dies kann den Effekt einer verbesserten Umgebungsabtastung (z.B. einer verbesserten Erfassung der das Fahrzeug umgebenden Umgebung) bewirken. Beispielsweise kann die Umgebungsabtastung mit fokussierter Sichtfeldsensorik (FoV) (z.B. mit einem schmaleren oder reduzierten FoV) und/oder mit optimierter Sensorausrichtung und -orientierung und/oder mit höherer Messempfindlichkeit und -genauigkeit (z.B. mit höherer Auflösung) und/oder mit geringerer LIDAR-Laser-Emissionsleistung, zumindest für einen oder mehrere Teile des FoV, durchgeführt werden. Eine reduzierte Lichtemissionsleistung (z.B. LIDAR-Laser-Emissionsleistung) kann vorteilhaft sein, um sicherheitsrelevante Bedenken zu verringern, z.B. um ein Objekt in kurzen Abständen zu detektieren und zu messen, ohne eine Gefahr für Umstehende oder Fußgänger darzustellen. Zur Veranschaulichung: Die Verkehrskartendaten können eine oder mehrere Anweisungen für ein oder mehrere Sensorsysteme eines Fahrzeugs aufweisen, die entsprechend der einen oder mehreren für das Fahrzeug relevanten Verkehrsbedingungen (z.B. basierend auf dem Standort und/oder der Route des Fahrzeugs) angepasst werden. Das eine oder die mehreren Sensorsysteme können somit Sensordaten in der angepassten (z.B. modifizierten) Konfiguration erzeugen oder bereitstellen.
  • In verschiedenen Ausführungsformen können die Verkehrskartendaten einem Fahrzeugsteuerungssystem und/oder Sensorsteuerungssystem (z.B. einem Sensormanagementsystem) zur Verfügung gestellt (z.B. direkt eingespeist) werden. Das Fahrzeug kann so konfiguriert werden, dass es die bereitgestellten Daten (z.B. Informationen und/oder Anweisungen) für die Fahrzeugsteuerung und/oder Sensorsteuerung (z.B. für die Routenplanung, die Anpassung der Fahrgeschwindigkeit und für Sensorikzwecke) verwendet. Das Sensorsteuerungssystem (z.B. ein LIDAR-Sensormanagementsystem) kann so konfiguriert werden, dass es entsprechend den empfangenen Anweisungen auf einen oder mehrere Sensoren oder Sensorsysteme (z.B. auf eine LIDAR-Sensoreinrichtung) einwirkt (z.B. zur Steuerung). Auf diese Weise können GPS-kodierte Sensormessungen durchgeführt (und GPS-kodierte Sensordaten erzeugt) werden.
  • Illustrativ kann für den Fall, dass sich ein Fahrzeug einer problematischen Zone nähert, wie sie durch die Verkehrskarteninformationen mitgeteilt wird, ein oder mehrere Sensorsysteme des Fahrzeugs (z.B. ein Kamerasystem, ein LIDAR-System, ein RADAR-System, ein Ultraschallsystem und ähnliches) angewiesen werden, (z.B. automatisch) mit der Messung der Umgebung mit höherer Genauigkeit oder Empfindlichkeit (z.B. mit höherer Auflösung) zu beginnen. Solche optimierten Sensordatensätze können an den Verkehrskartenanbieter übermittelt werden. Zur weiteren Veranschaulichung kann eine Verkehrskarte (z.B. eine Verkehrsdichte-Wahrscheinlichkeitskarte) GPS-kodierte Informationen (und/oder Anweisungen) aufweisen, die beschreiben, welches Sensorsystem oder welche Kombinationen von Sensorsystemen für die spezifische(n) (z.B. ermittelte(n) oder vorhergesagte(n)) verkehrsbezogene(n) Bedingung(en) ausgewählt werden können (z.B. welches Sensorsystem für eine erforderliche relevante Messung am besten geeignet wäre). Diese GPS-codierten Informationen können somit dazu führen, dass verbesserte Sensordaten (z.B. Messdaten) bereitgestellt werden können. Anders ausgedrückt kann eine Verkehrskarte (z.B. eine Verkehrsdichte-Wahrscheinlichkeitskarte) durch den Anbieter der Verkehrskarte GPS-kodiert werden, so dass die Verkehrskarte ausführbare GPS-kodierte Befehle oder Befehlseingaben für die Fahrzeugsensorsteuerung und/oder Sensordatenberichterstattung enthält.
  • Die Verkehrskarte kann unter Berücksichtigung der spezifischen Sensoren oder Sensorsysteme eines Fahrzeugs erstellt werden. Illustrativ können die Verkehrskartendaten (z.B. die durch die Verkehrskartendaten beschriebenen Anweisungen) auf der Grundlage einer Sensorkonfiguration des Fahrzeugs (z.B. auf der Grundlage einer Konfiguration von einem oder mehreren Sensorsystemen des Fahrzeugs) angepasst (d.h. zugeschnitten) werden. Die Konfiguration kann Informationen über die Sensorsysteme (und/oder über die Sensoren) des Fahrzeugs beschreiben, wie z.B. Typ, Anzahl, Lage, Ausrichtung und ähnliches. Zur Veranschaulichung kann die Sensorkonfiguration so berücksichtigt werden, dass die gegebenen Anweisungen von dem Fahrzeug, das die Verkehrskarte erhält, umgesetzt werden können. Beispielsweise kann das Fahrzeug so konfiguriert werden, dass es Sensorkonfigurationsdaten (z.B. in einer Sensorinformationsmatrix enthalten oder darin gespeichert) an den Anbieter der Verkehrskarte überträgt. Die Sensorkonfigurationsdaten können die Konfiguration eines oder mehrerer Sensorsysteme des Fahrzeugs beschreiben. Das Fahrzeug kann so konfiguriert werden, dass die Sensorkonfigurationsdaten nur einmal, z.B. zu Beginn einer Fahrt, an den Verkehrskartenanbieter übertragen werden. Zusätzlich oder alternativ kann das Fahrzeug so konfiguriert werden, dass es einen Fahrzeug-Identifikationscode (z.B. einen eindeutigen Fahrzeugcode) an den Anbieter der Verkehrskarte überträgt. Der Fahrzeug-Identifizierungscode kann mit der Sensorkonfiguration des Fahrzeugs verknüpft sein (zur Veranschaulichung: Der Anbieter von Verkehrskarten kann so konfiguriert sein, dass er die Sensorkonfiguration des Fahrzeugs auf der Grundlage des Fahrzeug-Identifizierungscodes bestimmt oder abruft). Beispielsweise kann die Sensorkonfiguration und/oder der Fahrzeug-Identifizierungscode in den Sensordaten enthalten sein.
  • Ein Sensorsystem kann zumindest vorübergehend auf der Grundlage von Befehlen gesteuert (z. B. angepasst und/oder optimiert) werden, die vom Fahrzeugsteuersystem (oder von einem Sensorsteuersystem) bereitgestellt werden und die entsprechend den Eingabedaten aus der Verkehrskarte (oder der Verkehrsdichtewahrscheinlichkeitskarte) generiert werden. Beispielsweise können für ein LIDAR-Sensorsystem eine LIDAR-Strahlwellenlänge, eine Intensität und eine Strahlung in ein bestimmtes Segment des Sichtfeldes entsprechend den Anweisungen modifiziert werden. Als weiteres Beispiel kann die Empfindlichkeit eines Sensorsystems an einem bestimmten Verkehrsort oder in Verbindung mit einem bestimmten verkehrsbezogenen Zustand erhöht werden. Ein weiteres Beispiel: Wenn ein Fahrzeug mehrere Sensorsysteme desselben Typs enthält (z.B. mehrere LIDAR-Sensorsysteme), dürfen nur einige (z.B. eine Teilmenge) oder alle entsprechend den Anweisungen betrieben werden (z.B. dürfen nur einige oder alle aktiv sein).
  • In verschiedenen Ausführungsformen können die von der Verkehrskarte gelieferten Anweisungen (z.B. die GPS-kodierten Eingangsdaten) Informationen aufweisen, die von einem Sensorsystem ausgesendet werden sollen (z.B. in einem Ausgang des Sensorsystems kodiert werden, z.B. in einem Strahl, der zur Abfrage der Umgebung verwendet wird). Beispielsweise können die GPS-kodierten Eingangsdaten, wie sie von den Verkehrskarteninformationen geliefert werden, ein LIDAR-Sensorsystem dazu veranlassen, bestimmte Informationen zu kodieren und an die Umgebung zu verteilen (z.B. um Informationen an ein anderes LIDAR-System, z.B. an ein anderes Fahrzeug, zu übertragen), z.B. durch Variationen von Pulsformen und/oder -längen und/oder Pulszeiten und/oder Pulspositionen und/oder Pulsamplitudenmodulationen oder durch die stochastische Aussendung von Laserpulsen.
  • Zusätzlich oder alternativ können die von der Verkehrskarte gelieferten Anweisungen (z.B. die GPS-codierten Eingangsdaten) Datensätze und/oder Befehle aufweisen, die für andere Fahrzeugfunktionen (z.B. nicht nur für die Sensorsysteme) nützlich sind. Beispielsweise Anweisungen für die Steuerung von Beleuchtungsfunktionen (z.B. der Scheinwerfer), die Steuerung von Anzeigen (z.B. innen und/oder außen), die Steuerung der inneren Umgebungsbeleuchtung, die Steuerung von akustischen Signalen und dergleichen.
  • In verschiedenen Ausführungsformen kann das Fahrzeug so konfiguriert werden, dass es die Sensordaten an ein fahrzeugexternes Gerät überträgt (z.B. kann das Fahrzeug ein Steuer- und Kommunikationssystem aufweisen). Die Sensordaten können an das Gerät oder das System übertragen (z.B. bereitgestellt) werden, das die Verkehrskarte für das Fahrzeug bereitgestellt (z.B. übertragen) hat (z.B. an einen Anbieter von Verkehrskarten, auch als Verkehrskontrollstation bezeichnet). Die Sensordaten können GPS-kodiert sein (z.B. kann das Fahrzeug oder der Anbieter der Verkehrskarte so konfiguriert sein, dass die Sensordaten mit den GPS-Koordinaten, wo die Sensordaten erzeugt wurden, beschriftet oder verknüpft werden). Zur Veranschaulichung: Die Sensordaten können von einem oder mehreren Sensorsystemen erzeugt werden, die entsprechend den (z.B. GPS-kodierten) Anweisungen in der Verkehrskarte gesteuert werden. Beispielsweise können die GPS-kodierten Sensordaten mit Hilfe einer GPS-kodierten LIDAR-Sensorgerätesteuerung bereitgestellt werden, die auf der Grundlage der Verkehrskartendaten angepasst und optimiert werden kann. Die Sensordaten können als Rohdaten oder als vorverarbeitete Daten übertragen werden. Die Vorverarbeitung kann beispielsweise die Durchführung einer (z.B. GPS-basierten) Objekterkennung und -klassifizierung umfassen.
  • Das Fahrzeug kann so konfiguriert werden, dass es mit dem Anbieter der Verkehrskarte interagiert (z. B. kommuniziert). Illustrativ kann ein Fahrzeug, das eine Verkehrskarte verwendet (z.B. eine Verkehrskarte empfängt), aktiv mit der Verkehrskartendatenbank interagieren (z.B. kommunizieren). Das Fahrzeug kann so konfiguriert werden, dass es zusätzliche GPS-codierte Informationen über eine vergangene oder aktuelle (z.B. problematische) Verkehrssituation und/oder einen Standort beisteuert. Das Fahrzeug kann so konfiguriert werden, dass es die Verkehrskarteninformationen für die Sensorsteuerung verwendet, z.B. auf der Grundlage der korrelierten (z.B. eingebetteten) GPS-codierten Befehle. Beispielsweise kann ein Fahrzeug so konfiguriert (z.B. angewiesen) werden, einen neuralgischen Verkehrsort mit erhöhter Empfindlichkeit und Genauigkeit zu messen, wobei ein oder mehrere (z.B. gleiche oder unterschiedliche) Sensorsysteme verwendet werden. Das Fahrzeug kann so konfiguriert (z.B. angewiesen) werden, dass es solche Daten (z.B. Sensordaten) an den Anbieter der entsprechenden Verkehrskarte (z.B. die Verkehrskarte mit den entsprechenden Anweisungen) zurückliefert, z.B. an den Anbieter einer solchen Verkehrsdichte-Wahrscheinlichkeitskarte. Bei den rückgemeldeten Daten (oder Datensätzen) kann es sich um Rohdaten (z.B. generische Daten) handeln oder die Daten können bereits vorverarbeitet sein, z.B. durch ein LIDAR-Kontroll- und Kommunikationssystem.
  • Verschiedene Ausführungsformen können auf eine regelmäßige oder kontinuierliche Aktualisierung und Aggregation von Verkehrskarten ausgerichtet sein, die auf der Sammlung und Analyse von (z.B. GPS-kodierten) Daten aus einer oder mehreren Quellen basieren. Der Anbieter von Verkehrskarten kann so konfiguriert werden, dass er Sensordaten von einem oder mehreren Fahrzeugen empfängt (z.B. von einem oder mehreren Sensorsystemen oder Sensoren eines Fahrzeugs, wie LIDAR-Sensoren, Kameras und dergleichen). Der Anbieter von Verkehrskarten kann so konfiguriert werden, dass er zusätzliche Daten (z.B. Verkehrskontrolldaten, z.B. GPS-kodiert) von einem oder mehreren anderen Geräten (z.B. Verkehrsüberwachungsgeräten) empfängt, wie z.B. einem oder mehreren Verkehrskontrollgeräten. Der Anbieter der Verkehrskarte kann entfernt sein (z.B. nicht am Standort eines Fahrzeugs oder eines Verkehrskontrollgeräts). Der Anbieter von Verkehrskarten kann ein Netz von Anbietern von Verkehrskarten sein oder ein solches umfassen (z.B. ein Netz von Verkehrskontrollstationen). Jeder Anbieter von Verkehrskarten kann einem bestimmten Gebiet oder einer bestimmten Region zugeordnet sein (z.B. kann er so konfiguriert sein, dass er Daten von Fahrzeugen und/oder Verkehrskontrollgeräten in diesem Gebiet empfängt). Die Verkehrskartenanbieter können so konfiguriert werden, dass sie miteinander kommunizieren, z.B. die empfangenen Daten austauschen.
  • Ein Verkehrsbeeinflussungsgerät kann an einer verkehrsrelevanten Stelle positioniert werden (z.B. an einem Punkt, der für die Bestimmung einer oder mehrerer verkehrsbezogener Bedingungen von Interesse ist, z.B. an einem neuralgischen Verkehrspunkt). Beispielsweise kann ein Verkehrsbeeinflussungsgerät an einer großen Kreuzung, an einer Einmündung, in einer Fußgängerzone, in einem Tunnel, auf einer Brücke und dergleichen angebracht (z.B. lokalisiert) werden. Ein Verkehrsüberwachungsgerät kann so konfiguriert werden, dass es einen oder mehrere verkehrsbezogene Zustände und/oder Ereignisse (z.B. Verkehrsfluss, Wetterbedingungen, einen Unfall und ähnliches) bestimmt (z.B. überwacht oder misst). Das Verkehrssteuergerät kann so konfiguriert werden, dass es entsprechende Verkehrssteuerdaten erzeugt, die die ermittelten verkehrsbezogenen Bedingungen/Ereignisse beschreiben. Das Verkehrssteuergerät kann so konfiguriert werden, dass es die Verkehrssteuerdaten an einen oder mehrere Verkehrskartenanbieter sendet (z.B. zur Verteilung).
  • Der Verkehrskartenanbieter kann so konfiguriert werden, dass er Sensordaten von einem Fahrzeug (oder von mehreren Fahrzeugen oder mehreren Verkehrsteilnehmern) und/oder Verkehrssteuerungsdaten von einem oder mehreren Verkehrssteuerungsgeräten empfängt. Die (z.B. gesendeten und/oder empfangenen) Daten können verschlüsselt werden. Die Datenverschlüsselung kann Anonymität und Datenzuverlässigkeit gewährleisten. Illustrativ kann der Verkehrskartenanbieter als ein verteiltes System (z.B. ein verteiltes Netzwerk) verstanden werden, das die empfangenen Daten sammelt, aggregiert und analysiert. Der Verkehrskartenanbieter kann so konfiguriert werden, dass er eine Verkehrskarte bestimmt (z.B. eine oder mehrere Verkehrskarten, die jeweils einem bestimmten Standort zugeordnet sind). Beispielsweise kann der Verkehrskartenanbieter so konfiguriert werden, dass er eine Verkehrskarte auf der Grundlage (z. B. durch Aggregation) der empfangenen Sensordaten und/oder der empfangenen Verkehrssteuerungsdaten erzeugt. Als weiteres Beispiel kann der Anbieter von Verkehrskarten so konfiguriert werden, dass er eine Verkehrskarte auf der Grundlage der empfangenen Sensordaten und/oder der empfangenen Verkehrssteuerungsdaten aktualisiert (z.B. anpasst). Illustrativ können in einer Verkehrskarte, z.B. in einer Verkehrsdichtekarte, Punktwolken erzeugt werden, die historische verkehrsbezogene Zustände widerspiegeln (mit anderen Worten beschreiben) (z.B. zeitintegrierte oder gemittelte Daten für bestimmte Wochentage, Kalendertage oder Tageszeiten). Zusätzlich oder alternativ können die Punktwolken aktuelle (d.h. tatsächliche) verkehrsbezogene Bedingungen widerspiegeln (z.B. aktuelle Fahrzeug- und Fußgängerdichte, Fahrzeuggeschwindigkeit und -trajektorie, Fußgängerstandort und -bewegungsrichtung und ähnliches). Die Punktwolken können auch verwendet werden, um vorausschauende (d.h. vorhergesagte oder prognostizierte) verkehrsbezogene Zustandswahrscheinlichkeiten zu erzeugen, z.B. können die Punktwolken zur Verkehrsprognose verwendet werden. Zur Veranschaulichung: Der Verkehrskartenanbieter kann so konfiguriert werden, dass er eine oder mehrere Wahrscheinlichkeiten bestimmt (z.B. vorhersagt), die mit einem oder mehreren verkehrsbezogenen Zuständen verbunden sind (z.B. die Wahrscheinlichkeit, dass ein verkehrsbezogener Zustand eintritt, z.B. zu einer bestimmten Zeit während eines Tages oder eines Monats).
  • Jede Verkehrskarteninformation kann mit einem entsprechenden Standort verknüpft werden, z.B. kann sie GPS-kodiert sein. Dies kann den Effekt haben, dass der Ort, an dem ein verkehrsbezogener Zustand (oder ein Ereignis) bestimmt wurde, bekannt sein kann (z.B. genau oder mit einem angemessenen Grad an Annäherung). Beispielsweise kann ein GPS-Radius (z.B. einige Meter oder Hunderte von Metern, z.B. von etwa 1 m bis etwa 500 m) in Verbindung mit einem aufgezeichneten verkehrsbezogenen Zustand angegeben werden. Der GPS-Radius kann das Gebiet oder den Umfang um einen aufgezeichneten verkehrsbezogenen Zustand beschreiben. Die GPS-Kodierung kann es ermöglichen, einem Fahrzeug auf der Grundlage seiner aktuellen GPS-Position genaue Verkehrsinformationen und/oder eine rechtzeitige Vorwegnahme von Verkehrsereignissen zu liefern. Beispielsweise können die Informationen, die dem Fahrzeug zur Verfügung gestellt werden, Informationen über erwartete Ereignisse (z.B. eine Umleitungsstrecke, einen Stau und ähnliches) aufweisen, die entlang einer ausgewählten Reiseroute zu einem bestimmten Zeitpunkt (z.B. an einem bestimmten Tag oder zu einem bestimmten Zeitraum während eines Tages) auftreten können. Die Reiseroute kann an den Verkehrskartenanbieter übermittelt werden (z.B. kann sie dem Verkehrskartenanbieter bekannt sein).
  • In verschiedenen Ausführungsformen kann der Verkehrskartenanbieter so konfiguriert werden, dass er die Verkehrskarte auf der Grundlage der GPS-codierten Umgebungserfassung und/oder Objekterfassung und -klassifizierung kontinuierlich aktualisiert (z. B. verbessert). Auf diese Weise kann die Genauigkeit der Verkehrsanalyse, der Verkehrsprognose und des Situationsbewusstseins kontinuierlich verfeinert werden, was zu einer verbesserten Fahrzeugführung und damit zu einer erhöhten Verkehrssicherheit führt.
  • In verschiedenen Ausführungsformen kann der Verkehrskartenanbieter so konfiguriert werden, dass er die Abbildung in verschiedenen Intervallen durchführt, z. B. kann der Verkehrskartenanbieter so konfiguriert werden, dass er eine Verkehrskarte in verschiedenen Zeitintervallen (z. B. täglich, stündlich, alle 30 Minuten, alle 10 Minuten oder alle 5 Minuten) erzeugt und/oder aktualisiert. Die einzelnen Abbildungen (z.B. die einzelnen Verkehrskarten, die verschiedenen Zeitpunkten entsprechen) können zur Generierung (z.B. zur Berechnung) einer kombinierten Verkehrskarte, z.B. einer zeitintegrierten- Verkehrskarte, verwendet werden- . Der Verkehrskartenanbieter kann so konfiguriert werden, dass er zeitbasierte Vorhersagen (z.B. Wahrscheinlichkeiten) von (z.B. erwarteten) verkehrsbezogenen Zuständen und/oder Ereignissen auf der Grundlage der zeitintegrierten Verkehrskarte (z.B. auf der Grundlage einer zeitintegrierten Verkehrsdichtekarte) bestimmt. Der Anbieter der Verkehrskarte kann Methoden des maschinellen Lernens (Machine Learning, ML) und/oder Methoden der künstlichen Intelligenz (Artificial Intelligence, AI) einsetzen, z.B. einschließlich oder basierend auf einem Neuronalen Netz (z.B. einem Convoluted oder Convolutional Neural Network). Die genannten Methoden des maschinellen Lernens (ML) und/oder Methoden der künstlichen Intelligenz (Kl) können die Vorhersage und/oder Antizipation vonverkehrsbezogenen Zuständen und/oder Ereignissen unterstützen. Der Anbieter von Verkehrskarten kann auch andere (z.B. prädiktive) Methoden anwenden, wie z.B. Bayes'sche Argumentationsmethoden.
  • In verschiedenen Ausführungsformen können der eine oder mehrere verkehrsbezogene Zustände (z.B. die verkehrsbezogenen Informationen), die durch eine Verkehrskarte beschrieben werden, unterschiedlicher Natur sein. Beispielsweise kann eine Verkehrskarte (z.B. die Verkehrskartendaten) Luftinformationen (z.B. von einem Datenanbieter wie Google Maps oder Nokia's Here) beschreiben. Die Luftinformationen können Koordinaten (z.B. GPS-Koordinaten) verschiedener verkehrsrelevanter Objekte und/oder Orte wie Straßen, Kreuzungen, Bahnübergänge, Sackgassen, Brücken, Seen und dergleichen aufweisen.
  • Als weiteres Beispiel kann eine Verkehrskarte Informationen über den Standort eines oder mehrerer verkehrsrelevanter Objekte (z.B. Koordinaten eines oder mehrerer verkehrsrelevanter Objekte) liefern, wie z.B. Kreuzungen, Häuser, Brücken, Baustellen, Ampeln, Verkehrszeichen, Tankstellen, Akkutankstellen (z.B. Ladestationen), Reparaturwerkstätten und ähnliches. Eine Verkehrskarte kann auf eine bestimmte Umgebung zugeschnitten sein, z.B. eine Großstadt, ein Stadtgebiet, ein Offroad-Gebiet und ähnliches.
  • Als weiteres Beispiel kann eine Verkehrskarte Informationen liefern, die verkehrsrelevante Objekte oder Ereignisse besonderer Art beschreiben, wie z.B. fest oder temporär installierte Geschwindigkeitskontrollvorrichtungen, diebstahl- oder einbruchgefährdete Bereiche, Orte mit hoher Unfallrate und ähnliches. Spezielle Datenkarten oder Datenbanken können diese Art von Daten liefern (z.B. kann der Anbieter der Verkehrskarte Zugang zu dieser Art von Daten haben), z.B. eine polizeiliche Unfalldatenkarte. Diese Art von Daten (z.B. solche speziellen Datenkarten) können auch zusätzliche (z.B. spezifischere) Informationen über die verkehrsbezogenen Objekte oder Ereignisse aufweisen. Zum Beispiel Informationen über Anzahl und Art der an einem Unfall- beteiligten Fahrzeuge (z.B. PKW, LKW, Radfahrer, Fußgänger, Kinder, ältere Menschen und dergleichen), Unfallschwere, Verletzungsarten, Arten von Notfalltransporten (z.B, Auto, Hubschrauber), Unfallszenarien (z.B. Unfälle auf einer geraden Fahrspur, auf einer Rechts- oder Linksabbiegespur, auf einem Zebrastreifen, auf einem Zebrastreifen, auf einer 4-Wege-Haltestelle, auf oder in der Nähe von Straßenkreuzungen, aufgrund einer Verletzung einer roten Ampel, aufgrund einer Rechtsabbiegung auf einer roten Kreuzung, aufgrund von Verletzungen der Vorrang-von-rechts-Regel, aufgrund von Verletzungen der Vorrang-von-rechts-Regel, aufgrund hoher Geschwindigkeit oder aufgrund einer Verletzung der Geschwindigkeitsbegrenzung und dergleichen). Ein weiteres Beispiel sind Informationen über unfallrelevante Parameter, wie geschätzte Fahrzeuggeschwindigkeit, Tag- und Nachtzeit, Wetterbedingungen, Fahrzeugbelegung und ähnliches.
  • Als weiteres Beispiel kann eine Verkehrskarte Informationen liefern, die gefährliche Situationen beschreiben (z.B. eine Situation potentieller Gefahr oder eine Situation, in der sich beinahe ein Unfall ereignet hätte), z.B. aufgrund von Geschwindigkeitsüberschreitungen, Heckaufprall, Notbremsung, fremder Fahrzeuglenkung, Spurwechsel und ähnlichem.
  • Als weiteres Beispiel kann eine Verkehrskarte fahrzeugspezifische Daten aufweisen, die z.B. von einem Automobilhersteller (z.B. vom Hersteller des Fahrzeugs) zur Verfügung gestellt werden, wie z.B. Radposition, Nutzung des Spur- oder Bremsassistenten, Anzeige von ignorierten Warnmeldungen (z.B. aufgrund eines abgelenkten Fahrers), Fahrerposition, Biofeedback-Signale und ähnliches.
  • Als weiteres Beispiel kann eine Verkehrskarte Informationen über Orte einschließlich spezifischer Gefahren oder Gefahrenquellen (z.B. Gebiete mit einem hohen Gefahrenprofil) aufweisen, z.B. über die Art der Gefahrenquelle (z.B, durch Aquaplaning, Staub, üblicherweise zu erwartende starke Winde, Überschwemmungen, plötzliche Temperaturstürze, starke Blendung, wie z.B. Sonneneinstrahlung, Blitzschlag von Baustellen u.ä.), und/oder über- fahrzeugspezifische Daten (z.B. Motortyp, Pferdestärken, Alter) und/oder über Fahrerdaten (z.B. Alter, Unfallprofil usw.). Eine Verkehrs- oder Kommunalbehörde kann solche Informationen z.B. zur Verfügung stellen.
  • Als weiteres Beispiel kann eine Verkehrskarte vorübergehend relevante verkehrsbezogene Informationen aufweisen, wie Umleitungshinweise, Staugefahr aufgrund einer öffentlichen Massenveranstaltung (z.B. eines Fußballspiels oder einer Demonstration), erhöhte Stauwahrscheinlichkeit aufgrund einer Baustelle oder einer vorübergehenden Straßenblockade, erhöhte Wahrscheinlichkeit von Unfällen mit Fußgängern (z.B. aufgrund unzureichender Beleuchtung, z.B. in einem ländlichen Dorf). Eine Verkehrskarte kann (z.B. fortlaufend) über das Auftreten verkehrsrelevanter Störungen wie Straßenschlaglöcher und andere Straßenschäden, Straßenschutt, liegen gebliebene Fahrzeuge, liegen gebliebene Fahrzeuge, Staus und dergleichen aktualisiert werden.
  • Die Verkehrskarte (z.B. die Verkehrskartendaten) kann auf fahrzeugspezifische Informationen zugeschnitten (z.B. angepasst) werden, die das Fahrzeug beschreiben, für das die Verkehrskarte bereitgestellt wird (z.B. das Fahrzeug, das die Verkehrskarte erhält). Ein Fahrzeug kann solche fahrzeugspezifischen Informationen an den Anbieter der Verkehrskarte übermitteln. Der Anbieter der Verkehrskarte kann so konfiguriert werden, dass er die an das Fahrzeug zu übertragende Verkehrskarte entsprechend den empfangenen Informationen anpasst. Beispielsweise kann die Verkehrskarte je nach Fahrzeugtyp (z.B. Pkw, Lkw, Anhänger, Fernverkehrsfahrzeug, Zug, Straßenbahn, Motorrad, Fahrrad, gekoppelte Stadtautos, Zugmaschine und dergleichen) und/oder je nach Fahrzeugmotortyp (z.B. Verbrennung, Batterie, Gas) angepasst werden. Zur Veranschaulichung: Die fahrzeugspezifischen Informationen können bestimmen, welche Art von Informationen für das Fahrzeug relevant sein können. Beispielsweise kann dies für ein Elektroauto von besonderer Bedeutung sein, um einen lang anhaltenden Stau oder einen langen Umweg aufgrund von Überlegungen zum Batteriestatus zu vermeiden. Zusätzlich kann bei der Anpassung der Verkehrskarte die Relevanz oder die Auswirkungen des Fahrzeugs auf andere Verkehrsteilnehmer berücksichtigt werden (z.B. die Auswirkungen des Verhaltens, das das Fahrzeug nach Erhalt der Verkehrskarte haben kann).
  • Es wird davon ausgegangen, dass eine Verkehrskarte eine oder mehrere (z.B. eine Kombination) der oben genannten Arten von Informationen (z.B. Arten von verkehrsbezogenen Bedingungen) enthalten kann.
  • In verschiedenen Ausführungsformen können eine oder mehrere Arten von Verkehrskarteninformationen zusammengestellt und in eine Verkehrsdichte-Wahrscheinlichkeitskarte integriert werden. Die Karte der Verkehrsdichtewahrscheinlichkeit kann in bestimmten Zeitintervallen aktualisiert werden. Beispielsweise kann der Verkehrskartenanbieter so konfiguriert werden, dass er eine Verkehrsdichte-Wahrscheinlichkeitskarte auf der Grundlage einer oder mehrerer Arten von Verkehrskarteninformationen bestimmt (z.B. generiert und/oder aktualisiert). Der Verkehrskartenanbieter kann so konfiguriert werden, dass er einem Fahrzeug die Verkehrsdichte-Wahrscheinlichkeitskarte zur Verfügung stellt (z.B. kann die Verkehrsdichte-Wahrscheinlichkeitskarte in der Verkehrskarte enthalten sein). Als Beispiel kann die Verkehrsdichte-Wahrscheinlichkeitskarte von einem Fahrzeug heruntergeladen und im Datenspeichersystem des Fahrzeugs gespeichert werden. Das Fahrzeugsteuerungssystem kann so konfiguriert werden, dass es die Verkehrsdichte-Wahrscheinlichkeitskarte für die Fahrzeugsteuerung verwendet. Ein Fahrzeug kann die durch die Verkehrsdichte-Wahrscheinlichkeitskarte beschriebene Information auf der Grundlage seiner aktuellen Position (z.B. auf der Grundlage seiner aktuellen GPS-Koordinaten- ) verarbeiten. Beispielsweise kann das Fahrzeug die relevanten Informationen (z.B. die GPS-codierten Ereignisse und Ereignisprognosen) Schritt für Schritt (z.B. während der Fahrt) herunterladen.
  • Die Informationen, die durch die Wahrscheinlichkeitskarte der Verkehrsdichte beschrieben werden, können einen Fahrer und/oder ein autonom fahrendes Fahrzeug in die Lage versetzen, seine Route anzupassen, z.B. um die Häufigkeit einer riskanten Situation oder eines riskanten Gebietes (z.B. ein Ort mit einer zu hohen Fahrzeugdichte oder einer zu hohen Unfallrate) zu reduzieren oder eine solche Situation zu vermeiden. Die Verkehrsdichte-Wahrscheinlichkeitskarte kann einem Fahrer angezeigt werden, z.B. visualisiert durch ein Head-up-Display (HUD) oder jedes andere Mittel der 2D- oder 3D-Visualisierung, und/oder die Verkehrsdichte-Wahrscheinlichkeitskarte kann einem Fahrer durch verschiedene Signalmittel, wie akustische Informationen (z.B. Warntöne und gelesene Textmeldungen), signalisiert werden.
  • In verschiedenen Ausführungsformen kann ein Verfahren zur Verfügung gestellt werden. Das Verfahren kann beinhalten, dass ein Fahrzeug seinen GPS-Standort an einen Anbieter von Verkehrskarten sendet. Das Verfahren kann beinhalten, dass der Anbieter von Verkehrskarten eine GPS-codierte Verkehrskarte (oder eine oder mehrere GPS-codierte Verkehrskarten) an das Fahrzeug sendet, um die Fahrzeugführung, die Sensorsteuerung und andere Fahrzeugfunktionen zu ermöglichen. Das Verfahren kann beinhalten, dass das Fahrzeug die GPS-kodierten Befehle (die in der Verkehrskarte enthalten sind) zur Fahrzeugsensorsteuerung verwendet. Das Verfahren kann beinhalten, dass das Fahrzeug rohe oder vorverarbeitete Sensordaten an den Anbieter der Verkehrskarte zurücksendet. Das Verfahren kann beinhalten, dass der Anbieter der Verkehrskarte die Verkehrskarte zur weiteren Verbreitung aktualisiert.
  • 127 zeigt ein Verfahren 12700 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Verfahren 12700 kann in 12702 die Bestimmung des Standorts eines Fahrzeugs beinhalten. Als Beispiel kann ein Fahrzeug ein Positionsmodul (z.B. ein GNSS- und/oder GPS-Modul) aufweisen, das so konfiguriert ist, dass es die Position (z.B. die Koordinaten) des Fahrzeugs bestimmt. Das Fahrzeug (z.B. ein Kommunikationssystem des Fahrzeugs) kann so konfiguriert werden, dass es seine Position (z.B. die ermittelten Koordinaten) an den Anbieter der Verkehrskarte übermittelt.
  • Das Verfahren 12700 kann in 12704 die Bestimmung einer Konfiguration eines oder mehrerer Sensorsysteme des Fahrzeugs umfassen (z.B. Informationen über die Sensoren oder Sensorsysteme des Fahrzeugs, wie Typ, Anzahl, Lage, Ausrichtung und dergleichen).
  • Beispielsweise kann das Fahrzeug so konfiguriert werden, dass es Sensorkonfigurationsdaten, die eine Sensorkonfiguration des Fahrzeugs beschreiben (z. B. eine Sensorinformationsmatrix), an den Verkehrskartenanbieter übermittelt. Das Fahrzeug kann so konfiguriert werden, dass es die Sensorkonfigurationsdaten z.B. zu Beginn einer Fahrt (z.B. zu Beginn jeder Fahrt) an den Verkehrskartenanbieter überträgt. Alternativ kann das Fahrzeug so konfiguriert werden, dass es die Sensorkonfigurationsdaten in periodischen Abständen (z.B. während einer Fahrt) an den Verkehrskartenanbieter überträgt.
  • Als weiteres Beispiel kann das Fahrzeug so konfiguriert werden, dass es einen Fahrzeug-Identifikationscode an den Anbieter der Verkehrskarte übermittelt. Der Fahrzeug-Identifikationscode kann die Sensorkonfiguration des Fahrzeugs identifizieren (z.B. kann er eindeutig der Sensorkonfiguration des durch den Code identifizierten Fahrzeugs zugeordnet werden). Der Anbieter von Verkehrskarten kann so konfiguriert werden, dass er die Sensorkonfiguration des Fahrzeugs aus dem Fahrzeugidentifikationscode bestimmt (z.B. durch Abfrage einer Datenbank).
  • Das Verfahren 12700 kann in 12706 den Empfang einer Verkehrskarte beinhalten, die mit dem Standort des Fahrzeugs verknüpft ist (oder mehrere Verkehrskarten, die jeweils mit dem Standort des Fahrzeugs verknüpft sind). Zur Veranschaulichung: Das Verfahren 12700 kann die Bestimmung (z.B. Generierung) einer Verkehrskarte umfassen, die mit dem Standort des Fahrzeugs verbunden ist (oder auf diesem basiert). Beispielsweise kann ein fahrzeugexternes Gerät oder System (z.B. der Anbieter der Verkehrskarte) so konfiguriert werden, dass es eine Verkehrskarte auf der Grundlage des Standortes des Fahrzeugs erzeugt (oder aus einer Datenbank abruft). Das fahrzeugexterne Gerät oder System kann so konfiguriert werden, dass es die Verkehrskarte an das Fahrzeug überträgt. Als weiteres Beispiel kann das Fahrzeug (z.B. ein oder mehrere Prozessoren des Fahrzeugs) so konfiguriert werden, dass es eine Verkehrskarte bestimmt (z.B. erzeugt), die mit dem Standort des Fahrzeugs verknüpft ist (z.B. durch Empfang von Daten von anderen Fahrzeugen und/oder Verkehrssteuerungsgeräten). Als weiteres Beispiel kann die Verkehrskarte in einem Datenspeichersystem (z.B. in einem Speicher) des Fahrzeugs gespeichert werden. Das Fahrzeug kann so konfiguriert werden, dass es die Verkehrskarte aus dem Datenspeichersystem abruft, z.B. kann es so konfiguriert werden, dass es die mit seinem Standort verbundene Verkehrskarte abruft. Die Verkehrskarte kann GPS-kodiert sein, z.B. kann die Verkehrskarte (z.B. die Verkehrskartendaten) mit GPS-Koordinaten verknüpft sein.
  • Die Verkehrskarte kann mit der Konfiguration eines oder mehrerer Sensorsysteme des Fahrzeugs verknüpft sein. Zur Veranschaulichung: Die Verkehrskartendaten können auf der Grundlage der Sensorkonfiguration des Fahrzeugs angepasst werden (z. B. können die Verkehrskartendaten Informationen liefern, die das Fahrzeug auf der Grundlage der Sensorkonfiguration des Fahrzeugs interpretieren oder umsetzen kann). Veranschaulichend kann das Verfahren 12700 die Bestimmung (z.B. Generierung) einer Verkehrskarte beinhalten, die mit der Sensorkonfiguration des Fahrzeugs verknüpft ist (oder auf dieser basiert). Beispielsweise kann ein fahrzeugexternes Gerät oder System (z.B. der Verkehrskartenanbieter) so konfiguriert werden, dass es eine Verkehrskarte auf der Grundlage der Sensorkonfiguration des Fahrzeugs erzeugt (oder aus einer Datenbank abruft). Als weiteres Beispiel kann das Fahrzeug (z.B. ein oder mehrere Prozessoren des Fahrzeugs) so konfiguriert werden, dass es eine Verkehrskarte bestimmt (z.B. erzeugt), die mit der Sensorkonfiguration des Fahrzeugs verknüpft ist.
  • Die Verkehrskarte (z. B. Verkehrskartendaten) kann einen oder mehrere verkehrsbezogene Zustände (oder Ereignisse) beschreiben, die mit dem Standort des Fahrzeugs zusammenhängen (z. B. für das Fahrzeug relevant). Beispielsweise kann die eine oder mehrere verkehrsbezogene Bedingung(en) eine aktuelle Verkehrssituation (z.B. eine Fahrzeugdichte, einen Verkehrsfluss, das Vorhandensein einer Umleitung und ähnliches) beinhalten (z.B. beschreiben). Als weiteres Beispiel können die eine oder mehrere verkehrsbezogene Bedingungen eine vorhergesagte (d.h. vorhergesagte oder geschätzte) Verkehrssituation (z.B. eine Fahrzeugdichte entlang der Route des Fahrzeugs, die Wahrscheinlichkeit, dass sich ein Stau bildet, und ähnliches) umfassen. Als weiteres Beispiel können die eine oder mehrere verkehrsbezogene Bedingungen ein oder mehrere verkehrsbezogene Objekte (z.B. eine Kreuzung, eine Brücke, eine Kreuzung und ähnliches) beschreiben. Als weiteres Beispiel können die eine oder mehrere verkehrsbezogene Bedingungen einen oder mehrere Verkehrsteilnehmer beschreiben (z.B. andere Fahrzeuge, Fußgänger, Radfahrer und dergleichen). Veranschaulichend kann die eine oder mehrere verkehrsbezogene Bedingung(-en) Informationen beschreiben, die für die Fahrzeugsteuerung und/oder sensorische Steuerung relevant sind.
  • Die Verkehrskarte kann eine Verkehrsdichtekarte (oder eine Vielzahl von Verkehrsdichtekarten) aufweisen. Die Verkehrsdichtekarte (z.B. Verkehrsdichtekartendaten) kann einen oder mehrere verkehrsbezogene Zustände am Standort des Fahrzeugs beschreiben. Illustrativ kann die Verkehrsdichtekarte eine oder mehrere tatsächliche (d.h. aktuelle) verkehrsbezogene Bedingungen beschreiben (z.B. eine aktuelle Fahrzeugdichte, einen aktuellen Verkehrsfluss, das aktuelle Wetter, die aktuelle Sichtweite und ähnliches).
  • Die Verkehrskarte kann eine Verkehrsdichte-Wahrscheinlichkeitskarte (oder eine Vielzahl von Verkehrsdichte-Wahrscheinlichkeitskarten) aufweisen. Die Verkehrsdichte-Wahrscheinlichkeitskarte (z.B. Daten der Verkehrsdichte-Wahrscheinlichkeitskarte) kann einen oder mehrere prognostizierte verkehrsbezogene Zustände beschreiben, die mit dem Standort des Fahrzeugs zusammenhängen. Die Verkehrsdichte-Wahrscheinlichkeitskarte kann eine oder mehrere Wahrscheinlichkeiten beschreiben, die mit einem oder mehreren verkehrsbezogenen Zuständen verbunden sind. Die eine oder mehrere Wahrscheinlichkeiten können auf dem Standort des Fahrzeugs basieren (z.B. können sie in Übereinstimmung mit dem Standort des Fahrzeugs bestimmt werden). Zur Veranschaulichung: Die Karte der Verkehrsdichtewahrscheinlichkeit kann eine oder mehrere Wahrscheinlichkeiten für das Eintreten einer oder mehrerer verkehrsbezogener Bedingungen (z.B. Vorhandensein oder Eintreten) am Standort des Fahrzeugs (oder entlang der Route des Fahrzeugs) beschreiben.
  • Die Verkehrskarte kann eine Verkehrsereigniskarte (oder eine Vielzahl von Verkehrsereigniskarten) aufweisen. Die Karte der Verkehrsereignisse (z.B. Kartendaten der Verkehrsereignisse) kann ein oder mehrere verkehrsbezogene Ereignisse beschreiben, die mit dem Standort des Fahrzeugs (und/oder mit der Route des Fahrzeugs) verbunden sind. Zu den verkehrsbezogenen Ereignissen können z.B. ein Unfall, eine Verkehrsstörung, eine Notfallsituation und ähnliches gehören.
  • Die Verkehrskarte (z.B. Verkehrskartendaten) kann eine oder mehrere Sensoranweisungen aufweisen. Die Sensoranweisungen können sich auf ein oder mehrere Sensorsysteme des Fahrzeugs beziehen (z.B. können die Sensoranweisungen Informationen zur Steuerung des einen oder der mehreren Sensorsysteme liefern). Die Sensoranweisungen können mit einer oder mehreren verkehrsbezogenen Bedingungen verknüpft sein. Illustrativ können die Sensoranweisungen auf der Grundlage der einen oder mehreren (z.B. aktuellen und/oder prognostizierten) verkehrsbezogenen Bedingungen bestimmt (z.B. angepasst) werden. Zusätzlich oder alternativ können die Sensoranweisungen auf der Grundlage der Sensorkonfiguration des Fahrzeugs angepasst werden (z.B. auf der Grundlage der Fähigkeiten und Eigenschaften eines oder mehrerer Sensorsysteme des Fahrzeugs). Die Sensoranweisungen können eine Konfiguration des einen oder der mehreren Sensorsysteme vorsehen, die an die eine oder mehrere verkehrsbezogene Bedingungen angepasst (z.B. optimiert) ist. Die Sensoranweisungen können GPS-kodiert sein, z.B. auf GPS-Koordinaten (z.B. des Fahrzeugs) zugeschnitten oder damit verbunden sein.
  • Das eine oder die mehreren Sensorsysteme können ein oder mehrere RADAR-Sensorsysteme, ein oder mehrere LIDAR-Sensorsysteme (z.B. ein LIDAR-Sensorsystem 10), ein oder mehrere Kamerasysteme, ein oder mehrere Ultraschallsysteme und ähnliches umfassen.
  • Das Verfahren 12700 kann in 12708 die Steuerung des einen oder mehrerer Sensorsysteme unter Berücksichtigung der einen oder mehreren Sensoranweisungen beinhalten. Als Beispiel können die Sensoranweisungen Befehle und/oder Konfigurationseinstellungen für das eine oder die mehreren Sensorsysteme aufweisen. Das Fahrzeug (z.B. ein Sensorsteuersystem des Fahrzeugs) kann so konfiguriert werden, dass es die Befehle und/oder Konfigurationseinstellungen ausführt oder implementiert. Als weiteres Beispiel kann das Fahrzeug (z.B. das Sensorsteuersystem) so konfiguriert werden, dass es entsprechende Befehle für den einen oder die mehreren Sensoren erzeugt und/oder Konfigurationseinstellungen bestimmt, die auf der Grundlage der empfangenen Sensoranweisungen zu implementieren sind.
  • Beispielsweise können die Sensoranleitungen ein Sensorsystem oder eine Kombination von Sensorsystemen aufweisen (oder beschreiben), die verwendet werden sollen. Die Sensoranweisungen können eine Reihe von Sensorsystemen aufweisen, die deaktiviert (oder mit einer niedrigeren Priorität versehen) werden sollen. Die Sensoranweisungen können eine Reihe von Sensorsystemen aufweisen, die aktiviert (oder priorisiert) werden sollen. Zur Veranschaulichung: Die Sensoranweisungen können angeben, welches Sensorsystem oder welche Kombination von Sensorsystemen angesichts einer oder mehrerer verkehrsbezogener Bedingungen für die Umweltsensierung geeignet (z.B. optimal) sein kann. Beispielsweise können in einem Geländezustand Kamerasensordaten und LIDAR-Sensordaten bevorzugt werden (z.B. können die entsprechenden Sensorsysteme aktiviert werden). Als weiteres Beispiel können in einem Landstraßen oder Autobahnzustand RADAR- und LIDAR-Sensordaten bevorzugt werden.
  • Als weiteres Beispiel können die Sensoranweisungen eine Änderung einer oder mehrerer Eigenschaften oder Parameter von mindestens einem Sensorsystem beinhalten. Die Sensoranweisungen können eine Änderung in der Auflösung mindestens eines Sensorsystems beinhalten (z.B. kann eine Änderung der Auflösung, z.B. eine Erhöhung der Auflösung, enthalten). Die Sensoranweisungen können eine Änderung des Sichtfeldes mindestens eines Sensorsystems beinhalten (z.B. eine Verengung oder Vergrößerung des Sichtfeldes). Die Sensoranweisungen können eine Änderung der Empfindlichkeit mindestens eines Sensorsystems beinhalten (z.B. Erhöhung oder Verringerung der Empfindlichkeit). Illustrativ können die veränderten Eigenschaften oder Parameter eine verbesserte Erfassung im Hinblick auf die ermittelten verkehrsbezogenen Bedingungen ermöglichen. Befindet sich das Fahrzeug beispielsweise in einer potentiell gefährlichen Situation (oder nähert sich einer potentiell gefährlichen Situation), kann die Empfindlichkeit eines Sensorsystems (z.B. eines LIDAR-Sensorsystems) erhöht oder das Sichtfeld verengt werden (z.B. um sich auf relevantere Teile des vom Fahrzeug verfolgten Weges zu konzentrieren).
  • Als weiteres Beispiel können die Sensoranweisungen Informationen aufweisen, die von mindestens einem Sensorsystem ausgesendet werden müssen. Zur Veranschaulichung: Die Sensoranweisungen können beschreiben, dass mindestens ein Sensorsystem Informationen übermitteln soll, und sie können die zu übermittelnden Informationen beschreiben. Die Informationen können in einem Signal kodiert sein, das von mindestens einem Sensorsystem ausgestrahlt wird. Die Information kann z.B. in dem von einem LIDAR-Sensorsystem ausgesandten LIDAR-Licht kodiert sein. Die Information kann z.B. im Ultraschallsignal kodiert sein, das von einem Ultraschallsystem ausgesendet wird. Die ausgesendete Information kann z.B. für andere Verkehrsteilnehmer (z.B. andere Fahrzeuge) relevante Informationen beschreiben, wie z.B. Informationen über ein Verkehrsereignis (z.B. einen Unfall). Die ausgesendeten Informationen können z.B. Informationen beschreiben, die für eine Verkehrssteuerungseinrichtung relevant sind, wie z.B. Informationen über den Verkehrsfluss.
  • Das Verfahren 12700 kann die Erzeugung von Sensordaten beinhalten. Zur Veranschaulichung: Das Verfahren 12700 kann die Steuerung eines oder mehrerer Sensorsysteme gemäß den Sensoranweisungen zur Erzeugung von Sensordaten beinhalten. Die Generierung der Sensordaten kann somit im Hinblick auf eine oder mehrere verkehrsbezogene Bedingungen (z.B. im Hinblick auf den Standort des Fahrzeugs) zugeschnitten (z.B. optimiert) werden. Die Sensordaten können z.B. RADAR-Sensordaten, Kamera-Sensordaten, LIDAR-Sensordaten, Ultraschall-Sensordaten und ähnliches umfassen. Die Sensordaten können mit dem Standort des Fahrzeugs verknüpft sein (z.B. können die Sensordaten GPS-kodiert sein). Illustrativ können die Sensordaten Informationen über die Umgebung des Fahrzeugs liefern (z.B. können sie Informationen über eine oder mehrere verkehrsbezogene Bedingungen liefern, z.B. über andere Verkehrsteilnehmer, über das Wetter, über die Sichtweite usw.).
  • Das Verfahren 12700 kann die Übertragung der erzeugten Sensordaten an ein fahrzeugexternes Gerät (z.B. an den Verkehrskartenanbieter) beinhalten. Das Fahrzeug (z.B. ein Kommunikationssystem des Fahrzeugs) kann für die Übertragung der erzeugten Sensordaten konfiguriert werden. Die Sensordaten können verwendet werden, um die Verkehrskarte zu modifizieren (z.B. zu aktualisieren) und/oder um eine (z.B. neue) Verkehrskarte zu generieren. Beispielsweise kann das Fahrzeug so konfiguriert werden, dass es die (z.B. empfangene oder bestimmte) Verkehrskarte auf der Grundlage der erzeugten Sensordaten modifiziert (z.B. kann das Verfahren 12700 die Modifizierung der Verkehrskarte auf der Grundlage der erzeugten Sensordaten beinhalten). Als weiteres Beispiel kann der Anbieter der Verkehrskarte so konfiguriert werden, dass er die Verkehrskarte auf der Grundlage der empfangenen Sensordaten modifiziert, wie dies weiter unten näher beschrieben wird.
  • Die Verkehrskarte (z.B. die Verkehrskartendaten) kann eine oder mehrere Fahranweisungen aufweisen. Die Fahranweisungen können für die Steuerung des Fahrzeugs konfiguriert werden (z. B. können die Fahranweisungen Informationen für die Fahrzeugsteuerung liefern, z. B. können sie an ein Fahrzeugsteuerungssystem weitergeleitet werden). Die Fahranweisungen können mit einer oder mehreren verkehrsbezogenen Bedingungen verknüpft sein. Zur Veranschaulichung: Die Fahranweisungen können auf der Grundlage einer oder mehrerer (z.B. aktueller und/oder prognostizierter) verkehrsbezogener Bedingungen bestimmt werden. Beispielsweise können die Fahranweisungen darauf hinweisen, dass die Geschwindigkeit des Fahrzeugs in Übereinstimmung mit (oder in der Nähe von) einem Stau oder Unfall zu reduzieren ist. Als weiteres Beispiel können die Fahranweisungen darauf hinweisen, das Fahrzeug aufgrund einer Straßenunterbrechung auf eine andere Route zu lenken.
  • Das Verfahren 12700 kann die Steuerung des Fahrzeugs unter Berücksichtigung einer oder mehrerer Fahranweisungen umfassen (zur Veranschaulichung: in 12706 und 12708 kann das Verfahren den Empfang der Fahranweisungen und die entsprechende Steuerung des Fahrzeugs umfassen). Als Beispiel können die Fahranweisungen Befehle (z.B. Lenkbefehle) für das Fahrzeug aufweisen. Das Fahrzeug (z.B. das Fahrzeugsteuerungssystem) kann so konfiguriert werden, dass es die Befehle ausführt. Als weiteres Beispiel kann das Fahrzeug (z.B. das Fahrzeugsteuerungssystem) so konfiguriert werden, dass es auf der Grundlage der empfangenen Fahranweisungen entsprechende Befehle generiert.
  • 128 zeigt ein Verfahren 12800 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Verfahren 12800 kann im Jahr 12802 das Empfangen der Position eines Fahrzeugs beinhalten. Beispielsweise kann ein Anbieter von Verkehrskarten so konfiguriert werden, dass er Positionsdaten (z.B. GPS-Daten) von einem Fahrzeug empfängt, wobei die Positionsdaten den Standort des Fahrzeugs beschreiben. Zusätzlich oder alternativ kann das Verfahren 12800 den Empfang von Sensorkonfigurationsdaten (z.B. eine Sensorinformationsmatrix) beinhalten. Beispielsweise kann ein Anbieter von Verkehrskarten so konfiguriert werden, dass er eine Sensorinformationsmatrix von einem Fahrzeug empfängt. Zur Veranschaulichung: Das Verfahren 12800 kann den Empfang einer Konfiguration (z.B. einer Sensorkonfiguration) eines oder mehrerer Sensorsysteme des Fahrzeugs beinhalten.
  • Das Verfahren 12800 kann im Jahr 12804 den Empfang von Sensordaten vom Fahrzeug beinhalten. Beispielsweise kann der Verkehrskartenanbieter so konfiguriert werden, dass er die Sensordaten empfängt. Die Sensordaten können mit dem Standort des Fahrzeugs verknüpft sein (z.B. können sie eine Umgebung oder eine oder mehrere verkehrsbezogene Bedingungen am Standort des Fahrzeugs beschreiben). Die Sensordaten können GPS-kodiert sein. Die Sensordaten können in Übereinstimmung mit einer oder mehreren Sensoranweisungen stehen, die in einer Verkehrskarte enthalten sind. Zur Veranschaulichung: Die Sensordaten können erzeugt werden (oder erzeugt worden sein), indem ein oder mehrere Sensorsysteme des Fahrzeugs auf der Grundlage der Sensoranweisungen gesteuert (z.B. konfiguriert) werden. Die Sensordaten können z.B. RADAR-Sensordaten, Kamerasensordaten, LIDAR-Sensordaten, Ultraschallsensordaten und ähnliches umfassen. Die Sensordaten können die Sensorkonfigurationsdaten aufweisen.
  • Das Verfahren 12800 kann im Jahr 12806 die Modifizierung (z.B. Aktualisierung) der Verkehrskarte (z.B. der Verkehrskartendaten) auf der Grundlage der empfangenen Sensordaten und des empfangenen Standortes des Fahrzeugs beinhalten. Beispielsweise kann der Anbieter der Verkehrskarte so konfiguriert sein, dass er eine solche Modifikation implementiert. Illustrativ kann die (z.B. GPS-codierte) Verkehrskarte, die die Sensoranweisungen an das Fahrzeug lieferte, auf der Grundlage der entsprechend generierten Sensordaten modifiziert werden. Beispielsweise kann die Beschreibung einer oder mehrerer verkehrsbezogener Bedingungen, die von der Verkehrskarte geliefert werden, im Hinblick auf die neu empfangenen Sensordaten modifiziert werden. Als weiteres Beispiel können die in der Verkehrskarte enthaltenen Sensoranweisungen und/oder Fahranweisungen entsprechend den neu empfangenen Sensordaten modifiziert werden.
  • Die Modifikation der Verkehrskarte kann die Modifikation einer Verkehrsdichtekarte (z.B. in der Verkehrskarte enthalten) und/oder die Modifikation der Verkehrskarte kann die Modifikation einer Verkehrsdichtewahrscheinlichkeitskarte (z.B. in der Verkehrskarte enthalten) umfassen. Veranschaulichend kann die Modifikation der Verkehrskarte die Modifikation (z.B. Aktualisierung) einer oder mehrerer tatsächlicher verkehrsbezogener Bedingungen und/oder einer oder mehrerer prognostizierter verkehrsbezogener Bedingungen (z.B. eine oder mehrere Wahrscheinlichkeiten, die mit einer oder mehreren verkehrsbezogenen Bedingungen verbunden sind) umfassen.
  • Der Standort und/oder die Sensordaten können von mehr als einem Fahrzeug geliefert werden (z.B. von einem oder mehreren anderen Fahrzeugen). Zur Veranschaulichung: Der Anbieter von Verkehrskarten kann so konfiguriert sein, dass er Standort- und/oder Sensordaten von einem oder mehreren (z.B. anderen) Fahrzeugen empfängt. Das Verfahren 12800 kann den Empfang des Standorts eines oder mehrerer (z.B. anderer) Fahrzeuge beinhalten. Das Verfahren 12800 kann den Empfang von (z.B. zusätzlichen) Sensordaten von einem oder mehreren Fahrzeugen beinhalten. Die Sensordaten können von den gleichen Sensorsystemen (z.B. den gleichen Arten von Sensorsystemen) oder von verschiedenen Sensorsystemen erzeugt werden. Zur Veranschaulichung: Das eine oder die mehreren Fahrzeuge können die gleichen Sensoranweisungen erhalten haben oder jedes Fahrzeug kann unterschiedliche (z.B. spezifische oder entsprechende) Sensoranweisungen erhalten haben. Das Verfahren 12800 kann die Änderung der Verkehrskarte auf der Grundlage der empfangenen zusätzlichen Sensordaten und der empfangenen Position des einen oder der mehreren (z.B. anderen) Fahrzeuge umfassen.
  • Zusätzlich oder alternativ kann die Modifikation (z.B. die Aktualisierung) der Sensorkarte auf Daten basieren, die von anderen Geräten empfangen werden, z.B. von einem oder mehreren Verkehrskontrollgeräten. Das Verfahren 12800 kann den Empfang der Position eines oder mehrerer Verkehrssteuerungsgeräte beinhalten. Das Verfahren 12800 kann den Empfang von Verkehrssteuerungsdaten von einem oder mehreren Verkehrssteuerungsgeräten beinhalten. Die Verkehrssteuerdaten können eine oder mehrere verkehrsbezogene Bedingungen am Standort des jeweiligen Verkehrssteuergeräts beschreiben. Zur Veranschaulichung: Der Verkehrskartenanbieter kann so konfiguriert werden, dass er den Standort und/oder die Verkehrssteuerdaten von dem einen oder den mehreren Verkehrssteuergeräten empfängt. Das Verfahren 12800 kann die Modifizierung der Verkehrskarte auf der Grundlage der empfangenen Verkehrssteuerdaten und des empfangenen Standorts des einen oder der mehreren Verkehrssteuergeräte umfassen.
  • Das Verfahren 12800 kann die Übertragung der geänderten (z.B. aktualisierten) Verkehrskarte an das Fahrzeug (oder an ein oder mehrere Fahrzeuge) beinhalten. Zur Veranschaulichung: Der Anbieter der Verkehrskarte kann so konfiguriert werden, dass er die aktualisierte Verkehrskarte an das Fahrzeug überträgt (z.B. an das Fahrzeug, das die zur Änderung der Verkehrskarte verwendeten Sensordaten geliefert hat). Der Anbieter der Verkehrskarte kann so konfiguriert werden, dass er die geänderte Verkehrskarte zur weiteren Verteilung (z.B. an andere Fahrzeuge) speichert.
  • 129A und 129B zeigen jeweils ein System in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das in 129A und 129B dargestellte System kann eine beispielhafte Darstellung eines Systems sein, das so konfiguriert ist, dass es die in Bezug auf 127 beschriebene Methode 12700 und/oder die in Bezug auf 128 beschriebene Methode 12800 (oder zumindest einen Teil der Methode 12700 und/oder der Methode 12800) implementiert.
  • Das System kann eine Sensorvorrichtung umfassen (z.B. die LIDAR-Sensorvorrichtung 30, z.B. ein Gehäuse, ein Fahrzeug oder ein Fahrzeugscheinwerfer). Die Sensoreinrichtung kann ein Sensorsystem umfassen, z.B. das LIDAR-Sensorsystem 10 (z.B. das Nachrüst-LIDAR-Sensorsystem 10), das z.B. im Zusammenhang mit 1 beschrieben wird. Es ist beabsichtigt, dass das in 129A und 129B dargestellte System eine oder mehrere der Komponenten (z.B. alle Komponenten) aufweisen kann, die z.B. in Bezug auf 1 beschrieben sind.
  • Die Sensorvorrichtung muss so konfiguriert werden, dass sie eine Position der Sensorvorrichtung bestimmt. Die Sensorvorrichtung kann ein Positionsmodul 12902 aufweisen (z.B. ein GPS-Modul, z.B. einen GPS-Sensor). Das Positionsmodul 12902 kann so konfiguriert werden, dass es Positionsdaten erzeugt (oder Positionsdaten, z.B. von einem externen Gerät, z.B. von einer Verkehrskontrollstation, empfängt).
  • Das Sensorgerät kann ein Datenverarbeitungssystem aufweisen (z.B. das LIDAR-Datenverarbeitungssystem 60). Das Datenverarbeitungssystem kann so konfiguriert werden, dass es Signalverarbeitung 61, Datenanalyse und -berechnung 62, Sensorfusion und andere Sensorfunktionen 63 ausführt. Die Sensoreinrichtung kann ein Sensormanagementsystem (z.B. das LIDAR-Sensormanagementsystem 90) aufweisen, das so konfiguriert sein kann, dass es Eingangs- und Ausgangsdaten für das Sensorsystem (z.B. einen oder mehrere Sensorbefehle) verwaltet. Die Sensoreinrichtung kann ein Kommunikationssystem (z.B. das Steuer- und Kommunikationssystem 70) aufweisen, das für die Verwaltung von Eingabe- und Ausgabedaten konfiguriert ist (z.B. konfiguriert für die Kommunikation mit sensor-externen, z.B. fahrzeugexternen, Geräten).
  • Das Sensorgerät (z. B. das Kommunikationssystem) kann so konfiguriert werden, dass es mit einem Sensorgerät-externen-Gerät oder System 12904 (z. B. einem fahrzeugexternen Gerät oder System, z. B. dem Verkehrskartenanbieter) interagiert. Das Sensorgerät kann so konfiguriert werden, dass es Daten (z.B. die Verkehrskarte 12904a) von dem systemexternen Gerät 12904 empfängt (z.B. die Verkehrskarte 12904a). Das Sensorgerät kann so konfiguriert werden, dass es Daten (z.B. Sensordaten) an das systemexterne Gerät 12904 sendet.
  • 130 zeigt in einer schematischen Darstellung ein System und einen Signalweg nach verschiedenen Ausführungsformen.
  • Die Sensoreinrichtung 30 kann die Positionsdaten 13002 (z.B. ihren Standort, wie durch das Positionsmodul 12902 bestimmt) an den Verkehrsanbieter 12904 übertragen. Die Sensoreinrichtung 30 (z.B. das Kommunikationssystem) kann ferner so konfiguriert werden, dass sie Sensorkonfigurationsdaten, z.B. eine Sensorinformationsmatrix (z.B. gespeichert in einem Speicher der Sensoreinrichtung 30), an den Verkehrskartenanbieter 12904 überträgt. Zusätzlich oder alternativ kann die Sensorvorrichtung 30 so konfiguriert werden, dass sie einen Identifikationscode an den Verkehrskartenanbieter 12904 überträgt (z.B. einen eindeutigen Code, der die Sensorvorrichtung 30 identifiziert). Der Verkehrsanbieter 12904 kann die Verkehrskarte 12904a, die mit den Positionsdaten verknüpft ist, an die Sensorvorrichtung 30 übertragen (z.B. kann er GPS-codierte Eingangsdaten 13004 einschließlich der Verkehrskarte, z.B. Verkehrskartendaten, übertragen). Die Verkehrskarte 12904a kann auch mit den Sensor-Konfigurationsdaten verknüpft sein (z.B. mit einer Konfiguration der Sensoreinrichtung 30 oder mit einer Konfiguration eines oder mehrerer Sensorsysteme der Sensoreinrichtung 30).
  • Das Sensorgerät kann die in der Verkehrskarte 12904a enthaltenen Sensoranweisungen 13006 dem Sensorgerätesystem (z.B. dem LIDAR-Sensormanagementsystem 90) zur Verfügung stellen. Das System kann auch Fahranweisungen an ein Fahrzeugsteuerungssystem liefern.
  • Das Sensorgerät kann Sensordaten 13008 entsprechend den empfangenen Sensoranweisungen erzeugen. Die generierten Sensordaten 13008 können durch das Kommunikationssystem (z.B. das Steuerungs- und Kommunikationssystem 70) zurück an den Verkehrskartenanbieter 12904 übertragen werden. Der Verkehrskartenanbieter 12904 kann die übertragenen Sensordaten 13010 empfangen. Der Verkehrskartenanbieter 12904 kann die Verkehrskarte 12904a aktualisieren (z.B. kann er eine aktualisierte Verkehrskarte 13012 erzeugen und/oder speichern). Der Verkehrskartenanbieter 12904 kann die aktualisierte Verkehrskarte 13012 an das Sensorgerät (z.B. an das Fahrzeug) übertragen.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 127 bis 130 beschrieben, können mit den Ausführungsformen der intelligenten Navigation, wie unter Bezugnahme auf 85 bis 88 beschrieben, kombiniert werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1v ist ein Verfahren. Das Verfahren kann die Bestimmung des Standorts eines Fahrzeugs umfassen. Das Verfahren kann die Bestimmung einer Konfiguration von einem oder mehreren Sensorsystemen des Fahrzeugs umfassen. Das Verfahren kann den Empfang einer mit dem Standort des Fahrzeugs verbundenen Verkehrskarte umfassen. Die Verkehrskarte kann mit der Konfiguration eines oder mehrerer Sensorsysteme des Fahrzeugs verknüpft sein. Die Verkehrskarte kann einen oder mehrere verkehrsbezogene Zustände beschreiben, die mit dem Standort des Fahrzeugs verbunden sind. Die Verkehrskarte kann eine oder mehrere Sensoranweisungen für das eine oder die mehreren Sensorsysteme des Fahrzeugs aufweisen. Die eine oder mehrere Sensoranweisungen können mit einer oder mehreren verkehrsbezogenen Bedingungen verknüpft sein. Das Verfahren kann die Steuerung des einen oder der mehreren Sensorsysteme unter Berücksichtigung der einen oder der mehreren Sensoranweisungen umfassen.
    • In Beispiel 2v kann der Gegenstand von Beispiel 1v optional beinhalten, dass die Verkehrskarte zusätzlich eine oder mehrere Fahranweisungen enthält. Die eine oder mehrere Fahranweisungen können mit einer oder mehreren verkehrsbezogenen Bedingungen verknüpft sein. Das Verfahren kann ferner umfassen, dass das Fahrzeug unter Berücksichtigung der einen oder mehreren Fahranweisungen gesteuert wird.
    • In Beispiel 3v kann der Gegenstand eines der Beispiele 1v oder 2v optional beinhalten, dass die eine oder mehreren Sensoranweisungen eine oder mehrere GPS-codierte Sensoranweisungen und/oder die eine oder mehreren Fahranweisungen eine oder mehrere GPS-codierte Fahranweisungen sind.
    • In Beispiel 4v kann der Gegenstand eines der Beispiele 1v bis 3v optional beinhalten, dass die Verkehrskarte eine GPS-codierte Verkehrskarte ist.
    • In Beispiel 5v kann der Gegenstand eines der Beispiele 1v bis 4v optional beinhalten, dass die eine oder mehrere verkehrsbezogene Bedingungen eine aktuelle Verkehrssituation und/oder eine prognostizierte Verkehrssituation und/oder Informationen über ein oder mehrere verkehrsbezogene Objekte und/oder Informationen über einen oder mehrere Verkehrsteilnehmer umfassen.
    • In Beispiel 6v kann der Gegenstand eines der Beispiele 1v bis 5v optional beinhalten, dass die eine oder mehrere Sensoranweisungen eine Anzahl von zu aktivierenden Sensorsystemen und/oder eine Anzahl von zu deaktivierenden und/oder zu depriorisierenden Sensorsystemen aufweisen.
    • In Beispiel 7v kann der Gegenstand eines der Beispiele 1v bis 6v optional beinhalten, dass die eine oder mehrere Sensoranweisungen eine Änderung der Auflösung und/oder des Sichtfeldes und/oder der Empfindlichkeit mindestens eines Sensorsystems des einen oder der mehreren Sensorsysteme beinhalten.
    • In Beispiel 8v kann der Gegenstand eines der Beispiele 1v bis 7v optional beinhalten, dass die eine oder mehrere Sensoranweisungen Informationen aufweisen, die von mindestens einem Sensorsystem des einen oder der mehreren Sensorsysteme ausgestrahlt werden sollen.
    • In Beispiel 9v kann der Gegenstand eines der Beispiele 1v bis 8v optional beinhalten, dass der Empfang der Verkehrskarte den Empfang der Verkehrskarte von einem fahrzeugexternen Gerät einschließt.
    • In Beispiel 10v kann der Gegenstand eines der Beispiele 1v bis 8v optional beinhalten, dass die Verkehrskarte in einem Datenspeichersystem des Fahrzeugs gespeichert wird.
    • In Beispiel 11v kann der Gegenstand eines der Beispiele 1v bis 10v optional beinhalten, dass die Verkehrskarte eine Karte der Verkehrsdichte enthält. Die Verkehrsdichtekarte kann einen oder mehrere verkehrsbezogene Zustände am Standort des Fahrzeugs beschreiben.
    • In Beispiel 12v kann der Gegenstand eines der Beispiele 1v bis 11v optional beinhalten, dass die Verkehrskarte eine Wahrscheinlichkeitskarte der Verkehrsdichte enthält. Die Verkehrsdichte-Wahrscheinlichkeitskarte kann eine oder mehrere Wahrscheinlichkeiten in Verbindung mit einer oder mehreren verkehrsbezogenen Bedingungen auf der Grundlage des Standortes des Fahrzeugs beschreiben.
    • In Beispiel 13v kann der Gegenstand eines der Beispiele 1v bis 12v optional beinhalten, dass das eine oder die mehreren Sensorsysteme mindestens ein LIDAR-Sensorsystem aufweisen.
    • In Beispiel 14v kann der Gegenstand eines jeden der Beispiele 1v bis 13v optional die Erzeugung von Sensordaten beinhalten. Die erzeugten Sensordaten können mit dem Standort des Fahrzeugs verknüpft werden.
    • In Beispiel 15v kann der Gegenstand von Beispiel 14v optional die Übertragung der erzeugten Sensordaten an ein fahrzeugexternes Gerät umfassen.
    • In Beispiel 16v kann der Gegenstand eines der Beispiele 8v oder 15v optional beinhalten, dass das fahrzeugexterne Gerät ein Verkehrskartenanbieter ist.
    • In Beispiel 17v kann der Gegenstand eines der Beispiele 14v bis 16v optional beinhalten, dass die Sensordaten LIDAR-Sensordaten aufweisen.
    • In Beispiel 18v kann der Gegenstand eines der Beispiele 14v bis 17v optional beinhalten, dass die Sensordaten GPS-kodierte Sensordaten sind.
    • Beispiel 19v ist ein Verfahren. Das Verfahren kann das Empfangen der Position eines Fahrzeugs beinhalten. Das Verfahren kann den Empfang von Sensordaten vom Fahrzeug umfassen. Die Sensordaten können mit dem Standort des Fahrzeugs verknüpft sein. Die Sensordaten können mit einer oder mehreren Sensoranweisungen übereinstimmen, die in einer Verkehrskarte enthalten sind. Das Verfahren kann die Änderung der Verkehrskarte auf der Grundlage der empfangenen Sensordaten und der empfangenen Position des Fahrzeugs umfassen.
    • In Beispiel 20v kann der Gegenstand von Beispiel 19v optional beinhalten, dass die Sensordaten GPS-kodierte Sensordaten sind und/oder die Verkehrskarte eine GPS-kodierte Verkehrskarte ist.
    • In Beispiel 21v kann der Gegenstand eines der Beispiele 19v oder 20v optional beinhalten, dass die Änderung der Verkehrskarte auch die Änderung einer Verkehrsdichtekarte umfasst. Die Verkehrsdichtekarte kann einen oder mehrere verkehrsbezogene Zustände am Standort des Fahrzeugs beschreiben.
    • In Beispiel 22v kann der Gegenstand eines der Beispiele 19v bis 21v optional beinhalten, dass die Modifizierung der Verkehrskarte die Modifizierung einer Verkehrsdichtewahrscheinlichkeitskarte einschließt. Die Verkehrsdichte-Wahrscheinlichkeitskarte kann eine oder mehrere Wahrscheinlichkeiten beschreiben, die mit einer oder mehreren verkehrsbezogenen Bedingungen auf der Grundlage des Standortes des Fahrzeugs verbunden sind.
    • In Beispiel 23v kann der Gegenstand eines der Beispiele 19v bis 22v optional beinhalten, dass die Sensordaten LIDAR-Sensordaten aufweisen.
    • In Beispiel 24v kann der Gegenstand eines der Beispiele 19v bis 23v optional den Empfang des Standorts eines oder mehrerer anderer Fahrzeuge beinhalten. Das Verfahren kann ferner den Empfang zusätzlicher Sensordaten von dem einen oder mehreren anderen Fahrzeugen umfassen. Das Verfahren kann ferner die Änderung der Verkehrskarte auf der Grundlage der empfangenen zusätzlichen Sensordaten und des empfangenen Standorts des einen oder der mehreren anderen Fahrzeuge umfassen.
    • In Beispiel 25v kann der Gegenstand eines der Beispiele 19v bis 24v optional die Bereitstellung der modifizierten Verkehrskarte für das Fahrzeug beinhalten.
    • Beispiel 26v ist ein Gerät, das einen oder mehrere Prozessoren enthält, die so konfiguriert sind, dass sie ein Verfahren eines der Beispiele 1v bis 18v ausführen.
    • Beispiel 27v ist ein Gerät, das einen oder mehrere Prozessoren enthält, die so konfiguriert sind, dass sie ein Verfahren eines der Beispiele 19v bis 26v ausführen.
    • Beispiel 28v ist ein Fahrzeug, einschließlich der Einrichtung aus Beispiel 26v und/oder der Einrichtung aus Beispiel 27v.
    • Beispiel 29v ist ein Computerprogramm mit Befehlen, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, ein Verfahren eines der Beispiele 1v bis 19v implementieren und/oder ein Verfahren eines der Beispiele 19v bis 25v implementieren.
  • Fahrzeuge (z.B. Automobile) werden immer autonomer oder automatisiert (z.B. in der Lage, verschiedene Funktionen, wie das Fahren, mit minimaler menschlicher Unterstützung auszuführen). Ein Fahrzeug kann oder wird so konfiguriert sein oder werden, dass es sich in einer Umgebung mit wenig oder schließlich ohne direkte oder indirekte menschliche Hilfe bewegen kann. Der Grad der Autonomie eines Fahrzeugs kann durch den SAE-Level des Fahrzeugs beschrieben oder bestimmt werden (z.B. wie von der Society of Automotive Engineers (SAE) definiert, z.B. in SAE J30162018: Taxonomie und Definitionen für Begriffe im Zusammenhang mit Antriebsautomatisierungssystemen für Straßenkraftfahrzeuge). Der SAE-Level kann einen Wert haben, der von Level 0 (z.B. im Wesentlichen keine Fahrautomatisierung) bis Level 5 (z.B. vollständige Fahrautomatisierung) reicht.
  • Zur Realisierung der gewünschten autonomen oder automatisierten Funktionen kann eine Vielzahl von Sensoren (z.B. in einem Fahrzeug) vorgesehen werden, wie z.B. Kameras (z.B. Nacht- und Tagsichtkameras), Ultraschallsensoren (z.B. ultraschallabgebende und -abtastende Systeme), Inertialsensoren, LIDAR- und/oder RADAR-Umweltabtast- und -erkennungssysteme und dergleichen. Die Sensordaten (z.B. Ausgabedaten der Sensoren oder Sensorsysteme) können auf intelligente Weise analysiert werden. Beispielsweise können die Sensorsignale durch das jeweilige Sensorsystem (z.B. durch das jeweilige Sensorgerät) vorverarbeitet werden. Zusätzlich oder alternativ können Sensorsignale von einem oder mehreren Systemen oder Geräten (z.B. einem oder mehreren Prozessoren) des Fahrzeugs verarbeitet werden, wie z.B. einem Board-Control-System (BCU), einem Bordcomputer, Datenanalyse-, Handhabungs- und Speichergeräten und ähnlichem. Zur Veranschaulichung: Sensordaten können durch die (z.B. verarbeiteten) Sensorsignale bestimmt werden.
  • Die Sensordatenanalyse kann durch intelligente Sensorfusion unterstützt werden (z.B. durch Zusammenführen von Daten mehrerer Sensoren oder Sensorsysteme). Sensordaten können auch im Hinblick auf Objekterkennung und Objektklassifizierung analysiert werden. Die Kamerabilderkennung und die Klassifizierungsanalyse können beispielsweise ebenfalls eine wichtige Rolle spielen und zu Datenpunkten führen, die anschließend zur Definition und Ausführung geeigneter Fahrzeugsteuerungsbefehle verwendet werden können. Dies sind Bereiche, in denen Methoden der künstlichen Intelligenz angewendet werden können.
  • Die Verkehrssicherheit kann sich sowohl auf Sicherheitsaspekte als auch auf Sicherheitsaspekte stützen. Die Sicherheitsaspekte können mit einem genauen und zuverlässigen Betrieb der oben genannten Sensor- und Datenanalysesysteme zusammenhängen. Sicherheitsaspekte können (z.B. negativ) von passiven Gegnern beeinflusst werden, wie z.B. funktionale Sicherheitsmerkmale des Systems. Zu den funktionalen Systemsicherheitsmerkmalen können z.B. Ausfall, Versagen oder jede andere Anomalie einer Systemkomponente gehören (z.B. aufgrund von Produktionsproblemen oder ungünstigen Bedingungen während der Laufzeit, wie z.B. mechanische Stöße, thermische Belastung und ähnliches). Sicherheitsaspekte können (z.B. negativ) von aktiven Gegnern, z.B. von Dritten, beeinflusst werden. Sicherheitsaspekte können z.B. durch Cyberattacken beeinflusst werden- , die auf Datenintegrität, Datenauthentizität, Datenverfügbarkeit und/oder Datenvertraulichkeit abzielen. Es kann wünschenswert sein, die Entwicklung von Rahmenwerken für das Sicherheitsdesign zu koordinieren, so dass sie sich gegenseitig ergänzen können.
  • Solche komplexen Aufgaben und solche komplexen Mess- und Analyseverfahren können anfällig für Fehler, Fehlfunktionen und/oder kontradiktorische Angriffe (z.B. raffinierte und/oder Brute-Force-Konfrontationsangriffe) sein.
  • Verschiedene Ausführungsformen können mit einer Methode und verschiedene Ausführungsformen können mit einem Gerät zur Bereitstellung zuverlässiger und robuster Sensordaten in Verbindung gebracht werden. Das Verfahren und/oder das Gerät können so konfiguriert sein, dass sie Sensordaten liefern, die robust gegen Sensorfehlfunktionen sind, insbesondere gegen gegnerische Angriffe (z.B. um die Auswirkungen gegnerischer Angriffe zu beheben oder zumindest zu reduzieren). Zur Veranschaulichung: Das Verfahren und/oder die Einrichtung kann so konfiguriert werden, dass es eine zuverlässige (z.B. sichere) und robuste Steuerung eines Fahrzeugs (z.B. eines Fahrzeugs mit autonomen Fahrfähigkeiten) ermöglicht.
  • Im Zusammenhang mit der vorliegenden Anwendung, z.B. in Bezug auf 124 bis 126, kann der Begriff „Sensorsystem“ verwendet werden, um ein System zu beschreiben, das so konfiguriert ist, dass es Sensordaten liefert (z.B. generiert). Ein Sensorsystem kann ein System mit einem oder mehreren Sensoren sein, das so konfiguriert ist, dass es ein oder mehrere Sensorsignale erzeugt. Die Sensordaten können von dem einen oder mehreren Sensorsignalen geliefert werden. Die hier beschriebenen Merkmale und/oder Aktionen in Bezug auf ein Sensorsystem können entsprechend auch für einen Sensor gelten, z.B. für den einen oder die mehreren Sensoren eines Sensorsystems.
  • Ein Beispiel für einen gegnerischen Angriff (z.B. ein möglicher Angriffsmodus) kann ein Brute-Force-Angriff (Rohe-Kraft-Angriff) auf ein Sensorsystem sein (z.B. auf die sendenden und/oder fühlenden Teile, z.B. auf den Sender- und/oder Empfängerpfad). Zum Beispiel kann ein Kamerasystem durch ein auf eine Kamera gerichtetes sichtbares oder infrarotes Licht (z.B. ein Laserblitz) negativ beeinflusst werden. Ein Kamerasystem (z.B. einschließlich einer Nachtsichtkamera) kann auch durch eine Überbelichtung mit einem Weißlicht- oder Infrarotblitz beeinträchtigt werden. Als weiteres Beispiel kann ein Ultraschallsystem (z.B. ein Ultraschall-Sensorsystem) durch ein gerichtetes Ultraschall-Verzerrungssignal negativ beeinflusst werden, was z.B. zu Störungs- und Spoofing-Effekten führen kann. Ein Ultraschallsystem kann auch anfällig für Fehler oder Angriffe durch ultraschallabsorbierende Materialien sein, was zu falsch negativen Ergebnissen führen kann (z.B. zu falscher oder fehlgeschlagener Erkennung oder Identifizierung eines Objekts). Als weiteres Beispiel kann ein RADAR-System durch einen RADAR-Verzerrungsstrahl (z.B. ein mm-wellenförmiger RADAR-Verzerrungsstrahl) angegriffen werden, der auf einen RADAR-Sensor (z.B. auf ein RADAR-Abtastmodul) gerichtet ist. Als weiteres Beispiel kann ein LIDAR-System in einen Fehlerzustand gebracht werden, wenn ein gegnerisches System (z.B. ein vorausfahrendes Fahrzeug) ein Störmittel (z.B. Wassernebel oder Rauch) in die Umgebung des LIDAR-Systems sprüht. Ein LIDAR-System kann auch durch Infrarotlicht (z.B. ein Laserblitz) oder eine Überbelichtung mit Infrarotlicht (z.B. ein Laserblitz) negativ beeinflusst werden. Ein LIDAR-System kann auch fehlerhaft werden, wenn ein Objekt (z.B. ein Fahrzeug oder ein Verkehrsobjekt, wie z.B. ein Verkehrsschild) mit einer Beschichtung oder einem Material bedeckt (z.B. lackiert) wird, das so konfiguriert ist, dass es Infrarotlicht reflektiert oder absorbiert (z.B. eine stark reflektierende oder absorbierende infrarot-reflektierende Beschichtung oder ein Material). Eine solche Beschichtung oder ein solches Material kann dazu führen, dass das LIDAR-System aufgrund der erhöhten oder unterdrückten Signalstärke im Vergleich zu einem Standardobjekt (z.B. ein nicht verändertes Fahrzeug oder Verkehrsobjekt) ein ungewöhnliches Objekt erkennt und/oder identifiziert.
  • Eine weitere mögliche Art des Brute-Force-Angriffs kann ein Drohnenangriff sein. Eine Drohne oder ein anderes steuerbares, sich bewegendes Objekt kann sich absichtlich in der Nähe eines Sensorsystems bewegen (z.B. fliegen) (z.B. in der Nähe eines Fahrzeugs, z.B. vor dem Fahrzeug, oder am Heck, oder an den Seiten oder oben auf dem Fahrzeug). Das plötzliche Auftauchen der Drohne kann zu einer abrupten (und potentiell gefährlichen) Fahrzeugreaktion führen.
  • Ein Brute-Force-Angriff kann daher zu falsch positiven Ergebnissen (z.B. die Erkennung oder Identifizierung eines nicht tatsächlich vorhandenen Objekts), zu falsch negativen Ergebnissen (z.B. die fehlgeschlagene Erkennung oder Identifizierung eines Objekts) oder zu Systemfehlern führen. Ein Brute-Force-Angriff kann somit eine Vielzahl von Funktionen eines Fahrerassistenzsystems (Advanced Driver Assistance System, ADAS) beeinträchtigen, wie z.B. adaptive Geschwindigkeitsregelung, Kollisionsvermeidung, Erkennung des toten Winkels, Spurverlassenswarnung, Verkehrszeichenerkennung, Einparkhilfe und ähnliches. Ein Brute-Force-Angriff kann auch Fahrzeugregelfunktionen in (z.B. ganz oder teilweise) autonomen Fahrsituationen beeinflussen, wie z.B. Routenplanung, Routenanpassungs-Notfallmanöver und ähnliches.
  • Wirkungen, die den Wirkungen eines Brute-Force-Angriffs gleich oder ähnlich sind, können auch durch Naturereignisse (d.h. durch Natur- oder Umgebungsbedingungen) hervorgerufen werden. Solche Naturereignisse können zu Systemfehlfunktionen führen (z.B. zu Systemausfall-Funktionen). Beispielsweise kann ein Kamerasystem oder ein LIDAR-System zu viel Sonnenlicht oder zu viel gestreuter Infrarotstrahlung ausgesetzt sein.
  • Ein weiteres Beispiel für einen gegnerischen Angriff kann ein ausgeklügelter gegnerischer Angriff (oder eine Angriffsmethode) sein. Ein solcher Angriff kann z.B. auf Objekterkennung, Bilderkennung und Manipulationen beruhen. Ausgeklügelte Angriffsmethoden können z.B. Bildstörungen und Lentikularlinseneffekte sein. Dies kann insbesondere bei Sensorsystemen der Fall sein, die Verfahren des maschinellen Lernens (ML) oder der künstlichen Intelligenz (Kl) verwenden, die auf überwachten oder unbeaufsichtigten Lernalgorithmen beruhen (z.B. Algorithmen des tiefen neuronalen Lernens). Solche zugrunde liegenden Algorithmen können anfällig für solche absichtlichen (z.B. ausgeklügelten) Angriffe sein.
  • Ein ausgeklügelter gegnerischer Angriff kann als White Box-Angriff (Weiße-Box-Angriff) oder als Black Box-Angriff (Schwarze-Box-Angriff) definiert oder beschrieben werden. Bei einem White Box-Angriff (auch als White Box-Angriffsmodus bezeichnet) ist/sind das anzugreifende System (z.B. das Sensorsystem) und seine Funktionalitäten bekannt und das Verhalten wird untersucht (z.B. durch Reverse Engineering und Tests). Somit kann der gegnerische Angriff „maßgeschneidert“ und auf ein bestimmtes Angriffsszenario zugeschnitten sein. Bei einem Black-Box-Angriff (auch Black-Box-Angriffsmodus genannt) ist die innere Funktionsweise eines anzugreifenden Systems (z.B. eines verwendeten Machine Learning (ML)-Systems) nicht bekannt, und der Angriff kann z.B. auf Trial-and-Error-Versuchen beruhen, bei denen versucht wird, Störungen zu verursachen, die zu einer falschen Bilderkennung oder zu einer irreführenden Objektidentifizierung (z.B. Kategorisierung) führen.
  • Beispielsweise kann ein Kamera-Bilderkennungssystem ein Bild mit einer aufgenommenen Textnachricht oder einem Symbol analysieren. Die Textnachricht oder das Symbol kann z.B. von einem vorausfahrenden Fahrzeug angezeigt werden (z.B. Wort- oder Bildmeldungen wie STOP, Follow Me, Do Not Follow Me, BREAK, Hazardous Goods und dergleichen). Die Textnachricht oder das Symbol kann oder kann z.B. ein Straßenschild (z.B. ein Verkehrsschild) sein oder darstellen, wie z.B. ein STOP-Schild, ein Kreuzungszeichen und ähnliches. Die Textnachricht oder das Symbol kann mit bestimmten Verkehrsteilnehmern in Verbindung gebracht werden, z.B. mit dem Logo eines Rollstuhls, eines Fußgängers und ähnlichem. Im Falle eines gegnerischen Angriffs kann der bildanalysierende Teil (z.B. der bildanalysierende Teil) eines Kamera-Bildverarbeitungssystems dazu gebracht werden, eine absichtlich veränderte Textnachricht und/oder ein Symbol falsch zu interpretieren (z.B. einen falschen Text oder ein falsches Symbol fälschlicherweise als authentisch zu interpretieren). Diese Fehlinterpretation kann zu falschen oder sogar gefährlichen Fahrzeugkontrollaktionen führen.
  • Als weiteres Beispiel kann ein Fahrzeug (z.B. ein vorausfahrendes Auto, ein Fahrrad usw.) oder ein anderer Gegenstand sein Äußeres (z.B. das Fahrgestell oder die Fenster des Fahrzeugs) mit Signalen in verkehrskodierten Farben (z.B. rot, gelb, grün) beleuchten. Das besagte Fahrzeug oder Objekt kann auch ein blinkendes Lichtsignal aussenden, das z.B. einem gelben Blinker, einer (z.B. wechselnden) Ampel oder einem Warnblitz der Polizei ähnelt. Das besagte Fahrzeug oder Objekt kann die besagten Aktionen mit der Absicht durchführen, ein Kamera-Bildverarbeitungssystem (z.B. ein Kamera-Bildauswertesystem) zu täuschen. Zusätzlich oder alternativ kann das Fahrzeug oder Objekt ein kodiertes Signal aufblitzen lassen, das von einem Sensorsystem, z.B. dem Fahrzeug-Bilderkennungssystem, verstanden werden kann und zu einem abweichenden Verhalten führen kann.
  • Als weiteres Beispiel kann ein anderer Verkehrsteilnehmer (z.B. ein Fahrzeug oder ein Fußgänger) visuelle Hinweise auf die Straße projizieren (z.B. ein Symbol, eine Textnachricht, verkehrsspezifische Informationen und ähnliches). Diese visuellen Hinweise können zu einem fehlerhaften Fahrzeugverhalten führen, wenn sie als zuverlässige Eingabe (z.B. als authentische Eingabe) verstanden (z.B. interpretiert) werden.
  • Als weiteres Beispiel kann ein manipuliertes Bild für einen raffinierten gegnerischen Angriff verwendet werden. Ein solches manipuliertes Bild kann z.B. an einem Verkehrsschild oder an einem Nicht-Verkehrsschild angebracht werden, oder es kann ein Verkehrsschild ersetzen. Beispielsweise kann ein Objekt (z.B. ein Straßenschild oder ein Verkehrsschild) mit irreführenden Aufklebern versehen werden, die in der realen Welt nur geringfügige Störungen verursachen, aber zu einer falschen Objektidentifizierung führen können (z.B. bei Verwendung herkömmlicher, nicht optimierter neuronaler Netze). Als weiteres Beispiel kann ein vorausfahrendes Fahrzeug Pixelmuster eines ansonsten gutartigen Bildes anzeigen, das manipuliert wurde, um das Bilderkennungssystem eines anderen Fahrzeugs zu täuschen.
  • So können die Funktionen des Fahrerassistenzsystems (ADAS) und andere unterstützende Fahrzeug- oder Selbstfahrerfunktionen durch eine Vielzahl von Faktoren beeinträchtigt oder beeinträchtigt werden. Zu diesen Faktoren können Hardware-Defekte, Software-Fehlfunktionen, widersprüchliche Informationen, Situationen, in denen keine Lösung möglich ist (z.B. wenn die Berechnung zu lange dauert oder wenn ein Problem mathematisch unlösbar ist), feindliche Angriffe (Software-, Hardware-, (Multi-)- Sensor-Angriffe) und ähnliches gehören. In diesem Zusammenhang kann ein Fahrzeug mit automatisierten Fahrfähigkeiten besonders anfällig für solche Faktoren und Szenarien sein, was zu Situationen führen kann, die der Verkehrssicherheit potenziell abträglich sind.
  • Eine mögliche Herangehensweise an die oben genannten Probleme könnte die Verwendung von Bayes'schen Glaubensnetzen umfassen, die regelbasierte Inferenzmechanismen verwenden, die so konfiguriert sind, dass sie abgerufene Daten innerhalb des situativen Kontexts interpretieren, um die Ereignis- und Alarmgenerierung für die Bewertung und Vorhersage von Cyber-Bedrohungen zu unterstützen. Ein solcher Ansatz kann jedoch (aufgrund der hohen Komplexität) schwierig zu handhaben sein und ein System möglicherweise nicht gegen gezielte (z.B. maßgeschneiderte) gegnerische Angriffe absichern. Ein anderer Ansatz kann den Einsatz von Vorwärts- und Rückwärtsverarbeitungstechniken eines Angriffsbildes umfassen, die zu einem selbstlernenden Bildklassifikationsnetz führen. Ein solcher Ansatz kann jedoch eine hohe Rechenleistung erfordern und Beschränkungen hinsichtlich der erforderlichen Rechenzeit mit sich bringen. Ein anderer Ansatz kann die Bereitstellung eines in einem autonomen Fahrzeug verwendeten Systems umfassen, das ein fehlerhaft arbeitendes Fahrzeugsteuersystem erkennt, seine Ausgabe neutralisiert, ein solches Gerät vom Kommunikationssystem des Fahrzeugs isoliert und es durch ein anderes (z.B. nicht kompromittiertes) Fahrzeugsteuersystem ersetzt. Ein solcher Ansatz kann jedoch recht komplex sein und kann eine Redundanz von Steuerelementen erfordern. Ein anderer Ansatz kann den Vergleich aggregierter Sensordaten durch Durchführung von Kodierungs-/Dekodierungsprozessen und den Vergleich statistischer Abweichungen umfassen, die zu einer kontextabhängigen Darstellung aggregierter Sensordaten führen. Solche Sensordatendarstellungen können mit Szenenabbildungsinformationen verglichen werden, die von einem Szenenkontextualisierer bereitgestellt werden. Ein solcher Ansatz kann jedoch einen massiven Einsatz von Rechenleistung und Datenkommunikation zwischen Cloud- und Edge-Computing-Geräten erfordern, was zu hohen Systemlatenzen führt und das System praktisch unbrauchbar für die Anforderungen der realen Welt für sicheres autonomes Fahren macht.
  • Verschiedene Ausführungsformen können auf ein Verfahren und verschiedene Ausführungsformen können auf eine Vorrichtung gerichtet sein, die vorgesehen ist, um die Auswirkungen verschiedener Faktoren zu beheben oder zumindest zu reduzieren, die ein Fahrzeug beeinflussen können, z.B. ein Fahrzeug mit automatisierten Fahrfähigkeiten (z.B. die Auswirkungen der Faktoren, die ein oder mehrere Sensorsysteme des Fahrzeugs oder einer Sensorvorrichtung beeinflussen können, z.B. die die Zuverlässigkeit von Sensordaten beeinflussen können). Als Beispiel kann das Verfahren und/oder das Gerät zur Verfügung gestellt werden, um einige der nachteiligen Auswirkungen, die durch einen unerwünschten oder gezielten gegnerischen Angriff verursacht werden, zu überwinden oder zumindest entgegenzuwirken und Abhilfe zu schaffen. Ein gegnerischer Angriff kann als eine von einer externen Entität (z.B. fahrzeugextern oder sensor-systemextern, wie z.B. ein anderes Fahrzeug, ein Fußgänger, eine Drohne, ein statisches Objekt usw.) ausgeführte Aktion verstanden werden. Diese Aktion kann so konfiguriert sein, dass sie die Erzeugung und/oder Analyse von Sensordaten (z.B. von einem angegriffenen Sensorsystem oder in einem angegriffenen Fahrzeug) negativ beeinflusst (oder zumindest versucht, diese negativ zu beeinflussen).
  • In verschiedenen Ausführungsformen kann ein Fahrzeug (z.B. ein autonom fahrendes Fahrzeug) Zugang zu Positionsdaten (d.h. Standortdaten) haben oder mit diesen versorgt werden. Die Positionsdaten können Informationen über die aktuelle Position (d.h. den aktuellen Standort oder die aktuellen Koordinaten, z.B. GNSS/GPS-Koordinaten) des Fahrzeugs und/oder über die relative Position des Fahrzeugs in Bezug auf ein anderes (z.B. statisches oder bewegtes) Objekt beschreiben oder darstellen. Als Beispiel kann das Fahrzeug ein globales Satellitennavigationssystem (GNSS) und/oder ein globales Positionsbestimmungssystem (GPS) beinhalten oder Zugang zu einem solchen haben (z.B. kann es ein GNSS- und/oder GPS-Kommunikationssystem oder -modul beinhalten oder Zugang zu einem solchen haben). Zusätzlich oder alternativ kann das Fahrzeug Zugang zu Verkehrs- und Umgebungskartendaten und/oder Datenlieferanten haben. Als Beispiel kann das Fahrzeug Zugang zu GPS-codierten Verkehrskarten (TRM), Verkehrsdichtekarten (TDM) und/oder Verkehrsdichtewahrscheinlichkeitskarten (TDPM) und/oder Verkehrsereigniskarten (TEM) haben, wie z.B. in Bezug auf 127 bis 130 beschrieben. Zur Veranschaulichung: Die Positionsdaten können GPS-Daten sein. Als Beispiel kann das Fahrzeug Zugang zu intelligenten Fahrmethoden haben (z.B. zu dem intelligenten Navigationssystem, wie es z.B. in Bezug auf 85 bis 88 beschrieben ist), z.B. Informationen, die von früheren Fahrzeugfahrten auf denselben Straßen oder in denselben Gebieten stammen.
  • Das Fahrzeug (z.B. ein Datenverarbeitungssystem des Fahrzeugs, z.B. mit einem oder mehreren Prozessoren) kann so konfiguriert werden, dass es aus den Positionsdaten positiv bekannte Referenzdaten ermittelt (z.B. ableiten oder berechnen). Das Fahrzeug kann so konfiguriert werden, dass es positionscodierte Daten oder positionscodierte Informationen (auch als GPS-codierte Daten oder GPS-codierte Informationen bezeichnet) aus den Positionsdaten ermittelt (z.B. ableiten oder berechnen). Illustrativ kann das Fahrzeug auf der Grundlage der Kenntnis des (z.B. aktuellen) Standortes so konfiguriert werden, dass es die Umgebung des Fahrzeugs (z.B. eine erwartete Verkehrs- oder Fahrsituation, z.B. je nachdem, ob sich das Fahrzeug in einer Stadt oder auf dem Land befindet) bestimmt (oder Vorhersagen darüber macht).
  • In verschiedenen Ausführungsformen kann das Fahrzeug (z. B. das Datenverarbeitungssystem des Fahrzeugs oder einer Sensoreinrichtung) so konfiguriert werden, dass die positionscodierten Informationen vordefinierten ortsselektiven Kategorien (LSC) zugeordnet werden, die z. B. durch eine ganze Zahl beschrieben oder mit einer ganzen Zahl (z. B. LSCa, a=1 ,2,...,m) verknüpft sind. Die vordefinierten ortsselektiven Kategorien (LSC) können einen Ort beschreiben oder repräsentieren, an dem sich das Fahrzeug (z.B. gegenwärtig) befindet, wie z.B. ein Parkplatz, eine städtische Umgebung, eine Autobahn, eine Landstraße, eine Bundesstraße, eine Geländestrecke und ähnliches. Die vordefinierten ortsselektiven Kategorien (LSC) können auch Informationen beschreiben oder darstellen, die sich auf den Ort beziehen, an dem sich das Fahrzeug befindet (z.B. eine Geschwindigkeitsbegrenzung, ein erwartetes Verhalten anderer Fahrzeuge und ähnliches).
  • In verschiedenen Ausführungsformen kann das Fahrzeug (z. B. das Datenverarbeitungssystem) so konfiguriert werden, dass die positionscodierten Informationen vordefinierten Umgebungseinstellungen (ES) zugeordnet werden, die z. B. durch eine ganze Zahl beschrieben oder mit einer ganzen Zahl (z. B. ESb, b=1 ,2,...,n) verknüpft sind. Die Umgebungseinstellungen (ES) können gleich oder ähnlich dem „Verkehrszustand“ sein, der z.B. in Bezug auf 123 beschrieben wird. Die Umwelteinstellungen (ES) können z.B. den aktuellen Tag und die aktuelle Uhrzeit, die Zeitzone, das Wetter, den Straßenzustand, andere ortsbezogene Verkehrskarteninformationen, (z.B. erwartete) Verkehrsdichte und ähnliches umfassen. Illustrativ können die Umgebungseinstellungen (ES) Informationen beschreiben oder darstellen, die sich auf Faktoren (z.B. fahrzeugexterne Faktoren) beziehen, die das Führen eines Fahrzeugs beeinflussen können.
  • In verschiedenen Ausführungsformen kann das Fahrzeug (z.B. das Datenverarbeitungssystem) Zugriff auf fahrzeugspezifische (z.B. fahrzeugbezogene oder fahrzeuginterne) Informationen haben, z.B. positiv bekannte Informationen über eine oder mehrere Eigenschaften oder Merkmale des Fahrzeugs. Diese fahrzeugspezifischen Informationen können als Fahrstatus- (DS) oder Fahrzustandsdaten bezeichnet werden, die z.B. durch eine ganze Zahl (z.B. DSc, c=1 ,2,...,p) beschrieben oder mit einer ganzen Zahl (z.B. DSc, c=1 ,2,...,p) verknüpft sind. Der Fahrstatus (DS) kann gleich oder ähnlich dem „Fahrszenario“ sein, das z.B. in Bezug auf 123 beschrieben wird. Der Fahrstatus (DS) kann z.B. eine Belegung des Fahrzeugs (z.B. die aktuelle Anzahl der Insassen), die Beladung des Fahrzeugs, den Fahrzeugtyp, die Fahrhistorie, das Autonomie-Niveau (z.B. SAE-Niveau, z.B. von Niveau 0 bis Niveau 5), Fahreridentifikationsdaten, Fahrer-Biofeedback-Daten und ähnliches umfassen. Der Fahrstatus (DS) kann positionscodiert sein (z.B. GPS-codiert). Als Beispiel können die Fahrer-Biofeedback-Daten GPS-kodiert sein (z.B. kann erwartet werden, dass das Verhalten des Fahrers je nach Standort des Fahrzeugs unterschiedlich ist). Zur Veranschaulichung: Der Fahrstatus (DS) kann Informationen beschreiben oder darstellen, die sich auf andere Faktoren (z.B. fahrzeuginterne Faktoren) beziehen, die das Führen eines Fahrzeugs beeinflussen können.
  • Die Kombination von einer oder mehreren der Einstellungen und/oder Statusinformationen (z.B. die ortsselektiven Kategorien, die Umgebungseinstellungen und der Fahrzustand) kann als Fahrzeugzustand (oder Fahrzeugszenario) bezeichnet werden. Illustrativ kann ein Fahrzeugzustand einen oder mehrere Faktoren (z.B. ortsbezogene, fahrzeugbezogene und/oder umgebungsbezogene Faktoren) beschreiben, die das Fahren eines Fahrzeugs beeinflussen können (und/oder die die Funktion eines oder mehrerer Sensorsysteme beeinflussen oder für diese relevant sein können).
  • In verschiedenen Ausführungsformen können die verschiedenen Einstellungen, z.B. die verschiedenen Informationen, die den aktuellen Fahrzeugzustand oder das Szenario beschreiben, in einer General Setting Matrix (GSM) zusammengefasst (z.B. gespeichert) werden. Die General Setting Matrix (GSM) kann in einem nicht vorübergehenden Speichermedium (z.B. einem Speicher) gespeichert und von dort abgerufen werden. Das nicht-transitorische Speichermedium kann im Fahrzeug enthalten sein, oder das Fahrzeug (z.B. das Datenverarbeitungssystem) kann auf das nicht-transitorische Speichermedium zugreifen, z.B. über eine Kommunikationsschnittstelle. Zur Veranschaulichung kann die Allgemeine Einstellungsmatrix in das Datenverarbeitungssystem einbezogen werden.
  • Die Allgemeine Einstellungsmatrix (GSM) kann für jede dieser Einstellungen (oder eine Kombination von Einstellungen) vordefinierte Informationen darüber speichern, welche Sensordaten (in welcher Reihenfolge) priorisiert werden sollen, z.B. im Falle einer Fehlfunktion oder eines anomalen Verhaltens des Sensors. Die Allgemeine Einstellungsmatrix (GSM) kann eine Konfiguration für einen oder mehrere Sensoren oder Sensorsysteme (z.B. im Fahrzeug aufweisen) speichern, die mit einem jeweiligen Fahrzeugzustand (z.B. mit den jeweiligen Einstellungen, z.B. mit jeweiligen ortsselektiven Kategorien, Umgebungseinstellungen und Fahrzustand und/oder mit einer jeweiligen Kombination davon) verbunden sind. Die General Setting Matrix (GSM) kann eine Hierarchie (z.B. eine Relevanzebene) für ein oder mehrere Sensorsysteme speichern, die einem jeweiligen Fahrzeugzustand zugeordnet sind. Illustrativ kann die General Setting Matrix (GSM) Daten (z.B. Einstelldaten) speichern, die beschreiben, welche Sensorsysteme (oder welche Kombination) für jeden Fahrzeugzustand zu verwenden (oder zu priorisieren) sind.
  • In verschiedenen Ausführungsformen kann die General Setting Matrix (GSM) eine jedem Fahrzeugzustand zugeordnete Sensorfusionspriorität speichern, z.B. kann die General Setting Matrix (GSM) eine Vielzahl von Sensorfusionsprioritäten speichern, die jeweils einem entsprechenden Fahrzeugzustand zugeordnet sind. Zur Veranschaulichung kann für jeden Fahrzeugzustand (z.B. für jede Einstellung) ein bevorzugter Sensorfusionsansatz angegeben werden. Die Sensorfusionspriorität kann beschreiben, welche Sensorsysteme (oder welche Kombination) in dem jeweiligen Fahrzeugzustand (z.B. zusammen) verwendet werden sollen. Beispielsweise können in einem Geländezustand Kamerasensordaten und LIDAR-Sensordaten priorisiert werden. Als weiteres Beispiel kann die Fusion von RADAR- und LIDAR-Sensordaten in einem Landstraßen- oder Autobahn-Zustand priorisiert werden. Ein weiteres Beispiel: In einer Parkplatzsituation können Ultraschall-Sensordaten in Kombination mit Kameradaten priorisiert werden (z.B. kann dies die bevorzugte Eingabe für die Sensorfusion sein). Ein weiteres Beispiel: Bei schlechtem Wetter können LIDAR- und RADAR-Sensordaten die bevorzugten Eingabedaten für die Sensorfusion sein. Die priorisierten Sensordaten können dann für die nachfolgende Verarbeitung (z.B. Bilderkennung) und Fahrzeugsteuerung (z.B. Fahrzeuglenkung) verwendet werden. Die Anzahl der verwendeten Sensorsysteme (z.B. wie viele LIDAR-Sensorvorrichtungen, wie viele RADAR-Systeme usw.) und ihre Kombination können je nach dem tatsächlichen Fahrzeugzustand angepasst werden. Ein Fahrzeug kann dann so konfiguriert werden, dass die (zumindest teilweise GPS-kodierten) Sensordaten für die Fahrzeugführung verwendet werden.
  • In verschiedenen Ausführungsformen kann die Kohärenz (z.B. die Korrelation) der Sensordaten mit erwarteten Sensordaten (z.B. mit einem erwarteten Wert und/oder einem erwarteten Bereich der Sensordaten) bestimmt werden. Beispielsweise kann bestimmt werden, ob ein Sensorsignal mit einem erwarteten Sensorsignal kohärent ist (z.B. ob ein Sensorausgang mit einem erwarteten Sensorausgang kohärent ist). Auf der Grundlage der ermittelten Kohärenz (z.B. auf der Grundlage eines bestimmten Signalzuverlässigkeitsfaktors) kann eine Entscheidung darüber getroffen werden, ob die Sensordaten zu verwenden oder zu vernachlässigen (mit anderen Worten: zu verwerfen) sind.
  • Beispielsweise kann ein Sensorsystem (z. B. priorisiert oder nicht priorisiert) ein Messsignal empfangen (z. B. ein Sensorsignal und/oder Sensordaten erzeugen), das nicht mit einer erwarteten Ausgabe und/oder mit einem vordefinierten oder erwarteten Bereich für die Ausgabe korreliert. In diesem Fall können die Ausgabedaten (z.B. die inkohärenten Sensordaten) vernachlässigt werden. Die zu verwendenden Sensordaten (z.B. Referenzsensordaten) können in der Allgemeinen Einstellungsmatrix spezifiziert (z.B. gespeichert) werden (und von dort abgerufen werden). Zur Veranschaulichung: Die General Setting Matrix (GSM) kann Sensordaten speichern, die verwendet werden können, um die inkohärenten Sensordaten zu ersetzen (z.B. in diesem spezifischen Fahrzeugzustand).
  • Die erwartete Ausgabe und/oder der erwartete Ausgabebereich kann z.B. auf unmittelbar vorhergehenden Daten basieren (z.B. auf einem Sensorsignal oder auf Sensordaten, die zu einem früheren Zeitpunkt erzeugt wurden, z.B. dreißig Sekunden vorher, eine Minute vorher usw.). Bei den unmittelbar vorhergehenden Daten kann es sich um die Sensordaten handeln, die von demselben Sensorsystem unmittelbar vor den auszuwertenden Sensordaten erzeugt wurden.
  • Als weiteres Beispiel kann ein Sensorsystem (z.B. priorisiert oder nicht priorisiert) kein Messsignal liefern (z.B. kein Sensorsignal oder keine Sensordaten), z.B. aufgrund einer Fehlfunktion. Illustrativ kann ein Sensorsystem ein Messsignal (z.B. ein Sensorsignal oder Sensordaten) ausgeben, das nicht mit dem erwarteten Ausgang und/oder Ausgabebereich korreliert, so dass z.B. aufgrund einer Fehlfunktion kein Messsignal geliefert wird. In diesem Fall können die Ausgabedaten („Nullwerte“, die z.B. anzeigen, dass in einem ausgewerteten Winkelsegment kein Objekt vorhanden ist) vernachlässigt werden. Die Sensordaten können entsprechend den Vorgaben der General Setting Matrix (GSM) verwendet werden.
  • Als weiteres Beispiel kann eine Kombination von Sensorsystemen (z.B. priorisiert oder nicht priorisiert) ein Messsignal liefern (z.B. ein Sensorsignal und/oder Sensordaten erzeugen), das nicht mit einer erwarteten Ausgabe und/oder einem Ausgabebereich korreliert. In diesem Fall können die Ausgabedaten vernachlässigt werden. Sensordaten (z.B. in Verbindung mit dieser Kombination von Sensorsystemen) können entsprechend den Vorgaben der General Setting Matrix (GSM) verwendet werden.
  • In verschiedenen Ausführungsformen kann für den Fall, dass die General Setting Matrix (GSM) keine weiteren Spezifikationen oder Anweisungen speichert (z.B. keine Auflistung), ein Notsignal (oder Warnsignal) erzeugt werden (z.B. kann die General Setting Matrix (GSM) ein GSM-spezifisches Notsignal bereitstellen). Das Notsignal kann eine oder mehrere Notfallaktionen oder -befehle beschreiben, die zu unternehmen oder auszuführen sind. Illustrativ kann das Notsignal zur weiteren Fahrzeugführung verwendet werden. Zum Beispiel kann in einer Parkplatzsituation ein sofortiges Bremssignal bereitgestellt werden. Als weiteres Beispiel kann in einer Autobahnsituation ein Warnlicht blinken, während das Fahrzeug vorsichtig auf die Notspur gelenkt wird. Auf diese Weise können Situationen bewältigt werden, die zu einer Fehlfunktion der Sensoren und/oder zu abweichenden (z.B. inkohärenten) Sensordaten (z.B. Ausgabedaten) führen können, z.B. verursacht durch einen gegnerischen (z.B. mit roher Gewalt) Angriff.
  • In verschiedenen Ausführungsformen kann die Kohärenz von (z.B. ersten) Sensordaten, die von einem ersten Sensorsystem erzeugt werden, in Relation zu (z.B. zweiten) Sensordaten, die von einem zweiten Sensorsystem erzeugt werden, bestimmt (z.B. ausgewertet) werden (z.B. kann ein Erwartungswert für die ersten Sensordaten auf der Basis der zweiten Sensordaten bestimmt werden). Illustrativ können Sensordaten von mindestens zwei Sensorsystemen (z.B. von mindestens zwei Sensoren) kombiniert und ihre Synchronität und logische Kohärenz verglichen werden. Dieser Ansatz kann z.B. wirksam sein, um die Wirkung eines ausgeklügelten Angriffs zu beheben oder zu verringern. Ein ausgeklügelter Angriff darf den Sensormessprozess an sich nicht stören, kann ihn aber so manipulieren, dass ein Sensor Eingabedaten (z.B. verfälschte oder gestörte Eingabedaten) erhält, die zu einem anderen Ergebnis (z.B. zu anderen Sensordaten) führen als eine ungestörte Sensoreingabesituation. Beispielsweise kann ein Verkehrsschild so manipuliert werden, dass es ein STOP-Schild anstelle einer beabsichtigten Geschwindigkeitsbegrenzung anzeigt. Ein ausgeklügelter Angriff (oder Angreifer) kann absichtlich eine visuelle Anzeige (z.B. eine Textnachricht, ein Schild oder ein Logo) anzeigen, die die aktuelle Verkehrssituation nicht richtig wiedergibt. Die visuelle Anzeige kann z.B. auf dem Rücken eines vorausfahrenden Fahrzeugs angezeigt oder auf die Straße projiziert werden. So kann z.B. ein STOP-Schild oder eine Stauwarnung auf die Straße projiziert werden, während der Verkehr tatsächlich reibungslos fließt. So kann die Bestimmung der Kohärenz der Sensordaten von mindestens zwei Sensorsystemen dazu führen, dass festgestellt werden kann, ob eines der Sensorsysteme angegriffen (z.B. getäuscht) wurde.
  • In verschiedenen Ausführungsformen kann die Kohärenz der Sensordaten auf der Grundlage einer oder mehrerer positionscodierter Linealdaten (z.B. auf GPS-codierten Linealen) bestimmt werden. Illustrativ kann der erwartete Wert für die Sensordaten auf der Grundlage der positionscodierten Lineale bestimmt (z.B. vorhergesagt) werden. Die positionskodierten Messwerte können in die Kategorie der ortsselektiven Messungen aufgenommen werden (oder durch diese beschrieben werden). Die logische Kohärenz kann auf GPS-kodierten Datensätzen basieren. Zusätzlich oder alternativ kann die Kohärenz der Sensordaten gemäß einer oder mehrerer Bayes'scher Regeln bestimmt werden.
  • Wenn sich das Fahrzeug z.B. auf einer Autobahn befindet, können die Daten zur aktuellen Position Parameter für den Zustand „Autobahn“ angeben (z.B. kann die ortsselektive Kategorie der aktuellen Position einen Zustand „Autobahn“ beschreiben). In dieser Einstellung (z.B. in diesem Fahrzeugzustand) können bestimmte Kombinationen von Verkehrszeichen oder anderen Verkehrsvorschriften als zulässig oder unzulässig bestimmt werden. Als Beispiel kann bestimmt werden, dass ein Verkehrszeichen (fälschlicherweise) eine viel zu hohe Geschwindigkeitsbeschränkung anzeigt. Als weiteres Beispiel kann festgestellt werden, dass ein WENDUNGSRECHTS-Zeichen an einer Stelle angebracht ist, an der nicht rechts abgebogen werden kann (z.B. wie durch die Positionsdaten angezeigt, z.B. durch eine GPS-Karte). Als weiteres Beispiel kann eine Kamera ein STOP-Schild interpretieren, aber ein anderes Sensorsystem (oder alle anderen Sensorsysteme) zeigen eine reibungslos fließende Verkehrssituation oder eine ansonsten ungestörte Umgebung an. Als weiteres Beispiel kann eine Kamera in einer Innenstadt keinen Fußgänger (z.B. tagsüber) erkennen (z.B. aufgrund der Wirkung eines gegnerischen Angriffs). In diesen Fällen kann eine andere Priorisierung (oder andere Sensordaten) bestimmt (und verwendet) werden, z.B. auf der Grundlage der in der Allgemeinen Einstellungsmatrix gespeicherten Daten. Zur Veranschaulichung kann eine Priorisierung (z.B. eine sofortige Priorisierung) anderer bevorzugter Sensordaten (z.B. Sensordatensätze) oder anderer Standardwerte (z.B. Eintritt in den Sicherheitsmodus) vorgesehen werden.
  • Zur Veranschaulichung können eine oder mehrere positionscodierte (z.B. GPS-codierte) Regelungen bereitgestellt oder bestimmt werden (z.B. von oder in Verbindung mit der location selective category (LSC)). Die eine oder mehrere positionscodierte Anordnungen können bestimmte Kombinationen von Befehlen (z.B. Verkehrsbefehle) beschreiben, die im aktuellen Szenario (z.B. im aktuellen Fahrzeugzustand) erlaubt oder zulässig sind. Sensordaten, die nicht konsistent (z.B. kohärent) mit der einen oder mehreren Anordnungen sind, können unberücksichtigt bleiben (z.B. können die einzelnen oder kombinierten Sensoreingaben unberücksichtigt bleiben) oder zumindest in Frage gestellt werden. Es kann ein Vertraulichkeitswert für das Sensorsystem (oder die Sensordaten) bestimmt werden, der z.B. von 0 bis 1 reicht, wobei 0 anzeigen kann, dass es sehr unwahrscheinlich ist, dass ein Angriff stattgefunden hat, z.B. ein ausgeklügelter Angriff, und 1 anzeigen kann, dass es sehr wahrscheinlich ist, dass ein Angriff stattgefunden hat.
  • In verschiedenen Ausführungsformen kann die Bestimmung der (z.B. logischen) Kohärenz der Sensordaten durch ein Modul des Fahrzeugs oder durch ein Sensorgerät (z.B. ein Logical Coherence Module, LCM) erfolgen. Das Logical Coherence Module (LCM) kann so konfiguriert werden, dass es einen Signalzuverlässigkeitsfaktor für die Sensordaten bestimmt. Der Signalzuverlässigkeitsfaktor kann die (z.B. ermittelte) Kohärenz (oder den Grad der Kohärenz) der Sensordaten mit dem jeweiligen Erwartungswert beschreiben. Der Signalzuverlässigkeitsfaktor kann z. B. von 0 bis 1 reichen, wobei 0 im Wesentlichen keine Kohärenz (oder keine Korrelation) und 1 eine im Wesentlichen perfekte Übereinstimmung (z. B. ein hohes Maß an Kohärenz oder Korrelation) anzeigen kann.
  • Das Logical Coherence Module (LCM) kann so konfiguriert werden, dass es den (z.B. positionscodierten) Signalzuverlässigkeitsfaktor an die General Setting Matrix liefert (z.B. kann das LCM so konfiguriert werden, dass es Kohärenzdaten (z.B. Kohärenzwert(e) in das GSM ausgibt). Basierend auf den LCM-Daten kann eine entsprechende Konfiguration für die Sensorsysteme (z.B. entsprechende Sensordaten) festgelegt werden (z.B. Abruf aus dem GSM). Beispielsweise kann die Globale Einstellungsmatrix (GSM) konfiguriert (z.B. programmiert) werden, um auf der Grundlage des Signalzuverlässigkeitsfaktors (z.B. auf der Wahrscheinlichkeit) zu bestimmen, ob das normale Verfahren beibehalten oder zu einem anderen Sensorsystem oder einer anderen Sensorsystemkombination gewechselt oder Standard-Notfallwerte ausgegeben werden sollen. Die Standardnotfallwerte können zur weiteren Fahrzeugführung verwendet werden.
  • In verschiedenen Ausführungsformen kann das Logical Coherence Module (LCM) so konfiguriert (z.B. programmiert und/oder trainiert) werden, dass es (irreführende) kombinierte Sensorsignale (z.B. kombinierte Sensordaten) auswertet, z.B. im Falle eines Mehrfachsensorangriffs. Das Logical Coherence Module (LCM) kann so konfiguriert werden, dass es diese Auswertung durch Vergleich der Sensordaten mit anderen Datensätzen (z.B. fahrzeuginternen und/oder fahrzeugexternen Datensätzen) durchführt.
  • Ein Logical Coherence Module (LCM) kann so konfiguriert werden, dass es das Auftreten eines Angriffs auswertet, falls Sensordaten plötzlich eine entgegengesetzte Situation oder ein entgegengesetztes Szenario in Bezug auf unmittelbar vorhergehende Sensordaten anzeigen. Beispielsweise kann das Logical Coherence Module (LCM) so konfiguriert werden, dass es das Auftreten eines Angriffs auswertet, falls ein zuvor erkanntes und registriertes Objekt plötzlich verschwindet (falsches Negativ) oder plötzlich erscheint (falsches Positiv). In diesem Fall kann das Logical Coherence Module (LCM) so konfiguriert werden, dass es auswertet und berücksichtigt, ob es sich bei dem Objekt um ein sich schnell bewegendes Objekt (z.B. eine Drohne, wie z.B. eine fliegende Drohne) handeln könnte.
  • Das Logical Coherence Module (LCM) kann in verschiedenen Ausprägungen Methoden des Tiefen Lernens und/oder der Künstlichen Intelligenz (KI) beinhalten, z.B. auf der Basis neuronaler Netze. Zur Veranschaulichung: Das Logical Coherence Module (LCM) kann Methoden des tiefen Lernens und/oder der künstlichen Intelligenz (Kl) zur Auswertung der Kohärenz der Sensordaten verwenden (oder zumindest durch diese unterstützt werden).
  • In verschiedenen Ausführungsformen können Informationen über den Signalzuverlässigkeitsfaktor (z.B. über die Kohärenz der Sensordaten) und/oder über seine Bestimmung (z.B. seine Zuordnung zu den Sensordaten) an ein anderes Gerät (z.B. an ein fahrzeuginternes oder fahrzeugexternes Gerät) gegeben werden. Beispielsweise kann das Logical Coherence Module (LCM) und/oder die Global Setting Matrix (GSM) so konfiguriert werden, dass das jeweilige Ausgangssignal an ein (z.B. einzelnes oder kombiniertes) Sensorsteuerungssystem geliefert wird. Das Sensorsteuerungssystem kann so konfiguriert werden, dass es eine Änderung der Sensoreinstellungen (z.B. Kamerafokus, LIDAR-Strahlintensität, Sichtfeldwinkel, Datenkompression und ähnliches) auslöst. Die Datenkomprimierung kann z.B. die Verwendung eines Speichers für die Zwischenspeicherung von Daten beinhalten, wie weiter unten näher erläutert wird. Als weiteres Beispiel kann das Logical Coherence Module (LCM) und/oder die Global Setting Matrix (GSM) so konfiguriert werden, dass ein Bericht erstellt und an eine Verkehrskontrollstation und/oder an Verkehrsbehörden gesendet wird (z.B. mit Angabe des Ortes und der Art des ermittelten Angriffs).
  • 124 zeigt ein Verfahren 12400 in Übereinstimmung mit verschiedenen Ausführungsformen.
  • Das Verfahren 12400 kann im Jahr 12402 den Empfang von Sensordaten beinhalten. Die (z.B. empfangenen) Sensordaten können von einem oder mehreren Sensorsystemen erzeugt (z.B. bereitgestellt) werden. Das eine oder die mehreren Sensorsysteme können z.B. ein oder mehrere RADAR-Systeme und/oder ein oder mehrere Kamerasysteme und/oder ein oder mehrere LIDAR-Systeme (z.B. das LIDAR-Sensorsystem 10) und/oder ein oder mehrere Ultraschallsysteme umfassen. Das eine oder die mehreren Sensorsysteme können einen oder mehrere entsprechende Sensoren aufweisen (z.B. kann ein LIDAR-System einen LIDAR-Sensor 52 aufweisen). Das eine oder die mehreren Sensorsysteme können in einem Fahrzeug enthalten sein (z.B. ein Fahrzeug mit automatisierten Fahrfähigkeiten, z.B. ein automatisiertes Fahrzeug). Das eine oder die mehreren Sensorsysteme können in einem Sensorgerät enthalten sein. Zur Veranschaulichung: Eine Sensoreinrichtung kann ein Fahrzeug sein, oder eine Sensoreinrichtung kann in einem Fahrzeug enthalten sein. Die Sensordaten können einem Datenverarbeitungssystem (z.B. des Fahrzeugs oder einer Sensoreinrichtung) zur Verfügung gestellt werden, z.B. können die Sensordaten einem Logical Coherence Module (LCM) des Datenverarbeitungssystems zur Verfügung gestellt werden.
  • Die Sensordaten können z.B. eine Umgebung beschreiben, die das eine oder mehrere Sensorsysteme umgibt (z.B. eine Umgebung, die das Fahrzeug umgibt). Die Sensordaten können z.B. fahr- oder verkehrsbezogene Informationen beschreiben (z.B. die Anwesenheit anderer Fahrzeuge, das Vorhandensein und die Bedeutung eines Verkehrszeichens, das Vorhandensein eines Hindernisses und ähnliches). Als weiteres Beispiel können die Sensordaten einen atmosphärischen Zustand beschreiben (z.B. die Umgebung des Fahrzeugs).
  • Das Verfahren 12400 kann darüber hinaus in 12404 die Bestimmung eines Signalzuverlässigkeitsfaktors für die empfangenen Sensordaten beinhalten (z.B. kann das Logical Coherence Module zur Bestimmung des Signalzuverlässigkeitsfaktors konfiguriert werden). Der Signalzuverlässigkeitsfaktor kann eine Kohärenz (z.B. eine Korrelation oder eine Übereinstimmung) der empfangenen Sensordaten mit einem erwarteten Wert für die empfangenen Sensordaten beschreiben oder darstellen (z.B. mit erwarteten oder vorhergesagten Sensordaten, z.B. mit einem Bereich von erwarteten Werten für die empfangenen Sensordaten). Der Signalzuverlässigkeitsfaktor kann ein numerischer Wert sein, der die Kohärenz (oder den Grad der Kohärenz) repräsentiert, z.B. im Bereich von 0 (nicht kohärent) bis 1 (vollständig kohärent). Illustrativ kann der Signalzuverlässigkeitsfaktor einen Hinweis darauf geben, ob die empfangenen Sensordaten zuverlässig (z.B. glaubwürdig) sind oder nicht (z.B. ob die empfangenen Sensordaten sinnvoll sind oder nicht, z.B. in einem bestimmten Fahrzeugzustand). Zur weiteren Veranschaulichung kann der Signalzuverlässigkeitsfaktor eine Abweichung (mit anderen Worten, eine Differenz) der empfangenen Sensordaten vom erwarteten Wert für die empfangenen Sensordaten beschreiben.
  • Der erwartete Wert für die empfangenen Sensordaten kann auf der Grundlage früherer Sensordaten bestimmt werden. Anders ausgedrückt, die Kohärenz der empfangenen Sensordaten kann auf der Grundlage früherer Sensordaten bestimmt werden (z.B. kann der Signalzuverlässigkeitsfaktor für die empfangenen Sensordaten auf der Grundlage früherer Sensordaten bestimmt werden). Die früheren Sensordaten können (z.B. durch das Modul für logische Kohärenz) zu einem vorhergehenden (d.h. früheren) Zeitpunkt in Bezug auf die (z.B. neu empfangenen) Sensordaten empfangen worden sein. Ein Zeitunterschied zwischen den vorherigen Sensordaten und den neu empfangenen Sensordaten (z.B. ein Zeitunterschied zwischen dem Empfang der vorherigen Sensordaten und dem Empfang der Sensordaten) kann weniger als 5 Minuten, z.B. weniger als 1 Minute, z.B. weniger als 30 Sekunden betragen. Die früheren Sensordaten können von demselben Sensorsystem oder derselben Kombination von Sensorsystemen erzeugt worden sein, die die neu empfangenen Sensordaten geliefert haben. Zusätzlich oder alternativ können die früheren Sensordaten von einem anderen Sensorsystem oder einer anderen Kombination von Sensorsystemen erzeugt worden sein. Es kann ein Signalzuverlässigkeitsfaktor für die früheren Sensordaten bestimmt worden sein, was darauf hindeuten kann, dass die früheren Sensordaten zuverlässig sind. Wenn z.B. ein Kamerasystem oder ein LIDAR-Sensorsystem das plötzliche Auftreten (oder Verschwinden) eines Objekts anzeigt (z.B. fehlend (oder vorhanden) gemäß den unmittelbar vorhergehenden Sensordaten), kann eine geringe Kohärenz mit den vorhergehenden Sensordaten festgestellt werden (und die Zuverlässigkeit der Messung kann in Frage gestellt werden).
  • Der erwartete Wert für die empfangenen Sensordaten kann auf der Grundlage anderer Sensordaten bestimmt werden (z. B. kann das Verfahren den Empfang anderer Sensordaten einschließen, z. B. kann das Modul für logische Kohärenz so konfiguriert werden, dass es andere Sensordaten empfängt). Bei den empfangenen Sensordaten kann es sich z.B. um (erste) Sensordaten handeln, die von einem ersten Sensorsystem oder einer ersten Kombination von Sensorsystemen erzeugt wurden. Der erwartete Wert für die ersten Sensordaten kann auf der Grundlage von (z.B. zweiten) Sensordaten bestimmt werden, die von einem zweiten Sensorsystem oder einer zweiten Kombination von Sensorsystemen erzeugt werden (z.B. kann die Kohärenz der ersten Sensordaten auf der Grundlage der zweiten Sensordaten bestimmt werden). Anders ausgedrückt, der Signalzuverlässigkeitsfaktor für die empfangenen Sensordaten kann auf der Grundlage von Sensordaten bestimmt werden, die von einem anderen Sensorsystem oder einer anderen Kombination von Sensorsystemen erzeugt wurden. Illustrativ kann die Kohärenz der empfangenen Sensordaten durch eine Kombination von Sensordaten aus verschiedenen Quellen bestimmt werden. Beispielsweise kann die Zuverlässigkeit von Sensordaten, die von einem Ultraschallsystem erzeugt wurden, unter Berücksichtigung von Sensordaten, die von einem Kamerasystem erzeugt wurden, bestimmt (z.B. bestätigt) werden und umgekehrt (z.B. durch Überprüfung der Übereinstimmung zwischen den jeweiligen Sensordaten).
  • Der erwartete Wert für die empfangenen Sensordaten kann auf der Grundlage eines Fahrzeugzustands bestimmt werden. Anders ausgedrückt, die Kohärenz der empfangenen Sensordaten kann auf der Grundlage des Fahrzeugzustands bestimmt werden (z.B. kann der Signalzuverlässigkeitsfaktor für die empfangenen Sensordaten auf der Grundlage des Fahrzeugzustands bestimmt werden). Ein Fahrzeugzustand kann einen Zustand (z.B. ein Szenario) beschreiben, in dem sich ein Fahrzeug befindet. Der Fahrzeugzustand kann (z.B. beschreiben oder darstellen) positionscodierte Informationen (z.B. Informationen, die sich auf einen Standort oder die Koordinaten des Fahrzeugs beziehen) aufweisen. Der Fahrzeugzustand (z.B. die positionscodierte Information) kann zumindest teilweise anhand von Positionsdaten (z.B. GPS-Daten) bestimmt werden. Zur Veranschaulichung: Das Verfahren 12400 kann den Empfang von Positionsdaten (z.B. von einem GNSS-Modul oder einem GPS-Modul) beinhalten. Das Verfahren 12400 kann die Bestimmung des Fahrzeugzustands (z.B. ein oder mehrere Faktoren, die den Fahrzeugzustand definieren) zumindest teilweise auf der Grundlage der empfangenen Positionsdaten beinhalten (z.B. kann das Logical Coherence Module so konfiguriert werden, dass der Fahrzeugzustand auf der Grundlage der empfangenen Positionsdaten bestimmt wird).
  • Der Fahrzeugzustand kann eine ortsselektive Kategorie (LSC) (oder mehrere ortsselektive Kategorien) aufweisen (z. B. beschreiben oder darstellen). Die ortsselektive Kategorie (LSC) kann ortsspezifische (z.B. positionsspezifische) Informationen beschreiben, z.B. Informationen, die sich auf einen aktuellen Standort (z.B. aktuelle Koordinaten) eines Fahrzeugs beziehen. Die ortsselektive Kategorie (LSC) kann einen Standort des Fahrzeugs und/oder Informationen in Bezug auf den Standort (z.B. eine oder mehrere positionscodierte Anordnungen) beschreiben. Als Beispiel kann die ortsselektive Kategorie (LSC) beschreiben, dass sich das Fahrzeug auf einem Parkplatz befindet, und kann Informationen in Bezug auf den Parkplatz (z.B. Geschwindigkeitsbegrenzung, Ausfahrten, Fahrtrichtung innerhalb des Parkplatzes usw.) beschreiben.
  • Der Fahrzeugzustand kann eine Umgebungseinstellung (ES) (oder eine Vielzahl von Umgebungseinstellungen) umfassen. Die Umgebungsstellung (ES) kann eine oder mehrere fahrzeugexterne Bedingungen beschreiben, z.B. Bedingungen, die ein Fahrzeug beeinflussen können, die aber nicht unter der direkten Kontrolle des Fahrzeugs oder eines Fahrzeuginsassen stehen. Die Umgebungsbedingungen (ES) können z.B. Wetter, Verkehrsdichte und ähnliches umfassen, die z.B. auf der Grundlage des aktuellen Standortes des Fahrzeugs bestimmt werden.
  • Der Fahrzeugzustand kann einen Fahrstatus (DS) (oder mehrere Fahrstatus) umfassen. Der Fahrzustand (DS) kann einen oder mehrere fahrzeuginterne Zustände beschreiben, z.B. Zustände, die ein Fahrzeug betreffen können und die vom Fahrzeug oder von einem Fahrzeuginsassen kontrollierbar (oder definiert) sein können. Der Fahrstatus (DS) kann z.B. den Fahrzeugtyp und den Autonomiegrad des Fahrzeugs einschließen, der z.B. auf der Grundlage des aktuellen Standorts des Fahrzeugs bestimmt wird (z.B. kann der Autonomiegrad für ein Fahrzeug, das in einer Stadt fährt, anders sein als für ein Fahrzeug, das auf einer Autobahn fährt).
  • Der Fahrzeugzustand kann einen der oben genannten Faktoren oder mehr als einen der genannten Faktoren, z.B. eine Kombination aus einem oder mehreren der genannten Faktoren, umfassen.
  • Der Fahrzeugzustand kann anhand von Sensordaten bestimmt werden (z.B. andere Sensordaten in Bezug auf die auszuwertenden Sensordaten, z.B. anhand früherer Sensordaten). Das Verfahren 12400 kann die Bestimmung des Fahrzeugzustands zumindest teilweise auf der Grundlage anderer Sensordaten umfassen (z.B. kann das Logical Coherence Module für die Durchführung einer solchen Bestimmung konfiguriert werden). Zur Veranschaulichung: Die verschiedenen Faktoren können auf der Grundlage von (z.B. anderen) Sensordaten bestimmt werden. Beispielsweise kann eine standortspezifische Kategorie aus oder auf der Grundlage von Sensordaten eines Kamerasystems bestimmt werden. Als weiteres Beispiel kann eine Verkehrsdichte auf der Grundlage von RADAR- und/oder LIDAR-Messungen bestimmt werden. Als weiteres Beispiel können Fahreridentifikationsdaten bekannt sein oder von einem Kamerasystem bestimmt werden (z.B. Abbildung des Fahrzeuginnenraums).
  • Eine Vielzahl von Datensätzen (z.B. eine Datenbank, die eine Vielzahl von Datensätzen speichert, z.B. eine Global Setting Matrix) kann bereitgestellt werden. Die Mehrzahl von Datensätzen kann Referenzsensordaten (eine Mehrzahl von Referenzsensordaten) beschreiben. Die Referenzsensordaten (z.B. die Daten jedes Referenzsensors) können einem jeweiligen Fahrzeugzustand zugeordnet werden. Die Referenzsensordaten können Sensordaten beschreiben, die bei dem damit verbundenen Fahrzeugzustand zu erwarten sind. Zur Veranschaulichung: Für jeden Fahrzeugzustand (z.B. jeden Faktor oder jede Kombination von Faktoren) können entsprechende erwartete Sensordaten gespeichert werden (z.B. in der Globalen Einstellungsmatrix). Das Verfahren 12400 kann die Bestimmung des erwarteten Wertes für die empfangenen Sensordaten aus den Referenzsensordaten umfassen (z.B. zur Bestimmung einer Kohärenz der empfangenen Sensordaten aus den Referenzsensordaten). Veranschaulichend kann das Verfahren 12400 das Abrufen von Referenzsensordaten, die mit dem aktuellen Fahrzeugzustand verbunden sind, aus einer Vielzahl von Referenzsensordaten (z.B. aus der Globalen Einstellungsmatrix) umfassen. Als Beispiel kann das Modul für logische Kohärenz so konfiguriert werden, dass es eine solche Bestimmung (und/oder einen solchen Abruf) durchführt.
  • Es ist beabsichtigt, dass die hier beschriebenen verschiedenen Ansätze zur Bestimmung der Kohärenz der empfangenen Sensordaten (z.B. die verschiedenen Ansätze zur Bestimmung des Erwartungswertes der empfangenen Sensordaten) unabhängig voneinander verwendet oder miteinander kombiniert werden können (z.B. in Abhängigkeit von einem bestimmten Fahrzeugzustand).
  • Das Verfahren 12400 kann in 12406 die Zuordnung des ermittelten Signalzuverlässigkeitsfaktors zu den empfangenen Sensordaten beinhalten (z.B. Zuordnung der empfangenen Sensordaten zu dem ermittelten Signalzuverlässigkeitsfaktor). Veranschaulichend kann das Verfahren 12400 die Erzeugung von Informationen über die Zuverlässigkeit der empfangenen Sensordaten beinhalten (und die Bereitstellung dieser Informationen an ein Steuersystem des Fahrzeugs oder einer Sensoreinrichtung, z.B. ein Sensorsteuersystem). Als Beispiel kann das Modul für logische Kohärenz so konfiguriert werden, dass es eine solche Zuordnung des Signalzuverlässigkeitsfaktors zu den empfangenen Sensordaten durchführt.
  • Auf der Grundlage des ermittelten (und zugewiesenen) Signalzuverlässigkeitsfaktors können verschiedene Aktionen durchgeführt und/oder verschiedene Entscheidungen getroffen werden. Das Verfahren 12400 kann die Steuerung eines Fahrzeugs unter Berücksichtigung (mit anderen Worten, entsprechend) der empfangenen Sensordaten und des Signalzuverlässigkeitsfaktors umfassen. Illustrativ können ein oder mehrere Fahrzeugbefehle (z.B. Fahrzeuglenkung) auf der Grundlage der empfangenen Sensordaten und des Signalzuverlässigkeitsfaktors generiert werden.
  • Wenn beispielsweise der Signalzuverlässigkeitsfaktor unter einem vordefinierten Schwellenwert liegt, kann das Fahrzeug ohne Berücksichtigung der empfangenen Sensordaten gesteuert werden (z.B. wenn der Signalzuverlässigkeitsfaktor besonders niedrig ist, z.B. kleiner als 0,25 oder kleiner als 0,1). Als weiteres Beispiel kann das Fahrzeug in einer Weise gesteuert werden, die einen sicheren Betrieb des Fahrzeugs in der Annahme gewährleistet, dass die Sensordaten unzuverlässig sein könnten (z.B. kann ein Notfallbefehl gegeben werden). Der Notfallbefehl kann z.B. dann gegeben werden, wenn der Signalzuverlässigkeitsfaktor zwischen einem unteren und einem oberen Schwellenwert liegt (z.B. kleiner als 0,75 oder kleiner als 0,5 und größer als 0,25 oder größer als 0,1). Das Verfahren 12400 kann die Steuerung des Fahrzeugs auf der Grundlage der Referenzsensordaten umfassen, die mit dem (z.B. aktuellen) Fahrzeugzustand verbunden sind. Zur Veranschaulichung: Referenzdaten (z.B. erwartete) Sensordaten können aus der Allgemeinen Einstellungsmatrix abgerufen und zur Steuerung des Fahrzeugs verwendet werden. Ein weiteres Beispiel: Wenn der Signalzuverlässigkeitsfaktor über einem vordefinierten Schwellenwert liegt (z.B. größer als 0,75 oder größer als 0,9), kann das Fahrzeug entsprechend den empfangenen Sensordaten gesteuert werden. Es können ein oder mehrere Fahrzeugbefehle generiert werden, die die von den Sensordaten gelieferten Informationen berücksichtigen (z.B. das Vorhandensein eines Hindernisses oder eine einzuhaltende Geschwindigkeitsbegrenzung). Zur Veranschaulichung: Das Verfahren 12400 kann das Ignorieren der empfangenen Sensordaten oder die Verwendung der empfangenen Sensordaten zur Erzeugung eines oder mehrerer Fahrzeugbefehle in Abhängigkeit von dem zugewiesenen Signalzuverlässigkeitsfaktor beinhalten. Beispielsweise kann ein zentrales Steuersystem des Fahrzeugs so konfiguriert werden, dass es solche Steueraktionen durchführt (z.B. nach Empfang des Signalwahrscheinlichkeitsfaktors und der Sensordaten, z.B. vom Logical Coherence Module).
  • Das Verfahren 12400 kann die Änderung einer Konfiguration eines oder mehrerer Sensorsysteme auf der Grundlage des ermittelten (und zugewiesenen) Signalzuverlässigkeitsfaktors beinhalten. Die Konfiguration eines oder mehrerer Sensorsysteme, die die empfangenen Sensordaten (z.B. einzeln oder in Kombination) erzeugt haben, kann geändert werden. Zusätzlich oder alternativ kann die Konfiguration eines oder mehrerer anderer Sensorsysteme (z.B., die die ausgewerteten Sensordaten nicht erzeugt haben) geändert werden. Ein Sensorsteuerungssystem (z.B. ein Sensoreinstellsystem) kann so konfiguriert werden, dass eine solche Konfigurationsänderung durchgeführt wird. Beispielsweise kann die Konfiguration ein oder mehrere zu deaktivierende (oder depriorisierte) Sensorsysteme umfassen. Zur Veranschaulichung: Falls der Signalzuverlässigkeitsfaktor unter einem vorgegebenen Schwellenwert liegt, können das eine oder die mehreren Sensorsysteme, die die empfangenen (z.B. unzuverlässigen) Sensordaten erzeugt haben, deaktiviert werden (z.B. zumindest vorübergehend). Ein oder mehrere andere Sensorsysteme können stattdessen verwendet werden, z.B. können sie aktiviert oder in Bezug auf das eine oder die mehreren Sensorsysteme, die die empfangenen Sensordaten erzeugt haben, priorisiert werden. Zur Veranschaulichung: Die Konfiguration kann eine Anzahl (oder eine Kombination) von zu deaktivierenden (oder zu depriorisierenden) Sensorsystemen und/oder eine Anzahl (oder eine Kombination) von zu aktivierenden (oder zu priorisierenden) Sensorsystemen umfassen. Ein weiteres Beispiel: Falls der Signalzuverlässigkeitsfaktor unter dem vordefinierten Schwellenwert liegt, können das eine oder die mehreren Sensorsysteme, die die empfangenen Sensordaten erzeugt haben, so gesteuert werden, dass die Messung wiederholt wird (z.B. kann die jeweilige Datenerfassungsrate erhöht werden), um eine weitere Bewertung der Zuverlässigkeit der Sensordaten durchzuführen. Als weiteres Beispiel können, falls der Signalzuverlässigkeitsfaktor unter dem vordefinierten Schwellenwert liegt, Daten aus einem Speicher zur Datenzwischenspeicherung abgerufen werden (z.B. können redundante und/oder weniger relevante Daten zur Bewertung der Zuverlässigkeit der Sensordaten verwendet werden). Als weiteres Beispiel können ein oder mehrere andere Sensorsysteme gesteuert werden, um eine Messung in dem Bereich (z.B. im Winkelsegment) durchzuführen, der von dem einen oder den mehreren Sensorsystemen abgefragt wurde, die die empfangenen Sensordaten erzeugt haben.
  • Das Verfahren 12400 kann die Auswahl der Konfiguration aus einer Vielzahl von Konfigurationen umfassen. Jede Konfiguration kann mit einem entsprechenden Fahrzeugzustand verbunden sein. Auf der Grundlage des (z.B. ermittelten) Fahrzeugzustands kann eine entsprechende (z.B. optimierte) Konfiguration für einen oder mehrere Sensoren ausgewählt werden (oder eine alternative Konfiguration im Falle eines niedrigen Signalzuverlässigkeitsfaktors). Die Konfigurationen können z.B. in der Global Setting Matrix gespeichert werden.
  • Das Verfahren 12400 kann die Speicherung des Signalzuverlässigkeitsfaktors beinhalten. Zusätzlich oder alternativ kann das Verfahren 12400 das Speichern von Informationen beinhalten, die die Zuordnung des Zuverlässigkeitsfaktors zu den empfangenen Sensordaten beschreiben (z.B. Informationen über den Fahrzeugzustand, Informationen darüber, wie die Sensordaten von den erwarteten Sensordaten abweichen, Informationen über eine mögliche Ursache für die Abweichung und ähnliches). Der Signalzuverlässigkeitsfaktor und die zugehörigen Informationen können z.B. in einem Speicher des Fahrzeugs oder des Logical Coherence Module (LCM) gespeichert werden. Zusätzlich oder alternativ können der Zuverlässigkeitsfaktor und die zugehörigen Informationen in der Globalen Einstellungsmatrix gespeichert werden.
  • Das Verfahren 12400 kann die Übertragung des Signalzuverlässigkeitsfaktors an ein anderes Gerät (z.B. ein fahrzeugexternes Gerät) beinhalten. Zusätzlich oder alternativ kann das Verfahren 12400 die Übertragung von Informationen, die die Zuordnung des Zuverlässigkeitsfaktors zu den empfangenen Sensordaten beschreiben, an das andere Gerät beinhalten. Bei der anderen Einrichtung kann es sich z.B. um eine Verkehrskontrollstation oder ein anderes Fahrzeug handeln (z.B. um eine potentielle Störungsquelle für die Sensorsysteme anzuzeigen). Das andere Gerät kann z.B. eine Verkehrsbehörde sein (z.B. kann es eine Kommunikationsschnittstelle mit den Verkehrsbehörden sein). Veranschaulichend kann das Verfahren 12400 die Bestimmung auf der Grundlage des Signalzuverlässigkeitsfaktors beinhalten, ob die empfangenen Sensordaten durch einen gegnerischen Angriff verfälscht wurden. Der Signalzuverlässigkeitsfaktor kann die Wahrscheinlichkeit beschreiben, dass die empfangenen Sensordaten durch einen gegnerischen Angriff (oder durch natürliche Ursachen) beeinträchtigt wurden. Wenn beispielsweise der Signalzuverlässigkeitsfaktor unter einem vorgegebenen Schwellenwert liegt, kann festgestellt werden, dass ein gegnerischer Angriff stattgefunden hat. Entsprechende Informationen können an die Verkehrsbehörden gesendet werden.
  • 125A und 125B zeigen jeweils ein System in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das System kann so konfiguriert werden, dass es die im Zusammenhang mit 124 beschriebene Methode 12400 implementiert. Das System kann als LIDAR-Sensorsystem 10 (z.B. das LIDAR-Sensorsystem 10 zum Nachrüsten) konfiguriert sein oder konfiguriert werden, wie z.B. in Bezug auf 1 beschrieben. Es ist beabsichtigt, dass das in 125A und 125B dargestellte System eine oder mehrere Komponenten (z.B. alle Komponenten) des LIDAR-Sensorsystems 10 enthalten kann, wie z.B. in Bezug auf 1 beschrieben. Das System kann in eine Sensorvorrichtung (z.B. in die LIDAR-Sensorvorrichtung 30) integriert oder eingebettet sein, z.B. in ein Gehäuse, ein Fahrzeug, einen Fahrzeugscheinwerfer.
  • Das System kann so konfiguriert werden, dass es elektromagnetische oder andere Arten von objektreflektierter oder objektsender Strahlung 130, aber auch andere erwünschte oder unerwünschte elektromagnetische Strahlung 140 empfängt und misst (z.B. einen oder mehrere Angriffseingänge, z.B. einen oder mehrere Eingänge, die manipuliert wurden, um das System zu täuschen, wie z.B. in 125B dargestellt).
  • Das System kann so konfiguriert werden, dass eine Position des Systems (z.B. der Sensoreinrichtung, z.B. des Fahrzeugs) bestimmt werden kann. Das System kann ein Positionsmodul 12502 aufweisen (z.B. ein GPS-Modul, z.B. ein GPS-Sensor). Das Positionsmodul 12502 kann so konfiguriert werden, dass es Positionsdaten erzeugt (oder Positionsdaten, z.B. von einem externen Gerät, z.B. einer Verkehrsregelungsstation, empfängt).
  • Das System kann ein Datenverarbeitungssystem umfassen (z.B. das LIDAR-Datenverarbeitungssystem 60). Das Datenverarbeitungssystem kann so konfiguriert werden, dass es Signalverarbeitung 61, Datenanalyse und -berechnung 62, Sensorfusion und andere Sensorfunktionen 63 ausführt. Das Datenverarbeitungssystem kann so konfiguriert werden, dass es die Kohärenz der Sensordaten überprüft (z.B. auswertet) (z.B. erzeugt von einem Sensor des Systems, z.B. dem LIDAR-Sensor 52, oder bereitgestellt von einem durch den Sensor erzeugten Sensorsignal). Das Datenverarbeitungssystem kann ein logisches Kohärenzmodul 12504 (z.B. ein Kohärenzprüfsystem) aufweisen, das wie oben beschrieben konfiguriert ist. Zur Veranschaulichung: Das logische Kohärenzmodul 12504 kann so konfiguriert werden, dass es das Verfahren 12400 (oder zumindest einen Teil der Methode 12400) ausführt. Das Datenverarbeitungssystem kann die Globale Einstellungsmatrix 12506 aufweisen, die wie oben beschrieben konfiguriert ist. Das System kann ein Datenverwaltungssystem (z.B. das LIDAR-Sensormanagementsystem 90) aufweisen, das so konfiguriert ist, dass es Eingabe- und Ausgabedaten verwaltet (z.B. zur Kommunikation mit systemexternen oder fahrzeugexternen Geräten). Das Datenverarbeitungssystem (z.B. das Modul für logische Kohärenz 12504) kann, zumindest unterstützend, jedes andere geeignete und verbundene Gerät einschließlich aller auf der Wolke basierenden Dienste einsetzen.
  • 126 zeigt in einer schematischen Darstellung ein System und einen Signalweg nach verschiedenen Ausführungsformen. Zur Veranschaulichung zeigt 126 ein Flussdiagramm in Bezug auf den Empfang und die Verarbeitung eines Eingangssignals (z.B. eines gegnerischen Signals).
  • Ein Eingangsanbieter 12602 kann ein Eingangssignal 12604 an das System (z.B. an das Sensorgerät 30) liefern. Der Eingangsanbieter 12602 kann z.B. ein Objekt (z.B. ein Fahrzeug oder ein Verkehrszeichen) im Sichtfeld des Systems sein. Das Eingangssignal 12604 kann ein echtes Eingangssignal oder ein gegnerisches Signal sein, z.B. ein manipuliertes Signal (z.B. kann der Eingangsanbieter 12602 ein Anbieter von gegnerischen Signalen sein, z.B. ein manipuliertes Verkehrszeichen oder ein Fahrzeug, das Licht ausstrahlt oder ein manipuliertes Bild anzeigt).
  • Das System (z. B. das Sensorgerät 30) kann so konfiguriert werden, dass es Sensordaten 12606, die entsprechend dem Eingangssignal 12604 erzeugt werden, an das Datenverarbeitungssystem (z. B. an das LIDAR-Datenverarbeitungssystem 60) liefert. Das Datenverarbeitungssystem kann so konfiguriert werden, dass es die Sensordaten 12608 (z.B. nach einer anfänglichen Vorverarbeitung) an das logische Kohärenzmodul 12504 liefert. Das logische Kohärenzmodul 12504 kann so konfiguriert werden, dass es die Kohärenz der Sensordaten 12608 auswertet und die Kohärenzdaten 12610 als Ausgabe bereitstellt. Die Kohärenzdaten 12610 können den Signalzuverlässigkeitsfaktor aufweisen oder beschreiben, der den Sensordaten 12608 zugeordnet ist, und/oder Informationen in Bezug auf ihre Zuordnung. Das logische Kohärenzmodul 12504 kann so konfiguriert werden, dass es die Kohärenzdaten 12610 an die Globale Einstellungsmatrix 12506 liefert. Zusätzlich oder alternativ kann die Globale Einstellungsmatrix 12506 so konfiguriert werden, dass sie Daten für das logische Kohärenzmodul 12504 bereitstellt (z. B. Daten zur Bewertung der Zuverlässigkeit der Sensordaten 12608, wie Daten, die den erwarteten Wert für die Sensordaten 12608 beschreiben, z. B. ortsselektive Kategorien, Umgebungseinstellungen und Fahrszenarien). Basierend auf den empfangenen Kohärenzdaten 12610 kann die Globale Einstellungsmatrix 12506 so konfiguriert werden, dass sie eine Eingabe 12612 (z.B. Eingabedaten) an das Datenverwaltungssystem (z.B. das LIDAR-Sensormanagementsystem 90) liefert. Zusätzlich oder alternativ kann die Globale Einstellungsmatrix 12506 so konfiguriert werden, dass sie die Eingabedaten an die Verkehrsbehörden liefert. Das Datenmanagementsystem kann so konfiguriert werden, dass es die empfangenen Eingabedaten speichert und/oder die empfangenen Eingabedaten an ein systemexternes Gerät überträgt.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 124 bis 126 beschrieben, können mit den Ausführungsformen der intelligenten Navigation, wie unter Bezugnahme auf 85 bis 88 beschrieben, kombiniert werden.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 124 bis 126 beschrieben, können mit den Ausführungsformen der intelligenten Navigation, wie unter Bezugnahme auf 127 bis 130 beschrieben, kombiniert werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1u ist ein Verfahren. Das Verfahren kann den Empfang von Sensordaten beinhalten. Das Verfahren kann die Bestimmung eines Signalzuverlässigkeitsfaktors für die empfangenen Sensordaten beinhalten. Der Signalzuverlässigkeitsfaktor kann eine Kohärenz der empfangenen Sensordaten mit einem erwarteten Wert für die empfangenen Sensordaten beschreiben. Das Verfahren kann die Zuweisung des ermittelten Signalzuverlässigkeitsfaktors zu den empfangenen Sensordaten umfassen.
    • In Beispiel 2u kann der Gegenstand von Beispiel 1u optional die Steuerung eines Fahrzeugs unter Berücksichtigung der empfangenen Sensordaten und des zugewiesenen Signalzuverlässigkeitsfaktors umfassen.
    • In Beispiel 3u kann der Gegenstand eines der Beispiele 1u oder 2u optional die Nichtberücksichtigung der empfangenen Sensordaten oder die Verwendung der empfangenen Sensordaten zur Erzeugung eines oder mehrerer Fahrzeugbefehle in Abhängigkeit von dem zugewiesenen Signalzuverlässigkeitsfaktor beinhalten.
    • In Beispiel 4u kann der Gegenstand eines der Beispiele 1u bis 3u optional beinhalten, dass der Signalzuverlässigkeitsfaktor eine Abweichung der empfangenen Sensordaten von dem erwarteten Wert für die Sensordaten beschreibt.
    • In Beispiel 5u kann der Gegenstand eines der Beispiele 1u bis 4u optional beinhalten, dass der erwartete Wert für die empfangenen Sensordaten auf der Grundlage früherer Sensordaten bestimmt wird, die zu einem vorhergehenden Zeitpunkt in Bezug auf die Sensordaten empfangen wurden.
    • In Beispiel 6u kann der Gegenstand eines beliebigen der Beispiele 1u bis 5u optional beinhalten, dass die empfangenen Sensordaten erste Sensordaten sind, die von einem ersten Sensorsystem erzeugt wurden. Das Verfahren kann ferner den Empfang zweiter Sensordaten beinhalten, die von einem zweiten Sensorsystem erzeugt wurden. Das Verfahren kann ferner die Bestimmung des erwarteten Wertes für die ersten Sensordaten auf der Grundlage der empfangenen zweiten Sensordaten umfassen.
    • In Beispiel 7u kann der Gegenstand eines beliebigen der Beispiele 1u bis 6u optional beinhalten, dass der erwartete Wert für die empfangenen Sensordaten auf der Grundlage eines Fahrzeugzustands bestimmt wird.
    • In Beispiel 8u kann der Gegenstand von Beispiel 7u optional beinhalten, dass der Fahrzeugzustand eine ortsselektive Kategorie und/oder eine Umwelteinstellung und/oder einen Fahrstatus umfasst.
    • In Beispiel 9u kann der Gegenstand eines der Beispiele 7u oder 8u optional den Empfang von Positionsdaten beinhalten. Die Positionsdaten können eine Position eines Fahrzeugs beschreiben. Das Verfahren kann ferner die Bestimmung des Fahrzeugzustands zumindest teilweise auf der Grundlage der empfangenen Positionsdaten umfassen.
    • In Beispiel 10u kann der Gegenstand eines jeden der Beispiele 7u bis 9u optional die Bestimmung des Fahrzeugzustands auf der Grundlage anderer Sensordaten umfassen.
    • In Beispiel 11u kann der Gegenstand eines beliebigen der Beispiele 7u bis 10u optional die Bestimmung des erwarteten Wertes für die empfangenen Sensordaten aus Referenzsensordaten umfassen. Die Referenzsensordaten können mit einem entsprechenden Fahrzeugzustand verknüpft werden.
    • In Beispiel 12u kann der Gegenstand eines jeden der Beispiele 1u bis 11u optional die Änderung einer Konfiguration eines oder mehrerer Sensorsysteme auf der Grundlage des ermittelten Signalzuverlässigkeitsfaktors umfassen.
    • In Beispiel 13u kann der Gegenstand von Beispiel 12u optional die Auswahl der Konfiguration für das eine oder mehrere Sensorsysteme aus einer Vielzahl von Konfigurationen umfassen, die jeweils mit einem entsprechenden Fahrzeugzustand verbunden sind.
    • In Beispiel 14u kann der Gegenstand von Beispiel 13u optional beinhalten, dass die Konfiguration eine Anzahl von Sensorsystemen umfasst, die deaktiviert und/oder depriorisiert werden sollen.
    • In Beispiel 15u kann der Gegenstand eines jeden der Beispiele 1u bis 14u optional die Speicherung des Signalzuverlässigkeitsfaktors und Informationen, die seine Zuordnung zu den empfangenen Sensordaten beschreiben, beinhalten.
    • In Beispiel 16u kann der Gegenstand eines der Beispiele 1u bis 15u optional die Übertragung des Signalzuverlässigkeitsfaktors und Informationen, die seine Zuordnung zu den empfangenen Sensordaten beschreiben, an ein anderes Gerät beinhalten.
    • In Beispiel 17u kann der Gegenstand eines der Beispiele 1u bis 16u optional beinhalten, dass der Signalzuverlässigkeitsfaktor eine Wahrscheinlichkeit beschreibt, dass die empfangenen Sensordaten durch einen gegnerischen Angriff beeinträchtigt werden.
    • Beispiel 18u ist ein Gerät, das einen oder mehrere Prozessoren enthält, die so konfiguriert sind, dass sie ein Verfahren eines der Beispiele 1u bis 17u ausführen.
    • Beispiel 19u ist ein Fahrzeug, einschließlich der Einrichtung aus Beispiel 18u.
    • Beispiel 20u ist ein Computerprogramm mit Befehlen, die, wenn sie von einem oder mehreren Prozessoren ausgeführt werden, ein Verfahren eines der Beispiele 1u bis 17u implementieren.
  • Ein automatisiertes (d.h. autonomes) Fahrzeug (z.B. ein Fahrzeug mit einem Fahrautomatisierungssystem, einem fortgeschrittenen Fahrerassistenzsystem oder ähnlichem) kann eine Vielzahl von Sensoren und eine enorme Rechenleistung des Computers erfordern, um die Umgebung sehr detailliert wahrzunehmen (d.h. zu erfassen) und Entscheidungen in Echtzeit (z.B. auf der Grundlage der erfassten Umgebung) zu treffen, selbst in komplexen Verkehrssituationen. Eine sichere Wahrnehmung und Entscheidungsfindung kann auch Backup- und Ausweichlösungen erfordern, wodurch die Redundanz von Geräten (z.B. Sensoren) und Prozessen erhöht wird. Diese Vorgänge können auch einen erhöhten Energie- und/oder Stromverbrauch erfordern, wodurch die (z.B. verfügbare) Fahrleistung des automatisierten Fahrzeugs verringert werden kann, z.B. bei einem batteriebetriebenen Elektrofahrzeug, das in einem völlig autonomen oder teilautonomen Fahrmodus betrieben wird.
  • Zur Veranschaulichung: Ein Fahrzeug mit automatisierten Fahrfunktionen kann eine Vielzahl von Sensorsystemen (z.B. von Sensorvorrichtungen) erfordern und beinhalten. Ein solches automatisiertes Fahrzeug kann auch andere Ausrüstungen zur Datenerzeugung und -verarbeitung erfordern und einschließen. Beispielsweise kann ein automatisiertes Fahrzeug Geräte zur Datenkomprimierung, Datenfusion und Datenverwaltung (z.B. Datenspeicherung, -abfrage, -kodierung, -kompilierung usw.) aufweisen. Das automatisierte Fahrzeug kann auch eine oder mehrere Recheneinrichtungen erfordern und beinhalten, die so konfiguriert sind, dass sie geeignete Befehle bestimmen (z.B. berechnen) und auswählen, z.B. Fahrbefehle für das Fahrzeug, wie z.B. Fahrzeuglenkbefehle. Insbesondere können Rechengeräte erforderlich sein, wenn das Fahren durch Verfahren des Tiefen Lernens oder andere Methoden der künstlichen Intelligenz (z.B. auf der Grundlage neuronaler Netze, neuronaler Faltungsnetze und dergleichen) unterstützt wird. Darüber hinaus wird Leistung für alle Arten der (z.B. internen oder externen) Kommunikation, wie Fahrzeug-Fahrzeug-(V2V), Fahrzeug-Umwelt-(V2X) und Intra-Fahrzeug-Kommunikation, sowie für verschiedene Anzeigefunktionen benötigt.
  • Beispielsweise können Sensorsysteme in einem automatisierten Fahrzeug einen oder mehrere Sensoren für die RADAR-Erkennung, einen oder mehrere Sensoren für die LIDAR-Erkennung, eine oder mehrere Kameras, einen oder mehrere Ultraschallsensoren, ein Inertialmesssystem (IMU), ein globales Positionierungssystem (GNSS/GPS) und ähnliches umfassen. Ein Sensorsystem kann einen Sender und einen Empfängerpfad umfassen. Die Sensorsysteme oder das Fahrzeug können zusätzliche Komponenten oder Prozessoren für Datenkompression, Sensorfusion und Datenmanagement aufweisen. Ein Fahrzeug kann mehr als einen der einzelnen Sensortypen (oder Sensorsystemtypen) aufweisen. Als Beispiel kann ein automatisiertes Fahrzeug 4 LIDARSysteme, 2 RADARSysteme, 10 Kamerasysteme und 6 Ultraschallsysteme umfassen.
  • Die Rechenleistung (mit anderen Worten: die Rechenleistung), die für die Bewältigung der von den verschiedenen Sensorsystemen erzeugten Datenmenge erforderlich ist, kann immens sein. Zur Veranschaulichung: In einem konventionellen automatisierten Fahrzeug kann man von einer Leistungsaufnahme von etwa 100 W ausgehen. Die Leistungsaufnahme kann von der im Fahrzeug eingebauten ProzessorHardware und/oder von der für die Berechnungen verwendeten Software abhängig sein (z.B. von der Berechnungsmethode, z.B. von der Methode der künstlichen Intelligenz). Abhängig von der Qualität (und den Kosten) der Fahrzeugausrüstung kann die Leistungsaufnahme sogar mehr als 100 W betragen. Darüber hinaus kann zusätzliche Leistung für die Ver und Entschlüsselung von Daten erforderlich sein.
  • Zusätzliche Ausrüstung und/oder Funktionalitäten des Fahrzeugs können den Stromverbrauch weiter erhöhen. Beispielsweise kann das Fahrzeug eine oder mehrere Einrichtungen für die Fahrzeug-Fahrzeug (V2V) und/oder Fahrzeug-Umwelt-Kommunikation (V2X) aufweisen. Als weiteres Beispiel kann das Fahrzeug ein oder mehrere Displays (wie z.B. ein Headup-Display, ein holografisches Display, einen Monitor oder ähnliches) und/oder ein oder mehrere Infotainment-Geräte zusammen mit den entsprechenden Datenkommunikationskanälen aufweisen. Als weiteres Beispiel kann das Fahrzeug Annehmlichkeiten wie Heizung, Lüftung und Klimaanlage (HVAC) aufweisen, einschließlich z.B. einer Sitzheizung im Winter, wobei diese Annehmlichkeiten sehr viel Energie verbrauchen können. Darüber hinaus kann ein automatisiertes Fahrzeug (z.B. sogar ein vollautomatisches Fahrzeug) die Erkennung und Verfolgung des Gesichts, der Augen, der Körperposition und der Gesten eines Insassen sowie die Überwachung der Anwesenheit der Insassen (z.B. nach jedem Anhalten des Fahrzeugs) und Maßnahmen gegen Einbrüche umfassen, was alles dazu führt, dass dauerhaft elektrische Energie benötigt wird. Auch Beleuchtungs- und Signalisierungsfunktionen können erforderlich und enthalten sein.
  • Besonders anspruchsvoll in Bezug auf den Stromverbrauch kann, wie oben diskutiert, das Bordrechnersystem sein, das geeignet ist, die Sensordatenströme zu verarbeiten, Sensorfusionsdaten (z.B. mit Methoden der künstlichen Intelligenz) bereitzustellen und schließlich Fahrzeugbefehle (z.B. Lenkbefehle) und/oder Hinweise für einen Fahrzeuginsassen zu erzeugen und auszugeben. Selbst wenn Cloud Computing implementiert wurde, müssen unter Umständen noch große Datenströme und zusätzliche Berechnungen verarbeitet und lokal am Fahrzeug durchgeführt werden. Beispielsweise kann geschätzt werden, dass 4 bis 6 RADAR-Systeme Datenströme von bis zu etwa 15 Mbit/s erzeugen, 1 bis 5 LIDAR-Systeme Datenströme von bis zu etwa 200 Mbit/s, 6 bis 12 Kameras Datenströme von bis zu etwa 3500 Mbit/s. Somit kann für ein automatisiertes Fahrzeug ein Datenstrom bis zu etwa 40 Gbit/s (oder etwa 19 Tbit/h) geschätzt werden. Unter Berücksichtigung typischer (z.B. durchschnittlicher) Fahrzeiten pro Tag und Jahr kann ein Datenstrom von ca. 300 TB pro Jahr (oder noch höher) geschätzt werden.
  • Daher kann unter Berücksichtigung der verschiedenen oben diskutierten Aspekte die Leistungsbelastung eines Fahrzeugs mit automatisierten Fahrfunktionen (z.B. eines autonom fahrenden Elektroautos) zwischen ca. 200 W und ca. 1 kW liegen, oder sogar noch höher, je nach Art der im Fahrzeug implementierten Technologie.
  • Verschiedene Ausführungsformen können ein Fahrzeug (z.B. ein Elektrofahrzeug, z.B. ein Fahrzeug mit automatisiertem Fahrbetrieb) mit optimierter Leistungsaufnahme (z.B. optimierter Energieverbrauch) ausstatten. Das Fahrzeug kann ein oder mehrere Sensorsysteme aufweisen. Die Betriebsart des einen oder der mehreren Sensorsysteme kann so gesteuert werden, dass eine Leistungsaufnahme (z. B. eine individuelle Leistungsaufnahme und/oder eine Gesamtleistungsaufnahme, die mit dem einen oder den mehreren Sensorsystemen verbunden ist) für einen Zustand (z. B. ein Szenario), in dem sich das Fahrzeug befindet, optimiert werden kann. Zur Veranschaulichung kann die Betriebsart gewählt werden, die eine möglichst geringe Leistungsaufnahme erfordert und gleichzeitig eine für den aktuellen Fahrzeugzustand (z.B. das aktuelle Fahr- und/oder Verkehrsszenario) geeignete Funktion des Fahrzeugs (z.B. sicheres Fahren) gewährleistet.
  • Im Zusammenhang mit dem vorliegenden Antrag, z.B. in Bezug auf 123, können die Begriffe „Energie“, „Leistung“, „Energieverbrauch“ und „Leistungsaufnahme“ verwendet werden, um zu beschreiben, was einer Komponente des Fahrzeugs (z.B. einem Sensorsystem oder einer Sensoreinrichtung) zur Verfügung gestellt oder von ihr verwendet wird. Im Zusammenhang mit der vorliegenden Anwendung kann ein reduzierter (oder erhöhter) Energie- oder Energieverbrauch einem reduzierten (oder erhöhten) Leistungs- oder Stromverbrauch entsprechen und umgekehrt.
  • Das Fahrzeug kann eine Energiequelle aufweisen, die so konfiguriert ist, dass sie Energie (z. B. elektrische Energie) an ein oder mehrere Sensorsysteme liefert. Als Beispiel kann das Fahrzeug eine Batterie aufweisen, z.B. eine Batterie, die zur Verwendung in einem Fahrzeug (z.B. in einem Elektrofahrzeug) geeignet ist. Die Energiequelle kann wiederaufladbar sein, z.B. durch Anschluss der Energiequelle an ein Ladegerät (z.B. durch Anschluss des Fahrzeugs an eine Ladestation). Die Funktion oder der Betrieb einer Energiequelle (z.B. Batteriefunktionen) kann von einer oder mehreren Eigenschaften der Energiequelle abhängig sein (z.B. von einem Zustand der Energiequelle, z.B. (stark) temperaturabhängig). So kann das Fahrzeug (z.B. ein oder mehrere Prozessoren des Fahrzeugs) für den Betrieb (z.B. zur Steuerung des einen oder der mehreren Sensorsysteme) auf der Grundlage der genannten einen oder mehreren Eigenschaften der Energiequelle konfiguriert werden, wie z.B. der Temperatur, der Restkapazität, der Ladehistorie oder anderer ähnlicher Eigenschaften.
  • Beispielsweise kann die Energiequelle einen Statussensor (z.B. einen Batteriestatussensor) aufweisen oder mit einem solchen ausgestattet sein. Der Statussensor kann so konfiguriert werden, dass er einen Zustand (d.h. einen Status) der Energiequelle erfasst (z.B. eine Temperatur, eine Restkapazität und ähnliches). Der Zustandssensor kann so konfiguriert werden, dass er den erfassten Zustand (z.B. zur Bereitstellung von Zustandsdaten, z.B. ein oder mehrere Signale, die den erfassten Zustand oder die erfassten Eigenschaften repräsentieren) an ein Fahrzeugsteuerungssystem (z.B. ein Fahrzeugsteuerungsmodul) meldet. Das Fahrzeug (z.B. ein Prozessor des Fahrzeugs oder des Fahrzeugsteuersystems) kann so konfiguriert werden, dass es eine oder mehrere Eigenschaften der Energiequelle (z.B. auf der Grundlage der Zustandsdaten) bestimmt (z.B. berechnet). Beispielsweise können ein oder mehrere Prozessoren so konfiguriert werden, dass sie einen tatsächlichen und/oder durchschnittlichen Verbrauch der Energiequelle (z.B. einen tatsächlichen und/oder durchschnittlichen Batterieverbrauch) und/oder eine Ladehistorie der Energiequelle bestimmen. Das Fahrzeug (z.B. das Fahrzeugsteuersystem) kann auch so konfiguriert werden, dass es Ladedaten (z.B. Daten, die einen Ladevorgang oder eine Ladehistorie repräsentieren), die der Energiequelle zugeordnet sind, von einem fahrzeugexternen Ladegerät (z.B. einer Ladestation), z.B. über WLAN, Bluetooth und dergleichen, empfängt.
  • Zusätzlich oder alternativ kann das Fahrzeugsteuersystem mit Informationen über eine oder mehrere vordefinierte Eigenschaften der Energiequelle, wie z. B. mit der Energiequelle verbundene Hardware-Einstellungen (z. B. Batterie-Hardware-Einstellungen), versehen werden (z. B. kann es so konfiguriert werden, dass es Informationen über eine oder mehrere vordefinierte Eigenschaften der Energiequelle empfängt). Die eine oder mehrere vordefinierte Eigenschaften können z.B. in einem Speicher des Fahrzeugsteuersystems oder in einem Speicher des Fahrzeugs gespeichert sein. Die eine oder mehrere vordefinierte Eigenschaften können z.B. Betriebsgrenzen, zulässige Ladezyklen und ähnliches umfassen.
  • In verschiedenen Ausführungsformen kann das Fahrzeugsteuerungssystem auch mit Fahrzeug-Solldaten versehen werden (z.B. kann es so konfiguriert werden, dass es Fahrzeug-Solldaten empfängt). Die Fahrzeug-Solldaten können Informationen beschreiben oder darstellen, die zur Schätzung (oder Vorhersage) eines Zustands des Fahrzeugs (z.B. zu einem späteren Zeitpunkt) verwendet werden können. Beispielsweise können die Fahrzeug-Solldaten die Zeitspanne beschreiben, für die das Fahrzeug voraussichtlich betrieben wird (z.B. vor der nächsten Ladung). Als weiteres Beispiel können die Fahrzeug-Zieldaten die Energiemenge beschreiben, die voraussichtlich für den Betrieb des Fahrzeugs benötigt wird (z.B. während der erwarteten Zeitspanne). Illustrativ können die Fahrzeug-Zieldaten Fahranweisungen (z.B. ein Zielort und/oder eine Route zum Zielort), Fahrplanziel- , Energieziel- , Verfügbarkeit von Ladestationen, Notfallsituationen und ähnliches beschreiben oder darstellen. Die Fahrzeugzieldaten können z.B. in einem Speicher des Fahrzeugsteuersystems oder in einem Speicher des Fahrzeugs gespeichert oder über eine Kommunikationsschnittstelle des Fahrzeugsteuersystems oder des Fahrzeugs zugänglich sein.
  • Verschiedene Ausführungsformen können darauf beruhen, dass für die Steuerung des Fahrzeugs möglichst wenig Energie verbraucht wird (z.B. für die Fahrzeugsteuerung), um das CO2-Äquivalent zu reduzieren und die Lebensdauer der Energiequelle zu verlängern (z.B. um die Batterielaufleistung bei einem teilweise oder vollständig autonom fahrenden Fahrzeug zu verlängern). Darüber hinaus kann eine reduzierte Leistungsaufnahme einen Ecomode in einem Fahrzeug ermöglichen, z.B. auch in einem nichtelektrisch betriebenen Fahrzeug.
  • Eine Reduzierung des Energieverbrauchs (z.B. eine Verringerung des CO2-Fußabdrucks) kann durch Prioritäts- und Optimierungseinstellungen erreicht werden. Die Prioritäts und Optimierungseinstellungen können Faktoren im Zusammenhang mit dem Energieverbrauch berücksichtigen. Die Prioritäts- und Optimierungseinstellungen können sich auf Faktoren beziehen, die mit der Leistung bestimmter Funktionalitäten (z.B. Fahrzeugfunktionalitäten) zusammenhängen. Die Prioritäts- und Optimierungseinstellungen können die Relevanz oder die relative Bedeutung eines reduzierten Energieverbrauchs in Bezug auf andere Funktionalitäten in einem aktuellen Zustand (z.B. Fahrzeugzustand) beschreiben. Illustrativ können die Prioritäts- und Optimierungseinstellungen die Relevanz einer Batterieschonung im Hinblick auf die Detektionsfähigkeit der Sensorsysteme in einem aktuellen Fahr- oder Verkehrsszenario beschreiben. In einigen Fällen können die Prioritätseinstellungen im Wesentlichen fest oder unveränderlich sein (z.B. in Fällen, in denen es um Komfortaspekte geht). In anderen Fällen, z.B. in (unkritischen) Standardsituationen (z.B. beim Fahren) oder in (kritischeren) sicherheitsrelevanten Fällen, können die Prioritätseinstellungen dynamisch sein und von verschiedenen fahrzeugexternen Faktoren abhängen (z.B. Verkehrsdichte, Fahrsituation, Wetterbedingungen, Umgebungslichtverhältnisse und dergleichen). Beispielsweise können die Prioritätseinstellungen in einer vom Fahrzeug empfangenen Verkehrskarte enthalten oder spezifiziert sein, wie weiter unten näher beschrieben wird, z.B. in Bezug auf 127 bis 130. Illustrativ können die Prioritätseinstellungen durch eine oder mehrere Sensoranweisungen beschrieben werden, die in der Verkehrskarte enthalten sind (z.B. in Verkehrskartendaten). Die Anweisungen können als Beispiel die Verkehrsrelevanz eines Objekts und/oder einen Anwesenheitswahrscheinlichkeitsfaktor eines Objekts berücksichtigen, wie z.B. in Bezug auf 85 bis 88 beschrieben.
  • Beispielsweise können in einem Fahrzeug Zusatzgeräte (z. B. Zusatzgeräte wie Unterhaltungsgeräte, Sitzheizung, Klimaanlage, Innenbeleuchtung, drahtlose Kommunikation und dergleichen) reduziert (z. B. zumindest teilweise abgeschaltet) werden, um die Strombelastung für das Fahrzeug zu verringern. Die Stromeinsparung kann sich auch auf die Einstellungen der Fahrzeugbeleuchtung (z.B. externe Fahrzeugbeleuchtung) auswirken.
  • Verschiedene Ausführungsformen können auf der Steuerung (z.B. Auswahl) der Funktionalität (d.h. des Betriebs) eines oder mehrerer Sensorsysteme (z.B. Sensorfunktionalität) und/oder der Kombination der verwendeten Sensorsysteme zur Reduzierung einer Leistungsbelastung des Fahrzeugs beruhen.
  • Zur Veranschaulichung kann eine Konfiguration des einen oder mehrerer Sensorsysteme gewählt werden (z.B. gesteuert oder verändert), um einen niedrigeren Gesamtstromverbrauch zu erreichen. Es kann eine Auswahl der zu verwendenden Sensorsysteme (oder Sensoren) bereitgestellt werden, und/oder die Einstellungen des Sensorsystems (oder der Sensoren) können geändert werden. Beispielsweise kann ein Sensor oder ein Sensorsystem abgeschaltet werden (z.B. zumindest vorübergehend). Als weiteres Beispiel können redundante Sensormessungen reduziert oder ganz weggelassen werden (z.B. können Winkelsegmente, die von zwei Sensoren oder Sensorsystemen überwacht werden, von nur einem Sensor oder Sensorsystem überwacht werden). Die Auswahl (oder die Änderung) kann in Übereinstimmung mit einem Zustand erfolgen, in dem sich das Fahrzeug befindet. Zum Beispiel kann die Auswahl von der Verkehrsdichte und/oder dem Verkehrsverhalten anderer Fahrzeuge abhängig sein. Als weiteres Beispiel kann die Auswahl in Übereinstimmung mit den Umgebungsbedingungen, wie Wetter und Umgebungsbeleuchtung, erfolgen. Als weiteres Beispiel kann die Auswahl in Übereinstimmung mit SAE-Niveaus (z.B. wie von der Society of Automotive Engineers (SAE) definiert, z.B. in SAE J30162018) erfolgen: Taxonomie und Definitionen für Begriffe im Zusammenhang mit Antriebsautomatisierungssystemen für Straßenkraftfahrzeuge).
  • Verschiedene Ausführungsformen können auf der Reduzierung oder Minimierung der Leistungsbelastung durch die Wahl eines bestausgewählten Sensorszenarios (z.B. Sensortyp, Sensorkombination und/oder Sensorbetrieb) basieren. Das gewählte Sensorszenario kann eine Datenverarbeitung mit geringerem Energieverbrauch ermöglichen (z.B. unter Berücksichtigung der späteren Rechenleistung für die Verarbeitung der im Sensorszenario erzeugten Sensordaten). Das gewählte Sensorszenario kann sich auch in einer Verkürzung der Berechnungszeit für Fahrzeugsteuerbefehle auswirken.
  • Beispielsweise kann ein RADAR-System so gesteuert werden, dass es mit reduzierter Leistung arbeitet (z. B. um weniger Leistung zu benötigen) und trotzdem einen akzeptablen Erfassungsbereich beibehält. Ein LIDAR-System kann so gesteuert werden, dass sein Sichtfeld (Field-of-View, FoV) und/oder seine Laserleistung (z.B. die Leistung des emittierten Lichts) reduziert oder begrenzt wird. Ein LIDAR-System kann auch gesteuert werden, um seine Auflösung zu reduzieren, z.B. durch Reduzierung der Laserpulsrate, der Signalabtastrate und/oder der Bildfrequenz und/oder durch die Verwendung effizienterer Datenkompressionsmechanismen (z.B. Datenkompressionsalgorithmen) oder durch verlustbehaftetere (und weniger Energie verbrauchende) Datenkompressionsmechanismen.
  • Die Änderung der Eigenschaften des Sensorsystems (z. B. eine verringerte Auflösung, eine verringerte Bildfrequenz und eine verringerte Sendeleistung) kann für das gesamte Sichtfeld dieses Sensorsystems oder für ein oder mehrere spezifische Segmente (d. h. einen Teil) des Sichtfeldes dieses Sensorsystems angewendet werden. Illustrativ kann ein Sensorsystem so gesteuert (z.B. konfiguriert) werden, dass es in einem ersten Segment des Sichtfeldes mit einer reduzierten Auflösung und in einem zweiten Segment des Sichtfeldes mit der Standardauflösung (z.B. Standardeinstellung) arbeitet. Beispielsweise können auf der Grundlage der Verkehrskartendaten (z.B. auf der Grundlage der darin enthaltenen Sensoranweisungen) ein oder mehrere Segmente des Sichtfeldes als weniger (oder mehr) relevant im Hinblick auf das aktuelle Fahr- oder Verkehrsszenario ausgewählt werden. In solchen ausgewählten Segmenten können die Sensorsystemeigenschaften entsprechend reduziert (oder erweitert) werden. Die Auswahl der Segmente kann z.B. auf einer Beurteilung einer potentiellen Gefahr beruhen, die mit einem Objekt in diesem Segment (oder in diesen Segmenten) verbunden ist, z.B. auf einer Gefahrenidentifikation, wie weiter unten näher beschrieben wird.
  • Der Datenkomprimierungsmechanismus kann die Verwendung eines Speichers zur Zwischenspeicherung von Daten beinhalten, wie weiter unten näher beschrieben wird. Ein solcher Speicher für die Zwischenspeicherung von Daten kann so konfiguriert werden, dass er Daten aus dem ursprünglichen Datenstrom speichert, wobei die gespeicherten Daten redundante oder weniger relevante (oder nicht relevante) Datenelemente enthalten können.
  • Eine Kamera (z.B. ein Kamerasystem) kann so gesteuert werden, dass ihre Bildfrequenz und Bildauflösung reduziert wird, um Energie zu sparen. Als weiteres Beispiel können eine oder mehrere Kameras anstelle von RADAR- oder LIDAR-Sensoren verwendet werden (z.B. wenn ein Fahrzeug mit niedriger Geschwindigkeit und/oder unter guten Sichtbedingungen fährt). Als weiteres Beispiel kann eine Reihe von verwendeten (z.B. aktiven) Sensorsystemen (z.B. Sensorvorrichtungen) reduziert werden. Als Beispiel können zwei LIDAR-Systeme (z.B. vorne und hinten) anstelle von vier LIDAR-Systemen (z.B. Ecke und Seite) verwendet werden.
  • In verschiedenen Ausführungsformen kann eine Datenkomprimierung implementiert werden (z.B. kann eine Datenkomprimierung angewendet werden, um die von einem oder mehreren Sensoren gelieferten Sensordaten zu komprimieren). Die Auswahl der Konfiguration des einen oder der mehreren Sensorsysteme kann in Übereinstimmung mit den verfügbaren Datenkomprimierungsmechanismen erfolgen (z.B. können verschiedene Sensorszenarien unterschiedliche Datenkomprimierungsmechanismen oder ein unterschiedliches Ausmaß der Datenkomprimierung zulassen, was zu einer unterschiedlichen Strombelastung führt).
  • Signal- und Datenverarbeitungsverfahren können eine erweiterte Reihe einzelner Prozessschritte umfassen, um aus einem Rohdatensignal zu nützlichen und verwertbaren Informationen (z.B. zur Objektklassifikation und -identifikation) zu gelangen. Zur Veranschaulichung: Ausgehend von der Signalerfassung selbst kann eine grundlegende Signalverarbeitung durchgeführt werden (z.B. Strom-Spannungs-Umwandlung, Signalverstärkung, Analog-Digital-Umwandlung, Signalfilterung, Signalmittelwertbildung, Histogrammzuordnung u.ä.). Anschließend können grundlegende Signalanalyseprozesse Techniken zur Basisliniensubtraktion, Rauschunterdrückung, Spitzen- und Amplitudendetektion, verschiedene Berechnungen (z.B. Flugzeitberechnung (TOF)) und ähnliches beinhalten oder anwenden. Das erhaltene (z.B. verarbeitete) Datum kann unter Verwendung von Techniken zur Datentransformation (z.B. in Bezug auf Datenformat, Datenauflösung und Blickwinkel als Beispiel), Datenkodierung, grundlegende oder fortgeschrittene Objektklassifizierung (z.B. Zuweisung von Bounding Boxes oder Objektüberschrift), Objekterkennung und ähnlichem weiter verarbeitet werden.
  • Während der Datenverarbeitungsschritte kann eine Datenkompression eingesetzt oder implementiert werden, um den Aufwand in den anstehenden (d.h. nachgeschalteten) Prozessschritten zu reduzieren, z.B. im Hinblick auf den Stromverbrauch und/oder den Bedarf an Datenspeicher. Die Relevanz der Auswirkungen der Datenkompression kann davon abhängen, wann (z.B. bei welchem Verarbeitungsschritt) die Datenkompression implementiert wird. Beispielsweise kann die Verringerung des Stromverbrauchs und/oder des Speicherbedarfs umso höher sein, je früher die Datenkompression in dem oben beschriebenen Datenverarbeitungsverfahren eingesetzt wird. Bei verlustbehafteten Datenkomprimierungsverfahren können jedoch umso größere mögliche Leistungsverluste auftreten, je früher die Datenkomprimierung ausgeführt wird. Daher kann nicht nur das Ausmaß der Datenkompression (verlustfreie versus verlustbehaftete Kompression) bei den oben genannten Priorisierungs- und Optimierungsentscheidungen berücksichtigt werden, sondern auch das Timing innerhalb des Signal- und Datenverarbeitungsverfahrens.
  • Verschiedene Fahrzeugbedingungen (z.B. unterschiedliche Fahr- und/oder Verkehrsszenarien) können spezielle Konfigurationen der Sensorsysteme mit einem geringeren Stromverbrauch einer Standardkonfiguration oder -einstellung (z.B. Standard) ermöglichen. Fahr- und/oder Verkehrsszenarien können z.B. Verkehrsbedingungen, Wetter, Fahrzeugtyp, Belegung des Fahrzeugs und ähnliches beinhalten oder beschreiben. Eine spezielle Konfiguration kann SAS-Einstellungen (Sensor Adjustment Settings) enthalten oder sich darauf beziehen, z.B. eine Änderung im Betrieb eines oder mehrerer Sensorsysteme oder eines oder mehrerer Sensoren. Zusätzlich oder alternativ kann eine spezielle Konfiguration eine (z.B. geänderte) Sensorkombination (SC) beinhalten oder sich darauf beziehen, z.B. bei der Aktivierung oder Deaktivierung eines oder mehrerer der Sensoren oder Sensorsysteme.
  • Beispielsweise kann bei hoher Verkehrsdichte oder bei platoonähnlichen Fahrsituationen, in denen ein Fahrzeug einem oder mehreren anderen Fahrzeugen mit im Wesentlichen konstantem Abstand (zumindest für einen Teil der vorgesehenen Strecke) folgt, das Sichtfeld und/oder die Erfassungsreichweite eines LIDAR-Systems reduziert werden, z.B. durch eine reduzierte Laserleistung (dies kann ein Beispiel für Sensor-Einstellungseinstellungen sein). Ein weiteres Beispiel ist, dass ein Fahrzeug nicht alle LIDAR-Systeme (z.B. alle LIDAR-Sensorvorrichtungen) einsetzen muss, aber z.B. die im hinteren Teil des Fahrzeugs oder die als Eck- oder Seiten-LIDAR-Systeme eingesetzten LIDAR-Systeme abgeschaltet werden können (dies kann ein Beispiel für eine Sensorkombination sein). Als weiteres Beispiel kann ein LIDAR-System bei Regen und Schneeniederschlag für einige Zeit abgeschaltet oder in den Standby-Modus versetzt werden, da es unter solchen Bedingungen weniger zuverlässig sein kann, und andere Sensortypen (z.B. RADAR) können zuverlässigere Daten liefern (dies kann ein weiteres Beispiel für Sensorkombination sein). Bei nächtlichem Fahren auf einer Autobahn kann eine Kamera (die z.B. im sichtbaren Wellenlängenbereich oder im infraroten Wellenlängenbereich arbeitet) in den meisten Fällen für die Erkennung von Fahrzeugscheinwerfern und -rücklichtern sowie für die Erkennung von Verkehrsampeln erforderlich sein. Die Kamera (oder ein Sensorarray mit Kamerapixel) kann auch einen Filter (z.B. einen optischen Bandpassfilter und/oder einen Polarisationsfilter) aufweisen, der so konfiguriert ist, dass er eine Wellenlänge (z.B. eine Farbe) des zur Kamera übertragenen Lichts auswählt, z.B. kann der Filter so konfiguriert sein, dass er Licht mit einer für das Fahren relevanten Farbe (z.B. rot, gelb/orange und dergleichen) durchlässt. Falls jedoch eine Straße leer ist, kann die Bildrate der Kamera reduziert oder die Kamera zumindest vorübergehend, z.B. für ein Zeitintervall, ausgeschaltet werden (dies kann ein weiteres Beispiel für Sensor-Einstellungseinstellungen sein). Eine Kombination aus z.B. einem RADAR-System, einem LIDAR-System und einer Kamera kann unter bestimmten Bedingungen, z.B. in der Zugsituation, für eine sichere Fahrt ausreichen, um Strom zu sparen (dies kann ein weiteres Beispiel für eine Sensorkombination sein).
  • In verschiedenen Ausführungsformen können Konfigurationsauswahldaten zur Verfügung gestellt werden. Die Konfigurationsauswahldaten können in einer Sensor-Funktionsmatrix (SFM) gespeichert (z.B. eingeschlossen) werden. Die Konfigurationsauswahldaten können eine Assoziation (d.h. eine Beziehung) zwischen einer Konfiguration des einen oder der mehreren Sensorsysteme und einem jeweiligen Fahrzeugzustand beschreiben oder darstellen. Illustrativ können die Konfigurationsauswahldaten eine optimierte Konfiguration für das eine oder die mehreren Sensorsysteme beschreiben oder aufweisen, die mit einem jeweiligen Fahrzeugzustand verknüpft ist (z.B. die zulässige Konfiguration, die den geringsten Energieverbrauch für jeden Fahrzeugzustand liefert). Als Beispiel kann die Sensorfunktionsmatrix Sensoreinstellungseinstellungen und Sensorkombinationen (und/oder den damit verbundenen individuellen und kombinierten Stromverbrauch) aufweisen, die in Abhängigkeit von einem Fahrzeugfahrszenario und den allgemeinen Verkehrsbedingungen (z.B. Verkehrsdichte, fahrende Fahrzeugtypen, Wetter und Temperatur, Tag oder Nacht, Geländefahrten, Fahren auf einem kartografierten oder nicht kartografierten Gebiet, verfügbare GPS-Daten und ähnliches) gespeichert sind.
  • Illustrativ kann die Sensorfunktionsmatrix als eine Datenbank angesehen werden, die eine Vielzahl von kombinierten Datensätzen enthält (z.B. eine Vielzahl von möglichen Konfigurationen für die Sensorsysteme, die einem jeweiligen Fahrzeugzustand zugeordnet sind). Die kombinierten Datensätze können als Fahrsensorszenario (DSS) bezeichnet werden. Die Sensorfunktionsmatrix kann eine Vielzahl solcher Fahrsensorszenarien aufweisen. Die Datensätze können z.B. aus Sensordaten (z.B. realen Fahr- und Sensordaten) gewonnen werden, die als Funktion des Fahrzeugzustands, in dem die Sensordaten erzeugt wurden, gespeichert sind. Zusätzlich oder alternativ können die Datensätze mit Hilfe von Simulationen auf der Grundlage von Sensorverwendungsmodellen gewonnen werden. Beide Ansätze zur Gewinnung der Datensätze können Techniken der künstlichen Intelligenz (z.B. neuronale Netze) beinhalten oder durch diese unterstützt werden. Die Generierung der Datensätze kann die Kombination von Daten aus einer Vielzahl von Fahrzeugen umfassen (z.B. Daten, die aus einer Vielzahl von Fahrzeugen unter verschiedenen Fahr- und Verkehrsbedingungen gewonnen wurden, Fahrzeuglasten, Fahrzeugzieldaten, Batteriestatus usw.).
  • Das Fahrzeug kann einen oder mehrere Prozessoren aufweisen (z.B. ein Rechengerät, auch als Compute Device oder Konfigurationssystem bezeichnet). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie auf die Sensor-Funktionsmatrix (SFM)-Datenbank zugreifen, die die Fahrsensor-Szenarien enthält. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Informationen über den Zustand der Energiequelle empfangen (z.B. können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie über ein Batteriemanagementsystem auf Batteriestatusdaten zugreifen).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Sensordaten empfangen (z.B. um einen oder mehrere Eingänge von den derzeit verwendeten Sensorsystemen zu empfangen). Das Rechengerät kann so konfiguriert werden, dass es auf der Grundlage der empfangenen Sensordaten einen tatsächlichen (d.h. aktuellen) Fahrzeugzustand definiert (z.B. berechnet) (z.B. ein aktuelles Fahrszenario und den Gesamtverkehrszustand ermittelt). Zur Veranschaulichung: Das Rechengerät kann so konfiguriert werden, dass es den Zusammenhang zwischen der aktuellen Konfiguration eines oder mehrerer Sensorsysteme und dem aktuellen Fahrzeugzustand bestimmt (z.B. kann das Rechengerät so konfiguriert werden, dass es das aktuelle Fahrsensor-Szenario bestimmt).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine Konfiguration für das eine oder die mehreren Sensorsysteme auswählen. Ein oder mehrere Prozessoren können so konfiguriert werden, dass die Konfiguration auf der Grundlage der abgerufenen, empfangenen und/oder ermittelten Informationen und Daten ausgewählt wird. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Konfiguration auf der Grundlage des Zustands der Energiequelle auswählen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren so konfiguriert werden, dass die Konfiguration auf der Grundlage des (z.B. tatsächlichen) Fahrzeugzustands ausgewählt wird. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine Konfiguration auswählen, die eine oder mehrere vordefinierte Bedingungen oder Kriterien erfüllt (z.B. Fahrverhalten und ethische Einstellungen, wie Sicherheitsanforderungen, ethische Anforderungen, Fahrvorschriften und dergleichen). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Konfiguration mit dem geringeren Stromverbrauch wählen, die immer noch das eine oder die mehreren vordefinierten Kriterien (z.B. vordefinierte Einstellungen) erfüllt.
  • Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie ein Fahrsensor-Szenario auswählen, das eine geringere Leistungsaufnahme als das aktuelle hat und für den aktuellen Fahrzeugzustand noch akzeptabel ist (z. B. für die aktuellen Fahrbedingungen gemäß den vordefinierten Einstellungen oder laufenden Software-Berechnungen). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie verfügbare oder kontinuierlich berechnete oder angepasste ethische Grundeinstellungen abrufen (z.B. Fahrsicherheit, Fahrverhalten, nationale Vorschriften und ähnliches). Die Auswahl des Fahrsensor-Szenarios kann auf dem Batteriestatus, dem aktuellen Fahrsensor-Szenario, dem aktuellen Fahrzeug-Fahrszenario und/oder den allgemeinen Verkehrsbedingungen basieren.
  • Zur Veranschaulichung: Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie die Auswahl des Fahrsensor-Szenarios mit einem geringeren Stromverbrauch durchführen, falls diesem Aspekt in einer bestimmten Situation eine hohe Priorität eingeräumt wurde. Das Fahrsensor-Szenario kann unter den vordefinierten Bedingungen (z.B. unter Fahr- und ethischen Bedingungen) immer noch zulässig sein. Der eine oder mehrere Prozessoren können so konfiguriert werden, dass der Prozess wiederholt wird (z.B. in periodischen Zeitintervallen, z.B. einstellbar je nach Fahrzeugzustand). Auf diese Weise kann eine Konfiguration mit noch geringerem Stromverbrauch bestimmt und ausgewählt werden. Für den Fall, dass der eine oder die mehreren Prozessoren kein (z.B. zulässiges) Fahrsensor-Szenario mit geringerem Stromverbrauch bestimmen oder finden können, kann die Konfiguration des einen oder der mehreren Sensorsysteme unverändert bleiben.
  • In verschiedenen Ausführungsformen können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie den mit der Sensordatenverarbeitung verbundenen Stromverbrauch in einer Konfiguration des einen oder der mehreren Sensorsysteme bestimmen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen Stromverbrauch bestimmen, der mit dem Sensordaten-Verwaltungssystem und mit den nachfolgenden Berechnungen des Rechenprozessors, z.B. einschließlich neuronaler Algorithmen, verbunden ist.
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Leistungsaufnahme messen, die mit der Sensordatenverarbeitung in der aktuellen Konfiguration des einen oder der mehreren Sensorsysteme verbunden ist (z.B. in Verbindung mit dem aktuellen Fahrzeugzustand). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Leistungsaufnahme messen, die mit der Sensordatenverarbeitung im aktuellen Fahrsensor-Szenario verbunden ist (z.B. in Verbindung mit dem aktuellen Fahrzeugzustand).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie den mit der Sensordatenverarbeitung verbundenen Stromverbrauch in der gewählten Konfiguration oder in einer zu wählenden Konfiguration des einen oder der mehreren Sensorsysteme (z. B. in Verbindung mit einem neuen oder geschätzten Fahrzeugzustand) abschätzen (oder simulieren). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie den Stromverbrauch messen, der mit der Sensordatenverarbeitung in dem gewählten oder zu wählenden Fahrsensor-Szenario verbunden ist.
  • So können ein oder mehrere Prozessoren so konfiguriert werden, dass sie eine Leistungslast für ein gegebenes Treibersensor-Szenario plus anschließende Rechenleistung (z. B. Rechenleistung) messen oder schätzen (oder simulieren). Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie in Abhängigkeit von der gemessenen oder geschätzten Rechenleistung eine andere Konfiguration wählen (z.B. ein anderes Treibersensor-Szenario). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine Konfiguration finden und/oder auswählen, die eine geringere Leistungsbelastung bietet (z.B. wenn die Rechenleistung einen vordefinierten Schwellenwert überschreitet, wie z.B. 10% der Leistungsaufnahme des einen oder der mehreren Sensorsysteme, z.B. 20%). Dies kann zu einer Verringerung der Gesamtleistungslast führen.
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren so konfiguriert sein, dass sie Informationen und/oder Daten von einem systemexternen (z.B. fahrzeugexternen) Gerät (z.B. einem Verkehrsüberwachungsgerät, einem Anbieter von Verkehrskarten, , einem anderen Fahrzeug und dergleichen) empfangen. Die empfangenen Informationen können einen Vorschlag für eine auszuwählende Konfiguration aufweisen (z.B. einen Vorschlag für die besten Fahrsensor-Szenarien). Der eine oder die mehreren Prozessoren können somit extern bereitgestellte (und zertifizierte) Anweisungen (z.B. Fahranweisungen) anstelle der selbst erstellten Anweisungen verwenden. Dies kann die Verwendung intelligenter Fahrmethoden (z.B. des z.B. in Bezug auf 85 bis 88 beschriebenen intelligenten Navigationssystems) einschließen, z.B. Informationen, die von früheren Fahrzeugfahrten auf denselben Straßen oder in denselben Gebieten abgeleitet wurden. Zusätzlich oder alternativ kann dies die Verwendung von mehrdimensionalen Verkehrskarten (z.B. GPS-codierte Verkehrskarten, wie z.B. Karten zur Verkehrsdichte und/oder Karten zur Wahrscheinlichkeit der Verkehrsdichte und/oder Karten zu Verkehrsereignissen) einschließen, wie nachstehend näher beschrieben, z.B. in Bezug auf 127 bis 130.
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren so konfiguriert werden, dass zusätzliche Maßnahmen zur Reduzierung des Stromverbrauchs implementiert werden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen oder mehrere Befehle oder Konfigurationen für andere Geräte oder Komponenten des Fahrzeugs bestimmen (und ausgeben). Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie andere Fahrzeugsteuerungsoptionen (VCO) einsetzen. Beispielsweise können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Fahrbahn des Fahrzeugs ändern, z.B. von der Autobahn auf die Autobahn oder von einer Geländefahrt auf eine eher städtische Verkehrssituation. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Fahrzeuggeschwindigkeit reduzieren (tatsächlich oder für geplante Kontrollaktionen) und/oder die Anzahl der Spurwechsel und/oder Überholmanöver zur Umgehung anderer Fahrzeuge reduzieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass das Fahren des Fahrzeugs von einer höheren SAE-Stufe auf eine niedrigere SAE-Stufe umgeschaltet wird (z.B. ein weniger automatisiertes oder weniger autonomes Fahren). Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Fahrzeugplatzierung nutzen, um Energie zu sparen. Als weiteres Beispiel können der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Fahrzeuglenkung in Abhängigkeit von der Fahrzeuglast modifizieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie die Fahrzeuggeschwindigkeit reduzieren und die Beschleunigungswerte minimieren. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie ein Verfahren der künstlichen Intelligenz in eine andere mit geringerem Energieverbrauch ändern. Ein weiteres Beispiel: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie ethische Codes oder Einstellungen ändern (z.B. die Wahl zwischen sehr sicher, Standard, weniger aggressiv, aggressiver).
  • 123 zeigt ein Fahrzeug 12300 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das Fahrzeug 12300 kann wie beschrieben konfiguriert werden, z.B. in Bezug auf 81 bis 84 (z.B. kann das Fahrzeug 12300 als Fahrzeug 8100 konfiguriert sein oder konfiguriert werden). Das Fahrzeug 12300 kann eine Fahrzeugkarosserie aufweisen (z.B. die Fahrzeugkarosserie 8102). Das Fahrzeug 12300 kann ein autonomes oder automatisiertes Fahrzeug sein (z.B. kann das Fahrzeug 12300 autonome Fahrfähigkeiten haben). Als Beispiel kann das Fahrzeug 12300 ein automatisiertes Fahrsystem aufweisen. Das Antriebsautomatisierungssystem kann so konfiguriert sein, dass es den vollständig oder teilweise autonomen Antrieb des Fahrzeugs 12300 realisiert. Das Fahrzeug 12300 kann ein Elektrofahrzeug sein.
  • Das Fahrzeug 12300 kann ein oder mehrere Sensorsysteme 12302 aufweisen. Das Fahrzeug 12300 kann eine Vielzahl von Sensorsystemen 12302 aufweisen. Das eine oder die mehreren Sensorsysteme 12302 können so konfiguriert werden, dass sie Sensordaten erzeugen. Das eine oder die mehreren Sensorsysteme 12302 können so konfiguriert werden, dass sie die Umgebung des Fahrzeugs 12300 erfassen (z. B. können die Sensordaten die Umgebung des Fahrzeugs 12300 beschreiben). Zum Beispiel können das eine oder die mehreren Sensorsysteme 12302 ein oder mehrere RADAR-Systeme, ein oder mehrere Kamerasysteme (z.B. eine oder mehrere Kameras), ein oder mehrere LIDAR-Systeme (z.B. das LIDAR-Sensorsystem 10) oder ein oder mehrere Ultraschallsysteme umfassen. Jedes Sensorsystem 12302 kann einen oder mehrere Sensoren aufweisen. Als Beispiel kann ein LIDAR-System einen LIDAR-Sensor 52 aufweisen.
  • Die Sensordaten können auch sensorsystemspezifische Informationen aufweisen oder beschreiben. Beispielsweise können die von einem Sensorsystem 12302 erzeugten Sensordaten einen dem jeweiligen Sensorsystem 12302 zugeordneten Stromverbrauch (und/oder einen Energieverbrauch) aufweisen oder beschreiben. Als weiteres Beispiel können die Sensordaten auch den Status eines oder mehrerer Sensoren des jeweiligen Sensorsystems 12302 aufweisen oder beschreiben (z.B. wie viele Sensoren aktiv sind, den mit jedem Sensor verbundenen Energieverbrauch, eine eventuelle Fehlfunktion des einen oder der mehreren Sensoren usw.). Die Sensordaten können eine individuelle Leistungsaufnahme in Verbindung mit dem einen oder mehreren Sensorsystemen 12302 (z.B. jedes Sensorsystems 12302) und/oder eine Gesamtleistungsaufnahme (mit anderen Worten: kombiniert) in Verbindung mit dem einen oder mehreren Sensorsystemen 12302 beschreiben.
  • Das Fahrzeug 12300 kann mindestens eine Energiequelle 12304 aufweisen. Die Energiequelle 12304 kann so konfiguriert werden (z.B. kann sie verwendet werden), dass sie Energie (z.B. elektrische Energie) an das eine oder mehrere Sensorsysteme 12302 liefert. Die Energiequelle 12304 kann wiederaufladbar sein (z.B. aufladbar). Die Energiequelle 12304 kann eine Batterie (oder eine Vielzahl von Batterien oder Batteriezellen) sein oder aufweisen. Die Energiequelle 12304 kann so konfiguriert werden, dass sie Energie für das Fahrzeug 12300 (z.B. für andere Komponenten oder Geräte des Fahrzeugs 12300) liefert.
  • Das Fahrzeug 12300 kann ein Energiequellenmanagementsystem 12306 (z.B. ein Batteriemanagementsystem) aufweisen. Das Energiequellenmanagementsystem 12306 kann so konfiguriert werden, dass es einen Zustand (d.h. einen Status) der Energiequelle 12304 ermittelt (z.B. abtastet). Das Energiequellen-Verwaltungssystem 12306 kann so konfiguriert werden, dass es Energiequellendaten ermittelt, die den Zustand der Energiequelle 12304 beschreiben. Das Energiequellen-Verwaltungssystem 12306 (oder die Energiequelle 12304 selbst) kann einen oder mehrere Sensoren (z.B. Batteriesensoren) aufweisen, die so konfiguriert sein können, dass sie ein oder mehrere Signale auf der Grundlage des Zustands der Energiequelle 12304 erzeugen. Als Beispiel kann das Energiequellen-Verwaltungssystem 12306 einen Temperatursensor und/oder einen Ladesensor aufweisen.
  • Der Zustand der Energiequelle 12304 kann eine oder mehrere Eigenschaften der Energiequelle 12304 beschreiben (z.B. eine oder mehrere aktuelle Eigenschaften und/oder eine oder mehrere vorbestimmte Eigenschaften). Als Beispiel kann der Zustand der Energiequelle 12304 eine Temperatur der Energiequelle 12304 beschreiben. Als weiteres Beispiel kann der Zustand der Energiequelle 12304 einen Ladezustand der Energiequelle 12304 beschreiben (z.B. ausgedrückt z.B. als Prozentsatz einer Energiespeicherkapazität der Energiequelle 12304). Als weiteres Beispiel kann der Zustand der Energiequelle 12304 eine Restkapazität der Energiequelle 12304 beschreiben. Als ein weiteres Beispiel kann der Zustand der Energiequelle 12304 eine Ladegeschichte der Energiequelle 12304 beschreiben (z.B. wie viele Lade- und/oder Entladezyklen für die Energiequelle 12304 durchgeführt wurden).
  • Das Fahrzeug 12300 kann einen oder mehrere Prozessoren 12308 aufweisen (auch als Rechengerät oder Konfigurationssystem bezeichnet). Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die von dem einen oder den mehreren Sensorsystemen 12302 erzeugten Sensordaten empfangen. Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die Daten der Energiequelle empfangen, die den Zustand der Energiequelle 12304 beschreiben.
  • Beispielsweise können der eine oder die mehreren Prozessoren 12308 kommunikativ mit dem einen oder den mehreren Sensoren 12302 gekoppelt sein (z. B. können der eine oder die mehreren Sensoren 12302 so konfiguriert werden, dass sie die Sensordaten an den einen oder die mehreren Prozessoren 12308 liefern). Der eine oder die mehreren Prozessoren 12308 können kommunikativ mit dem Energiequellen-Verwaltungssystem 12306 gekoppelt werden (z.B. kann das Energiequellen-Verwaltungssystem 12306 so konfiguriert werden, dass es die Energiequellendaten an den einen oder die mehreren Prozessoren 12308 liefert).
  • Als weiteres Beispiel kann das Fahrzeug 12300 ein Fahrzeugsteuerungssystem 12310 aufweisen. Das Fahrzeugsteuerungssystem 12310 kann eine Schnittstelle zwischen dem einen oder mehreren Prozessoren 12308 und dem einen oder mehreren Sensoren 12302 und/oder dem Energiequellenmanagementsystem 12306 bereitstellen oder eine solche sein. Zur Veranschaulichung: Das Fahrzeugsteuersystem 12310 kann so konfiguriert werden, dass es die Sensordaten und/oder die Daten der Energiequelle empfängt und die empfangenen Daten an den einen oder die mehreren Prozessoren 12308 liefert.
  • Das Fahrzeugsteuerungssystem 12310 kann so konfiguriert werden, dass es dem einen oder mehreren Prozessoren 12308 andere (z. B. zusätzliche) Daten zur Verfügung stellt. Das Fahrzeugsteuerungssystem 12310 kann so konfiguriert werden, dass es Fahrzeugzieldaten an den einen oder die mehreren Prozessoren 12308 liefert. Die Fahrzeug-Solldaten können vordefinierte oder vorhergesagte Informationen in Bezug auf das Fahrzeug 12300 beschreiben. Beispielsweise können die Fahrzeug-Zieldaten Fahranweisungen, Fahrplan-Zielort, Energie-Zielort, Verfügbarkeit von Ladestationen oder Notfallsituationen (z.B. entlang der aktuellen Route des Fahrzeugs) beschreiben. Die Fahrzeugzieldaten können in einem Speicher 12312 des Fahrzeugs 12300 oder des Fahrzeugsteuerungssystems 12310 gespeichert werden. Die Fahrzeug-Solldaten können dem Fahrzeugsteuersystem 12310 von einem anderen Gerät oder System des Fahrzeugs 12300 (z.B. einem Fahrsystem oder einem zentralen Steuersystem) zur Verfügung gestellt werden.
  • Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass eine Konfiguration für (oder von) dem einen oder den mehreren Sensorsystemen 12302 ausgewählt werden kann. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die Betriebsart des einen oder der mehreren Sensorsysteme 12302 bestimmen (z.B. steuern). Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie das eine oder die mehreren Sensorsysteme 12302 so steuern, dass das eine oder die mehreren Sensorsysteme 12302 in der gewählten Konfiguration arbeiten.
  • Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass die Konfiguration für das eine oder die mehreren Sensorsysteme 12302 ausgewählt werden kann, um den Stromverbrauch (z. B. den Energieverbrauch) des einen oder der mehreren Sensorsysteme 12302 zu reduzieren. Die Leistungsaufnahme kann eine individuelle Leistungsaufnahme oder eine kombinierte Leistungsaufnahme des einen oder der mehreren Sensorsysteme 12302 sein. Zur Veranschaulichung: Das eine oder die mehreren Sensorsysteme 12302, die in der gewählten (z.B. neuen) Konfiguration betrieben werden, können eine geringere Leistungsaufnahme (einzeln und/oder kombiniert) im Vergleich zu dem einen oder den mehreren Sensorsystemen 12302 haben, die in der vorherigen Konfiguration (z.B. einer Standard- oder Standardkonfiguration) betrieben wurden.
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass die Konfiguration auf der Grundlage des Zustands der Energiequelle 12304 ausgewählt wird (z. B. auf der Grundlage der Temperatur der Energiequelle 12304 und/oder auf der Grundlage der Restkapazität der Energiequelle). Beispielsweise können der eine oder mehrere Prozessoren 12308 konfiguriert werden, um die (z.B. neue) Konfiguration auszuwählen, falls die Temperatur der Energiequelle 12304 zu hoch ist (z.B. über einem vorgegebenen Schwellenwert). Die gewählte Konfiguration kann sicherstellen, dass die Temperatur der Energiequelle 12304 reduziert wird. Als weiteres Beispiel können der eine oder mehrere Prozessoren 12308 so konfiguriert werden, dass die Konfiguration ausgewählt wird, falls die Restkapazität der Energiequelle 12304 nicht ausreicht, um ein Ziel zu erreichen.
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass sie die Konfiguration auf der Grundlage eines Fahrzeugzustands auswählen (z. B. auf der Grundlage eines Zustands oder eines Szenarios, in dem sich das Fahrzeug 12300 befindet, z. B. eines aktuellen oder tatsächlichen Zustands).
  • Der Fahrzeugzustand kann ein Fahrszenario beinhalten (auch als Fahrstatus bezeichnet). Das Fahrszenario kann einen oder mehrere fahrzeugspezifische Zustände beschreiben oder darstellen (z.B. einen oder mehrere fahrzeugbezogene oder fahrzeuginterne Zustände). Veranschaulichend kann das Fahrszenario einen oder mehrere Zustände beschreiben oder darstellen, die durch das Fahrzeug 12300 oder durch einen Insassen des Fahrzeugs 12300 beherrschbar sein können. Als Beispiel kann das Fahrszenario die Geschwindigkeit des Fahrzeugs 12300 beschreiben (z.B. kann die eine oder mehrere Bedingungen aufweisen) (z.B. die Geschwindigkeit, mit der das Fahrzeug 12300 gerade fährt). Als weiteres Beispiel kann das Fahrszenario die Belegung des Fahrzeugs 12300 beschreiben (z.B. wie viele Insassen sich derzeit im Fahrzeug 12300 befinden). Als ein weiteres Beispiel kann das Fahrszenario den Fahrmodus oder die Fahreinstellungen des Fahrzeugs 12300 beschreiben (z.B. einen Platooning-Modus).
  • Der Fahrzeugzustand kann einen Verkehrszustand umfassen (z. B. einen Gesamtverkehrszustand, auch als Umwelteinstellungen bezeichnet). Der Verkehrszustand kann einen oder mehrere fahrzeugexterne Zustände beschreiben oder darstellen (z.B. einen oder mehrere Zustände in Bezug auf die Umgebung des Fahrzeugs 12300). Zur Veranschaulichung: Die Verkehrsbedingung kann eine oder mehrere Bedingungen beschreiben, die vom Fahrzeug 12300 oder einem Insassen des Fahrzeugs 12300 nicht kontrollierbar (oder nicht direkt unter Kontrolle) sind. Als Beispiel kann die Verkehrsbedingung eine Verkehrsdichte und/oder eine Hindernisdichte (z.B. eine Anzahl von fahrzeugexternen Objekten, die sich in einem Sichtfeld von mindestens einem der einen oder mehreren Sensorsysteme 12302 befinden) beschreiben (z.B. können die eine oder mehrere Bedingungen eine Verkehrsdichte und/oder eine Hindernisdichte beinhalten). Als weiteres Beispiel kann die Verkehrsbedingung ein Verhalten anderer Fahrzeuge beschreiben (z.B. die Geschwindigkeit anderer Fahrzeuge und/oder den Abstand zwischen dem Fahrzeug 12300 und einem oder mehreren anderen Fahrzeugen). Die Verkehrsbedingung kann z.B. einen Abstand zwischen dem Fahrzeug 12300 und einem fahrzeugexternen Objekt beschreiben, das sich in einem Sichtfeld von mindestens einem der einen oder mehreren Sensorsysteme 12302 befindet. Als weiteres Beispiel kann die Verkehrsbedingung eine atmosphärische Bedingung beschreiben (z.B. das aktuelle Wetter). Als weiteres Beispiel kann die Verkehrsbedingung eine Beleuchtungsbedingung beschreiben (z.B. Tageslichtbedingungen oder Nachtbedingungen).
  • Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die Konfiguration für das eine oder die mehreren Sensorsysteme 12302 auswählen, falls das Fahrszenario und der Verkehrszustand darauf hindeuten, dass reduzierte Erfassungsfähigkeiten im aktuellen Fahrzeugzustand ausreichend sein können (z. B. wenn das Fahrzeug mit niedriger Geschwindigkeit oder in einer dichten Verkehrssituation oder bei guten Sichtverhältnissen usw. fährt).
  • Die Konfiguration kann eine Sensorkombination aufweisen. Die Sensorkombination kann beschreiben (z.B. die Konfiguration kann enthalten), welche Sensorsysteme 12302 aktiv bleiben sollen (z.B. welche Sensorsysteme 12302 im aktuellen Fahrzeugzustand ausreichend sein können). Die Sensorkombination kann eine Anzahl von Sensorsystemen 12302 beschreiben, die deaktiviert werden sollen (z.B. ausgeschaltet werden sollen). Zur Veranschaulichung: Die Sensorkombination kann eine erste Anzahl von Sensorsystemen 12302 beschreiben, die aktiv bleiben sollen (z.B. um weiterhin Sensordaten zu erzeugen). Die Sensorkombination kann eine zweite Anzahl von Sensorsystemen 12302 beschreiben, die inaktiv werden sollen (z.B. um die Generierung von Sensordaten zu beenden).
  • Die Sensorkombination kann eine Anzahl von Sensorsystemen 12302 beschreiben, die einer Depriorisierung unterzogen werden sollen (z.B. kann die mit solchen Sensorsystemen12302 verbundene Priorität im Vergleich zu anderen Sensorsystemen 12302 reduziert werden). Zur Veranschaulichung: Die Sensorkombination kann eine erste Anzahl von Sensorsystemen 12302 beschreiben, denen keine Priorität eingeräumt werden soll. Die Sensorkombination kann eine zweite Anzahl von Sensorsystemen 12302 beschreiben, denen Priorität eingeräumt werden soll. Die Änderung der Priorisierung kann den Effekt eines reduzierten Stromverbrauchs haben (z.B. in Bezug auf den Verbrauch von Rechenleistung im Zusammenhang mit der Datenverarbeitung). Beispielsweise könnte bei Regen und geringer Geschwindigkeit in der Nacht ein Radar die höchste Priorität haben, während tagsüber bei gutem Wetter und bei mittlerer Geschwindigkeit die Daten der Kamerasensoren höhere Priorität haben könnten. Die Eigenschaften (z.B. Auflösung, Bildrate und/oder Sendeleistung) eines Sensorsystems mit niedriger Priorität können im Vergleich zu den Eigenschaften eines Sensorsystems mit hoher Priorität stärker reduziert werden.
  • Die Konfiguration kann Einstellungen zur Sensoranpassung aufweisen. Die Sensoreinstellungseinstellungen können (z.B. kann die Konfiguration) eine oder mehrere (z.B. reduzierte) Sensoreinstellungen für das eine oder mehrere Sensorsysteme 12302 beschreiben (z.B. für ein Sensorsystem 12302 oder für mehr als ein Sensorsystem 12302 oder für alle Sensorsysteme 12302). Als Beispiel können die Sensoreinstellungen eine (z.B. reduzierte) Datenerfassungsrate des einen oder mehrerer Sensorsysteme 12302 umfassen (z.B. eine reduzierte Datenerfassungsrate in Bezug auf die aktuelle Datenerfassungsrate). Als weiteres Beispiel können die Sensoreinstellungen eine (z.B. reduzierte) Auflösung des einen oder der mehreren Sensorsysteme 12302 beinhalten (z.B. eine reduzierte) Auflösung des einen oder der mehreren Sensorsysteme 12302. Als weiteres Beispiel können die Sensoreinstellungen eine (z.B. reduzierte) Lichtemissionsleistung des einen oder der mehreren Sensorsysteme 12302 beinhalten.
  • Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie den Fahrzeugzustand zumindest teilweise auf der Grundlage der (z. B. generierten) Sensordaten bestimmen. Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie das Fahrszenario und/oder den Verkehrszustand zumindest teilweise auf der Grundlage der Sensordaten bestimmen. Der eine oder die mehreren Prozessoren 12308 können beispielsweise so konfiguriert werden, dass sie eine Verkehrsdichte auf der Grundlage der Sensordaten von einem LIDAR-System und/oder von einem Kamerasystem bestimmen. Ein weiteres Beispiel ist, dass der eine oder die mehreren Prozessoren 12308 so konfiguriert werden können, dass sie das Verhalten anderer Fahrzeuge aus Zeitüberschreitungsmessungen eines LIDAR-Systems bestimmen. Als weiteres Beispiel können der eine oder die mehreren Prozessoren 12308 so konfiguriert werden, dass sie eine Geschwindigkeit des Fahrzeugs 12300 aus RADAR- und/oder LIDAR-Messungen bestimmen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 12308 konfiguriert werden, um den Fahrzeugzustand auf der Grundlage zusätzlicher Informationen oder Daten zu bestimmen (z.B. auf der Grundlage der Fahrzeug-Solldaten oder anderer Daten, die von anderen Systemen oder Geräten des Fahrzeugs 12300 geliefert werden).
  • Der eine oder mehrere Prozessoren 12308 können kommunikativ mit einer Sensor-Funktionsmatrix-Datenbank 12314 gekoppelt werden. Die Sensor-Funktionsmatrix-Datenbank 12314 kann z.B. in einem Speicher des Fahrzeugs 12300 oder des einen oder der mehreren Prozessoren 12308 gespeichert werden. Die Sensor-Funktionsmatrix-Datenbank 12314 kann z.B. eine Vielzahl von Konfigurationen für das eine oder die mehreren Sensorsysteme 12302 speichern (z.B. einschließen). Jede Konfiguration kann mit einem entsprechenden Fahrzeugzustand verknüpft sein (z.B. kann jede Konfiguration als Funktion eines damit verknüpften Fahrzeugzustands gespeichert werden). Zur Veranschaulichung: Die Sensor-Funktionsmatrix-Datenbank 12314 kann eine Vielzahl von Datensätzen (z.B. von Konfigurationsauswahldaten) aufweisen, die eine Beziehung zwischen einem Fahrzeugzustand und einer Konfiguration des einen oder der mehreren Sensorsysteme 12302 beschreiben, die für diesen spezifischen Fahrzeugzustand auszuwählen sind. Die zugehörige Konfiguration kann die Konfiguration des einen oder der mehreren Sensorsysteme 12302 sein, die den geringsten Stromverbrauch für diesen spezifischen Fahrzeugzustand liefert und dennoch zufriedenstellende Erfassungsfähigkeiten bietet.
  • Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die Konfiguration für das eine oder die mehreren Sensorsysteme 12302 aus den mehreren Konfigurationen auswählen, die in der Sensor-Funktionsmatrix-Datenbank 12314 gespeichert sind. Die Auswahl kann auf dem ermittelten Fahrzeugzustand basieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie den Fahrzeugzustand bestimmen und dann die zugehörige Konfiguration aus der Sensor-Funktionsmatrix-Datenbank 12314 abrufen.
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass sie eine Datenkompression (z. B. einen Datenkompressionsmechanismus oder -algorithmus) für die Sensordaten implementieren. Die Datenkompression kann den Stromverbrauch des einen oder der mehreren Sensorsysteme 12302 (z.B. die zugehörige Rechenleistung) weiter reduzieren. Die Konfiguration kann einen Datenkomprimierungsmechanismus aufweisen, um die von dem einen oder den mehreren Sensorsystemen 12302 erzeugten Sensordaten zu komprimieren (zur Veranschaulichung: für das eine oder die mehreren Sensorsysteme 12302, die in der gewählten Konfiguration aktiv sind).
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass sie einen rechnerischen Energieverbrauch (z. B. zur Messung oder Vorhersage) bestimmen (z. B. zur Messung oder Vorhersage), der mit der Erzeugung der Sensordaten in der gewählten Konfiguration verbunden ist. Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie eine andere Konfiguration wählen, falls der ermittelte Rechenenergieverbrauch einen vordefinierten Schwellenwert überschreitet. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie bestimmen, ob die von dem einen oder den mehreren (z.B. aktiven) Sensorsystemen 12302 und den damit verbundenen Berechnungen bereitgestellte Leistungslast reduziert werden kann (z.B. in einer anderen Konfiguration, in der andere Sensorsysteme 12302 aktiv sind und somit mit anderen zugehörigen Berechnungen).
  • Der eine oder mehrere Prozessoren 12308 können konfiguriert werden, um festzustellen, ob die ausgewählte Konfiguration ein oder mehrere vordefinierte Kriterien erfüllt. Das eine oder die mehreren vordefinierten Kriterien können Fahrverhalten und/oder ethische Einstellungen (z.B. in Bezug auf Fahrvorschriften, Sicherheitsvorschriften und dergleichen) beinhalten oder beschreiben. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie bestimmen, ob die gewählte Konfiguration gemäß den Fahr- und/oder ethischen Standards zulässig ist (z.B. ob die in der gewählten Konfiguration vorgesehenen Erfassungsmöglichkeiten die Einhaltung der genannten Standards gewährleisten). Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie eine andere Konfiguration wählen, falls die gewählte Konfiguration das eine oder die mehreren vordefinierten Kriterien nicht erfüllt. Der eine oder die mehreren Prozessoren 12308 können z.B. so konfiguriert werden, dass sie eine andere Konfiguration wählen, die eine gleiche oder ähnliche (z.B. sogar höhere) Leistungsaufnahme wie die (z.B. zuvor) gewählte Konfiguration bietet, die aber das eine oder die mehreren vordefinierten Kriterien erfüllt. Die vordefinierten Kriterien können in einem Speicher 12316 des Fahrzeugs 12300 oder des Fahrzeugsteuersystems 12310 gespeichert werden. Die vordefinierten Kriterien können dem Fahrzeugsteuersystem 12310 durch ein anderes Gerät oder System des Fahrzeugs 12300 (z.B. ein zentrales Steuersystem) zur Verfügung gestellt werden.
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass die Auswahl der Konfiguration in periodischen Zeitintervallen wiederholt wird (z.B. alle 30 Sekunden, jede Minute oder alle zehn Minuten). Durch die Wiederholung der Auswahl der Konfiguration kann sichergestellt werden, dass eine Konfiguration mit geringerer Leistungsaufnahme für den tatsächlichen (z.B. aktualisierten) Fahrzeugzustand bereitgestellt werden kann. Die Zeitintervalle können angepasst werden, z.B. auf der Grundlage des Fahrzeugzustands. Im Falle eines sich schnell ändernden Szenarios (z. B. eine Straße mit vielen Kurven, viele andere Fahrzeuge usw.) können die Zeitintervalle beispielsweise kurz sein (z. B. weniger als eine Minute oder weniger als 30 Sekunden). Ein weiteres Beispiel: Bei einem eher statischen Szenario (z.B. eine leere Straße, ein Verkehrsstau usw.) können die Zeitintervalle lang sein (z.B. länger als eine Minute oder länger als fünf Minuten).
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass sie ein oder mehrere andere Geräte 12318 (z.B. andere Fahrzeugausrüstung) steuern. Die eine oder mehrere andere Einrichtung(en) 12318 kann/können Fahrzeughilfseinrichtungen, eine Beleuchtungseinrichtung, eine Signaleinrichtung, eine Fahrzeug-Fahrzeug-Kommunikationseinrichtung, eine Fahrzeug-Umwelt-Kommunikationseinrichtung, Heizung und Klimaanlage und dergleichen umfassen. Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die eine oder die mehreren anderen Einrichtungen 12318 steuern (z. B. ausschalten oder mit reduzierten Einstellungen arbeiten), um den Gesamtstromverbrauch des Fahrzeugs 12300 zu verringern.
  • Der eine oder mehrere Prozessoren 12308 können so konfiguriert werden, dass sie Fahrbefehle für (und/oder an) das Fahrzeug 12300 liefern. Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie Fahrzeug-Steuerungsoptionen steuern (z.B. einstellen). Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die Geschwindigkeit des Fahrzeugs 12300 anpassen (z.B. reduzieren), das Fahrzeug 12300 so steuern, dass es die Fahrspur wechselt, den Fahrmodus des Fahrzeugs 12300 steuern und ähnliches. Solche Fahrbefehle können weiter dazu beitragen, den Gesamtstromverbrauch des Fahrzeugs 12300 zu reduzieren.
  • Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie Daten von einem fahrzeugexternen- Gerät 12320 (z. B. einem fahrzeugexternen Objekt) empfangen, z. B. über eine Kommunikationsschnittstelle 12322 des Fahrzeugs 12300 oder des einen oder der mehreren Prozessoren 12308. Der eine oder die mehreren Prozessoren 12308 können so konfiguriert werden, dass sie die Konfiguration auf der Grundlage der empfangenen Daten auswählen. Das fahrzeugexterne Gerät 12320 kann z.B. ein Verkehrsleitsystem oder eine Verkehrsleitstelle sein, die z.B. Informationen über die aktuelle Verkehrssituation liefert. Das fahrzeugexterne Gerät 12320 kann z.B. ein anderes Fahrzeug sein. Die empfangenen Daten können die Auswahl der Konfiguration leiten (z.B. können sie den Fahrzeugzustand beschreiben). Zusätzlich oder alternativ können die empfangenen Daten die auszuwählende Konfiguration aufweisen.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 123 beschrieben, können mit den Ausführungsformen der intelligenten Navigation, wie unter Bezugnahme auf 85 bis 88 beschrieben, kombiniert werden.
  • Verschiedene Ausführungsformen, wie unter Bezugnahme auf 123 beschrieben, können mit den Ausführungsformen der intelligenten Navigation, wie unter Bezugnahme auf 127 bis 130 beschrieben, kombiniert werden. Als Beispiel können die Informationen der Verkehrskarte(n) der Ausführungsformen, wie unter Bezugnahme auf 127 bis 130 beschrieben, als Eingabedaten (Eingabeinformationen) in den Ausführungsformen, wie unter Bezugnahme auf 123 beschrieben, verwendet werden.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1t ist ein Fahrzeug mit einem oder mehreren Sensorsystemen, die so konfiguriert sind, dass sie Sensordaten erzeugen. Das Fahrzeug kann mindestens eine Energiequelle aufweisen, die so konfiguriert ist, dass sie das eine oder die mehreren Sensorsysteme mit Energie versorgt. Das Fahrzeug kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie einen Fahrzeugzustand zumindest teilweise auf der Grundlage der erzeugten Sensordaten bestimmen. Der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie eine Konfiguration für das eine oder die mehreren Sensorsysteme auf der Grundlage eines Zustands der mindestens einen Energiequelle und auf der Grundlage des Fahrzeugzustands auswählen.
    • In Beispiel 2t kann der Gegenstand von Beispiel 1t optional beinhalten, dass der eine oder mehrere Prozessoren kommunikativ mit einer Sensor-Funktionsmatrix-Datenbank gekoppelt sind. Die Sensor-Funktionsmatrix-Datenbank kann eine Vielzahl von Konfigurationen für das eine oder die mehreren Sensorsysteme speichern, wobei jede Konfiguration mit einem entsprechenden Fahrzeugzustand verknüpft ist.
    • In Beispiel 3t kann der Gegenstand von Beispiel 2t optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie die Konfiguration für das eine oder die mehreren Sensorsysteme aus der Vielzahl von Konfigurationen auswählen, die in der Sensor-Funktionsmatrix-Datenbank gespeichert sind, basierend auf dem ermittelten Fahrzeugzustand.
    • In Beispiel 4t kann der Gegenstand eines der Beispiele 1t bis 3t optional beinhalten, dass die Konfiguration für das eine oder die mehreren Sensorsysteme eine Reihe von zu deaktivierenden und/oder zu depriorisierenden Sensorsystemen umfasst.
    • In Beispiel 5t kann der Gegenstand eines der Beispiele 1t bis 4t optional beinhalten, dass die Konfiguration für das eine oder die mehreren Sensorsysteme eine oder mehrere Sensoreinstellungen für das eine oder die mehreren Sensorsysteme beinhaltet.
    • In Beispiel 6t kann der Gegenstand von Beispiel 5t optional beinhalten, dass die eine oder mehrere Sensoreinstellungen eine Datenerfassungsrate des einen oder der mehreren Sensorsysteme und/oder eine Auflösung des einen oder der mehreren Sensorsysteme beinhalten.
    • In Beispiel 7t kann der Gegenstand eines der Beispiele 1t bis 6t optional beinhalten, dass die Konfiguration einen Datenkomprimierungsmechanismus zur Komprimierung der von dem einen oder mehreren Sensorsystemen erzeugten Sensordaten enthält.
    • In Beispiel 8t kann der Gegenstand eines der Beispiele 1t bis 7t optional beinhalten, dass der eine oder mehrere Prozessoren konfiguriert werden, um zu bestimmen, ob die ausgewählte Konfiguration ein oder mehrere vordefinierte Kriterien erfüllt.
    • In Beispiel 9t kann der Gegenstand von Beispiel 8t optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie eine andere Konfiguration wählen, falls die gewählte Konfiguration das eine oder die mehreren vordefinierten Kriterien nicht erfüllt.
    • In Beispiel 10t kann der Gegenstand eines der Beispiele 8t oder 9t optional beinhalten, dass das eine oder mehrere vordefinierte Kriterien Fahrverhalten und ethische Einstellungen umfassen.
    • In Beispiel 11t kann der Gegenstand eines der Beispiele 1t bis 10t optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert sind, dass sie einen rechnerischen Energieverbrauch bestimmen, der mit den Sensordaten verbunden ist, die von dem einen oder den mehreren Sensorsystemen in der gewählten Konfiguration erzeugt werden.
    • In Beispiel 12t kann der Gegenstand von Beispiel 11t optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass sie eine andere Konfiguration wählen, falls der ermittelte Rechenenergieverbrauch einen vordefinierten Schwellenwert überschreitet.
    • In Beispiel 13t kann der Gegenstand eines der Beispiele 1t bis 12t optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass die Konfiguration auf der Grundlage von Daten ausgewählt wird, die von einem fahrzeugexternen Gerät empfangen werden.
    • In Beispiel 14t kann der Gegenstand eines der Beispiele 1t bis 13t optional beinhalten, dass die Sensordaten einen Energieverbrauch des einen oder mehrerer Sensorsysteme beinhalten.
    • In Beispiel 15t kann der Gegenstand eines der Beispiele 1t bis 14t optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass die Auswahl der Konfiguration für das eine oder die mehreren Sensorsysteme in periodischen Zeitintervallen wiederholt wird.
    • In Beispiel 16t kann der Gegenstand eines der Beispiele 1t bis 15t optional beinhalten, dass der Zustand der mindestens einen Energiequelle mindestens eine Temperatur, eine Restkapazität und eine Ladegeschichte der mindestens einen Energiequelle beschreibt.
    • In Beispiel 17t kann der Gegenstand eines der Beispiele 1t bis 16t optional beinhalten, dass die mindestens eine Energiequelle eine Batterie beinhaltet.
    • In Beispiel 18t kann der Gegenstand eines der Beispiele 1t bis 17t optional beinhalten, dass das Fahrzeug ferner ein Energiequellenmanagementsystem enthält, das so konfiguriert ist, dass es Energiequellendaten ermittelt, die den Zustand der mindestens einen Energiequelle beschreiben, und die ermittelten Energiequellendaten dem einen oder mehreren Prozessoren zur Verfügung stellt.
    • In Beispiel 19t kann der Gegenstand eines der Beispiele 1t bis 18t optional beinhalten, dass das eine oder die mehreren Sensorsysteme mindestens ein LIDAR-Sensorsystem umfassen.
    • In Beispiel 20t kann der Gegenstand eines der Beispiele 1t bis 19t optional beinhalten, dass der Fahrzeugzustand ein Fahrszenario beinhaltet, wobei das Fahrszenario einen oder mehrere fahrzeugspezifische Zustände beschreibt.
    • In Beispiel 21t kann der Gegenstand von Beispiel 20t optional einschließen, dass die eine oder mehrere fahrzeugspezifische Bedingungen mindestens eine Geschwindigkeit des Fahrzeugs, eine Belegung des Fahrzeugs und einen Fahrmodus des Fahrzeugs umfassen.
    • In Beispiel 22t kann der Gegenstand eines der Beispiele 1t bis 21t optional beinhalten, dass der Fahrzeugzustand einen Verkehrszustand umfasst, wobei der Verkehrszustand einen oder mehrere äußere Fahrzeugzustände beschreibt.
    • In Beispiel 23t kann der Gegenstand von Beispiel 22t optional beinhalten, dass die eine oder mehrere äußere Fahrzeugbedingung(en) einen Abstand zwischen dem Fahrzeug und einem äußeren Fahrzeugobjekt, das sich in einem Sichtfeld von mindestens einem der einen oder mehreren Sensorsysteme befindet, und/oder eine Anzahl von äußeren Fahrzeugobjekten, die sich in einem Sichtfeld von mindestens einem der einen oder mehreren Sensorsysteme befinden, und/oder eine atmosphärische Bedingung umfassen.
    • Beispiel 24t ist ein Verfahren zum Betrieb eines Fahrzeugs. Das Verfahren kann ein oder mehrere Sensorsysteme umfassen, die Sensordaten erzeugen. Das Verfahren kann mindestens eine Energiequelle umfassen, die das eine oder die mehreren Sensorsysteme mit Energie versorgt. Das Verfahren kann die Bestimmung eines Fahrzeugzustands zumindest teilweise auf der Grundlage der Sensordaten umfassen. Das Verfahren kann die Auswahl einer Konfiguration für das eine oder die mehreren Sensorsysteme auf der Grundlage eines Zustands der mindestens einen Energiequelle und auf der Grundlage des Fahrzeugzustands umfassen.
    • In Beispiel 25t kann der Gegenstand von Beispiel 24t optional beinhalten, dass die Konfiguration aus einer Sensor-Funktionsmatrix-Datenbank ausgewählt wird, wobei die Sensor-Funktionsmatrix-Datenbank eine Vielzahl von Konfigurationen für das eine oder die mehreren Sensorsysteme enthält, wobei jede Konfiguration mit einem entsprechenden Fahrzeugzustand verknüpft ist.
    • In Beispiel 26t kann der Gegenstand von Beispiel 25t optional beinhalten, dass die Konfiguration für das eine oder die mehreren Sensorsysteme auf der Grundlage des ermittelten Fahrzeugzustands aus der Vielzahl der in der Datenbank Sensor Function Matrix enthaltenen Konfigurationen ausgewählt wird.
    • In Beispiel 27t kann der Gegenstand eines der Beispiele 24t bis 26t optional beinhalten, dass die Konfiguration für das eine oder die mehreren Sensorsysteme eine Reihe von zu deaktivierenden und/oder zu depriorisierenden Sensorsystemen umfasst.
    • In Beispiel 28t kann der Gegenstand eines der Beispiele 24t bis 27t optional beinhalten, dass die Konfiguration für das eine oder die mehreren Sensorsysteme eine oder mehrere Sensoreinstellungen für das eine oder die mehreren Sensorsysteme beinhaltet.
    • In Beispiel 29t kann der Gegenstand von Beispiel 28t optional beinhalten, dass die eine oder mehrere Sensoreinstellungen eine Datenerfassungsrate des einen oder der mehreren Sensorsysteme und/oder eine Auflösung des einen oder der mehreren Sensorsysteme beinhalten.
    • In Beispiel 30t kann der Gegenstand eines der Beispiele 24t bis 29t optional beinhalten, dass die Konfiguration einen Datenkomprimierungsmechanismus zur Komprimierung der von dem einen oder mehreren Sensorsystemen erzeugten Sensordaten enthält.
    • In Beispiel 31t kann der Gegenstand eines der Beispiele 24t bis 30t optional die Bestimmung einschließen, ob die ausgewählte Konfiguration ein oder mehrere vordefinierte Kriterien erfüllt.
    • In Beispiel 32t kann der Gegenstand von Beispiel 31t optional die Auswahl einer anderen Konfiguration umfassen, falls die ausgewählte Konfiguration das eine oder mehrere vordefinierte Kriterien nicht erfüllt.
    • In Beispiel 33t kann der Gegenstand eines der Beispiele 31t oder 32t optional beinhalten, dass das eine oder mehrere vordefinierte Kriterien Fahrverhalten und ethische Einstellungen umfassen.
    • In Beispiel 34t kann der Gegenstand eines der Beispiele 24t bis 33t optional einen rechnerischen Energieverbrauch bestimmen, der mit den Sensordaten verbunden ist, die von dem einen oder mehreren Sensorsystemen in der gewählten Konfiguration erzeugt werden.
    • In Beispiel 35t kann der Gegenstand von Beispiel 34t optional die Auswahl einer anderen Konfiguration beinhalten, falls der ermittelte rechnerische Energieverbrauch einen vordefinierten Schwellenwert überschreitet.
    • In Beispiel 36t kann der Gegenstand eines der Beispiele 24t bis 35t optional beinhalten, dass die Konfiguration auf der Grundlage von Daten ausgewählt wird, die von einem fahrzeugexternen Gerät empfangen werden.
    • In Beispiel 37t kann der Gegenstand eines der Beispiele 24t bis 36t optional beinhalten, dass die Sensordaten einen Energieverbrauch des einen oder mehrerer Sensorsysteme beinhalten.
    • In Beispiel 38t kann der Gegenstand eines der Beispiele 24t bis 37t optional beinhalten, dass die Auswahl der Konfiguration für das eine oder die mehreren Sensorsysteme in periodischen Zeitintervallen wiederholt wird.
    • In Beispiel 39t kann der Gegenstand eines der Beispiele 24t bis 38t optional beinhalten, dass der Zustand der mindestens einen Energiequelle mindestens eine Temperatur, eine Restkapazität und eine Ladegeschichte der mindestens einen Energiequelle beschreibt.
    • In Beispiel 40t kann der Gegenstand eines der Beispiele 24t bis 39t optional beinhalten, dass die mindestens eine Energiequelle eine Batterie beinhaltet.
    • In Beispiel 41t kann der Gegenstand eines der Beispiele 24t bis 40t optional die Bestimmung von Energiequellendaten umfassen, die den Zustand der mindestens einen Energiequelle beschreiben, und die Bereitstellung der ermittelten Energiequellendaten an mindestens einen oder mehrere Prozessoren.
    • In Beispiel 42t kann der Gegenstand eines der Beispiele 24t bis 41t optional beinhalten, dass das eine oder die mehreren Sensorsysteme mindestens ein LIDAR-Sensorsystem beinhalten.
    • In Beispiel 43t kann der Gegenstand eines der Beispiele 24t bis 42t optional beinhalten, dass der Fahrzeugzustand ein Fahrszenario beinhaltet, wobei das Fahrszenario einen oder mehrere fahrzeugspezifische Zustände beschreibt.
    • In Beispiel 44t kann der Gegenstand von Beispiel 43t optional beinhalten, dass die eine oder mehrere fahrzeugspezifische Bedingung(en) mindestens eine Geschwindigkeit des Fahrzeugs, eine Belegung des Fahrzeugs oder einen Fahrmodus des Fahrzeugs umfasst (umfassen).
    • In Beispiel 45t kann der Gegenstand eines der Beispiele 24t bis 44t optional beinhalten, dass der Fahrzeugzustand einen Verkehrszustand umfasst, wobei der Verkehrszustand einen oder mehrere äußere Fahrzeugzustände beschreibt.
    • Im Beispiel 46t kann der Gegenstand des Beispiels 45t optional einschließen, dass die eine oder mehrere äußere Fahrzeugbedingung(en) einen Abstand zwischen dem Fahrzeug und einem äußeren Fahrzeugobjekt, das sich in einem Sichtfeld von mindestens einem der einen oder mehreren Sensorsysteme befindet, und/oder eine Anzahl von äußeren Fahrzeugobjekten, die sich in einem Sichtfeld von mindestens einem der einen oder mehreren Sensorsysteme befinden, und/oder eine atmosphärische Bedingung einschließen.
    • Beispiel 47t ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können, die, wenn sie von einem Computerprogrammgerät eines Fahrzeugs gemäß einem der Beispiele 1t bis 23t ausgeführt werden, das Fahrzeug veranlassen, das Verfahren gemäß einem der Beispiele 24t bis 46t auszuführen.
    • Beispiel 48t ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so beschaffen ist, dass es mindestens eines der Verfahren für ein Fahrzeug nach einem der oben genannten Verfahrensansprüche, ein Fahrzeug nach einem der oben genannten Fahrzeugansprüche ausführen kann.
  • Ein teil- oder vollautomatisches Fahrzeug kann eine Vielzahl von Sensoren und Sensorsystemen (auch als Sensorvorrichtungen bezeichnet) einsetzen, um ein korrektes und zuverlässiges Szenenverständnis zu gewährleisten. Jedes Sensorsystem kann eine große Menge an Daten produzieren, die dann weiterverarbeitet (z.B. gespeichert, übertragen und analysiert) werden können. Darüber hinaus kann ein teil- oder vollautomatisches Fahrzeug mit Scheinwerfern (auch als Scheinwerfer bezeichnet) und anderen Beleuchtungs- und Signaleinrichtungen ausgestattet sein. Die Sensorsysteme und die Beleuchtungseinrichtungen können Platz und elektrische Energie benötigen.
  • Für die Montage jedes Sensorsystems kann ein geeigneter Fahrzeugstandort vorgesehen werden. An dem gewählten Fahrzeugstandort kann das Sensorsystem ein uneingeschränktes Sichtfeld haben und sicher montiert werden. Zur Veranschaulichung: Der Fahrzeugstandort für die Montage eines Sensorsystems kann eine Umgebung sein, in der das Sensorsystem vor äußeren Faktoren wie Feuchtigkeit, Staub und Schmutz geschützt ist. Die Eckpositionen eines Fahrzeugs können ein Beispiel für eine solche Fahrzeugposition zur Anbringung eines Sensorsystems sein. Eine Eckposition kann einen breiten Überblick sowohl nach vorn (oder nach hinten) als auch nach der Seite hin bieten.
  • Die Eckpunkte eines Fahrzeugs können jedoch bereits von einem Scheinwerfer oder einer anderen Leuchte (z.B. Rücklicht, Bremslicht, Blinker und dergleichen) besetzt sein. Ein Sensorsystem oder zumindest ein Teil eines Sensorsystems kann in den Scheinwerfer (oder in die Leuchte) integriert sein. Dies kann, wie oben erwähnt, ein uneingeschränktes Sichtfeld und Schutz gegen Umwelteinflüsse bieten. Allerdings kann in den Ecken eines Fahrzeugs (z.B. im Inneren eines typischen Scheinwerfers) ein begrenzter Raum zur Verfügung stehen. Dies kann die maximal zulässige Größe eines in einen Scheinwerfer integrierten Sensorsystems in seinen Abmessungen einschränken.
  • Die Miniaturisierung eines Sensorsystems (z.B. eines LIDAR-Systems) kann sich negativ auf die Sensorleistung auswirken, z.B. eine verringerte maximale Reichweite aufgrund einer verminderten Erfassungseffizienz der zugehörigen Empfängeroptik. Die verringerte Sammeleffizienz kann auch das Signal-Rausch-Verhältnis der Messungen verringern.
  • Bei einem konventionellen System können ein Scheinwerfer und ein Sensorsystem (z.B. im Scheinwerfer integriert) unabhängig voneinander betrieben werden. Der Scheinwerfer und das Sensorsystem können den gleichen Platzbedarf und den gleichen Energiebedarf haben. Dies kann unabhängig davon gelten, ob das Sensorsystem als eigenständiges Sensorsystem oder als Teil eines übergeordneten Systems betrieben wird. Der von einem solchen konventionellen System belegte Gesamtplatz kann somit die Summe des von den einzelnen Einrichtungen (z.B. Scheinwerfer und Sensorsystem) belegten Platzes sein. Die Leistungsaufnahme eines solchen konventionellen Systems kann die Summe der Leistungsaufnahmen der einzelnen Einrichtungen sein. Das Sensorsystem und der Scheinwerfer können erhebliche Mengen elektrischer Leistung benötigen und somit Wärmeverluste erzeugen. Solche Wärmeverluste können zusätzliche Einschränkungen für die Abmessungen des Sensorsystems mit sich bringen.
  • Bei einem in den Scheinwerfer integrierten Sensorsystem kann ein (z. B. statischer) Kompromiss zwischen einer reduzierten Sensorgröße und einer reduzierten Größe der Beleuchtungseinrichtung (z. B. der Größe der Lichtquelle, die sichtbares Licht ausstrahlt, z. B. für Abblend- und Fernlichtanwendungen) gefunden werden. Auf der Sensorseite kann z.B. eine Anzahl von Laserdioden (z.B. Infrarot-Laserdioden) verkleinert werden, eine Anzahl von Detektorpixeln und/oder eine seitliche Größe der Detektorpixel, die Größe der Sender- und/oder Empfängeroptik und/oder die Größe elektronischer Komponenten (z.B. elektronische Platinen) und/oder die Größe von Kühlelementen reduziert werden. Auf der Scheinwerferseite kann z. B. die Anzahl der Lichtquellen (z. B. eine Anzahl von Leuchtdioden, LEDs) verringert werden, die Größe der zugehörigen Projektionsoptik kann verringert werden und/oder die Größe der elektronischen Bauteile (z. B. elektronische Platinen) und/oder die Größe der Kühlelemente kann verringert werden.
  • Jede der oben genannten Optionen kann jedoch negative Auswirkungen auf die Leistung des Sensorsystems oder des Scheinwerfers haben (z.B. eine negative Auswirkung auf die jeweiligen Funktionalitäten). Darüber hinaus kann der gewählte Kompromiss nur in einigen spezifischen Verkehrs- oder Fahrsituationen eine ausreichende Leistung erbringen. In anderen Situationen kann die Scheinwerferleistung und/oder die Sensorleistung unbefriedigend sein.
  • Verschiedene Ausführungsformen können sich auf ein Beleuchtungs- und Abtastsystem beziehen, das einen dynamisch angepassten Kompromiss zwischen der Leistung eines Sensorsystems (z.B. eines LIDAR-Systems) und einer Beleuchtungseinrichtung (z.B. einer Beleuchtungseinrichtung, z.B. einer Scheinwerferlichtquelle) bietet, die in das Beleuchtungs- und Abtastsystem integriert ist.
  • Eine koordinierte Steuerung des Betriebs des Sensorsystems und der Beleuchtungseinrichtung kann dafür sorgen, dass die Wärmeableitung des Beleuchtungs- und Sensorsystems unter einem vordefinierten Schwellenwert bleibt. Dies kann den Effekt haben, dass das System im Wesentlichen ohne eine Verringerung (z.B. eine Miniaturisierung) der Größe des Sensorsystems und der Beleuchtungseinrichtung (z.B. ohne eine Verringerung der Größe der Hauptkomponenten) bereitgestellt werden kann. In einer beispielhaften Anordnung können die hier beschriebenen Aspekte für ein Scheinwerfer-integriertes Sensorsystem vorgesehen werden.
  • In verschiedenen Ausführungsformen kann ein Beleuchtungs- und Abtastsystem ein LIDAR-Sensorsystem umfassen. Das LIDAR-Sensorsystem kann eine LIDAR-Lichtquelle aufweisen. Das Beleuchtungs- und Abtastsystem kann eine weitere Lichtquelle aufweisen. Das Beleuchtungs- und Erfassungssystem kann einen Lichtemissionsregler aufweisen, der so konfiguriert ist, dass die LIDAR-Lichtquelle mit einer ersten Betriebsleistung betrieben wird, was zu einer ersten thermischen Leistung führt, und dass die weitere Lichtquelle mit einer zweiten Betriebsleistung betrieben wird, was zu einer zweiten thermischen Leistung führt. Die Summe der ersten thermischen Leistung und der zweiten thermischen Leistung kann unterhalb einer vordefinierten thermischen Schwellenleistung liegen.
  • Die hier beschriebenen Aspekte eines koordinierten (z.B. synchronisierten) Betriebs der Beleuchtungseinrichtung und des Sensorsystems können zu einer Verringerung der insgesamt erforderlichen Betriebsleistung führen, z.B. der Menge der erforderlichen elektrischen Leistung (z.B. der Menge der zugeführten und/oder verbrauchten elektrischen Leistung). Dadurch kann die Menge der während des Betriebs erzeugten Wärmeverluste verringert werden (z.B. die Menge der Wärmeleistung, z.B. die Menge der abgegebenen elektrischen Leistung). Die hier beschriebenen Aspekte können zur Überwindung der oben genannten, eher statischen Kompromisse und zur Beibehaltung der Größe der Hauptkomponenten sowohl des Sensorsystems als auch der Beleuchtungseinrichtung im Wesentlichen unverändert beitragen.
  • Die Aspekte des koordinierten Betriebs können zu einer Verringerung des Gesamtplatzbedarfs für das Sensorsystem und/oder die Beleuchtungseinrichtung führen, wie im Folgenden näher beschrieben wird. Dies kann z.B. durch ein gemeinsames Kühlelement mit reduzierter Größe erreicht werden. Das gemeinsame Kühlelement kann von dem Sensorsystem und der Beleuchtungseinrichtung gemeinsam genutzt werden (z.B. durch eine oder mehrere Lichtquellen der Beleuchtungseinrichtung).
  • Die reduzierten Abmessungen des Kühlelements können es ermöglichen, ein sensorintegriertes Beleuchtungssystem (z.B. einen sensorintegrierten Scheinwerfer) mit unveränderten Systemabmessungen und mit im Wesentlichen unveränderten Abmessungen der Hauptkomponenten sowohl der Beleuchtungseinrichtung (z.B. Lichtquelle und Optik) als auch der Sensoreinrichtung (z.B. Lichtquelle, wie z.B. Infrarot-Lichtquelle, Detektor und Optikanordnung) zu realisieren. Dies kann dazu führen, dass beide Vorrichtungen ihre volle, spezifizierte Leistung erbringen können.
  • Die koordinierte Steuerung kann auf einer Vielzahl von Anpassungen der Beleuchtungseinrichtung und des Sensorbetriebs beruhen, z.B. in Übereinstimmung mit einer aktuellen Verkehrs- oder Fahrsituation. Ein gleichzeitiger Vollbetrieb beider Einrichtungen kann Probleme in Bezug auf die thermischen Begrenzungen des Systems verursachen. Die meisten Verkehrs- und Fahrsituationen können jedoch bewältigt werden, ohne dass beide Systeme mit voller Leistung betrieben werden (z.B. ohne dass beide Systeme Licht mit voller optischer Leistung aussenden). Veranschaulichend kann es möglich sein, einen Kompromiss zwischen Beleuchtungs- und Sensorleistung zu bestimmen. Der vorgesehene Kompromiss kann dynamisch in Abhängigkeit von der aktuellen Verkehrs- und Fahrsituation angepasst werden (zur Veranschaulichung und nicht als statischer, einmal gewählter Kompromiss).
  • 173A zeigt ein Beleuchtungs- und Abtastsystem 17300 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Beleuchtungs- und Abtastsystem 17300 kann ein System sein, das mit Abtast- und Beleuchtungsfähigkeiten ausgestattet ist. Zur Veranschaulichung: Das Beleuchtungs- und Abtastsystem 17300 kann eine oder mehrere Komponenten aufweisen, die so konfiguriert sind, dass sie eine Szene (oder zumindest einen Teil einer Szene) erkennen, sowie eine oder mehrere Komponenten, die so konfiguriert sind, dass sie die Szene (oder zumindest einen Teil der Szene) beleuchten. Im Folgenden kann das Beleuchtungs- und Abtastsystem 17300 auch als System 17300 bezeichnet werden. Die Szene kann z.B. die Umgebung um oder vor einem Fahrzeug sein.
  • Das Beleuchtungs- und Erfassungssystem 17300 kann ein System für ein Fahrzeug sein. Zur Veranschaulichung: Ein Fahrzeug kann ein oder mehrere hier beschriebene Beleuchtungs- und Erfassungssysteme 17300 aufweisen, die beispielsweise an verschiedenen Stellen im Fahrzeug angeordnet sind. Als Beispiel kann das Beleuchtungs- und Erfassungssystem 17300 ein Scheinwerfer z.B. eines Fahrzeugs sein (z.B. an einer Ecke des Fahrzeugs angeordnet). Das Fahrzeug kann ein Fahrzeug mit teilweise oder vollständig autonomen Fahrfähigkeiten sein (z. B. ein Fahrzeug, das mit einem SAE-Level 3 oder höher betrieben werden kann, z. B. gemäß der Definition der Society of Automotive Engineers (SAE), z. B. in SAE J30162018: Taxonomie und Definitionen für Begriffe im Zusammenhang mit Antriebsautomatisierungssystemen für Straßenkraftfahrzeuge). Zur Veranschaulichung: Das Beleuchtungs- und Erfassungssystem 17300 kann ein in den Scheinwerfer integriertes Sensorsystem sein. Falls ein Fahrzeug eine Vielzahl von hierin beschriebenen Beleuchtungs- und Erfassungssystemen 17300 enthält, kann das Fahrzeug (z.B. ein Steuermodul oder -system des Fahrzeugs) so konfiguriert werden, dass es eine koordinierte Steuerung der Vielzahl von Beleuchtungs- und Erfassungssystemen 17300 ermöglicht, wie weiter unten näher beschrieben.
  • Das System 17300 kann ein LIDAR-System 17302 aufweisen. Das LIDAR-System 17302 kann als LIDAR-Sensorsystem 10 konfiguriert sein oder konfiguriert werden. Als Beispiel kann das LIDAR-System 17302 als scannendes LIDAR-System konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Als weiteres Beispiel kann das LIDAR-System 17302 als Flash-LIDAR-System 17302 konfiguriert werden (z.B. als Flash-LIDAR-Sensorsystem 10).
  • Es wird davon ausgegangen, dass das LIDAR-System 17302 ein Beispiel für ein in das Beleuchtungs- und Abtastsystem 17300 integriertes Sensorsystem sein kann. Die hier beschriebenen Konzepte und Aspekte können auch auf andere Arten von Sensoren oder Sensorsystemen, die im Beleuchtungs- und Erfassungssystem 17300 enthalten sein können (z.B. ein RADAR-System, ein Kamerasystem oder ein Ultraschall-Sensorsystem), angepasst oder angewendet werden.
  • Das LIDAR-System 17302 kann eine Senderseite (z.B. ein erstes LIDAR-Sensorsystem 40) und eine Empfängerseite (z.B. ein zweites LIDAR-Sensorsystem 50) umfassen. Die Senderseite und die Empfängerseite können jeweils eine Optikanordnung aufweisen, z.B. eine Senderoptikanordnung 17304 und eine Empfängeroptikanordnung 17306.
  • Die Anordnung der Emitteroptik 17304 kann eine oder mehrere optische Komponenten (z.B. eine oder mehrere Linsen) aufweisen, um das vom LIDAR-System 17302 emittierte Licht zu kollimieren oder zu fokussieren.
  • Die in 173B gezeigte Anordnung der Empfängeroptik 17306 kann eine oder mehrere optische Komponenten (z.B. eine erste optische Komponente 173061, eine zweite optische Komponente 173062, eine dritte optische Komponente 173063 und eine vierte optische Komponente 173064, z.B. eine oder mehrere Linsen) aufweisen, um das vom LIDAR-System 17302 empfangene Licht zu kollimieren oder zu fokussieren. Die Anordnung der Empfängeroptik 17306 kann eine Eintrittsapertur im Bereich von etwa 3000 mm2 bis etwa 4000 mm2 haben, z.B. von etwa 3500 mm2. Nur als numerisches Beispiel kann die Anordnung der Empfängeroptik 17306 eine Frontlinse (z.B. dem Sichtfeld des LIDAR-Systems 17302 zugewandt) mit einer Größe von etwa 50 mm x 70 mm enthalten. Nur als numerisches Beispiel darf die Empfängeroptikanordnung 17306 60 mm lang sein. Als Beispiel kann die Anordnung der Empfängeroptik 17306 als das optische System 3400, das in Bezug auf 33 bis 37F beschrieben ist, konfiguriert sein oder konfiguriert werden.
  • Das LIDAR-System 17302 kann eine Lichtquelle 42 (zur Veranschaulichung auf der Emitterseite) aufweisen, die auch als LIDAR-Lichtquelle 42 bezeichnet wird. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht, z.B. ein Lichtsignal, aussendet (z.B. zur Szene hin, illustrativ zu einem Sichtfeld des LIDAR-Systems 17302). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge emittiert, z.B. Licht im Infrarotbereich (z.B. im Bereich von etwa 700 nm bis etwa 2000 nm, z.B. im Bereich von etwa 860 nm bis etwa 1600 nm, z.B. bei etwa 905 nm oder bei etwa 1550 nm). Zur Veranschaulichung: Die Lichtquelle 42 kann eine Infrarot-Lichtquelle 42 sein. Die Lichtquelle 42 kann so konfiguriert oder gesteuert werden, dass sie Licht kontinuierlich emittiert, oder sie kann so konfiguriert werden, dass sie Licht gepulst emittiert (z.B. einen oder mehrere Lichtimpulse).
  • In verschiedenen Ausführungsformen kann die Lichtquelle 42 so konfiguriert werden, dass sie Laserlicht (z.B. Infrarot-Laserlicht) emittiert. Die Lichtquelle 42 kann eine oder mehrere Laserlichtquellen aufweisen (z.B. konfiguriert als die Laserquelle 5902, die z.B. in Bezug auf 59 beschrieben wird). Die eine oder die mehreren Laserlichtquellen können beispielsweise mindestens eine Laserdiode aufweisen, z.B. eine oder mehrere Laserdioden (z.B. eine oder mehrere kantenemittierende Laserdioden und/oder eine oder mehrere oberflächenemittierende Laserdioden mit vertikalem Resonator, VCSEL). Als Beispiel kann die Lichtquelle 42 ein Array von Laserdioden (z.B. ein eindimensionales- Array oder ein zweidimensionales Array), z.B. ein VCSEL-Array, sein oder ein solches aufweisen.
  • In verschiedenen Ausführungsformen kann das LIDAR-System 17302 einen Sensor 52 aufweisen (illustrativ auf der Empfängerseite). Der Sensor 52 kann eine oder mehrere Fotodioden aufweisen (z.B. ein oder mehrere Sensorpixel, die jeweils einer entsprechenden Fotodiode zugeordnet sind). Die eine oder mehrere Fotodioden können ein Array bilden. Zum Beispiel können die eine oder mehrere Fotodioden entlang einer Dimension angeordnet sein, um ein eindimensionales Array zu bilden. Ein weiteres Beispiel: Die eine oder mehrere Fotodioden können in zwei Dimensionen (z.B. senkrecht zueinander) angeordnet werden, um ein zweidimensionales Array zu bilden. Zum Beispiel kann mindestens eine Fotodiode auf einer Lawinenverstärkung basieren. Mindestens eine Fotodiode (z.B. mindestens einige Fotodioden oder alle Fotodioden) kann eine Lawinenfotodiode sein. Bei der Lawinenfotodiode kann es sich um eine Einzelphotonen-Lawinenfotodiode handeln. Als weiteres Beispiel kann mindestens eine Fotodiode eine Pin-Fotodiode sein. Ein weiteres Beispiel ist, dass mindestens eine Fotodiode eine pn-Fotodiode sein kann.
  • Das Beleuchtungs- und Abtastsystem 17300 kann eine weitere Lichtquelle 17308 aufweisen. Zur Veranschaulichung: Die weitere Lichtquelle 17308 kann eine Beleuchtungseinrichtung oder ein Teil einer Beleuchtungseinrichtung (z.B. eine Beleuchtungseinrichtung oder ein Teil einer Beleuchtungseinrichtung) sein. Die weitere Lichtquelle 17308 kann so konfiguriert sein, dass sie Licht ausstrahlt (z.B. in Richtung der Szene). Die weitere Lichtquelle 17308 kann so konfiguriert werden, dass sie Licht mit einem vordefinierten Wellenlängenbereich, z.B. im sichtbaren Wellenlängenbereich, emittiert. Als weiteres Beispiel kann die weitere Lichtquelle 17308 so konfiguriert werden, dass sie Licht im infraroten Wellenlängenbereich emittiert. Als Beispiel kann die weitere Lichtquelle 17308 eine Scheinwerfer-Lichtquelle sein (z.B. eine Lichtquelle für einen Scheinwerfer, z.B. einen Fahrzeugscheinwerfer).
  • In verschiedenen Ausführungsformen kann das Beleuchtungs- und Abtastsystem 17300 eine Vielzahl von weiteren Lichtquellen 17308 aufweisen (z.B. kann die weitere Lichtquelle 17308 eine oder mehrere weitere Lichtquellen aufweisen, z.B. eine Vielzahl von Lichtquellen). Die Vielzahl weiterer Lichtquellen kann so konfiguriert sein, dass sie Licht mit unterschiedlichen Wellenlängen oder in unterschiedlichen Wellenlängenbereichen emittieren. Zum Beispiel kann das Beleuchtungs- und Erfassungssystem 17300 (z.B. die weitere Lichtquelle 17308) eine erste weitere Lichtquelle aufweisen, die so konfiguriert ist, dass sie sichtbares Licht emittiert, und eine zweite weitere Lichtquelle, die so konfiguriert ist, dass sie infrarotes Licht emittiert. Alternativ kann das Beleuchtungs- und Erfassungssystem 17300 (z.B. die weitere Lichtquelle 17308) eine erste weitere Lichtquelle aufweisen, die so konfiguriert ist, dass sie sichtbares Licht in einem ersten Wellenlängenbereich (z.B. rotes Licht) emittiert, und eine zweite weitere Lichtquelle, die so konfiguriert ist, dass sie sichtbares Licht in einem zweiten Wellenlängenbereich (z.B. orangefarbenes oder gelbes Licht) emittiert.
  • In verschiedenen Ausführungsformen kann die weitere Lichtquelle 17308 (z.B. jede weitere Lichtquelle) mindestens eine Leuchtdiode (LED) aufweisen. Beispielsweise kann die weitere Lichtquelle 17308 eine Vielzahl von Leuchtdioden aufweisen. Die Mehrzahl der Leuchtdioden kann so angeordnet werden, dass sie ein Array (z.B. ein eindimensionales Array oder ein zweidimensionales Array) bilden. Alternativ kann die Mehrzahl von Leuchtdioden so angeordnet werden, dass sie einen Ring oder einen Teil eines Rings bilden (z.B. kann die Mehrzahl von Leuchtdioden um einen Umfang herum angeordnet sein).
  • In verschiedenen Ausführungsformen kann die weitere Lichtquelle 17308 (z.B. jede weitere Lichtquelle) so konfiguriert oder gesteuert werden, dass sie Licht nach unterschiedlichen Lichtemissionsschemata emittiert (z.B. nach unterschiedlichen Lichtemissionsfunktionalitäten, z.B. illustrativ zur Emission eines vordefinierten Lichtemissionsmusters). Beispielsweise kann die Vielzahl von Leuchtdioden so gesteuert werden, dass sie Licht gemäß verschiedenen Lichtemissionsfunktionen emittieren (z.B. können eine oder mehrere Leuchtdioden so gesteuert werden, dass sie Licht emittieren, und eine oder mehrere Leuchtdioden so gesteuert werden, dass sie kein Licht emittieren, um ein vordefiniertes Lichtemissionsmuster zu erzeugen).
  • Die weitere Lichtquelle 17308 kann so konfiguriert (z.B. gesteuert) werden, dass sie Abblendlichtfunktionalitäten (auch als Abblendlichtfunktionalität bezeichnet) bietet. Zur Veranschaulichung: Die weitere Lichtquelle 17308 kann so konfiguriert sein, dass sie ein Abblendlicht ausstrahlt, z.B. um Licht seitlich und/oder nach unten abzustrahlen, z.B. in Übereinstimmung mit den Vorschriften für eine Hell-Dunkel-Grenze (z.B. in der Szene, z.B. in Bezug auf eine Fahrtrichtung des Fahrzeugs).
  • Zusätzlich oder alternativ kann die weitere Lichtquelle 17308 so konfiguriert (z.B. gesteuert) werden, dass sie Fernlichtfunktionalitäten bietet. Zur Veranschaulichung: Die weitere Lichtquelle 17308 kann so konfiguriert werden, dass sie ein Fernlicht aussendet, z.B. um Licht auch oberhalb der Hell-Dunkel-Grenze zu emittieren.
  • Zusätzlich oder alternativ kann die weitere Lichtquelle 17308 so konfiguriert (z.B. gesteuert) werden, dass sie adaptive Fernlichtfunktionalitäten (auch als adaptive Beam-Funktionalitäten bezeichnet) bietet. Zur Veranschaulichung: Die weitere Lichtquelle 17308 kann so konfiguriert werden, dass sie ein adaptives Fernlicht aussendet, z.B. kann die weitere Lichtquelle 17308 so konfiguriert oder gesteuert werden, dass sie je nach aktueller Situation (z.B. bei einem aktuellen Verkehrs- und/oder Fahrszenario) verschiedene Teile der Szene ausleuchtet.
  • In verschiedenen Ausführungsformen kann das Beleuchtungs- und Abtastsystem 17300 einen Lichtemissionsregler 17310 aufweisen (z.B. einen oder mehrere Prozessoren, die zur Implementierung der Lichtemissionsregelung konfiguriert sind). Die Lichtemissionssteuerung 17310 kann so konfiguriert werden, dass sie die Lichtquelle 42 und die weitere Lichtquelle 17308 steuert. Beispielsweise kann der Lichtemissions-Controller 17310 in Kommunikation mit einem Lichtregler des LIDAR-Systems 17302 stehen (z.B. eine Treiberschaltung, die im LIDAR-System 17302 enthalten ist). Der Lichtemissions-Controller 17310 kann so konfiguriert werden, dass er die Lichtquelle 42 steuert, indem er entsprechende Anweisungen an den LichtController des LIDAR-Systems 17302 liefert. Optional kann das Lichtemissions-Steuergerät 17310 so konfiguriert werden, dass es zusätzliche Lichtquellen (z.B. eine zusätzliche LIDAR-Lichtquelle und/oder eine zusätzliche weitere Lichtquelle) steuert, z.B. wenn das Beleuchtungs- und Erfassungssystem 17300 zusätzliche Lichtquellen enthält (z.B. angeordnet in einem Scheinwerfer auf der linken Seite und in einem Scheinwerfer auf der rechten Seite eines Fahrzeugs, wie weiter unten näher beschrieben).
  • Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass die Lichtquelle 42 mit einer ersten Betriebsleistung betrieben wird, was zu einer ersten thermischen Leistung führt. Zur Veranschaulichung: Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass er die Lichtquelle 42 so steuert, dass ein Betrieb der Lichtquelle 42 zu einer ersten Wärmeleistung führt (auch als erste Wärmeabgabeleistung bezeichnet). Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass die weitere Lichtquelle 17308 mit einer zweiten Betriebsleistung betrieben wird, die zu einer zweiten Wärmeleistung führt. Zur Veranschaulichung: Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass er die weitere Lichtquelle 17308 so steuert, dass ein Betrieb der weiteren Lichtquelle 17308 eine zweite Wärmeleistung (auch als zweite Wärmeabfuhrleistung bezeichnet) zur Folge hat.
  • Die Summe der ersten Wärmeleistung und der zweiten Wärmeleistung kann unter einem vordefinierten Schwellenwert der Wärmeleistung liegen. Zur Veranschaulichung: Eine thermische Gesamtleistung oder eine kombinierte thermische Leistung kann unterhalb der vordefinierten Schwellenwärmeleistung liegen (z.B. kann eine kombinierte Verlustleistung unterhalb der vordefinierten Schwellenwärmeleistung liegen). Zusätzlich oder alternativ kann die Summe der ersten Leistungsaufnahme (in Verbindung mit der Lichtquelle 42) und der zweiten Leistungsaufnahme (in Verbindung mit der weiteren Lichtquelle 17308) unter einem vordefinierten Schwellenwert der Leistungsaufnahme liegen.
  • Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 so betreibt, dass die kombinierte Wärmeleistung (oder Leistungsaufnahme) der Lichtquelle 42 und der weiteren Lichtquelle 17308 unter einem vordefinierten Schwellenwert der Wärmeleistung (oder des Schwellenleistungsverbrauchs) gehalten werden kann. Zur Veranschaulichung: Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass er dem Betrieb des LIDAR-Systems 17302 eine erste Betriebsleistung und dem Betrieb der weiteren Lichtquelle 17308 eine zweite Betriebsleistung zuweist, so dass eine resultierende kombinierte thermische Leistung (z.B. Verlustleistung) unter einer vordefinierten thermischen Schwellenleistung gehalten werden kann. Zur weiteren Veranschaulichung kann der Lichtemissionsregler 17310 so konfiguriert werden, dass er eine erste Stromversorgung für die Lichtquelle 42 und eine zweite Stromversorgung für die weitere Lichtquelle 17308 bereitstellt.
  • In verschiedenen Ausführungsformen kann der Betrieb der Lichtquelle 42 mit der ersten Betriebsleistung die Steuerung der Lichtquelle umfassen, um Licht mit einer ersten optischen Leistung zu emittieren. Der Betrieb der weiteren Lichtquelle 17308 mit der zweiten Betriebsleistung kann die Steuerung der weiteren Lichtquelle 17308 umfassen, um Licht mit einer zweiten optischen Leistung zu emittieren.
  • In verschiedenen Ausführungsformen kann die Summe der ersten optischen Leistung und der zweiten optischen Leistung unter einem vordefinierten Schwellenwert der optischen Leistung liegen. Zur Veranschaulichung: Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 so steuert, dass eine kombinierte optische Leistung (z.B. eine kombinierte optische Leistung des emittierten Lichts) unter einer vordefinierten optischen Schwellenleistung gehalten werden kann.
  • Wird die Lichtquelle 42 mit der ersten Betriebsleistung betrieben (z. B. mit einer ersten elektrischen Leistung, z. B. einer empfangenen ersten elektrischen Leistung), so darf die Lichtquelle 42 Licht mit einer ersten optischen Leistung (z. B. einer ersten optischen Sendeleistung) aussenden. Zusätzlich kann aufgrund einer unvollständigen Umwandlung der Betriebsleistung in optische Emissionsleistung ein Teil der zugeführten Betriebsleistung in Wärme umgewandelt werden, z.B. in eine erste thermische Leistung (z.B. eine erste Wärmeabgabeleistung). Zur Veranschaulichung: Die erste Betriebsleistung kann eine Summe aus der ersten optischen Leistung und der ersten thermischen Leistung sein. Wird die weitere Lichtquelle 17308 mit der zweiten Betriebsleistung betrieben (z.B. mit einer zweiten elektrischen Leistung, z.B. einer empfangenen zweiten elektrischen Leistung), kann die weitere Lichtquelle 17308 analog dazu Licht mit einer zweiten optischen Leistung (z.B. einer zweiten optischen Emissionsleistung) emittieren. Zusätzlich kann aufgrund einer unvollständigen Umwandlung der Betriebsleistung in optische Sendeleistung ein Teil der zugeführten Betriebsleistung in Wärme umgewandelt werden, z.B. in eine zweite thermische Leistung (z.B. eine zweite Wärmeabfuhrleistung). Zur Veranschaulichung: Die zweite Betriebsleistung kann eine Summe aus der zweiten optischen Leistung und der zweiten thermischen Leistung sein.
  • Eine der Lichtquelle 42 zugeordnete Betriebsleistung (z.B. eine für den Betrieb der Lichtquelle 42 gewählte Betriebsleistung) kann zu einer entsprechenden (z.B. ersten) optischen Leistung und zu einer entsprechenden (z.B. ersten) thermischen Leistung führen. Eine der weiteren Lichtquelle 17308 zugeordnete Betriebsleistung (z.B. eine für den Betrieb der weiteren Lichtquelle 17308 gewählte Betriebsleistung) kann zu einer entsprechenden (z.B. zweiten) optischen Leistung und zu einer entsprechenden (z.B. zweiten) thermischen Leistung führen.
  • In verschiedenen Ausführungsformen kann die vordefinierte Schwellenwärmeleistung ein Leistungswert sein, der kleiner ist als die Summe der Wärmeleistung, die die Lichtquelle 42 bei Vollbetrieb hätte (z.B. dissipieren würde) und der Wärmeleistung, die die weitere Lichtquelle 17308 bei Vollbetrieb hätte. Zur Veranschaulichung: Die vordefinierte Schwellenwärmeleistung kann ein Leistungswert sein, der niedriger ist als ein kombinierter Wärmeleistungswert, der mit einem vollen Betrieb der Lichtquelle 42 und der weiteren Lichtquelle 17308 verbunden ist. Die vordefinierte thermische Schwellenleistung kann ein Prozentsatz (z.B. ein Bruchteil) eines solchen kombinierten Leistungswertes sein, z.B. 75%, z.B. 50%, z.B. 25%. Die vordefinierte thermische Schwellenleistung kann z.B. im Bereich von etwa 30 W bis etwa 100 W liegen, z.B. im Bereich von etwa 40 W bis etwa 60 W, z.B. etwa 50 W. Der Wert für die thermische Schwellenleistung kann in Übereinstimmung mit den Wärmeableitungsfähigkeiten des Systems 17300 gewählt werden (z.B. in Übereinstimmung mit den Wärmeableitungsfähigkeiten eines Kühlelements 17312 des Systems 17300), wie weiter unten näher beschrieben wird.
  • In verschiedenen Ausführungsformen kann das System 17300 ein Kühlelement 17312 aufweisen (z.B. ein gemeinsames oder gemeinsam genutztes Kühlelement 17312). Das Kühlelement 17312 kann sowohl an die weitere Lichtquelle 17308 als auch an das LIDAR-System 17302 angeschlossen werden. Illustrativ kann das Kühlelement 17312 so konfiguriert oder angeordnet werden, dass es die von der weiteren Lichtquelle 17308 und vom LIDAR-System 17302 (z.B. von der Lichtquelle 42) erzeugte Wärme (z.B. Wärmeleistung) ableitet.
  • Beispielsweise kann das Kühlelement 17312 mit einer ersten Seite dem LIDAR-System 17302 zugewandt sein (z.B. eine Seite in direktem physischen Kontakt mit dem LIDAR-System 17302, z.B. mit einem Gehäuse des LIDAR-Systems 17302). Illustrativ kann es eine erste Schnittstelle zwischen dem Kühlelement 17312 und dem LIDAR-System 17302 geben. Das Kühlelement 17312 kann eine zweite Seite (z.B. gegenüber der ersten Seite) haben, die der weiteren Lichtquelle 17308 zugewandt ist (z.B. in direktem physischen Kontakt mit der weiteren Lichtquelle 17308, z.B. mit einem Gehäuse der weiteren Lichtquelle 17308 oder mit einer Leiterplatte, auf der die weitere Lichtquelle 17308 montiert ist). Illustrativ kann es eine zweite Schnittstelle zwischen dem Kühlelement 17312 und der weiteren Lichtquelle 17308 geben. Als Beispiel kann das Kühlelement 17312 ein Kühlkörper sein (z.B. mit einem Volumen von etwa 180 cm3, wie weiter unten näher beschrieben). Als weiteres Beispiel kann das Kühlelement 17312 einen oder mehrere Kanäle für den Transport eines Kühlmediums (z.B. Luft oder Wasser) aufweisen.
  • Das Kühlelement 17312 kann so konfiguriert werden, dass ein (z.B. maximaler) Wärmeverlust abgeführt wird, der im Wesentlichen der vordefinierten thermischen Schwellenleistung entspricht (z.B. ein maximaler Wärmeverlust im Bereich von ca. 30 W bis ca. 100 W, z.B. im Bereich von ca. 40 W bis ca. 60 W, z.B. ein maximaler Wärmeverlust von ca. 50 W). Als Beispiel kann das Kühlelement 17312 in Übereinstimmung mit der vordefinierten thermischen Schwellenleistung ausgewählt oder konfiguriert werden (z.B. eine für den beabsichtigten Betrieb des Systems 17300 vorgesehene thermische Schwellenleistung). Als weiteres Beispiel kann die vordefinierte Schwellen-Wärmeleistung in Übereinstimmung mit der Konfiguration des Kühlelements 17312 gewählt werden (z.B. in Übereinstimmung mit der vom Kühlelement 17312 bereitgestellten Wärmeableitung).
  • Wie im Folgenden näher beschrieben, kann der koordinierte Betrieb der Lichtquelle 42 und der weiteren Lichtquelle 17308 den Effekt haben, dass eine Größe des Kühlelements 17312 (z.B. ein Volumen oder mindestens eine seitliche Abmessung des Kühlelements 17312) reduziert werden kann (z.B. gegenüber einem konventionellen Kühlelement). Beispielsweise kann die Größe des Kühlelements 17312 kleiner sein als die Summe der Größe eines Kühlelements, das für den Betrieb des LIDAR-Systems 17302 vorgesehen wäre, und der Größe eines Kühlelements, das für den Betrieb der weiteren Lichtquelle 17308 vorgesehen wäre (z.B. kleiner als eine kombinierte Größe von Kühlelementen, die für die Abfuhr der jeweiligen Verlustwärme vorgesehen wäre, wenn das LIDAR-System und die weitere Lichtquelle unabhängig voneinander betrieben würden).
  • 173C zeigt ein Diagramm 17314, die eine beispielhafte Bedienung des Lichtemissionsreglers 17310 nach verschiedenen Ausführungsformen zeigt.
  • Das Diagramm 17314 kann die dynamische Anpassung der ersten Wärmeleistung und der zweiten Wärmeleistung durch den Lichtemissionsregler 17310 beschreiben. Zur Veranschaulichung kann das Diagramm 17314 den der ersten Wärmeleistung und der zweiten Wärmeleistung zugeordneten Wert über die Zeit zeigen. Die erste Wärmeleistung wird durch eine erste Zeile 173141 dargestellt. Die zweite Wärmeleistung wird durch eine zweite Zeile 173142 dargestellt. Die Summe der ersten Wärmeleistung und der zweiten Wärmeleistung wird durch eine dritte (z.B. gestrichelte) Linie 173143 dargestellt. Das Diagramm 17314 kann eine erste Achse 17314t (z.B. eine Zeitachse) aufweisen, die der Zeit (ausgedrückt in beliebigen Einheiten) zugeordnet ist, und eine zweite Achse 17314p (z.B. eine Leistungsachse), die der Wärmeleistung (ausgedrückt in W) zugeordnet ist. Zur Veranschaulichung können die Leistungswerte in einem Zeitintervall im Diagramm 17314 die thermische(n) Leistung(en) in diesem Zeitintervall in Verbindung mit den entsprechenden Betriebsleistung(en) und/oder optischen Leistung(en) darstellen.
  • Für den in 173C beschriebenen Betrieb wird als Beispielfall angenommen, dass die vordefinierte Schwellenwärmeleistung 50 W beträgt. Es wird ebenfalls als Beispielfall angenommen, dass eine Wärmeleistung, die mit einem vollen Betrieb der Lichtquelle 42 verbunden ist, 15 W betragen kann (z.B. kann die volle LIDAR-Funktionalität 15 W Verlustleistung entsprechen). Ferner wird als Beispielfall angenommen, dass eine mit dem vollen Betrieb der weiteren Lichtquelle 17308 verbundene thermische Leistung 50 W betragen kann (z.B. 50 W Verlustleistung können einer Scheinwerferlichtquelle entsprechen, die für maximale Abblend- und Fernlichtintensität betrieben wird, 35 W Verlustleistung können nur der Bereitstellung von Abblendlichtfunktionen und dem Ausschalten des Fernlichts entsprechen). Zur Veranschaulichung wird als Beispiel angenommen, dass bei getrennten, nicht- integrierten Systemen die Beleuchtungsfunktionen Wärmeverluste von 50 W bei voller Leistung und das LIDAR-System Wärmeverluste von 15 W bei voller Leistung erzeugen können. Ohne den oben beschriebenen koordinierten Betrieb kann das System Wärmeverluste von 65 W erzeugen, wenn beide Funktionen gleichzeitig mit voller Leistung betrieben werden. Der koordinierte Betrieb kann eine Reduzierung dieser Wärmeverluste, z.B. auf 50 W, ermöglichen (z.B. durch die Implementierung eines Kühlkörpers mit reduzierten Abmessungen).
  • Wie in dem Diagramm 17314 dargestellt, kann der Lichtemissionsregler 17310 so konfiguriert werden, dass er die erste Betriebsleistung und die zweite Betriebsleistung so wählt, dass die Summe der ersten Wärmeleistung und der zweiten Wärmeleistung unter dem vordefinierten Schwellenwert der Wärmeleistung bleibt (illustrativ, zu jedem Zeitpunkt oder im Wesentlichen zu jedem Zeitpunkt, wie weiter unten näher beschrieben).
  • Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass zu verschiedenen Zeitpunkten oder in verschiedenen Zeitperioden (z.B. über verschiedene Zeitfenster) unterschiedliche Werte für die erste Betriebsleistung und die zweite Betriebsleistung ausgewählt oder zugewiesen werden (z.B. zur Steuerung der Lichtquelle 42, um Licht mit unterschiedlicher erster optischer Leistung zu emittieren, und zur Steuerung der weiteren Lichtquelle 17308, um Licht mit unterschiedlicher zweiter optischer Leistung zu emittieren). Zur Veranschaulichung: Der Lichtemissionsregler 17310 kann so konfiguriert werden, dass er die erste Betriebsleistung dynamisch erhöht (oder verringert) und die zweite Betriebsleistung entsprechend verringert (oder erhöht).
  • In verschiedenen Ausführungsformen kann der Lichtemissionsregler 17310 so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 (zur Veranschaulichung: die jeweilige Lichtemission) nach einem oder mehreren vordefinierten Kriterien betreibt (z.B. steuert). Der Lichtemissionskontroller 17310 kann so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 in Übereinstimmung mit einer oder mehreren systeminternen und/oder systemäußeren Bedingungen (z. B. fahrzeuginterne und/oder fahrzeugexterne Bedingungen) betreibt (z. B. zur Steuerung). Zur Veranschaulichung: Das Lichtemissions-Steuergerät 17310 kann so konfiguriert werden, dass es die erste Betriebsleistung und die zweite Betriebsleistung in Übereinstimmung mit einer oder mehreren Situationen oder Szenarien (z.B. Verkehrs- oder Fahrsituation oder -szenario) auswählt oder zuweist. Jede Situation kann eine Situation sein, in der die erste Betriebsleistung und die zweite Betriebsleistung jeweils einen an das spezifische Szenario angepassten Wert haben können (nur als Beispiel kann genügend Strahlung für eine Beleuchtung der Szene mit sichtbarem Licht und genügend Infrarotstrahlung für Erfassungszwecke zur Verfügung gestellt werden), während die thermische Gesamtleistung innerhalb der maximalen Grenze bleiben kann.
  • Das Lichtemissions-Steuergerät 17310 kann so konfiguriert werden, dass es die Lichtquelle 42 und die weitere Lichtquelle 17308 in Abhängigkeit von einem Fahrzeugzustand, wie er z.B. in Bezug auf 123 beschrieben ist, betreibt (z.B. steuert). Es kann eine Vielzahl von Faktoren geben, die bei der Beurteilung eines Fahrzeugzustandes zu berücksichtigen sind (z.B. eine Verkehrs- oder Fahrsituation oder ein Fahrszenario), wie z.B. die Umgebungshelligkeit (Tag, Nacht), die Fahrzeugumgebung (Stadt, Landstraßen, Autobahn), ein Verkehrszustand (Verkehrsdichte, Arten von Verkehrsteilnehmern, andere Fahrzeuggeschwindigkeiten und Fahrtrichtungen), eine Wetterbedingung, das Fahrszenario des eigenen Fahrzeugs (Geschwindigkeit, Beschleunigung, Routenplanung), der Automatisierungsgrad des eigenen Fahrzeugs (SAE-Level), die Verfügbarkeit von qualitativ hochwertigem Kartenmaterial, die Kommunikation Fahrzeug-Fahrzeug (V2V) und Fahrzeug-Alles (- V2X) und ähnliches. Einer oder mehrere dieser Faktoren können in einer aktuellen Verkehrs- oder Fahrsituation relevant sein.
  • Zum Beispiel kann der Lichtemissionsregler 17310 so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 in Abhängigkeit von einem Umgebungslichtpegel steuert. Das Umgebungslichtniveau kann z.B. mit Hilfe eines Umgebungslichtsensors des Systems 17300 bestimmt (z.B. gemessen oder berechnet) werden. So kann z.B. die erste Betriebsleistung (in Verbindung mit der LIDAR-Lichtquelle 42) bei steigendem Umgebungslichtniveau erhöht werden. Die zweite Betriebsleistung (in Verbindung mit der weiteren Lichtquelle 17308) kann entsprechend abnehmen. Zur Veranschaulichung: Die mit der Beleuchtung der Szene verbundene Betriebsleistung kann bei zunehmender Menge an Umgebungslicht verringert werden. In einem Beispielszenario kann bei hellem Tageslicht eine Straßenbeleuchtung nicht erforderlich sein oder es können nur geringe Lichtmengen für die Tagfahrlicht-Funktionalitäten (DRL) bereitgestellt werden. Dies kann z.B. durch die Situation 8 in 173C beschrieben werden, z.B. durch die Leistungswerte in einem achten Zeitfenster 173168. In einem anderen beispielhaften Szenario, während der Nacht, aber auch in der Dämmerung oder bei ungünstigen Wetterverhältnissen (Nebel, Regen, Schnee), können bestimmte Beleuchtungsstärken bereitgestellt werden. Die Menge der bereitgestellten Beleuchtung kann auch von der aktuellen Verkehrs- oder Fahrsituation abhängen, wie weiter unten näher beschrieben wird.
  • Als weiteres Beispiel kann der Lichtemissionsregler 17310 so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 entsprechend einem SAE-Level (z. B. des Fahrzeugs einschließlich des Systems 17300) steuert. Als Beispiel kann die erste Betriebsleistung (in Verbindung mit der LIDAR-Lichtquelle 42) zur Erhöhung des SAE-Niveaus erhöht werden. Veranschaulichend kann ein größerer Leistungsanteil (z.B. Betriebsleistung und Wärmeleistung) für die Sensorik verwendet werden, wenn ein höherer Grad an autonomem Fahren gewählt wird.
  • In einem Beispielszenario kann ein Fahrzeug, das in einem hohen SAE-Level, z.B. SAE-Level 3 oder höher, fährt, einen großen Teil der Leistung für die LIDAR-Erfassung (z.B. Szenenverständnis und Fahrzeuglenkung) aufwenden, während nur ein kleiner Teil der Leistung für Beleuchtungszwecke verwendet wird. Zur Veranschaulichung kann es ausreichen, dass das Fahrzeug von anderen Verkehrsteilnehmern sicher erkannt werden kann, ohne dass dem Fahrer ein großes Sichtfeld zur Verfügung steht. So kann z.B. ein Fahrzeug, das in SAE-Level 4 oder 5 fährt, das LIDAR-System mit voller Leistung betreiben (z.B. volle Verlustleistung, z.B. volle Wärmeleistung, z.B. 15 W) und die LED für Abblendlichtbeleuchtung mit reduzierter Leistung betreiben (z.B. reduzierte Verlustleistung, z.B. reduzierte Wärmeleistung, z.B. 35 W). Dies kann z.B. durch die Situation 3 in 173C beschrieben werden, z.B. durch die Leistungswerte in einem dritten Zeitfenster 17316- 3. Je nach der spezifischen Verkehrssituation (bekannt z.B. aus Verkehrskarten oder intelligenten Navigationssystemen, wie in Bezug auf 127 bis 130 beschrieben) können auch niedrigere Sensorleistungseinstellungen (z.B. LIDARpower-Einstellungen) vorgesehen werden.
  • In einem weiteren beispielhaften Szenario kann ein Fahrzeug, das auf einem niedrigen SAE-Level fährt, z.B. SAE-Level 2 oder niedriger, eine größere Menge an Leistung für die Beleuchtung aufwenden (z.B. kann es eine größere Menge an LED-Leistung verbrauchen) und eine geringere Menge an Leistung für Sensorzwecke aufwenden. So kann z.B. ein Fahrzeug, das nachts und auf einer Landstraße mit SAE-Level 0 fährt, die Beleuchtung mit voller Leistung betreiben (z.B. volle Verlustleistung, z.B. volle thermische Leistung, z.B. 50 W) für das Abblend- und Fernlicht. Ein solches Fahrzeug kann vom Fahrer allein bedient werden, und das LIDAR kann ausgeschaltet werden. Dies kann durch die Situation 1 in 173C beschrieben werden (z.B. durch die Leistungswerte in einem ersten Zeitfenster 173161). Bei SAE-Level 1 oder 2 kann ein anderes Gleichgewicht zwischen Beleuchtungsleistung (z.B. LED-Leistung) und LIDAR-Leistung gegeben sein (z.B. volle Abblendlichtfunktionalität und eingeschränkte Fernlicht- und LIDAR-Funktionalität), wie z.B. durch die Situation 7 in 173C beschrieben (z.B. durch die Leistungswerte in einem siebten Zeitfenster 173167).
  • Als weiteres Beispiel kann der Lichtemissionsregler 17310 so konfiguriert werden, dass er die Lichtquelle 42 und die weitere Lichtquelle 17308 in Abhängigkeit von einem Verkehrsszenario und/oder einem Fahrszenario betreibt (z. B. steuert). Beispielsweise kann die erste Betriebsleistung (in Verbindung mit der LIDAR-Lichtquelle 42) mit zunehmender Komplexität eines Verkehrsszenarios ansteigen (z.B. können mehr Daten erfasst werden, oder die Daten können mit einer höheren Auflösung erfasst werden). Zur Veranschaulichung: Im Falle einer komplexen zu analysierenden Situation kann ein größerer Anteil der Leistung für die Erfassung verwendet werden.
  • In einem beispielhaften Szenario können für ein Fahrzeug, das in einer Stadt fährt, andere Anforderungen an die Straßenbeleuchtung gestellt werden als für ein Fahrzeug, das auf Landstraßen fährt. Innerhalb von Städten kann das Fahrzeug die Verwendung der Fernlichtfunktionalität vermeiden (z.B. darf es diese Funktionalität möglicherweise nicht nutzen). In einem solchen Fall kann die Beleuchtungsleistung einen Bruchteil der vollen Leistung betragen, z.B. einen Bruchteil der vollen Verlustleistung, z.B. 35 W. Dies kann den Betrieb der LIDAR-Funktionalitäten über den vollen Leistungsbereich ermöglichen, z.B. mit voller thermischer Leistung, z.B. 15 W (z.B. wie durch eine Situation 3 in 173C beschrieben). Die tatsächliche Ausnutzung dieses vollen Leistungsbereichs kann von anderen Faktoren wie z.B. einer Verkehrssituation abhängen. Beispielsweise kann in einer klaren oder eindeutigen Situation und/oder in einer Umgebung, in der das Sichtfeld für die LIDAR-Erfassung auf bestimmte Winkelbereiche beschränkt sein kann, eine LIDAR-Leistung, die niedriger als die volle Leistung ist, für ein zuverlässiges Szenenverständnis ausreichen (z.B. wie durch eine Situation 2 in 173C beschrieben, z.B. durch die Leistungswerte in einem zweiten Zeitfenster 173162).
  • In einem anderen Beispielszenario, auf Landstraßen oder auf einer Autobahn, kann eine höhere Straßenausleuchtung (z.B. volle oder teilweise Fernlichtfunktionalität) vorgesehen werden, z.B. für den Fall, dass das Fahrzeug in einer niedrigen- SAE-Stufe fährt, in der der Fahrer Objekte erkennen soll, die sich in großer Entfernung vor dem Fahrzeug befinden. Dies kann auch von der Geschwindigkeit des Fahrzeugs abhängen. Bei niedrigeren Geschwindigkeiten kann eine geringere LIDARLeistung bereitgestellt werden (z.B. wie durch die Situation 7 in 173C beschrieben). Bei höheren Geschwindigkeiten kann eine höhere LIDAR-Leistung bereitgestellt werden (z.B. wie durch die Situation 5 in 173C beschrieben, z.B. durch die Leistungswerte in einem fünften Zeitfenster 173165).
  • In einem weiteren beispielhaften Szenario, beim Fahren auf Landstraßen oder auf einer Autobahn mit hohem SAE-Niveau, kann mehr Gewicht auf die sensorische Seite gelegt werden. Dies kann z.B. durch die Situation 4 in 173C beschrieben werden (z.B. durch die Leistungswerte in einem vierten Zeitfenster 173164). Die LIDAR-Leistung kann 80 % der maximalen Leistung betragen (z.B. ergibt sich eine thermische Leistung von etwa 80 % der maximalen thermischen Leistung), und die Leistung für die Beleuchtung kann einer leicht- gedimmten Einstellung des Abblendlichts entsprechen. Es wird davon ausgegangen, dass zusätzliche Faktoren eine Rolle spielen können, wie z.B. die Verkehrsumgebung. Beispielsweise darf in einer klaren, eindeutigen Situation (z.B. gerade Straße, keine Kreuzungen oder eine plattformähnliche Fahrsituation) nur eine reduzierte Menge an Beleuchtungs- und/oder Erfassungsleistung zur Verfügung gestellt werden. Ein weiteres Beispiel: In einer komplexen, verwirrenden Situation kann mehr Leistung für die Beleuchtung (z.B. im Falle von SAE-Stufe 3) und/oder für die Sensorik (z.B. im Falle von SAE-Stufe 5) verwendet werden.
  • Es kann möglich sein, dass das System 17300 kurzzeitig übersteuert wird, z.B. in komplexen oder verwirrenden Situationen, was dazu führt, dass die thermische Gesamtleistung den Schwellenwert der thermischen Leistung überschreitet (z.B. die 50 W). Dies kann z.B. durch die Situation 6 in 173C beschrieben werden (z.B. durch die Leistungswerte in einem sechsten Zeitfenster 173166). Eine kurzzeitige Übersteuerung kann in einem Zeitbereich von weniger als ca. 20 s oder weniger als ca. 10 s ohne Schaden für das System tolerierbar sein. Illustrativ kann es eine Zeitverzögerung zwischen einem Startpunkt einer Übersteuerung und einem Zeitpunkt geben, an dem kritische Bereiche in temperaturempfindlichen Bereichen (z.B. ein pn-Übergang in einer Laserdiode) einen kritischen Temperaturanstieg erreichen. Eine Übersteuerung kann auch für längere Zeitbereiche, z.B. von ca. 20 s bis ca. 60 s, toleriert werden, da thermisch induzierte Schäden moderat sein können und nur zu einer geringen Reduzierung der Gesamtlebensdauer führen. Falls die Übersteuerungssituation über einen längeren Zeitraum anhält, können andere Faktoren angepasst werden, z.B. ein SAE-Level, eine Fahrzeuggeschwindigkeit und ähnliches. In einem exemplarischen Szenario kann ein solch kurzer zeitlicher Bereich einer so genannten „fahrzeuginitiierten Übergabe“ entsprechen. Ein Fahrzeug, das auf einer höheren SAE-Stufe (z.B. SAE-Stufe 3) fährt, kann einen menschlichen Fahrer auffordern, in einer verwirrenden Situation die Kontrolle zu übernehmen, und der Fahrer kann eine gewisse Zeit benötigen, um sich mit dem aktuellen Verkehr vertraut zu machen.
  • 174A zeigt eine erste Konfiguration eines Beleuchtungs- und Abtastsystems 17400 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. 174B bis 174D zeigen jeweils eine oder mehrere Komponenten des Beleuchtungs- und Abtastsystems 17400 in schematischer Darstellung nach verschiedenen Ausführungsformen.
  • Das Beleuchtungs- und Abtastsystem 17400 (auch als System 17400 bezeichnet) kann eine beispielhafte Implementierung oder Konfiguration des Beleuchtungs- und Abtastsystems 17300 sein, das in Bezug auf 173A bis 173C beschrieben wird. Die Darstellung in 174A kann das Beleuchtungs- und Abtastsystem 17400 von vorne gesehen zeigen. Es wird davon ausgegangen, dass die Konfiguration des ersten hier beschriebenen Beleuchtungs- und Abtastsystems 17400 nur als Beispiel gewählt wurde und andere Konfigurationen (z.B. andere Anordnungen der Komponenten) vorgesehen werden können.
  • Das System 17400 kann ein LIDAR-System 17402 aufweisen. Das LIDAR-System 17402 kann eine Senderseite (z.B. mit einer Senderoptik-Anordnung 17404) und eine Empfängerseite (z.B. mit einer Empfängeroptik-Anordnung 17406) umfassen, die nachfolgend näher beschrieben werden. Als Beispiel, dargestellt in 174A, können die Senderoptik 17404 und die Empfängeroptik 17406 nebeneinander angeordnet sein. Das System 17400 kann eine Beleuchtungseinrichtung 17408 (z.B. eine weitere Lichtquelle) aufweisen, z.B. eine LED-Beleuchtungseinrichtung. Das System 17400 kann einen Kühlkörper 17410 aufweisen (dargestellt in 174B). Der Kühlkörper 17410 kann an das LIDAR-System 17402 und an die Beleuchtungseinrichtung 17408 angeschlossen werden. In der Beispielkonfiguration in 174A kann es eine Schnittstelle (z.B. eine mechanische Schnittstelle) zwischen dem LIDAR-System 17402 und dem Kühlkörper 17410 an der Unterseite des LIDAR-Systems 17402 geben, und es kann eine Schnittstelle zwischen der Beleuchtungseinrichtung 17408 und dem Kühlkörper 17410 an der Oberseite der Beleuchtungseinrichtung 17408 geben. Nur als numerisches Beispiel kann das LIDAR-System 17302 (z.B. ein Gehäuse des LIDAR-Systems 17302) eine Breite von etwa 80 mm, eine Länge (z.B. eine Tiefe) von etwa 70 mm und eine Höhe von etwa 60 mm haben.
  • Beispielsweise kann der Kühlkörper 17410 so konfiguriert werden, dass er eine maximale Verlustleistung von ca. 65 W ableitet. Beispielsweise kann das LIDAR-System 17402 (z.B. eine Lichtquelle 42 des LIDAR-Systems 17402) eine Verlustleistung von ca. 15 W bei Vollbetrieb und die Beleuchtungseinrichtung 17408 eine Verlustleistung von ca. 50 W bei Vollbetrieb haben. Zur weiteren Veranschaulichung kann der Kühlkörper 17410 so konfiguriert werden, dass er eine maximale Verlustleistung von etwa 65 W ableitet, falls die koordinierte Steuerung des Betriebs der LIDAR-Lichtquelle 42 und der Beleuchtungseinrichtung 17408 nicht im System 17400 implementiert ist. Die Implementierung der koordinierten Steuerung kann zu einer Verringerung der Abmessungen des Kühlkörpers 17410 führen, wie weiter unten näher beschrieben wird.
  • Nur als numerisches Beispiel kann der Kühlkörper 17410 wie folgt konfiguriert werden. Der Kühlkörper 17410 kann eine Breite von ca. 80 mm, eine Länge (z.B. eine Tiefe) von ca. 70 mm und eine Höhe von ca. 50 mm haben und kann 27 Lamellen aufweisen. Das Volumen des Kühlkörpers 17410 kann etwa 290 cm3 betragen. Der Kühlkörper 17410 kann einen Luftvolumenstrom von etwa 23,5 m3/h und einen Luftdruckabfall von etwa 19,3 Pa liefern, z.B. bei einer angenommenen Lufttemperatur von etwa 70°C. Der Kühlkörper 17410 kann so ausgelegt werden, dass er bei einer Verlustleistung von 65 W eine maximale Temperatur von etwa 85°C aufrechterhält.
  • Wie in der Draufsicht in 174C dargestellt, kann das LIDAR-System 17402 auf der Emitterseite eine LIDAR-Lichtquelle 42, ein Abtastelement 17412 (z.B. ein MEMS-Spiegel) und die Emitteroptik 17404 (z.B. eine oder mehrere optische Komponenten, wie eine oder mehrere Linsen, zur Kollimation oder Fokussierung des emittierten Lichts) aufweisen. Das LIDAR-System 17402 kann auf der Empfängerseite einen Sensor 52 und die Empfängeroptik 17406 (z.B. eine oder mehrere optische Komponenten, wie eine oder mehrere Linsen, wie in 173B dargestellt) aufweisen, um das empfangene Licht zu kollimieren oder auf den Sensor 52 zu fokussieren. Die Anordnung der Empfängeroptik 17406 kann eine Aufnahmeapertur, ARX, haben. Nur als numerisches Beispiel kann die Anordnung der Empfängeroptik 17406 ein Objektiv der Größe 35 mm x 50 mm haben, das dem Sichtfeld des LIDAR-Systems 17402 zugewandt ist, was einer Aufnahmeapertur von 1750 mm2 entspricht.
  • 174E zeigt eine zweite Konfiguration des Beleuchtungs- und Abtastsystems 17400 in einer schematischen Darstellung nach verschiedenen Ausführungsformen. 174F und 174G zeigen jeweils eine oder mehrere Komponenten des Beleuchtungs- und Abtastsystems 17400 in einer solchen zweiten Konfiguration in einer schematischen Darstellung nach verschiedenen Ausführungsformen. Die Beschreibung der Komponenten, die in Bezug auf 174A bis 174D beschrieben sind, wird weggelassen, und es wird auf die Unterschiede zwischen den beiden Konfigurationen hingewiesen.
  • In der zweiten Konfiguration des Beleuchtungs- und Abtastsystems 17400 kann die koordinierte Steuerung des Betriebs des LIDAR-Systems 17402 und der Beleuchtungseinrichtung 17408 z.B. mit einer Schwellenwärmeleistung von 50 W realisiert werden. Die Bereitstellung der Schwellenwärmeleistung kann den Effekt haben, dass der Wärmeverlust des Systems 17400 geringer sein kann als der Wärmeverlust des Systems 17400 in der oben beschriebenen ersten Konfiguration. In der zweiten Konfiguration kann das System 17400 einen zweiten Kühlkörper 174102 (dargestellt in 174F) aufweisen, der kleiner als der Kühlkörper 17410 ist. Zur Veranschaulichung: Der zweite Kühlkörper 174102 kann so konfiguriert werden, dass er einen maximalen Wärmeverlust abführt, der geringer ist als der maximale Wärmeverlust des Kühlkörpers 17410. Der zweite Kühlkörper 174102 kann so konfiguriert werden, dass er einen maximalen Wärmeverlust von etwa 50 W ableitet.
  • Nur als numerisches Beispiel kann der zweite Kühlkörper 174102 wie folgt konfiguriert werden. Der zweite Kühlkörper 174102 kann eine Breite von etwa 80 mm, eine Länge (z.B. eine Tiefe) von etwa 70 mm und eine Höhe von etwa 30 mm haben. Das Volumen des zweiten Kühlkörpers 174102 kann etwa 180 cm3 betragen. Der zweite Kühlkörper 174102 kann 21 Kühlrippen aufweisen. Der zweite Kühlkörper 174102kann ein Luftvolumenstrom von etwa 24 m3/h und einen Luftdruckabfall von etwa 19,8 Pa liefern, z.B. bei einer angenommenen Lufttemperatur von etwa 70°C. Der zweite Kühlkörper 174102 kann für eine maximale Temperatur von etwa 85°C ausgelegt werden, falls eine Wärmeleistung von 50 W abgeführt wird.
  • Der zweite Kühlkörper 174102 kann im Vergleich zum Kühlkörper 17410 ein kleineres Volumen haben (z.B. kann das Volumen um ca. 40% reduziert werden, z.B. um ca. 110 cm3). Die Verringerung des Volumens kann durch eine Verringerung mindestens einer seitlichen Abmessung im Vergleich zum Kühlkörper 17410 erreicht werden, z.B. kann die Höhe des Kühlkörpers 174102 um 20 mm kleiner sein als die Höhe des Kühlkörpers 17410 (30 mm statt 50 mm, wobei die anderen Abmessungen unverändert bleiben). Es versteht sich von selbst, dass die in 174E und 174F dargestellte Verringerung des Volumens und der seitlichen Abmessungen nur als Beispiel gezeigt wird und andere Arten der Anpassung vorgesehen werden können (zur Veranschaulichung: je nach Form des Kühlkörpers kann diese Form an die Konstruktion des Systems 17400 angepasst werden).
  • Die reduzierte Abmessung des Kühlkörpers 174102 kann zusätzlichen Platz im System 17400 für das LIDAR-System 17402 und/oder für die Beleuchtungseinrichtung 17408 schaffen. Zur Veranschaulichung: Die Verringerung der Abmessungen des Kühlkörpers kann dazu führen, dass andere Abmessungen, z.B. in Bezug auf das LIDAR-System 17402, im Vergleich zu einer Situation, in der ein LIDAR-System zusammen mit einer Beleuchtungseinrichtung (z.B. in einem Scheinwerfer) ohne Anpassung des Kühlkörpers integriert ist, vergrößert werden können. Als Beispiel, dargestellt in 174E, kann die Höhe des LIDAR-Systems 17402 um einen Betrag erhöht werden, der der Verringerung der Höhe des Kühlkörpers entspricht, z.B. um 20 mm.
  • In der in 174E und 174G dargestellten Beispielkonfiguration kann das LIDAR-System 17402 in dieser zweiten Konfiguration des Systems 17400 eine zweite Anordnung der Empfängeroptik 174062 aufweisen, die größere Abmessung (z.B. einen größeren Durchmesser) im Vergleich zur Empfängeroptik 17406 in der ersten Konfiguration aufweist. Zusätzlich oder alternativ kann die zweite Empfängeroptikanordnung 174062 im Vergleich zur ersten Konfiguration weiter vom Sensor 52 entfernt sein (z.B. von den Detektorpixeln).
  • Das zusätzliche Volumen, das durch den kleineren Kühlkörper 174102 zur Verfügung gestellt wird, kann zur Vergrößerung der Apertur ARX der zweiten Empfängeroptikanordnung 174062 verwendet werden, z.B. um die Eintrittsfläche der Frontlinse der Anordnung zu vergrößern. So kann z.B. die Eintrittsfläche der Frontlinse um den Faktor zwei vergrößert werden (z.B. kann in der zweiten Konfiguration eine doppelt so große Blende im Vergleich zur ersten Konfiguration vorgesehen werden). Nur als numerisches Beispiel kann die Frontlinse der zweiten Empfängeroptikanordnung 174062 eine Größe von 70 mm x 50 mm haben (im Vergleich zu den 35 mm x 50 mm der Empfängeroptikanordnung 17406 in der ersten Konfiguration), was einer Aufnahmeapertur von 3500 mm2 entspricht.
  • Die vergrößerte Blende kann zu einem vergrößerten Erfassungsbereich des LIDAR-Systems 17402 führen. Die erreichbare Reichweite kann je nach Objektgröße um 20% bis 40% zunehmen, wie weiter unten näher beschrieben wird.
  • Im Falle eines kleinen Objekts (z.B. kleiner als eine Spotgröße des emittierten Lichts im Bereich R, z.B. kleiner als die Laserfleckgröße) kann der Bereich R proportional zur Blende ARX der Empfängeroptik wie folgt sein, (18al)
    Geht man von einem Faktor 2 der Blendenzunahme ARX aus, kann sich die Reichweite um den Faktor für kleine Objekte.
  • Im Falle eines großen Objekts (z.B. größer als ein Fleck des emittierten Lichts, z.B. größer als der Laserfleck) kann die Reichweite R proportional zur Blende ARX der Empfängeroptik wie folgt sein
    (19al)
    Geht man von einem Faktor 2 der Blendenzunahme ARX aus, kann sich die Reichweite um den Faktor für große Objekte.
  • 175 zeigt ein Fahrzeuginformations- und Steuerungssystem 17500 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Das Fahrzeuginformations- und -steuerungssystem 17500 (auch als System 17500 bezeichnet) kann eine beispielhafte Implementierung eines Systems eines Fahrzeugs sein, das so konfiguriert ist, dass es Informationen verarbeitet und Anweisungen oder Befehle bereitstellt (z. B. generiert). Das Fahrzeuginformations- und -steuerungssystem 17500 kann eine beispielhafte Implementierung eines Systems eines Fahrzeugs sein, das so konfiguriert ist, dass es die oben beschriebene koordinierte Steuerung eines Sensorsystems und einer Beleuchtungseinrichtung implementiert.
  • Das System 17500 kann ein erstes Kommunikationsmodul 17502 aufweisen, das so konfiguriert ist, dass es Informationen zu einem Fahrzeugzustand, z.B. in Bezug auf eine Verkehrs- oder Fahrsituation, empfängt und verarbeitet. Beispielsweise kann das erste Modul 17502 konfiguriert werden, um Informationen zu empfangen und zu verarbeiten, die sich auf einen Umgebungslichtpegel, eine Fahrzeugumgebung, einen Verkehrszustand, einen Wetterzustand, einen Fahrzeugzustand und einen SAE-Level beziehen.
  • Das System 17500 kann ein zweites Kommunikationsmodul 17504 aufweisen, das für den Empfang und die Verarbeitung externer Informationen konfiguriert ist. Beispielsweise kann das zweite Modul 17504 so konfiguriert werden, dass es Informationen in Bezug auf qualitativ hochwertige Karten, Verkehrskarten, intelligente Navigationssysteme, GPS-Daten, Fahrzeug-zu-Fahrzeug- (V2V)-Kommunikationsdaten, Fahrzeug-zu-Umwelt- (V2X)-Kommunikationsdaten und Trägheitsmesssensordaten empfängt und verarbeitet.
  • Das System 17500 kann ein drittes Kommunikationsmodul 17506 aufweisen, das für den Empfang und die Verarbeitung interner Informationen konfiguriert ist. Beispielsweise kann das dritte Modul 17506 so konfiguriert werden, dass es Informationen bezüglich Ziel- und Routenplanung, Sicherheit und ethische Standards, Fahrzeugbeladung (z.B. Passagiere, Beladung und dergleichen) und Verfügbarkeit von Energie (z.B. Batterie, Benzin und dergleichen) empfängt und verarbeitet.
  • Das System 17500 kann ein Energieverwaltungsmodul 17508 aufweisen. Das Leistungsregelmodul 17508 kann so konfiguriert werden, dass es Informationen in Bezug auf das Leistungsmanagement des Fahrzeugs empfängt und verarbeitet und/oder Anweisungen in Bezug auf das Leistungsmanagement des Fahrzeugs liefert. Beispielsweise kann das Leistungsregelmodul 17508 Informationen verarbeiten und Anweisungen in Bezug auf einen Antriebsstrang (z.B. auf die für den Fahrzeugantrieb bereitgestellte Leistung) und/oder in Bezug auf die Hilfsenergie (z.B. Leistung für Hilfsgeräte wie HLK, V2V/V2X, Beleuchtung und Signalgebung und dergleichen) bereitstellen. Das Leistungssteuerungsmodul 17508 kann optimierte Leistungspegel (z.B. Betriebsleistungspegel und/oder Wärmeleistungspegel) für das Fahrzeug auf der Grundlage von Informationen aus verschiedenen internen und externen Informationsquellen bestimmen.
  • Das System 17500 kann ein Fahrzeugsteuermodul 17510 aufweisen, das so konfiguriert ist, dass es Informationen in Bezug auf die Steuerung des Fahrzeugs empfängt und verarbeitet und/oder Anweisungen in Bezug auf die Steuerung des Fahrzeugs gibt. Beispielsweise kann das Fahrzeugsteuermodul 17510 Informationen verarbeiten und Anweisungen in Bezug auf das Fahren und Lenken und/oder in Bezug auf andere Fahrzeugsteuerfunktionen geben.
  • Das System 17500 kann ein Scheinwerfer-Steuermodul 17512 (auch als Scheinwerfer-Steuermodul bezeichnet) aufweisen. Das Scheinwerfer-Steuermodul 17512 kann so konfiguriert werden, dass es die oben beschriebene situationsabhängige Optimierung des Energiemanagements durchführt (und z. B. entsprechende Anweisungen an ein Lichtemissions-Steuergerät gibt). Das Scheinwerfersteuermodul 17512 (z.B. eine Recheneinrichtung des Moduls 17512) kann so konfiguriert werden, dass es ein geeignetes Leistungsniveau für die Beleuchtungs- und Abtastfunktionen bestimmt. Die Bestimmung kann auf Informationen beruhen, die das Leistungssteuerungsmodul 17508 erhält. Das Scheinwerfer-Steuermodul 17512 kann Steuerinformationen in Bezug auf einen linken Scheinwerfer des Fahrzeugs (einschließlich einer entsprechenden Scheinwerfer-Lichtquelle und eines Sensorsystems) und in Bezug auf einen rechten Scheinwerfer des Fahrzeugs (einschließlich einer entsprechenden Scheinwerfer-Lichtquelle und eines Sensorsystems) steuern oder bereitstellen.
  • Die koordinierte Steuerung der Beleuchtungs- und Sensorfunktionalitäten kann beispielsweise auf den Fall ausgedehnt werden, dass jeder der beiden Scheinwerfer über integrierte Sensorfunktionalitäten verfügt (z.B. ein integriertes LIDAR-System und/oder andere Sensoren). Die situationsadaptive Steuerung der Scheinwerferlichtquellen und Sensoreinrichtungen kann unterschiedliche Einstellungen für Links- und Rechtsscheinwerfer ermöglichen. Dadurch kann ein optimaler Kompromiss gefunden werden. Beispielsweise können beim Fahren auf einer zweispurigen Autobahn auf der linken Fahrbahn und mit hoher Geschwindigkeit die Einstellungen für den linken Scheinwerfer auf hohe Leistungsstufen (z.B. hohe Betriebsleistungsstufen und/oder hohe thermische Leistungsstufen) für die Scheinwerferlichtquelle (zur Veranschaulichung, um einen großen Betrachtungsabstand für den Fahrer zu gewährleisten) und entsprechend reduzierte Leistungsstufen (z.B. reduzierte Betriebsleistungen und/oder reduzierte thermische Leistungen) für das LIDAR-System (z.B. um die Gesamtleistung innerhalb des Grenzwertes zu halten, z.B. unter 50 W). Für den Scheinwerfer auf der rechten Seite kann eine höhere Leistungseinstellung für das LIDAR-System verwendet werden, um Fahrzeuge auf der rechten Fahrspur der Autobahn zu überprüfen, und entsprechend reduzierte Leistungsstufen können für die Scheinwerferlichtquelle verwendet werden, um die Gesamtleistung innerhalb des Grenzwertes zu halten.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1al ist ein Beleuchtungs- und Abtastsystem. Das Beleuchtungs- und Abtastsystem kann ein LIDAR-Sensorsystem umfassen. Das LIDAR-Sensorsystem kann eine LIDAR-Lichtquelle aufweisen. Das Beleuchtungs- und Abtastsystem kann eine weitere Lichtquelle aufweisen. Das Beleuchtungs- und Erfassungssystem kann einen Lichtemissionsregler aufweisen, der so konfiguriert ist, dass die LIDAR-Lichtquelle mit einer ersten Betriebsleistung betrieben wird, was zu einer ersten Wärmeleistung führt, und dass die weitere Lichtquelle mit einer zweiten Betriebsleistung betrieben wird, was zu einer zweiten Wärmeleistung führt. Die Summe der ersten thermischen Leistung und der zweiten thermischen Leistung kann unterhalb einer vordefinierten thermischen Schwellenleistung liegen.
    • In Beispiel 2al kann der Gegenstand von Beispiel 1al optional beinhalten, dass der Betrieb der LIDAR-Lichtquelle mit der ersten Betriebsleistung die Steuerung der LIDAR-Lichtquelle beinhaltet, um Licht mit einer ersten optischen Leistung zu emittieren. Der Betrieb der weiteren Lichtquelle mit der zweiten Betriebsleistung kann beinhalten, dass die weitere Lichtquelle so gesteuert wird, dass sie Licht mit einer zweiten optischen Leistung emittiert.
    • In Beispiel 3al kann der Gegenstand von Beispiel 2al optional beinhalten, dass eine Summe der ersten optischen Leistung und der zweiten optischen Leistung unter einem vordefinierten Schwellenwert der optischen Leistung liegt.
    • In Beispiel 4al kann der Gegenstand eines der Beispiele 2al oder 3al optional beinhalten, dass die erste Betriebsleistung eine Summe aus der ersten optischen Leistung und der ersten thermischen Leistung ist. Die zweite Betriebsleistung kann eine Summe aus der zweiten optischen Leistung und der zweiten thermischen Leistung sein.
    • In Beispiel 5al kann der Gegenstand eines der Beispiele 1al bis 4al optional ein Kühlelement aufweisen, das sowohl mit der weiteren Lichtquelle als auch mit dem LIDAR-Sensorsystem verbunden ist.
    • In Beispiel 6al kann der Gegenstand von Beispiel 5al optional beinhalten, dass das Kühlelement so konfiguriert ist, dass es einen Wärmeverlust abführt, der im Wesentlichen der vordefinierten Schwellenwärmeleistung entspricht.
    • In Beispiel 7al kann der Gegenstand eines der Beispiele 5al oder 6al optional beinhalten, dass das Kühlelement ein Kühlkörper mit einem Volumen im Bereich von ca. 100 cm3 bis ca. 300 cm3 ist.
    • In Beispiel 8al kann der Gegenstand eines der Beispiele 1al bis 7al optional beinhalten, dass die vordefinierte Schwellenwärmeleistung im Bereich von etwa 30 W bis etwa 100 W liegt.
    • In Beispiel 9al kann der Gegenstand eines der Beispiele 1al bis 8al optional beinhalten, dass die weitere Lichtquelle mindestens eine Leuchtdiode enthält.
    • In Beispiel 10al kann der Gegenstand eines der Beispiele 1al bis 9al optional beinhalten, dass die weitere Lichtquelle so konfiguriert ist, dass sie Abblendlichtfunktionen und/oder Fernlichtfunktionen und/oder adaptives Fernlicht bietet.
    • In Beispiel 11al kann der Gegenstand eines der Beispiele 1al bis 10al optional beinhalten, dass der Lichtemissionsregler so konfiguriert ist, dass er die LIDAR-Lichtquelle und die weitere Lichtquelle in Abhängigkeit von einem Umgebungslichtpegel betreibt.
    • In Beispiel 12al kann der Gegenstand eines der Beispiele 1al bis 11al optional beinhalten, dass der Lichtemissionsregler so konfiguriert ist, dass er die LIDAR-Lichtquelle und die weitere Lichtquelle gemäß einem SAE-Pegel betreibt.
    • In Beispiel 13al kann der Gegenstand eines der Beispiele 1al bis 12al optional beinhalten, dass der Lichtemissionsregler so konfiguriert ist, dass er die LIDAR-Lichtquelle und die weitere Lichtquelle in Übereinstimmung mit einem Verkehrsszenario und/oder einem Fahrszenario betreibt.
    • In Beispiel 14al kann der Gegenstand eines der Beispiele 1al bis 13al optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 15al kann der Gegenstand eines der Beispiele 1al bis 13al optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert ist.
    • Beispiel 16al ist ein Fahrzeug mit einem oder mehreren Beleuchtungs- und Sensorsystemen nach einem der Beispiele 1al bis 15al.
    • Beispiel 17al ist ein Verfahren zum Betrieb eines Beleuchtungs- und Abtastsystems. Das Beleuchtungs- und Erfassungssystem kann ein LIDAR-Sensorsystem mit einer LIDAR-Lichtquelle umfassen. Das Beleuchtungs- und Abtastsystem kann eine weitere Lichtquelle aufweisen. Das Verfahren kann den Betrieb der LIDAR-Lichtquelle mit einer ersten Betriebsleistung, die eine erste Wärmeleistung ergibt, und den Betrieb der weiteren Lichtquelle mit einer zweiten Betriebsleistung, die eine zweite Wärmeleistung ergibt, umfassen. Die Summe der ersten thermischen Leistung und der zweiten thermischen Leistung kann unterhalb einer vordefinierten thermischen Schwellenleistung liegen.
    • In Beispiel 18al kann der Gegenstand von Beispiel 17al optional beinhalten, dass der Betrieb der LIDAR-Lichtquelle mit der ersten Betriebsleistung die LIDAR-Lichtquelle einschließt, die Licht mit einer ersten optischen Leistung emittiert. Der Betrieb der weiteren Lichtquelle mit der zweiten Betriebsleistung schließt die weitere Lichtquelle ein, die Licht mit einer zweiten optischen Leistung emittiert.
    • In Beispiel 19al kann der Gegenstand von Beispiel 18al optional beinhalten, dass die Summe der ersten optischen Leistung und der zweiten optischen Leistung unter einem vordefinierten Schwellenwert der optischen Leistung liegt.
    • In Beispiel 20al kann der Gegenstand von Beispiel 18al oder 19al optional beinhalten, dass die erste Betriebsleistung eine Summe aus der ersten optischen Leistung und der ersten thermischen Leistung ist. Die zweite Betriebsleistung kann eine Summe aus der zweiten optischen Leistung und der zweiten thermischen Leistung sein.
    • In Beispiel 21al kann der Gegenstand eines der Beispiele 17al bis 20al optional ein Kühlelement aufweisen, das sowohl mit der weiteren Lichtquelle als auch mit dem LIDAR-Sensorsystem verbunden ist.
    • In Beispiel 22al kann der Gegenstand von Beispiel 21al optional das Kühlelement einschließen, das einen Wärmeverlust abführt, der im Wesentlichen der vordefinierten thermischen Schwellenleistung entspricht.
    • In Beispiel 23al kann der Gegenstand eines der Beispiele 21al oder 22al optional beinhalten, dass das Kühlelement ein Kühlkörper mit einem Volumen im Bereich von etwa 100 cm3 bis etwa 300 cm3 ist.
    • In Beispiel 24al kann der Gegenstand eines der Beispiele 17al bis 23al optional beinhalten, dass die vordefinierte Schwellenwärmeleistung im Bereich von etwa 30 W bis etwa 100 W liegt.
    • In Beispiel 25al kann der Gegenstand eines der Beispiele 17al bis 24al optional beinhalten, dass die weitere Lichtquelle mindestens eine Leuchtdiode enthält.
    • In Beispiel 26al kann der Gegenstand eines der Beispiele 17al bis 25al optional die weitere Lichtquelle mit Abblend- und/oder Fernlichtfunktionalität und/oder adaptiver Fernlichtfunktionalität umfassen.
    • In Beispiel 27al kann der Gegenstand eines der Beispiele 17al bis 26al optional den Betrieb der LIDAR-Lichtquelle und der weiteren Lichtquelle in Abhängigkeit von einem Umgebungslichtniveau beinhalten.
    • In Beispiel 28al kann in den Beispielen 17al bis 27al optional der Betrieb der LIDAR-Lichtquelle und der weiteren Lichtquelle nach einem SAE-Level zum Gegenstand gemacht werden.
    • In Beispiel 29al kann der Gegenstand eines der Beispiele 17al bis 28al optional den Betrieb der LIDAR-Lichtquelle und der weiteren Lichtquelle in Übereinstimmung mit einem Verkehrsszenario und/oder einem Fahrszenario umfassen.
    • In Beispiel 30al kann der Gegenstand eines der Beispiele 17al bis 29al optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert wird.
    • In Beispiel 31al kann der Gegenstand eines der Beispiele 17al bis 29al optional beinhalten, dass das LIDAR-Sensorsystem als Flash-LIDAR-Sensorsystem konfiguriert wird.
    • Beispiel 32al ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einer Computerprogrammvorrichtung eines Beleuchtungs- und Erfassungssystems gemäß einem der Beispiele 1al bis 15al ausgeführt werden, das Beleuchtungs- und Erfassungssystem veranlassen, das Verfahren gemäß einem der Beispiele 17al bis 31al auszuführen.
    • Beispiel 33al ist eine Datenspeichervorrichtung mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das geeignet ist, mindestens eines der folgenden Verfahren auszuführen: ein Beleuchtungs- und Abtastsystem gemäß einem der obigen Verfahrensbeispiele, ein Beleuchtungs- und Abtastsystem gemäß einem der obigen Beleuchtungs- und Abtastsystembeispiele.
  • Die ordnungsgemäße Funktion eines LIDAR-Systems kann vor dem Einbau am vorgesehenen Ort (z.B. vor dem Einbau des LIDAR-Systems in ein Fahrzeug) getestet werden. So kann z.B. das LIDAR-System (und/oder andere Sensoren oder Sensorsysteme, wie z.B. eine Kamera) vor der Auslieferung und Inbetriebnahme durch ein übergeordnetes System, z.B. ein sensor-externes System, kalibriert werden. Im Betrieb gibt es unter Umständen keine einfache Möglichkeit, die korrekte Funktion der verschiedenen Komponenten (z.B. auf der Sender- und/oder Empfängerseite des LIDAR-Systems) zu überprüfen. Beispielsweise können zusätzliche Sensoren vorgesehen werden, um die korrekte Funktion aktiver Elemente (z.B. eines Lasers) z.B. im Hinblick auf Aspekte der funktionalen Sicherheit zu bewerten. Als weiteres Beispiel kann aus der Plausibilität der Messdaten auf einen Fehler in der Funktionalität geschlossen werden. Aber auch bei einer Verschiebung (z.B. Verschiebung oder Versatz) einzelner optischer Komponenten oder sogar bei Verkippung von Subsystemen oder Baugruppen des LIDAR-Systems können scheinbar gültige Messwerte geliefert werden. In solchen Fällen können Objekte in der Szene mit einem seitlichen Versatz wahrgenommen werden. Beispielsweise kann ein vorausfahrendes Auto so wahrgenommen werden, als befinde es sich in einer Seitenspur.
  • Verschiedene Ausführungsformen können sich auf ein Prüfschema zur Überwachung eines Sensorgeräts beziehen (z.B. zur Überwachung eines in einem Sensorgerät enthaltenen LIDAR-Systems). Das hier beschriebene Prüfverfahren kann flexibel zur Überprüfung eines bereits am Einsatzort installierten LIDAR-Systems eingesetzt werden (z.B. zur Überprüfung eines LIDAR-Systems, das in einer Sensoreinrichtung enthalten ist, wie z.B. in einer LIDAR-Sensoreinrichtung, z.B. in einem Fahrzeug). Um die korrekte Funktion eines LIDAR-Systems zu gewährleisten, kann ein Detektor (z.B. in der Sensoreinrichtung) vorgesehen werden.
  • Der Detektor kann z.B. außerhalb des LIDAR-Systems liegen. Ein anderes Beispiel: Der Detektor kann sich innerhalb des LIDAR-Systems befinden, z.B. zusätzlich zu einem LIDAR-Sensor des LIDAR-Systems. Mit Hilfe des Detektors kann evtl. beurteilt werden, ob eine Anomalie in der Emission des LIDAR-Systems auf eine Fehlfunktion oder einen Ausfall einer Komponente oder auf eine Umgebungsbedingung zurückzuführen sein könnte. Illustrativ kann der Detektor es ermöglichen, zwischen dem Fall, in dem keine Reflexion vorhanden ist, und dem Fall, in dem kein Licht emittiert wird, zu unterscheiden.
  • Das LIDAR-System kann so konfiguriert werden, dass es Licht (z.B. Laserlicht) gemäß einer vordefinierten Konfiguration (z.B. gemäß einem vordefinierten Emissionsmuster, wie z.B. einem vordefinierten Gittermuster) emittiert. Als Beispiel kann das Gittermuster vertikale Linien aufweisen, die sequentiell in das Sichtfeld emittiert werden, z.B. während eines Scanvorgangs oder als Teil eines Scanvorgangs, der das Sichtfeld abdeckt. Zur Veranschaulichung: Das LIDAR-System kann so konfiguriert werden, dass es eine Laserlinie oder mindestens einen Laserpunkt (auch als Laserpunkt bezeichnet) in eine bestimmte Richtung projiziert (z.B. um ein Liniengitter oder ein Muster mit einer Vielzahl von Laserpunkten in das Sichtfeld zu projizieren).
  • Der Detektor (z.B. ein kamerabasiertes Bilderkennungssystem) kann so konfiguriert werden, dass er das vom LIDAR-System emittierte Licht erkennt. Zur Veranschaulichung: Der Detektor kann so konfiguriert werden, dass er das vom LIDAR-System im Sichtfeld ausgestrahlte Licht detektiert oder ein Bild davon erzeugt (z.B. ein Bild einer ausgestrahlten Linie oder ein Bild des ausgestrahlten Musters). Die Detektion des emittierten Lichts (z.B. die Detektion des projizierten Gittermusters) kann die Bestimmung eines Zustands der Sensoreinrichtung (z.B. eines Zustands des LIDAR-Systems) oder eines Zustands in der Umgebung der Sensoreinrichtung (z.B. eines Zustands in der Umgebung des LIDAR-Systems) ermöglichen, wie weiter unten näher beschrieben. Beispielsweise kann durch die Erkennung des projizierten Gittermusters festgestellt werden, ob das LIDAR-Emissionssystem ordnungsgemäß funktioniert (oder nicht). Dies kann durch das LIDAR-System selbst nicht erfüllt werden, z.B. durch den LIDAR-Empfänger, der in dieser Konfiguration in der Regel kein Auflösungsvermögen in dieser Abtastrichtung hat (z.B. im Falle eines 1D-Detektorarrays).
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren (z.B. mit einer Sensorfusionsbox, z.B. der Sensoreinrichtung, verbunden oder in ihr enthalten) so konfiguriert werden, dass sie das erkannte Bild (z.B. die erkannte Linie oder das erkannte Muster, z.B. Gittermuster) verarbeiten. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie Unregelmäßigkeiten und/oder Abweichungen im detektierten Bild (z.B. im gemessenen Bild) bestimmen (z.B. erkennen), indem sie das detektierte Bild mit einem oder mehreren Referenzbildern vergleichen (z.B. mit einem oder mehreren berechneten oder simulierten Bildern). Als Beispiel kann eine Verzerrung und/oder ein Versatz im emittierten Licht (z.B. in einer oder mehreren Zeilen) erkannt werden. Als weiteres Beispiel kann das Fehlen eines oder mehrerer beleuchteter Bereiche (z.B. das Fehlen einer oder mehrerer Linien) erkannt werden. Als weiteres Beispiel kann eine verringerte Intensität des ausgestrahlten Lichts (z.B. einer oder mehrerer Linien oder eines oder mehrerer Punkte) festgestellt werden. Falls eine Fehlanpassung zwischen der Referenz (z.B. der Simulation) und der Messung festgestellt wird, kann eine Fehler- und Korrekturmeldung an das LIDAR-System (z.B. an ein Kontrollsystem des LIDAR-Systems) ausgegeben werden.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren so konfiguriert werden, dass sie den Zustand der Sensoreinrichtung oder den Zustand in der Umgebung der Sensoreinrichtung unter Berücksichtigung der Art der Unregelmäßigkeit bestimmen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie den Ursprung einer Fehlfunktion bestimmen (z.B. unterscheiden), indem sie das erkannte Bild mit dem einen oder den mehreren Referenzbildern (z.B. mit dem einen oder den mehreren berechneten Referenzbildern) vergleichen. Es kann auch der Schweregrad des Fehlers bestimmt werden. Beispielsweise kann eine Unregelmäßigkeit mit einer Umgebungsbedingung wie Verschmutzung, Regen, Nebel, Kondenswasser, Sand und dergleichen in Zusammenhang stehen. Ein weiteres Beispiel: Eine Unregelmäßigkeit kann mit einem Fehler im LIDAR-System zusammenhängen, z.B. einer nicht funktionierenden Laserdiode, einem nicht funktionierenden MEMS-Spiegel, einer defekten LIDAR-Sendeoptik und ähnlichem. Wenn eine Laserlinie oder ein Laserpunkt nicht an der erwarteten Position im detektierten Bild detektiert wird (z.B. wenn die Linie oder der Punkt an einer versetzten Position detektiert wird), kann festgestellt werden, dass das LIDAR-System fehlausgerichtet ist, z.B. dass das LIDAR-System und der Detektor ihre Winkelausrichtung zueinander verloren haben.
  • Das hier beschriebene Prüfschema kann die Erkennung einer Winkelverschiebung des LIDAR-Systems oder einiger optischer Komponenten während des Betriebs ermöglichen. Dies kann zu einer erhöhten Funktionssicherheit beim Betrieb der Sensoreinrichtung führen. Im Hinblick auf die relative Ausrichtung zwischen dem LIDAR-System und dem Detektor sind zusätzliche Sensoren möglicherweise nicht erforderlich. Eine Überprüfung der Ausrichtung des LIDAR-Systems kann nicht nur auf der Grundlage der Plausibilitätsbeurteilung der gelieferten Daten erfolgen, sondern auch durch die Detektormessung des emittierten LIDAR-Lichts (z.B. der projizierten Laserlinien, z.B. des projizierten Musters). Eine solche Messung kann weniger rechenaufwändig und präziser sein und auch bei kontrastarmen Szenen durchgeführt werden. Ein Fehler im Emitterpfad (z.B. im Laserpfad) kann direkt gemessen und ausgewertet werden, ohne dass jede Komponente auf der Emitterseite einzeln überwacht werden muss.
  • In verschiedenen Ausführungsformen kann das hier beschriebene Prüfschema eine erhöhte Funktionssicherheit bieten, indem überwacht wird, ob das LIDAR-System Licht in die richtige Richtung emittiert und/oder ob die Ausrichtung zwischen dem Laser-Emissionspfad und dem Laser-Erfassungspfad gemäß der anfänglichen Ausrichtung noch genau ist. Das detektierte emittierte Licht kann unter Berücksichtigung des durch die LIDAR-Messung bekannten Abstands der Reflexion ausgewertet werden. Illustrativ kann die Position einer Laserlinie (und/oder eines Laserpunktes) im detektierten Bild bestimmt (z.B. berechnet oder errechnet) werden, unter Berücksichtigung der durch die LIDAR-Messung ermittelten Laufzeit.
  • In verschiedenen Ausführungsformen kann eine Kalibrierung durchgeführt werden. Das LIDAR-System und/oder der Detektor können kalibriert werden, indem eine bekannte Szene erkannt oder gemessen wird (z.B. eine Szene mit bekannten Eigenschaften, wie z.B. bekannte Reflexionseigenschaften). Die gemessenen oder detektierten Werte können ausgewertet (z.B. mit den bekannten Werten verglichen) werden. Das LIDAR-System und/oder der Detektor können in Übereinstimmung mit den Ergebnissen der Auswertung eingestellt werden.
  • In verschiedenen Ausführungsformen kann der Detektor in eine Kamera eingebaut oder Teil einer Kamera sein. Die Kamera kann einen Infrarotfilter aufweisen, der so konfiguriert ist, dass er Infrarotlicht blockiert (z.B. um anderes Infrarotlicht als die verwendeten LIDAR-Laserwellenlängen zu blockieren). Der Infrarotfilter kann so konfiguriert werden, dass er sichtbares Licht durchlässt. Der Infrarotfilter kann so konfiguriert oder gesteuert werden, dass vom LIDAR-System emittiertes Licht (z.B. Laserlicht) durchgelassen wird (z.B. zum Auftreffen auf den Detektor). Beispielsweise kann der Infrarotfilter der Kamera so konfiguriert werden, dass er den größten Teil des Infrarotlichts der Umgebung blockiert, aber deutlich weniger Infrarotlicht der emittierten Wellenlänge (z.B. der Laserwellenlänge). Illustrativ kann der Infrarotfilter einen Bandpass um die emittierten Wellenlängen über die Betriebstemperaturen haben (z.B. mit einer Bandbreite gleich oder kleiner als etwa 50 nm, z.B. von etwa 5 nm). Der Infrarotfilter kann eine kleine Bandbreite haben (z.B. so niedrig wie 1 nm), insbesondere dann, wenn die Lichtquelle, die das LIDAR-Licht emittiert, temperaturstabilisiert ist. Diese Konfiguration kann dafür sorgen, dass die Farbmessung der Kamera nur minimal beeinträchtigt wird und gleichzeitig der Detektor für das emittierte LIDAR-Licht deutlich empfindlich ist.
  • Diese Konfiguration kann es ermöglichen, eine normale Tageslichtkamera (z.B. RGB-Kamera) zu verwenden, die mit einem solchen Infrarotfilter mit einem schmalbandigen Band im Infrarotbereich ausgestattet ist, der für die normale sichtbare Echtfarben-Bilderkennung geeignet ist, wobei eine gute Empfindlichkeit für das emittierte Infrarotlicht (z.B. für das projizierte Lasermuster) erhalten bleibt. Zur Veranschaulichung: In verschiedenen Ausführungsformen kann die Kamera Sensoren aufweisen, die mit der Erkennung verschiedener Wellenlängen oder verschiedener Wellenlängenbereiche verbunden sind (z.B. Sensoren, die für verschiedene Wellenlängen empfindlich sind). Die Kamera kann einen oder mehrere RGB-Sensoren (z.B. einen oder mehrere Sensoren, die mit der RGB-Erkennung verbunden sind) und einen oder mehrere Infrarot-Sensoren (z.B. einen oder mehrere Sensoren, die mit der Infrarot-Erkennung verbunden sind) aufweisen. Die Sensoren können vom gleichen Typ sein, z.B. mit unterschiedlichen Filtern oder damit verbundenen Filtersegmenten. Als Beispiel kann die Kamera einen oder mehrere Sensoren aufweisen, die Licht durch einen (z.B. Bandpass-)Filter empfangen, der so konfiguriert ist, dass er RGB-Licht durchlässt, und einen oder mehrere Sensoren, die Licht durch einen (z.B. Bandpass-)Filter empfangen, der so konfiguriert ist, dass er IR-Licht durchlässt. Möglicherweise ist es möglich, den Infrarotfilter (z.B. ein oder mehrere Infrarotfiltersegmente) nur über den infrarotempfindlichen Sensoren der Kamera anzuordnen.
  • In verschiedenen Ausführungsformen kann ein Verschluss vorgesehen sein (z.B. kann die Kamera einen Verschluss aufweisen, wie eine dynamische Blende oder eine dynamische Filteranordnung). Ein Shutter-Controller kann so konfiguriert werden, dass er den Shutter synchron zur Lichtemission des LIDAR-Systems steuert (z.B. zum Öffnen des Shutters) (z.B. synchron zu einem Musterprojektions-Timing). Das LIDAR-System (z.B. die Lichtquelle des LIDAR-Systems) kann so konfiguriert werden, dass es kurze Lichtpulse (z.B. kurze Infrarot-Laserpulse) liefert, z.B. mit einer Pulsdauer gleich oder kleiner als etwa 15 ns. Das LIDAR-System kann so konfiguriert werden, dass es eine hohe Wiederholrate (z.B. gleich oder höher als einige hundert Hz oder gleich oder höher als 1 kHz) liefert, z.B. um Lichtpulse mit einer hohen Wiederholrate zu emittieren. Die Belichtungszeit des Detektors kann so gesteuert werden (z.B. mit Hilfe des Verschlusses), dass sie der Dauer eines oder mehrerer LIDAR-Lichtpulse entspricht, z.B. um das Licht des LIDAR-Systems (z.B. das gesamte emittierte Licht) und sehr wenig Licht aus der Umgebung zu sammeln.
  • 169A zeigt ein Sensorgerät 16900 in einer schematischen Darstellung nach verschiedenen Ausführungsformen.
  • Die Sensorvorrichtung 16900 kann als LIDAR-Sensorvorrichtung 30 konfiguriert sein oder konfiguriert werden. Als Beispiel kann die Sensoreinheit 16900 ein Gehäuse, ein Fahrzeug oder ein Fahrzeugscheinwerfer sein.
  • Das Sensorgerät 16900 kann ein LIDAR-System 16902 aufweisen. Das LIDAR-System 16902 kann als LIDAR-Sensorsystem 10 konfiguriert sein oder konfiguriert werden. Als Beispiel kann das LIDAR-System 16902 als scannendes LIDAR-System konfiguriert werden (z.B. als scannendes LIDAR-Sensorsystem 10). Als weiteres Beispiel kann das LIDAR-System 16902 als Flash-LIDAR-System konfiguriert werden (z.B. als Flash-LIDAR-Sensorsystem 10).
  • Die Sensorvorrichtung 16900 kann eine Lichtquelle 42 aufweisen (z.B. im LIDAR-System 16902 enthalten oder mit diesem verbunden). Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht, z.B. Infrarotlicht, aussendet. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge ausstrahlt. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht im Infrarotbereich emittiert (z.B. im Bereich von etwa 700 nm bis etwa 2000 nm, z.B. im Bereich von etwa 860 nm bis etwa 1600 nm, z.B. bei etwa 905 nm oder bei etwa 1550 nm). Zur Veranschaulichung: Die Lichtquelle 42 kann eine Infrarot-Lichtquelle 42 sein. Die Lichtquelle 42 kann so konfiguriert sein, dass sie kontinuierlich oder gepulst Licht emittiert (z.B. einen oder mehrere Lichtimpulse, wie z.B. eine Folge von Laserimpulsen).
  • Zum Beispiel kann die Lichtquelle 42 so konfiguriert werden, dass sie Laserlicht emittiert. Die (z.B. Infrarot)Lichtquelle 42 kann eine oder mehrere Laserlichtquellen aufweisen (z.B. konfiguriert als die Laserquelle 5902, die z.B. in Bezug auf 59 beschrieben wird). Die eine oder mehrere Laserlichtquellen können mindestens eine Laserdiode aufweisen, z.B. eine oder mehrere Laserdioden (z.B. eine oder mehrere kantenemittierende Laserdioden und/oder eine oder mehrere oberflächenemittierende Laserdioden mit vertikalem Resonator).
  • In verschiedenen Ausführungsformen kann die Lichtquelle 42 so konfiguriert werden, dass sie Licht in Richtung eines Sichtfeldes 16904 aussendet. Das Sichtfeld 16904 kann ein Emissionsfeld der Lichtquelle 42 sein. Das Sichtfeld 16904 kann ein Sichtfeld des LIDAR-Systems 16902 sein oder im wesentlichen diesem entsprechen (z.B. ein Winkelbereich, in dem das LIDAR-System 16902 Licht aussenden kann und/oder aus dem das LIDAR-System 16902 Licht empfangen kann, z.B. reflektiert von einem oder mehreren Objekten). Zur Veranschaulichung: Das Sichtfeld 16904 kann eine Szene sein, die zumindest teilweise mit Hilfe des LIDAR-Systems 16902 erfasst wird. Das Sichtfeld 16904 kann ein Sichtfeld eines optischen Sensorarrays 16906 der Sensorvorrichtung 16900 sein oder im Wesentlichen einem Sichtfeld entsprechen, das weiter unten näher beschrieben wird. Das Sichtfeld 16904 kann dem Sichtfeld der Sensorvorrichtung 16900 entsprechen oder im Wesentlichen entsprechen, oder das Sichtfeld 16904 kann ein Teil des Sichtfeldes der Sensorvorrichtung 16900 sein (z.B. durch die Überlagerung der einzelnen Sichtfelder eines oder mehrerer Sensorsysteme der Sensorvorrichtung 16900).
  • Das Sichtfeld 16904 kann ein zweidimensionales Sichtfeld sein. Zur Veranschaulichung: Das Sichtfeld 16904 kann sich entlang einer ersten Richtung 16954 und einer zweiten Richtung 16956 erstrecken (z.B. kann das Sichtfeld 16904 eine erste Winkelausdehnung in einer ersten Richtung 16954 und eine zweite Winkelausdehnung in einer zweiten Richtung 16956 haben). Die erste Richtung 16954 kann senkrecht zur zweiten Richtung 16956 verlaufen (z.B. kann die erste Richtung 16954 die horizontale Richtung und die zweite Richtung 16956 die vertikale Richtung sein). Die erste Richtung 16954 und die zweite Richtung 16956 können senkrecht zu einer dritten Richtung 16952 verlaufen, z.B. in der dritten Richtung 16952 kann eine optische Achse des LIDAR-Systems 16902 und/oder eine optische Achse des optischen Sensorarrays 16906 ausgerichtet sein.
  • In verschiedenen Ausführungsformen kann die Lichtquelle 42 (z.B. das LIDAR-System 16902) so konfiguriert oder gesteuert werden, dass sie mit dem emittierten Licht das Sichtfeld 16904 abtastet. Die Lichtquelle 42 kann so konfiguriert oder gesteuert werden, dass sie Licht in Übereinstimmung mit einem vordefinierten Emissionsmuster (z.B. das Sichtfeld 16904 abdeckt) emittiert. Zur Veranschaulichung: Die Lichtquelle 42 kann so konfiguriert oder gesteuert werden, dass sie Licht gemäß einem Muster (z. B. eindimensional oder zweidimensional, z. B. ein Muster in eine Richtung oder in zwei Richtungen) aussendet. Beispielsweise kann die Lichtquelle 42 so konfiguriert oder gesteuert werden, dass sie Licht in einer Weise emittiert, dass Informationen oder Daten in dem emittierten Licht kodiert sind (z.B. wie z.B. in Bezug auf 131A bis 137 und/oder in Bezug auf 138 bis 144 und/oder in Bezug auf 145A bis 149E beschrieben).
  • Als Beispiel kann die Lichtquelle 42 ein Array von Lichtquellen (z.B. ein Array von Laserquellen, wie ein Array von Laserdioden) aufweisen, z.B. ein eindimensionales Array von Lichtquellen oder ein zweidimensionales Array von Lichtquellen. Die Emission der Lichtquellen kann gesteuert werden (z.B. spaltenweise oder pixelweise), so dass die Abtastung des Sichtfeldes 16904 durchgeführt werden kann.
  • Als weiteres Beispiel kann die Sensoreinrichtung (z.B. das LIDAR-System 16902) ein Abtastsystem (z.B. ein Strahlführungssystem), z.B. ein oder mehrere mikroelektromechanische Systeme (MEMS), aufweisen. Das Abtastsystem kann so konfiguriert werden, dass es Licht von der Lichtquelle 42 empfängt. Das Abtastsystem kann so konfiguriert werden, dass es das Sichtfeld 16904 mit dem von der Lichtquelle 42 empfangenen Licht abtastet (z.B. um das von der Lichtquelle 42 empfangene Licht sequentiell auf verschiedene Teile des Sichtfeldes 16904 zu richten). Zur Veranschaulichung: Das Abtastsystem kann so konfiguriert werden, dass es das emittierte Licht so steuert, dass ein Bereich des Sichtfeldes 16904 durch das emittierte Licht beleuchtet wird. Der beleuchtete Bereich kann sich über das gesamte Sichtfeld 16904 in mindestens einer Richtung erstrecken (z.B. kann der beleuchtete Bereich als eine Linie gesehen werden, die sich entlang des gesamten Sichtfeldes 16904 in horizontaler oder vertikaler Richtung erstreckt). Alternativ kann der beleuchtete Bereich auch ein Punkt (z.B. ein kreisförmiger Bereich) im Sichtfeld 16904 sein. Das Abtastsystem kann so konfiguriert werden, dass es die Emission des Lichts steuert, um das Sichtfeld 16904 mit dem emittierten Licht abzutasten. Als Beispiel kann das Abtastsystem einen MEMS-Spiegel oder ein optisches Gitter (z.B. ein Flüssigkristall-Polarisationsgitter) aufweisen. Der MEMS-Spiegel kann so konfiguriert werden, dass er um eine Achse (1D-MEMS) oder um zwei Achsen (2D-MEMS) gekippt werden kann. Alternativ kann das Scansystem eine Vielzahl von Strahlsteuerelementen aufweisen, z.B. zwei MEMS-Spiegel (z.B. zwei 1D-MEMS). Die Abtastung kann entlang einer Abtastrichtung erfolgen (z.B. einer Abtastrichtung des LIDAR-Systems 16902). Die Abtastrichtung kann eine Richtung senkrecht zu der Richtung sein, entlang der sich der beleuchtete Bereich erstreckt. Die Abtastrichtung kann die erste (z.B. horizontale) Richtung 16954 oder die zweite (z.B. vertikale) Richtung 16956 sein (z.B. in 169A kann die Abtastrichtung die horizontale Richtung sein).
  • Die Sensorvorrichtung 16900 kann eine Anordnung der Emitteroptik aufweisen (z.B. im LIDAR-System 16902 enthalten oder mit diesem verbunden sein, z.B. mit der Lichtquelle 42). Die Anordnung der Emitteroptik kann eine oder mehrere optische Komponenten aufweisen. Die eine oder mehrere optische Komponenten können so konfiguriert sein, dass sie das emittierte Licht kollimieren. Als Beispiel kann die Anordnung der Emitteroptik eine oder mehrere Linsen aufweisen (z.B. ein Linsensystem, z.B. ein Mikrolinsenarray).
  • Das Sensorgerät 16900 kann einen Sensor 52 aufweisen (z.B. im LIDAR-System 16902 enthalten oder mit diesem verbunden sein, z.B. ein LIDAR-Sensor 52). Der Sensor 52 kann eine oder mehrere Fotodioden aufweisen (z.B. ein oder mehrere Sensorpixel, die jeweils einer entsprechenden Fotodiode zugeordnet sind). Die eine oder mehrere Fotodioden können ein Array bilden. Die Fotodioden können in einem eindimensionalen Array angeordnet sein (z.B. können die Fotodioden in einer Richtung angeordnet sein, um das eindimensionale Array zu bilden). Die Fotodioden können in dem eindimensionalen Array in einer Reihe oder in einer Spalte angeordnet sein. Es wird davon ausgegangen, dass die Fotodioden alternativ in einem zweidimensionalen Array angeordnet werden können (z.B. können die Fotodioden in zwei Richtungen angeordnet werden, um das zweidimensionale Array zu bilden). Die Fotodioden können in dem zweidimensionalen Array in Zeilen und Spalten angeordnet werden.
  • Das Sensorgerät 16900 kann ein optisches Sensorarray 16906 aufweisen (z.B. extern oder intern zum LIDAR-System 16902). Das optische Sensorarray 16906 kann so konfiguriert werden, dass es infrarotes Licht aus dem Sichtfeld 16904 optisch erfasst. Zur Veranschaulichung: Das optische Sensorarray 16906 kann so konfiguriert werden, dass es das Sichtfeld 16904 abbildet und das darin enthaltene Infrarotlicht erfasst (z.B. kann das optische Sensorarray 16906 so konfiguriert werden, dass es gleichzeitig das gesamte Sichtfeld 16904 abbildet). Das optische Sensorarray 16906 kann so konfiguriert werden, dass es infrarotes Licht aus dem Sichtfeld 16904 erfasst, um dadurch ein oder mehrere Infrarotbilder 16920 zu erfassen. Zur Veranschaulichung: Die optische Sensoranordnung 16906 kann so konfiguriert werden, dass sie infrarotes Licht aus dem Sichtfeld 16904 so erfasst, dass eine oder mehrere InfrarotLichtlinien oder Infrarot-Lichtmuster (z.B. einschließlich einer Vielzahl von Punkten) erfasst (z.B. abgebildet) werden können. Zur weiteren Veranschaulichung kann die optische Sensoranordnung 16906 so konfiguriert werden, dass sie infrarotes Licht aus dem Sichtfeld 16904 so erfasst, dass das von der Lichtquelle 42 (z.B. bei einer Abtastung des Sichtfeldes 16904 oder in einem Teil einer Abtastung des Sichtfeldes 16904) emittierte Infrarotlicht erfasst werden kann. Das detektierte Infrarotlicht kann Infrarotlicht umfassen, das von einem Objekt im Sichtfeld 16904 reflektiert wird (z.B. Licht, das von der Lichtquelle 42 ausgesandt und vom Objekt zur Sensorvorrichtung 16900 zurückreflektiert wird).
  • Ein Infrarotbild 16920 kann als ein Bild des Sichtfeldes 16904 beschrieben werden, das eine oder mehrere infrarote Lichtlinien oder ein Muster aus infrarotem Licht enthält (z.B. ein eindimensionales Muster oder ein zweidimensionales Muster). Zur Veranschaulichung: Das eine oder die mehreren detektierten Infrarotbilder 16920 können ein oder mehrere zweidimensionale Infrarotbilder sein (z.B. ein oder mehrere Bilder des zweidimensionalen Sichtfeldes 16904). Beispielsweise kann mindestens ein detektiertes Infrarotbild eine Projektion von Infrarotlicht auf eine zweidimensionale Fläche sein oder eine Projektion von Infrarotlicht auf eine zweidimensionale Fläche aufweisen (z.B. auf eine Straßenoberfläche oder auf eine Fahrzeugseite, z.B. ein auf ein Fahrzeug aufgebrachtes Muster).
  • Der Nachweis von Infrarotlicht wird z.B. in 169B in einer schematischen Darstellung nach verschiedenen Ausführungsformen dargestellt. In dem in 169B dargestellten Beispielfall kann die Lichtquelle 42 (z.B. das LIDAR-System 16902) eine vertikale (z.B. Laser-)Linie 16916 im Gesichtsfeld 16904 aussenden (z.B. im Rahmen einer Abtastung des Gesichtsfeldes 16904). Illustrativ kann die vertikale Linie 16916 als eine Projektion des von der Lichtquelle 42 emittierten Lichts in das zweidimensionale Sichtfeld 16904 beschrieben werden. Die optische Sensoranordnung 16906 kann die vertikale Linie 16916 aus dem Sichtfeld 16904 erfassen, um ein Infrarotbild 16920 einschließlich des Bildes 16918 der vertikalen Linie 16916 zu erkennen.
  • In verschiedenen Ausführungsformen kann das optische Sensorarray 16906 so konfiguriert werden, dass es eine zweidimensionale Auflösung liefert (z.B. Auflösung in der ersten Richtung 16954 und in der zweiten Richtung 16956). Das optische Sensorarray 16906 kann ein zweidimensionales optisches Sensorarray sein. Als Beispiel kann das optische Sensorarray 16906 ein oder mehrere Detektorpixel aufweisen, die entlang zweier Richtungen angeordnet sind, um das zweidimensionale Array zu bilden. Als weiteres Beispiel kann das optische Sensorarray 16906 eine Vielzahl von einzelnen Detektorpixeln (z.B. räumlich voneinander getrennt) aufweisen oder durch diese gebildet werden.
  • Zur Veranschaulichung: Das optische Sensorarray 16906 kann eine Vielzahl von optischen Sensorarrays (z.B. Subarrays) aufweisen. Die Vielzahl der optischen Sensorarrays kann das gleiche oder ein anderes Sichtfeld haben. Zum Beispiel kann mindestens ein erstes optisches Sensor-Subarray dasselbe Sichtfeld wie ein zweites optisches Sensor-Subarray haben. Als weiteres Beispiel kann mindestens ein erstes optisches Sensor-Subarray ein Sichtfeld haben, das sich von dem Sichtfeld eines zweiten optischen Sensor-Subarrays unterscheidet (z.B. nicht oder teilweise überlappend). Das Sichtfeld des optischen Sensorarrays 16906 kann die Kombination (z.B. die Überlagerung) der einzelnen Sichtfelder der Vielzahl von optischen Sensor-Subarrays sein.
  • In verschiedenen Ausführungsformen kann das optische Sensorarray 16906 ein Array von Photodetektoren sein oder aufweisen (z.B. ein zweidimensionales Array von Photodetektoren), z.B. Photodetektoren, die im sichtbaren Wellenlängenbereich und im infraroten Wellenlängenbereich empfindlich sind. Zum Beispiel kann das optische Sensorarray 16906 ein ladungsgekoppeltes Bauelement (CCD) sein oder aufweisen, z.B. ein ladungsgekoppeltes Sensorarray. Als weiteres Beispiel kann das optische Sensorarray 16906 ein komplementäres Metalloxid-Halbleiter (CMOS)Sensorarray sein oder ein solches aufweisen. Das CMOS-Sensorarray kann im Vergleich zum CCD-Sensorarray eine höhere Empfindlichkeit im nahen Infrarot-Wellenlängenbereich bieten. Als weiteres Beispiel kann das optische Sensorarray 16906 ein Array von InGaAs-basierten Sensoren (z.B. von InGaAs-basierten Photodetektoren) sein oder ein solches aufweisen. Die InGaAs-basierten Sensoren können eine hohe Empfindlichkeit bei 1550 nm haben (z.B. eine höhere Empfindlichkeit als CCD oder CMOS bei dieser Wellenlänge). Als weiteres Beispiel kann das optische Sensorarray 16906 als LIDAR-Sensor 52 konfiguriert sein oder konfiguriert werden (z.B. in einem anderen LIDAR-System enthalten, das sich vom LIDAR-System 16902 unterscheidet).
  • Das optische Sensorarray 16906 kann Bestandteil einer Kamera 16908 der Sensorvorrichtung 16900 sein. Zur Veranschaulichung: Die Sensoreinheit 16900 kann eine Kamera 16908 aufweisen, die das optische Sensorarray 16906 enthält. Die Kamera 16908 kann so konfiguriert sein, dass sie das Sichtfeld 16904 abbildet (z.B. kann das Sichtfeld 16904 einem Sichtfeld der Kamera 16908 entsprechen oder im Wesentlichen mit diesem übereinstimmen). Zum Beispiel kann die Kamera 16908 eine CCD-Kamera sein. Als weiteres Beispiel kann die Kamera 16908 eine CMOS-Kamera sein. Bei der Kamera 16908 kann es sich um eine externe oder interne Kamera des LIDAR-Systems 16902 handeln. Beispielsweise kann die Kamera 16908 gegenüber dem LIDAR-System 16902 seitlich versetzt sein. Beispielsweise kann die Kamera 16908 ein bildgebendes Gerät darstellen, das so konfiguriert ist, dass es 2D-Bilder (z.B. Farbbilder) liefert und Teil des Sensorsystems eines teilweise oder vollautomatisch fahrenden Fahrzeugs ist, das für das Szenenverständnis verwendet wird (z.B. kann die Kamera 16908 einen oder mehrere Sensoren aufweisen, die mit der Erkennung von Farbbildern verbunden sind, und einen oder mehrere Sensoren, die mit der Erkennung von Infrarotbildern verbunden sind, z.B. mit jeweils zugehörigen Filtern, wie oben beschrieben). Die Kamerabilder können als Teil des Objekterkennungs-, Objektklassifizierungs- und Szenenverständnisprozesses verwendet werden, der von einem oder mehreren Prozessoren einer Sensorfusionsbox durchgeführt wird. Alternativ dazu kann die Kamera 16908 extern zur Sensorvorrichtung 16900 sein, z.B. in einer anderen Vorrichtung enthalten sein, die kommunikativ mit der Sensorvorrichtung 16900 gekoppelt ist (z.B. in einem Smartphone oder in einer Verkehrsüberwachungsstation enthalten).
  • In verschiedenen Ausführungen kann die Kamera 16908 einen Infrarotfilter 16910 aufweisen, um Licht zumindest in einem Teil des Wellenlängenbereichs des Infrarotlichts (z.B. im Wellenlängenbereich von etwa 780 nm bis etwa 2000 nm) davor zuschützen, auf die optische Sensoranordnung 16906 zu treffen. Zur Veranschaulichung: Der Infrarotfilter 16910 kann so konfiguriert oder gesteuert werden, dass er Infrarotlicht daran hindert, auf das optische Sensorarray 16906 zu treffen (z.B. um Infrarotlicht selektiv zu blockieren oder zuzulassen).
  • Beispielsweise kann der Infrarotfilter 16910 dynamisch regelbar sein (z.B. kann er dynamisch aktiviert oder deaktiviert werden). Die Kamera 16906 (z.B. ein Kameracontroller, z.B. ein oder mehrere Prozessoren 16914 der nachfolgend näher beschriebenen Sensoreinheit 16900) kann so konfiguriert werden, dass sie den Infrarotfilter 16910 zumindest vorübergehend deaktiviert, um Infrarotlicht durch den Infrarotfilter 16910 hindurchzulassen und auf die optische Sensoranordnung 16906 zu treffen (z.B. um Infrarotlicht durch den Infrarotfilter 16910 hindurchzulassen und auf die optische Sensoranordnung 16906 zu treffen). Die Deaktivierung des Infrarotfilters 16910 kann in Übereinstimmung mit der Lichtemission erfolgen (z.B. durch die Lichtquelle 42). Die Kamera 16908 kann so konfiguriert werden, dass sie den Infrarotfilter 16910 zumindest vorübergehend deaktiviert, damit Infrarotlicht den Infrarotfilter 16910 synchron mit der Lichtemission (z.B. Infrarotlicht) durch die Lichtquelle 42 (z.B. durch das LIDAR-System 16902) passieren kann. Zur Veranschaulichung: Die Kamera 16908 kann so konfiguriert werden, dass sie den Infrarotfilter 16910 zumindest vorübergehend deaktiviert, so dass die optische Sensoranordnung 16906 das von der Lichtquelle 42 emittierte Licht innerhalb eines bestimmten Zeitfensters erfassen kann (z.B. während einer Abtastung des Sichtfeldes 16904 oder während eines Teils einer Abtastung des Sichtfeldes, z.B. für eine Dauer von etwa 2 ms oder etwa 5 ms).
  • Als weiteres Beispiel kann der Infrarotfilter 16910 ein Bandpassfilter sein, der in Übereinstimmung mit der Wellenlänge des emittierten Lichts konfiguriert ist. Zur Veranschaulichung: Der Infrarotfilter 16910 kann als Bandpassfilter konfiguriert werden, um den Wellenlängenbereich des von der Lichtquelle (42) emittierten Infrarotlichts durchzulassen. Der Infrarotfilter 16910 kann als schmaler Bandpassfilter konfiguriert werden. Beispielsweise kann der Infrarotfilter eine Bandbreite von maximal 5 nm um eine obere Grenze und eine untere Grenze des Wellenlängenbereichs, z.B. von maximal 10 nm, z.B. von maximal 15 nm, haben. Der Wellenlängenbereich kann eine Bandbreite von maximal 50 nm um eine Mittenwellenlänge des von der Lichtquelle 42 emittierten Infrarotlichts (z.B. um 905nm) haben, z.B. von maximal 100 nm. In dieser Konfiguration kann der Infrarotfilter 16910 ein statischer Filter sein oder als solcher konfiguriert werden. In dieser Konfiguration kann das optische Sensorarray 16906 immer aktiv sein (z.B. kontinuierlich Licht detektieren) oder synchron mit der Lichtemission aktiviert werden.
  • In dem in 169C dargestellten Beispielfall ist der Infrarotfilter 16910 als Bandpassfilter um 905 nm zu konfigurieren. In dieser Beispielkonfiguration kann das Infrarotfilter 16910 bei 905 nm und in einem Fenster um 905 nm (z.B. in einem Fenster mit einer Breite von etwa 10 nm um 905 nm, z.B. einer Breite von etwa 5 nm) eine geringe Absorption und/oder ein geringes Reflexionsvermögen, z.B. im wesentlichen 0%, aufweisen. Das Infrarotfilter 16910 kann im verbleibenden Teil des Infrarot-Wellenlängenbereichs (z.B. von etwa 700 nm bis etwa 2000 nm) eine hohe Absorption und/oder ein hohes Reflexionsvermögen, z.B. im wesentlichen 100%, aufweisen. Zusätzlich kann das Filter 16910 eine geringe Absorption und/oder ein niedriges Reflexionsvermögen im sichtbaren Wellenlängenbereich aufweisen, z.B. bei Wellenlängen unter etwa 700 nm.
  • In verschiedenen Ausführungsformen kann die Sensoreinrichtung 16900 zusätzlich oder alternativ einen Verschluss 16912 aufweisen, der z.B. in der Kamera 16908 enthalten ist. Der Verschluss 16912 kann so konfiguriert oder gesteuert werden, dass er eine Belichtungszeit des optischen Sensorarrays 16906 steuert (z.B. eine Belichtungszeit der Kamera 16908). Der Verschluss 16912 kann so konfiguriert werden, dass er Licht blockiert (z.B. wenn er geschlossen ist oder in den optischen Pfad eingeführt wird) und Licht durchlässt (z.B. wenn er offen ist). Zur Veranschaulichung: Der Verschluss 16912 kann so gesteuert werden, dass er verhindert, dass Licht (z. B. jeder Wellenlänge) auf das optische Sensorarray 16906 trifft, oder dass Licht auf das optische Sensorarray 16906 auftrifft. Der Verschluss 16912 kann stromabwärts oder stromaufwärts in Bezug auf den Infrarotfilter 16910 angeordnet werden.
  • Die Sensoreinheit 16900 (z.B. die Kamera 16908) kann einen Verschlussregler aufweisen, der für die Steuerung des Verschlusses 16912 konfiguriert ist (z.B. können ein oder mehrere Prozessoren der Sensoreinheit für die Steuerung des Verschlusses 16912 konfiguriert sein). Die Verschlusssteuerung kann so konfiguriert werden, dass sie den Verschluss 16912 in Übereinstimmung (z.B. in Synchronisation) mit der Lichtemission der Lichtquelle 42 öffnet. Die Blendensteuerung kann so konfiguriert werden, dass die Blende 16912 für eine vordefinierte Zeitdauer offen bleibt (z.B. während einer Abtastung oder eines Teils einer Abtastung des Sichtfeldes 16904 durch die Lichtquelle 42, z.B. für mindestens 2 ms oder mindestens 5 ms). Zur Veranschaulichung: Eine Menge an gesammeltem Infrarotlicht (z.B. eine Anzahl von detektierten Laserlinien im detektierten Infrarotbild) kann mit zunehmender Zeit, in der der Verschluss geöffnet ist, zunehmen.
  • In verschiedenen Ausführungsformen kann die Sensorvorrichtung 16900 einen oder mehrere Prozessoren 16914 aufweisen (z.B. mit einer Sensor-Fusionsbox verbunden oder darin enthalten). Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie ein Bild eines projizierten Musters (z.B. ein Bild der Laserlinien oder ein Bild eines Punktmusters) entsprechend den gemessenen Abständen vom LIDAR-System berechnen (z.B. simulieren), das beschreibt, wie das Muster voraussichtlich am optischen Sensor auftreten wird, wie weiter unten näher beschrieben. Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie das eine oder die mehreren Infrarotbilder 16920 verarbeiten, die von der optischen Sensoranordnung 16906 erfasst werden. Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie das eine oder die mehreren Infrarotbilder 16920 mit einem oder mehreren Referenzbildern (z.B. berechnete oder vorhergesagte) vergleichen. Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie einen Zustand der Sensorvorrichtung 16900 (z.B. einen Zustand des LIDAR-Systems 16902) und/oder einen Zustand in der Umgebung der Sensorvorrichtung 16900 (z.B. einen Zustand in der Umgebung des LIDAR-Systems 16902) auf der Grundlage des Vergleichs bestimmen (illustrativ, in Übereinstimmung mit den Ergebnissen des Vergleichs). Die Umgebung kann als der Raum außerhalb der Sensorvorrichtung 16900 (z.B. um die Sensorvorrichtung 16900 herum) beschrieben werden, z.B. als der Raum unmittelbar außerhalb der Anordnung der Emitteroptik des LIDAR-Systems 16902.
  • Jedes Referenzbild kann einen (z.B. möglichen) Zustand der Sensoreinrichtung 16900 (z.B. einen Zustand des LIDAR-Systems 16902) oder einen Zustand in der Umgebung der Sensoreinrichtung 16900 (z.B. in der Umgebung des LIDAR-Systems 16902) beschreiben. Illustrativ kann ein Referenzbild ein erwartetes (z.B. berechnetes oder vorhergesagtes) Aussehen oder eine Anordnung des detektierten Infrarotlichts (z.B. das detektierte Gitter oder Muster) beschreiben oder einschließen, das mit dem jeweiligen Zustand oder Zustand in der Umgebung verbunden ist. Zur weiteren Veranschaulichung kann ein Referenzbild ein erwartetes Muster von Infrarotlicht beschreiben oder einschließen, das mit dem jeweiligen Zustand oder Zustand in der Umgebung assoziiert ist. Als Beispiel kann ein Referenzbild eine vertikale Linie an einer bestimmten Position im Sichtfeld 16904 aufweisen, die mit einem Zustand assoziiert ist, der ein korrektes Funktionieren des Abtastsystems beschreibt. Als weiteres Beispiel kann ein Referenzbild Infrarotlicht mit einer vordefinierten Intensität beschreiben, das einem Zustand zugeordnet ist, der ein korrektes Funktionieren der Lichtquelle 42 beschreibt. Als weiteres Beispiel kann ein Referenzbild infrarotes Licht beschreiben, das als gerade Linie (z.B. eine gerade vertikale Linie) erscheint oder projiziert wird und mit einem Zustand assoziiert ist, der ein korrektes Funktionieren der optischen Anordnung des Emitters beschreibt. Als weiteres Beispiel kann ein Referenzbild ein Auftreten von infrarotem Licht beschreiben, das mit einem entsprechenden atmosphärischen Zustand verbunden ist (z.B. die Berechnung des Auftretens von infrarotem Licht im Falle von Sonnenlicht, z.B. bei klarem Wetter).
  • Das eine oder mehrere Referenzbilder können entsprechend der Lichtemission erzeugt werden. Mindestens ein Referenzbild kann in Übereinstimmung mit dem emittierten Licht erzeugt oder simuliert werden (z. B. in Übereinstimmung mit dem von der Lichtquelle 42 ausgeführten Emissionsmuster). Zur Veranschaulichung: Mindestens ein Referenzbild kann das Ergebnis einer Simulation eines erwarteten Verhaltens des emittierten Lichts in einem entsprechenden Zustand oder Zustand der Umgebung sein.
  • In verschiedenen Ausführungsformen können das eine oder mehrere Referenzbilder (z.B. berechnete Referenzbilder) in einem Speicher (z.B. des Sensorgerätes 16900, oder kommunikativ gekoppelt mit dem Sensorgerät 16900) gespeichert werden. Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie das eine oder die mehreren Referenzbilder aus dem Speicher abrufen. Zusätzlich oder alternativ können der eine oder die mehreren Prozessoren 16914 so konfiguriert werden, dass sie das eine oder die mehreren Referenzbilder (oder zusätzliche Referenzbilder) erzeugen. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie (z.B. durch Simulation) ein Referenzbild erzeugen, das mit einem gewünschten Zustand oder Zustand in der Umgebung assoziiert ist (z.B. um zu bestimmen, ob das erfasste Infrarotlicht mit einem solchen Zustand oder Zustand in der Umgebung assoziiert werden kann).
  • Der Zustand der Sensoreinrichtung 16900 kann ein Ausrichtzustand der Sensoreinrichtung 16900 (z.B. ein Ausrichtzustand des LIDAR-Systems 16902) oder ein Funktionszustand der Sensoreinrichtung 16900 (z.B. ein Funktionszustand des LIDAR-Systems 16902) sein. Illustrativ kann ein Zustand der Sensorvorrichtung 16900 eine oder mehrere Eigenschaften der Sensorvorrichtung 16900 (z.B. des LIDAR-Systems 16902) beschreiben, z.B. im Zusammenhang mit der Emission (und/oder Detektion) von Licht.
  • Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild 16920 und mindestens einem Referenzbild feststellen, ob ein Fehler im Ausrichtungszustand der Sensorvorrichtung 16900 (z.B. des LIDAR-Systems 16902) vorliegt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie auf der Grundlage des Vergleichs einen aktuellen Ausrichtungszustand der Sensorvorrichtung 16900 bestimmen. Beispielsweise können der eine oder die mehreren Prozessoren 16914 so konfiguriert werden, dass ein Fehler vorliegt, wenn das Infrarotlicht im erfassten Infrarotbild 16920 in Bezug auf das Infrarotlicht im Referenzbild geneigt ist oder sich in einer anderen Winkelposition in Bezug auf das Infrarotlicht im Referenzbild befindet.
  • Als Beispiel kann der Fehler im Ausrichtungszustand eine falsche Winkelorientierung zwischen der Infrarot-Lichtquelle 42 und dem optischen Sensorarray 16906 sein. Illustrativ kann der Fehler im Ausrichtungszustand eine Winkelorientierung zwischen der Infrarot-Lichtquelle 42 und dem optischen Sensorarray 16906 sein, die sich von einer vordefinierten (z.B. ursprünglichen oder unberührten) Winkelorientierung unterscheidet. Zur weiteren Veranschaulichung: Der Fehler im Ausrichtungszustand kann eine falsche Winkelorientierung in der Richtung der Lichtemission sein. Dies kann z.B. auf eine verkippte oder anderweitig verschobene optische Komponente (z.B. eine verkippte Linse oder ein verkipptes Strahllenkungselement, wie z.B. ein verkippter MEMS-Spiegel) oder auf eine optische Komponente, die aus ihrer Position gefallen ist, zurückzuführen sein.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 16914 so konfiguriert werden, dass sie eine Position des Infrarotlichts in einem erfassten Infrarotbild 16920 bestimmen (z.B. berechnen), indem sie die mit der LIDAR-Messung ermittelte Lichtlaufzeit verwenden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie eine Winkelposition des Infrarotlichts in einem erfassten Infrarotbild 16920 (z.B. einer vertikalen Linie, z.B. eines Punktes) bestimmen, indem sie den ermittelten Abstand zwischen dem Infrarotlicht und der Sensorvorrichtung 16900 (z.B. zwischen dem Infrarotlicht und dem LIDAR-System 16902) verwenden.
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 16914 so konfiguriert werden, dass sie anhand des Vergleichs zwischen mindestens einem erfassten Infrarotbild 16920 und mindestens einem Referenzbild feststellen, ob im Funktionszustand der LIDAR-Sensorvorrichtung 16900 (z.B. im Funktionszustand des LIDAR-Systems 16902) ein Fehler vorliegt. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie einen aktuellen Funktionszustand der Sensorvorrichtung 16900 auf der Grundlage des Vergleichs bestimmen.
  • Als Beispiel kann der Ausfall ein Ausfall der Infrarot-Lichtquelle 42 sein. Zur Veranschaulichung: Der Fehler kann darin bestehen, dass die Infrarot-Lichtquelle 42 das Licht nicht richtig (oder überhaupt nicht) ausstrahlt. Als Beispiel, wie in 169D dargestellt, können der eine oder mehrere Prozessoren 16914 so konfiguriert werden, dass sie einen solchen Ausfall feststellen, falls kein Infrarotlicht im erkannten Infrarotbild 169201 vorhanden ist (z.B. im Vergleich zu Licht, das im Referenzbild vorhanden ist). Ein weiteres Beispiel, wie in 169E dargestellt, ist, dass der eine oder die mehreren Prozessoren 16914 so konfiguriert werden können, dass sie einen solchen Fehler bestimmen, falls ein diskontinuierliches Muster von Infrarotlicht im erfassten Infrarotbild 169202 vorhanden ist, z.B. eine diskontinuierliche vertikale Linie 169181 (z.B. im Vergleich zu einem kontinuierlichen Muster von Infrarotlicht, das im Referenzbild vorhanden ist, z.B. eine kontinuierliche vertikale Linie). Als weiteres Beispiel können der eine oder mehrere Prozessoren 16914 so konfiguriert werden, dass sie einen solchen Fehler ermitteln, falls Infrarotlicht mit geringerer Intensität als das Referenz-Infrarotlicht im erfassten Infrarotbild vorhanden ist.
  • Die diskontinuierliche Linie 169181 in 169E kann einen Ausfall oder eine Fehlfunktion auf der Emitterseite, z.B. bei den Laserdioden, anzeigen, z.B. wenn nur ein Teil der Laserdioden (und nicht alle) Licht emittieren. Alternativ kann die diskontinuierliche Linie 16918-1 in 169E auf einen Ausfall oder eine Fehlfunktion auf der Empfängerseite hinweisen, z.B. bei Verschmutzung der Empfängeroptik auf der Empfängerseite. Unter Berücksichtigung einer zeitlichen Entwicklung des detektierten (z.B. diskontinuierlichen) Musters kann es möglich sein, zwischen dem Fehlerfall auf der Senderseite und dem Fehlerfall auf der Empfängerseite zu unterscheiden. Illustrativ kann im Falle eines Ausfalls der Laserdioden das diskontinuierliche Muster 16918-1 über das gesamte Abtastfeld detektiert werden. Tritt der Fehler in der Empfängeroptik auf, kann das diskontinuierliche Muster 16918-1 nur in einem Teil des Sichtfeldes detektiert werden.
  • Als weiteres Beispiel kann der Ausfall ein Ausfall des Abtastsystems sein (z.B. ein Ausfall des Strahllenkungselements), z.B. des mikro-elektro-mechanischen Systems. Der Fehler kann z.B. darin bestehen, dass das Abtastsystem das Sichtfeld 16904 nicht mit dem emittierten Licht abtastet oder das Sichtfeld 16904 mit einem nicht vordefinierten Emissionsmuster abtastet (z.B. in Verbindung mit einem gebrochenen Strahllenkungselement oder einer falschen Steuerung des Strahllenkungselements). Wie in 169F dargestellt, können der eine oder die mehreren Prozessoren 16914 so konfiguriert werden, dass sie einen solchen Ausfall feststellen, falls das Infrarotlicht im erfassten Infrarotbild 169203 an einer falschen Position ist, z.B. an einer anderen Stelle innerhalb des Sichtfeldes 16904 in Bezug auf das Infrarotlicht im Referenzbild. Zur Veranschaulichung: Eine vertikale Linie 169182 im erkannten Infrarotbild 169203 kann in der Mitte des Sichtfeldes 16904 (z.B. in der Mitte des Infrarotbildes 169203) stecken bleiben, anstatt über das Sichtfeld 16904 gescannt zu werden.
  • Als weiteres Beispiel kann der Ausfall ein Ausfall einer oder mehrerer optischer Komponenten der Sensoreinrichtung 16900 (z.B. des LIDAR-Systems 16902) sein. Als Beispiel kann der Ausfall ein Ausfall des Sensors 52 sein. Zur Veranschaulichung: Der Sensor 52 erkennt Licht möglicherweise nicht richtig (oder überhaupt nicht). Der eine oder die mehreren Prozessoren 16914 können so konfiguriert werden, dass sie einen solchen Fehler feststellen, falls das erkannte Infrarotbild dem Referenzbild entspricht (illustrativ, einschließlich des erwarteten Infrarotlichts oder Lichtmusters), aber kein Signal vom Sensor 52 erzeugt wird (oder falls ein von einem erwarteten Signal abweichendes Signal vom Sensor 52 erzeugt wird).
  • In verschiedenen Ausführungsformen können der eine oder mehrere Prozessoren 16914 konfiguriert werden, um die Art des Zustands in der Umgebung der Sensorvorrichtung 16900 auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild 16920 und mindestens einem Referenzbild zu bestimmen. Die Art des Zustands in der Umgebung der Sensorvorrichtung 16900 kann eine atmosphärische Bedingung sein, z.B. eine von Nebel, Schnee oder Regen. Zusätzlich oder alternativ dazu kann die Art des Zustands in der Umgebung der Sensorvorrichtung 16900 eine Sichtbedingung beschreiben oder mit einer Sichtbedingung verbunden sein, z.B. kann die Art des Zustands in der Umgebung der Sensorvorrichtung 16900 ein Schmutz sein (z.B. auf der Anordnung der Emitteroptik vorhanden). Beispielsweise können, wie in 169G dargestellt, der eine oder mehrere Prozessoren 16914 so konfiguriert werden, dass sie feststellen, dass Nebel in der Umgebung vorhanden ist, falls das Infrarotlicht 169183 im erfassten Infrarotbild 169204 gestreut erscheint (z.B. statt kollimiert wie im Referenzbild).
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1ai ist Beispiel 1ai ist ein LIDAR-Sensorgerät. Das LIDAR-Sensorgerät kann ein optisches Sensorarray aufweisen, das so konfiguriert ist, dass es Infrarotlicht aus einem Sichtfeld optisch erfasst und dadurch ein oder mehrere Infrarotbilder erkennt. Die LIDAR-Sensorvorrichtung kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie das detektierte Infrarotbild oder die detektierten Infrarotbilder mit einem oder mehreren Referenzbildern vergleichen, wobei jedes Referenzbild einen Zustand der LIDAR-Sensorvorrichtung oder einen Zustand in der Umgebung der LIDAR-Sensorvorrichtung beschreibt, um den Zustand der LIDAR-Sensorvorrichtung und/oder den Zustand in der Umgebung der LIDAR-Sensorvorrichtung zu bestimmen.
    • In Beispiel 2ai kann der Gegenstand von Beispiel 1ai optional beinhalten, dass es sich bei dem einen oder mehreren detektierten Infrarotbildern um ein oder mehrere zweidimensionale Infrarotbilder handelt.
    • In Beispiel 3ai kann der Gegenstand eines der Beispiele 1ai oder 2ai optional beinhalten, dass mindestens ein detektiertes Infrarotbild des einen oder der mehreren Infrarotbilder eine Projektion von Infrarotlicht auf eine zweidimensionale Fläche ist.
    • In Beispiel 4ai kann der Gegenstand eines der Beispiele 1ai bis 3ai optional beinhalten, dass mindestens ein Referenzbild in Übereinstimmung mit einer Lichtemission einer Infrarot-Lichtquelle des LIDAR-Sensorgeräts simuliert wird.
    • In Beispiel 5ai kann der Gegenstand eines der Beispiele 1ai bis 4ai optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert sind, dass sie den Zustand des LIDAR-Sensorgeräts und/oder den Zustand in der Umgebung des LIDAR-Sensorgeräts auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild bestimmen.
    • In Beispiel 6ai kann der Gegenstand eines der Beispiele 1ai bis 5ai optional beinhalten, dass der Zustand des LIDAR-Sensorgeräts ein Ausrichtungszustand des LIDAR-Sensorgeräts oder ein Funktionszustand des LIDAR-Sensorgeräts ist.
    • In Beispiel 7ai kann der Gegenstand von Beispiel 6ai optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild bestimmen, ob ein Fehler im Ausrichtungszustand des LIDAR-Sensorgeräts vorliegt.
    • In Beispiel 8ai kann der Gegenstand von Beispiel 7ai optional beinhalten, dass der Fehler im Ausrichtungszustand eine falsche Winkelausrichtung zwischen einer Infrarot-Lichtquelle des LIDAR-Sensorgeräts und dem optischen Sensorarray ist.
    • In Beispiel 9ai kann der Gegenstand eines der Beispiele 6ai bis 8ai optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass sie auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild bestimmen, ob im Funktionszustand des LIDAR-Sensorgeräts ein Fehler vorliegt.
    • In Beispiel 10ai kann der Gegenstand von Beispiel 9ai optional beinhalten, dass es sich bei dem Ausfall um den Ausfall einer Infrarot-Lichtquelle des LIDAR-Sensorgeräts, den Ausfall eines Strahllenkungselements des LIDAR-Sensorgeräts oder den Ausfall einer oder mehrerer optischer Komponenten des LIDAR-Sensorgeräts handelt.
    • In Beispiel 11ai kann der Gegenstand eines der Beispiele 1ai bis 10ai optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert werden, dass sie die Art des Zustands in der Umgebung des LIDAR-Sensorgeräts auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild bestimmen.
    • In Beispiel 12ai kann der Gegenstand von Beispiel 11ai optional einschließen, dass die Art des Zustands in der Umgebung des LIDAR-Sensorgeräts ein Zustand von Nebel, Schnee, Regen oder Schmutz ist.
    • In Beispiel 13ai kann der Gegenstand eines der Beispiele 1ai bis 12ai optional beinhalten, dass das optische Sensorarray ein zweidimensionales optisches Sensorarray ist.
    • In Beispiel 14ai kann der Gegenstand eines der Beispiele 1ai bis 13ai optional beinhalten, dass das optische Sensorarray ein ladungsgekoppeltes Sensorarray oder ein komplementäres Metall-Oxid-Halbleiter-Sensorarray umfasst.
    • In Beispiel 15ai kann der Gegenstand eines der Beispiele 1ai bis 14ai optional eine Kamera aufweisen. Das optische Sensorarray kann ein Bestandteil der Kamera sein.
    • In Beispiel 16ai kann der Gegenstand von Beispiel 15ai optional beinhalten, dass die Kamera einen Infrarot-Filter enthält, um Licht zumindest in einem Teil des Infrarot-Lichtwellenlängenbereichs daran zu hindern, auf die optische Sensoranordnung zu treffen.
    • In Beispiel 17ai kann der Gegenstand von Beispiel 16ai optional beinhalten, dass der Infrarotfilter so konfiguriert ist, dass er Licht im Wellenlängenbereich von etwa 780 nm bis etwa 2000 nm blockiert.
    • In Beispiel 18ai kann der Gegenstand eines der Beispiele 15ai bis 17ai optional beinhalten, dass die Kamera so konfiguriert ist, dass sie den Infrarotfilter zumindest vorübergehend deaktiviert, damit Infrarotlicht den Infrarotfilter passieren kann, um auf die optische Sensoranordnung zu treffen.
    • In Beispiel 19ai kann der Gegenstand von Beispiel 18ai optional beinhalten, dass die Kamera so konfiguriert ist, dass sie den Infrarotfilter zumindest vorübergehend deaktiviert, damit Infrarotlicht den Infrarotfilter passieren kann, um synchron mit einer Lichtemission durch eine Infrarotlichtquelle des LIDAR-Sensorgeräts auf die optische Sensoranordnung zu treffen.
    • In Beispiel 20ai kann der Gegenstand eines der Beispiele 16ai bis 19ai optional beinhalten, dass der Infrarotfilter als Bandpassfilter konfiguriert ist, um den Wellenlängenbereich des von einer Infrarotlichtquelle der LIDAR-Sensorvorrichtung emittierten Infrarotlichts durchzulassen, das eine Bandbreite von maximal 5 nm um eine obere Grenze und eine untere Grenze des Wellenlängenbereichs aufweist.
    • In Beispiel 21ai kann der Gegenstand von Beispiel 20ai optional beinhalten, dass der Wellenlängenbereich eine Bandbreite von maximal 50 nm um eine Mittenwellenlänge des von einer Infrarot-Lichtquelle des LIDAR-Sensorgeräts emittierten Infrarotlichts herum aufweist.
    • In Beispiel 22ai kann der Gegenstand eines der Beispiele 15ai bis 21ai optional einen Verschluss aufweisen. Die LIDAR-Sensorvorrichtung kann einen Shutter-Controller aufweisen, um den Shutter synchron mit einer Lichtemission durch eine Infrarot-Lichtquelle der LIDAR-Sensorvorrichtung zu öffnen.
    • In Beispiel 23ai kann der Gegenstand eines jeden der Beispiele 1ai bis 22ai optional die Infrarot-Lichtquelle einschließen.
    • In Beispiel 24ai kann der Gegenstand von Beispiel 23ai optional beinhalten, dass die Infrarot-Lichtquelle eine oder mehrere Laser-Lichtquellen enthält.
    • In Beispiel 25ai kann der Gegenstand von Beispiel 24ai optional beinhalten, dass die Infrarot-Lichtquelle eine oder mehrere Laserdioden enthält.
    • In Beispiel 26ai kann der Gegenstand eines der Beispiele 1ai bis 25ai optional ein scannendes LIDAR-Sensorsystem aufweisen.
    • In Beispiel 27ai kann der Gegenstand eines der Beispiele 1ai bis 26ai optional einen Sensor mit einer oder mehreren Fotodioden aufweisen, die so angeordnet sind, dass sie ein eindimensionales Array bilden.
    • Beispiel 28ai ist ein Verfahren zum Betrieb eines LIDAR-Sensorgeräts. Das Verfahren kann ein optisches Sensorarray umfassen, das Infrarotlicht aus einem Sichtfeld optisch erfasst, um dadurch ein oder mehrere Infrarotbilder zu erfassen. Das Verfahren kann ferner den Vergleich des detektierten einen oder mehrerer Infrarotbilder mit einem oder mehreren Referenzbildern umfassen, wobei jedes Referenzbild einen Zustand des LIDAR-Sensorgeräts oder einen Zustand in der Umgebung des LIDAR-Sensorgeräts beschreibt, um den Zustand des LIDAR-Sensorgeräts und/oder den Zustand in der Umgebung des LIDAR-Sensorgeräts zu bestimmen.
    • In Beispiel 29ai kann der Gegenstand von Beispiel 28ai optional beinhalten, dass es sich bei dem einen oder mehreren detektierten Infrarotbildern um ein oder mehrere zweidimensionale Infrarotbilder handelt.
    • In Beispiel 30ai kann der Gegenstand eines der Beispiele 28ai oder 29ai optional beinhalten, dass mindestens ein detektiertes Infrarotbild des einen oder der mehreren Infrarotbilder eine Projektion von Infrarotlicht auf eine zweidimensionale Fläche ist.
    • In Beispiel 31ai kann der Gegenstand eines der Beispiele 28ai bis 30ai optional beinhalten, dass mindestens ein Referenzbild in Übereinstimmung mit einer Lichtemission einer Infrarot-Lichtquelle des LIDAR-Sensorgeräts simuliert wird.
    • In Beispiel 32ai kann der Gegenstand eines der Beispiele 28ai bis 31ai optional die Bestimmung des Zustands des LIDAR-Sensorgeräts und/oder des Zustands in der Umgebung des LIDAR-Sensorgeräts auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild umfassen.
    • In Beispiel 33ai kann der Gegenstand eines der Beispiele 28ai bis 32ai optional beinhalten, dass der Zustand des LIDAR-Sensorgeräts ein Ausrichtungszustand des LIDAR-Sensorgeräts oder ein Funktionszustand des LIDAR-Sensorgeräts ist.
    • In Beispiel 34ai kann der Gegenstand von Beispiel 33ai optional die Bestimmung einschließen, ob ein Fehler im Ausrichtungszustand des LIDAR-Sensorgeräts vorliegt, basierend auf dem Vergleich zwischen mindestens einem erkannten Infrarotbild und mindestens einem Referenzbild.
    • In Beispiel 35ai kann der Gegenstand von Beispiel 34ai optional beinhalten, dass der Fehler im Ausrichtungszustand eine falsche Winkelausrichtung zwischen einer Infrarot-Lichtquelle des LIDAR-Sensorgeräts und dem optischen Sensorarray ist.
    • In Beispiel 36ai kann der Gegenstand eines der Beispiele 33ai bis 35ai optional die Bestimmung einschließen, ob im Funktionszustand des LIDAR-Sensorgeräts auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild ein Fehler vorliegt.
    • In Beispiel 37ai kann der Gegenstand von Beispiel 36ai optional beinhalten, dass es sich bei dem Ausfall um den Ausfall einer Infrarot-Lichtquelle der LIDAR-Sensorvorrichtung, den Ausfall eines Strahllenkungselements der LIDAR-Sensorvorrichtung oder den Ausfall einer oder mehrerer optischer Komponenten der LIDAR-Sensorvorrichtung handelt.
    • In Beispiel 38ai kann der Gegenstand eines der Beispiele 28ai bis 37ai optional die Bestimmung der Art des Zustands in der Umgebung des LIDAR-Sensorgeräts auf der Grundlage des Vergleichs zwischen mindestens einem erfassten Infrarotbild und mindestens einem Referenzbild umfassen.
    • In Beispiel 39ai kann der Gegenstand von Beispiel 38ai optional einschließen, dass die Art des Zustands in der Umgebung des LIDAR-Sensorgeräts ein Zustand von Nebel, Schnee, Regen oder Schmutz ist.
    • In Beispiel 40ai kann der Gegenstand eines der Beispiele 28ai bis 39ai optional beinhalten, dass das optische Sensorarray ein zweidimensionales optisches Sensorarray ist.
    • In Beispiel 41ai kann der Gegenstand eines der Beispiele 28ai bis 40ai optional beinhalten, dass das optische Sensorarray ein ladungsgekoppeltes Sensorarray oder ein komplementäres Metall-Oxid-Halbleiter-Sensorarray enthält.
    • In Beispiel 42ai kann der Gegenstand eines der Beispiele 28ai bis 41ai optional eine Kamera aufweisen. Das optische Sensorarray kann ein Bestandteil der Kamera sein.
    • In Beispiel 43ai kann der Gegenstand von Beispiel 42ai optional beinhalten, dass die Kamera einen Infrarot-Filter enthält, der Licht zumindest in einem Teil des Infrarot-Licht-Wellenlängenbereichs davon abhält, auf die optische Sensoranordnung zu treffen.
    • In Beispiel 44ai kann der Gegenstand von Beispiel 43ai optional beinhalten, dass der Infrarotfilter Licht im Wellenlängenbereich von etwa 780 nm bis etwa 2000 nm blockiert.
    • In Beispiel 45ai kann der Gegenstand eines der Beispiele 43ai oder 44ai optional beinhalten, dass die Kamera den Infrarotfilter zumindest vorübergehend deaktiviert, damit Infrarotlicht den Infrarotfilter passieren kann, um auf die optische Sensoranordnung zu treffen.
    • In Beispiel 46ai kann der Gegenstand von Beispiel 45ai optional beinhalten, dass die Kamera den Infrarotfilter zumindest vorübergehend deaktiviert, um Infrarotlicht synchron mit einer Lichtemission durch eine Infrarotlichtquelle des LIDAR-Sensorgeräts durch den Infrarotfilter zum optischen Sensorarray durchzulassen.
    • In Beispiel 47ai kann der Gegenstand eines der Beispiele 43ai bis 46ai optional beinhalten, dass der Infrarotfilter als Bandpassfilter konfiguriert ist, der den Wellenlängenbereich des von einer Infrarotlichtquelle der LIDAR-Sensorvorrichtung emittierten Infrarotlichts durchlässt und eine Bandbreite von maximal 5 nm um eine obere Grenze und eine untere Grenze des Wellenlängenbereichs aufweist.
    • In Beispiel 48ai kann der Gegenstand von Beispiel 47ai optional beinhalten, dass der Wellenlängenbereich eine Bandbreite von maximal 50 nm um eine Mittenwellenlänge des von einer Infrarotlichtquelle des LIDAR-Sensorsystems emittierten Infrarotlichts herum aufweist.
    • In Beispiel 49ai kann der Gegenstand eines der Beispiele 42ai bis 48ai optional einen Verschluss aufweisen. Das Verfahren kann ferner das Öffnen des Verschlusses in Synchronisation mit einer Lichtemission durch eine Infrarot-Lichtquelle der LIDAR-Sensorvorrichtung umfassen.
    • In Beispiel 50ai kann der Gegenstand eines der Beispiele 28ai bis 49ai optional die Infrarot-Lichtquelle aufweisen.
    • In Beispiel 51ai kann der Gegenstand von Beispiel 50ai optional beinhalten, dass die Infrarot-Lichtquelle eine oder mehrere Laser-Lichtquellen enthält.
    • In Beispiel 52ai kann der Gegenstand von Beispiel 51ai optional beinhalten, dass die Infrarot-Lichtquelle eine oder mehrere Laserdioden enthält.
    • In Beispiel 53ai kann der Gegenstand eines der Beispiele 28ai bis 52ai optional ein scannendes LIDAR-Sensorsystem aufweisen.
    • In Beispiel 54ai kann der Gegenstand eines der Beispiele 28ai bis 53ai optional einen Sensor mit einer oder mehreren Fotodioden aufweisen, die so angeordnet sind, dass sie ein eindimensionales Array bilden.
    • Beispiel 55ai ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium enthalten sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorgeräts gemäß einem der Beispiele 1ai bis 27ai ausgeführt werden, das LIDAR-Sensorgerät veranlassen, das Verfahren gemäß einem der Beispiele 28ai bis 54ai auszuführen.
    • Beispiel 56ai ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht-transitorischen computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eines der Verfahren für ein LIDAR-Sensorgerät gemäß einem der oben genannten Methodenbeispiele ausführt, ein LIDAR-Sensorgerät gemäß einem der oben genannten Beispiele für ein LIDAR-Sensorgerät.
  • Ein fortgeschrittenes Fahrassistenzsystem (Advanced Driving Assistant System, ADAS) kann sich auf die genaue Erkennung und Bewertung der Verkehrsumgebung verlassen, um die Lenkbefehle des Fahrzeugs richtig anzuwenden. Dasselbe kann auch für Fahrzeuge gelten, die im Rahmen höherer SAE-Stufen fahren (oder in Zukunft fahren werden), wie z.B. Stufe 4 (fahrerlos in bestimmten Umgebungen) oder Stufe 5 (völlig autonom). Die Erfassung und Bewertung von Straßenzuständen, Verkehrsteilnehmern und anderen verkehrsrelevanten Objekten kann daher mit hoher Zuverlässigkeit und innerhalb eines kurzen Zeitrahmens erforderlich sein.
  • Im Rahmen des Fahrens oder autonomen Fahrens kann die Projektion von infraroten und/oder sichtbaren Gittermustern auf die Straßenoberfläche oder auf andere Objektoberflächen für verschiedene Anwendungen vorgesehen werden. Die projizierten Muster können beispielsweise zur Erkennung von Ungleichmäßigkeiten der Straßenoberfläche und/oder zur Bestimmung von Abständen zu anderen Objekten verwendet werden. Als weiteres Beispiel kann die Musterprojektion zur Messung der Ebenheit einer Straßenoberfläche verwendet werden. Darüber hinaus können Strahlsteuerungsbefehle unter Verwendung eines holographischen Prinzips für die GPS-basierte Autonavigation bereitgestellt werden. Als weiteres Beispiel können sichtbare und/oder infrarote Laserpunkte (z.B. Punktpunkte oder Symbole, z.B. wie Kreise, Quadrate, Rechtecke, Rauten usw.) zur Objekterkennung vor einem Fahrzeug unter Verwendung von kamerabasierten Standard-Triangulationsmethoden bereitgestellt werden. Als weiteres Beispiel kann ein strukturiertes Lichtmuster für die Objekterkennung bereitgestellt werden. Als ein weiteres Beispiel kann die Lichtmusterprojektion für das Parken von Fahrzeugen verwendet werden. In einigen Fällen kann die Gitterprojektion dasselbe Infrarotlicht verwenden, das als Teil eines LIDAR-Kollisionsvermeidungssystems verwendet wird. Eine oder mehrere Eigenschaften der projizierten Lichtmuster können eingestellt werden. Beispielsweise können sich die projizierten Muster in der Lichtintensität und/oder im Lichtmuster unterscheiden (z.B. können die projizierten Lichtmuster intensitätsreguliert sein). Als weiteres Beispiel können stochastisch projizierte Muster verwendet werden. Die stochastisch projizierten Muster können intensitätsreguliert werden, um eine korrekte Erfassung durch eine Kamera zu gewährleisten. Das Muster solchen strukturierten Lichts kann computergeneriert und verändert oder an den tatsächlichen Bedarf angepasst werden und/oder mit stochastischen Mustermodi erzeugt und projiziert werden. Als weiteres Beispiel kann die Intensität in einem Pulsemodus betrieben werden. Die projizierten Muster können z.B. von einerlnfrarotkamera (IR-Kamera) oder von einer normalen Kamera erfasst werden.
  • Ein LIDAR-Abtastsystem kann stochastisch oder mit bestimmten Impulsformen gepulst sein, so dass Störsignale oder widersprüchliche Signale von Fremdlichtquellen vom LIDAR-Abtastsystem ignoriert werden können. Prinzipiell kann ein LIDAR-System Licht im infraroten Wellenlängenbereich oder im sichtbaren Wellenlängenbereich emittieren. Falls ein LIDAR-System mit infrarotem Licht arbeitet (z.B. mit bestimmten Infrarot-Wellenlängen, z.B. von etwa 830 nm bis etwa 1600 nm), können infrarotempfindliche LIDAR-Sensoren und/oder infrarotempfindliche Kameras verwendet werden. Infrarot-Hintergrundstrahlung, wie z.B. Sonnenstrahlen am Tag oder andere LIDAR-Strahlen, kann ein Signal-Rausch-Verhältnis- (SNR) Problem darstellen und die Anwendbarkeit und Genauigkeit eines LIDAR-Systems einschränken. Nachts können die Bedingungen einfacher zu handhaben sein. Eine dedizierte infrarotempfindliche Kamera kann z.B. während der Nacht zur Verfügung gestellt werden. Die infrarotempfindliche Kamera kann die Erkennung von Objekten ermöglichen, die mit einer nicht optimierten, für normales Tageslicht optimierten Kamera möglicherweise nicht leicht zu erkennen sind.
  • Verschiedene Ausführungsformen können sich auf die Strukturierung des von einem LIDAR-Sensorsystem (z.B. dem LIDAR-Sensorsystem 10) emittierten Infrarotlichts beziehen, um ein Infrarotlichtmuster (z.B. ein oder mehrere Infrarotlichtmuster) zu projizieren. Daten (z.B. Informationen) können in das vom LIDAR-Sensorsystem projizierte Infrarot-Lichtmuster kodiert werden. Zur Veranschaulichung: Das vom LIDAR-Sensorsystem emittierte Infrarotlicht (oder zumindest ein Teil des vom LIDAR-Sensorsystem emittierten Infrarotlichts) kann nach einem Muster strukturiert werden, das Daten darin kodiert. Das LIDAR-Sensorsystem kann so konfiguriert werden, dass es zusätzlich zu LIDAR-Messungen (z.B. Entfernungsmessungen) eine Musterprojektion bietet. Ein LIDAR-Signal (z.B. ein scannender LIDAR-Laserstrahl) kann nicht nur für konventionelle LIDAR-Funktionen (z.B. für Entfernungsmessungen), sondern auch für die Infrarot-Musterprojektion bereitgestellt werden. Das projizierte Infrarot-Lichtmuster kann detektiert und dekodiert werden, um die darin kodierten Daten zu bestimmen. Das projizierte Infrarot-Lichtmuster kann auch als projiziertes Muster oder als projiziertes Lichtmuster bezeichnet werden.
  • Ein projiziertes Infrarot-Lichtmuster kann im Zusammenhang mit der vorliegenden Anwendung als eine Anordnung von Lichtelementen (z.B. Lichtlinien oder Lichtpunkten, wie z.B. Laserlinien oder -punkte) beschrieben werden, die eine Struktur (z.B. eine Periodizität) in mindestens einer Richtung (z.B. in mindestens einer Dimension) aufweisen. Wie weiter unten näher beschrieben, kann ein projiziertes Infrarot-Lichtmuster z.B. ein Gitter aus vertikalen Linien oder ein Gitter aus Punkten sein. Ein Muster im Zusammenhang mit der vorliegenden Anwendung kann eine regelmäßige (z.B. periodische) Struktur haben, z.B. mit einer periodischen Wiederholung desselben Lichtelements, oder ein Muster kann eine unregelmäßige (z.B. nichtperiodische) Struktur haben. Wie weiter unten im Detail beschrieben, kann ein projiziertes Muster ein eindimensionales Muster sein, d.h. ein Muster mit einer Struktur oder einer Periodizität entlang einer Richtung (z.B. entlang einer Dimension). Ein Gitter aus vertikalen Linien kann ein Beispiel für ein eindimensionales Muster sein. Alternativ dazu kann ein projiziertes Muster ein zweidimensionales Muster sein, d.h. ein Muster mit einer Struktur oder einer Periodizität entlang zweier Richtungen (z.B. entlang zweier Dimensionen, z.B. senkrecht zueinander). Ein Punktmuster, wie z.B. ein Punktgitter oder ein QRcode-ähnliches Muster, oder ein Bild oder ein Logo können Beispiele für zweidimensionale Muster sein.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorsystem ein lichtemittierendes System aufweisen, das so konfiguriert ist, dass es Infrarotlicht in Richtung eines Sichtfeldes aussendet. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie Daten in einem Lichtemissionsmuster codieren (zur Veranschaulichung: der eine oder die mehreren Prozessoren können so konfiguriert sein, dass sie ein Signal oder eine Anweisung, die ein zu emittierendes Lichtmuster beschreibt, bereitstellen oder erzeugen). Das LIDAR-Sensorsystem kann einen lichtemittierenden Controller aufweisen, der so konfiguriert ist, dass er das lichtemittierende System so steuert, dass es ein Infrarot-Lichtmuster in Übereinstimmung mit dem datencodierten Lichtemissionsmuster in das Sichtfeld projiziert.
  • In verschiedenen Ausführungsformen kann ein LIDAR-Sensorsystem ein optisches Sensorarray aufweisen, das so konfiguriert ist, dass es Infrarotlicht aus einem Sichtfeld optisch erfasst und dadurch ein Infrarotlichtmuster erkennt. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren (z.B. einen oder mehrere weitere Prozessoren) aufweisen, die so konfiguriert sind, dass sie das Infrarot-Lichtmuster dekodieren, um die im Infrarot-Lichtmuster kodierten Daten durch Bestimmung einer oder mehrerer Eigenschaften des Infrarot-Lichtmusters zu bestimmen.
  • Das in 1 schematisch dargestellte LIDAR-Sensorsystem 10 könnte eine Verkörperung des hier beschriebenen LIDAR-Sensorsystems sein.
  • Das LIDAR-Sensorsystem 10 kann (z.B. integriert oder eingebettet) in eine LIDAR-Sensoreinrichtung 30, z.B. ein Gehäuse, ein Fahrzeug, einen Fahrzeugscheinwerfer, eingebaut werden. Als Beispiel kann das LIDAR-Sensorsystem 10 als scannendes LIDAR-Sensorsystem 10 konfiguriert werden.
  • In verschiedenen Ausführungsformen können ein oder mehrere Prozessoren eines LIDAR-Systems (z.B. des LIDAR-Sensorsystems 10) als Datencodierer konfiguriert werden, z.B. der eine oder mehrere Prozessoren können in das LIDAR-Datenverarbeitungssystem 60 oder das LIDAR-Sensormanagementsystem 90 eingebunden oder als solche konfiguriert werden. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie eine Infrarot-Lichtmusterdarstellung erzeugen oder bereitstellen (z.B. ein digitales Signal, das ein zu emittierendes Muster darstellt). Die Infrarot-Lichtmusterdarstellung kann entsprechend den in dem projizierten Muster zu kodierenden Daten erzeugt werden. Illustrativ kann das Lichtemissionsmuster oder die Infrarot-Lichtmusterdarstellung eine oder mehrere Eigenschaften des projizierten Infrarot-Lichtmusters beschreiben oder definieren (illustrativ, des zu projizierenden Infrarot-Lichtmusters). Die eine oder mehrere Eigenschaften können mit den im projizierten Infrarot-Lichtmuster kodierten oder zu kodierenden Daten verbunden sein, wie weiter unten näher beschrieben wird.
  • In verschiedenen Ausführungsformen kann ein lichtemittierender Controller eines LIDAR-Systems (z.B. des LIDAR-Sensorsystems 10) als Lichtquellen-Controller 43 konfiguriert sein oder konfiguriert werden, oder der lichtemittierende Controller kann Teil des Lichtquellen-Controllers 43 sein. Der lichtemittierende Controller kann so konfiguriert werden, dass er eine oder mehrere Komponenten des lichtemittierenden Systems (z.B. eine Lichtquelle 42 und/oder ein Strahllenkungselement, die weiter unten näher beschrieben werden) so steuert, dass sie entsprechend dem Lichtemissionsmuster (z.B. mit der Infrarot-Lichtmusterdarstellung) Licht emittieren. Zur Veranschaulichung: Die lichtemittierende Steuereinheit kann so konfiguriert werden, dass sie das lichtemittierende System so steuert, dass das von dem lichtemittierenden System projizierte Infrarot-Lichtmuster dem Muster entspricht, das durch das Lichtemissionsmuster oder durch die Infrarot-Lichtmusterdarstellung beschrieben wird.
  • In verschiedenen Ausführungsformen kann ein lichtemittierendes System eines LIDAR-Systems (z.B. des LIDAR-Sensorsystems 10) als Erstes LIDAR-Sensorsystem 40 konfiguriert sein oder konfiguriert werden, oder das lichtemittierende System kann Teil oder eine Komponente des Ersten LIDAR-Sensorsystems 40 sein.
  • Das lichtemittierende System kann so konfiguriert oder gesteuert werden, dass es mit dem emittierten Licht das Sichtfeld abtastet (z.B. für Entfernungsmessungen und für die Musterprojektion). Das lichtemittierende System kann so konfiguriert oder gesteuert werden, dass es Licht in Übereinstimmung mit einem vordefinierten Emissionsmuster emittiert, wie weiter unten näher beschrieben. Zur Veranschaulichung: Das lichtemittierende System kann so konfiguriert oder gesteuert werden, dass es Licht gemäß einem Muster (z. B. eindimensional oder zweidimensional, z. B. ein Muster mit einer Periodizität oder einer Struktur in eine Richtung oder in zwei Richtungen) emittiert. Die Abtastung kann entlang einer Abtastrichtung erfolgen (z.B. einer Abtastrichtung des LIDAR-Sensorsystems). Die Abtastrichtung kann eine Richtung senkrecht zu der Richtung sein, entlang der sich ein beleuchteter Bereich erstreckt. Die Abtastrichtung kann die horizontale Richtung oder die vertikale Richtung sein (z.B. kann die Abtastrichtung senkrecht zu einer Richtung sein, entlang der die optische Achse des LIDAR-Sensorsystems 10 ausgerichtet ist). Als Beispiel kann eine reguläre LIDAR-Sensormessung in einem Scan-Sweep durchgeführt werden. Eine LIDAR-Musterprojektion (z.B. eine Projektion von einzeln erkennbaren vertikalen Laserlinien) kann in einem weiteren Scan-Sweep durchgeführt werden, wie weiter unten näher beschrieben. Die Projektionen können mehrfach wiederholt werden, um ein zuverlässiges LIDAR-Scanning und eine erkennbare LIDAR-Musterprojektion (z.B. von vertikalen Linien oder horizontalen Linien) zu erhalten.
  • Das lichtemittierende System kann eine oder mehrere steuerbare Komponenten zur Aussendung von Licht in Richtung des Sichtfeldes (z. B. zur Aussendung eines Entfernungsmessungssignals und/oder zur Projektion eines Musters) aufweisen, die im Folgenden näher beschrieben werden.
  • In verschiedenen Ausführungsformen kann das lichtemittierende System eine (z.B. erste) Lichtquelle umfassen, z.B. die Lichtquelle 42. Die Lichtquelle 42 kann so konfiguriert sein, dass sie Licht, z.B. Infrarotlicht, aussendet. Die Lichtquelle 42 kann so konfiguriert werden, dass sie Licht mit einer vordefinierten Wellenlänge emittiert, z. B. Licht im Infrarotbereich (z. B. im Bereich von etwa 700 nm bis etwa 2000 nm, z. B. im Bereich von etwa 860 nm bis etwa 1600 nm, z. B. bei etwa 905 nm oder bei etwa 1550 nm). Zur Veranschaulichung: Die Lichtquelle 42 kann eine Infrarot-Lichtquelle 42 sein. Die Lichtquelle 42 kann so konfiguriert sein, dass sie Licht kontinuierlich emittiert, oder sie kann so konfiguriert sein, dass sie Licht in gepulster Form emittiert (z.B. einen oder mehrere Lichtpulse, wie eine Folge von Laserpulsen).
  • Zum Beispiel kann die Lichtquelle 42 so konfiguriert werden, dass sie Laserlicht emittiert. Die (z.B. Infrarot-)Lichtquelle 42 kann eine oder mehrere Laserlichtquellen aufweisen (z.B. konfiguriert als die Laserquelle 5902, die z.B. in Bezug auf 59 beschrieben wird). Die eine oder mehrere Laserlichtquellen können mindestens eine Laserdiode aufweisen, z.B. eine oder mehrere Laserdioden (z.B. eine oder mehrere kantenemittierende Laserdioden und/oder eine oder mehrere oberflächenemittierende Laserdioden mit vertikalem Resonator).
  • Die Lichtquelle 42 kann z.B. eine Vielzahl von Teillichtquellen aufweisen, illustrativ eine Vielzahl von einzelnen Lichtquellen (z.B. eine Vielzahl von Leuchtdioden oder Laserdioden). Die Mehrzahl der Teillichtquellen kann ein Array bilden (z.B. eindimensional oder zweidimensional). Als Beispiel kann die Mehrzahl von Teillichtquellen entlang einer Richtung angeordnet werden, um ein eindimensionales Array zu bilden. Als weiteres Beispiel kann die Mehrzahl von Teillichtquellen entlang zweier Richtungen angeordnet werden, um ein zweidimensionales Array zu bilden. Die Emission der Lichtquellen kann gesteuert werden (z.B. spaltenweise oder pixelweise), so dass eine Abtastung des Sichtfeldes erfolgen kann. Eine zweidimensionale Anordnung von Teillichtquellen kann eine zweidimensionale Abtastung des Sichtfeldes (z.B. eine Abtastung in zwei Richtungen, z.B. senkrecht zueinander) und/oder die Emission eines zweidimensionalen Musters bewirken.
  • Die Projektion (z.B. die Emission) eines Lichtmusters kann die Steuerung einer oder mehrerer Teillichtquellen zur Emission von Licht und einer oder mehrerer anderer Teillichtquellen zur Nicht-Emission von Licht umfassen. Zur Veranschaulichung kann ein Lichtmuster durch die Definition oder Auswahl eines Musters von Teillichtquellen zum Aussenden von Licht emittiert werden. Zur weiteren Veranschaulichung können die Teillichtquellen ein- und ausgeschaltet werden, um das beabsichtigte Muster zu erzeugen (z. B. ein Linienmuster oder ein Punktmuster). Der Ein- und Ausschaltzyklus kann vom lichtemittierenden Steuergerät (oder vom LIDAR-Sensormanagementsystem 90 oder vom lichtemittierenden Steuergerät in Verbindung mit dem LIDAR-Sensormanagementsystem 90) gesteuert werden, z.B. in Übereinstimmung mit einer entsprechenden Eingabe, die von einem Fahrzeugmanagementsystem und/oder einem Kameramanagementsystem empfangen wird.
  • Als weiteres Beispiel kann das lichtemittierende System zusätzlich oder alternativ ein (z.B. erstes) Strahllenkungselement (z.B. der Lichttaster 41 oder als Teil des Lichttasters 41) aufweisen, z.B. einen MEMS-Spiegel oder ein optisches Phased Array. Als Beispiel kann das LIDAR-Sensorsystem 10 als spiegelbasiertes scannendes LIDAR-System konfiguriert werden, z.B. als MEMS-basiertes LIDAR-System. Das Strahllenkungselement kann so konfiguriert oder gesteuert werden, dass es eine Emissionsrichtung in Richtung des Sichtfeldes des von der Lichtquelle 42 emittierten Infrarotlichts steuert. Zur Veranschaulichung: Das Strahlführungselement kann so konfiguriert (z.B. angeordnet) werden, dass es Licht von der Lichtquelle 42 empfängt. Das Strahllenkungselement kann so konfiguriert oder gesteuert werden, dass es das Sichtfeld mit dem von der Lichtquelle 42 empfangenen Licht abtastet (z.B. um das von der Lichtquelle 42 empfangene Licht sequentiell auf verschiedene Teile des Sichtfeldes zu lenken). Die Projektion (z.B. die Emission) eines Lichtmusters kann die Steuerung des Strahllenkungselements umfassen, um das emittierte Licht auf einen Teil des Sichtfeldes zu lenken und das Muster darin zu projizieren (z.B. um Teile des Sichtfeldes entsprechend dem zu projizierenden Muster sequentiell zu beleuchten). Das Strahllenkungselement kann so konfiguriert werden, dass es um eine Achse (z.B. kann das Strahllenkungselement ein 1DMEMS sein) oder um zwei Achsen (z.B. kann das Strahllenkungselement ein 2DMEMS sein) gekippt werden kann.
  • In verschiedenen Ausführungsformen kann das lichtemittierende System eine Vielzahl von Strahllenkungselementen aufweisen, z.B. das Strahllenkungselement und ein weiteres Strahllenkungselement (z.B. ein weiterer MEMS-Spiegel oder ein weiteres optisches Phased Array), illustrativ in einer 2-Spiegel-Scan-Einstellung. Das weitere Strahllenkungselement kann z.B. ein weiterer Lichttaster 41 oder ein weiterer Teil des Lichttasters 41 sein. Die Vielzahl der Strahllenkungselemente kann so gesteuert werden, dass eine Abtastung und/oder eine Musterprojektion im Sichtfeld in mehr als einer Richtung, z.B. in zwei Richtungen (z.B. in der horizontalen Richtung und in der vertikalen Richtung) möglich ist. Zur Veranschaulichung: Das weitere Strahllenkungselement kann so konfiguriert oder gesteuert werden, dass es eine Emissionsrichtung des von der Lichtquelle 42 emittierten Infrarotlichts in das Sichtfeld in eine andere Richtung als das (erste) Strahllenkungselement steuert.
  • Das (erste) Strahllenkungselement kann so konfiguriert oder gesteuert werden, dass es eine Emissionsrichtung in Richtung des Sichtfeldes des von der Lichtquelle 42 in einer ersten Richtung (z. B. der horizontalen Richtung) emittierten Infrarotlichts steuert. Das (zweite) weitere Strahllenkungselement kann so konfiguriert oder gesteuert werden, dass es eine Emissionsrichtung in Richtung des Sichtfeldes des von der Lichtquelle 42 in einer zweiten Richtung (z.B. der vertikalen Richtung) emittierten Infrarotlichts steuert. Die erste Richtung kann sich von der zweiten Richtung unterscheiden (z.B. senkrecht zur ersten Richtung). Veranschaulichend kann das Strahllenkungselement und das weitere Strahllenkungselement so konfiguriert werden, dass das Sichtfeld in verschiedene Richtungen abgetastet wird. Das Strahllenkungselement und das weitere Strahllenkungselement können eine zweidimensionale Abtastung des Sichtfeldes und/oder die Emission eines zweidimensionalen Musters ermöglichen.
  • In einer Beispielkonfiguration kann das Scansystem zwei MEMS-Spiegel (z. B. zwei 1DMEMS) aufweisen. Die beiden getrennten MEMS-Spiegel können zusammenarbeiten, um die Umgebung (zur Veranschaulichung: das Sichtfeld) mit einem einzigen Laserspot oder einem Spot/Punkt-Muster zu scannen. Diese Konfiguration kann für regelmäßige LIDAR-Abtaststrahlen und für die Musterprojektion (z.B. nachträglich oder gleichzeitig) verwendet werden. Das zweidimensionale Scanverfahren kann die Projektion eines komplexen (z.B. zweidimensionalen) Musters ermöglichen.
  • In verschiedenen Ausführungsformen kann das lichtemittierende System mehrere Lichtquellen (z. B. mehrere unterschiedliche oder disjunkte LIDAR-Lichtquellen) umfassen, z. B. die (z. B. erste) Lichtquelle 42 und eine weitere (z. B. zweite) Lichtquelle. Die weitere Lichtquelle kann für eine andere Anwendung als die Lichtquelle 42 verwendet werden. Zum Beispiel kann die Lichtquelle 42 für die Musterprojektion und die weitere Lichtquelle für LIDAR-Messungen verwendet werden oder umgekehrt. Die von verschiedenen Lichtquellen gelieferten LIDAR-Strahlen können auf einen gemeinsamen Emitterpfad gerichtet werden. Zur Veranschaulichung kann der LIDAR-Strahl für die Musterprojektion in den regulären optischen Pfad eingekoppelt werden, indem eine optische Komponente, wie z.B. ein dichroitischer Spiegel oder ein polarisierter Strahlteiler (PBS), verwendet wird. Für die LIDAR-Messung und die Musterprojektion kann das gleiche optische System (z.B. die gleiche Anordnung der Emitteroptik) verwendet werden.
  • Die Mehrzahl der Lichtquellen kann mindestens eine unterschiedliche Eigenschaft voneinander haben (z.B. eine unterschiedliche optische Eigenschaft, z.B. unterschiedliche Eigenschaft oder Strahlcharakteristik des emittierten Lichts). Beispielsweise kann die weitere Lichtquelle im Vergleich zur Lichtquelle 42 eine andere Konfiguration haben, z.B. die Lichtquelle 42 und die weitere Lichtquelle können unterschiedliche optische Eigenschaften haben (z.B. kann das jeweils emittierte Licht oder der emittierte Laserstrahl unterschiedliche Eigenschaften haben). Die weitere Lichtquelle kann mindestens eine Eigenschaft (z.B. mindestens eine Strahlcharakteristik) haben, die sich von der Lichtquelle 42 unterscheidet (z.B. kann der jeweilige emittierte Lichtstrahl oder der emittierte Laserstrahl andere Eigenschaften haben). Die andere Eigenschaft kann z.B. eine Wellenlänge sein (zur Veranschaulichung: die Wellenlänge des emittierten Lichts, z.B. kann die Lichtquelle 42 Licht bei 905 nm und die weitere Lichtquelle Licht bei 1550 nm emittieren). Als weiteres Beispiel kann die unterschiedliche Eigenschaft eine Polarisation sein (z.B. kann die Lichtquelle 42 Licht mit linearer Polarisation und die weitere Lichtquelle Licht mit zirkularer Polarisation aussenden). Als weiteres Beispiel kann die andere Eigenschaft eine Intensität sein (z.B. kann die Lichtquelle 42 Licht mit höherer Intensität im Vergleich zu dem von der weiteren Lichtquelle emittierten Licht emittieren). Als weiteres Beispiel kann die abweichende Eigenschaft eine Strahlausbreitung sein (z.B. kann die Lichtquelle 42 im Vergleich zu der weiteren Lichtquelle mehr kollimiertes Licht emittieren). Als weiteres Beispiel kann die andere Eigenschaft eine Strahlmodulation sein (z.B. kann die Lichtquelle 42 Licht mit einer anderen Phase oder einer anderen Amplitude im Vergleich zu der weiteren Lichtquelle aussenden). Zur Veranschaulichung kann die Eigenschaft aus einer Gruppe von Eigenschaften ausgewählt werden, die eine Wellenlänge, eine Polarisation, eine Intensität, eine Strahlspreizung und eine Strahlmodulation enthält oder aus diesen besteht.
  • Die Lichtquellen mit unterschiedlichen Strahlcharakteristiken können die sequentielle oder gleichzeitige Emission von regelmäßigen LIDAR-Strahlen für Messzwecke und von LIDAR-Strahlen für die Musterprojektion (z.B. Bildprojektion) ermöglichen. Die Emission regulärer Strahlen für Messzwecke kann, zumindest für einige Anwendungsfälle, gleichzeitig mit der Emission von Strahlen für die Musterprojektion erfolgen. Illustrativ kann die Verwendung von Lichtquellen mit unterschiedlichen Eigenschaften ein reduziertes Übersprechen oder Interferenz zwischen der Entfernungsmessung und der Musterprojektion bewirken. Als Beispiel: Falls die beiden LIDAR-Strahlen (für Entfernungsmessung und Musterprojektion) unterschiedliche Wellenlängen (oder unterschiedliche Polarisation) haben, kann das detektierende optische Sensorarray (z.B. als Teil einer Detektionskamera) mit einem Infrarotfilter ausgestattet sein, um die Wellenlänge (oder die Polarisation) des regulären LIDAR-Strahls (z.B. die Infrarot-Wellenlänge des regulären Infrarot-Strahls) zu blockieren, wie weiter unten näher beschrieben wird. Der Infrarotfilter kann die Wellenlänge (oder die Polarisation) des Musterprojektionsstrahls durchlassen. Zusätzlich oder alternativ können auch optische Komponenten vor dem optischen Sensorarray (z.B. an einer Eingangsseite der Kamera) vorgesehen werden.
  • In verschiedenen Ausführungsformen können die regulären LIDAR-Pulsmessungen (z.B. Scans oder Sweeps) und die LIDAR-Musterprojektion im gleichen Sichtfeld (z.B. innerhalb desselben Beleuchtungsfeldes) durchgeführt werden. Alternativ können die regulären LIDAR-Impulsmessungen und die LIDAR-Musterprojektion in getrennten Sichtfeldabschnitten oder -segmenten durchgeführt werden, wie weiter unten näher beschrieben.
  • Das Sichtfeld, in das das lichtemittierende System das Infrarot-Lichtmuster projiziert (auch als Sichtfeld für die Musterprojektion oder Musterprojektions-Sichtfeld bezeichnet), kann ein (z.B. gesamtes) Beleuchtungsfeld des lichtemittierenden Systems (z.B. der Lichtquelle 42) sein oder diesem entsprechen. Dieses Sichtfeld kann ein Sichtfeld des LIDAR-Sensorsystems 10 sein oder im Wesentlichen einem Sichtfeld des LIDAR-Sensorsystems 10 entsprechen (z.B. ein Winkelbereich, in dem das LIDAR-Sensorsystem 10 Licht aussenden kann und/oder aus dem das LIDAR-Sensorsystem 10 Licht empfangen kann, z.B. reflektiert von einem oder mehreren Objekten). Das Sichtfeld kann eine Szene sein, die zumindest teilweise durch das LIDAR-Sensorsystem 10 erfasst wird. Das Sichtfeld kann ein Sichtfeld eines optischen Sensorarrays des LIDAR-Sensorsystems 10 sein oder im Wesentlichen einem Sichtfeld eines optischen Sensorarrays des LIDAR-Sensorsystems 10 entsprechen, das weiter unten näher beschrieben wird. Das vertikale und horizontale Sichtfeld des LIDAR-Sensorsystems 10 kann eine oder mehrere Anforderungen erfüllen, so dass nicht nur entfernte Objekte, sondern auch nahegelegene Verkehrsteilnehmer sowie die Straßenoberfläche vor einem Fahrzeug gemessen und überprüft werden können.
  • Alternativ kann das Sichtfeld für die Musterprojektion ein Teil (z.B. ein Prozentsatz kleiner als 100%, z.B. 70% oder 50%) des gesamten Beleuchtungsfeldes des lichtemittierenden Systems sein oder entsprechen (z.B. ein Teil des Sichtfeldes des LIDAR-Sensorsystems 10). Befindet sich die Musterprojektion z.B. auf der Straße in unmittelbarer Nähe eines Fahrzeugs, darf nicht das gesamte Sichtfeld für eine solche Musterprojektion verwendet werden, sondern nur ein bestimmter Prozentsatz des vertikalen oder horizontalen Sichtfeldes. Zur Veranschaulichung: Das Sichtfeld für die Entfernungsmessung kann das gesamte Sichtfeld des LIDAR-Sensorsystems 10 sein oder diesem entsprechen, und das Sichtfeld für die Musterprojektion kann ein kleinerer Teil des Sichtfeldes des LIDAR-Sensorsystems 10 sein.
  • Der Gesichtsfeldausschnitt für die Musterprojektion (z.B. seine Lage innerhalb des Sichtfeldes und/oder seine Größe) kann z.B. dynamisch, z.B. entsprechend einer aktuellen Verkehrssituation oder der Position eines oder mehrerer Objekte im Sichtfeld, angepasst werden. Beispielsweise kann das Sichtfeld für die Musterprojektion entsprechend der Bewegung eines markierten Objekts (z.B. eines Objekts, auf das das Infrarot-Lichtmuster projiziert wird, z.B. eines markierten Fahrzeugs) geändert oder angepasst werden, wie weiter unten näher beschrieben wird. Zur Veranschaulichung: Falls ein markiertes Fahrzeug das Sichtfeld zur Musterprojektion verlässt, kann eine Rückmeldung an den lichtemittierenden Controller (z.B. an das LIDAR-Sensormanagement-System 90, z.B. durch ein Kamera-Objekt-Erkennungssystem) erfolgen, um die Sichtfeldeinstellungen zu ändern.
  • In verschiedenen Ausführungsformen kann eine Segmentierung des Sichtfeldes vorgesehen werden, z.B. kann das LIDAR-Sensorsystem 10 als multisegmentiertes Abtastsystem konfiguriert werden, wie in Bezug auf 89 bis 97 beschrieben.
  • Das Sichtfeld (z. B. das Beleuchtungsfeld des lichtemittierenden Systems) kann in mehrere Abschnitte oder Zonen unterteilt sein (z. B. mehrere Beleuchtungszonen in horizontaler Richtung und/oder in vertikaler Richtung, z. B. in einer Richtung senkrecht zur Abtastrichtung). Zur Veranschaulichung: Bei einer gleichen Koordinate in einer Richtung (z.B. der horizontalen Richtung) kann das Sichtfeld in mehrere Zonen entlang einer anderen Richtung (z.B. entlang der vertikalen Richtung) segmentiert werden.
  • Es können verschiedene Zonen vorgesehen oder für unterschiedliche Zwecke verwendet werden (z.B. für LIDAR-Messung oder LIDAR-Musterprojektion). So kann z.B. an einer gleichen Koordinate in der ersten (z.B. horizontalen) Richtung ein regelmäßiger LIDAR-Strahl an einer anderen Koordinate in der zweiten (z.B. vertikalen) Richtung emittiert werden als an einer Koordinate, an der die LIDAR-Musterprojektion durchgeführt wird. Dies kann z.B. zeitsequentiell mit einem regulären LIDAR-Scan oder in einem simultanen Sweep-Scan durchgeführt werden. Im Falle eines simultanen Sweep-Scans kann die Zone, die für die LIDAR-Musterprojektion verwendet wird, eine Zone sein, die nicht direkt an ein Zonensegment angrenzt, das für einen regulären LIDAR-Sweep verwendet wird. Als Beispiel kann mindestens eine nicht verwendete Zone zwischen den beiden Zonen vorgesehen werden. Dadurch kann die Interferenz zwischen Entfernungsmessung und Musterprojektion verringert werden.
  • Die Zonen (z.B. die zugewiesene Funktion) können auf einer stochastischen Basis ausgewählt werden. Es kann eine beliebige Kombination von Zonen und Segmenten verwendet werden. Beispielsweise kann das Muster unter Verwendung der oben platzierten Zone projiziert werden, und der reguläre LIDAR-Scan kann in einer der darunter liegenden Zonen durchgeführt werden. Als weiteres Beispiel kann ein regulärer LIDAR-Scan in zwei Zonen (z. B. der oberen und der unteren Zone) und die Musterprojektion in den beiden inneren Zonen erfolgen. Es sind auch andere Kombinationen und die Verwendung von mehr als einer Zone für die gleiche Funktion möglich.
  • Die Segmentierung kann z.B. mit Hilfe der strukturellen Eigenschaften eines Multi-Lens-Arrays (MLA) erfolgen. Veranschaulichend kann das Multilinsen-Array- eine Vielzahl von virtuellen Lichtquellen erzeugen, die Licht in Richtung eines entsprechenden Teils oder Segments des Sichtfeldes emittieren. Das lichtemittierende System kann das Mehrlinsen-Array umfassen. Das Mehrfachlinsen-Array kann hinter der Lichtquelle 42 oder hinter dem Strahlführungselement (z.B. des scannenden MEMS) angeordnet sein. Das Strahllenkungselement kann z.B. zwischen der Lichtquelle 42 und dem Multilinsen-Array angeordnet sein. Die Segmentierung kann zusätzlich oder alternativ mit einer gezielten EIN/AUS-Schaltung der Teillichtquellen (z.B. Laserdioden) erfolgen, z.B. der Teillichtquellen, die einer jeweiligen Zone des Multilinsenarrays (z.B. einer jeweiligen MLA-Zone) zugeordnet sind.
  • In verschiedenen Ausführungsformen kann das projizierte Infrarotmuster mindestens ein segmentiertes Musterelement (z.B. eine Vielzahl von segmentierten Musterelementen) aufweisen, z.B. mindestens eine segmentierte Linie (z.B. eine segmentierte vertikale Linie). Zur Veranschaulichung: Das projizierte Infrarotmuster kann mindestens ein Musterelement mit einer Vielzahl von Segmenten (z.B. Liniensegmenten) aufweisen. Der lichtemittierende Controller kann so konfiguriert werden, dass er das lichtemittierende System so steuert, dass es Licht aussendet, um eines oder mehrere der Segmente des segmentierten Musterelements (oder jedes segmentierten Musterelements) zu projizieren.
  • Die Segmentierung des Sichtfeldes kann zu einem geringeren Stromverbrauch führen. Zur Veranschaulichung: Licht darf nur in den relevanten Beleuchtungszonen ausgestrahlt oder projiziert werden. Nachfolgende Scans können unterschiedliche Zonensegmente verwenden (z.B. Aktivierung einer anderen Teillichtquelle oder einer Gruppe von Teillichtquellen, die einer jeweiligen MLA-Zone zugeordnet sind). Beispielsweise kann die nachfolgend aktivierte Teillichtquelle oder Gruppe von Teillichtquellen eine sein, die nicht direkt an die zuvor verwendete Teillichtquelle oder Gruppe von Teillichtquellen angrenzt (z.B. kann die nachfolgende MLA-Zone eine Zone sein, die nicht an die zuvor verwendete MLA-Zone angrenzt). Dies kann ein reduziertes oder eliminiertes Übersprechen an benachbarten Sensoren bewirken und das Signal-Rausch-Verhältnis (SNR) erhöhen.
  • In einem beispielhaften Szenario kann eine vertikale Laserlinie eine kontinuierliche (z.B. nicht segmentierte) Linie sein oder eine Linie, die in eine Vielzahl von Segmenten, z.B. vier Segmente, aufgeteilt ist. Eine Vielzahl von einzeln adressierbaren Beleuchtungszonen kann verwendet werden, um die vertikale Laserlinie in das Sichtfeld zu projizieren. Eines oder mehrere der Segmente können der Musterprojektion gewidmet sein (z.B. die unterste Zone und das jeweilige Liniensegment). Falls eine segmentierte vertikale Scanlinie vorgesehen ist, ist es möglich, dass nicht immer die gesamte Linie projiziert und verwendet wird. Für jeden Scan kann ein Liniensegment verwendet werden.
  • In verschiedenen Ausführungsformen. Die reguläre LIDAR-Messung und die LIDAR-Musterprojektion können zeitsequentiell (z.B. nacheinander) durchgeführt werden. Die regulären LIDAR-Messfunktionen (z.B. die Emission regelmäßiger vertikaler Scanlinien) und die LIDAR-Musterprojektion können sequentiell (z.B. nacheinander) mit dem gleichen lichtemittierenden System durchgeführt werden. Zur Veranschaulichung: LIDAR-Messungen können zeitsequentiell vertauscht oder mit der LIDAR-Musterprojektion verschachtelt werden.
  • Der lichtemittierende Controller kann so konfiguriert werden, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster in vordefinierten Zeitintervallen (z.B. periodische Zeitintervalle) projiziert wird. Illustrativ kann eine LIDAR-Musterprojektion periodisch nach einem bestimmten Zeitintervall durchgeführt werden (z.B. regelmäßig oder unregelmäßig beabstandete Zeitintervalle). Das Timing der Musterprojektion kann in Übereinstimmung (z.B. in Synchronisation) mit einer Bildaufnahme erfolgen, z.B. mit der Bildrate des optischen Sensorarrays (z.B. einer Kamera, die das optische Sensorarray enthält). Die der Musterprojektion zugewiesenen Zeitintervalle (z.B. die Startzeit und die Dauer) können mit der Bildrate des optischen Sensorarrays synchronisiert sein. Der lichtemittierende Controller kann so konfiguriert werden, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster synchron mit der Bildrate des optischen Sensorarrays projiziert wird. Zur Veranschaulichung: Das Infrarot-Lichtmuster kann projiziert werden, wenn das optische Sensorarray das Sichtfeld abbildet, um das projizierte Muster zu erkennen. Beispielsweise kann das Infrarot-Lichtmuster für eine Zeitdauer projiziert werden, die der Belichtungszeit des optischen Sensorarrays entspricht. Als Beispiel kann die Bildfrequenz in einem Bereich von etwa 30 Hz (z.B. entsprechend einem Zeitintervall von etwa 33,3 ms) bis etwa 60 Hz (z.B. entsprechend einem Zeitintervall von etwa 16,6 ms) liegen. Die Bildwechselfrequenz kann höher sein (z.B. bis zu 1 kHz oder höher als 1 kHz), wenn anspruchsvollere Geräte eingesetzt werden.
  • In verschiedenen Ausführungsformen kann die Belichtungszeit des optischen Sensorarrays (z.B. der Kamera) entsprechend der Musterprojektion eingestellt werden (z.B. kann die Belichtungszeit des optischen Sensorarrays synchron mit der Projektion eines Infrarot-Lichtmusters durch das lichtemittierende System gesteuert werden). Als Beispiel kann das LIDAR-Sensorsystem 10 einen Controller für das optische Sensorarray aufweisen, der so konfiguriert ist, dass er die Belichtungszeit des optischen Sensorarrays steuert (oder der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie eine solche Steuerfunktion implementieren). Als weiteres Beispiel kann das LIDAR-Sensorsystem 10 (z.B. die Kamera, in der das optische Sensorarray enthalten ist) einen Verschluss aufweisen, der so konfiguriert (z.B. steuerbar) ist, dass er die Belichtungszeit des optischen Sensorarrays steuert (z.B. durch einen zugehörigen Verschluss-Controller gesteuert).
  • So kann z.B. das optische Sensorarray (z.B. die Kamera) eine Belichtungszeit haben, die der halben Periode der Abtastung des Sichtfeldes entspricht, z.B. der halben Periode einer Sichtfeldabtastung (z.B. wenn Ranging und Musterprojektion sequentiell im gesamten Sichtfeld des LIDAR-Sensorsystems 10 durchgeführt werden). Nur als numerisches Beispiel kann eine Belichtungszeit von 250 µs verwendet werden, wenn die MEMS-Scanfrequenz 2 kHz beträgt. Die Belichtungszeit kann auch kürzer als die halbe Periode eines verwendeten Scansystems sein. In diesem Fall kann die Musterprojektion über verschiedene Scan-Zyklen des Strahlführungselements (z.B. des MEMS-Spiegels) verteilt sein.
  • Als Beispiel kann die Kamera (z.B. in der die optische Sensoranordnung enthalten sein kann) ein bildgebendes Gerät darstellen, das so konfiguriert ist, dass es 2D-Bilder (z.B. Farbbilder) liefert. Die Kamera kann Teil des Sensorsystems (z.B. eines LIDAR-Systems) eines teil- oder vollautomatisch fahrenden Fahrzeugs sein, das für das Szenenverständnis verwendet wird. Die Kamerabilder können als Teil des Objekterkennungs-, Objektklassifizierungs- und Szenenverständnisprozesses verwendet werden, der z.B. von einem oder mehreren Prozessoren einer Sensorfusionsbox ausgeführt wird. Die Kamera kann einen Infrarotfilter aufweisen, der so konfiguriert ist, dass er anderes Infrarotlicht als die verwendeten LIDAR-Laserwellenlängen blockiert, und so konfiguriert ist, dass er sichtbares Licht durchlässt. Diese Konfiguration kann dafür sorgen, dass die Farbmessung der Kamera nur minimal beeinträchtigt wird und gleichzeitig der Detektor voll empfindlich für das emittierte LIDAR-Licht ist. Eine Kamera wird weiter unten ausführlicher beschrieben.
  • In einem weiteren Beispiel können zwei synchronisierte Kamerasysteme verwendet werden (z.B. zwei synchronisierte optische Sensor-Arrays). Jedes der Kamerasysteme kann so konfiguriert werden, dass es das projizierte Muster erkennt. Die Mustererkennung der einzelnen Kamerasysteme kann dann kombiniert werden (z.B. in einer Sensor-Fusionsbox). Diese Konfiguration kann eine noch zuverlässigere Mustererkennung ermöglichen, z.B. auch unter ungünstigen Bedingungen.
  • Die sequentielle Projektionsmethode kann z.B. dazu dienen, unerwünschte Interferenzen zwischen den LIDAR-Musterprojektionsstrahlen und den LIDAR-Messungen zu vermeiden (z.B. die eigene LIDAR-Messung, die z.B. von einem fahrzeugeigenen LIDAR-System durchgeführt wird). Als weiteres Beispiel kann eine solche sequentielle Projektionsmethode die Vermeidung unerwünschter Interferenzen (z.B. auf der Elektronik-Ebene) zwischen den regulären Abtaststrahlen und dem optischen Sensorarray (z.B. dem Infrarot-Kamera-Sensorsystem) ermöglichen. Illustrativ kann die oben beschriebene Synchronisation dafür sorgen, dass das optische Sensorarray das Sichtfeld abbildet, wenn vom LIDAR-Sensorsystem 10 kein Entfernungssignal ausgesendet wird.
  • In verschiedenen Ausführungsformen kann das projizierte Infrarotlichtmuster ein oder mehrere Musterelemente aufweisen (z. B. eine oder mehrere Linien, wie vertikale oder horizontale Linien, einen oder mehrere Punkte). Das datencodierte Lichtemissionsmuster (und/oder die Darstellung des Lichtemissionsmusters) kann eine oder mehrere Eigenschaften der Musterelemente definieren oder beschreiben. Beispielsweise kann das datencodierte Lichtemissionsmuster eine Anordnung des einen oder der mehreren Musterelemente definieren (z. B. wie die Musterelemente räumlich angeordnet sein können, z. B. in einer Richtung oder in zwei Richtungen). Als weiteres Beispiel kann das datencodierte Lichtemissionsmuster eine Intensität des einen oder der mehreren Musterelemente definieren (nur als Beispiel kann ein Element niedriger Intensität einer „0“ und ein Element hoher Intensität einer „1“ entsprechen, analog zur digitalen Kommunikation). Als weiteres Beispiel kann das datencodierte Lichtemissionsmuster eine Anzahl von Musterelementen definieren (z.B. kann ein Muster, das eine erste Anzahl von Elementen enthält, mit einer anderen Bedeutung verbunden sein als ein Muster, das eine zweite Anzahl von Elementen enthält). Als weiteres Beispiel kann das datencodierte Lichtemissionsmuster einen Abstand zwischen benachbarten Musterelementen definieren, z.B. einen Abstand zwischen benachbarten Musterelementen (nur als Beispiel: ein kleiner Abstand zwischen benachbarten Elementen kann einer „0“ entsprechen und ein großer Abstand kann einer „1“ entsprechen). Zur Veranschaulichung: Die eine oder mehrere Eigenschaften können in Übereinstimmung mit den im projizierten Muster zu kodierenden Daten ausgewählt oder definiert werden. Die eine oder mehrere Eigenschaften können über die Zeit variiert werden, z.B. um verschiedene Daten oder Informationen zu kodieren. Beispielsweise kann die Variation der Intensität einen Blitzmodus oder die Kodierung von Informationen oder die Hervorhebung bestimmter Musterelemente (z.B. Linien) mit höherer Intensität bewirken, die von der optischen Sensoranordnung erkannt werden können (z.B. hat die optische Sensoranordnung in bestimmten Teilen der Anordnung, z.B. der CCD-Chipanordnung, eine höhere Empfindlichkeit).
  • Die Eigenschaften des projizierten Musters, z. B. die Eigenschaften eines oder mehrerer Musterelemente, können zur Dekodierung der im Muster kodierten Daten verwendet werden. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren (z.B. oder weitere ein oder mehrere Prozessoren) können so konfiguriert werden, dass sie den Eigenschaften des projizierten Musters eine Bedeutung (z.B. Daten) zuordnen (z.B. mit Hilfe des optischen Sensorarrays erfasst, z.B. einem digitalen Signal, das das erfasste Muster repräsentiert).
  • Beispielsweise kann ein projiziertes Muster ein Gittermuster aus vertikalen und/oder horizontalen Linien sein oder aufweisen. Das Gittermuster kann eine willkürliche Form haben. Als weiteres Beispiel kann das projizierte Muster ein Punktmuster sein (z.B. mit einer Vielzahl von Punkten, z.B. in einer gitterartigen Konfiguration angeordnet). Als weiteres Beispiel kann das projizierte Muster ein Symbol sein, wie z.B. ein Punkt, ein Kreis, ein Quadrat, ein Strichcode oder ein QR-Code. Die Struktur des projizierten Musters (z.B. die Anordnung der Musterelemente) kann Informationen kodieren, z.B. kann es sich um eine Darstellung von Informationen handeln (z.B. eine Darstellung einer Folge von Nullen (0) und Einsen (1), wie sie in der digitalen Kommunikation verwendet wird). Beispielsweise kann ein strichcodeähnliches oder QR-Code-ähnliches projiziertes Muster (z.B. ein Muster mit einer Strichcode- oder QR-Code-Signatur) einen hohen Signal- oder Informationsgehalt haben. Illustrativ kann ein strichcodeähnliches oder QRcode-ähnliches Muster eine Musterstruktur haben, die weitere Informationen kodieren kann (z.B. zusätzliche Informationen in Bezug auf eine andere Art von Muster).
  • In verschiedenen Ausführungsformen kann das projizierte Muster (z.B. die Eigenschaften der Musterelemente) unter Berücksichtigung von LIDAR-Sensorsystemexternen Bedingungen, z.B. unter Berücksichtigung eines Fahrzeugzustandes, angepasst werden. Beispielsweise kann das projizierte Muster in Abhängigkeit von der Fahrzeuggeschwindigkeit des eigenen Fahrzeugs, der Geschwindigkeit eines anderen Fahrzeugs, der Beschleunigung, der Bewegungsrichtung, des Abstands zu anderen Objekten, eines Verkehrszustands oder eines Gefährdungsgrads modifiziert werden (z.B. in Bezug auf Größe, Verzerrung, Intensität, Abstand zwischen benachbarten Musterelementen oder andere das Muster definierende Merkmale).
  • In einem exemplarischen Szenario kann das lichtemittierende System (z.B. der LIDAR-Infrarot-Laser) so getriggert werden, dass ein (z.B. gleichmäßiges) Muster von vertikalen Linien projiziert wird. Die vertikalen Linien können auf eine Oberfläche (z.B. eine im wesentlichen ebene Fläche wie die Straße oder auf eine geneigte Fläche wie Außenteile eines Fahrzeugs oder eines anderen Verkehrsobjekts) oder auf andere Objekte als ein Muster von Gitterlinien projiziert werden. Die Linien können äquidistant sein oder der Abstand von Linie zu Linie kann innerhalb des Gitters variieren. Der Abstand von Linie zu Linie kann im Laufe der Zeit angepasst werden, z.B. für die Codierung von Informationen. Die Intensität des Linienmusters oder bestimmter Gitternetzlinien kann geändert werden, z. B. um einen Blitzmodus bereitzustellen, um Informationen zu kodieren oder um bestimmte Linien mit höherer Intensität hervorzuheben. Zur Veranschaulichung kann das Muster so projiziert werden, dass es eine strichcodeähnliche Signatur zur Übermittlung von (digitalen) Informationen anzeigt.
  • In verschiedenen Ausführungsformen können verschiedene Arten von Daten oder Informationen in dem projizierten Muster kodiert sein. Die kodierten Informationen können durch das LIDAR-Sensorsystem 10 (z.B. durch ein fahrzeugeigenes LIDAR-System oder Kamerasystem), aber auch durch ein anderes LIDAR-System, z.B. durch das LIDAR- oder Kamerasystem eines anderen Fahrzeugs (illustrativ konfiguriert als das hier beschriebene LIDAR-System oder Kamerasystem) oder einer Verkehrsüberwachungsstation erkannt werden. Das andere Fahrzeug und/oder die Verkehrsüberwachungsstation können auch so ausgerüstet sein, dass sie ihre eigene Musterprojektion bereitstellen können. Dies kann eine Kommunikation zwischen verschiedenen Verkehrsteilnehmern ermöglichen. Veranschaulichend kann die Musterprojektion eine Fahrzeug-zu-Fahrzeug- (V2V) und/oder Fahrzeug-zu-Umgebungs-Kommunikation (V2X) ermöglichen, z.B. Kommunikation mit einem vorausfahrenden Fahrzeug und/oder mit nachfolgenden Fahrzeugen (z.B. wenn ein hinteres LIDAR-Sensorsystem und Kamerasystem vorgesehen ist), z.B. in einer Platooning-Fahranordnung. In einem Beispielszenario kann die Projektion eines Fahrzeugs von der Kamera eines anderen Fahrzeugs aufgenommen werden und umgekehrt, falls beide Fahrzeuge mit einem System wie hier beschrieben ausgestattet sind. Die Musteraufnahme kann mit nachfolgenden Bilderkennungs-, Klassifizierungs- und/oder Verschlüsselungsverfahren kombiniert werden.
  • Jede Projektion kann eine Startsequenz (z.B. eine Sequenz zur Einleitung einer Kommunikation) mit vordefinierten Bildern oder Mustern aufweisen, z.B. LIDAR-Sensorsystem oder fahrzeugspezifische projizierte Muster (zur Veranschaulichung: Muster, die bekannt sind und sich auf eine Standardprojektion des Systems beziehen können). Dies kann eine Unterscheidung zwischen der projizierten eigenen Information und einer projizierten externen Information ermöglichen.
  • Beispielsweise kann das projizierte Muster fahrzeug- oder verkehrsbezogene Informationen kodieren, wie eine aktuelle GPS-Position, einen aktuellen SAE-Pegel oder andere nützliche Informationen. Als weiteres Beispiel kann das projizierte Muster eine verkehrsbezogene Meldung kodieren, z.B. mit einer standardisierten Bedeutung, wie STOP oder GIVE WAY. Als weiteres Beispiel kann das projizierte Muster eine Farbe kodieren (z.B. eine Verkehrsfarbe wie Rot, Gelb oder Grün), z.B. durch Verwendung eines vordefinierten Gitternetzabstands oder einer vordefinierten Intensität oder Symbolsequenzen, die eine Farbkodierung liefern.
  • In verschiedenen Ausführungsformen kann der lichtemittierende Controller so konfiguriert werden, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster an eine vordefinierte Stelle im Sichtfeld projiziert wird. Das Infrarot-Lichtmuster kann an eine vordefinierte Stelle im Sichtfeld projiziert werden, z.B. in einem vordefinierten Abstand vom LIDAR-Sensorsystem 10 (z.B. kann der lichtemittierende Controller so konfiguriert werden, dass er das lichtemittierende System so steuert, dass es das Infrarot-Lichtmuster an eine vordefinierte Stelle im Sichtfeld projiziert). Das Muster kann z.B. in einer Entfernung von einigen Metern bis zu etwa 10 m oder 15 m projiziert werden, oder sogar bis zu größeren Entfernungen im Falle einer höheren Laserintensität und/oder höheren Detektorempfindlichkeit (z.B. höhere Kameraempfindlichkeit). Illustrativ kann die Projektionsmethode verwendet werden, um leicht erkennbare Muster in der Nähe eines Fahrzeugs darzustellen. Der Abstand vom Fahrzeug, in dem das Muster projiziert wird, kann unter Berücksichtigung der Eigenschaften des Systems bestimmt werden, z.B. bei den LIDAR-Lasereinstellungen (z.B. Intensität und Fokus) und/oder den Detektoreinstellungen (z.B. den Einstellungen der Infrarotkamera).
  • In verschiedenen Ausführungsformen kann der lichtemittierende Controller so konfiguriert werden, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster auf eine zweidimensionale Oberfläche projiziert wird. Zum Beispiel kann das Infrarot-Lichtmuster auf die Straße projiziert werden, um darin eine kodierte Nachricht anzuzeigen. Als weiteres Beispiel kann das Infrarot-Lichtmuster auf ein Objekt (z.B. ein bewegliches Objekt, wie ein Fahrzeug, oder ein unbewegliches Objekt, wie ein Verkehrsschild) projiziert werden, z.B. zur Markierung des Objekts, wie weiter unten näher beschrieben.
  • In verschiedenen Ausführungsformen kann die Musterprojektion zur Unterstützung eines Objekterkennungsprozesses verwendet werden. Die hier beschriebene Musterprojektion kann eine verbesserte (z.B. schnellere oder zuverlässigere) Objekterkennung ermöglichen oder unterstützen, z.B. wenn eine verteilte Objekterkennungsarchitektur implementiert wird (z.B. wenn eine erste Objekterkennung bereits auf Sensorebene durchgeführt wird, wie in Bezug auf 167 bis 168C beschrieben).
  • Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen oder mehrere Objekterkennungsprozesse (und/oder einen oder mehrere Objektklassifizierungs- oder Objektverfolgungsprozesse) implementieren. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie die Objekterkennung eines durch eine regelmäßige LIDAR-Messung erfassten Objekts durchführen. Das LIDAR-Sensorsystem 10 (z.B. der eine oder die mehreren Prozessoren) kann so konfiguriert werden, dass die erkannten Objekte mit entsprechenden Begrenzungskästen versehen werden. Der lichtemittierende Controller kann so konfiguriert werden, dass er das lichtemittierende System so steuert, dass es das Infrarot-Lichtmuster auf mindestens ein erkanntes Objekt projiziert. Das LIDAR-Sensorsystem 10 kann so konfiguriert werden, dass es die ermittelten Informationen (z.B. die Bounding Boxes) an die Verarbeitungs- und Analysegeräte der Kamera liefert. Die Verarbeitungs- und Analysegeräte der Kamera können z.B. weitere Objektklassifizierungsverfahren ausführen, um zwischen verschiedenen Objektklassen zu unterscheiden (z.B. Autos, Lastwagen, Busse, Motorräder usw.).
  • Das Infrarot-Lichtmuster (z. B. ein Linienmuster, wie eine senkrechte Linie, oder ein Symbol, wie ein Punkt, ein Quadrat oder ein Strichcode) kann auf ein Objekt (z. B. ein bereits erkanntes Objekt) projiziert werden, z. B. auf die Oberfläche eines anderen Fahrzeugs, z. B. auf die Rückfläche eines vorausfahrenden Fahrzeugs. Die in dem projizierten Infrarot-Lichtmuster kodierten Daten können Daten aufweisen, die dem Objekt zugeordnet sind (z.B. können sie eine Kennung für das Objekt sein oder Eigenschaften des Objekts wie Geschwindigkeit oder Bewegungsrichtung beschreiben). Zur Veranschaulichung kann ein Objekt mit einem zugehörigen Muster gekennzeichnet werden (z.B. kann ein Auto mit einem Symbol für ein einzelnes Auto gekennzeichnet werden). Beispielsweise kann ein Objekt mit einem entsprechenden Begrenzungsrahmen versehen werden, der die Position und Größe des Objekts beschreibt (z.B. kann das projizierte Muster ein Begrenzungsrahmen sein, der z.B. an die Objekteigenschaften angepasst ist).
  • Die Objektposition (z.B. die Fahrzeugposition) kann aus LIDAR-Messungen und/oder aus Kameramessungen bestimmt werden, z.B. durch Verarbeitung beider Sensordaten durch ein Sensorfusionssystem (z.B. Teil des LIDAR-Datenverarbeitungssystems 60). Dies kann eine korrekte Auswertung der Position des Zielobjekts und seiner Winkellage in Bezug auf das LIDAR-Sensorsystem 10 ermöglichen (z.B. die Position des Zielfahrzeugs in Bezug auf das Informationen sendende Fahrzeug).
  • Ein nachfolgender (z.B. weiterer) Objekterkennungsprozess kann ein solches markiertes Objekt (illustrativ: ein solches markiertes Objekt) identifizieren und verfolgen. Die Markierung kann verwendet werden, um das markierte Objekt im Laufe der Zeit zu verfolgen. Das projizierte Muster kann sich in Abhängigkeit von den Objekteigenschaften ändern (z.B. im Laufe der Zeit variieren), z.B. Fahrzeuggeschwindigkeit (eigenes Auto, fremdes Auto), Abstand zu anderen Objekten, Gefahrenstufe und dergleichen. Die gleichzeitige Markierung mehrerer Objekte kann vorgesehen werden.
  • In verschiedenen Ausführungsformen kann das optische Sensorarray (z.B. die Infrarotkamera) das projizierte Identifikationsmuster aufnehmen. Der eine oder mehrere Prozessoren können so konfiguriert werden, dass sie das markierte Objekt eindeutig zuordnen (z.B. zur Objektverfolgung), z.B. ein markiertes Auto. Falls das gekennzeichnete Objekt (z.B. das gekennzeichnete Fahrzeug) seine Position ändert, kann die optische Sensoranordnung die Bewegung des projizierten Musters erkennen und diese Information an den einen oder die mehreren Prozessoren (z.B. an das LIDAR-Datenverarbeitungssystem 60) zurückgeben.
  • In verschiedenen Ausführungsformen kann der lichtemittierende Controller so konfiguriert werden, dass er das lichtemittierende System so steuert, dass es das Infrarot-Lichtmuster entsprechend einer Bewegung des Objekts, auf das das Muster projiziert wird, projiziert. Zur Veranschaulichung: Der lichtemittierende Controller kann so konfiguriert werden, dass er das lichtemittierende System so steuert, dass es dem Objekt mit dem projizierten Muster folgt, während sich die Objekte innerhalb des Sichtfeldes bewegen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie einen oder mehrere Objektverfolgungsprozesse ausführen, um die Bewegung des Objekts zu verfolgen, auf das das Infrarot-Lichtmuster projiziert wird (z.B. in Kombination mit zusätzlichen Daten, wie z.B. Daten von einem Kamerasensor).
  • Die Markierungsmethode kann zur doppelten Überprüfung der ordnungsgemäßen Objektidentifizierung und/oder zur Steuerung (z. B. Ausrichten, Bewegen, Fokussieren) eines beweglichen und einstellbaren Detektionssystems, z. B. eines Kamerasystems, vorgesehen werden (z. B. zur Verfolgung des identifizierten Objekts, z. B. Fahrzeug, Fahrzeug im Zeitverlauf). Sobald ein Objekt (z.B. ein Fahrzeug) getaggt ist oder sobald dem jeweiligen Objekt eine Bounding Box zugeordnet ist, kann die Information dazu verwendet werden, eine korrekte Fortsetzung des Tagging-Prozesses zu ermöglichen. Der eine oder die mehreren Prozessoren können so konfiguriert werden, dass sie den einen oder die mehreren Objekterkennungsprozesse zumindest teilweise auf der Grundlage der Daten durchführen, die in dem auf das Objekt projizierten Muster kodiert sind. Zur Veranschaulichung: Der eine oder die mehreren Prozessoren können das projizierte Muster (z.B. den Objektbezeichner oder die darin kodierten Objekteigenschaften) zur Bestätigung der Ergebnisse eines Objekterkennungsprozesses oder als Ausgangspunkt für einen nachfolgenden Objekterkennungsprozess verwenden.
  • Für den Fall, dass ein Objekt nicht richtig erkannt wird (z.B. wenn der Objekterkennungsprozess keine ausreichende Genauigkeit bietet, z.B. ein Vertrauensniveau über einem vordefinierten Schwellenwert), z.B. wenn keine klare oder eindeutige Objekterkennung erzielt werden kann (z.B. bei geringem Kontrast oder schlechtem SNR), kann das LIDAR-Sensorsystem 10 ein vordefiniertes Strahlmuster auf ein solches Objekt projizieren (z.B. das Kamerasystem kann die Projektion eines solchen Musters anfordern). Das Muster kann vom optischen Sensorarray erkannt und dazu verwendet werden, ein solches Objekt mit höherer Zuverlässigkeit und Genauigkeit zu identifizieren und zu klassifizieren.
  • In verschiedenen Ausführungsformen kann das projizierte Infrarot-Lichtmuster, wie oben beschrieben, erkannt und analysiert werden. Die durch die Analyse ermittelte Information kann zur Realisierung von Steuerfunktionen, z.B. für die Fahrzeuglenkung, verwendet werden. Beispielsweise kann die Information über eine Rückkopplungsschleife an ein Fahrzeugregelsystem weitergegeben werden. Das Fahrzeugsteuersystem kann fahrzeugbezogene Informationen an eine oder mehrere Bildverarbeitungs- und Steuereinrichtungen (z.B. in Verbindung mit der Kamera) liefern, um Steuerfunktionen (z.B. Kamerasteuerfunktionen) bereitzustellen.
  • Auf der Empfängerseite kann das LIDAR-Sensorsystem 10 ein optisches Sensorarray aufweisen (z.B. das optische Sensorarray 16906, beschrieben in Bezug auf 169A bis 169G). Das optische Sensorarray kann so konfiguriert werden, dass es infrarotes Licht aus dem Sichtfeld optisch erfasst (z.B. aus dem Sichtfeld für die Musterprojektion). Zur Veranschaulichung: Das optische Sensorarray kann so konfiguriert werden, dass es das Sichtfeld abbildet, um das darin vorhandene Infrarotlicht zu erfassen. Das optische Sensorarray kann so konfiguriert werden, dass es Infrarotlicht aus dem Sichtfeld erfasst, um dadurch ein Infrarotlichtmuster (z. B. ein oder mehrere Infrarotlichtmuster) zu erkennen. Zur Veranschaulichung: Das optische Sensorarray kann so konfiguriert werden, dass es Infrarotlicht aus dem Sichtfeld so erfasst, dass ein oder mehrere Infrarotlichtmuster erfasst (z. B. abgebildet) werden können. Zur weiteren Veranschaulichung kann das optische Sensorarray so konfiguriert werden, dass es Infrarotlicht aus dem Sichtfeld so erfasst, dass das von dem lichtemittierenden System (z. B. bei einer Abtastung des Sichtfeldes) projizierte Infrarotlichtmuster erfasst werden kann. Das aus dem Sichtfeld detektierte Infrarotlicht kann verwendet werden, um den Zustand der LIDAR-Sensorvorrichtung (30) und/oder den Zustand in der Umgebung der LIDAR-Sensorvorrichtung (30) zu bestimmen.
  • Das optische Sensorarray kann so konfiguriert werden, dass es eine zweidimensionale Auflösung bietet (z.B. Auflösung in horizontaler Richtung und in vertikaler Richtung). Das optische Sensorarray kann ein zweidimensionales optisches Sensorarray sein. Zum Beispiel kann das optische Sensorarray ein oder mehrere Detektorpixel aufweisen, die in zwei Richtungen angeordnet sind, um das zweidimensionale Array zu bilden. Als weiteres Beispiel kann das optische Sensorarray eine Vielzahl von einzelnen Detektorpixeln (z.B. räumlich voneinander getrennt) aufweisen oder durch diese gebildet werden.
  • Zur Veranschaulichung: Das optische Sensor-Array kann eine Vielzahl von optischen Sensor-Arrays (z.B. Sub-Arrays) umfassen. Die mehreren optischen Sensorarrays können das gleiche Sichtfeld oder ein anderes Sichtfeld haben. Beispielsweise kann mindestens ein erstes optisches Sensor-Subarray dasselbe Sichtfeld haben wie ein zweites optisches Sensor-Subarray. Als weiteres Beispiel kann mindestens ein erstes optisches Sensor-Subarray ein Sichtfeld haben, das sich von dem Sichtfeld eines zweiten optischen Sensor-Subarrays unterscheidet (z.B. nicht oder teilweise überlappend). Das Sichtfeld des optischen Sensorarrays kann die Kombination (z.B. die Überlagerung) der einzelnen Sichtfelder der Vielzahl von optischen Sensor-Subarrays sein.
  • Das optische Sensorarray kann ein Array von Photodetektoren sein oder ein solches aufweisen (z.B. ein zweidimensionales Array von Photodetektoren), z.B. Photodetektoren, die im infraroten Wellenlängenbereich empfindlich sind. Als Beispiel kann das optische Sensorarray ein ladungsgekoppeltes Bauelement (CCD) sein oder aufweisen, z.B. ein ladungsgekoppeltes Sensorarray. Als weiteres Beispiel kann das optische Sensorarray ein komplementäres Metalloxid-Halbleiter (CMOS)-Sensorarray sein oder ein solches aufweisen. Das CMOS-Sensorarray kann im Vergleich zum CCD-Sensorarray eine höhere Empfindlichkeit im nahen Infrarot-Wellenlängenbereich bieten. Als weiteres Beispiel kann das optische Sensorarray ein Array von InGaAs-basierten Sensoren (z.B. von InGaAs-basierten Photodetektoren) sein oder ein solches aufweisen. Die InGaAs-basierten Sensoren können eine hohe Empfindlichkeit bei 1550 nm haben (z.B. höhere Empfindlichkeit als CCD oder CMOS bei dieser Wellenlänge).
  • In verschiedenen Ausführungsformen kann das optische Sensorarray eine Komponente einer Kamera (z.B. einer Infrarotkamera) des LIDAR-Sensorsystems 10 sein (z.B. im Kamerasystem 81 enthalten). Zur Veranschaulichung: Das LIDAR-Sensorsystem 10 kann eine Kamera aufweisen, die das optische Sensorarray enthält. Die Kamera kann so konfiguriert werden, dass sie das Sichtfeld abbildet (z.B. kann das Sichtfeld einem Sichtfeld der Kamera entsprechen oder im Wesentlichen einem Sichtfeld der Kamera entsprechen). Als Beispiel kann die Kamera eine CCD-Kamera sein. Als weiteres Beispiel kann die Kamera eine CMOS-Kamera sein.
  • Die Kamera kann einen Infrarotfilter aufweisen, um Licht zumindest in einem Teil des Wellenlängenbereichs des Infrarotlichts (z. B. im Wellenlängenbereich von etwa 780 nm bis etwa 2000 nm) davor zu schützen, auf die optische Sensoranordnung zu treffen. Zur Veranschaulichung: Der Infrarotfilter kann so konfiguriert oder gesteuert werden, dass er Infrarotlicht, das für den Bereich vom Auftreffen auf das optische Sensorarray verwendet wird, blockiert (z.B. um Licht zu blockieren, das von der weiteren Lichtquelle emittiert wird).
  • Beispielsweise kann der Infrarotfilter dynamisch steuerbar sein (z.B. kann er dynamisch aktiviert oder deaktiviert werden). Die Kamera (z.B. ein Kameracontroller) kann so konfiguriert werden, dass der Infrarotfilter zumindest vorübergehend deaktiviert wird, damit Infrarotlicht den Infrarotfilter passieren und auf die optische Sensoranordnung treffen kann. Die Deaktivierung des Infrarotfilters kann in Übereinstimmung (z.B. in Synchronisation) mit der Projektion des Infrarot-Lichtmusters durch das lichtemittierende System erfolgen. Zur Veranschaulichung: Die Kamera kann so konfiguriert werden, dass sie den Infrarotfilter zumindest vorübergehend deaktiviert, so dass die optische Sensoranordnung das von der Lichtquelle 42 emittierte Licht innerhalb eines bestimmten Zeitfensters (z.B. während einer Abtastung des Sichtfeldes für die Musterprojektion) erfassen kann.
  • Als weiteres Beispiel kann der Infrarotfilter ein Bandpassfilter sein, der in Übereinstimmung mit der Wellenlänge des für die Musterprojektion verwendeten Infrarotlichts konfiguriert ist. Zur Veranschaulichung: Der Infrarotfilter kann als Bandpassfilter konfiguriert werden, um den Wellenlängenbereich des für die Musterprojektion verwendeten Infrarotlichts durchzulassen.
  • Im Folgenden werden verschiedene Aspekte dieser Offenbarung veranschaulicht:
    • Beispiel 1aj ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann ein lichtemittierendes System aufweisen, das so konfiguriert ist, dass es Infrarotlicht in Richtung eines Sichtfeldes aussendet. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie Daten in einem Lichtemissionsmuster kodieren. Das LIDAR-Sensorsystem kann einen lichtemittierenden Controller aufweisen, der so konfiguriert ist, dass er das lichtemittierende System so steuert, dass es ein Infrarot-Lichtmuster in Übereinstimmung mit dem datencodierten Lichtemissionsmuster in das Sichtfeld projiziert.
    • In Beispiel 2aj kann der Gegenstand von Beispiel 1aj optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster an eine vordefinierte Stelle im Sichtfeld projiziert wird.
    • In Beispiel 3aj kann der Gegenstand eines der Beispiele 1aj oder 2aj optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er das lichtemittierende System steuert, um das Infrarot-Lichtmuster auf eine zweidimensionale Oberfläche zu projizieren.
    • In Beispiel 4aj kann der Gegenstand eines der Beispiele 1aj bis 3aj wahlweise beinhalten, dass das projizierte Infrarot-Lichtmuster ein eindimensionales Infrarot-Lichtmuster oder ein zweidimensionales Infrarot-Lichtmuster ist.
    • In Beispiel 5aj kann der Gegenstand eines der Beispiele 1aj bis 4aj optional beinhalten, dass das datencodierte Lichtemissionsmuster eine oder mehrere Eigenschaften eines oder mehrerer Musterelemente des projizierten Infrarot-Lichtmusters definiert. Die eine oder die mehreren Eigenschaften können eine Anordnung des einen oder der mehreren Musterelemente, eine Intensität des einen oder der mehreren Musterelemente und/oder eine Anzahl von Musterelementen und/oder einen Abstand zwischen benachbarten Musterelementen umfassen.
    • In Beispiel 6aj kann der Gegenstand eines der Beispiele 1aj bis 5aj optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er das lichtemittierende System so steuert, dass es das Infrarot-Lichtmuster in vordefinierten Zeitintervallen emittiert.
    • In Beispiel 7aj kann der Gegenstand eines der Beispiele 1aj bis 6aj optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster synchron mit der Bildrate eines optischen Sensorarrays des LIDAR-Sensorsystems projiziert wird.
    • In Beispiel 8aj kann der Gegenstand eines der Beispiele 1aj bis 7aj optional beinhalten, dass das lichtemittierende System eine Infrarot-Lichtquelle enthält, die so konfiguriert ist, dass sie infrarotes Licht emittiert.
    • In Beispiel 9aj kann der Gegenstand von Beispiel 8aj optional beinhalten, dass die Infrarot-Lichtquelle eine Vielzahl von Teillichtquellen enthält, die so angeordnet sind, dass sie ein eindimensionales Array bilden oder so angeordnet sind, dass sie ein zweidimensionales Array bilden.
    • In Beispiel 10aj kann der Gegenstand eines der Beispiele 8aj oder 9aj optional beinhalten, dass die Infrarot-Lichtquelle eine oder mehrere Laserdioden enthält.
    • In Beispiel 11aj kann der Gegenstand eines der Beispiele 8aj bis 10aj optional beinhalten, dass das lichtemittierende System eine weitere Lichtquelle enthält. Die weitere Lichtquelle kann mindestens eine Eigenschaft haben, die sich von der Infrarot-Lichtquelle unterscheidet. Die Eigenschaft kann aus einer Gruppe von Eigenschaften ausgewählt werden, die aus einer Wellenlänge, einer Polarisation, einer Intensität, einer Strahlspreizung und einer Strahlmodulation besteht.
    • In Beispiel 12aj kann der Gegenstand eines der Beispiele 8aj bis 11aj optional beinhalten, dass das lichtemittierende System ein Strahllenkungselement enthält, das so konfiguriert ist, dass es eine Richtung der Emission in Richtung des Sichtfeldes des von der Infrarot-Lichtquelle emittierten Infrarot-Lichts steuert.
    • In Beispiel 13aj kann der Gegenstand von Beispiel 12aj optional beinhalten, dass das lichtemittierende System ein weiteres Strahllenkungselement enthält. Das Strahllenkungselement kann so konfiguriert werden, dass es die Richtung der Emission in Richtung des Sichtfeldes des von der Infrarot-Lichtquelle in einer ersten Richtung emittierten Infrarot-Lichts steuert. Das weitere Strahllenkungselement kann so konfiguriert werden, dass es die Emissionsrichtung in Richtung des Sichtfeldes des von der Infrarot-Lichtquelle in einer zweiten, von der ersten Richtung verschiedenen Richtung emittierten Infrarot-Lichts steuert.
    • In Beispiel 14aj kann der Gegenstand eines der Beispiele 1aj bis 13aj optional beinhalten, dass das projizierte Infrarotmuster mindestens ein segmentiertes Musterelement mit einer Vielzahl von Segmenten enthält.
    • In Beispiel 15aj kann der Gegenstand eines der Beispiele 1aj bis 14aj optional beinhalten, dass das lichtemittierende System eine Mehrfachlinsenanordnung enthält.
    • In Beispiel 16aj kann der Gegenstand eines der Beispiele 1aj bis 15aj optional beinhalten, dass das Infrarot-Lichtmuster auf ein Objekt projiziert wird. Die in dem projizierten Infrarot-Lichtmuster kodierten Daten können mit dem Objekt verbundene Daten aufweisen.
    • In Beispiel 17aj kann der Gegenstand von Beispiel 16aj optional beinhalten, dass der lichtemittierende Controller so konfiguriert ist, dass er das lichtemittierende System so steuert, dass das Infrarot-Lichtmuster entsprechend einer Bewegung des Objekts, auf das das Muster projiziert wird, projiziert wird.
    • In Beispiel 18aj kann der Gegenstand eines der Beispiele 1aj bis 17aj optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert sind, dass sie einen oder mehrere Objekterkennungsprozesse ausführen. Der lichtemittierende Controller kann so konfiguriert werden, dass er das lichtemittierende System so steuert, dass es das Infrarot-Lichtmuster auf mindestens ein erkanntes Objekt projiziert.
    • In Beispiel 19aj kann der Gegenstand eines der Beispiele 1aj bis 18aj optional beinhalten, dass die im Projekt-Infrarotlichtmuster kodierten Daten fahrzeugbezogene Informationen und/oder verkehrsbezogene Informationen aufweisen.
    • Beispiel 20aj ist ein LIDAR-Sensorsystem. Das LIDAR-Sensorsystem kann ein optisches Sensorarray aufweisen, das so konfiguriert ist, dass es Infrarotlicht aus einem Sichtfeld optisch erfasst, um dadurch ein Infrarotlichtmuster zu erkennen. Das LIDAR-Sensorsystem kann einen oder mehrere Prozessoren aufweisen, die so konfiguriert sind, dass sie das Infrarot-Lichtmuster dekodieren, um die im Infrarot-Lichtmuster kodierten Daten durch Bestimmung einer oder mehrerer Eigenschaften des Infrarot-Lichtmusters zu bestimmen.
    • In Beispiel 21aj kann der Gegenstand von Beispiel 20aj optional beinhalten, dass das Infrarot-Lichtmuster ein oder mehrere Musterelemente enthält. Die eine oder mehrere Eigenschaften des Infrarot-Lichtmusters können eine Anordnung des einen oder der mehreren Musterelemente, eine Intensität des einen oder der mehreren Musterelemente und/oder eine Anzahl von Musterelementen und/oder einen Abstand zwischen benachbarten Musterelementen umfassen.
    • In Beispiel 22aj kann der Gegenstand eines der Beispiele 20aj oder 21aj optional beinhalten, dass das optische Sensorarray ein zweidimensionales optisches Sensorarray ist.
    • In Beispiel 23aj kann der Gegenstand eines der Beispiele 20aj bis 22aj optional beinhalten, dass das optische Sensorarray ein ladungsgekoppeltes Sensorarray oder ein komplementäres Metall-Oxid-Halbleiter-Sensorarray enthält.
    • In Beispiel 24aj kann der Gegenstand eines der Beispiele 20aj bis 23aj optional einen Controller für ein optisches Sensorarray aufweisen, der so konfiguriert ist, dass er die Belichtungszeit des optischen Sensorarrays steuert. Die Belichtungszeit des optischen Sensorarrays kann in Synchronisation mit einer Projektion eines Infrarot-Lichtmusters durch ein lichtemittierendes System des LIDAR-Sensorsystems gesteuert werden.
    • In Beispiel 25aj kann der Gegenstand von Beispiel 24aj optional beinhalten, dass die Belichtungszeit des optischen Sensorarrays gleich oder kleiner als die Hälfte der Periode einer Abtastung des Sichtfeldes des LIDAR-Sensorsystems ist.
    • In Beispiel 26aj kann der Gegenstand eines jeden der Beispiele 20aj bis 24aj optional eine Kamera aufweisen. Das optische Sensorarray kann eine Komponente der Kamera sein.
    • In Beispiel 27aj kann der Gegenstand von Beispiel 26aj optional beinhalten, dass die Kamera einen Infrarot-Filter enthält, um Licht zumindest in einem Teil des Infrarot-Lichtwellenlängenbereichs daran zu hindern, auf die optische Sensoranordnung zu treffen.
    • In Beispiel 28aj kann der Gegenstand eines der Beispiele 20aj bis 27aj wahlweise beinhalten, dass das projizierte Infrarot-Lichtmuster ein eindimensionales Infrarot-Lichtmuster oder ein zweidimensionales Infrarot-Lichtmuster ist.
    • In Beispiel 29aj kann der Gegenstand eines der Beispiele 20aj bis 28aj optional beinhalten, dass das emittierte Infrarot-Lichtmuster auf ein Objekt projiziert wird. Die in dem projizierten Infrarot-Lichtmuster kodierten Daten können mit dem Objekt verbundene Daten aufweisen.
    • In Beispiel 30aj kann der Gegenstand von Beispiel 29aj optional beinhalten, dass der eine oder die mehreren Prozessoren so konfiguriert werden, dass sie einen oder mehrere Objekterkennungsprozesse durchführen, die zumindest teilweise auf den Daten basieren, die in dem auf das Objekt projizierten Muster kodiert sind.
    • In Beispiel 31aj kann der Gegenstand eines der Beispiele 29aj oder 30aj optional beinhalten, dass der eine oder mehrere Prozessoren so konfiguriert sind, dass sie einen oder mehrere Objektverfolgungsprozesse ausführen, um die Bewegung des Objekts zu verfolgen, auf das das Infrarot-Lichtmuster projiziert wird.
    • In Beispiel 32aj kann der Gegenstand eines der Beispiele 20aj bis 31aj optional beinhalten, dass die im Projekt-Infrarotlichtmuster kodierten Daten fahrzeugbezogene Informationen und/oder verkehrsbezogene Informationen aufweisen.
    • In Beispiel 33aj kann der Gegenstand eines der Beispiele 1aj bis 32aj optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert wird.
    • Beispiel 34aj ist ein Fahrzeug, einschließlich eines LIDAR-Sensorsystems gemäß einem der Beispiele 1aj bis 33aj.
    • Beispiel 35aj ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann ein lichtemittierendes System umfassen, das Infrarotlicht in Richtung eines Sichtfeldes aussendet. Das Verfahren kann die Codierung von Daten in einem Lichtemissionsmuster umfassen. Das Verfahren kann die Projektion eines Infrarot-Lichtmusters in das Sichtfeld gemäß dem datencodierten Lichtemissionsmuster umfassen.
    • In Beispiel 36aj kann der Gegenstand von Beispiel 35aj optional die Projektion des Infrarot-Lichtmusters an eine vordefinierte Stelle im Sichtfeld beinhalten.
    • In Beispiel 37aj kann der Gegenstand eines der Beispiele 35aj oder 36aj optional die Projektion des Infrarot-Lichtmusters auf eine zweidimensionale Fläche beinhalten.
    • In Beispiel 38aj kann der Gegenstand eines der Beispiele 35aj bis 37aj wahlweise beinhalten, dass das projizierte Infrarot-Lichtmuster ein eindimensionales Infrarot-Lichtmuster oder ein zweidimensionales Infrarot-Lichtmuster ist.
    • In Beispiel 39aj kann der Gegenstand eines der Beispiele 35aj bis 38aj optional beinhalten, dass das datencodierte Lichtemissionsmuster eine oder mehrere Eigenschaften eines oder mehrerer Musterelemente des projizierten Infrarot-Lichtmusters definiert. Die eine oder die mehreren Eigenschaften können eine Anordnung des einen oder der mehreren Musterelemente, eine Intensität des einen oder der mehreren Musterelemente und/oder eine Anzahl von Musterelementen und/oder einen Abstand zwischen benachbarten Musterelementen umfassen.
    • In Beispiel 40aj kann der Gegenstand eines jeden der Beispiele 35aj bis 39aj optional die Emission des Infrarot-Lichtmusters in vordefinierten Zeitintervallen beinhalten.
    • In Beispiel 41aj kann der Gegenstand eines der Beispiele 35aj bis 40aj optional die Projektion des Infrarot-Lichtmusters in Synchronisation mit der Bildrate eines optischen Sensorarrays des LIDAR-Sensorsystems sein.
    • In Beispiel 42aj kann der Gegenstand eines der Beispiele 35aj bis 41aj optional beinhalten, dass das lichtemittierende System eine Infrarot-Lichtquelle enthält, die infrarotes Licht ausstrahlt.
    • In Beispiel 43aj kann der Gegenstand von Beispiel 42aj optional beinhalten, dass die Infrarot-Lichtquelle eine Vielzahl von Teillichtquellen enthält, die so angeordnet sind, dass sie ein eindimensionales Array bilden oder so angeordnet sind, dass sie ein zweidimensionales Array bilden.
    • In Beispiel 44aj kann der Gegenstand eines der Beispiele 42aj oder 43aj optional beinhalten, dass die Infrarot-Lichtquelle eine oder mehrere Laserdioden enthält.
    • In Beispiel 45aj kann der Gegenstand eines der Beispiele 42aj bis 44aj optional beinhalten, dass das lichtemittierende System eine weitere Lichtquelle enthält. Die weitere Lichtquelle kann mindestens eine Eigenschaft haben, die sich von der Infrarot-Lichtquelle unterscheidet. Die Eigenschaft kann aus einer Gruppe von Eigenschaften ausgewählt werden, die aus einer Wellenlänge, einer Polarisation, einer Intensität, einer Strahlspreizung und einer Strahlmodulation besteht.
    • In Beispiel 46aj kann der Gegenstand eines der Beispiele 42aj bis 45aj optional beinhalten, dass das lichtemittierende System ein Strahllenkungselement enthält, das die Richtung der Emission in Richtung des Sichtfeldes des von der Infrarot-Lichtquelle emittierten Infrarot-Lichts steuert.
    • In Beispiel 47aj kann der Gegenstand von Beispiel 46aj optional beinhalten, dass das lichtemittierende System ein weiteres Strahllenkungselement enthält. Das Strahllenkungselement kann die Richtung der Emission des von der Infrarot-Lichtquelle in einer ersten Richtung ausgestrahlten Infrarot-Lichts in Richtung des Sichtfeldes steuern. Das weitere Strahllenkungselement kann die Richtung der Emission in Richtung des Sichtfeldes des von der Infrarot-Lichtquelle in einer zweiten, von der ersten Richtung verschiedenen Richtung emittierten Infrarot-Lichts steuern.
    • In Beispiel 48aj kann der Gegenstand eines der Beispiele 35aj bis 47aj optional beinhalten, dass das projizierte Infrarotmuster mindestens ein segmentiertes Musterelement mit einer Vielzahl von Segmenten enthält.
    • In Beispiel 49aj kann der Gegenstand eines der Beispiele 35aj bis 48aj optional beinhalten, dass das lichtemittierende System eine Mehrfachlinsenanordnung enthält.
    • In Beispiel 50aj kann der Gegenstand eines der Beispiele 35aj bis 49aj optional beinhalten, dass das Infrarot-Lichtmuster auf ein Objekt projiziert wird. Die in dem projizierten Infrarot-Lichtmuster kodierten Daten schließen Daten ein, die mit dem Objekt verbunden sind.
    • In Beispiel 51aj kann der Gegenstand von Beispiel 50aj optional die Projektion des Infrarot-Lichtmusters in Übereinstimmung mit einer Bewegung des Objekts, auf das das Muster projiziert wird, beinhalten.
    • In Beispiel 52aj kann der Gegenstand eines der Beispiele 35aj bis 51aj optional die Durchführung eines oder mehrerer Objekterkennungsprozesse umfassen. Das Verfahren kann ferner die Projektion des Infrarot-Lichtmusters auf mindestens ein erkanntes Objekt umfassen.
    • In Beispiel 53aj kann der Gegenstand eines der Beispiele 35aj bis 52aj optional beinhalten, dass die im Projekt-Infrarotlichtmuster kodierten Daten fahrzeugbezogene Informationen und/oder verkehrsbezogene Informationen aufweisen.
    • Beispiel 54aj ist ein Verfahren zum Betrieb eines LIDAR-Sensorsystems. Das Verfahren kann ein optisches Sensorarray umfassen, das Infrarotlicht aus einem Sichtfeld optisch erfasst, um dadurch ein Infrarotlichtmuster zu erkennen. Das Verfahren kann die Dekodierung des Infrarot-Lichtmusters umfassen, um die im Infrarot-Lichtmuster kodierten Daten durch Bestimmung einer oder mehrerer Eigenschaften des Infrarot-Lichtmusters zu bestimmen.
    • In Beispiel 55aj kann der Gegenstand von Beispiel 54aj optional beinhalten, dass das Infrarot-Lichtmuster ein oder mehrere Musterelemente enthält. Die eine oder mehrere Eigenschaften des Infrarot-Lichtmusters können eine Anordnung des einen oder der mehreren Musterelemente, eine Intensität des einen oder der mehreren Musterelemente und/oder eine Anzahl von Musterelementen und/oder einen Abstand zwischen benachbarten Musterelementen umfassen.
    • In Beispiel 56aj kann der Gegenstand eines der Beispiele 54aj oder 55aj optional beinhalten, dass das optische Sensorarray ein zweidimensionales optisches Sensorarray ist.
    • In Beispiel 57aj kann der Gegenstand eines der Beispiele 54aj bis 56aj optional beinhalten, dass das optische Sensorarray ein ladungsgekoppeltes Sensorarray oder ein komplementäres Metall-Oxid-Halbleiter-Sensorarray enthält.
    • In Beispiel 58aj kann der Gegenstand eines der Beispiele 54aj bis 57aj optional die Steuerung einer Belichtungszeit des optischen Sensorarrays beinhalten. Die Belichtungszeit des optischen Sensorarrays kann in Synchronisation mit einer Projektion eines Infrarot-Lichtmusters durch ein lichtemittierendes System des LIDAR-Sensorsystems gesteuert werden.
    • In Beispiel 59aj kann der Gegenstand von Beispiel 58aj optional beinhalten, dass die Belichtungszeit des optischen Sensorarrays gleich oder kleiner als die Hälfte der Periode einer Abtastung des Sichtfeldes des LIDAR-Sensorsystems ist.
    • In Beispiel 60aj kann der Gegenstand eines der Beispiele 54aj bis 58aj optional eine Kamera aufweisen. Das optische Sensorarray kann eine Komponente der Kamera sein.
    • In Beispiel 61aj kann der Gegenstand von Beispiel 60aj optional beinhalten, dass die Kamera einen Infrarot-Filter enthält, der Licht zumindest in einem Teil des Infrarot-Licht-Wellenlängenbereichs davon abhält, auf die optische Sensoranordnung zu treffen.
    • In Beispiel 62aj kann der Gegenstand eines der Beispiele 54aj bis 61aj wahlweise beinhalten, dass das projizierte Infrarot-Lichtmuster ein eindimensionales Infrarot-Lichtmuster oder ein zweidimensionales Infrarot-Lichtmuster ist.
    • In Beispiel 63aj kann der Gegenstand eines der Beispiele 54aj bis 62aj optional beinhalten, dass das emittierte Infrarot-Lichtmuster auf ein Objekt projiziert wird. Die in dem projizierten Infrarot-Lichtmuster kodierten Daten schließen Daten ein, die mit dem Objekt verbunden sind.
    • In Beispiel 64aj kann der Gegenstand von Beispiel 63aj optional die Durchführung eines oder mehrerer Objekterkennungsprozesse umfassen, die zumindest teilweise auf den Daten basieren, die in dem auf das Objekt projizierten Muster kodiert sind.
    • In Beispiel 65aj kann der Gegenstand eines der Beispiele 63aj oder 64aj optional die Durchführung eines oder mehrerer Objektverfolgungsprozesse umfassen, um die Bewegung des Objekts zu verfolgen, auf das das Infrarot-Lichtmuster projiziert wird.
    • In Beispiel 66aj kann der Gegenstand eines der Beispiele 54aj bis 65aj optional beinhalten, dass die im Projekt-Infrarotlichtmuster kodierten Daten fahrzeugbezogene Informationen und/oder verkehrsbezogene Informationen aufweisen.
    • In Beispiel 67aj kann der Gegenstand eines der Beispiele 35aj bis 66aj optional beinhalten, dass das LIDAR-Sensorsystem als scannendes LIDAR-Sensorsystem konfiguriert ist.
    • Beispiel 68aj ist ein Computerprogrammprodukt, das eine Vielzahl von Programmbefehlen enthält, die in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein können und die, wenn sie von einem Computerprogrammgerät eines LIDAR-Sensorsystems gemäß einem der Beispiele 1aj bis 33aj ausgeführt werden, das LIDAR-Sensorsystem veranlassen, das Verfahren gemäß einem der Beispiele 35aj bis 67aj auszuführen.
    • Beispiel 69aj ist ein Datenspeichergerät mit einem Computerprogramm, das in einem nicht vorübergehenden computerlesbaren Medium verkörpert sein kann, das so angepasst ist, dass es mindestens eine der Methoden für ein LIDAR-Sensorsystem gemäß einem der oben genannten Methodenbeispiele oder ein LIDAR-Sensorsystem gemäß einem der oben genannten LIDAR-Sensorsystembeispiele ausführt.
  • SCHLUSSFOLGERUNG
  • Während hier verschiedene Ausführungsformen beschrieben und veranschaulicht wurden, werden diejenigen mit fachüblichen Fertigkeiten auf dem Gebiet bereitwillig eine Vielzahl anderer Mittel und/oder Strukturen zur Ausführung der Funktion und/oder zur Erzielung der Ergebnisse und/oder eines oder mehrerer der hier beschriebenen Vorteile vorsehen, und jede dieser Variationen und/oder Modifikationen gilt als im Rahmen der hier beschriebenen Ausführungsformen liegend. Ganz allgemein werden diejenigen, die sich in dem Gebiet auskennen, bereitwillig verstehen, dass alle hierin beschriebenen Parameter, Abmessungen, Materialien und Konfigurationen beispielhaft sind und dass die tatsächlichen Parameter, Abmessungen, Materialien und/oder Konfigurationen von der/den spezifischen Anwendung(en) abhängen, für die die Lehren verwendet wird/werden. Diejenigen, die sich auf diesem Gebiet auskennen, werden viele Äquivalente zu den spezifischen vorteilhaften Ausführungsformen, die hier beschrieben werden, erkennen oder mit Hilfe von nicht mehr als routinemäßigen Experimenten ermitteln können. Es ist daher so zu verstehen, dass die vorstehenden Ausführungsformen nur als Beispiel dargestellt werden und dass im Rahmen der beigefügten Ansprüche und deren Äquivalente Ausführungsformen anders als spezifisch beschrieben und beansprucht praktiziert werden können. Ausführungsformen der vorliegenden Offenbarung beziehen sich auf jedes einzelne Merkmal, System, jeden Artikel, jedes Material, jeden Bausatz und/oder jede Methode, die hierin beschrieben werden. Darüber hinaus ist jede Kombination von zwei oder mehr solcher Merkmale, Systeme, Artikel, Materialien, Bausätze und/oder Verfahren, wenn diese Merkmale, Systeme, Artikel, Materialien, Bausätze und/oder Verfahren nicht gegenseitig widersprüchlich sind, in den Geltungsbereich der vorliegenden Offenbarung eingeschlossen.
  • Die vorstehend beschriebenen Ausführungsformen können auf vielfältige Weise umgesetzt werden. Die Ausführungsvarianten können in beliebiger Reihenfolge und in beliebiger Kombination mit anderen Ausführungsvarianten kombiniert werden. Zum Beispiel können die Ausführungsformen mit Hardware, Software oder einer Kombination davon implementiert werden. Wenn sie in Software implementiert sind, kann der Softwarecode auf jedem geeigneten Prozessor oder einer Sammlung von Prozessoren ausgeführt werden, unabhängig davon, ob sie in einem einzigen Computer bereitgestellt oder auf mehrere Computer verteilt sind.
  • Darüber hinaus sollte man sich darüber im Klaren sein, dass ein Computer in einer Vielzahl von Formen auftreten kann, wie z.B. als Rack-Computer, Desktop-Computer, Laptop-Computer oder Tablet-Computer. Darüber hinaus kann ein Computer in ein Gerät (z.B. LIDAR-Sensorgerät) eingebettet sein, das im Allgemeinen nicht als Computer angesehen wird, aber über geeignete Verarbeitungsmöglichkeiten verfügt, einschließlich eines Personal Digital Assistant (PDA), eines Smartphones oder eines anderen geeigneten tragbaren oder stationären elektronischen Geräts.
  • Außerdem kann ein Computer über ein oder mehrere Ein- und Ausgabegeräte verfügen. Diese Geräte können unter anderem zur Darstellung einer Benutzerschnittstelle verwendet werden. Beispiele für Ausgabegeräte, die zur Bereitstellung einer Benutzerschnittstelle verwendet werden können, sind Drucker oder Bildschirme zur visuellen Darstellung der Ausgabe und Lautsprecher oder andere tonerzeugende Geräte zur akustischen Darstellung der Ausgabe. Beispiele für Eingabegeräte, die für eine Benutzerschnittstelle verwendet werden können, sind Tastaturen und Zeigegeräte wie Mäuse, Touchpads und Digitalisiertabletts. Als weiteres Beispiel kann ein Computer Eingabeinformationen durch Spracherkennung oder in einem anderen hörbaren Format erhalten.
  • Diese Computer können durch ein oder mehrere Netzwerke/Netze in jeder geeigneten Form miteinander verbunden sein, einschließlich eines lokalen Netzwerkes oder eines Weitgebietsnetzwerkes, wie z.B. eines Unternehmensnetzwerkes, und eines intelligenten Netzwerkes (IN) oder des Internets. Solche Netzwerke können auf jeder geeigneten Technologie basieren und nach jedem geeigneten Protokoll arbeiten und können drahtlose Netzwerke, drahtgebundene Netzwerke oder Glasfasernetzwerke umfassen.
  • Die verschiedenen hier beschriebenen Methoden oder Prozesse können als Software kodiert werden, die auf einem oder mehreren Prozessoren mit einem oder mehreren Betriebssystemen oder Plattformen ausführbar ist. Darüber hinaus kann solche Software unter Verwendung einer beliebigen Anzahl von geeigneten Programmiersprachen und/oder Programmier- oder Skriptwerkzeugen geschrieben werden und kann auch als ausführbarer Maschinensprachencode oder Zwischencode kompiliert werden, der auf einem Framework oder einer virtuellen Maschine ausgeführt wird.
  • In dieser Hinsicht können verschiedene offengelegte Konzepte als ein computerlesbares Speichermedium (oder mehrere computerlesbare Speichermedien) verkörpert sein (z.B. ein Computerspeicher, eine oder mehrere Disketten, Compact Disks, optische Platten, Magnetbänder, Flash-Speicher, Schaltungskonfigurationen in Field Programmable Gate Arrays oder anderen Halbleiterbauelementen, oder ein anderes nicht flüchtiges Medium oder ein greifbares Computerspeichermedium), das mit einem oder mehreren Programmen kodiert ist, die, wenn sie auf einem oder mehreren Computern oder anderen Prozessoren ausgeführt werden, Verfahren ausführen, die die verschiedenen Verkörperungen der oben diskutierten Offenlegung implementieren. Das computerlesbare Medium oder die computerlesbaren Medien können transportabel sein, so dass das darauf gespeicherte Programm oder die darauf gespeicherten Programme auf einen oder mehrere verschiedene Computer oder andere Prozessoren geladen werden können, um verschiedene Aspekte der vorliegenden Offenbarung, wie oben diskutiert, zu implementieren.
  • Die Begriffe „Programm“ oder „Software“ werden hier in einem allgemeinen Sinn verwendet, um sich auf jede Art von Computercode oder eine Reihe von computerausführbaren Anweisungen zu beziehen, die verwendet werden können, um einen Computer oder einen anderen Prozessor zu programmieren, um verschiedene Aspekte von Ausführungsformen, wie oben diskutiert, zu implementieren. Zusätzlich ist zu berücksichtigen, dass gemäß einem Aspekt ein oder mehrere Computerprogramme, die bei ihrer Ausführung Methoden der vorliegenden Offenbarung ausführen, nicht auf einem einzigen Computer oder Prozessor liegen müssen, sondern modular auf eine Anzahl verschiedener Computer oder Prozessoren verteilt werden können, um verschiedene Aspekte der vorliegenden Offenbarung zu implementieren.
  • Computerausführbare Anweisungen können in vielen Formen vorliegen, z.B. als Programmmodule, die von einem oder mehreren Computern oder anderen Geräten ausgeführt werden. Im Allgemeinen umfassen Programmmodule Routinen, Programme, Objekte, Komponenten, Datenstrukturen usw., die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren. Typischerweise kann die Funktionalität der Programmmodule in verschiedenen Ausführungsformen beliebig kombiniert oder verteilt sein.
  • Datenstrukturen können auch in jeder geeigneten Form auf computerlesbaren Medien gespeichert werden. Der Einfachheit halber kann gezeigt werden, dass Datenstrukturen Felder haben, die durch ihre Position in der Datenstruktur miteinander in Beziehung stehen. Solche Beziehungen können ebenfalls dadurch erreicht werden, dass den Feldern Speicherplatz mit Orten in einem computerlesbaren Medium zugewiesen wird, die eine Beziehung zwischen den Feldern vermitteln. Es kann jedoch jeder geeignete Mechanismus verwendet werden, um eine Beziehung zwischen Informationen in Feldern einer Datenstruktur herzustellen, auch durch die Verwendung von Zeigern, Tags oder anderen Mechanismen, die eine Beziehung zwischen Datenelementen herstellen.
  • Außerdem können verschiedene vorteilhafte Konzepte als eine oder mehrere Methoden verkörpert sein, für die ein Beispiel angeführt wurde. Die Handlungen, die als Teil der Methode ausgeführt werden, können auf jede geeignete Art und Weise angeordnet werden. Dementsprechend können Ausführungsformen konstruiert werden, in denen die Handlungen in einer anderen als der illustrierten Reihenfolge ausgeführt werden, was die gleichzeitige Ausführung einiger Handlungen einschließen kann, auch wenn sie in illustrativen Ausführungsformen als aufeinanderfolgende Handlungen gezeigt werden.
  • Alle Definitionen, so wie sie hier definiert und verwendet werden, sollten so verstanden werden, dass sie Vorrang gegenüber Wörterbuchdefinitionen, Definitionen in Dokumenten, die durch Verweis aufgenommen wurden, und/oder gewöhnliche Bedeutungen der definierten Begriffe haben.
  • Die unbestimmten Artikel „a“ und „an“, wie sie hier in der Spezifikation und in den Ansprüchen verwendet werden, sind, sofern nicht eindeutig das Gegenteil angegeben ist, als „mindestens einer“ zu verstehen.
  • Der Ausdruck „und/oder“, wie er hier in der Spezifikation und in den Ansprüchen verwendet wird, sollte so verstanden werden, dass er „eines oder beide“ der so zusammengefügten Elemente bedeutet, d.h. Elemente, die in einigen Fällen als Konjunktion und in anderen Fällen als Disjunktion vorhanden sind. Mehrere Elemente, die mit „und/oder“ aufgeführt sind, sollten in der gleichen Weise interpretiert werden, d.h. „eines oder mehrere“ der so verbundenen Elemente. Andere als die durch den „und/oder“-Klausel spezifisch gekennzeichneten Elemente können optional vorhanden sein, unabhängig davon, ob sie mit den spezifisch gekennzeichneten Elementen in Beziehung stehen oder nicht. So kann sich als nicht einschränkendes Beispiel ein Verweis auf „A und/oder B“, wenn er in Verbindung mit einer Sprache mit offenem Ende wie „umfassend“ verwendet wird, in einer Ausführungsform nur auf A beziehen (gegebenenfalls einschließlich anderer Elemente als B); in einer anderen Ausführungsform nur auf B (gegebenenfalls einschließlich anderer Elemente als A); in einer weiteren Ausführungsform sowohl auf A als auch auf B (gegebenenfalls einschließlich anderer Elemente); usw.
  • Wie hier in der Spezifikation und in den Ansprüchen verwendet, sollte „oder“ so verstanden werden, dass es die gleiche Bedeutung wie „und/oder“ hat, wie oben definiert. Wenn z.B. Punkte in einer Liste getrennt werden, ist „oder“ oder „und/oder“ so zu interpretieren, dass es einschließend ist, d.h. dass es mindestens einen, aber auch mehr als einen einer Anzahl oder einer Liste von Elementen und, optional, zusätzliche nicht aufgeführte Punkte einschließt. Nur eindeutig gegenteilige Begriffe, wie „nur eines von“ oder „genau eines von“ oder, wenn sie in den Ansprüchen verwendet werden, „bestehend aus“, beziehen sich auf die Aufnahme genau eines Elements einer Anzahl oder Liste von Elementen. Im Allgemeinen ist der Begriff „oder“, wie er hier verwendet wird, nur dann als Hinweis auf ausschließliche Alternativen (d.h. „eines oder das andere, aber nicht beide“) auszulegen, wenn ihm Ausschließlichkeitsbedingungen wie „entweder“, „eines von“, „nur eines von“ oder „genau eines von“ vorangestellt sind. „besteht im Wesentlichen aus“ hat, wenn es in den Ansprüchen verwendet wird, seine gewöhnliche Bedeutung, wie sie auf dem Gebiet des Patentrechts verwendet wird.
  • Wie hier in der Spezifikation und in den Ansprüchen verwendet, sollte der Ausdruck „mindestens eines“ in Bezug auf eine Liste von einem oder mehreren Elementen so verstanden werden, dass er mindestens ein Element bezeichnet, das aus einem oder mehreren der Elemente in der Liste der Elemente ausgewählt wurde, aber nicht notwendigerweise mindestens eines von jedem einzelnen speziell in der Liste der Elemente aufgeführten Element einschließt und keine Kombinationen von Elementen in der Liste der Elemente ausschließt. Diese Definition erlaubt auch, dass optional andere Elemente als die in der Liste der Elemente, auf die sich der Ausdruck „mindestens eines“ bezieht, als spezifisch identifizierte Elemente vorhanden sein können, unabhängig davon, ob sie mit den spezifisch identifizierten Elementen in Beziehung stehen oder nicht. So kann sich als nicht einschränkendes Beispiel „mindestens eines von A und B“ (oder, äquivalent, „mindestens eines von A oder B“ oder, äquivalent, „mindestens eines von A und/oder B“) in einer Ausführungsform auf mindestens eines, gegebenenfalls auch auf mehrere, A beziehen, ohne dass B vorhanden ist (und gegebenenfalls auch andere Elemente als B); in einer anderen Ausführungsform auf mindestens eine, gegebenenfalls mehr als eine, B, ohne Vorhandensein von A (und gegebenenfalls mit anderen Elementen als A); in einer anderen Ausführungsform auf mindestens eine, gegebenenfalls mehr als eine, A, und mindestens eine, gegebenenfalls mehr als eine, B (und gegebenenfalls mit anderen Elementen); usw.
  • Sowohl in den Ansprüchen als auch in der obigen Offenlegung sind alle Übergangsformulierungen wie „umfassen“, „einschließen“, „tragen“, „haben“, „enthalten“, „einbeziehen“, „einbeziehen“, „halten“, „zusammengesetzt aus“ und dergleichen so zu verstehen, dass sie uneingeschränkt gelten, d.h. dass sie einschließen, aber nicht darauf beschränkt sind. Nur die Übergangsformulierungen „bestehend aus“ und „bestehend im Wesentlichen aus“ sind geschlossene bzw. halbgeschlossene Übergangsformulierungen, wie in der achten, im Juli 2010 revidierten Ausgabe der Richtlinien Handbuchs des US-Patentamts für Patentprüfungsverfahren, Abschnitt 2111.03
  • Für die Zwecke dieser Offenlegung und der folgenden Ansprüche wurde der Begriff „verbinden“ verwendet, um zu beschreiben, wie verschiedene Elemente miteinander verbunden oder „gekoppelt“ sind. Eine solche beschriebene Verbindung oder Kopplung von Elementen kann entweder direkt oder indirekt sein. Obwohl der Gegenstand in einer Sprache beschrieben wurde, die sich auf strukturelle Merkmale und/oder methodische Handlungen bezieht, ist zu verstehen, dass der in den beigefügten Ansprüchen definierte Gegenstand nicht notwendigerweise auf die beschriebenen spezifischen Merkmale oder Handlungen beschränkt ist. Vielmehr werden die spezifischen Merkmale und Handlungen als bevorzugte Formen der Umsetzung der Ansprüche offengelegt.
  • Im Zusammenhang mit dieser Beschreibung werden die Begriffe „verbunden“ und „gekoppelt“ verwendet, um sowohl eine direkte und eine indirekte Verbindung als auch eine direkte oder indirekte Kopplung zu beschreiben.
  • ANHANG: ERLÄUTERUNGEN UND GLOSSAR
  • Dieser Abschnitt enthält einige Erläuterungen und Beschreibungen bestimmter Aspekte und Bedeutungen der genannten technischen Fachbegriffe, ist aber für deren Verständnis nicht einschränkend.
  • Stellantriebe
  • Stellantriebe (Aktoren, Aktuatoren) sind Bauteile oder Vorrichtungen, die Energie (z.B. elektrische, magnetische, photoelektrische, hydraulische, pneumatische) in eine mechanische Bewegung (z.B. Translation, Rotation, Oszillation, Vibration, Stoß, Zug, Druck usw.) umwandeln können. Aktoren können z.B. eingesetzt werden, um Komponenten wie mechanische Elemente, optische Elemente, elektronische Elemente, Detektorelemente usw. und/oder Materialien oder Materialkomponenten zu bewegen und/oder zu verändern und/oder zu modifizieren. Stellantriebe/Aktuatoren können auch geeignet sein, um z.B. Ultraschallwellen usw. auszusenden.
  • ASIC
  • Ein anwendungsspezifischer integrierter Schaltkreis (ASIC) ist ein integrierter Schaltkreis, der zur Ausführung bestimmter, kundenspezifischer Funktionen entwickelt wurde. Als Bausteine können ASICs eine große Anzahl von Logikgattern enthalten. Darüber hinaus können ASICs weitere Bausteine wie Mikroprozessoren und Speicherblöcke enthalten und so genannte Systems-on-Chip (SOC) bilden.
  • Autonom geführtes Kraftfahrzeug (AGV)
  • Ein autonom geführtes Kraftfahrzeug oder ein fahrerloses Transportsystem (AGV) ist ein Roboter, der Markierungen oder Drähten im Boden folgt oder Vision, Magnete oder Laser zur Navigation verwendet. Ein AGV kann für den autonomen Betrieb ausgerüstet werden.
  • Autonomes Fahrzeug (AV)
  • Es gibt zahlreiche Begriffe, die derzeit verwendet werden, um Fahrzeuge mit einem gewissen Grad an automatischer Fahrfähigkeit zu beschreiben. Solche Fahrzeuge sind in der Lage - ohne direkte menschliche Interaktion - zumindest einen Teil der Tätigkeiten auszuführen, die bisher nur von einem menschlichen Fahrer ausgeführt werden konnten. Gemäss SAE International (Society of Automotive Engineers) können sechs Automatisierungsstufen definiert werden (SAE J3016), beginnend mit Stufe 0 (wo automatisierte Systeme Warnungen ausgeben oder kurzzeitig eingreifen können) bis zu Stufe 5 (wo überhaupt keine menschliche Interaktion erforderlich ist).
  • Eine zunehmende Zahl von modernen Fahrzeugen ist bereits mit so genannten Advanced Driver-Assistance Systems (ADAS) ausgestattet, die den Fahrer während des Fahrvorgangs unterstützen oder in bestimmten Fahrsituationen eingreifen können. Solche Systeme können grundlegende Funktionen wie Antiblockiersysteme (ABS) und elektronische Stabilitätskontrollen (ESC) umfassen, die üblicherweise als Funktionen der Stufe 0 betrachtet werden, aber auch komplexere Funktionen wie Spurverlassensassistent, Spurhalteassistent, Spurwechselunterstützung, adaptiver Tempomat, Kollisionsvermeidung, Notbremsassistent und adaptive Fernlichtsysteme (ADB) usw., die als Funktionen der Stufe 1 betrachtet werden können. Die Merkmale der Stufen 2, 3 und 4 können als Teilautomatisierung, bedingte Automatisierung bzw. hohe Automatisierung bezeichnet werden. Stufe 5 schließlich kann als Vollautomatisierung bezeichnet werden.
  • Alternative und weit verbreitete Begriffe für Stufe 5 sind fahrerlose Autos, selbstfahrende Autos oder Roboterautos. Im Falle industrieller Anwendungen wird der Begriff autonom geführtes Kraftfahrzeug (Automated Guided Vehicle (AGV)) häufig verwendet, um Fahrzeuge mit teilweiser oder vollständiger Automatisierung für bestimmte Aufgaben wie z.B. Materialtransport in einer Produktionsanlage oder einem Lager zu bezeichnen. Darüber hinaus können auch unbemannte Luftfahrzeuge (UAV) oder Drohnen einen unterschiedlichen Automatisierungsgrad aufweisen. Sofern nicht anders angegeben, wird davon ausgegangen, dass der Begriff „Autonomes Fahrzeug (AV)“ im Zusammenhang mit der vorliegenden Patentanmeldung alle oben genannten Ausführungsformen von Fahrzeugen mit teilweiser, bedingter, hoher oder vollständiger Automatisierung umfasst.
  • Beacon
  • Ein Beacon/Bake ist ein Gerät, das Signaldaten für Kommunikationszwecke ausstrahlt, z.B. basierend auf Bluetooth oder Protokollen, die auf der DIIA-, THREAD-, ZIGBee- oder MDSIG-Technologie basieren. Ein Beacon kann ein drahtloses lokales Netzwerk aufbauen.
  • Strahllenkung
  • Im Allgemeinen kann der von der Lichtquelle ausgesandte Lichtstrahl entweder scannend oder nicht scannend in das Beleuchtungsfeld (Field of Illumination, FOI) übertragen werden. Bei einem nicht-abtastenden LIDAR (z.B. Blitz-LIDAR) wird das Licht der Lichtquelle in einem einzigen Durchgang in das gesamte Leuchtfeld übertragen, d.h. der Lichtstrahl wird (z.B. durch ein streuendes optisches Element) so aufgeweitet, dass das gesamte Leuchtfeld auf einmal beleuchtet wird.
  • Alternativ wird im Falle einer Scanbeleuchtung der Lichtstrahl entweder 1-dimensional (z.B. durch Verschieben eines vertikalen Lichtstreifens in horizontaler Richtung oder umgekehrt) oder 2-dimensional (z.B. durch Verschieben eines Lichtpunktes entlang eines Zickzackmusters über das Sichtfeld FOI) über das Sichtfeld FOI geführt. Um solche Strahllenkoperationen durchzuführen, sind sowohl mechanische als auch nicht-mechanische Lösungen anwendbar.
  • Mechanische Lösungen können rotierende Spiegel, oszillierende Spiegel, insbesondere oszillierende mikro-elektromechanische Spiegel (MEMS-Spiegel), digitale Spiegelvorrichtungen (DMD), Galvo-Scanner usw. umfassen. Die beweglichen Spiegel können ebene Oberflächen haben (z.B. mit kreisförmiger, ovaler, rechteckiger oder polygonaler Form) und können um eine oder mehrere Achsen gekippt oder geschwenkt werden. Nicht-mechanische Lösungen können sogenannte optische Phasen Arrays (Optical Phases Arrays, OPA) aufweisen, in denen die Phasen der Lichtwellen durch dynamische Steuerung der optischen Eigenschaften eines einstellbaren optischen Elements (z.B. Phasenmodulatoren, Phasenschieber, Flüssigkristallelemente (LCD), usw.) variiert werden.
  • Unschärfe
  • Im Zusammenhang mit der vorliegenden Anwendung kann der Begriff „Unschärfe“ (bluriness) verwendet werden, um einen Effekt zu beschreiben, der mit der Bildwiederholrate zusammenhängt (zur Veranschaulichung: die Rate, mit der aufeinanderfolgender Einzelbilder oder Bilder aufgenommen werden). „Unschärfe“ kann ein Effekt einer niedrigen Framerate/Bildwiederholrate sein, der zu einem visuellen Effekt auf Bildsequenzen führen kann, der verhindert, dass ein Objekt klar oder scharf wahrgenommen wird. Illustrativ kann ein Objekt in einem unscharfen Bild verschwommen oder undeutlich erscheinen.
  • Kommunikationsschnittstelle
  • Kommunikationsschnittstelle beschreibt alle Arten von Schnittstellen oder Gateways zwischen zwei Geräten, die zum Austausch von Signalen verwendet werden können. Signale in diesem Zusammenhang können sowohl einfache Spannungs- oder Strompegel als auch komplexe Informationen auf der Grundlage der oben beschriebenen Kodierungs- oder Modulationstechniken umfassen.
  • Im Falle eines LIDAR-Sensorsystems können Kommunikationsschnittstellen verwendet werden, um Informationen (Signale, Daten, etc.) zwischen verschiedenen Komponenten des LIDAR-Sensorsystems zu übertragen. Darüber hinaus können Kommunikationsschnittstellen verwendet werden, um Informationen (Signale, Daten usw.) zwischen dem LIDAR-Sensorsystem oder seinen Komponenten oder Modulen und anderen im Fahrzeug vorhandenen Geräten, insbesondere anderen Sensorsystemen (LIDAR, RADAR, Ultraschall, Kameras), zu übertragen, um Sensorfusionsfunktionen zu ermöglichen.
  • Kommunikationseinheit (CU)
  • Eine Kommunikationseinheit (Communication Unit, CU) ist ein elektronisches Gerät, das zum Senden und/oder Empfangen von Signalen zu oder von anderen Kommunikationseinheiten konfiguriert ist. Kommunikationseinheiten können Informationen in einer unidirektionalen, bidirektionalen oder multidirektionalen Weise austauschen. Kommunikationssignale können über elektromagnetische Wellen (einschließlich Radio- oder Mikrowellenfrequenzen), Lichtwellen (einschließlich UV, VIS, IR), akustische Wellen (einschließlich Ultraschallfrequenzen) ausgetauscht werden. Die Informationen können unter Verwendung aller Arten von Codierungs- oder Modulationstechniken ausgetauscht werden, z.B. Pulsweitenmodulation, Pulscode-Modulation, Amplitudenmodulation, Frequenzmodulation usw.
  • Die Informationen können verschlüsselt oder unverschlüsselt übertragen und in einem vertrauenswürdigen oder nicht vertrauenswürdigen Netzwerk (zum Beispiel einem Blockchain-Ledger) verteilt werden. Fahrzeuge und Elemente der Straßeninfrastruktur können beispielsweise aus CUs bestehen, um Informationen über sogenannte C2C (Fahrzeug zu Fahrzeug, Car-to-Car) oder C2X (Fahrzeug zu Infrastruktur/Car-to-Infrastructure oder Fahrzeug zu Umgebung/Car-to-Environment) miteinander auszutauschen. Darüber hinaus können solche Kommunikationseinheiten Teil von Internet-of-Things (loT)-Systemen sein, d.h. einem Netzwerk von Geräten, Sensoren, Fahrzeugen und anderen Vorrichtungen, die miteinander verbunden sind, interagieren und Daten austauschen.
  • Komponente
  • Komponente beschreibt die Elemente, insbesondere die Schlüsselelemente, aus denen sich das LIDAR-System zusammensetzt. Solche Schlüsselelemente können eine Lichtquelleneinheit, eine Strahlsteuereinheit, eine Photodetektoreinheit, ASIC-Einheiten, Prozessoreinheiten, Zeittakte, Generatoren von diskreten Zufalls- oder stochastischen Werten und Datenspeichereinheiten umfassen. Ferner können die Komponenten optische Elemente in Bezug auf die Lichtquelle, optische Elemente in Bezug auf die Detektoreinheit, elektronische Vorrichtungen in Bezug auf die Lichtquelle, elektronische Vorrichtungen in Bezug auf die Strahllenkungseinheit, elektronische Vorrichtungen in Bezug auf die Detektoreinheit und elektronische Vorrichtungen in Bezug auf ASIC, Prozessor und Datenspeicher- und Datenausführungsvorrichtungen umfassen. Zu den Komponenten eines LIDAR-Sensorsystems können ferner eine hochpräzise Uhr, ein Global-Positioning-System (GPS) und ein Inertial-Navigations-Messsystem (IMU) gehören.
  • Computerprogramm-Gerät
  • Ein Computerprogrammgerät ist ein Gerät oder Produkt, das in der Lage ist, Befehle auszuführen, die in einem Speicherblock des Geräts gespeichert sind, oder das in der Lage ist, Befehle auszuführen, die über eine Eingabeschnittstelle an das Gerät übertragen wurden. Solche Computerprogrammprodukte oder -geräte umfassen jede Art von computergestütztem System oder softwaregestütztem System, einschließlich Prozessoren, ASICs oder jedes andere elektronische Gerät, das in der Lage ist, programmierte Befehle auszuführen. Computerprogrammgeräte können so konfiguriert werden, dass sie Methoden, Verfahren, Prozesse oder Kontrollaktivitäten im Zusammenhang mit LIDAR-Sensorsystemen ausführen.
  • Vertrauensniveau
  • Im Zusammenhang mit der vorliegenden Anwendung kann der Begriff „Vertrauensniveau“ verwendet werden, um einen Parameter, z.B. einen statistischen Parameter, zu beschreiben, der eine Bewertung einer korrekten Identifizierung und/oder Klassifizierung eines Objekts, z.B. in einem Bild, darstellt. Veranschaulichend kann ein Konfidenzniveau einen Schätzwert für eine korrekte Identifizierung und/oder Klassifizierung eines Objekts darstellen. Das Konfidenzniveau kann mit der Genauigkeit und Präzision eines Algorithmus zusammenhängen.
  • Steuerungs- und Kommunikationssystem
  • Ein Steuerungs- und Kommunikationssystem empfängt Eingaben vom LIDAR-Datenverarbeitungssystem und kommuniziert mit dem LIDAR-Sensorsystem, dem LIDAR-Sensorgerät und dem Fahrzeug-Steuerungs- und Sensorsystem sowie mit anderen Objekten/Fahrzeugen.
  • Kontrolliertes LIDAR-Sensorsystem
  • Ein kontrolliertes LIDAR-Sensorsystem umfasst ein oder mehrere kontrollierte „Erste LIDAR-Sensorsysteme“ und/oder ein oder mehrere kontrollierte „Zweite LIDAR-Sensorsysteme“ und/oder ein oder mehrere kontrollierte LIDAR-Datenverarbeitungssysteme und/oder ein oder mehrere kontrollierte LIDAR-Sensorgeräte und/oder ein oder mehrere kontrollierte Steuerungs- und Kommunikationssysteme.
  • Kontrolliert bedeutet lokale oder ferngesteuerte Überprüfung sowie Fehlererkennung und Reparatur einer der oben genannten Komponenten des LIDAR-Sensorsystems. Kontrolliert kann auch die Steuerung eines LIDAR-Sensorsystems, einschließlich eines Fahrzeugs, bedeuten.
  • Kontrolliert kann auch die Einbeziehung von Industriestandards, Biofeedbacks, Sicherheitsvorschriften, autonomen Fahrniveaus (z.B. SAE-Niveaus) und ethischen und rechtlichen Rahmenbedingungen bedeuten.
  • Kontrolliert kann auch die Kontrolle von mehr als einem LIDAR-Sensorsystem, oder mehr als einem LIDAR-Sensorgerät, oder mehr als einem Fahrzeug und/oder anderen Objekten bedeuten.
  • Ein kontrolliertes LIDAR-Sensorsystem kann den Einsatz künstlicher intelligenter Systeme, Datenverschlüsselung und -entschlüsselung sowie Blockchain-Technologien umfassen, die digitale Aufzeichnungen verwenden, die eine Liste von Transaktionen (sogenannte „Blöcke“) speichern, die durch einen kryptographischen Wert unterstützt werden. Jeder Block enthält einen Link zum vorherigen Block, einen Zeitstempel und Daten über die Transaktionen, die er repräsentiert. Blöcke sind unveränderlich, was bedeutet, dass sie nach ihrer Erstellung nicht leicht geändert werden können. Und die Daten einer Blockkette werden nicht lokal, d.h. auf verschiedenen Computern, gespeichert.
  • Ein kontrolliertes LIDAR-Sensorsystem kann so konfiguriert werden, dass es Sensorfusionsfunktionen ausführt, wie z.B. das Sammeln, Auswerten und Zusammenführen von Daten von verschiedenen Sensortypen (z.B. LIDAR, RADAR, Ultraschall, Kameras). Das Gesteuerte LIDAR-Sensorsystem umfasst somit Rückkopplungs- und Regelkreise, d.h. den Austausch von Signalen, Daten und Informationen zwischen verschiedenen Komponenten, Modulen und Systemen, die alle dazu dienen, ein konsistentes Verständnis der Umgebung eines Sensorsystems, z.B. eines Sensorsystems an Bord eines Fahrzeugs, abzuleiten.
  • Übersprechen / Sensorübersprechen (Crosstalk)
  • Übersprechen/Crosstalk (auch als „Sensor-Crosstalk“ bezeichnet) kann als ein Phänomen verstanden werden, bei dem ein Signal, das auf einem Schaltkreis oder Kanal (z.B. einem Sensorpixel) gesendet oder empfangen wird, in einem anderen Schaltkreis oder Kanal (z.B. in einem anderen Sensorpixel) einen unerwünschten Effekt erzeugt.
  • Datenanalyse
  • Verschiedene Komponenten (z.B. Detektoren, ASIC) und Verfahren (wie Signal/Rausch-Messung und -Optimierung, Fusion verschiedener anderer Sensorsignale wie z.B. von anderen LIDAR-Sensorsystemen, Radar-, Kamera- oder Ultraschallmessungen) werden bereitgestellt, die notwendig sind, um rückgestreute LIDAR-Signale zuverlässig zu messen und Informationen zur Erkennung von Punktwolken und anschließender Objekterkennung und -klassifikation abzuleiten. Signale und Daten können über Edge-Computing oder Cloud-Computing-Systeme unter Verwendung entsprechender Kommunikationseinheiten (CUs) verarbeitet werden. Signale und Daten können dabei verschlüsselt übertragen werden.
  • Zur Erhöhung der Datensicherheit und Datenpermanenz können weitere Vorkehrungen getroffen werden, wie z.B. die Implementierung von Methoden, die auf Blockchain oder intelligenten Verträgen basieren. Die Datensicherheit kann auch durch eine Kombination von Sicherheitskontrollen, -maßnahmen und -strategien erhöht werden, die einzeln und/oder in Kombination in allen „Schichten“ eines Systems angewendet werden, einschließlich menschlicher, physischer, Endpunkt-, Netzwerk-, Anwendungs- und Datenumgebungen.
  • Die Datenanalyse kann durch den Einsatz von Datenentfaltungsmethoden oder anderen geeigneten Methoden profitieren, die aus der Bildgebung und Signalverarbeitung bekannt sind, einschließlich neuronaler und Deep Learning Lerntechniken.
  • Datenanalyse
  • Die Datenanalyse soll Hardware, Software und Methoden zur Datenanalyse umfassen, um Informationen wie Entfernung zu einem Objekt, Objektklassifikation, Objektmorphologie zu erhalten. Bei der LIDAR-Abtastung kann ein Objekt, wie oben beschrieben, ein Fahrzeug, ein Haus, eine Brücke, ein Baum, ein Tier usw. sein. Die Datenanalyse kann mit einem computergestützten Steuerungssystem verbunden werden. Alle Daten können verschlüsselt werden. Die Datenanalyse und -verarbeitung kann Blockchain-Methoden für Datenpersistenz, Vertrauen und Sicherheit verwenden.
  • Datenverwendung
  • LIDAR-generierte Datensätze können für die Steuerung und Lenkung von Fahrzeugen (z.B. Autos, Schiffe, Flugzeuge, Drohnen) verwendet werden, einschließlich Fernsteuerungsoperationen (z.B. Parkoperationen oder Operationen, die z.B. von einem Notfalloffizier in einem Kontrollraum ausgeführt werden). Die Datensätze können verschlüsselt und kommuniziert werden (C2C, C2X), sowie einem Benutzer präsentiert werden (z.B. durch HUD oder Virtual / Augmented Reality unter Verwendung von tragbaren Brillen oder ähnlichen Designs). LIDAR-Systeme können auch zur Datenverschlüsselung eingesetzt werden.
  • Die Datennutzung kann auch den Einsatz von Methoden der Künstlichen Intelligenz (KI) umfassen, d.h. computergestützte Systeme oder computerimplementierte Methoden, die so konfiguriert sind, dass sie die übermittelten Daten interpretieren, aus diesen Daten auf der Grundlage dieser Interpretationen lernen und Schlussfolgerungen ableiten, die in Maßnahmen umgesetzt werden können, um bestimmte Ziele zu erreichen. Die Dateneingabe für solche Kl-basierten Methoden kann sowohl von LIDAR-Sensorsystemen als auch von anderen physikalischen oder Biofeedback-Sensoren stammen (z.B. Kameras, die Videoströme von der Außen- oder Innenumgebung des Fahrzeugs liefern und z.B. die Blickrichtung eines menschlichen Fahrers auswerten). KI-basierte Methoden können Algorithmen zur Mustererkennung verwenden. Bei der Datennutzung können im Allgemeinen mathematische oder statistische Methoden eingesetzt werden, um zukünftige Ereignisse oder Szenarien auf der Grundlage verfügbarer früherer Datensätze vorherzusagen (z.B. Bayes'sche Methode). Darüber hinaus kann die Datenverwendung Überlegungen zu ethischen Fragen beinhalten (z.B. Situationen wie das bekannte „Trolley-Dilemma“).
  • Datenspeicher- und Ausführungsgerät
  • Ein Datenspeicher- und Ausführungsgerät ist ein Gerät, das in der Lage ist, Informationen oder Daten aufzuzeichnen, z.B. mittels binärer oder hexadezimaler Codes. Speichergeräte können Halbleiter- oder Festkörpergeräte umfassen, die so konfiguriert werden können, dass sie Daten entweder flüchtig oder nicht flüchtig speichern. Speichergeräte können löschbar und reprogrammierbar sein.
  • Speichergeräte umfassen Cloud-basierte, webbasierte, netzwerkbasierte oder lokale Speichergeräte, um zum Beispiel Edge-Computing zu ermöglichen. Datenspeichergeräte können z.B. Festplatten, RAMs oder andere übliche Datenspeichereinheiten wie USB-Speichergeräte, CDs, DVDs, Computerspeicher, Disketten, optische Platten, Magnetbänder, Flash-Speicher usw. umfassen.
  • Detektor
  • Ein Detektor ist ein Gerät, das in der Lage ist, ein Ausgangssignal (an eine Auswerteelektronik) zu liefern, das qualitativ oder quantitativ mit dem Vorhandensein oder der Änderung von physikalischen (oder chemischen) Eigenschaften in seiner Umgebung korreliert ist. Beispiele für solche physikalischen Eigenschaften sind Temperatur, Druck, Beschleunigung, Helligkeit von Licht (UV, VIS, IR), Vibrationen, elektrische Felder, Magnetfelder, elektromagnetische Felder, akustische oder Ultraschallwellen usw. Detektorvorrichtungen können Kameras (Mono- oder Stereokameras) mit z.B. lichtempfindlichen CCD- oder CMOS-Chips oder gestapelten mehrschichtigen Fotodioden, Ultraschall- oder Ultraschalldetektoren, Detektoren für Funkwellen (RADAR-Systeme), Fotodioden, Temperatursensoren wie NTC-Elemente (d.h. ein Thermistor mit negativem Temperaturkoeffizienten), Beschleunigungssensoren usw. umfassen.
  • Ein Photodetektor ist ein Nachweisgerät, das empfindlich gegenüber der Einwirkung elektromagnetischer Strahlung ist. Typischerweise werden Lichtphotonen beim Auftreffen auf das lichtempfindliche Element in ein Stromsignal umgewandelt. Lichtempfindliche Elemente können Halbleiterelemente mit p-n-Übergangsbereichen umfassen, in denen Photonen absorbiert und in Elektron-Loch-Paare umgewandelt werden. Für LIDAR-Anwendungen können viele verschiedene Detektortypen verwendet werden, wie z.B. Fotodioden, PN-Dioden, PIN-Dioden (positive intrinsische Negativdioden), APD (Avalanche Photo-Diodes), SPAD (Single Photon Avalanche Diodes), SiPM (Silicon Photomultipliers), CMOS-Sensoren (Complementary Metal-Oxide-Semiconductor, CCD (Charge-Coupled Device), gestapelte Mehrschicht-Fotodioden usw.
  • In LIDAR-Systemen wird ein Photodetektor verwendet, um (qualitativ und/oder quantitativ) Echosignale von Licht zu detektieren, das von der Lichtquelle in das FOI abgestrahlt wurde und das danach von mindestens einem Objekt im FOI reflektiert oder gestreut wurde. Der Photodetektor kann ein oder mehrere lichtempfindliche Elemente (des gleichen Typs oder verschiedener Typen) aufweisen, die in linearen Streifen oder in zweidimensionalen Arrays angeordnet sein können. Der lichtempfindliche Bereich kann eine rechteckige, quadratische, polygonale, kreisförmige oder ovale Form haben. Ein Fotodetektor kann mit Bayer-ähnlichen sichtbaren oder Infrarot-Filtersegmenten bedeckt sein.
  • Digitale Karte
  • Eine digitale Karte ist eine Sammlung von Daten, die verwendet werden können, um zu einem virtuellen Bild formatiert zu werden. Die primäre Funktion einer digitalen Karte besteht darin, genaue Darstellungen von gemessenen Datenwerten zu liefern. Die digitale Karte ermöglicht auch die Berechnung der geometrischen Abstände von einem Objekt, wie es durch seinen Datensatz dargestellt wird, zu einem anderen Objekt. Eine digitale Karte kann auch als virtuelle Karte bezeichnet werden.
  • Energie-effizientes Sensor-Management
  • Einige LIDAR-bezogene Geschäftsmodelle können sich mit Methoden der energieeffizienten Sensorverwaltung befassen, die sowohl Methoden zur effizienten Erzeugung von LIDAR-Abtastsignalen als auch Methoden zum effizienten Empfang, zur Erkennung und zur Verarbeitung von LIDAR-Abtastsignalen umfassen können. Effiziente Methoden zur Erzeugung von LIDAR-Abtastsignalen können Techniken umfassen, die so konfiguriert sind, dass die Emission von Strahlung minimiert wird, z.B. um die Augensicherheitsstandards in Bezug auf andere Verkehrsteilnehmer zu erfüllen, aber auch um unbeabsichtigte Störungen und Nachteile für Tiere (die bekanntermaßen empfindlich auf IR-Strahlung und teilweise auch auf Lichtpolarisation reagieren) zu vermeiden.
  • Effiziente Methoden zum Empfangen, Erkennen und Verarbeiten von LIDAR-Abtastsignalen umfassen effiziente Methoden zur Datenspeicherung und Datenverarbeitung, um z.B. die erforderlichen Speicherkapazitäten und Rechenzeiten zu reduzieren. Effiziente Datenspeicherung kann auch Lösungen für Datensicherung, Daten- und Informationssicherheit (z.B. eingeschränkte Zugriffsberechtigung) sowie Black-Box-Recording umfassen. Solche Lösungen können Methoden wie Datenverschlüsselung, Blockchain usw. nutzen. Energieeffizientes Sensormanagement umfasst darüber hinaus Methoden der Sensorfusion, Rückkopplungsschleifen, Vernetzung und Kommunikation (intra- und extra-vehicular).
  • Elektronische Geräte
  • Als elektronische Geräte werden alle Arten von elektronischen Komponenten oder elektronischen Modulen bezeichnet, die in einem LIDAR-Sensorsystem verwendet werden können, um dessen Funktion zu erleichtern oder zu verbessern. Solche elektronischen Geräte können z.B. Treiber und Controller für die Lichtquelle, die Strahllenkungseinheit oder die Detektoreinheit umfassen. Elektronische Geräte können alle Arten von elektronischen Komponenten umfassen, die zur Versorgung mit Spannung, Strom oder Leistung verwendet werden. Elektronische Vorrichtungen können ferner alle Arten von elektronischen Komponenten umfassen, die zur Manipulation elektrischer oder elektronischer Signale verwendet werden, einschließlich des Empfangs, Sendens, Übertragens, Verstärkens, Dämpfens, Filterns, Vergleichens, Speicherns oder anderweitigen Umgangs mit elektrischen oder elektronischen Signalen.
  • In einem LIDAR-System kann es elektronische Vorrichtungen in Bezug auf die Lichtquelle, elektronische Vorrichtungen in Bezug auf die Strahllenkungseinheit, elektronische Vorrichtungen in Bezug auf die Detektoreinheit und elektronische Vorrichtungen in Bezug auf ASIC- und Prozessoreinheiten geben. Elektronische Geräte können auch Timing-Einheiten, Positionierungseinheiten (z.B. Aktuatoren), Positionsverfolgungseinheiten (z.B. GPS, Geolokalisierung, Indoor-Positionierungseinheiten, Baken usw.), Kommunikationseinheiten (WLAN, Funkkommunikation, Bluetooth, BLE usw.) oder weitere Messeinheiten (z.B. Trägheit, Beschleunigungen, Vibrationen, Temperatur, Druck, Position, Winkel, Rotation usw.) umfassen.
  • Beleuchtungsfeld
  • Der Begriff Beleuchtungsfeld/Field of Illumination (FOI) bezieht sich auf den Raumwinkelsektor, in den Licht durch die LIDAR-Lichtquelle (einschließlich aller entsprechenden nachgeschalteten optischen Elemente) übertragen werden kann. Das FOI ist entlang einer horizontalen Richtung auf einen Öffnungswinkel □□H und entlang einer vertikalen Richtung auf einen Öffnungswinkel □□V begrenzt. Das Licht der LIDAR-Lichtquelle kann in einem einzigen Durchgang in das gesamte Beleuchtungsfeld übertragen werden (nicht-abtastendes LIDAR) oder in das Beleuchtungsfeld nacheinander abtastend übertragen werden (abtastendes LIDAR).
  • Sichtfeld
  • Der Begriff Field of View (FOV) bezieht sich auf den Raumwinkelsektor, aus dem der LIDAR-Detektor (einschließlich aller entsprechenden vorgeschalteten optischen Elemente) Lichtsignale empfangen kann. Das FOV ist entlang einer horizontalen Richtung auf einen Öffnungswinkel alphaH und entlang einer vertikalen Richtung auf einen Öffnungswinkel alphaV begrenzt.
  • Blitz-LIDAR-Sensorsystem
  • Ein LIDAR-Sensorsystem, bei dem die Winkelinformation (Objekterkennung) über die Umgebung durch die Verwendung eines winkelsensitiven Detektors gewonnen wird, wird üblicherweise als Blitz/Flash-LIDAR-Sensorsystem bezeichnet.
  • Rahmen (Physikalische Schicht)
  • Im Zusammenhang mit der vorliegenden Anwendung kann der Begriff Rahmen (auch: Frame) verwendet werden, um eine logische Struktur eines Signals zu beschreiben (z.B. ein elektrisches Signal oder ein Lichtsignal oder ein LIDAR-Signal, wie z.B. ein Lichtsignal). Illustrativ kann der Begriff „Rahmen“ eine Anordnung (z.B. eine Struktur) für den Inhalt des Rahmens (z.B. für das Signal oder die Signalkomponenten) beschreiben oder definieren. Die Anordnung des Inhalts innerhalb des Rahmens kann konfiguriert werden, um Daten oder Informationen bereitzustellen. Ein Rahmen kann eine Folge von Symbolen oder Symboldarstellungen enthalten. Ein Symbol oder eine Symboldarstellung kann je nach seiner Position innerhalb des Rahmens eine unterschiedliche Bedeutung haben (z.B. kann es verschiedene Arten von Daten repräsentieren). Ein Rahmen kann eine vordefinierte Zeitdauer haben. Zur Veranschaulichung: Ein Rahmen kann ein Zeitfenster definieren, innerhalb dessen ein Signal eine vordefinierte Bedeutung haben kann. Beispielsweise kann ein Lichtsignal, das so konfiguriert ist, dass es eine Rahmenstruktur hat, eine Folge von Lichtimpulsen enthalten, die Daten oder Informationen repräsentieren (oder tragen). Ein Rahmen kann durch einen Code (z.B. einen Signalmodulationscode) definiert werden, der die Anordnung der Symbole innerhalb des Rahmens definieren kann.
  • Gateway
  • Gateway ist eine Netzwerk-Hardware, die für die Verbindung mit einem anderen Netzwerk ausgerüstet ist. Ein Gateway kann Geräte wie Protokollumsetzer, Impedanzanpassungsgeräte, Ratenumsetzer, Fehlerisolatoren oder Signalumsetzer enthalten, die zur Gewährleistung der Systeminteroperabilität erforderlich sind. Es erfordert auch die Einrichtung von gegenseitig akzeptablen Verwaltungsverfahren zwischen beiden Netzwerken. Mit anderen Worten, ein Gateway ist ein Knoten in einem Netzwerk, der als „Tor“ oder Ein- und Austrittspunkt zum und vom Netzwerk dient. Mit anderen Worten, ein Knoten ist ein aktiver Umverteilungs- und/oder Kommunikationspunkt mit einer eindeutigen Netzwerkadresse, der entweder Daten erstellt, empfängt oder überträgt, manchmal auch als „Datenknoten“ bezeichnet.
  • Hybrides LIDAR-Sensorsystem
  • Ein LIDAR-Sensorsystem kann ein sogenanntes Flash-Puls-System oder ein Scan-Puls-System verwenden. Eine Kombination aus beiden Systemen wird üblicherweise als Hybrid-LIDAR-Sensorsystem bezeichnet.
  • Mensch-Maschine-Interaktion (HMI)
  • Für Mensch-Maschine-Interaktionen (HMI), zum Beispiel die Interaktion zwischen einem Fahrzeug und einem Fahrer, kann es notwendig sein, Daten und Informationen so aufzubereiten, dass sie als grafische Darstellungen oder in anderen Formen der Visualisierung, z.B. HUD oder Methoden der Augmented Reality (AR) oder Virtual Reality (VR), zur Verfügung gestellt werden können. Biofeedback-Systeme, die biologische Parameter wie Müdigkeit, Schwindel, erhöhter Herzschlag, Nervosität usw. auswerten können, können in solche Mensch-Maschine-Interaktionssysteme einbezogen werden. Beispielsweise kann ein Biofeedback-System erkennen, dass der Fahrer eines Fahrzeugs Anzeichen erhöhter Müdigkeit zeigt, die von einer zentralen Steuereinheit ausgewertet werden und schließlich zu einem Wechsel von einem niedrigeren SAE-Niveau auf ein höheres SAE-Niveau führen.
  • LIDAR-basierte Anwendungen (allgemein)
  • LIDAR-Sensorsysteme können für eine Vielzahl von Anwendungen eingesetzt werden, wie z.B. Abstandsmessung (Entfernungsmessung), Objekterfassung und -erkennung, 3-Kartierung, Automobilanwendungen, Fahrerüberwachung, Gestenerkennung, Anwesenheitssensor, Luftqualitätsüberwachung (Gassensor, innen & außen), Robotik (wie automatisch geführte Fahrzeuge), Windgeschwindigkeitsmessung, Kommunikation, Verschlüsselung und Signalübertragung.
  • LIDAR-basierte Anwendungen für Fahrzeuge
  • LIDAR-generierte Datensätze können für die Steuerung und Lenkung von Fahrzeugen (z.B. Autos, Schiffe, Flugzeuge, Drohnen), einschließlich grundlegender und fortgeschrittener Fahrerassistenzsysteme (ADAS), sowie der verschiedenen Ebenen autonomer Fahrzeuge (AV) verwendet werden. Darüber hinaus können LIDAR-Systeme auch für viele verschiedene Funktionen eingesetzt werden, die auf das Innere eines Fahrzeugs ausgerichtet sind. Solche Funktionen können Fahrer- oder Fahrgast-Überwachungsfunktionen sowie Belegungserkennungssysteme umfassen, die z.B. auf Methoden wie Eye-Tracking, Gesichtserkennung (Auswertung von Kopfdrehung oder -neigung), Messung von Augenblinzelereignissen usw. basieren. LIDAR-Sensorsysteme können daher sowohl außerhalb als auch innerhalb eines Fahrzeugs montiert und in optische Systeme wie Scheinwerfer und andere Fahrzeugbeleuchtungsteile integriert werden, die sich an verschiedenen Stellen eines Fahrzeugs (vorne, hinten, seitlich, Ecke, Innenraum) befinden können. LIDAR-Sensoren können auch für die Umwandlung von IR-Strahlung in sichtbares Licht mit Hilfe von lumineszierenden oder phosphoreszierenden Materialien verwendet werden.
  • LIDAR-IR-Funktionen und andere optische Wellenlängen-Emitter können elektrisch, mechanisch und optisch auf einem gemeinsamen Substrat oder in einem gemeinsamen Modul kombiniert werden und arbeiten miteinander zusammen. LIDAR-Datensätze können verschlüsselt und kommuniziert werden (C2C, C2X), sowie einem Benutzer präsentiert werden (z.B. durch HUD oder Virtual / Augmented Reality, z.B. mit Hilfe von tragbaren Brillen oder anderen geeigneten Geräten). LIDAR-Systeme können auch selbst zur Datenverschlüsselung eingesetzt werden. LIDAR-generierte Datensätze können für Routenplanungszwecke verwendet werden, vorteilhaft in Kombination mit anderen Kartendiensten und -geräten (GPS, Navigationssysteme, Karten).
  • Für die Routenplanungsanwendungen kann die Kommunikation und der Datenaustausch mit anderen Straßennutzern (C2C) oder Infrastrukturelementen (C2X) eingesetzt werden, einschließlich der Verwendung von Kl-basierten Systemen und Systemen, die auf Schwarmintelligenz basieren. Beispiele für solche Anwendungen können so genannte Kolonnen(Platooning)-Anwendungen sein, bei denen eine Anzahl von Fahrzeugen z.B. für eine gemeinsame Fahrt auf der Autobahn gruppiert werden, sowie verschiedene Car-Sharing-Modelle, bei denen Autos und Autonutzer auf effiziente Weise zusammengebracht werden. Weitere Anwendungen können die effiziente Lokalisierung von freien Parkplätzen, z.B. als Teil kommunaler Smart City-Lösungen, sowie automatisierte Parkvorgänge umfassen.
  • LIDAR DATA-Verarbeitungssystem
  • Ein LIDAR-Datenverarbeitungssystem kann Funktionen der Signalverarbeitung, Signaloptimierung (Signal/Rauschen), Datenanalyse, Objektdetektion, Objekterkennung, Informationsaustausch mit Edge- und Cloud-Computing, Datenbanken, Datenbibliotheken und andere Erfassungsgeräte (z.B. andere LIDAR-Geräte, Radar, Kamera, Ultraschall, biometrische Rückmeldedaten, Fahrersteuergeräte, Car-to-Car (C2C)-Kommunikation, Car-to-Environment (C2X)-Kommunikation, Geolokalisierungsdaten (GPS) umfassen.
  • Ein LIDAR-Datenverarbeitungssystem kann Punktwolken (3D / 6D), Objektstandort, Objektbewegung, Umgebungsdaten, Objekt-/Fahrzeugdichte erzeugen.
  • Ein LIDAR-Datenverarbeitungssystem kann eine Rückkopplung zum ersten LIDAR-Sensorsystem und/oder zum zweiten LIDAR-Sensorsystem und/oder zum Kontroll- und Kommunikationssystem....
  • LIDAR-Lichtmodul
  • Ein LIDAR-Lichtmodul besteht aus mindestens einer LIDAR-Lichtquelle und mindestens einem Treiber, der mit der mindestens einen LIDAR-Lichtquelle verbunden ist.
  • LIDAR-Erfassungssystem
  • Ein LIDAR-Erfassungssystem kann ein oder mehrere LIDAR-Emissionsmodule, hier als „Erste LIDAR-Erfassung“ bezeichnet, und/oder ein oder mehrere LIDAR-Sensormodule, hier als „Zweite LIDAR-Erfassung“ bezeichnet, aufweisen.
  • LIDAR-Sensor
  • Sofern nicht anders angegeben, beschreibt der Begriff Sensor oder Sensormodul im Rahmen dieser Patentanmeldung ein Modul, das so konfiguriert ist, dass es als LIDAR-Sensorsystem funktioniert. Als solches kann es einen minimalen Satz von LIDAR-Schlüsselkomponenten umfassen, die zur Ausführung grundlegender LIDAR-Funktionen wie z.B. einer Abstandsmessung erforderlich sind.
  • Unter einem LIDAR (Light Detection and Ranging) Sensor ist insbesondere ein System zu verstehen, das neben einem oder mehreren Emittern zur Aussendung von Lichtstrahlen, z.B. in gepulster Form, und einem Detektor zur Detektion etwaiger reflektierter Strahlkomponenten weitere Vorrichtungen, z.B. optische Elemente wie Linsen und/oder einen MEMS-Spiegel, aufweisen kann. Ein LIDAR-Sensor kann daher auch als LIDAR-System oder LIDAR-Sensorsystem bzw. LIDAR-Detektionssystem bezeichnet werden.
  • LIDAR-Sensor-Gerät
  • Ein LIDAR-Sensorgerät ist ein LIDAR-Sensorsystem, das entweder eigenständig oder integriert in ein Gehäuse, eine Leuchte, einen Scheinwerfer oder andere Fahrzeugkomponenten, Möbel, Decken, Textilien, etc. und/oder mit anderen Objekten (z.B. Fahrzeuge, Fußgänger, Verkehrsteilnehmerobjekte,...) kombiniert ist.
  • LIDAR-Sensor-Verwaltungssystem
  • Das LIDAR-Sensormanagementsystem empfängt Eingaben vom LIDAR-Datenverarbeitungssystem und/oder Kontroll- und Kommunikationssystem und/oder jeder anderen Komponente des LIDAR-Sensorgeräts und gibt Steuer- und Signalisierungsbefehle an das Erste LIDAR-Sensorsystem und/oder das Zweite LIDAR-Sensorsystem aus.
  • LIDAR-Sensor-Verwaltungssoftware
  • LIDAR-Sensor-Management-Software (einschließlich Feedback-Software) zur Verwendung in einem LIDAR-Sensor-Management-System.
  • LIDAR-Sensormodul
  • Ein LIDAR-Sensormodul umfasst mindestens eine LIDAR-Lichtquelle, mindestens ein LIDAR-Sensorelement und mindestens einen Treiber, der mit der mindestens einen LIDAR-Lichtquelle verbunden ist. Es kann ferner optische Komponenten und ein LIDAR-Datenverarbeitungssystem enthalten, das durch LIDAR-Signalverarbeitungshard- und -software unterstützt wird.
  • LIDAR-System
  • Ein LIDAR-System ist ein System, das als LIDAR-Sensorsystem konfiguriert sein oder konfiguriert werden kann.
  • LIDAR-Sensor-System
  • Ein LIDAR-Sensorsystem ist ein System, das Licht bzw. elektromagnetische Strahlung verwendet, um Informationen über Objekte in der Umgebung des LIDAR-Systems abzuleiten. Das Akronym LIDAR steht für Light Detection and Ranging. Alternative Bezeichnungen können LADAR (Laser Detection and Ranging), LEDDAR (Light-Emitting Diode Detection and Ranging) oder Laserradar sein.
  • LIDAR-Systeme bestehen in der Regel aus einer Vielzahl von Komponenten, die im Folgenden beschrieben werden. In einer beispielhaften Anwendung werden solche LIDAR-Systeme an einem Fahrzeug angeordnet, um Informationen über Objekte auf einer Fahrbahn und in der Nähe einer Fahrbahn abzuleiten. Solche Objekte können andere Verkehrsteilnehmer (z.B. Fahrzeuge, Fußgänger, Radfahrer usw.), Elemente der Straßeninfrastruktur (z.B. Verkehrszeichen, Ampeln, Fahrbahnmarkierungen, Leitplanken, Verkehrsinseln, Gehwege, Brückenpfeiler usw.) und allgemein alle Arten von Objekten umfassen, die sich absichtlich oder unabsichtlich auf einer Fahrbahn oder in der Nähe einer Fahrbahn befinden können.
  • Die über ein solches LIDAR-System gewonnenen Informationen können den Abstand, die Geschwindigkeit, die Beschleunigung, die Bewegungsrichtung, die Flugbahn, die Pose und / oder andere physikalische oder chemische Eigenschaften dieser Objekte umfassen. Um diese Informationen abzuleiten, kann das LIDAR-System die Flugzeit (TOF) oder Variationen physikalischer Eigenschaften wie Phase, Amplitude, Frequenz, Polarisation, strukturierte Punktmuster, auf Triangulation basierende Methoden usw. der elektromagnetischen Strahlung bestimmen, die von einer Lichtquelle emittiert wird, nachdem die emittierte Strahlung von mindestens einem Objekt im Beleuchtungsfeld (FOI) reflektiert oder gestreut und von einem Photodetektor erfasst wurde.
  • LIDAR-Systeme können als Flash-LIDAR oder Solid-State-LIDAR (keine bewegte Optik), Scanning-LIDAR (1- oder 2-MEMS-Spiegelsysteme, Faser-Oszillator), Hybrid-Versionen sowie in anderen Konfigurationen konfiguriert werden.
  • LiDAR Licht als Dienst (LLaaS)
  • Lighting as a Service (LaaS) ist ein Modell zur Bereitstellung von Dienstleistungen, bei dem der Lichtservice auf Abonnementbasis und nicht über eine einmalige Zahlung abgerechnet wird. Dieses Geschäftsmodell hat sich bei kommerziellen und stadtweiten Installationen von LED-Leuchten, insbesondere bei der Nachrüstung von Gebäuden und Außenanlagen, mit dem Ziel, die Installationskosten zu senken, zunehmend durchgesetzt. Lichthersteller haben eine LaaS-Strategie beim Verkauf von Mehrwertdiensten, wie z.B. Internet-verbundene Beleuchtung und Energiemanagement, angewandt. LIDAR Light as a Service (LLaaS) bezieht sich auf ein Geschäftsmodell, bei dem die Installation, die Nutzung, die Leistung und der Austausch eines LIDAR-Sensorsystems oder beliebiger Komponenten davon pro Anwendungsfall bezahlt werden. Dies ist besonders wichtig für LIDAR-Sensorsysteme, die an Wegweisern, Ampeln, Gebäuden, Wanddecken, in einem gemieteten, autonom fahrenden Auto oder in Kombination mit persönlicher Ausrüstung eingesetzt werden. LIDAR Lighting as a Service kann mit intelligenten Verträgen unterstützt werden, die auf Blockkettentechnologien basieren könnten.
  • LiDAR-Plattform als Dienst (LPaaS)
  • Eine Platform as a Service (PaaS) oder Application Platform as a Service (aPaaS) oder ein plattformbasierter Dienst ist eine Kategorie von Cloud Computing-Diensten, die eine Plattform zur Verfügung stellt, die es Kunden ermöglicht, Anwendungen zu entwickeln, auszuführen und zu verwalten, ohne die Komplexität des Aufbaus und der Wartung der Infrastruktur, die typischerweise mit der Entwicklung und Einführung einer Anwendung verbunden ist. Eine LIDAR Platform as a Service (LPaaS) ermöglicht z.B. OEMs, Tier-1-Kunden, Soft- und Hardware-Entwicklern usw. das gleiche wie oben beschrieben, wodurch eine schnellere Markteinführung und höhere Zuverlässigkeit ermöglicht wird. Eine LIDAR Platform as a Service (LPaaS) kann für eine anbietende Firma ein wertvolles Geschäftsmodell sein.
  • Licht-Steuergerät
  • Das Lichtsteuergerät/die Lichtsteuereinheit (Light Contrul Unit) kann so konfiguriert werden, dass sie mindestens ein erstes LIDAR-Erfassungssystem und/oder mindestens ein zweites LIDAR-Erfassungssystem für den Betrieb in mindestens einer Betriebsart steuert. Die Lichtsteuereinheit kann eine Lichtsteuersoftware enthalten. Mögliche Betriebsmodi sind z.B.: Dimmen, gepulst, PWM, Boost, Bestrahlungsmuster, einschließlich leuchtender und nicht leuchtender Perioden, Lichtkommunikation (einschließlich C2C und C2X), Synchronisation mit anderen Elementen des LIDAR-Sensorsystems, wie z.B. einem zweiten LIDAR-Sensorgerät.
  • Lichtquelle
  • Eine Lichtquelle für LIDAR-Anwendungen liefert elektromagnetische Strahlung bzw. Licht, das zur Ableitung von Informationen über Objekte in der Umgebung des LIDAR-Systems verwendet wird. Bei einigen Implementierungen emittiert die Lichtquelle Strahlung in einem nicht sichtbaren Wellenlängenbereich, insbesondere Infrarotstrahlung (IR) im Wellenlängenbereich von 850 nm bis 8100 nm. In einigen Implementierungen emittiert die Lichtquelle Strahlung in einem schmalen Bandbreitenbereich mit einer vollen Breite bei halbem Maximum (Full Width at Half Maximum, FWHM) zwischen 1 ns und 100 ns.
  • Eine LIDAR-Lichtquelle kann so konfiguriert werden, dass sie mehr als eine Wellenlänge, sichtbar oder unsichtbar, entweder gleichzeitig oder zeitsequentiell emittiert.
  • Die Lichtquelle kann gepulste Strahlung emittieren, die aus Einzelpulsen mit gleicher Pulshöhe oder aus Folgen von Mehrfachpulsen mit einheitlicher Pulshöhe oder mit unterschiedlichen Pulshöhen besteht. Die Pulse können eine symmetrische Pulsform haben, z.B. eine rechteckige Pulsform. Alternativ dazu können die Pulse asymmetrische Pulsformen haben, mit Unterschieden in ihren jeweiligen steigenden und fallenden Flanken. Die Pulslänge kann im Bereich von Pikosekunden (ps) bis zu Mikrosekunden (µs) liegen.
  • Die Vielzahl der Pulse kann sich auch zumindest teilweise überschneiden. Abgesehen von einem solchen gepulsten Betrieb kann die Lichtquelle zumindest zeitweise auch in einem Dauerstrichbetrieb betrieben werden. Im Dauerstrichbetrieb kann die Lichtquelle so angepasst werden, dass Phase, Amplitude, Frequenz, Polarisation usw. der emittierten Strahlung variiert werden können. Die Lichtquelle kann Festkörperlichtquellen aufweisen (z.B. kantenemittierende Laser, oberflächenemittierende Laser, Halbleiterlaser, VCSEL, VECSEL, LEDs, Superlumineszenz-LEDs usw.).
  • Die Lichtquelle kann ein oder mehrere lichtemittierende Elemente (des gleichen Typs oder verschiedener Typen) aufweisen, die in linearen Streifen oder in zweidimensionalen Arrays angeordnet sein können. Die Lichtquelle kann ferner aktive oder passive Wärmeableitungselemente umfassen.
  • Die Lichtquelle kann mehrere Schnittstellen haben, die elektrische Verbindungen zu einer Vielzahl von elektronischen Geräten wie Stromquellen, Treibern, Controllern, Prozessoren usw. ermöglichen. Da in einem Fahrzeug mehr als ein LIDAR-System eingesetzt werden kann, kann jedes von ihnen unterschiedliche Lasereigenschaften haben, z.B. hinsichtlich Laserwellenlänge, Pulsform und FWHM.
  • Die LIDAR-Lichtquelle kann mit einer regulären Fahrzeugbeleuchtungsfunktion, wie Scheinwerfer, Tagfahrlicht (DRL), Blinklicht, Bremslicht, Nebellicht usw. kombiniert werden, so dass beide Lichtquellen (LIDAR und eine andere Fahrzeuglichtquelle) auf demselben Substrat hergestellt und/oder angeordnet sind oder in dasselbe Gehäuse integriert und/oder als nicht trennbare Einheit kombiniert werden.
  • Markierung
  • Eine Markierung (Marker) kann eine beliebige elektro-optische Einheit sein, z.B. eine Anordnung von Fotodioden, die von äußeren Objekten, insbesondere Fußgängern und Radfahrern, getragen wird und die Infrarotstrahlung oder akustische Wellen (Infraschall, hörbar, Ultraschall) erkennen, die eintreffende Strahlung / Wellen verarbeiten und als Antwort Infrarotstrahlung oder akustische Wellen (Infraschall, hörbar, Ultraschall) mit gleicher oder unterschiedlicher Wellenlänge reflektieren oder aussenden und direkt oder indirekt mit anderen Objekten, einschließlich autonom fahrender Fahrzeuge, kommunizieren kann.
  • Verfahren
  • Der Begriff Verfahren kann eine Prozedur, einen Prozess, eine Technik oder eine Reihe von Schritten beschreiben, die ausgeführt werden, um ein Ergebnis zu erzielen oder eine Funktion zu erfüllen. Ein Verfahren kann sich zum Beispiel auf eine Reihe von Schritten während der Herstellung oder des Zusammenbaus einer Vorrichtung beziehen. EinVerfahren kann sich auch auf eine Art und Weise beziehen, wie ein Produkt oder eine Vorrichtung verwendet wird, um ein bestimmtes Ergebnis zu erzielen (z.B. Messen eines Wertes, Speichern von Daten, Verarbeiten eines Signals usw.).
  • Modul
  • Modul beschreibt eine beliebige Aggregation von Komponenten, die ein LIDAR-System aufbauen können. So kann z.B. ein Lichtquellenmodul ein Modul beschreiben, das eine Lichtquelle, mehrere strahlformende optische Elemente und einen Lichtquellentreiber als elektronisches Bauelement umfasst, das so konfiguriert ist, dass es die Lichtquelle mit Strom versorgt.
  • Objekte
  • Objekte können im Allgemeinen alle Arten von physikalischer, chemischer oder biologischer Materie bezeichnen, für die über ein Sensorsystem Informationen abgeleitet werden können. In Bezug auf ein LIDAR-Sensorsystem können Objekte andere Verkehrsteilnehmer (z.B. Fahrzeuge, Fußgänger, Radfahrer usw.), Elemente der Straßeninfrastruktur (z.B. Verkehrszeichen, Ampeln, Fahrbahnmarkierungen, Leitplanken, Verkehrsinseln, Gehwege, Brückenpfeiler usw.) und allgemein alle Arten von Objekten beschreiben, die sich absichtlich oder unabsichtlich auf einer Fahrbahn oder in der Nähe einer Fahrbahn befinden können.
  • Optische Meta-Oberfläche
  • Eine optische Meta-Oberfläche kann als eine oder mehrere strukturierte Sub-Wellenlängen-Schichten verstanden werden, die mit Licht interagieren und so die Möglichkeit bieten, bestimmte Lichteigenschaften über eine Sub-Wellenlängen-Dicke zu verändern. Eine herkömmliche optische Anordnung beruht auf Lichtbrechung und -ausbreitung. Eine optische Meta-Oberfläche bietet eine Methode der Lichtmanipulation, die auf der Streuung an kleinen Nanostrukturen oder Nano-Wellenleitern beruht. Solche Nanostrukturen oder Nano-Wellenleiter können mit dem Licht in Resonanz treten und dadurch bestimmte Lichteigenschaften wie Phase, Polarisation und Ausbreitung des Lichts verändern, wodurch die Bildung von Lichtwellen mit bisher unerreichter Genauigkeit ermöglicht wird. Die Größe der Nanostrukturen oder Nano-Wellenleiter ist kleiner als die Wellenlänge des auf die optische Meta-Oberfläche auftreffenden Lichts. Die Nanostrukturen oder Nano-Wellenleiter sind so konfiguriert, dass sie die Eigenschaften des auf die optische Meta-Oberfläche auftreffenden Lichts verändern. Eine optische Meta-Oberfläche weist Ähnlichkeiten mit frequenzselektiven Oberflächen und kontrastreichen Gittern auf. Die Nanostrukturen oder Nano-Wellenleiter können je nach Strukturform eine Größe im Bereich von etwa 1 nm bis etwa 100 nm haben. Sie können eine Phasenverschiebung des Lichts von bis zu zwei π. Die mikroskopische Oberflächenstruktur ist so ausgelegt, dass eine gewünschte makroskopische Wellenfrontzusammensetzung für das die Struktur passierende Licht erreicht wird.
  • Peripherie-Teile
  • Als Peripherieteile können alle Teile bezeichnet werden, insbesondere mechanische Teile, die zur Unterbringung des LIDAR-Sensorsystems, zum Schutz des LIDAR-Sensorsystems vor äußeren Einflüssen (z.B. Feuchtigkeit, Staub, Temperatur, etc.) und zur Befestigung an dem Gerät, das das LIDAR-System nutzen soll (z.B. PKW, LKW, Drohnen, Fahrzeuge oder allgemein alle Arten von Land-, Wasser- oder Luftfahrzeugen) dienen.
  • Periphere Teile können Gehäuse, wie Scheinwerfer oder andere Fahrzeugbeleuchtungsteile, Behälter, Kappen, Fenster, Rahmen, Reinigungsvorrichtungen (insbesondere für Fenster) usw. umfassen. Das LIDAR-Sensorsystem kann eine integrale Einheit mit einem Fahrzeugscheinwerfer oder Frontlicht sein.
  • Pixelierung
  • Im Zusammenhang mit der vorliegenden Anwendung kann der Begriff „Pixelierung“ verwendet werden, um einen Effekt zu beschreiben, der mit der Auflösung, z.B. eines Bildes, verbunden ist. „Pixelierung“ kann ein Effekt einer niedrigen Auflösung, z.B. eines Bildes, sein, der zu unnatürlichen Erscheinungen führen kann, wie z.B. scharfe Kanten bei einem gekrümmten Objekt und diagonale Linien.
  • Prozessor
  • Ein Prozessor ist eine elektronische Schaltung, die Mehrzweckprozesse auf der Grundlage binärer Dateneingaben ausführt. Im Besonderen sind Mikroprozessoren Verarbeitungseinheiten, die auf einer einzigen integrierten Schaltung (IC) basieren. Im Allgemeinen empfängt ein Prozessor binäre Daten, die entsprechend den in einem Speicherblock des Prozessors gespeicherten Anweisungen verarbeitet werden können, und liefert über seine Schnittstellen binäre Ergebnisse als Ausgaben.
  • Zuverlässige Komponenten und Module
  • Einige LIDAR-basierte Geschäftsmodelle können sich mit Themen befassen, die mit zuverlässigen Komponenten und Modulen zu tun haben, z.B. mit dem Design und der Herstellung von Komponenten und Modulen (z.B. Lichtquellenmodule). Zuverlässige Komponenten und Module können ferner zuverlässige Montageverfahren umfassen, die u.a. eine präzise Ausrichtung und stabile Montage von Komponenten sowie die Kalibrierung und Funktionsprüfung von Komponenten und Modulen gewährleisten. Darüber hinaus werden solche Komponenten- und Moduldesigns bevorzugt, die robuste, kompakte und skalierbare Produkte ermöglichen und die kosteneffizient und in einer Vielzahl von Umgebungen einsetzbar sind, wie z.B. in einem weiten Temperaturbereich (z.B. -40°C bis +125°C).
  • Projiziertes Infrarot-Lichtmuster
  • Im Zusammenhang mit der vorliegenden Anwendung kann der Begriff „projiziertes Infrarot-Lichtmuster“ verwendet werden, um eine Anordnung von Lichtelementen (z.B. Lichtlinien oder Lichtpunkte, wie z.B. Laserlinien oder -punkte) zu beschreiben, die eine Struktur (z.B. eine Periodizität) in mindestens einer Richtung (z.B. in mindestens einer Dimension) aufweisen. Ein projiziertes Infrarot-Lichtmuster kann z.B. ein Gitter aus vertikalen Linien oder ein Gitter aus Punkten sein. Ein Muster im Zusammenhang mit der vorliegenden Anwendung kann eine regelmäßige (z.B. periodische) Struktur haben, z.B. mit einer periodischen Wiederholung desselben Lichtelements, oder ein Muster kann eine unregelmäßige (z.B. nichtperiodische) Struktur haben. Ein projiziertes Muster kann ein eindimensionales Muster sein, z.B. ein Muster mit einer Struktur oder einer Periodizität entlang einer Richtung (z.B. entlang einer Dimension). Ein Gitter aus vertikalen Linien kann ein Beispiel für ein eindimensionales Muster sein. Alternativ dazu kann ein projiziertes Muster ein zweidimensionales Muster sein, d.h. ein Muster mit einer Struktur oder einer Periodizität entlang zweier Richtungen (z.B. entlang zweier Dimensionen, z.B. senkrecht zueinander). Ein Punktmuster, wie z.B. ein Punktgitter oder ein zu einem QR-Code ähnliches Muster, oder ein Bild oder ein Logo können Beispiele für zweidimensionale Muster sein.
  • Zuverlässiges LIDAR-Sensorsystem
  • Einige LIDAR-basierte Geschäftsmodelle können sich mit Themen befassen, die mit zuverlässigen Sensorsystemen zu tun haben, z.B. mit der Entwicklung und Herstellung eines kompletten LIDAR-Sensorsystems. Zuverlässige LIDAR-Sensorsysteme umfassen ferner zuverlässige Herstellungsverfahren, die u.a. eine präzise Ausrichtung und stabile Montage von Komponenten und/oder Modulen sowie die Kalibrierung und Funktionsprüfung von Komponenten und Modulen gewährleisten. Bevorzugt werden Sensorkonstruktionen, die robuste, kompakte und skalierbare Produkte ermöglichen und die kosteneffizient und in einer Vielzahl von Umgebungen, wie z.B. einem weiten Temperaturbereich (z.B. -40°C bis +125°C), einsetzbar sind. Zuverlässige Sensorsysteme sind so konzipiert, dass sie 3D-Punktwolkendaten mit hoher Winkelauflösung, hoher Genauigkeit der Messwerte und hohem Signal-Rausch-Verhältnis (SNR) liefern. 3D-Punktwerte können entweder als ASCII-Punktdateien oder in einem LAS-Format (Laser File Format) geliefert werden.
  • Darüber hinaus kann ein zuverlässiges Sensorsystem verschiedene Schnittstellen umfassen, z.B. Kommunikationsschnittstellen zum Austausch von Daten und Signalen für Sensorfusionsfunktionen unter Einbeziehung anderer Sensorsysteme, wie z.B. andere LIDAR-Sensoren, RADAR-Sensoren, Ultraschallsensoren, Kameras, etc. Darüber hinaus kann die Zuverlässigkeit durch Software-Upload- und -Download-Funktionen weiter erhöht werden, die es erlauben, im LIDAR-Sensorsystem gespeicherte Daten auszulesen, aber auch neue oder aktualisierte Software-Versionen hochzuladen.
  • Abtastsignal und Verfahren zum Abtasten eines Abtastfeldes
  • Abtastsignal bezeichnet im Allgemeinen das Signal (und seine Eigenschaften), das zur Abtastung eines Abtastfeldes verwendet wird. Im Falle eines LIDAR-Abtastsignals wird eine Laserquelle verwendet, die so konfiguriert werden kann, dass sie Licht mit einer breiten Palette von Eigenschaften emittiert. Im Allgemeinen kann das Laserlicht auf kontinuierliche Weise (einschließlich Modulationen oder Anpassungen von Wellenlänge, Phase, Amplitude, Frequenz, Polarisation usw.) oder auf gepulste Weise (einschließlich Modulationen oder Anpassungen von Pulsbreite, Pulsform, Pulsabstand, Wellenlänge usw.) emittiert werden.
  • Solche Modulationen oder Anpassungen können in einer vordefinierten, deterministischen Weise oder in einer zufälligen oder stochastischen Weise durchgeführt werden. Es kann notwendig sein, eine Abtastrate zu verwenden, die höher als das Zweifache der höchsten Frequenz eines Signals (Nyquist-Shannon-Sampling Theorem) ist, um Aliasing-Artefakte zu vermeiden. Neben der Lichtquelle selbst kann es zusätzliche nachgeschaltete optische Elemente geben, die zur Übertragung des Abtastsignals in das Messfeld verwendet werden können. Solche optischen Elemente können mechanische Lösungen wie rotierende Spiegel, oszillierende Spiegel, MEMS-Vorrichtungen, digitale Spiegelvorrichtungen (Digital Mirror Devices, DMD) usw. sowie nicht-mechanische Lösungen wie optische Phased Arrays (OPA) oder andere Vorrichtungen umfassen, bei denen die Lichtemission dynamisch gesteuert und/oder strukturiert werden kann, einschließlich Phasenmodulatoren, Phasenschieber, Projektionsvorrichtungen, Flüssigkristallelemente (LCD) usw. Laser-Emitter und optische Elemente können in Bezug auf ihren Abstand und ihre Ausrichtung bewegt, gekippt oder anderweitig verschoben und/oder moduliert werden.
  • Abtastendes LIDAR-Sensorsystem
  • Ein LIDAR-Sensorsystem, bei dem die Winkelinformationen gewonnen werden, indem ein beweglicher Spiegel zum Scannen (d.h. winkelförmiges Aussenden) des Laserstrahls über das Sichtfeld (FOV) verwendet wird, oder eine andere Technik, um einen Laserstrahl über das FOV zu scannen, wird als scannendes LIDAR-Sensorsystem bezeichnet.
  • Sensor / Sensor-Pixel
  • Ein Sensor im Zusammenhang mit dieser Offenlegung umfasst ein oder mehrere Sensorpixel (die auch als Pixel bezeichnet werden können). Jedes Sensorpixel umfasst genau eine Fotodiode. Die Sensorpixel können alle die gleiche Form oder unterschiedliche Formen haben. Die Sensorpixel können alle den gleichen Abstand zu ihren jeweiligen Nachbarn oder unterschiedliche Abstände haben. Die Sensorpixel können alle die gleiche Orientierung im Raum oder eine unterschiedliche Orientierung im Raum haben. Die Sensorpixel können alle in einer Ebene oder in verschiedenen Ebenen oder anderen nicht ebenen Oberflächen angeordnet sein. Die Sensorpixel können die gleiche Materialkombination oder verschiedene Materialkombinationen enthalten. Die Sensorpixel können alle die gleiche Oberflächenstruktur oder unterschiedliche Oberflächenstrukturen aufweisen. Die Sensorpixel können in Gruppen angeordnet und/oder verbunden sein.
  • Im Allgemeinen kann jedes Sensorpixel eine beliebige Form haben. Die Sensorpixel können alle die gleiche Größe oder unterschiedliche Größen haben. Im Allgemeinen kann jedes Sensorpixel eine willkürliche Größe haben. Außerdem können die Sensorpixel alle eine Fotodiode desselben Fotodiodentyps oder verschiedener Fotodiodentypen enthalten.
  • Ein Fotodiodentyp kann durch eines oder mehrere der folgenden Merkmale gekennzeichnet sein: Größe der Fotodiode; Empfindlichkeit der Fotodiode hinsichtlich der Umwandlung elektromagnetischer Strahlung in elektrische Signale (die Änderung der Empfindlichkeit kann durch das Anlegen verschiedener Sperrvorspannungen verursacht werden); Empfindlichkeit der Fotodiode hinsichtlich der Lichtwellenlängen; Spannungsklasse der Fotodiode; Struktur der Fotodiode (z.B. Pin-Fotodiode, Lawinenfotodiode oder Einzelphotonen-Lawinenfotodiode); und Material(ien) der Fotodiode.
  • Die Sensorpixel können so konfiguriert werden, dass sie in funktionaler Beziehung zu Farbfilterelementen und/oder optischen Komponenten stehen.
  • Sensoren
  • Sensoren sind Geräte, Module oder Subsysteme, deren Zweck es ist, Ereignisse oder Veränderungen in ihrer Umgebung zu erkennen und die Informationen an andere Elektronik, häufig einen Computerprozessor, zu senden. Heutzutage steht eine breite Palette von Sensoren für alle Arten von Messzwecken zur Verfügung, z.B. für die Messung von Berührung, Temperatur, Feuchtigkeit, Luftdruck und -strömung, elektromagnetischer Strahlung, toxischen Substanzen und dergleichen. Mit anderen Worten: Ein Sensor kann eine elektronische Komponente, ein Modul oder ein Subsystem sein, das Ereignisse oder Änderungen der Energieformen in seiner physikalischen Umgebung (wie Bewegung, Licht, Temperatur, Schall usw.) erfasst und die Informationen zur Verarbeitung an andere Elektronik, wie einen Computer, sendet.
  • Sensoren können verwendet werden, um resistive, kapazitive, induktive, magnetische, optische oder chemische Eigenschaften zu messen.
  • Zu den Sensoren gehören Kamerasensoren, zum Beispiel CCD- oder CMOS-Chips, LIDAR-Sensoren für Messungen im infraroten Wellenlängenbereich, Radarsensoren und akustische Sensoren für Messungen im Infraschall-, Hör- und Ultraschallfrequenzbereich. Ultraschall ist Strahlung mit einer Frequenz über 20 kHz.
  • Sensoren können infrarotempfindlich sein und zum Beispiel die Anwesenheit und den Aufenthaltsort von Menschen oder Tieren messen.
  • Die Sensoren können zu einem Netzwerk von Sensoren gruppiert werden. Ein Fahrzeug kann eine Vielzahl von Sensoren verwenden, einschließlich Kamerasensoren, LIDAR-Sensorvorrichtungen, RADAR, akustische Sensorsysteme und ähnliches. Diese Sensoren können innerhalb oder außerhalb eines Fahrzeugs an verschiedenen Positionen angebracht werden (Dach, Front, Heck, Seite, Ecke, unten, innerhalb eines Scheinwerfers oder einer anderen Beleuchtungseinheit) und können darüber hinaus ein Sensornetzwerk aufbauen, das über einen Hub oder mehrere Sub-Hubs und/oder über die elektronische Steuereinheit (ECU) des Fahrzeugs kommunizieren kann.
  • Sensoren können direkt oder indirekt an Geräte zur Datenspeicherung, Datenverarbeitung und Datenkommunikation angeschlossen werden.
  • Sensoren in Kameras können an ein CCTV (Closed Circuit Television) angeschlossen werden. Lichtsensoren können die Menge und Ausrichtung des von anderen Objekten reflektierten Lichts messen (Reflexionsindex).
  • Abtastfeld
  • Der Begriff Sensorfeld beschreibt die Umgebung eines Sensorsystems, in der Objekte oder beliebige andere Inhalte erkannt werden können, sowie deren physikalische oder chemische Eigenschaften (oder deren Veränderungen). Im Falle eines LIDAR-Sensorsystems beschreibt er ein Raumwinkelvolumen, in das Licht von der LIDAR-Lichtquelle (FOI) emittiert wird und von dem Licht, das von einem Objekt reflektiert oder gestreut wurde, vom LIDAR-Detektor (FOV) empfangen werden kann. Ein LIDAR-Erfassungsfeld kann zum Beispiel eine Fahrbahn oder die Nähe einer Fahrbahn in der Nähe eines Fahrzeugs, aber auch das Innere eines Fahrzeugs umfassen. Bei anderen Sensortypen kann das Erfassungsfeld die Luft um den Sensor oder einige Objekte in direktem Kontakt mit dem Sensor beschreiben.
  • Sensor-Optik
  • Sensoroptik bezeichnet alle Arten von optischen Elementen, die in einem LIDAR-Sensorsystem verwendet werden können, um dessen Funktion zu erleichtern oder zu verbessern. Solche optischen Elemente können z.B. Linsen oder Sätze von Linsen, Filter, Diffusoren, Spiegel, Reflektoren, Lichtleiter, diffraktive optische Elemente (DOE), holographische optische Elemente und allgemein alle Arten von optischen Elementen umfassen, die Licht (oder elektromagnetische Strahlung) durch Brechung, Beugung, Reflexion, Transmission, Absorption, Streuung usw. manipulieren können. Sensoroptik kann sich auf optische Elemente beziehen, die sich auf die Lichtquelle, die Strahlführungseinheit oder die Detektoreinheit beziehen. Laserstrahler und optische Elemente können in Bezug auf ihren Abstand und ihre Ausrichtung bewegt, gekippt oder anderweitig verschoben und/oder moduliert werden.
  • Optimierung von Sensorsystemen
  • Einige LIDAR-bezogene Geschäftsmodelle können sich mit Methoden zur Optimierung von Sensorsystemen befassen. Die Optimierung von Sensorsystemen kann sich auf eine breite Palette von Methoden, Funktionen oder Geräten stützen, darunter z.B. Computersysteme mit künstlicher Intelligenz, Sensorfusion (unter Verwendung von Daten und Signalen von anderen LIDAR-Sensoren, RADAR-Sensoren, Ultraschallsensoren, Kameras, Videostreams usw.) sowie Software-Upload- und Download-Funktionalitäten (z.B. zu Aktualisierungszwecken). Die Optimierung von Sensorsystemen kann darüber hinaus persönliche Daten eines Fahrzeugnutzers nutzen, z.B. hinsichtlich Alter, Geschlecht, Fitnessniveau, vorhandener Führerscheine (PKW, LKW) und Fahrerfahrungen (Fahrzeugquergewicht, Anzahl der Fahrzeugachsen, Anhänger, Pferdestärken, Frontantrieb / Hinterradantrieb). Persönliche Daten können darüber hinaus weitere Angaben zur Fahrpraxis (z.B. Anfängerniveau, Erfahrungsniveau, Niveau des Berufskraftfahrers) und/oder zu Fahrpraxis auf der Grundlage von Daten wie z.B. durchschnittliche Kilometerleistung pro Jahr, Erfahrung für bestimmte Straßenklassen, Straßenumgebungen oder Fahrbedingungen (z.B. Autobahn, Bergstraßen, Geländefahrbahn, Höhenlage, Brücken, Tunnel, Rückwärtsfahren, Parken usw.) sowie Erfahrungen mit bestimmten Wetterbedingungen oder anderen relevanten Bedingungen (Schnee, Eis, Nebel, Tag/Nacht, Schneereifen, Schneeketten usw.) enthalten.
  • Personenbezogene Daten können ferner Informationen über frühere Unfälle, Versicherungspolicen, Warnfahrausweise, Polizeiberichte, Einträge in Verkehrszentralregister (z.B. Flensburg in Deutschland) sowie Daten aus Biofeedbacksystemen, anderen gesundheitsbezogenen Systemen (z.B. Herzschrittmacher) und andere Daten (z.B. über Lenk- und Pausenzeiten, Höhe des Alkoholkonsums usw.) umfassen.
  • Persönliche Daten können in Care-Sharing-Szenarien besonders relevant sein und können Informationen über die beabsichtigte Fahrt (Startort, Zielort, Wochentag, Anzahl der Fahrgäste), die Art der Beladung (nur Fahrgäste, Güter, Tiere, gefährliche Güter, schwere Ladung, große Ladung usw.) und persönliche Präferenzen (zeitoptimiertes Fahren, sicherheitsoptimiertes Fahren usw.) enthalten. Persönliche Daten können über Smartphone-Verbindungen (z.B. basierend auf Bluetooth, WiFi, LiFi, etc.) übermittelt werden. Smartphones oder vergleichbare mobile Geräte können darüber hinaus als Messwerkzeuge (z.B. Umgebungslicht, Navigationsdaten, Verkehrsdichte, etc.) und/oder als Gerät, das als Assistent, Entscheidungshilfe o.ä. eingesetzt werden kann, genutzt werden.
  • Signal-Modulation
  • Im Zusammenhang mit der vorliegenden Anwendung kann der Begriff „Signalmodulation“ (auch als „elektrische Modulation“ bezeichnet) verwendet werden, um eine Modulation eines Signals zur Kodierung von Daten in einem solchen Signal (z.B. ein Lichtsignal oder ein elektrisches Signal, z.B. ein LIDAR-Signal) zu beschreiben. Zum Beispiel kann ein Lichtsignal (z.B. ein Lichtpuls/Lichtimpuls) elektrisch so moduliert werden, dass das Lichtsignal Daten oder Informationen trägt oder überträgt. Zur Veranschaulichung: Ein elektrisch moduliertes Lichtsignal kann eine Folge von Lichtpulsen enthalten, die (z.B. zeitlich beabstandet) so angeordnet sind, dass Daten entsprechend der Anordnung der Lichtpulse extrahiert oder interpretiert werden können. Analog dazu kann der Begriff „Signaldemodulation“ (auch als „elektrische Demodulation“ bezeichnet) verwendet werden, um eine Dekodierung von Daten aus einem Signal (z.B. aus einem Lichtsignal, wie z.B. einer Folge von Lichtpulsen) zu beschreiben.
  • Virtuelle Karte
  • Eine digitale Karte ist eine Sammlung von Daten, die verwendet werden können, um zu einem virtuellen Bild formatiert zu werden. Die primäre Funktion einer digitalen Karte besteht darin, genaue Darstellungen von gemessenen Datenwerten zu liefern. Die digitale Karte ermöglicht auch die Berechnung der geometrischen Abstände von einem Objekt, wie es durch seinen Datensatz dargestellt wird, zu einem anderen Objekt. Eine digitale Karte kann auch als virtuelle Karte bezeichnet werden.
  • Fahrzeug
  • Ein Fahrzeug kann jedes Objekt oder Gerät sein, das entweder mit einem LIDAR-Sensorsystem ausgestattet ist und/oder mit einem LIDAR-Sensorsystem kommuniziert. Ein Fahrzeug kann insbesondere sein: Kraftfahrzeug, fliegendes Fahrzeug, alle anderen sich bewegenden Fahrzeuge, ortsfeste Objekte, Gebäude, Decken, Textilien, Verkehrsleiteinrichtungen,...
  • LISTE DER ABKÜRZUNGEN
  • ABS = Anti-Blockier-Bremssysteme
    ACV = Winkelförmiges Sichtfeld der Kamera
    ACK = Bestätigung
    ADAS = Fortschrittliche Fahrer-Assistenzsysteme
    ADB = Adaptive Fernlichtsysteme
    ADC = Analog-Digital-Wandler
    ADR = Automatische Diodenrückstellung
    AGV = Automatisch geführte Fahrzeuge
    KI = Künstliche Intelligenz
    APD = Lawinen-Fotodioden
    API = Schnittstelle zur Anwendungsprogrammierung
    APP = Anwendungssoftware, insbesondere wie sie von einem
    Benutzer auf ein mobiles Gerät
    AR = Erweiterte Realität
    ASCII = Amerikanischer Standard-Code für den Informationsaus-
    tausch
    ASIL = Integritätsgrad der Fahrzeugsicherheit
    ASIC = Anwendungsspezifischer integrierter Schaltkreis
    ASSP = Anwendungsspezifisches Standardprodukt
    AV = Autonomes Fahrzeug
    BCU = Bord-Steuerungssystem
    C2C = Auto-zu-Auto
    C2X = Car-to-Infrastructure oder Car-to-Environment
    CCD = Ladungsgekoppeltes Gerät
    CCTV = Videoüberwachung
    CD = Compact Disc
    CD = Kollisionserkennung
    CDe = Rechengerät
    CDMA = Code Division Mehrfachzugriff
    CDS = Kamera-Datensatz
    CdTe = Kadmiumtellurid
    CFD = Diskriminator für konstante Fraktionen
    CIS = CMOS-Bildsensor
    CLVRM = Kamera-LIDAR-Beziehungs-Matrix
    CML = Logik im Strommodus
    CMOS = Komplementärer Metall-Oxid-Halbleiter
    CMYW = Cyan, Magenta, Gelb und Weiß
    CoB = Chip an Bord
    CPC = Zusammengesetzte parabolische Konzentratoren
    CRC = Zyklische Redundanzprüfung
    CS = Komprimierte Abtastung
    CSMA = Carrier Sense Mehrfachzugriff
    CSPACVM = Kamera-Sensor-Pixel-ACV-Beziehungs-Matrix
    CU = Kommunikationseinheit / Daten / Gerät
    CYMG = Cyan, Gelb, Grün und Magenta
    DCDS = Differenzierter Kamera-Datensatz
    DCF = Verteilte Koordinierungsfunktion
    DCR = Dunkelheitszählrate
    DCT = Diskrete Cosinus-Transformation
    DIFS = Verteilte Koordination Interframe-Abstand
    DLP = Digitale Lichtverarbeitung
    DMD = Digitale Spiegelgeräte
    DNL = Tiefes neuronales Lernen
    DNN = Tiefe Neuronale Netzwerke
    DOE = Diffraktive optische Elemente
    DRAM = Dynamischer Speicher mit wahlfreiem Zugriff
    DRL = Tagfahrlicht
    DS = Fahr-Szenario
    DS = Fahrstatus
    DSP = Digitale Signalverarbeitung
    DSRC = Dedizierte Nahbereichskommunikation
    DSS = Fahrsensor-Szenario
    dTOF = Direkter TOF
    DVD = Digitale Video-Disc
    ECU = Elektronisches Steuergerät / Fahrzeugsteuergerät
    EIC = Elektronik-IC
    ES = Umgebungs-Einstellungen
    ESC = Elektronische Stabilitätskontrollen
    FAC = Schnelle Achsenkollimation
    FEC = Vorwärts-Fehlerkorrektur
    FET = Feldeffekt-Transistor
    FFT = Schnelle Fourier-Transformation
    FIFO = First-In-First-Out
    FMTA = Kraftfahrt-Bundesamt
    FOI = Bereich der Illumination
    FOE = Emissionsfeld
    FOV = Sichtfeld
    FPGA = Feldprogrammierbares Gate-Array
    FWHM = Volle Breite bei halber Maximalbreite
    GNSS = Globales Satellitennavigationssystem
    GPS = Global-Positionierungs-System
    GSM = Allgemeine Einstellungsmatrix
    GUI = Grafische Benutzeroberfläche
    HMAC = Authentifizierungscode für verschlüsselte Hash-Nach richten
    HMI = Mensch-Maschine-Interaktion
    HOE = Holographisch-optische Elemente
    HUD = Head-up-Anzeige
    HVAC = Heizung, Lüftung und Klimatisierung
    IC = Integrierter Schaltkreis
    ID = Identifizierung
    IFS = Interframe-Raum
    IMU = Trägheitsmesseinheit (System)
    IN = Intelligentes Netzwerk
    loT = Internet der Dinge
    IR = Infrarot-Strahlung
    ITO = Indium-Zinn-Oxid
    iTOF = Indirekte TOF
    LaaS = Beleuchtung als Dienstleistung
    LADAR = Laser-Erkennung und Abstandsmessung
    LARP = Laseraktivierter Fernleuchtstoff
    LAS = Laser-Dateiformat
    LCC = Steuerung logischer Verknüpfungen
    LCD = Flüssigkristall-Anzeige
    LCM = Flüssigkristall-Meta-Oberfläche
    LCM = Modul für logische Kohärenz
    LCoS = Flüssigkristall auf Silizium
    LCPG = Flüssigkristall-Polarisationsgitter
    LDS = LIDAR-Datensatz
    LED = Lichtemittierende Dioden
    LEDDAR = Erkennung und Reichweite von Leuchtdioden
    LIDAR = Lichterkennung und Entfernungsmessung
    LiFi = Leichte Wiedergabetreue
    LLaaS = LIDAR Licht als Dienstleistung
    LOS = Sichtverbindung
    LPaaS = LiDAR-Plattform als Dienstleistung
    LSC = Standort Selektive Kategorien
    LSPALVM = LIDAR-Sensor-Pixel-ALV-Beziehungs-Matrix
    LTE = Langfristige Entwicklung
    M = Markierung
    MA = Aktive Markierung
    MaaS = Mobility-as-a-Service
    MAC = Medium Zugriffskontrolle
    MAR = Aktive Marker-Strahlung
    MD = Überwachungsgeräte
    MEMS = Mikro-Elektro-Mechanisches System
    ML = Maschinelles Lernen
    MLA = Mikrolinsen-Array
    MOSFET = Metall-Oxid-Halbleiter-Feldeffekttransistor
    MP = Passiver Marker
    MPE = Maximal zulässige Exposition
    MPPC = Multi-Pixel-Photonen-Zähler
    MPR = Rein reflektierender Marker
    MPRA = Passive Marker-Strahlung
    NFC = Kommunikation im Nahbereich
    NFU = Neuronale Prozessor-Einheiten
    NIR = Nah-Infrarot
    OFDM = Orthogonale Frequenzmultiplexierung
    OMs = Optische Metaflächen
    OOB = Out-of-Band
    OOK = Ein-Aus-Tastung
    OPA = Optische Phased Arrays
    OSI = Offene Systemverbindung
    OWC = Optische drahtlose Kommunikation
    PaaS = Plattform als Dienstleistung
    PAM = Puls-Amplituden-Modulation
    PBF = Wahrscheinlichkeitsfaktor
    PBS = Polarisierter Strahlteiler
    PC = Polykarbonat
    PCo = Leistungsaufnahme
    PCB = Gedruckte Leiterplatte
    PD = Fotodiode
    PDU = Protokoll-Dateneinheit
    PEDOT = Poly-3,4-ethylendioxythiophen
    PHY = Physikalische Schicht
    PIC = Photonik-IC
    PIN = Positiv Intrinsisch Negativ Diode
    PMMA = Polymethylmethacrylat
    PN = Pseudonoise
    PPF = Wahrscheinlichkeitsfaktor der Anwesenheit
    PPM = Puls-Lage-Modulation
    PW = Verarbeitungsleistung
    PWM = Pulsweiten-Modulation
    QR-Code = Schnellantwort-Code
    RADAR = Funkerkennung und -reichweite
    RAM = Speicher mit wahlfreiem Zugriff
    RAN = Funkzugangsnetze
    RF = Funkfrequenz
    RGB = Rot Grün Blau
    RGBE = rot, grün, blau und smaragdgrün
    RLE = Lauflängen-Kodierung
    ROM = Nur-Lese-Speicher
    SAC = Langsame Achsenkollimation
    SAE = Gesellschaft der Automobilingenieure
    SAS = Sensor-Einstellungseinstellungen
    SC = Sensor-Kombinationen
    SFM = Sensor-Funktionsmatrix
    SIFS = Kurzer Interframe-Abstand
    SIP = System im Paket
    SiPM = Silizium-Photovervielfacher
    Si-PIN = Silizium-Diode
    Si-PN = Silizium-pn-Diode
    SLM = Räumlicher Lichtmodulator
    SNR = Signal-Rausch-Verhältnis
    SOC = Systems-on-Chip
    SOI = Silizium auf Isolator
    SPAD = Einphotonen-Lawinendioden
    TaaS = Transport-as-a-Service
    TAC = Zeit-Analog-Wandler
    TC = Verkehrsbedingungen
    TDC = Zeit-zu-Digital-Konverter
    TDM = Karten zur Verkehrsdichte
    TDPM = Wahrscheinlichkeitskarten zur Verkehrsdichte
    TEM = Karten zu Verkehrsereignissen
    TIR = Totale Interne Reflexion
    TIA = Transimpedanz-Verstärker
    TOF = Flugzeit
    TPL = Gesamte Strombelastung
    TR = Verkehrsrelevanz (Wert/Faktor)
    TRM = Verkehrskarten
    TSV = Durch-Silizium-Via
    UAV = Unbemannte Luftfahrzeuge
    Ul = Benutzerschnittstelle
    UMTS = Universelles Mobiltelekommunikationssystem
    USB = Universeller serieller Bus
    UV = Ultraviolette Strahlung
    V21 = Fahrzeug-zu-Infrastruktur
    V2V = Fahrzeug-zu-Fahrzeug
    V2X = Fahrzeug-zu-Umwelt
    VCO = Fahrzeug-Steuerungsoptionen
    VCSEL = Oberflächenemittierender Laser mit vertikalem Resonator
    VECSEL = Vertikal-Außenkavität-Oberflächenemittierender Laser
    VIN = Fahrzeug-Identifikationsnummer
    VIS = Sichtbares Spektrum
    VLC = Kommunikation mit sichtbarem Licht
    VR = Virtuelle Realität
    VS = Fahrzeug-Sensorsystem
    VTD = Fahrzeug-Zieldaten
    WiFi = Kabellose Klangtreue
    WLAN = Drahtloses lokales Netzwerk
    XOR = exklusives ODER
    ZnS = Zinksulfid
    ZnSe = Zink-Selenid
    ZnO = Zinkoxid
    fC = Femto-Coulomb
    pC = Pico-Coulomb
    fps = Bilder pro Sekunde
    ms = Milli-Sekunden
    ns = Nano-Sekunden
    ps = Pikosekunden
    µs = Mikro-Sekunden
    d.h. = das heißt / mit anderen Worten
    z.B. = zum Beispiel
  • Bezugszeichenliste
  • 10
    LIDAR-Sensor-System
    20
    Kontrolliertes LIDAR-Sensorsystem
    30
    LIDAR-Sensor-Gerät
    40
    Erstes LIDAR-Erfassungssystem
    41
    Lichtscanner / Aktuator für Strahllenkung und -steuerung
    42
    Lichtquelle
    43
    Lichtquellen-Controller / Software
    50
    Zweites LIDAR-Erfassungssystem
    51
    Detektionsoptik / Aktuator für Strahllenkung und -steuerung
    52
    Sensor oder Sensorelement
    53
    Sensor-Steuerung
    60
    LIDAR-Datenverarbeitungssystem
    61
    Erweiterte Signalverarbeitung
    62
    Datenanalyse und Datenverarbeitung
    63
    Sensorfusion und andere Sensorfunktionen
    70
    Steuerungs- und Kommunikationssystem
    80
    Optik
    81
    Kamerasystem und Kamerasensoren
    82
    Austausch von Kameradaten und Signalen
    90
    LIDAR-Sensor-Verwaltungssystem
    92
    Grundlegende Signalverarbeitung
    100
    Beobachtete Umgebung und/oder Objekt
    110
    Informationen über beobachtete Umgebung und/oder Objekt
    120
    Emittiertes Licht und Kommunikation
    130
    Objekt reflektiertes Licht und Kommunikation
    140
    Zusätzliche Umgebungslicht/Strahlung
    150
    Andere Komponenten oder Software
    160
    Daten- und Signalaustausch
    210
    Fahrer (Lichtquelle / Strahllenkvorrichtung)
    220
    Steuergerät
    230
    Elektronisches Gerät
    240
    Detektor
    250
    Fenster
    260
    Lichtstrahl
    261
    Lichtstrahl
    262
    Lichtstrahl
    263
    Lichtstrahl
    264
    Lichtstrahl
    270
    Dynamische Blende
    270a
    Blendenelement
    270b
    Blendenelement
    280a
    FOI
    280b
    FOI
    290a
    Lichtleiter
    290b
    Lichtleiter
    410
    Optisches Element (Spiegel)
    420
    Gehäuse des LIDAR-Sensorsystems
    510
    Optisches Element (Lichtleiter)
    610
    Optisches Element
    710
    Verunreinigungs-Partikel
    720
    Detektor
    800
    System zur Erkennung und/oder Kommunikation mit einem Verkehrsteilnehmer repräsentierendes erstes Objekt
    802
    Verkehrsteilnehmer, dargestellt durch ein erstes Objekt
    820
    erstes Objekt
    821
    Abstandsmesseinheit (LIDAR-Sensorgerät 30)
    822
    erste Emissionseinheit (LIDAR-Sensorsystem mit einer LIDAR-Lichtquelle / Erstes LIDAR-Erfassungssystem 40)
    8221
    Signalimpuls
    8222
    emittierender Raum (FOV oder FOI)
    823
    Erkennungseinheit (LIDAR-Sensormodul / Zweite LIDAR-Erfassung System 50)
    824
    Steuergerät (Lichtsteuergerät)
    803, 804
    Verkehrsteilnehmer, dargestellt durch ein zweites Objekt
    830, 840
    Sekunden-Objekt
    831, 841
    Erfassungs- und Informationseinheit (LIDAR-Sensorsystem)
    832, 842
    Signalerzeugungsgerät (LIDAR-Lichtmodul 40)
    833, 843
    Detektor (LIDAR-Sensormodul 50)
    8331, 8431
    Akzeptanzwinkel
    834, 844
    Steuergerät (Lichtsteuergerät)
    930
    Kleidungsstück
    931
    Wellenleiter
    S1010
    Aussendung eines Signalimpulses, der dazu bestimmt ist, eine Ent fernung durch eine erste Emissionseinheit einer Entfernungsmes sungseinheit zu messen, die einem ersten Objekt zugeordnet ist
    S1020
    den Signalimpuls an einem zweiten Objekt reflektiert, das einen weiteren Verkehrsteilnehmer darstellt
    S1021
    Detektion des reflektierten Signals durch eine Detektionseinheit der Entfernungmessungseinheit und Bestimmung der Entfernung ba-sierend auf der gemessenen Laufzeit
    S1030
    Erfassung des von der ersten Sendeeinheit ausgesandten Signalpulses durch eine Erfassungs- und Informationseinheit, die dem zweiten Objekt zugeordnet ist
    S1031
    Ausgaben eines Informationssignals durch die Erfassungs- und Informationseinheit in Abhängigkeit vom Erkennungsergebnis
    1102
    Vielzahl von Energiespeicherschaltungen
    1104
    Vielzahl von Ausleseschaltungen
    1106
    SPAD-Signal
    1108
    TIA-Signal
    1202
    SPAD
    1204
    Fallende Flanke des SPAD-Signals
    1206
    SPAD-Signal
    1208
    Steigende Flanke des SPAD-Signals
    1210
    SPAD-Signal
    1212
    Serieller Widerstand
    1214
    Serieller Widerstand
    1300
    Detektor-Diagramm
    1302
    Zählsignal
    1310
    Detektor-Diagramm
    1312
    Zählsignal
    1320
    Detektor-Diagramm
    1322
    Zählsignal
    1330
    Detektor-Diagramm
    1332
    Zählsignal
    1402
    Ladungsdiagramm
    1404
    Zeit-Tor
    1406
    Laserpuls
    dn
    Entfernung
    1500
    Gedruckte Leiterplatte
    1502
    TIA-Chip
    1504
    ADC-Schaltung
    1506
    Bonddraht
    1508
    PCB-Spur
    1510
    TIA-Chip
    1512
    TDC-Chip
    1600
    Wandler-Verstärker
    1602
    Start_N-Signal
    1604
    TIA-Auslesesignal RdTIA
    1606
    Analoges TIA-Signal analogTIA
    1608
    Abtast-Halte-Signal S&H_N
    1610
    Rücksetzsignal RES_1
    M1
    MOSFET zurücksetzen
    M2
    MOSFET starten
    M7
    Bildgebender MOSFET
    M8
    Sonden-MOSFET
    M9
    Auslese-MOSFET
    C3
    Erster Speicherkondensator
    C4
    zweiter Speicherkondensator
    VSPAD
    SPAD-Potential
    1702
    Erstmals mit Analogwandler
    1704
    ToF Auslesesignal RdToF
    1706
    Analoges ToF-Signal analogToF
    M1
    a weiterer zurückgesetzter MOSFET
    M2a
    Ereignis MOSFET
    M3a
    MOSFET mit erster Stromquelle
    M4a
    MOSFET mit erster Stromquelle
    M5a
    TAC-Start MOSFET
    M6a
    Weitere Sonde MOSFET
    M7a
    ToF-Auslese-MOSFET
    C1
    Dritter Kondensator
    C2
    Vierter Kondensator
    1802
    Erstmals mit Analogwandler
    M1b
    MOSFET zurücksetzen
    M3b
    Erster Umrichter-MOSFET
    M4b
    Zweiter Umrichter-MOSFET
    M5b
    Rampe MOSFET
    1902
    Erster Ereignis-Detektor
    1904
    Zweiter Ereignis-Detektor
    1906
    Dritter Ereignis-Detektor
    1908
    Vierter Ereignis-Detektor
    1910
    Fünfter Ereignis-Detektor
    1912
    Erste Zeitschaltung
    1914
    Zweite Zeitschaltung
    1916
    Dritte Zeitschaltung
    1918
    Vierter Zeitgeberkreis
    1920
    Fünfter Zeitschaltkreis
    1922
    Erste Abtast- und Halteschaltung
    1924
    Zweite Abtast- und Halteschaltung
    1926
    Dritte Abtast- und Halteschaltung
    1928
    Vierte Abtast- und Halteschaltung
    1930
    Fünfte Abtast- und Halteschaltung
    1932
    Erster Analog-Digital-Wandler
    1934
    Zweiter Analog-Digital-Wandler
    1936
    Dritter Analog-Digital-Wandler
    1938
    Vierter Analog-Digital-Wandler
    1940
    Fünfter Analog-Digital-Wandler
    1942
    Eine oder mehrere Signalleitungen
    1944
    Erstes Trigger-Signal
    1946
    Zweites Trigger-Signal
    1948
    Drittes Trigger-Signal
    1950
    Viertes Trigger-Signal
    1952
    Fünftes Auslösesignal
    1954
    Eine oder mehrere Ausgabezeilen
    1956
    Erster digitaler ToF-Wert
    1958
    Digitaler Spannungswert
    1960
    Eine oder mehrere weitere Ausgabezeilen
    1962
    Ausgangssignal der ersten Zeitgeberschaltung
    1964
    Zweiter digitaler ToF-Wert
    1966
    Zweiter digitaler Spannungswert
    1968
    Ausgangssignal der zweiten Zeitgeberschaltung
    1970
    Dritter digitaler ToF-Wert
    1972
    Dritter digitaler Spannungswert
    1974
    Ausgangssignal der dritten Zeitgeberschaltung
    1976
    Vierter digitaler ToF-Wert
    1978
    Vierter digitaler Spannungswert
    1980
    Viertes Ausgangssignal der Zeitgeberschaltung
    1982
    Fünfter digitaler ToF-Wert
    1984
    Fünfter digitaler Spannungswert
    1986
    Kommunikationsverbindung
    2002
    Haupt-Ereignisdetektor
    2004
    Haupt-Auslösesignal
    2006
    Hauptzeitgeber-Schaltkreis
    2008
    Haupt-Abtast- und Halteschaltung
    2010
    Haupt-Analog-Digital-Wandler
    2012
    Digitaler Spannungswert
    2016
    Eine oder mehrere weitere Ausgabezeilen
    2018
    Unterscheidungsmerkmal
    2020
    Differenziertes SPAD-Signal
    2022
    Hochauflösender Ereignis-Detektor
    2024
    Zeitgeberschaltung mit hoher Auflösung
    2026
    Hochauflösende Abtast- und Halteschaltung
    2028
    Analog-Digital-Wandler mit hoher Auflösung
    2030
    Digitaler Spannungswert mit hoher Auflösung
    2034
    Eine oder mehrere weitere Ausgabezeilen
    2036
    Eine oder mehrere Ausgabezeilen
    2038
    Hochauflösendes Triggersignal
    2040
    Digitaler differenzierter ToF-Wert
    2042
    Zweites Unterscheidungsmerkmal
    2044
    Zweites differenziertes SPAD-Signal
    2046
    Tal-Ereignis-Detektor
    2047
    Tal-Triggersignal
    2048
    Valley-Timer-Schaltung
    2050
    Tal-Abtast- und Halteschaltung
    2052
    Valley-Analog-Digital-Wandler
    2054
    Digitaler Talspannungswert
    2056
    Digitaler differenzierter Tal ToF-Wert
    2058
    Tal-Ereignis-Triggersignal
    2102
    OR-Tor
    2202
    Erster Multiplexer
    2302
    Zweiter Multiplexer
    2400
    Flussdiagramm
    2402
    Partieller Prozess
    2404
    Partieller Prozess
    2406
    Partieller Prozess
    2408
    Partieller Prozess
    2410
    Partieller Prozess
    2412
    Partieller Prozess
    2414
    Partieller Prozess
    2416
    Partieller Prozess
    2500
    Schaltungsarchitektur
    2502
    Abtastender Analog-Digital-Wandler
    2504
    Digitalisiertes TIA-Signal
    2506
    Zeitreihe der TIA-Spannungswerte
    2550
    Diagramm Energie vs. Zeit
    2552
    Wellenform
    2554
    Energie
    2556
    Zeit
    2558
    Lichtimpuls
    2560
    Symbol
    2562
    Symbol
    2564
    Symbol
    2566
    Zeitraum
    2602
    Sensor-Pixel
    2604
    Emittierter Lichtimpuls
    2606
    Schaltung zur Positionsmessung
    2608
    Strahlablenkung LoS-Daten
    2610
    Reflektierter Lichtimpuls
    2612
    SiPM-Detektoranordnung
    2614
    Kreis
    2616
    Zeilen-Multiplexer
    2618
    Spaltenmultiplexer
    2620
    Zeilenauswahlsignal
    2622
    Spaltenwahlsignal
    2624
    SiPM-Signal
    2626
    Verstärker
    2628
    Spannungssignal
    2630
    Analog-Digital-Wandler
    2632
    Digitalisierte Spannungswerte
    2634
    Oszillator
    2636
    Zeitbasis-Taktsignal
    2638
    3D-Punktwolke
    2640
    Zeilenauswahlzeile
    2642
    Spaltenauswahlzeile
    2700
    Teil-SiPM-Detektoranordnung
    2702
    Licht-(Laser-)Fleck
    2704
    Zeilenauswahlsignal
    2706
    Zeilenauswahlsignal
    2708
    Zeilenauswahlsignal
    2710
    Spaltenwahlsignal
    2712
    Spaltenwahlsignal
    2714
    Spaltenwahlsignal
    2716
    Ausgewähltes Sensor-Pixel
    2718
    Versorgungsspannung
    2720
    Sensor-Signal
    2800
    Teil-SiPM-Detektoranordnung
    2802
    Spaltenschalter
    2804
    Versorgungsspannungsleitung
    2806
    Zeile zum Auslesen der Spalte
    2808
    Auslesezeile der Sammlung
    2810
    Schalter zum Auslesen von Spalten
    2812
    Spaltenpixel-Schalter
    2814
    Schalter zum Auslesen der Spaltenpixel
    2900
    Erstes Laserleistungs-/Zeit-Diagramm 2900
    2902
    Emittierter Laserpulszug
    2904
    Emittierter Laserpuls
    2906
    Zweites Laserleistung/Zeit-Diagramm
    2908
    Empfangene Laserimpulsfolge
    2910
    Empfangener Laserpuls
    2912
    Kreuz-Korrelationsdiagramm
    2914
    Erste Kreuzkorrelationsfunktion
    2916
    Zweite Kreuzkorrelationsfunktion
    3000
    Kreuzkorrelationsmethode
    3002
    Partieller Prozess
    3004
    Partieller Prozess
    3006
    Partieller Prozess
    3008
    Partieller Prozess
    3010
    Partieller Prozess
    3012
    Partieller Prozess
    3014
    Partieller Prozess
    3100
    Signal-Energie/Zeit-Diagramm
    3102
    Sensor-Signal
    3104
    Empfindlichkeits-Warnschwelle
    3106
    Signalbegrenzungspegel
    3108
    Sensorsignal des ersten Teils
    3110
    Sensorsignal des zweiten Teils
    3200
    Flussdiagramm
    3202
    Partieller Prozess
    3204
    Partieller Prozess
    3206
    Partieller Prozess
    3208
    Partieller Prozess
    3210
    Partieller Prozess
    3212
    Partieller Prozess
    3214
    Partieller Prozess
    3300
    Konventionelles optisches System für ein LIDAR-Sensorsystem
    3302
    Zylinderlinse
    3304
    Pfeil
    3306
    Horizontale Sammellinse
    3400
    Optisches System für ein LIDAR-Sensorsystem
    3402
    Anordnung der Optik
    3404
    Anordnung der Abbildungsoptik
    3406
    Anordnung der Kollektoroptik
    3408
    Lichtstrahl
    3420
    Optisches System für ein LIDAR-Sensorsystem
    3500
    Draufsicht auf das optische System für ein LIDAR-Sensorsystem
    3502
    Dritte Lichtstrahlen
    3504
    Erste Lichtstrahlen
    3506
    Zweite Lichtstrahlen
    3600
    Seitenansicht des optischen Systems für ein LIDAR-Sensorsystem
    3700
    Draufsicht auf das optische System für ein LIDAR-Sensorsystem
    3702
    Anordnung der Optik
    3704
    Virtuelles Bild in horizontaler Ebene
    3706
    Seitenansicht des optischen Systems für ein LIDAR-Sensorsystem
    3710
    Optisches System zur dreidimensionalen Ansicht für ein LIDAR-Sensorsystem
    3720
    Optisches System zur dreidimensionalen Ansicht für ein LIDAR-Sensorsystem
    3722
    Anordnung der Freiformoptik
    3800
    Sensor-Teil
    3802
    Sensor-Pixel
    3804
    Lichtpunkt
    3806
    Kreis
    3808
    Zeilenauswahlsignal
    3810
    Zeilenauswahlsignal
    3812
    Zeilenauswahlsignal
    3814
    Spaltenwahlsignal
    3816
    Spaltenwahlsignal
    3818
    Spaltenwahlsignal
    3820
    Ausgewähltes Sensor-Pixel
    3822
    Versorgungsspannung
    3900
    Sensor-Teil
    3902
    Zeilenauswahlzeile
    3904
    Spaltenauswahlzeile
    3906
    Spaltenschalter
    3908
    Versorgungsspannung
    3910
    Versorgungsspannungsleitung
    3912
    Zeile zum Auslesen der Spalte
    3914
    Auslesezeile der Sammlung
    3916
    Schalter zum Auslesen von Spalten
    3918
    Spaltenpixel-Schalter
    3920
    Schalter zum Auslesen der Spaltenpixel
    4002
    Spaltenschalter MOSFET
    4004
    Spalten-Ausleseschalter MOSFET
    4006
    Spaltenpixel-Schalter MOSFET
    4008
    Spaltenpixel-Ausleseschalter MOSFET
    4100
    Sensor-Teil
    4102
    Erste Summenausgabe
    4104
    Koppelkondensator
    4106
    Zweite Summenausgabe
    4108
    Koppelwiderstand
    4200
    Aufgezeichnete Szene
    4202
    Region Zentrum
    4204
    Randbereich
    4300
    Aufgezeichnete Szene
    4302
    Erste Reihe
    4304
    Zweite Reihe
    4400
    Verfahren
    4402
    Partieller Prozess
    4404
    Partielles Verfahren
    4500
    Verfahren
    4502
    Partielles Verfahren
    4504
    Partielles Verfahren
    4600
    Teil des LIDAR-Sensorsystems
    4602
    Laser-Dioden
    4604
    Laserstrahlen
    4606
    Anordnung der Emitteroptik
    4608
    Beweglicher Spiegel
    4610
    Spalte des FOV
    4612
    FOV-Sensor-System
    4614
    Reihe FOV
    4700
    Diagramm
    4702
    Sperrvorspannung
    4704
    Multiplikation
    4706
    Charakteristische Kurve
    4708
    Kennlinie der ersten Region
    4710
    Kennlinie der zweiten Region
    4712
    Kennlinie der dritten Region
    4800
    Schaltkreis nach verschiedenen Ausführungsformen
    4802
    Pluralität der Sensor-Pixel
    4804
    Fotodiode
    4806
    Schaltung zur Pixelauswahl
    4808
    Gemeinsamer Knoten
    4810
    Ausleseschaltung
    4812
    Eingangs-Ausleseschaltung
    4814
    Ausgangs-Ausleseschaltung
    4816
    An die Eingangs-Ausleseschaltung angelegtes elektrisches Signal
    4818
    Gemeinsame Signalleitung
    4820
    Elektrische Variable, die an eine Ausgangs-Ausleseschaltung bereitgestellt wird
    4822
    Eingang für Sperrvorspannung
    4900
    Schaltkreis nach verschiedenen Ausführungsformen
    4902
    Widerstand RPD1
    4904
    Kondensator camp1
    4906
    Schottky-Diode D1
    4908
    Eingang für Unterdrückungsspannung
    4910
    Unterdrückungsspannung U(Amp1)
    4912
    Spannungsimpuls-Unterdrückungsspannung U(Amp1)
    4914
    Kursunterdrückungsspannung U(Amp1)
    4916
    Verstärker
    4918
    Invertierender Eingangsverstärker
    4920
    Nicht-invertierender Eingangsverstärker
    4922
    Erdpotential
    4924
    Rückkopplungs-Widerstand RFB
    4926
    Rückkopplungs-Kondensator CFB
    4928
    Ausgangsverstärker
    4930
    Ausgangsspannung UPD
    4932
    Zeit t
    5000
    Verfahren
    5002
    Partieller Prozess
    5004
    Partieller Prozess
    5100
    Optische Komponente für ein LIDAR-Sensorsystem
    5102
    Geräte-Ebene
    5104
    Ein oder mehrere elektronische Geräte
    5106
    Untere Verbindungsschicht
    5108
    Ein oder mehrere elektronische Kontakte
    5110
    Erste Fotodiode
    5112
    Ein oder mehrere Kontaktlöcher
    5114
    Zwischenverbindungs-/Geräteschicht
    5116
    Ein oder mehrere weitere elektronische Geräte
    5118
    Ein oder mehrere weitere elektronische Kontakte
    5120
    Zweite Fotodiode
    5200
    Optische Komponente für ein LIDAR-Sensorsystem
    5202
    Eine oder mehrere Mikrolinsen
    5204
    Füllstoff
    5206
    Filter-Schicht
    5208
    Obere (freiliegende) Oberfläche der Filterschicht
    5210
    Erster Pfeil
    5212
    Zweiter Pfeil
    5214
    Dritter Pfeil
    5250
    Wellenlänge/Übertragungsdiagramm
    5252
    Übertragungscharakteristik
    5300
    Optische Komponente für ein LIDAR-Sensorsystem
    5302
    Unterer Spiegel
    5304
    Oberer Spiegel
    5400
    Querschnittsansicht eines Sensors für ein LIDAR-Sensorsystem
    5500
    Draufsicht auf einen Sensor für ein LIDAR-Sensorsystem
    5502
    Rote-Pixel-Filterabschnitt
    5504
    Grünpixel-Filterabschnitt
    5506
    Blaupixel-Filterabschnitt
    5600
    Draufsicht auf einen Sensor für ein LIDAR-Sensorsystem
    5602
    Rechteck
    5700
    Draufsicht auf einen Sensor für ein LIDAR-Sensorsystem
    5702
    Rote-Pixel-Filterabschnitt
    5704
    Gelber oder orangefarbener Pixel-Filterabschnitt
    5800
    Optische Komponente für ein LIDAR-Sensorsystem
    5802
    Reflektorschicht
    5804
    Vierter Pfeil
    5806
    Fünfter Pfeil
    5808
    Mikromechanisch definierte IR-Absorberstruktur
    5900
    LIDAR-Sensor-System
    5902
    Laser-Quelle
    5904
    Laser-Pfad
    5906
    Erste optische Anordnung
    5908
    Zweite optische Anordnung
    5910
    Räumlicher Lichtmodulator
    5912
    Sichtfeld
    5914
    Regler für räumlichen Lichtmodulator
    5916
    Sensor des LIDAR-Systems
    5918
    Reflektierter Laser
    6000
    Optisches Stromnetz
    6002
    Optischer Leistungsgradient
    6004
    x-Achsen-Abstand
    6006
    y-Achsen-Abstand
    6008
    Pixel mit niedriger optischer Leistung
    6010
    Pixel mit hoher optischer Leistung
    6100
    Flüssigkristall-Vorrichtung
    6102
    Flüssigkristalle
    6104
    Optische Achse
    6106
    Angelegte Spannung
    6200
    Flüssigkristall-Vorrichtung
    6202
    Polarisationsfilter
    6204
    Ausgangspunkt
    6206
    Flüssigkristall
    6208
    Endpunkt
    6210
    Flüssigkristall-Orientierungen
    6302
    Nicht-normierte optische Leistungsverteilung
    6304
    Normalisierte optische Leistungsverteilung
    6306
    Abgeschwächte optische Leistungszone
    6308
    Dämpfungsschwelle
    6310
    Optische Leistung unterhalb der Schwelle
    6312
    Winkel-Achse
    6314
    Optische Leistungsachse
    6402
    Ungeformte optische Leistungsverteilung
    6404
    Geformte optische Leistungsverteilung
    6406
    Niedrigleistungs-Region
    6408
    Region mit hoher Leistung
    6410
    Geformter Teil
    6412
    Ungeformter Teil
    6502
    LIDAR-Fahrzeug
    6504
    Entfernung
    6600
    LIDAR-Sichtfeld
    6602
    Erstes Fahrzeug
    6604
    Zweites Fahrzeug
    6606
    Schaulustige
    6608
    Beschreibung
    6610
    Dämpfungszone
    6612
    Räumliche Lichtmodulator-Matrix
    6702
    Umgebungslicht
    6704
    Flugzeug-polarisiertes Licht
    6706
    Horizontale optische Achse
    6708
    Vertikale optische Achse
    6710
    Gewinkelte optische Achse
    6712
    Gewinkelte optische Achse
    6714
    Reflexionspunkt
    6800
    Teil des LIDAR-Sensorsystems
    6802
    Emittierter Lichtstrahl
    6804
    Transmitter-Optik
    6806
    Gescanntes Spaltenzielobjekt
    6808
    Reflektierter Lichtstrahl
    6810
    Empfänger-Fotodiodenanordnung
    6812
    Gescannte Zeilen Zielobjekt
    6814
    Multiplexer
    6816
    Fotodiodensignal
    6900
    Teil des LIDAR-Sensorsystems
    6902
    Kreuzungsverbindung
    6904
    Verbindungsstruktur des Detektors
    6906
    Pfeil
    7000
    Teil des LIDAR-Sensorsystems
    7002
    Empfänger-Fotodiodenanordnung
    7004
    Detektor-Verbindungsstrukturen
    7006
    Erstes Verbindungsnetz
    7008
    Zweites Verbindungsnetz
    7010
    Multiplexer-Eingang
    7012
    Ausgewähltes analoges Photostromsignal
    7014
    Weiterer Pfeil
    7016
    Diodengruppe
    7100
    Teil des LIDAR-Sensorsystems
    7200
    Chip-on-Board-Fotodiodenanordnung
    7202
    Untergrund
    7204
    Spediteur
    7206
    Drahtverbindungen
    7208
    Träger-Kontaktstruktur
    7300
    Teil des LIDAR-Sensorsystems
    7302
    Kamera erkennt farbcodierte Pixel
    7304
    Farbcodierte Pixel-Sensorsignale
    7306
    Kamerainterne Pixel-Analyse-Komponente
    7308
    Ergebnis der Kamera-Analyse
    7310
    LIDAR-Sensorsignale
    7312
    LIDAR-Datenanalyse
    7314
    Ergebnis der LIDAR-Analyse
    7316
    LIDAR-interne Datenfusions- und Analysekomponente
    7318
    Ergebnis der Datenfusionsanalyse
    7400
    Teil des LIDAR-Sensorsystems
    7402
    Analysekomponente Datenverarbeitungs- und Analysegerät
    7500
    Teil des LIDAR-Sensorsystems
    7502
    Block
    7504
    Block
    7600
    Teil des LIDAR-Sensorsystems
    7602
    Erste Laserquelle
    7604
    Zweite Laserquelle
    7606
    Erster Laserstrahl
    7608
    Zweiter Laserstrahl
    7610
    Träger-Lenkeinheit
    7612
    FOV
    7614
    Erster gescannter Laserstrahl
    7616
    Erstes Objekt
    7618
    Erster reflektierter Laserstrahl
    7620
    Zweiter gescannter Laserstrahl
    7622
    Zweites Objekt
    7624
    Zweiter reflektierter Laserstrahl
    7626
    Sammellinse
    7628
    Optische Komponente
    7630
    Erster Sensor
    7632
    Zweiter Sensor
    7700
    Teil des LIDAR-Sensorsystems
    7702
    Ein oder mehrere dichroitische Spiegel
    7704
    Erster von zwei parallelen Laserstrahlen
    7706
    Zweiter von zwei parallelen Laserstrahlen
    7800
    Teil des LIDAR-Sensorsystems
    7802
    Strahllenkvorrichtung
    7804
    Abgelenkter Laserstrahl
    7806
    Zielobjekt
    7808
    Reflektierter Laserstrahl
    7810
    Sichtfeld
    7812
    Wahrnehmungsregion der Meta-Linse
    7814
    Sensorbereich des Sensors
    7900
    Aufbau einer Doppellinse mit zwei Meta-Oberflächen
    7902
    Doppelseitige Meta-Linse
    7904
    Spediteur
    7906
    Erste Oberfläche des Trägers
    7908
    Zweite Oberfläche des Trägers
    7910
    Erste empfangene Lichtstrahlen
    7912
    Zweite empfangene Lichtstrahlen
    7914
    Fokalebene
    7916
    Schwerpunkt
    7918
    Erste gebeugte Lichtstrahlen
    7920
    Zweite gebeugte Lichtstrahlen
    7922
    Dritte gebeugte Lichtstrahlen
    7924
    Vierte gebeugte Lichtstrahlen
    7928
    Eintrittsöffnung D
    7930
    Diagramm
    7932
    z-Richtung
    7934
    x-Richtung
    7936
    Optische Achse
    8000
    Teil des LIDAR-Sensorsystems
    8002
    Laserstrahl
    8004
    Laserstrahl
    8006
    Reflektierter Laserstrahl
    8008
    Reflektierter Laserstrahl
    8010
    Zweite Zeilen
    8100
    Fahrzeug
    8102
    Fahrzeugaufbau
    8104
    Rad
    8106
    Seitenfenster
    8108
    Eine oder mehrere Lichtquellen
    8110
    Eine oder mehrere lichtemittierende Oberflächenstrukturen
    8112
    Äußere Oberfläche der Fahrzeugkarosserie
    8202
    Vorderes Fenster
    8204
    Heckscheibe
    8206
    Armaturenbrett eines Fahrzeugs
    8208
    Ein oder mehrere Prozessoren und/oder ein oder mehrere Steuerungen
    8300
    Flussdiagramm
    8302
    Partielles Verfahren
    8304
    Partielles Verfahren
    8306
    Partielles Verfahren
    8308
    Partielles Verfahren
    8310
    Partielles Verfahren
    8312
    Partielles Verfahren
    8314
    Partielles Verfahren
    8400
    Flussdiagramm
    8402
    Partielles Verfahren
    8404
    Partielles Verfahren
    8406
    Partielles Verfahren
    8408
    Partielles Verfahren
    8500
    System
    8502
    Fahrzeug
    8504
    Fahrzeug-Sensorsystem
    8506
    Überwachungsgerät
    8508
    Erste Kommunikationseinheit
    8510
    Zweite Kommunikationseinheit
    8512
    Externes Objekt
    8600
    Methode
    8602
    Verfahrensschritt
    8604
    Verfahrensschritt
    8606
    Verfahrensschritt
    8608
    Verfahrensschritt
    8700
    Verfahren
    8702
    Verfahrensschritt
    8704
    Verfahrensschritt
    8706
    Verfahrensschritt
    8708
    Verfahrensschritt
    8710
    Verfahrensschritt
    8712
    Verfahrensschritt
    8800
    Verfahren
    8802
    Verfahrensschritt
    8804
    Verfahrensschritt
    8806
    Verfahrensschritt
    8808
    Verfahrensschritt
    8810
    Verfahrensschritt
    8900
    Optische Komponente
    8902
    Optisches Element
    8904
    Erstes optisches Hauptflächenelement
    8906
    Zweites optisches Hauptflächenelement
    8908
    Erste Linsenanordnung
    8910
    Zweite Linsenanordnung
    8912
    Pfeil
    8914
    Optische Linsen
    9000
    Draufsicht Erstes LIDAR-Sensorsystem
    9002
    Kollimationslinse mit schneller Achse
    9004
    Doppelseitiges Mikrolinsen-Array
    9006
    Kollimationslinse mit langsamer Achse
    9008
    Scan-Pfeil
    9010
    Lichtstrahl
    9012
    Doppelseitiges Mikrolinsen-Array für die Draufsicht
    9100
    Seitenansicht Erstes LIDAR-Sensorsystem
    9102
    Erstes Segment
    9104
    Zweites Segment
    9106
    Drittes Segment
    9108
    Vierter Abschnitt
    9110
    Mikrolinse
    9112
    Erste Eingabegruppe Mikrolinsen
    9114
    Mikrolinsen der ersten Ausgabegruppe
    9116
    Zweite Eingabegruppe Mikrolinsen
    9118
    Zweite Ausgabegruppe Mikrolinsen
    9120
    Gemeinsames Substrat
    9122
    Pitch-Linsen
    9124
    Umschaltung zwischen Eingangslinse und entsprechender Ausgangslinse
    9200
    Seitenansicht eines Teils des ersten LIDAR-Sensorsystems
    9202
    Vertikales Sichtfeld
    9204
    Vertikales Sichtfeld des Segments
    9206
    Vertikales Sichtfeld des Segments
    9208
    Vertikales Sichtfeld des Segments
    9210
    Vertikales Sichtfeld des Segments
    9212
    FOV (Sichtfeld)
    9302
    Intensitätsverteilung
    9304
    Intensitätsverteilung
    9400
    Seitenansicht eines Teils des ersten LIDAR-Sensorsystems
    9402
    Vertikales Sichtfeld des Segments
    9404
    Vertikales Sichtfeld des Segments
    9406
    Vertikales Sichtfeld des Segments
    9408
    Vertikales Sichtfeld des Segments
    9410
    Geändertes vertikales Segment-Blickfeld
    9412
    Geändertes vertikales Segment-Blickfeld
    9414
    Geändertes vertikales Segment-Blickfeld
    9416
    Geändertes vertikales Segment-Blickfeld
    9500
    Erstes Beispiel für einseitige MLA
    9502
    Austritts-Lichtstrahl
    9510
    Zweites Beispiel für einseitige MLA
    9512
    Konvexe Eingabefläche
    9514
    Divergenter Lichtstrahl
    9520
    Drittes Beispiel für einseitige MLA
    9522
    Fresnel-Linsenfläche
    9600
    Erstes Beispiel eines doppelseitigen MLA mit einer Vielzahl von Teilen
    9602
    Erstes Stück doppelseitige MLA
    9604
    Leichte Eintrittsseite erstes Stück
    9606
    Flache Oberfläche erstes Stück
    9608
    Zweites Stück doppelseitige MLA
    9610
    Flache Oberfläche zweites Stück
    9650
    Erstes Beispiel eines doppelseitigen MLA mit einer Vielzahl von Teilen
    9652
    Erstes Stück doppelseitige MLA
    9654
    Leichte Eintrittsseite erstes Stück
    9656
    Flache Oberfläche erstes Stück
    9658
    Zweites Stück doppelseitige MLA
    9660
    Flache Oberfläche zweites Stück
    9662
    Verschiebung
    9700
    Teil des zweiten LIDAR-Sensorsystems
    9702
    Eingabe-Segment
    9704
    Eingabe-Segment
    9706
    Eingabe-Segment
    9708
    Eingabe-Segment
    9710
    APD-Matrix
    9712
    Multiplexer
    9714
    TIA
    9716
    ADC
    9800
    Sensor-System
    9802
    Anordnung der Optik
    9802a
    Erster Teil der optischen Anordnung
    9802b
    Zweiter Teil der optischen Anordnung
    9802s
    Oberfläche der optischen Anordnung
    9804
    Objekt
    9806
    Objekt
    9808
    Optische Achse
    9810
    Effektive Blende
    9812
    Effektive Blende
    9814
    Lichtstrahlen
    9816
    Lichtstrahlen
    9818
    Sensor-Pixel
    9820
    Sensor-Pixel
    9852
    Wegbeschreibung
    9854
    Wegbeschreibung
    9856
    Wegbeschreibung
    9900
    Sensor-System
    9902
    Linse mit innerer Totalreflexion
    9902a
    Erster Teil der Linse mit innerer Totalreflexion
    9902b
    Zweiter Teil der Linse mit totaler Innenreflexion
    9908
    Optische Achse
    10000
    Sensor-System
    10002
    Zusammengesetzter parabolischer Konzentrator
    10008
    Optische Achse
    10010
    Optisches Element
    10100
    Sensor-System
    10102
    Anordnung der Optik
    10104
    Objekt
    10106
    Objekt
    10108
    Flüssiglinse
    10108m
    Membran der Flüssiglinse
    10110
    Flüssiglinse
    10110m
    Membran der Flüssiglinse
    10202
    Pixel
    10204
    Pixel-Bereich
    10206
    Pixel
    10208
    Pixel-Bereich
    10210
    Pixel
    10212
    Pixel-Bereich
    10214
    Objekt-Pixel
    10216
    Optische Achse
    10218
    Optisches Element
    10300
    System
    10302
    Optisches Gerät
    10304
    Anordnung der Optik
    10306
    Sichtfeld
    10308
    Lichtstrahl
    10310
    Träger-Lenkeinheit
    10312
    Emittiertes Licht
    10314
    Vertikale Lichtlinie
    10316
    Umgebungslichtquelle
    10352
    Wegbeschreibung
    10354
    Wegbeschreibung
    10356
    Wegbeschreibung
    10402
    Spediteur
    10402s
    Trägerfläche
    10404
    Spiegel
    10406
    LIDAR-Licht
    10406a
    Erste LIDAR-Leuchte
    10406b
    Zweites LIDAR-Licht
    10408
    Licht von einer Umgebungsquelle
    10410
    Spuren
    10412
    Optisches Element
    10502
    Reflektierende Oberfläche
    10504
    Rotationsachse
    10602
    Rotierendes Bauteil
    10702
    Sensor-Gerät
    10704
    Sensor-Pixel
    10800
    System
    10802
    Wellenleitende Komponente
    10804
    Anordnung der Empfängeroptik
    10806
    Sichtfeld
    10808
    Sensor-Pixel
    10810
    Sensor-Oberfläche
    10852
    Wegbeschreibung
    10854
    Wegbeschreibung
    10856
    Wegbeschreibung
    10902
    Optische Faser
    10902i
    Eingangsanschluss
    10902o
    Ausgangsanschluss
    10904
    Beilage
    10906
    Objektiv
    11002
    Gekrümmte Oberfläche
    11004
    Kugellinse
    11006
    Winkelsegment des Sichtfeldes
    11102
    Hohlleiter-Block
    11104
    Wellenleiter
    11104i
    Eingangsanschluss
    11104o
    Ausgangsanschluss
    11202
    Substrat
    11202s
    Erste Schicht
    11202i
    Zweite Schicht
    11204
    Wellenleiter
    11206
    Lichtkoppler
    11208
    Detektionsbereich
    11210
    Koppelnde Region
    11302
    Dotiertes Segment
    11304
    Auskopplungs-Segment
    11402
    Kupplungselement
    11404
    Laser-Quelle
    11406
    Controller
    11408
    Filter
    11502
    Wellenleiter
    11504
    Wellenleiter
    11506a
    Erster Kopplungsbereich/-region
    11506b
    Zweiter Kopplungsbereich/-region
    11506c
    Dritter Kopplungsbereich/-region
    11508
    Anordnung der Linsen
    11510
    Controller
    11600
    LIDAR-System / LIDAR-Sensorsystem
    11602
    Anordnung der Optik
    11604
    Sichtfeld
    11606
    Optische Achse
    11608
    Lichtstrahl
    11610
    Abtasteinheit
    11612
    Emittiertes Lichtsignal
    11612r
    Reflektiertes Lichtsignal
    11614
    Objekt
    11616
    Objekt
    11618
    Streulicht
    11620
    Sensor-Pixel
    11620-1
    Erster Sensor-Pixel
    11620-2
    Sekunden-Sensor-Pixel
    11622-1
    Erstes Sensor-Pixelsignal
    11622-2
    Zweites Sensor-Pixelsignal
    11624
    Schaltung zur Auswahl eines Pixelsignals
    11652
    Wegbeschreibung
    11654
    Wegbeschreibung
    11656
    Wegbeschreibung
    11702
    Komparator-Stufe
    11702-1
    Erste Komparatorschaltung
    11702-1 o
    Erster Komparator-Ausgang
    11702-2
    Zweite Komparatorschaltung
    11702-2
    Zweiter Komparator-Ausgang
    11704
    Konverter-Stufe
    11704-1
    Erster Zeit-Digital-Wandler
    11704-1o
    Erster Konverter-Ausgang
    11704-2
    Zweiter Zeit-Digital-Wandler
    11704-2o
    Zweiter Wandler-Ausgang
    11706
    Prozessor
    11708-1
    Erste Spitzenwert-Detektorschaltung
    11708-2
    Zweite Spitzenwert-Detektorschaltung
    11710-1
    Erster Analog-Digital-Wandler
    11710-2
    Zweiter Analog-Digital-Wandler
    11802-1
    Erster Sensor-Pixel-Signalpuls
    11802-2
    Zweiter Sensor-Pixel-Signalpuls
    11802-3
    Dritter Sensor-Pixel-Signalpuls
    11802-4
    Vierter Sensor-Pixel-Signalpuls
    11802-5
    Fünfter Sensor-Pixel-Signalpuls
    11900
    Schaubild
    12000
    LIDAR-System
    12002
    Anordnung der Optik
    12004
    Sichtfeld
    12006
    Optische Achse
    12008
    Lichtstrahl
    12010
    Abtasteinheit
    12012
    Emittiertes Licht
    12052
    Wegbeschreibung
    12054
    Wegbeschreibung
    12056
    Wegbeschreibung
    12102
    Sensor-Pixel
    12104
    Erste Region
    12106
    Zweite Region
    12108
    Signalleitung
    12202
    Sensor-Pixel
    12204
    Erste Array-Region
    12206
    Zweite Array-Region
    12208
    Signalleitung
    12300
    Fahrzeug
    12302
    Sensor-Systeme
    12304
    Energiequelle
    12306
    System zur Verwaltung der Energiequelle
    12308
    Ein oder mehrere Prozessoren
    12310
    Fahrzeug-Steuerungssystem
    12312
    Speicher
    12314
    Sensor-Funktionsmatrix-Datenbank
    12316
    Speicher
    12318
    Fahrzeug-Geräte
    12320
    Fahrzeug-externe- Vorrichtung
    12322
    Kommunikationsschnittstelle
    12400
    Verfahren
    12402
    Verfahrensschritt
    12404
    Verfahrensschritt
    12406
    Verfahrensschritt
    12502
    Positionsmodul / GPS-Modul
    12504
    Modul für logische Kohärenz
    12506
    Globale Einstellungsmatrix
    12602
    Anbieter der Eingabe
    12604
    Eingangssignal
    12606
    Sensor-Daten
    12608
    Sensor-Daten
    12610
    Kohärenz-Daten
    12612
    Eingabedaten
    12700
    Verfahren
    12702
    Verfahrensschritt
    12704
    Verfahrensschritt
    12706
    Verfahrensschritt
    12708
    Verfahrensschritt
    12800
    Verfahren
    12802
    Verfahrensschritt
    12804
    Verfahrensschritt
    12806
    Verfahrensschritt
    12902
    Positionsmodul / GPS-Modul
    12904
    Anbieter von Verkehrskarten
    12904a
    Verkehrskarte
    13002
    Positionsdaten / GPS-Daten
    13004
    Eingabedaten / Verkehrskartendaten
    13006
    Sensor-Anweisungen / Fahrzeug-Anweisungen
    13008
    Sensor-Daten
    13010
    Übertragene Sensordaten
    13012
    Aktualisierte Verkehrskarte
    13100
    Rahmen
    13102
    Präambel-Rahmenteil
    13104
    Header
    13106
    Nutzdaten-Rahmenteil
    13108
    Footer
    13200
    Zeitbereich-Signal
    13202-1
    Puls
    13202-2
    Puls
    13300
    Einstufungssystem
    13302
    Erinnerung
    13304
    Referenz-Lichtsignal-Sequenzrahmen
    13306
    Symbol-Code
    13308
    Signalgenerator
    13310
    Signalfolge-Rahmen
    13312
    Steuerung der Lichtquelle
    13314
    Lichtsignal-Sequenzrahmen
    13314-1
    Lichtsignal-Sequenzrahmen
    13314-2
    Lichtsignal-Sequenzrahmen
    13314-3
    Lichtsignal-Sequenzrahmen
    13314-4
    Lichtsignal-Sequenzrahmen
    13314r
    Empfangener Lichtsignal-Sequenz-Frame
    13314r-1
    Empfangener Lichtsignal-Sequenz-Frame
    13314r-2
    Empfangener Lichtsignal-Sequenz-Frame
    13316
    Lichtsignalfolge
    13316-1
    Lichtsignalfolge
    13316-2
    Lichtsignalfolge
    13316r
    Empfangene Lichtsignalfolge
    13316r-1
    Empfangene Lichtsignalfolge
    13316r-2
    Empfangene Lichtsignalfolge
    13318
    Korrelationsempfänger
    13320
    Ausgabe der Korrelationsergebnisse
    13322
    Rahmen für Korrelationsergebnisse
    13324
    Bearbeiter
    13326
    Sensorgerät / Fahrzeug
    13328
    Objekt/Baum
    13330
    Sensorgerät / Fahrzeug
    13400
    Einstufungssystem
    13402
    Init-Register
    13404
    Tx-Puffer
    13406
    Referenz-Uhr
    13408
    Tx-Block
    13410
    Phase der Impulsformung
    13412
    Fahrer
    13414
    Lichtsender
    13416
    Rx-Block
    13418
    Detektor
    13420
    Transimpedanz-Verstärker
    13422
    Analog-Digital-Wandler
    13424
    Rx-Puffer
    13426
    Korrelationsempfänger
    13428
    Rx-Block
    13430
    Tx-Probenpuffer
    13432
    Spitzenwert-Erkennungssystem
    13434
    Korrelationsausgabe
    13502-1
    Tx-Puffer
    13502-2
    Tx-Puffer
    13502-3
    Tx-Puffer
    13504-1
    Korrelationsempfänger
    13504-2
    Korrelationsempfänger
    13504-3
    Korrelationsempfänger
    13504-n
    Korrelationsempfänger
    13506-1
    Korrelationsausgabe
    13506-2
    Korrelationsausgabe
    13506-3
    Korrelationsausgabe
    13508
    Codebuch
    13602
    Indikator-Vektor
    13602-1
    Indikator-Vektor
    13602-2
    Indikator-Vektor
    13602-2c
    Zirkulär verschobener Indikator-Vektor
    13602-2s
    Verschobener Indikator-Vektor
    13604
    Pulsfolge
    13700
    Algorithmus
    13702
    Algorithmus-Schritt
    13704
    Algorithmus-Schritt
    13706
    Algorithmus-Schritt
    13708
    Algorithmus-Schritt
    13710
    Algorithmus-Schritt
    13712
    Algorithmus-Schritt
    13714
    Algorithmus-Schritt
    13716
    Algorithmus-Schritt
    13718
    Algorithmus-Schritt
    13720
    Algorithmus-Schritt
    13800
    Einstufungssystem
    13802
    Prozessor
    13804
    Steuerung der Lichtquelle
    13806
    Phase der Codegenerierung für Rahmenkonsistenz
    13808
    Datenpuffer
    13810
    Code-Generator für Rahmenkonsistenz
    13900
    Rahmen
    13900p
    PHY-Rahmen
    13900m
    MAC Rahmen
    13900-1
    Erster Rahmenabschnitt
    13900-2
    Zweiter Rahmenausschnitt
    13902
    Präambel-Rahmenteil
    13902p
    PHY Präambel-Rahmenteil
    13904
    Kopf-Rahmenteil
    13904p
    PHY Kopfzeilen-Rahmenteil
    13904m
    MAC Header-Rahmenteil
    13906
    Nutzlast-Rahmenteil
    13906p
    PHY Nutzlast-Rahmenteil
    13906m
    MAC Nutzlast-Rahmenteil
    13908
    Fußrahmen-Abschnitt
    13908p
    PHY Fuß-Rahmenteil
    13908m
    MAC Fußteil des Rahmens
    13910
    Eingabedaten
    13912
    Zugeordnete Eingabedaten
    13914
    Zugeordneter Konsistenz-Code
    14002
    Lichtsignal-Sequenzrahmen
    14002-1
    Lichtsignal-Sequenzrahmen
    14002-2
    Lichtsignal-Sequenzrahmen
    14002-3
    Lichtsignal-Sequenzrahmen
    14002-4
    Lichtsignal-Sequenzrahmen
    14004-1
    Lichtpuls
    14004-2
    Lichtpuls
    14102
    Diagramm
    14104
    Flussdiagramm
    14106
    Diagramm
    14108
    Flussdiagramm
    14110
    Diagramm
    14112
    Flussdiagramm
    14114
    Diagramm
    14116
    Flussdiagramm
    14202
    Diagramm
    14204
    Flussdiagramm
    14302
    Flussdiagramm
    14304
    Flussdiagramm
    14402
    Flussdiagramm
    14500
    Einstufungssystem
    14502
    Emittierende Seite
    14504
    Empfänger-Seite
    14506
    Steuerung der Lichtquelle
    14508
    Lichtpuls
    14510
    Signal-Modulator
    14512
    Lichtimpuls
    14514
    Prozessor
    14516
    Diagramm
    14518
    Wellenform
    14520
    Wellenform
    14522
    Wellenform
    14524
    Wellenform
    14526
    Kommunikationssystem
    14528
    Funk-Kommunikationseinrichtung
    14530
    Daten-Kodierer
    14532
    Funksender
    14550
    Laserdiode
    14552
    Kondensator
    14552a
    Kondensator
    14552b
    Kondensator
    14552c
    Kondensator
    14554
    Boden
    14560
    Regelbarer Widerstand
    14560g
    Steuereingang
    14562
    Transistor
    14562g
    Gate-Terminal
    14562s
    Source-Terminal
    14562a
    Transistor
    14562b
    Transistor
    14562c
    Transistor
    14564
    Steuerung der Wellenform
    14570
    Ladeschaltung
    14570a
    Ladeschaltung
    14570b
    Ladeschaltung
    14570c
    Ladeschaltung
    14572
    Widerstand
    14572a
    Widerstand
    14572b
    Widerstand
    14572c
    Widerstand
    14574
    Steuerbare DC-Quelle
    14574a
    Steuerbare DC-Quelle
    14574b
    Steuerbare DC-Quelle
    14574c
    Steuerbare DC-Quelle
    14600
    System
    14602
    Fahrzeug
    14604
    Fahrzeug
    14606
    LIDAR-Auslöser
    14608
    Pulsgenerator
    14610
    Laser
    14612
    Datenbank
    14614
    Laserpuls
    14616
    Fotodetektor
    14618
    Demodulator
    14620
    Daten
    14622
    Fotodetektor
    14624
    Demodulator
    14626
    Ermittelte Daten
    14702
    Graph in der Zeitdomäne
    14704
    Wellenform
    14706
    Wellenform
    14708
    Wellenform
    14710
    Wellenform
    14712
    Graph im Frequenzbereich
    14714
    Tabelle
    14716
    Graph in der Zeitdomäne
    14718
    Wellenform
    14720
    Wellenform
    14722
    Wellenform
    14724
    Wellenform
    14726
    Graph im Frequenzbereich
    14728
    Tabelle
    14730
    Grafik
    14732
    Wellenform
    14732-1
    Wellenform mit 0% Zeitverschiebung
    14732-2
    Wellenform mit 40% Zeitverschiebung
    14734
    Wellenform
    14736
    Wellenform
    14738
    Wellenform
    14740
    Wellenform
    14742
    Wellenform
    14744
    Grafik
    14746
    Tabelle
    14802
    Graph in der Zeitdomäne
    14804
    Oszilloskop-Bild
    14806
    Graph im Frequenzbereich
    14808
    Graph im Frequenzbereich
    14810
    Tabelle
    14902
    Graph in der Zeitdomäne
    14904
    Oszilloskop-Bild
    14906
    Graph im Frequenzbereich
    14908
    Grafik
    14910
    Gaußscher Anfall
    14912
    Gaußscher Anfall
    14914
    Grafik
    15000
    LIDAR-System
    15002
    Lichtemittierendes System
    15004
    Lichtsender
    15006
    Optische Komponente
    15008
    Lichtemittierende Steuerung
    15010
    Sichtfeld / Emissionsfeld
    15012
    Sensor-Pixel
    15012-1
    Sensor-Bildpunkt
    15012-2
    Sensor-Bildpunkt
    15014
    Objekt
    150161
    Diagramm
    150162
    Diagramm
    150163
    Diagramm
    150164
    Diagramm
    150165
    Diagramm
    150166
    Diagramm
    150167
    Diagramm
    15018
    Prozessor
    15020
    Analog-Digital-Wandler
    15022
    Detektor-Optik
    15024
    Optische Komponente des Empfängers
    15026
    Steuerbares optisches Dämpfungsglied
    15028
    Schaltung zur thermischen Verwaltung
    15110-1
    Sichtfeld-Segment
    15110-2
    Sichtfeld-Segment
    15110-3
    Sichtfeld-Segment
    15110-4
    Sichtfeld-Segment
    15110-5
    Sichtfeld-Segment
    152021
    Erste Gruppe
    152022
    Zweite Gruppe
    152023
    Dritte Gruppe
    15204
    Übersicht
    152041
    Erste Region von Interesse
    152042
    Zweite Region von Interesse
    15206-1
    Erster Begrenzungsrahmen (Bounding Box)
    15206-2
    Zweiter Begrenzungsrahmen
    15208-1
    Erstes virtuelles Emissionsmuster
    15208-2
    Zweites virtuelles Emissionsmuster
    15210-1
    Erstes Emissionsmuster
    15210-2
    Zweites Emissionsmuster
    15210-3
    Kombiniertes Emissionsmuster
    15300
    Algorithmus zur Musteranpassung
    15302
    Algorithmus-Schritt
    15304
    Algorithmus-Schritt
    15306
    Algorithmus-Schritt
    15308
    Algorithmus-Schritt
    15310
    Algorithmus-Schritt
    15312
    Algorithmus-Schritt
    15314
    Algorithmus-Schritt
    15316
    Algorithmus-Schritt
    15318
    Algorithmus-Schritt
    15320
    Algorithmus-Schritt
    15400
    LIDAR-System
    15402
    Emitter-Anordnung
    15404
    Fahrer
    15406
    Einzelpixel-Detektor
    15408
    Analog-Digital-Wandler
    15410
    Komprimiertes Abtast-Berechnungssystem
    15410-1
    Bildrekonstruktionssystem
    15410-2
    Mustererzeugungssystem
    15410-3
    Muster-Anpassungssystem
    15412
    Schaltung zur thermischen Verwaltung
    15500
    Optisches Gehäuse
    15502
    Untergrund
    15504
    Kondensator
    15504c
    Kondensator
    15506
    Wechsel
    15506g
    Steuerterminal
    15506s
    Wechsel
    15508
    Laserdiode
    15508d
    Laserdiode
    15510
    Gemeinsame Linie
    15512
    Stromquelle
    15514
    Bearbeiter
    15602
    Gedruckte Leiterplatte
    15604
    Erster elektrischer Kontakt
    15606
    Zweiter elektrischer Kontakt
    15608
    Terminal
    15700
    Optisches Gehäuse
    15702
    Untergrund
    15702i
    Dämmschicht
    15702s
    Basis
    15704
    Kondensator
    15706
    Wechsel
    15708
    Laserdiode
    15708a
    Aktive Schicht
    15708o
    Optischer Aufbau
    15710
    Gedruckte Leiterplatte
    15712
    Bonddraht
    15714
    Terminal
    15716
    Terminal
    15718
    Verbinder-Struktur
    15718c
    Elektrischer Kontakt
    15720
    Bonddraht
    15722
    Zugangsleitung
    15724
    Durch über
    15800
    LIDAR-System
    15802
    Partielle Lichtquelle
    15804
    Gruppe von Lichtquellen
    15804-1
    Erste Lichtquellengruppe
    15804-2
    Zweite Lichtquellengruppe
    15806
    Steuerung der Lichtquelle
    15808
    Fotodiode
    15810
    Fotodiodengruppe
    15810-1
    Erste Fotodiodengruppe
    15810-2
    Zweite Fotodiodengruppe
    15812
    Prozessor
    15814
    Analog-Digital-Wandler
    15852
    Wegbeschreibung
    15854
    Wegbeschreibung
    15856
    Wegbeschreibung
    16002
    Objekt
    161021
    Erster Lichtpuls
    161022
    Zweiter Lichtpuls
    16104
    Empfangener Lichtpuls
    161041
    Erster Lichtpuls
    161042
    Zweiter Lichtpuls
    161043
    Dritter Lichtpuls
    161044
    Vierter Lichtpuls
    16200
    LIDAR-System
    16202
    Bearbeiter
    16204
    Darstellung von Sensordaten
    16204-1
    Erste Region/Bereich
    16204-2
    Zweite Region/Bereich
    16252
    Wegbeschreibung
    16254
    Wegbeschreibung
    16256
    Wegbeschreibung
    16302-1
    Darstellung von Sensordaten
    16302-2
    Sensor-Daten-Darstellung
    16302-3
    Sensor-Daten-Darstellung
    16302-4
    Darstellung von Sensordaten
    163041
    Hochauflösende Zone
    163042
    Niedrigauflösende Zone
    163043
    Hochauflösende Zone
    163044
    Niedrigauflösende Zone
    16306
    Objekt / Auto
    16308
    Objekt/Bus
    16310
    Objekt / Fußgänger
    16312
    Objekt / Fußgänger
    16314
    Objekt/Beobachter
    16316
    Fahrzeug
    16318
    Objekt / Fahrzeug
    16320
    Objekt / Fahrzeug
    16322
    Lichtstrahl
    16324
    Pfeil
    16326
    Pfeil
    16400
    Algorithmus
    16402
    Algorithmus-Schritt
    16404
    Algorithmus-Schritt
    16406
    Algorithmus-Schritt
    16408
    Algorithmus-Schritt
    16410
    Algorithmus-Schritt
    16412
    Algorithmus-Schritt
    16414
    Algorithmus-Schritt
    16416
    Algorithmus-Schritt
    16418
    Algorithmus-Schritt
    16420
    Algorithmus-Schritt
    16422
    Algorithmus-Schritt
    16430
    Algorithmus
    16432
    Algorithmus-Schritt
    16434
    Algorithmus-Schritt
    16436
    Algorithmus-Schritt
    16438
    Algorithmus-Schritt
    16440
    Algorithmus-Schritt
    16442
    Algorithmus-Schritt
    16444
    Algorithmus-Schritt
    16446
    Algorithmus-Schritt
    16448
    Algorithmus-Schritt
    16450
    Algorithmus-Schritt
    16452
    Algorithmus-Schritt
    16454
    Algorithmus-Schritt
    16456
    Algorithmus-Schritt
    16458
    Grafik
    16460
    Grafik
    16462
    Akzeptanzbereich
    16462-1
    Erster Akzeptanzbereich
    16462-2
    Zweiter Akzeptanzbereich
    16462l
    Schwellenwert niedriges Niveau
    16462h
    Schwelle hohes Niveau
    16464-1
    Erste Eingang
    16464-2
    Zweite Eingang
    16464-3
    Dritter Eingang
    16500
    Sensor-System
    16502
    Sensor-Modul
    16502b
    Sensormodul
    16504
    Sensor
    16504b
    Sensor
    16506
    Modul zur Datenkompression
    16508
    Erinnerung
    16510
    Bidirektionale Kommunikationsschnittstelle
    16510t
    Sender
    16510r
    Empfänger
    16512
    Prozessor
    16514
    Kommunikationsschnittstellen
    16514a
    Globale Positionierungssystem-Schnittstelle
    16514b
    Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle
    16514c
    Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle
    16516
    Modul zur Datenkompression
    16518
    Speicher-Controller
    16600
    Sensorisches System
    16602
    Sensor-Modul
    16604
    Sensor
    16606
    Komprimierungs-Modul
    16608
    Erinnerung
    16610
    Bidirektionale Kommunikationsschnittstelle
    16610s
    Sender- und Empfänger-Modul
    16610v
    Sender- und Empfänger-Modul
    16612
    Fusion-Box
    16614
    Kommunikationsschnittstellen
    16616
    Komprimierungs-Modul
    16700
    Sensor-System
    16702
    Sensor-Modul
    16702b
    Sensormodul
    16704
    Sensor
    16704b
    Sensor
    16706
    Modul zur Datenkompression
    16708
    Erinnerung
    16710
    Bidirektionale Kommunikationsschnittstelle
    16710t
    Sender
    16710r
    Empfänger
    16712
    Kommunikationsmodul
    16714
    Prozessor
    16716
    Kommunikationsschnittstellen
    16716a
    Globale Positionierungssystem-Schnittstelle
    16716b
    Fahrzeug-zu-Fahrzeug-Kommunikationsschnittstelle
    16716c
    Fahrzeug-zu-Infrastruktur-Kommunikationsschnittstelle
    16718
    Prozessor
    16718b
    Prozessor
    16800
    Sensorisches System
    16802
    Sensor-Modul
    16802b
    Sensor-Modul
    16804
    Sensor
    16804-
    1 Sensor
    16804-2
    Sensor
    168043
    Sensor
    16806
    Komprimierungs-Modul
    16808
    Erinnerung
    16810
    Bidirektionale Kommunikationsschnittstelle
    16812s
    Sender- und Empfänger-Modul
    16812v
    Sender- und Empfänger-Modul
    16814
    Fusion-Box
    16816
    Kommunikationsschnittstellen
    168181
    Prozessor
    168182
    Prozessor
    168183
    Prozessor
    16820
    Elektrisches Fahrzeugsteuerungssystem
    16900
    Sensor-Gerät
    16902
    LIDAR-System
    16904
    Sichtfeld
    16906
    Anordnung optischer Sensoren
    16908
    Kamera
    16910
    Infrarot-Filter
    16912
    Auslöser
    16914
    Prozessor
    16916
    emittiertes Licht
    16918
    detektiertes Licht
    16918-1
    detektiertes Licht
    16918-2
    detektiertes Licht
    16918-3
    detektiertes Licht
    16920
    detektiertes Bild
    16920-1
    detektiertes Bild
    16920-2
    detektiertes Bild
    16920-3
    detektiertes Bild
    16920-4
    detektiertes Bild
    16922
    Diagramm
    16952
    Wegbeschreibung
    16954
    Wegbeschreibung
    16956
    Wegbeschreibung
    17000
    Anordnung der Optik
    17002
    Kollimator-Objektiv
    17004i
    Eingangs-Lichtstrahl
    17004o
    Ausgangslichtstrahl
    17004r
    Umgeleiteter Lichtstrahl
    17006
    Stellantrieb
    17008
    Optische Achse der optischen Anordnung
    170010
    Emissionsfeld
    17052
    Erste Richtung
    17054
    Zweite Richtung
    17056
    Dritte Richtung
    17102
    Korrektionslinse
    17102s
    Linsenoberfläche
    17104
    Kollimator-Objektiv
    17202
    Multi-Linsen-Array
    17204
    Diagramm
    17204a
    Erste Achse
    17204d
    Kurve
    17204i
    Zweite Achse
    17206
    Diffusives Element
    17208
    Grafik
    17208a
    Erste Achse
    17208d
    Kurve
    17208i
    Zweite Achse
    17210
    Flüssigkristall-Polarisationsgitter
    17300
    Beleuchtungs- und Abtastsystem
    17302
    LIDAR-System
    17304
    Anordnung der Emitteroptik
    17306
    Anordnung der Empfängeroptik
    17306-1
    Optisches Bauteil
    17306-2
    Optisches Bauteil
    17306-3
    Optisches Bauteil
    17306-4
    Optische Komponente
    17308
    Lichtquelle
    17310
    Steuerung der Lichtemission
    17312
    Kühlelement
    17314
    Grafik
    17314t
    Erste Achse
    17314p
    Zweite Achse
    173141
    LIDAR-Leistung
    173142
    Leuchtkraft
    173143
    Gesamtleistung
    17316-1
    Erstes Zeitfenster
    17316-2
    Zweites Zeitfenster
    17316-3
    Drittes Zeitfenster
    17316-4
    Viertes Zeitfenster
    17316-5
    Fünftes Zeitfenster
    17316-6
    Sechstes Zeitfenster
    17316-7
    Siebtes Zeitfenster
    17316-8
    Achtes Zeitfenster
    17400
    Beleuchtungs- und Abtastsystem
    17402
    LIDAR-System
    17404
    Anordnung der Emitteroptik
    17406
    Anordnung der Empfängeroptik
    17406-2
    Optische Anordnung des Empfängers
    17408
    Beleuchtungseinrichtung
    17410
    Kühlkörper
    17410-2
    Kühlkörper
    17412
    Abtastelement
    17500
    Fahrzeug-Informations- und Steuerungssystem
    17502
    Kommunikationsmodul
    17504
    Kommunikationsmodul
    17506
    Kommunikationsmodul
    17508
    Modul zur Energieverwaltung
    17510
    Fahrzeug-Steuermodul
    17512
    Scheinwerfer-Steuermodul
    17600
    LIDAR-System
    17602
    Ein oder mehrere Prozessoren
    17064
    Analog-Digital-Wandler
    17700
    Verarbeitende Stelle
    17702
    Grafik
    17702s
    Erste Achse
    17702t
    Zweite Achse
    17704
    Signalprobe
    17704-1
    Erstes Ereignis
    17704-2
    Zweites Ereignis
    17706
    Seriell-Parallel-Umwandlungsstufe
    17706g
    Lasttor
    17708
    Puffer
    17708-1
    Erster Ereignis-Signalvektor
    17708-2
    Zweiter Ereignis-Signalvektor
    17710
    Auslösesignal
    17712
    Stufe der Ereigniszeiterfassung
    17714
    Extraktionsstufe für Signalmerkmale
    17714-1
    Ereignissignalvektor-Extraktionsstufe
    17714-2
    Funktionelle Extraktionsstufe
    17716
    Ausgabe
    17730
    Weiterverarbeitende Stelle
    17732
    Ereignis-Auslösestufe
    17734
    Puffer
    17736
    Auslösesignal
    17738
    Extraktionsstufe für Signalmerkmale
    17740
    Ausgabe
    17742
    Ladetor
    17802
    Tabelle der Lernvektoren
    17802-1
    Erster Lernvektor
    17802-2
    Zweiter Lernvektor
    17802-3
    Dritter Lernvektor
    17802-4
    Vierter Lernvektor
    17802-5
    Fünfter Lernvektor
    17802-6
    Sechster Lernvektor
    17802v
    Vektor-Index
    17804-1
    Erstes Diagramm, der mit dem ersten Lernvektor verbunden ist
    17804-2
    Zweites Diagramm in Verbindung mit dem zweiten Lernvektor
    17804-3
    Drittes Diagramm in Verbindung mit dem dritten Lernvektor
    17804-4
    Viertes Diagramm in Verbindung mit dem vierten Lernvektor
    17804-5
    Fünftes Diagramm in Verbindung mit dem fünften Lernvektor
    17804-6
    Sechstes Diagramm in Verbindung mit dem sechsten Lernvektor
    17804s
    Erste Achse
    17804t
    Zweite Achse
    17806-1
    Kurve in Verbindung mit dem ersten Lernvektor
    17806-2
    Kurve in Verbindung mit dem zweiten Lernvektor
    17806-3
    Kurve in Verbindung mit dem dritten Lernvektor
    17806-4
    Kurve in Verbindung mit dem vierten Lernvektor
    17806-5
    Kurve in Verbindung mit dem fünften Lernvektor
    17806-6
    Kurve im Zusammenhang mit dem sechsten Lernvektor
    17902
    Ereignis-Signalvektor
    17902v
    Vektor-Index
    17904
    Mit dem Ereignis-Signalvektor assoziierter Graph
    17904s
    Erste Achse
    17904t
    Zweite Achse
    17904v
    Kurve in Verbindung mit dem Ereignis-Signalvektor
    17906
    Mit dem rekonstruierten Ereignissignalvektor assoziierter Graph
    17906r
    Kurve in Verbindung mit dem rekonstruierten Ereignissignalvektor
    17906s
    Erste Achse
    17906t
    Zweite Achse
    17906v
    Kurve in Verbindung mit dem ursprünglichen Ereignissignalvektor
    17908
    Mit dem Entfernungsspektrumsvektor assoziierter Graph
    17908e
    Erste Achse
    17908f
    Mit dem Entfernungsspektrumsvektor verbundene Datenpunkte
    17908m
    Zweite Achse
    17910
    Mit dem rekonstruierten Ereignissignalvektor assoziierter Graph
    17910r
    Kurve in Verbindung mit dem rekonstruierten Ereignissignalvektor
    17910s
    Erste Achse
    17910t
    Zweite Achse
    17910v
    Kurve, die dem ursprünglichen Ereignissignalvektor zugeordnet ist
    18002
    Abweichungs-Matrix
    18002c
    Spaltenindex
    18002r
    Zeilenindex
    18004-1
    Erster transformierter Lernvektor
    18004-2
    Zweiter transformierter Lernvektor
    18004-3
    Dritter transformierter Lernvektor
    18004-4
    Vierter transformierter Lernvektor
    18004-5
    Fünfter transformierter Lernvektor
    18004-6
    Sechster transformierter Lernvektor
    18006-1
    Erster Graph, der mit dem ersten transformierten Lernvektor verbunden ist
    18006-2
    Zweites Diagramm in Verbindung mit dem zweiten transformierten Lernvektor
    18006-3
    Dritter Graph im Zusammenhang mit dem dritten transformierten Lernvektor
    18006-4
    Vierte Grafik in Verbindung mit dem vierten transformierten Lernvektor
    18006-5
    Fünfter Graph in Verbindung mit dem fünften transformierten Lernvektor
    18006-6
    Sechster Graph in Verbindung mit dem sechsten transformierten Lernvektor
    18006s
    Erste Achse
    18006t
    Zweite Achse
    18008-1
    Kurve in Verbindung mit dem ersten transformierten Lernvektor
    18008-2
    Kurve in Verbindung mit dem zweiten transformierten Lernvektor
    18008-3
    Kurve in Verbindung mit dem dritten transformierten Lernvektor
    18008-4
    Kurve in Verbindung mit dem vierten transformierten Lernvektor
    18008-5
    Kurve in Verbindung mit dem fünften transformierten Lernvektor
    18008-6
    Kurve in Verbindung mit dem sechsten transformierten Lernvektor
    18102
    Mit einem Ereignis-Signalvektor assoziierter Graph
    18102s
    Erste Achse
    18102t
    Zweite Achse
    18102v
    Kurve in Verbindung mit einem Ereignis-Signalvektor
    18104
    Mit dem Feature-Vektor assoziierter Graph
    18104e
    Erste Achse
    18104f
    Datenpunkte
    18104m
    Zweite Achse
    18106
    Mit dem rekonstruierten Ereignissignalvektor assoziierter Graph
    18106r
    Kurve in Verbindung mit dem rekonstruierten Ereignissignalvektor
    18106s
    Erste Achse
    18106t
    Zweite Achse
    18106v
    Kurve, die dem ursprünglichen Ereignissignalvektor zugeordnet ist
    18200
    Kommunikationssystem
    18202
    Erstes Fahrzeug
    18204
    Zweites Fahrzeug
    18206
    Erste Antenne
    18208
    Zweite Antenne
    18210
    Kernnetz für mobile Funkkommunikation
    18212
    Erste Kommunikationsverbindung
    18214
    Zweite Kommunikationsverbindung
    18300
    Kommunikationssystem
    18302
    Fahrzeug
    18304
    Verkehrsinfrastruktur
    18306
    Antenne
    18308
    Antenne
    18310
    Kernnetz für mobile Funkkommunikation
    18312
    Erste Kommunikationsverbindung
    18314
    Zweite Kommunikationsverbindung
    18400
    Nachrichten-Flussdiagramm
    18402
    Benachrichtigung über das Parken
    18404
    Bestätigungsmeldung
    18406
    OOB-Herausforderungsbotschaft
    18408
    Authentifizierungs-Nachricht
    18410
    Prozess der Nachrichtenüberprüfung
    18412
    Beendete Nachricht
    18500
    Flussdiagramm
    18502
    Start
    18504
    Verfahren
    18506
    Verfahren
    18508
    Verfahren
    18510
    Verfahren
    18512
    Verfahren
    18514
    Verfahren
    18516
    Verfahren
    18518
    Verfahren
    18520
    Verfahren
    18600
    Nachrichten-Flussdiagramm
    18602
    Benachrichtigung über das Parken
    18604
    Bestätigungsmeldung
    18606
    OOB-Herausforderung Eine Nachricht
    18608
    OOB-Herausforderung B-Botschaft 18608
    18610
    Erste Authentifizierungsnachricht A
    18612
    Erste Authentifizierungsnachricht A-Verifizierung
    18614
    Zweite Authentifizierungsnachricht B
    18616
    Zweite Authentifizierungsnachricht B-Verifizierung
    18700
    Dienst-Szenario
    18702
    Fahrzeug-Zug
    18704
    Führendes Fahrzeug
    18706
    Zweites Fahrzeug
    18708
    Drittes Fahrzeug
    18710
    Erste LIDAR-basierte OOB-Kommunikationsverbindung
    18712
    Zweite LIDAR-basierte OOB-Kommunikationsverbindung
    18714
    Joiner-Fahrzeug
    18716
    Mobiler Funk-In-Band-Kommunikationskanal
    18718
    Dritte LIDAR-basierte OOB-Kommunikationsverbindung
    18750
    Nachrichten-Flussdiagramm
    18752
    Benachrichtigung über Zugbeitritt
    18754
    Bestätigungsmeldung
    18756
    Erste OOB-Herausforderung Eine Nachricht
    18758
    Erste Weiterleitungsnachricht
    18760
    Zweite Weiterleitungsnachricht
    18762
    Zweite OOB-Herausforderung B-Botschaft
    18764
    Dritte Weiterleitungsnachricht
    18766
    Vierte Weiterleitungsnachricht
    18768
    Erste Authentifizierungsnachricht A
    18770
    Erste Authentifizierungsnachricht Ein Verifizierungsverfahren
    18772
    Zweite Authentifizierungsnachricht B
    18774
    Verfahren zur Verifizierung der zweiten Authentifizierungsnachricht B
    18776
    Beendete Nachricht

Claims (35)

  1. Optische Komponente (5100) für ein LIDAR-Sensorsystem, wobei die optische Komponente (5100) Folgendes aufweist: eine erste Fotodiode (5110), die ein LIDAR-Sensorpixel in einer ersten Halbleiterstruktur implementiert und konfiguriert ist, um empfangenes Licht in einem ersten Wellenlängenbereich zu absorbieren; eine zweite Fotodiode (5120), die ein Kamerasensorpixel in einer zweiten Halbleiterstruktur über der ersten Halbleiterstruktur implementiert und so konfiguriert ist, dass sie empfangenes Licht in einem zweiten Wellenlängenbereich absorbiert; eine Verbindungsschicht (5114) mit einer elektrisch leitenden Struktur, die so konfiguriert ist, dass sie die zweite Fotodiode (5120) elektrisch kontaktiert; wobei das empfangene Licht des zweiten Wellenlängenbereichs eine kürzere Wellenlänge als das empfangene Licht des ersten Wellenlängenbereichs aufweist.
  2. Optische Komponente (5100) nach Anspruch 1, wobei die zweite Fotodiode (5120) vertikal über der ersten Fotodiode (5110) gestapelt ist.
  3. Optische Komponente (5100) nach einem der Ansprüche 1 oder 2, wobei die erste Fotodiode (5110) eine erste vertikale Fotodiode ist; und/oder wobei die zweite Fotodiode (5120) eine zweite vertikale Fotodiode ist.
  4. Optische Komponente (5100) nach einem der Ansprüche 1 bis 3, weiter umfassend: eine weitere Verbindungsschicht (5106) mit einer elektrisch leitenden Struktur, die so konfiguriert ist, dass sie die zweite vertikale Fotodiode und/oder die erste vertikale Fotodiode elektrisch kontaktiert.
  5. Optische Komponente (5100) nach einem der Ansprüche 1 oder 4, weiter umfassend: eine Mikrolinse (5202) über der zweiten Halbleiterstruktur, die seitlich im Wesentlichen die erste vertikale Fotodiode (5110) und/oder die zweite vertikale Fotodiode (5120) bedeckt.
  6. Optische Komponente (5100) nach einem der Ansprüche 1 bis 5, weiter umfassend: eine Filterschicht (5206) über der zweiten Halbleiterstruktur, die seitlich im Wesentlichen die erste vertikale Fotodiode (5110) und/oder die zweite vertikale Fotodiode (5120) bedeckt und so konfiguriert ist, dass sie empfangenes Licht mit einer Wellenlänge innerhalb des ersten Wellenlängenbereichs und innerhalb des zweiten Wellenlängenbereichs durchlässt und Licht außerhalb des ersten Wellenlängenbereichs und außerhalb des zweiten Wellenlängenbereichs blockiert.
  7. Optische Komponente (5100) nach einem der Ansprüche 1 bis 6, wobei das empfangene Licht des ersten Wellenlängenbereichs eine Wellenlänge in dem Bereich von etwa 800 nm bis etwa 1800 nm aufweist; und/oder wobei das empfangene Licht des zweiten Wellenlängenbereichs eine Wellenlänge im Bereich von etwa 380 nm bis etwa 780 nm aufweist.
  8. Optische Komponente (5100) nach einem der Ansprüche 1 bis 6, wobei das empfangene Licht des ersten Wellenlängenbereichs eine Wellenlänge in dem Bereich von etwa 800 nm bis etwa 1800 nm aufweist; und/oder wobei das empfangene Licht des zweiten Wellenlängenbereichs eine Wellenlänge im Bereich von etwa 800 nm bis etwa 1750 nm aufweist.
  9. Optische Komponente (5100) nach einem der Ansprüche 1 bis 8, wobei das empfangene Licht des zweiten Wellenlängenbereichs eine um mindestens 50 nm, vorzugsweise um mindestens 100 nm, kürzere Wellenlänge als das empfangene Licht des ersten Wellenlängenbereichs aufweist.
  10. Optische Komponente (5100) nach einem der Ansprüche 1 bis 7 oder 9, wobei das empfangene Licht des ersten Wellenlängenbereichs eine Wellenlänge in einem Infrarotspektrum-Wellenlängenbereich aufweist; und/oder wobei das empfangene Licht des zweiten Wellenlängenbereichs eine Wellenlänge im Wellenlängenbereich des sichtbaren Spektrums aufweist.
  11. Optische Komponente (5100) nach einem der Ansprüche 1 bis 10, weiter umfassend: eine Spiegelstruktur (5302; 5304) mit einem unteren Spiegel (5302) und einem oberen Spiegel (5304); wobei die zweite Halbleiterstruktur zwischen dem unteren Spiegel (5302) und dem oberen Spiegel (5304) angeordnet ist; wobei der untere Spiegel (5302) zwischen der Verbindungsschicht (5114) und der zweiten Halbleiterstruktur angeordnet ist.
  12. Optische Komponente (5100) nach Anspruch 11, wobei die Spiegelstruktur (5302; 5304) eine Bragg-Spiegelstruktur umfasst.
  13. Optische Komponente (5100) nach einem der Ansprüche 10 oder 11, wobei die Spiegelstruktur (5302; 5304) und die zweite vertikale Fotodiode (5120) so konfiguriert sind, dass die zweite vertikale Fotodiode (5120) eine Resonanzkavität-Fotodiode bildet.
  14. Optische Komponente (5100) nach einem der Ansprüche 1 bis 13, weiter umfassend: eine Reflektorschicht über der zweiten Halbleiterstruktur.
  15. Optische Komponente (5100) nach Anspruch 14, wobei die Reflektorschicht (5802) konfiguriert ist, um Strahlung mit einer Wellenlänge gleich oder größer als ungefähr 2 µm zu reflektieren; und/oder wobei die Reflektorschicht (5802) als eine Infrarot-Reflektorschicht konfiguriert ist.
  16. Optische Komponente (5100) nach einem der Ansprüche 1 bis 15, wobei die erste Fotodiode (5110) eine Stiftfotodiode ist; und wobei die zweite Fotodiode (5120) eine Pin-Fotodiode ist.
  17. Optische Komponente (5100) nach einem der Ansprüche 1 bis 15, wobei die erste Fotodiode (5110) eine Lawinenfotodiode ist; und wobei die zweite Fotodiode (5120) eine Pin-Fotodiode ist.
  18. Optische Komponente (5100) nach einem der Ansprüche 1 bis 15, wobei die erste Fotodiode (5110) eine Lawinenfotodiode ist; und wobei die zweite Fotodiode (5120) eine Resonanzkavität-Fotodiode ist.
  19. Optische Komponente (5100) nach einem der Ansprüche 1 bis 15, wobei die erste Fotodiode (5110) eine Ein-Photonen-Lawinenfotodiode ist; und wobei die zweite Fotodiode (5120) eine Resonanzkavität-Fotodiode ist.
  20. Optische Komponente (5100) nach einem der Ansprüche 1 bis 15, wobei die erste Fotodiode (5110) eine Lawinenfotodiode ist; und wobei die zweite Fotodiode (5120) eine Lawinenfotodiode ist.
  21. Optische Komponente (5100) nach einem der Ansprüche 2 bis 20, weiter umfassend: eine Anordnung aus einer Vielzahl von Fotodiodenstapeln, wobei jeder Fotodiodenstapel eine zweite Fotodiode (5120) umfasst, die vertikal über einer ersten Fotodiode (5110) gestapelt ist.
  22. Optische Komponente (5100) nach einem der Ansprüche 1 bis 21, wobei mindestens ein Fotodiodenstapel der Vielzahl von Fotodiodenstapeln mindestens eine weitere zweite Fotodiode (5120) in der zweiten Halbleiterstruktur angrenzend an die zweite Fotodiode (5120) aufweist; wobei die erste Fotodiode (5110) des mindestens einen Fotodiodenstapels der Vielzahl von Fotodiodenstapeln eine größere laterale Ausdehnung als die zweite Fotodiode (5120) und die mindestens eine weitere zweite Fotodiode (5120) des mindestens einen Fotodiodenstapels aufweist, so dass die zweite Fotodiode (5120) und die mindestens eine weitere zweite Fotodiode (5120) lateral innerhalb der lateralen Ausdehnung der ersten vertikalen Fotodiode angeordnet sind.
  23. Optische Komponente (5100) nach einem der Ansprüche 1 bis 22, wobei der Träger (5102; 5106) ein Halbleitersubstrat ist.
  24. Sensor (52) für ein LIDAR-Sensorsystem (10), wobei der Sensor (52) umfasst: eine Vielzahl von optischen Komponenten (5100) nach einem der Ansprüche 1 bis 23; wobei die mehreren optischen Komponenten (5100) monolithisch auf dem Träger (5102; 5106) als gemeinsamer Träger (5102; 5106) integriert sind.
  25. Sensor (52) nach Anspruch 24, wobei dieser konfiguriert ist als ein frontseitig beleuchteter Sensor (52).
  26. Sensor (52) nach Anspruch 24, wobei dieser konfiguriert ist als rückseitig beleuchteter Sensor (52).
  27. Sensor (52) nach einem der Ansprüche 24 bis 26, weiter umfassend: eine Farbfilterschicht, die mindestens einige optische Komponenten (5100) der Vielzahl optischer Komponenten (5100) bedeckt.
  28. Sensor (52) nach Anspruch 27, wobei die Farbfilterschicht eine erste Farbfilterunterschicht und eine zweite Farbfilterunterschicht umfasst; wobei die erste Farbfilter-Unterschicht konfiguriert ist, empfangenes Licht mit einer Wellenlänge innerhalb des ersten Wellenlängenbereichs und innerhalb des zweiten Wellenlängenbereichs zu übertragen und Licht außerhalb des ersten Wellenlängenbereichs und außerhalb des zweiten Wellenlängenbereichs zu blockieren; und wobei die zweite Farbfilter-Unterschicht so konfiguriert ist, dass sie empfangenes Licht mit einer Wellenlänge außerhalb des zweiten Wellenlängenbereichs blockiert.
  29. Sensor (52) nach Anspruch 28, wobei die erste Farbfilterunterschicht und/oder die zweite Farbfilterunterschicht eine Vielzahl von Pixeln der zweiten Unterschicht umfasst.
  30. Sensor (52) nach Anspruch 29, wobei die erste Farbfilterunterschicht und/oder die zweite Farbfilterunterschicht eine Vielzahl von zweiten Unterschichtpixeln gemäß einem Bayer-Muster umfasst.
  31. Sensor (52) nach einem der Ansprüche 27 bis 30, wobei die erste Farbfilter-Unterschicht eine Vielzahl von Pixeln der ersten Unterschicht umfasst, die die gleiche Größe wie die Pixel der zweiten Unterschicht haben; wobei die Pixel der ersten Unterschicht und die Pixel der zweiten Unterschicht miteinander zusammenfallen.
  32. Sensor (52) nach einem der Ansprüche 27 bis 30, wobei die erste Farbfilter-Unterschicht eine Vielzahl von Pixeln der ersten Unterschicht mit einer Größe aufweist, die größer als die Größe der Pixel der zweiten Unterschicht ist; wobei ein Pixel der ersten Unterschicht sich seitlich im wesentlichen mit einer Vielzahl der Pixel der zweiten Unterschicht überlappt.
  33. LIDAR-Sensorsystem (10), umfassend: einen Sensor (52) nach einem der Ansprüche 24 bis 32; und einen Sensor-Controller (53), der zur Steuerung des Sensors (52) konfiguriert ist.
  34. Verfahren für ein LIDAR-Sensorsystem (10) nach Anspruch 33, wobei das LIDAR-Sensorsystem in eine LIDAR-Sensorvorrichtung integriert ist und mit einem zweiten Sensorsystem kommuniziert und die Objektklassifizierung und/oder die Wahrscheinlichkeitsfaktoren und/oder Verkehrsrelevanzfaktoren, die durch das zweite Sensorsystem gemessen werden, zur Auswertung aktueller und zukünftiger Messungen und abgeleiteter Steuerparameter der LIDAR-Sensorvorrichtung als Funktion dieser Faktoren verwendet.
  35. LIDAR-Sensorsystem (10), umfassend: eine Vielzahl von Sensorpixeln (3802), wobei jedes Sensorpixel (3802) umfasst: eine Fotodiode; eine Pixelauswahlschaltung, die so konfiguriert ist, dass sie das Sensorpixel (3802) auswählt oder unterdrückt, indem sie die Verstärkung innerhalb der zugehörigen Fotodiode oder die Übertragung von Fotoelektronen innerhalb der zugehörigen Fotodiode steuert; und mindestens eine Ausleseschaltung, die einen Eingang und einen Ausgang umfasst und so konfiguriert ist, dass sie eine elektrische Variable an dem Ausgang auf der Grundlage eines an den Eingang angelegten elektrischen Signals bereitstellt; wobei mindestens einige Fotodioden der Vielzahl von Sensorpixeln (3802) elektrisch mit dem Eingang der mindestens einen Ausleseschaltung gekoppelt sind, oder ein LIDAR-Sensorsystem (10), umfassend: mindestens eine Fotodiode (52); eine Energiespeicherschaltung (1102), die so konfiguriert ist, dass sie elektrische Energie speichert, die von der Fotodiode (52) bereitgestellt wird; einen Controller (53), der konfiguriert ist, um einen Ausleseprozess der in der Energiespeicherschaltung (1102) gespeicherten elektrischen Energie zu steuern; mindestens einen Ausleseschaltkreis (1104), der umfasst: einen Ereignisdetektor (1902, 1904, 1906, 1908, 1910), der so konfiguriert ist, dass er ein Triggersignal (1944, 1946, 1948, 1950, 1952) liefert, wenn eine analoge elektrische Charakteristik, die die in der Energiespeicherschaltung (1102) gespeicherte elektrische Energie repräsentiert, ein vordefiniertes Triggerkriterium erfüllt; eine Zeitgeberschaltung (1912, 1914, 1916, 1918, 1920), die so konfiguriert ist, dass sie eine digitale Zeitinformation liefert; einen Analog-Digital-Wandler (1932, 1934, 1936, 1938, 1940), der so konfiguriert ist, dass er die analoge elektrische Kennlinie in einen digitalen elektrischen Kennwert umwandelt; wobei der Ereignisdetektor (1902, 1904, 1906, 1908, 1910) so konfiguriert ist, dass er die Zeitgeberschaltung (1912, 1914, 1916, 1918, 1920) deaktiviert und den Analog-Digital-Wandler (1932, 1934, 1936, 1938, 1940) in Abhängigkeit von dem Triggersignal (1944, 1946, 1948, 1950, 1952) aktiviert, oder ein LIDAR-Sensorsystem (10), umfassend: eine Laserquelle (5902), die so konfiguriert ist, dass sie mindestens einen Laserstrahl emittiert; einen räumlichen Lichtmodulator (5910), der im Laserpfad der Laserquelle (5902) angeordnet ist und eine Vielzahl von Pixelmodulatoren umfasst; und einen Modulator-Controller (5914), der so konfiguriert ist, dass er den räumlichen Lichtmodulator (5910) steuert, um Laserlicht, das auf den räumlichen Lichtmodulator (5910) auftrifft, auf einer Pixel-für-Pixel-Basis zu modulieren, um ein vordefiniertes Laserstrahlprofil in dem Sichtfeld (5912) des LIDAR-Sensorsystems (10) zu erzeugen, oder ein LIDAR-Sensorsystems (10), umfassend: einen Sensor (52), der umfasst: ein erstes Sensorpixel (11620-1), das so konfiguriert ist, dass es ein erstes Sensorpixelsignal (11622-1) bereitstellt; ein zweites Sensorpixel (11620-2), das in einem Abstand von dem ersten Sensorpixel (11620-1) angeordnet und so konfiguriert ist, dass es ein zweites Sensorpixelsignal (11622-2) bereitstellt; eine Pixelsignal-Auswahlschaltung (11624), die konfiguriert ist, um mindestens einen ersten Wert aus dem ersten Sensorpixelsignal (11622-1) zu bestimmen, der mindestens eine erste Kandidat-Laufzeit eines Lichtsignals (11612) darstellt, das von einer Lichtquelle (42) ausgesendet und von dem ersten Sensorpixel (116201) empfangen wird; mindestens einen zweiten Wert aus dem zweiten Sensorpixelsignal (116222) zu bestimmen-, der mindestens eine zweite Kandidat-Laufzeit des von der Lichtquelle (42) emittierten und von dem zweiten Sensorpixel (116202) empfangenen Lichtsignals (11612) darstellt; zu überprüfen, ob der mindestens eine erste Wert und der mindestens eine zweite Wert ein vordefiniertes Koinzidenzkriterium erfüllen, oder ein Sensormodul (16702), das zur Bereitstellung von Sensordaten konfiguriert ist; ein Datenkomprimierungsmodul (16706), das so konfiguriert ist, dass es mindestens einen Teil der von dem Sensormodul (16702) bereitgestellten Sensordaten komprimiert, um komprimierte Sensordaten zu erzeugen; und eine bidirektionale Kommunikationsschnittstelle (16710), die so konfiguriert ist die komprimierten Sensordaten bereitzustellen; und Empfang von Informationen, die eine mit den komprimierten Sensordaten verbundene Datenqualität definieren; wobei das Datenkomprimierungsmodul (16706) ferner so konfiguriert ist, dass es eine Datenkomprimierungscharakteristik, die zum Erzeugen der komprimierten Sensordaten verwendet wird, in Übereinstimmung mit den empfangenen Informationen auswählt, oder ein LIDAR-Sensorsystem (10), umfassend: einen Sensor (52) mit einer oder mehreren Fotodioden; einen oder mehrere Prozessoren, die konfiguriert sind, um digitale Daten aus einem von einer oder mehreren Fotodioden empfangenen Lichtsignal zu dekodieren, wobei die digitalen Daten Authentifizierungsdaten zur Authentifizierung eines anderen LIDAR-Sensorsystems umfassen; das andere LIDAR-Sensorsystem anhand der Authentifizierungsdaten der digitalen Daten zu authentifizieren; den Standort eines Objekts zu bestimmen, das das andere LIDAR-Sensorsystem trägt (10); und eine Emitteranordnung unter Berücksichtigung der Lage des Objekts zu steuern, oder ein LIDAR-Sensorsystem (10), umfassend: einen Sensor (52) und einen Sensor-Controller (53), der so konfiguriert ist, dass er den Sensor (52) steuert; wobei der Sensor (52) folgendes umfasst: eine Vielzahl von optischen Komponenten (5100), wobei die Vielzahl von optischen Komponenten (5100) monolithisch auf dem Träger (5102; 5106) als gemeinsamer Träger (5102; 5106) integriert sind; wobei die optischen Komponenten (5100) umfassen: eine erste Fotodiode (5110), die einen LIDAR-Sensorpixel in einer ersten Halbleiterstruktur implementiert und konfiguriert ist zum Absorbieren von empfangenem Licht in einem ersten Wellenlängenbereich; eine zweite Fotodiode (5120), die einen Kamerasensorpixel in einer zweiten Halbleiterstruktur über der ersten Halbleiterstruktur implementiert und konfiguriert ist zur Absorption von empfangenem Licht in einem zweiten Wellenlängenbereich; eine Verbindungsschicht (5114) mit einer elektrisch leitenden Struktur, die so konfiguriert ist, dass sie die zweite Fotodiode (5120) elektrisch kontaktiert; wobei das empfangene Licht des zweiten Wellenlängenbereichs eine kürzere Wellenlänge als das empfangene Licht des ersten Wellenlängenbereichs aufweist, oder ein LIDAR-Sensorsystem (10), umfassend: eine LIDAR-Sensorvorrichtung und ein LIDAR-Steuerungs- und Kommunikationssystem (70), das mit der LIDAR-Sensorgerät gekoppelt ist; wobei die LIDAR-Sensorvorrichtung Folgendes umfasst ein tragbares Gehäuse; einen LIDAR-Übertragungsabschnitt (40); einen LIDAR-Empfangsteil (50); eine Schnittstelle, die konfiguriert ist, um die LIDAR-Sensorvorrichtung anzuschließen an ein Steuerungs- und Kommunikationssystem (70) eines LIDAR-Sensorsystems (10) und um eine Kommunikationsverbindung mit dem Steuerungs- und Kommunikationssystem (70) bereitzustellen, oder ein LIDAR-Sensorsystem (10), umfassend: eine optische Komponente (8900) und eine Lichtquelle (42) wobei die optische Komponente (8900) umfasst ein optisches Element (8902) mit einer ersten Hauptoberfläche (8904) und einer zweiten Hauptoberfläche (8906) gegenüber der ersten Hauptoberfläche (8904); eine erste Linsenanordnung (8908), die auf der ersten Hauptoberfläche (8904) ausgebildet ist; und/oder eine zweite Linsenanordnung (8910), die auf der zweiten Hauptoberfläche (8906) ausgebildet ist; wobei das optische Element (8902) eine gekrümmte Form in einer ersten Richtung des LIDAR-Sensorsystems (10) aufweist.
DE112020001131.3T 2019-03-08 2020-03-05 Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät Pending DE112020001131T5 (de)

Applications Claiming Priority (31)

Application Number Priority Date Filing Date Title
DE102019203175.7 2019-03-08
DE102019203175 2019-03-08
DE102019205514 2019-04-16
DE102019205514.1 2019-04-16
DE102019206939.8 2019-05-14
DE102019206939 2019-05-14
DE102019208489.3 2019-06-12
DE102019208489 2019-06-12
DE102019210528.9 2019-07-17
DE102019210528 2019-07-17
DE102019213210.3 2019-09-02
DE102019213210 2019-09-02
DE102019214455.1 2019-09-23
DE102019214455 2019-09-23
DE102019216362.9 2019-10-24
DE102019216362 2019-10-24
DE102019217097.8 2019-11-06
DE102019217097 2019-11-06
DE102019218025.6 2019-11-22
DE102019218025 2019-11-22
DE102019219775.2 2019-12-17
DE102019219775 2019-12-17
DE102020200833 2020-01-24
DE102020200833.7 2020-01-24
DE102020201577.5 2020-02-10
DE102020201577 2020-02-10
DE102020201900.2 2020-02-17
DE102020201900 2020-02-17
DE102020202374 2020-02-25
DE102020202374.3 2020-02-25
PCT/EP2020/055774 WO2020182591A1 (en) 2019-03-08 2020-03-05 Component for a lidar sensor system, lidar sensor system, lidar sensor device, method for a lidar sensor system and method for a lidar sensor device

Publications (1)

Publication Number Publication Date
DE112020001131T5 true DE112020001131T5 (de) 2022-01-27

Family

ID=69770900

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020001131.3T Pending DE112020001131T5 (de) 2019-03-08 2020-03-05 Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät

Country Status (6)

Country Link
US (4) US11726184B2 (de)
EP (1) EP3963355A1 (de)
CN (3) CN113795773A (de)
CA (1) CA3173966A1 (de)
DE (1) DE112020001131T5 (de)
WO (1) WO2020182591A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210055740A1 (en) * 2017-09-13 2021-02-25 ClearMotion, Inc. Road surface-based vehicle control
US11590908B2 (en) * 2017-05-18 2023-02-28 Jaguar Land Rover Limited Vehicle control system, method and computer program for a vehicle control multilayer architecture
US20230071312A1 (en) * 2021-09-08 2023-03-09 PassiveLogic, Inc. External Activation of Quiescent Device
DE102023100352B3 (de) 2022-02-16 2023-04-27 Elmos Semiconductor Se LIDAR VCSEL-Laser-Modul mit geringen parasitären Induktivitäten
WO2023156513A2 (de) 2022-02-16 2023-08-24 Elmos Semiconductor Se Modul zur abgabe elektromagnetischer strahlung, insbesondere laserlichtmodul
DE102022107842A1 (de) 2022-04-01 2023-10-05 Valeo Schalter Und Sensoren Gmbh Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs
DE102022127121A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft LIDAR-System für ein Fahrassistenzsystem eines Kraftfahrzeugs
DE102022127124A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erzeugung eines Prüfdatensatzes für die Beurteilung einer Blockage eines LIDAR-Sensors für ein Fahrassistenzsystem eines Kraftfahrzeugs
DE102022127122A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft LIDAR-System für ein Fahrassistenzsystem

Families Citing this family (356)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110116520A1 (en) * 2008-07-07 2011-05-19 Koninklijke Philips Electronics N.V. Eye-safe laser-based lighting
US11885887B1 (en) * 2012-04-16 2024-01-30 Mazed Mohammad A Imaging subsystem
US10074417B2 (en) * 2014-11-20 2018-09-11 Rambus Inc. Memory systems and methods for improved power management
WO2017170005A1 (ja) * 2016-03-30 2017-10-05 日本電気株式会社 屋内外判定プログラムが記録された記録媒体、屋内外判定システム、屋内外判定方法、移動端末、及び屋内外環境分類判定手段
US10142196B1 (en) 2016-04-15 2018-11-27 Senseware, Inc. System, method, and apparatus for bridge interface communication
JP6712936B2 (ja) * 2016-09-23 2020-06-24 株式会社小松製作所 作業車両の管理システム及び作業車両の管理方法
KR102569539B1 (ko) * 2016-11-07 2023-08-24 주식회사 에이치엘클레무브 차량용 물체감지시스템 및 차량용 물체감지방법
TW201826993A (zh) * 2016-12-09 2018-08-01 美商泰華施股份有限公司 具有基於環境之操作速度變化的機器人清潔裝置
DE102017106959A1 (de) * 2017-03-31 2018-10-04 Osram Opto Semiconductors Gmbh Leuchtvorrichtung und Leuchtsystem
US11226403B2 (en) * 2017-07-12 2022-01-18 GM Global Technology Operations LLC Chip-scale coherent lidar with integrated high power laser diode
EP3438699A1 (de) * 2017-07-31 2019-02-06 Hexagon Technology Center GmbH Distanzmesser mit spad-anordnung zur berücksichtigung von mehrfachzielen
WO2019028205A1 (en) 2017-08-03 2019-02-07 The Research Foundation For The State University Of New York DIGITAL X-RAY RADIOGRAPHY WITH ASYMMETRIC REFLECTIVE SCREENS
JP2019032206A (ja) * 2017-08-07 2019-02-28 ソニーセミコンダクタソリューションズ株式会社 距離センサ、距離測定装置、および画像センサ
DE102017214346A1 (de) * 2017-08-17 2019-02-21 Volkswagen Aktiengesellschaft Scheinwerfer für ein Fahrzeug
DE102017122711A1 (de) * 2017-09-29 2019-04-04 Claas E-Systems Kgaa Mbh & Co. Kg Verfahren für den Betrieb einer selbstfahrenden landwirtschaftlichen Arbeitsmaschine
JP6773002B2 (ja) * 2017-10-30 2020-10-21 株式会社デンソー 車両用装置及びコンピュータプログラム
US10914110B2 (en) * 2017-11-02 2021-02-09 Magna Closures Inc. Multifunction radar based detection system for a vehicle liftgate
US11175388B1 (en) * 2017-11-22 2021-11-16 Insight Lidar, Inc. Digital coherent LiDAR with arbitrary waveforms
US11232350B2 (en) * 2017-11-29 2022-01-25 Honda Motor Co., Ltd. System and method for providing road user classification training using a vehicle communications network
EP3503457B1 (de) * 2017-12-22 2020-08-12 ID Quantique S.A. Verfahren und vorrichtung zur erkennung von blendenangriffen in einem quantenverschlüsselten kanal
US11262756B2 (en) * 2018-01-15 2022-03-01 Uatc, Llc Discrete decision architecture for motion planning system of an autonomous vehicle
JP7246863B2 (ja) * 2018-04-20 2023-03-28 ソニーセミコンダクタソリューションズ株式会社 受光装置、車両制御システム及び測距装置
US11787346B2 (en) * 2018-04-20 2023-10-17 Axon Enterprise, Inc. Systems and methods for a housing equipment for a security vehicle
KR102025012B1 (ko) * 2018-05-08 2019-09-24 재단법인 다차원 스마트 아이티 융합시스템 연구단 멀티 픽셀 마이크로 렌즈 픽셀 어레이와 컬러 믹스 문제를 해결하기 위한 카메라 시스템 및 그 동작 방법
DE102018209192B3 (de) * 2018-05-17 2019-05-09 Continental Automotive Gmbh Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
US11303632B1 (en) * 2018-06-08 2022-04-12 Wells Fargo Bank, N.A. Two-way authentication system and method
DE102018214354A1 (de) * 2018-08-24 2020-02-27 Robert Bosch Gmbh Erstes fahrzeugseitiges Endgerät, Verfahren zum Betreiben des ersten Endgeräts, zweites fahrzeugseitiges Endgerät und Verfahren zum Betreiben des zweiten fahrzeugseitigen Endgeräts
US10928498B1 (en) * 2018-09-18 2021-02-23 Apple Inc. Electronic device with circular radar-antenna array
US10955857B2 (en) * 2018-10-02 2021-03-23 Ford Global Technologies, Llc Stationary camera localization
US11195418B1 (en) * 2018-10-04 2021-12-07 Zoox, Inc. Trajectory prediction on top-down scenes and associated model
WO2020086972A1 (en) * 2018-10-26 2020-04-30 Current Lighting Solutions, Llc Identification of lighting fixtures for indoor positioning using color band code
US11388797B2 (en) * 2018-10-29 2022-07-12 Signify Holding B.V. Lighting system with connected light sources
US10908409B2 (en) * 2018-12-07 2021-02-02 Beijing Voyager Technology Co., Ltd. Coupled and synchronous mirror elements in a LiDAR-based micro-mirror array
US11082535B2 (en) * 2018-12-20 2021-08-03 Here Global B.V. Location enabled augmented reality (AR) system and method for interoperability of AR applications
JP2020118567A (ja) * 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測距装置、車載システム及び測距方法
CN113474618B (zh) * 2019-02-01 2024-03-15 砺铸智能设备(天津)有限公司 使用多光谱3d激光扫描的对象检查的系统和方法
AU2020218753A1 (en) 2019-02-04 2021-09-30 Anduril Industries, Inc. Advanced computational pixel imagers with multiple in-pixel counters
EP3693243A1 (de) * 2019-02-06 2020-08-12 Zenuity AB Verfahren und system zur steuerung eines automatisierten fahrsystems eines fahrzeugs
WO2020164021A1 (zh) * 2019-02-13 2020-08-20 北京百度网讯科技有限公司 用于驾驶控制的方法、装置、设备、介质和系统
US11003195B2 (en) * 2019-02-28 2021-05-11 GM Global Technology Operations LLC Method to prioritize the process of receiving for cooperative sensor sharing objects
US11644549B2 (en) * 2019-03-06 2023-05-09 The University Court Of The University Of Edinburgh Extended dynamic range and reduced power imaging for LIDAR detector arrays
JP6970703B2 (ja) * 2019-03-18 2021-11-24 株式会社東芝 電子装置および方法
JP2020153798A (ja) * 2019-03-19 2020-09-24 株式会社リコー 光学装置、測距光学系ユニット、測距装置及び測距システム
JP7147651B2 (ja) * 2019-03-22 2022-10-05 トヨタ自動車株式会社 物体認識装置及び車両制御システム
US11521309B2 (en) * 2019-05-30 2022-12-06 Bruker Nano, Inc. Method and apparatus for rapid inspection of subcomponents of manufactured component
DE102019208269A1 (de) * 2019-06-06 2020-12-10 Robert Bosch Gmbh Lidar-Vorrichtung
CN112114322A (zh) * 2019-06-21 2020-12-22 广州印芯半导体技术有限公司 飞时测距装置及飞时测距方法
US11267590B2 (en) * 2019-06-27 2022-03-08 Nxgen Partners Ip, Llc Radar system and method for detecting and identifying targets using orbital angular momentum correlation matrix
US11153010B2 (en) * 2019-07-02 2021-10-19 Waymo Llc Lidar based communication
US20210005085A1 (en) * 2019-07-03 2021-01-07 Cavh Llc Localized artificial intelligence for intelligent road infrastructure
TWI786311B (zh) * 2019-07-04 2022-12-11 先進光電科技股份有限公司 行動載具輔助系統及其停車控制方法
US11269076B2 (en) * 2019-07-11 2022-03-08 Mtd Products Inc Solid state LIDAR machine vision for power equipment device
US11663378B2 (en) * 2019-07-16 2023-05-30 Here Global B.V. Method, apparatus, and system for providing traffic simulations in a smart-city infrastructure
EP3770881B1 (de) * 2019-07-26 2023-11-15 Volkswagen AG Verfahren, computerprogramme, vorrichtungen, fahrzeug und verkehrseinheit zum aktualisieren eines umgebungsmodells eines fahrzeugs
US11592537B2 (en) * 2019-07-29 2023-02-28 Infineon Technologies Ag Optical crosstalk mitigation in LIDAR using digital signal processing
US11403077B2 (en) * 2019-08-01 2022-08-02 Dspace Gmbh Method and system for preparing block diagrams for code generation
US10802120B1 (en) 2019-08-20 2020-10-13 Luminar Technologies, Inc. Coherent pulsed lidar system
US11237612B2 (en) * 2019-08-22 2022-02-01 Micron Technology, Inc. Charge-sharing capacitive monitoring circuit in a multi-chip package to control power
US11164784B2 (en) 2019-08-22 2021-11-02 Micron Technology, Inc. Open-drain transistor monitoring circuit in a multi-chip package to control power
CN112532342B (zh) * 2019-09-17 2023-05-16 华为技术有限公司 一种背反射通信中的数据传输方法和装置
US11455515B2 (en) * 2019-09-24 2022-09-27 Robert Bosch Gmbh Efficient black box adversarial attacks exploiting input data structure
US11144769B2 (en) * 2019-09-30 2021-10-12 Pony Ai Inc. Variable resolution sensors
US11619945B2 (en) * 2019-09-30 2023-04-04 GM Cruise Holdings LLC. Map prior layer
JP7238722B2 (ja) * 2019-10-11 2023-03-14 トヨタ自動車株式会社 車両駐車支援装置
KR20210044433A (ko) * 2019-10-15 2021-04-23 에스케이하이닉스 주식회사 이미지 센서 및 이를 포함하는 이미지 처리 장치
FR3102253B1 (fr) * 2019-10-16 2022-01-14 Commissariat Energie Atomique Procédé de détection d’obstacle, dispositif de détection, système de détection et véhicule associés
US11573302B2 (en) * 2019-10-17 2023-02-07 Argo AI, LLC LiDAR system comprising a Geiger-mode avalanche photodiode-based receiver having pixels with multiple-return capability
US11838400B2 (en) * 2019-11-19 2023-12-05 International Business Machines Corporation Image encoding for blockchain
CN112909034A (zh) 2019-12-04 2021-06-04 半导体元件工业有限责任公司 半导体器件
US11652176B2 (en) * 2019-12-04 2023-05-16 Semiconductor Components Industries, Llc Semiconductor devices with single-photon avalanche diodes and light scattering structures with different densities
US11420645B2 (en) * 2019-12-11 2022-08-23 At&T Intellectual Property I, L.P. Method and apparatus for personalizing autonomous transportation
US11592575B2 (en) * 2019-12-20 2023-02-28 Waymo Llc Sensor steering for multi-directional long-range perception
US20210209377A1 (en) * 2020-01-03 2021-07-08 Cawamo Ltd System and method for identifying events of interest in images from one or more imagers in a computing network
US10907960B1 (en) * 2020-01-06 2021-02-02 Outsight SA Calibration system for combined depth and texture sensor
US20210215798A1 (en) * 2020-01-10 2021-07-15 Continental Automotive Systems, Inc. Lidar system
US11619722B2 (en) * 2020-02-12 2023-04-04 Ford Global Technologies, Llc Vehicle lidar polarization
US11506786B2 (en) 2020-02-14 2022-11-22 Arete Associates Laser detection and ranging
US11643105B2 (en) 2020-02-21 2023-05-09 Argo AI, LLC Systems and methods for generating simulation scenario definitions for an autonomous vehicle system
US11429107B2 (en) 2020-02-21 2022-08-30 Argo AI, LLC Play-forward planning and control system for an autonomous vehicle
US11567173B2 (en) * 2020-03-04 2023-01-31 Caterpillar Paving Products Inc. Systems and methods for increasing lidar sensor coverage
US11450116B2 (en) * 2020-03-09 2022-09-20 Ford Global Technologies, Llc Systems and methods for sharing camera setting control among multiple image processing components in a vehicle
US20210288726A1 (en) * 2020-03-12 2021-09-16 Uber Technologies Inc. Location accuracy using local transmitters
US11521504B2 (en) * 2020-03-18 2022-12-06 Rosemount Aerospace Inc. Method and system for aircraft taxi strike alerting
JP7383542B2 (ja) * 2020-03-24 2023-11-20 株式会社東芝 光検出器及び距離計測装置
US11644551B2 (en) * 2020-03-30 2023-05-09 Semiconductor Components Industries, Llc Lidar systems with improved time-to-digital conversion circuitry
US11381399B2 (en) * 2020-04-01 2022-07-05 Ford Global Technologies, Llc Enhanced vehicle operation
CN115427753A (zh) * 2020-04-15 2022-12-02 三菱电机株式会社 参数调整装置、学习装置、测定系统、参数调整方法及程序
US11443447B2 (en) * 2020-04-17 2022-09-13 Samsung Electronics Co., Ltd. Three-dimensional camera system
KR20210138201A (ko) * 2020-05-11 2021-11-19 현대자동차주식회사 자율 주행 제어 방법 및 장치
US11032530B1 (en) * 2020-05-15 2021-06-08 Microsoft Technology Licensing, Llc Gradual fallback from full parallax correction to planar reprojection
EP3916424A1 (de) * 2020-05-25 2021-12-01 Scantinel Photonics GmbH Vorrichtung und verfahren zur scannenden messung des abstands zu einem objekt
US11595619B1 (en) * 2020-06-02 2023-02-28 Aurora Operations, Inc. Autonomous vehicle teleoperations system
US11481884B2 (en) * 2020-06-04 2022-10-25 Nuro, Inc. Image quality enhancement for autonomous vehicle remote operations
US11428785B2 (en) * 2020-06-12 2022-08-30 Ours Technology, Llc Lidar pixel with active polarization control
JP2023530118A (ja) * 2020-06-16 2023-07-13 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ネットワークトラフィックアクティビティを報告するための技法
CN112639514B (zh) * 2020-07-07 2024-02-23 深圳市速腾聚创科技有限公司 激光接收装置、激光雷达及智能感应设备
FR3112653A1 (fr) * 2020-07-15 2022-01-21 STMicroelectronics (Alps) SAS Circuit intégré et procédé de diagnostic d’un tel circuit intégré
WO2022016276A1 (en) 2020-07-21 2022-01-27 Leddartech Inc. Beam-steering device particularly for lidar systems
CA3125716C (en) 2020-07-21 2024-04-09 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
CA3125718C (en) * 2020-07-21 2023-10-03 Leddartech Inc. Beam-steering devices and methods for lidar applications
US11119219B1 (en) * 2020-08-10 2021-09-14 Luminar, Llc Lidar system with input optical element
US20220050201A1 (en) * 2020-08-17 2022-02-17 Litexel Inc. Fmcw imaging lidar based on coherent pixel array
US10884130B1 (en) * 2020-08-18 2021-01-05 Aeva, Inc. LIDAR system noise calibration and target detection
US11553618B2 (en) * 2020-08-26 2023-01-10 PassiveLogic, Inc. Methods and systems of building automation state load and user preference via network systems activity
US11722590B1 (en) 2020-08-28 2023-08-08 Apple Inc. Electronic devices with conductive tape
US11882752B1 (en) 2020-08-28 2024-01-23 Apple Inc. Electronic devices with through-display sensors
CA3130336A1 (en) 2020-09-10 2022-03-10 Saco Technologies Inc. Light shaping assembly having a two-dimensional array of light sources and a fresnel lens
US11238729B1 (en) * 2020-09-11 2022-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for traffic flow prediction
US11212195B1 (en) * 2020-09-11 2021-12-28 Microsoft Technology Licensing, Llc IT monitoring recommendation service
CN112162259B (zh) * 2020-09-15 2024-02-13 中国电子科技集团公司第四十四研究所 脉冲激光时间电压转换电路及其控制方法
US20220091266A1 (en) * 2020-09-18 2022-03-24 Denso International America, Inc. Systems and methods for enhancing outputs of a lidar
WO2022061656A1 (zh) * 2020-09-24 2022-03-31 深圳市大疆创新科技有限公司 激光测距装置
US11561289B2 (en) * 2020-09-25 2023-01-24 Beijing Voyager Technology Co., Ltd. Scanning LiDAR system with a wedge prism
US11966811B2 (en) * 2020-09-28 2024-04-23 Cognex Corporation Machine vision system and method with on-axis aimer and distance measurement assembly
US11057115B1 (en) * 2020-09-30 2021-07-06 Visera Technologies Company Limited Optical communication device
US11943294B1 (en) * 2020-09-30 2024-03-26 Amazon Technologies, Inc. Storage medium and compression for object stores
CN112372631B (zh) * 2020-10-05 2022-03-15 华中科技大学 一种大型复杂构件机器人加工的快速碰撞检测方法及设备
US20220113390A1 (en) * 2020-10-09 2022-04-14 Silc Technologies, Inc. Increasing signal-to-noise ratios in lidar systems
CN112202800B (zh) * 2020-10-10 2021-10-01 中国科学技术大学 C-ran架构中基于强化学习的vr视频边缘预取方法和系统
US11726383B2 (en) * 2020-10-14 2023-08-15 California Institute Of Technology Modular hybrid optical phased arrays
US11327158B1 (en) * 2020-10-19 2022-05-10 Aeva, Inc. Techniques to compensate for mirror Doppler spreading in coherent LiDAR systems using matched filtering
US11385351B2 (en) * 2020-10-19 2022-07-12 Aeva, Inc. Techniques for automatically adjusting detection threshold of FMCW LIDAR
CN112270059A (zh) * 2020-10-19 2021-01-26 泰州市气象局 一种天气雷达组网策略评估方法及系统
CN112305961B (zh) * 2020-10-19 2022-04-12 武汉大学 新型信号探测采集设备
KR20220052176A (ko) * 2020-10-20 2022-04-27 현대자동차주식회사 문자 메시지 분석 및 알림 장치
US11648959B2 (en) 2020-10-20 2023-05-16 Argo AI, LLC In-vehicle operation of simulation scenarios during autonomous vehicle runs
CN112285746B (zh) * 2020-10-21 2024-02-13 厦门大学 基于多路径信号的欺骗检测方法和装置
CN112821930A (zh) * 2020-10-25 2021-05-18 泰州物族信息科技有限公司 自适应天线状态管理平台
CN112558053B (zh) * 2020-10-28 2022-05-31 电子科技大学 基于微波光子真延时的光波束形成网络装置和方法
CN112379393B (zh) * 2020-10-29 2023-04-25 中车株洲电力机车研究所有限公司 一种列车碰撞预警方法及其装置
CN112348344B (zh) * 2020-10-30 2022-09-06 天津市赛英工程建设咨询管理有限公司 一种公共交通可达指数计算方法
US11105904B1 (en) 2020-10-30 2021-08-31 Aeva, Inc. Techniques for mitigating lag-angle effects for LIDARs scans
US11965989B2 (en) * 2020-11-04 2024-04-23 Beijing Voyager Technology Co., Ltd. Copackaging photodetector and readout circuit for improved LiDAR detection
US10976415B1 (en) 2020-11-09 2021-04-13 Aeva, Inc. Techniques for image conjugate pitch reduction
US10948598B1 (en) * 2020-11-25 2021-03-16 Aeva, Inc. Coherent LiDAR system utilizing polarization-diverse architecture
CN116583959A (zh) * 2020-11-27 2023-08-11 趣眼有限公司 用于红外感测的方法和系统
CN112417798B (zh) * 2020-11-27 2023-05-23 成都海光微电子技术有限公司 一种时序测试方法、装置、电子设备及存储介质
JP2023552735A (ja) * 2020-11-27 2023-12-19 トライアイ リミテッド 赤外感知のための方法およびシステム
US11985433B2 (en) * 2020-11-30 2024-05-14 Microsoft Technology Licensing, Llc SPAD array for intensity image sensing on head-mounted displays
CN112347993B (zh) * 2020-11-30 2023-03-17 吉林大学 一种基于车辆-无人机协同的高速公路车辆行为和轨迹预测方法
WO2022120290A1 (en) * 2020-12-05 2022-06-09 Alpha Fiber, Inc. System and method for detection and monitoring of impact
CN112529799A (zh) * 2020-12-07 2021-03-19 中国工程物理研究院流体物理研究所 一种基于fpga卷积神经网络结构的光学像差畸变校正系统
CN112540363B (zh) * 2020-12-07 2023-08-08 西安电子科技大学芜湖研究院 一种用于激光雷达的硅光电倍增管读出电路
CN112464870B (zh) * 2020-12-08 2024-04-16 未来汽车科技(深圳)有限公司 用于ar-hud的目标物实景融合方法、系统、设备、存储介质
CN114615397B (zh) * 2020-12-09 2023-06-30 华为技术有限公司 Tof装置及电子设备
KR20220083059A (ko) * 2020-12-11 2022-06-20 삼성전자주식회사 Tof 카메라 장치와 그 구동방법
CN112698356B (zh) * 2020-12-14 2023-08-01 哈尔滨工业大学(深圳) 基于多孔径收发的无盲区脉冲相干测风激光雷达系统
KR102512347B1 (ko) * 2020-12-14 2023-03-22 현대모비스 주식회사 시간 디지털 컨버터 및 이를 이용한 신호 정렬 장치 및 이를 이용한 방법
CN114640394B (zh) * 2020-12-15 2023-05-26 中国联合网络通信集团有限公司 通信方法及通信装置
CN112686105B (zh) * 2020-12-18 2021-11-02 云南省交通规划设计研究院有限公司 一种基于视频图像多特征融合的雾浓度等级识别方法
CN112686842B (zh) * 2020-12-21 2021-08-24 苏州炫感信息科技有限公司 一种光斑检测方法、装置、电子设备及可读存储介质
US20210109881A1 (en) * 2020-12-21 2021-04-15 Intel Corporation Device for a vehicle
US20220200626A1 (en) * 2020-12-21 2022-06-23 Intel Corporation Flexible compression header and code generation
KR20230162131A (ko) * 2020-12-26 2023-11-28 트라이아이 엘티디. 단파 적외선 검출 정보에 기초하여 깊이 이미지를 생성하기 위한 시스템, 방법 및 컴퓨터 프로그램 제품
CN112731357A (zh) * 2020-12-30 2021-04-30 清华大学 一种激光点云里程计定位误差的实时修正方法和系统
US20230107571A1 (en) * 2021-10-01 2023-04-06 Liberty Reach Inc. Machine Vision-Based Method and System for Locating Objects within a Scene Containing the Objects
CN112883997B (zh) * 2021-01-11 2023-05-12 武汉坤能轨道系统技术有限公司 一种轨道交通扣件检测系统及检测方法
WO2022153126A1 (en) * 2021-01-14 2022-07-21 Innoviz Technologies Ltd. Synchronization of multiple lidar systems
CN112765809B (zh) * 2021-01-14 2022-11-11 成都理工大学 基于高地应力隧道典型灾害的铁路线路比选方法和装置
CN112651382B (zh) * 2021-01-15 2024-04-02 北京中科虹霸科技有限公司 对焦数据标定系统和虹膜图像采集系统
US11309854B1 (en) * 2021-01-26 2022-04-19 Saudi Arabian Oil Company Digitally controlled grounded capacitance multiplier
US20220236412A1 (en) * 2021-01-26 2022-07-28 Omron Corporation Laser scanner apparatus and method of operation
TWI766560B (zh) * 2021-01-27 2022-06-01 國立臺灣大學 結合語義分割與光達點雲之物件辨識與測距系統
CN112954586B (zh) * 2021-01-29 2022-09-09 北京邮电大学 一种欺骗干扰源定位方法、电子设备及存储介质
CN112953634A (zh) * 2021-01-29 2021-06-11 Oppo广东移动通信有限公司 可见光通信传输的优化方法、电子设备及存储介质
CN112924960B (zh) * 2021-01-29 2023-07-18 重庆长安汽车股份有限公司 目标尺寸实时检测方法、系统、车辆及存储介质
US11763425B2 (en) * 2021-02-03 2023-09-19 Qualcomm Incorporated High resolution time-of-flight depth imaging
CN112965054B (zh) * 2021-02-03 2023-09-19 南京众控电子科技有限公司 基于雷达技术的舱门启闭识别方法
US11770701B2 (en) 2021-02-05 2023-09-26 Argo AI, LLC Secure communications with autonomous vehicles
EP4291918A1 (de) * 2021-02-11 2023-12-20 Sony Semiconductor Solutions Corporation Konfigurationssteuerungsschaltung und konfigurationsteuerungsverfahren
US20220260340A1 (en) * 2021-02-17 2022-08-18 Bae Systems Information And Electronic Systems Integration Inc. Push broom clutter rejection using a multimodal filter
CN112918214B (zh) * 2021-02-22 2022-05-31 一汽奔腾轿车有限公司 一种实现远程空调控制的方法及控制装置
CN112883872B (zh) * 2021-02-22 2023-11-07 业泓科技(成都)有限公司 辨识传感结构、指纹识别模组及终端
TWI770834B (zh) * 2021-02-23 2022-07-11 國立陽明交通大學 一種角度估算方法及其適用之電子偵測裝置
US11802945B2 (en) 2021-03-10 2023-10-31 Allegro Microsystems, Llc Photonic ROIC having safety features
US11581697B2 (en) 2021-03-10 2023-02-14 Allegro Microsystems, Llc Detector system comparing pixel response with photonic energy decay
US11757893B2 (en) 2021-03-11 2023-09-12 Bank Of America Corporation System and method for authorizing entity users based on augmented reality and LiDAR technology
CN115079131A (zh) * 2021-03-11 2022-09-20 中强光电股份有限公司 光达装置
CN113093222B (zh) * 2021-03-11 2023-08-01 武汉大学 一种基于体布拉格光栅的单支谱测温激光雷达系统
US11567212B2 (en) 2021-03-15 2023-01-31 Argo AI, LLC Compressive sensing for photodiode data
CN113063327B (zh) * 2021-03-22 2023-04-25 贵州航天电子科技有限公司 一种全波采样的激光引信信号处理电路及信号处理方法
US20220311938A1 (en) * 2021-03-24 2022-09-29 Qualcomm Incorporated Image capture with expanded field of view
US11604264B2 (en) 2021-03-26 2023-03-14 Aeye, Inc. Switchable multi-lens Lidar receiver
US11474213B1 (en) 2021-03-26 2022-10-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using marker shots
US20220308184A1 (en) 2021-03-26 2022-09-29 Aeye, Inc. Hyper Temporal Lidar with Controllable Detection Intervals
US11635495B1 (en) 2021-03-26 2023-04-25 Aeye, Inc. Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror
US11630188B1 (en) * 2021-03-26 2023-04-18 Aeye, Inc. Hyper temporal lidar with dynamic laser control using safety models
US11811456B2 (en) 2021-03-30 2023-11-07 Honeywell International Inc. Multi-pixel waveguide optical receiver
US20220315220A1 (en) * 2021-03-31 2022-10-06 Skydio, Inc. Autonomous Aerial Navigation In Low-Light And No-Light Conditions
US11861896B1 (en) 2021-03-31 2024-01-02 Skydio, Inc. Autonomous aerial navigation in low-light and no-light conditions
US11867650B2 (en) 2021-04-06 2024-01-09 Apple Inc. Enclosure detection for reliable optical failsafe
CN114184091A (zh) * 2021-04-08 2022-03-15 西安龙飞电气技术有限公司 空空导弹导引头的红外雷达双模数字处理方法
WO2022221153A1 (en) * 2021-04-11 2022-10-20 Allen Samuels Remote vehicle operation with high latency communications
CN113345185B (zh) * 2021-04-12 2022-08-30 中国地质大学(武汉) 一种基于LoRa散射通信方法的无源门窗报警装置
US11770632B2 (en) 2021-04-14 2023-09-26 Allegro Microsystems, Llc Determining a temperature of a pixel array by measuring voltage of a pixel
US11409000B1 (en) * 2021-04-15 2022-08-09 Aeva, Inc. Techniques for simultaneous determination of range and velocity with passive modulation
US11646787B2 (en) * 2021-04-16 2023-05-09 Qualcomm Incorporated Utilization of sensor information by repeaters
DE102021203829A1 (de) * 2021-04-19 2022-10-20 Robert Bosch Gesellschaft mit beschränkter Haftung Reichweitenoptimiertes LiDAR-System sowie LiDAR-Vorrichtung (110) und Steuereinrichtung für ein solches LiDAR-System
EP4327119A1 (de) 2021-04-23 2024-02-28 OSRAM GmbH Amplitudenumtastungs-lidar
CN113094460B (zh) * 2021-04-25 2023-07-28 南京大学 一种结构层级的三维建筑物渐进式编码与传输方法及系统
CN113219493B (zh) * 2021-04-26 2023-08-25 中山大学 一种基于三维激光雷达传感器的端到端点云数据压缩方法
US11816187B2 (en) * 2021-04-30 2023-11-14 Intuit Inc. Anomaly detection in event-based systems using image processing
US11592674B2 (en) * 2021-05-03 2023-02-28 Microsoft Technology Licensing, Llc External illumination with reduced detectability
US11754683B2 (en) 2021-05-10 2023-09-12 nEYE Systems, Inc. Pseudo monostatic LiDAR with two-dimensional silicon photonic mems switch array
CN113219980B (zh) * 2021-05-14 2024-04-12 深圳中智永浩机器人有限公司 机器人全局自定位方法、装置、计算机设备及存储介质
US20220371533A1 (en) * 2021-05-18 2022-11-24 Motional Ad Llc Distributed vehicle body sensors for event detection
EP4323809A1 (de) * 2021-05-19 2024-02-21 Neye Systems, Inc. Lidar mit mikrolinsenarray und integriertem photonischem schalterarray
CN113298964A (zh) * 2021-05-21 2021-08-24 深圳市大道至简信息技术有限公司 一种基于高位视频路边停车联动管理方法及系统
US20220374428A1 (en) * 2021-05-24 2022-11-24 Nvidia Corporation Simulation query engine in autonomous machine applications
CN113328802B (zh) * 2021-05-27 2022-04-22 北方工业大学 Occ-vlc异构组网系统
CN113488489B (zh) * 2021-06-02 2024-02-23 汇顶科技私人有限公司 像素单元、光传感器及基于飞行时间的测距系统
CN113219990B (zh) * 2021-06-02 2022-04-26 西安电子科技大学 基于自适应邻域与转向代价的机器人路径规划方法
CN113407465B (zh) * 2021-06-16 2024-02-09 深圳市同泰怡信息技术有限公司 基板管理控制器的开关配置方法、装置、计算机设备
KR20220170151A (ko) * 2021-06-22 2022-12-29 현대자동차주식회사 차량 내부 네트워크에 대한 침입 대응 방법 및 장치
CN113345106A (zh) * 2021-06-24 2021-09-03 西南大学 一种基于多尺度多层级转换器的三维点云分析方法及系统
CN113469907B (zh) * 2021-06-28 2023-04-07 西安交通大学 一种基于叶片型面特征的数据简化方法及系统
CN113466924B (zh) * 2021-07-01 2023-05-05 成都理工大学 一种对称类弹头脉冲成形装置及方法
CN113253219B (zh) * 2021-07-05 2021-09-17 天津所托瑞安汽车科技有限公司 毫米波雷达的无参照物自标定方法、装置、设备和介质
CN113341427B (zh) * 2021-07-09 2024-05-17 中国科学技术大学 测距方法、装置、电子设备及存储介质
CN113238237B (zh) * 2021-07-12 2021-10-01 天津天瞳威势电子科技有限公司 一种库位探测方法及装置
US20230015697A1 (en) * 2021-07-13 2023-01-19 Citrix Systems, Inc. Application programming interface (api) authorization
CN113724146A (zh) * 2021-07-14 2021-11-30 北京理工大学 基于即插即用先验的单像素成像方法
CN113341402A (zh) * 2021-07-15 2021-09-03 哈尔滨工程大学 一种声呐监测机器人用声呐装置
US11804951B2 (en) * 2021-07-19 2023-10-31 Infineon Technologies Ag Advanced sensor security protocol
US20230023043A1 (en) * 2021-07-21 2023-01-26 Waymo Llc Optimized multichannel optical system for lidar sensors
US11875548B2 (en) * 2021-07-22 2024-01-16 GM Global Technology Operations LLC System and method for region of interest window generation for attention based perception
DE102021119423A1 (de) * 2021-07-27 2023-02-02 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung eines Objekts nach dem Prinzip der Triangulation
CN113485997B (zh) * 2021-07-27 2023-10-31 中南大学 基于概率分布偏差估计的轨迹数据纠偏方法
TWI788939B (zh) * 2021-08-03 2023-01-01 崑山科技大學 輔助檢測帕金森氏症之方法及系統
US20230044279A1 (en) * 2021-08-04 2023-02-09 Atieva, Inc. Sensor-based control of lidar resolution configuration
WO2023023106A2 (en) * 2021-08-18 2023-02-23 Lyte Technologies Inc. Optical transceiver arrays
US11929325B2 (en) * 2021-08-18 2024-03-12 Qualcomm Incorporated Mixed pitch track pattern
CN117859083A (zh) * 2021-08-18 2024-04-09 莱特人工智能公司 用于相干光学检测的集成阵列
CN215990972U (zh) * 2021-08-20 2022-03-08 深圳市首力智能科技有限公司 一种可转动的监控装置
US20230060383A1 (en) * 2021-08-25 2023-03-02 Cyngn, Inc. System and method of off-board-centric autonomous driving computation
CN113758480B (zh) * 2021-08-26 2022-07-26 南京英尼格玛工业自动化技术有限公司 一种面型激光定位系统、agv定位校准系统、以及agv定位方法
CN113676484B (zh) * 2021-08-27 2023-04-18 绿盟科技集团股份有限公司 一种攻击溯源方法、装置和电子设备
CN113722796B (zh) * 2021-08-29 2023-07-18 中国长江电力股份有限公司 一种基于视觉-激光雷达耦合的贫纹理隧洞建模方法
CN113743769B (zh) * 2021-08-30 2023-07-11 广东电网有限责任公司 数据安全检测方法、装置、电子设备及存储介质
CN113687429B (zh) * 2021-08-30 2023-07-04 四川启睿克科技有限公司 一种确定毫米波雷达监测区域边界的装置及方法
DE102021122418A1 (de) * 2021-08-31 2023-03-02 Sick Ag Optoelektronischer Sensor und Verfahren zum Erfassen von Objekten in einem Überwachungsbereich
FR3126506A1 (fr) * 2021-08-31 2023-03-03 Valeo Vision Dispositif d'éclairage automobile et procédé de détection d'un objet
US20230061830A1 (en) * 2021-09-02 2023-03-02 Canoo Technologies Inc. Metamorphic labeling using aligned sensor data
CN113781339B (zh) * 2021-09-02 2023-06-23 中科联芯(广州)科技有限公司 一种硅基多光谱信号处理方法、装置及移动终端
TWI787988B (zh) * 2021-09-03 2022-12-21 啟碁科技股份有限公司 偵測系統及偵測方法
US11830383B2 (en) * 2021-09-08 2023-11-28 PassiveLogic, Inc. External activating of quiescent device
CN117941410A (zh) 2021-09-09 2024-04-26 大众汽车股份公司 用于车辆的设备、方法和计算机程序
CN113766218B (zh) * 2021-09-14 2024-05-14 北京集创北方科技股份有限公司 光学镜头的位置检测方法、电子设备及存储介质
CN113884034B (zh) * 2021-09-16 2023-08-15 北方工业大学 雷达微振动目标形变量反演方法及装置
TWI780916B (zh) * 2021-09-16 2022-10-11 英業達股份有限公司 量子晶片冷卻管理裝置及其方法
CN113820695A (zh) * 2021-09-17 2021-12-21 深圳市睿联技术股份有限公司 测距方法与装置、终端系统及计算机可读存储介质
US20230089124A1 (en) * 2021-09-20 2023-03-23 DC-001, Inc. dba Spartan Radar Systems and methods for determining the local position of a vehicle using radar
EP4156107A1 (de) * 2021-09-24 2023-03-29 Beijing Xiaomi Mobile Software Co., Ltd. Verfahren und vorrichtung zur codierung/decodierung von durch mindestens einen sensor erfassten punktwolkengeometriedaten
CN113741541A (zh) * 2021-09-28 2021-12-03 广州极飞科技股份有限公司 无人设备飞行控制方法、装置、系统、设备及存储介质
DE102021210798A1 (de) 2021-09-28 2023-03-30 Volkswagen Aktiengesellschaft Strahlablenkeinrichtung für eine Laservorrichtung eines Kraftfahrzeugs, sowie Laservorrichtung
US20230099674A1 (en) * 2021-09-29 2023-03-30 Subaru Corporation Vehicle backup warning systems
US11378664B1 (en) * 2021-10-05 2022-07-05 Aeva, Inc. Techniques for compact optical sensing module with hybrid multi-chip integration
US11706853B2 (en) * 2021-10-06 2023-07-18 Microsoft Technology Licensing, Llc Monitoring an emission state of light sources
WO2023058671A1 (ja) * 2021-10-08 2023-04-13 ソニーセミコンダクタソリューションズ株式会社 画像センサ、データ処理装置、および画像センサシステム
WO2023058670A1 (ja) * 2021-10-08 2023-04-13 ソニーセミコンダクタソリューションズ株式会社 画像センサ、データ処理装置、および画像センサシステム
WO2023058669A1 (ja) * 2021-10-08 2023-04-13 ソニーセミコンダクタソリューションズ株式会社 画像センサ、データ処理装置、および画像センサシステム
CN113949629A (zh) * 2021-10-15 2022-01-18 深圳忆联信息系统有限公司 服务器基板管理控制器初始化方法、装置及计算机设备
US11847756B2 (en) * 2021-10-20 2023-12-19 Snap Inc. Generating ground truths for machine learning
CN113879435B (zh) * 2021-11-01 2022-11-01 深圳市乐骑智能科技有限公司 基于物联网电动滑板车转向灯自动控制方法及电动滑板车
CN114244907B (zh) * 2021-11-23 2024-01-16 华为技术有限公司 雷达数据的压缩方法和装置
DE102021130609A1 (de) 2021-11-23 2023-05-25 Scantinel Photonics GmbH Vorrichtung und Verfahren zur scannenden Messung des Abstands zu einem Objekt
CN114475650B (zh) * 2021-12-01 2022-11-01 中铁十九局集团矿业投资有限公司 一种车辆行驶行为确定方法、装置、设备及介质
CN114268368B (zh) * 2021-12-01 2023-09-19 重庆邮电大学 无人机大容量混沌空间激光安全应急通信系统设计方法
WO2023108177A2 (en) * 2021-12-06 2023-06-15 Quantum Biotek Inc. Pulsewave velocity detection device and the hemodynamic determination of hba1c, arterial age and calcium score
CN114157358B (zh) * 2021-12-10 2022-12-27 中国科学院西安光学精密机械研究所 激光通信中日凌地面模拟装置
JP7097647B1 (ja) * 2021-12-16 2022-07-08 Dolphin株式会社 光走査装置、物体検出装置、光走査装置の調整方法及びプログラム
CN116265983A (zh) * 2021-12-17 2023-06-20 上海禾赛科技有限公司 激光雷达的控制方法以及多通道激光雷达
US20230204725A1 (en) * 2021-12-23 2023-06-29 Suteng Innovation Technology Co., Ltd. Lidar anti-interference method and apparatus, storage medium, and lidar
CN114056352A (zh) * 2021-12-24 2022-02-18 上海海积信息科技股份有限公司 一种自动驾驶控制装置及车辆
CN116338634A (zh) * 2021-12-24 2023-06-27 深圳市速腾聚创科技有限公司 波导组件、集成芯片及激光雷达
US20230204781A1 (en) * 2021-12-28 2023-06-29 Nio Technology (Anhui) Co., Ltd. Time of flight cameras using passive image sensors and existing light sources
CN114370828B (zh) * 2021-12-28 2023-06-20 中国铁路设计集团有限公司 基于激光扫描的盾构隧道直径收敛和径向错台检测方法
CN113985420B (zh) * 2021-12-28 2022-05-03 四川吉埃智能科技有限公司 一种斜45°激光雷达扫描光路误差补偿方法
CN114413961B (zh) * 2021-12-30 2024-04-26 军事科学院系统工程研究院军事新能源技术研究所 一种用于动态激光无线能量传输系统的测试评价装置
CN114325741B (zh) * 2021-12-31 2023-04-07 探维科技(北京)有限公司 探测模组及激光测距系统
US11927814B2 (en) * 2022-01-05 2024-03-12 Scidatek Inc. Semiconductor photodetector array sensor integrated with optical-waveguide-based devices
CN114527483B (zh) * 2022-01-06 2022-09-13 北京福通互联科技集团有限公司 一种主动式探测光电图像采集系统
US20230246601A1 (en) * 2022-01-31 2023-08-03 Qorvo Us, Inc. Protection circuit for acoustic filter and power amplifier stage
CN114705081B (zh) * 2022-02-11 2023-09-08 广东空天科技研究院 一种可变形可回收式背负式箭机组合体空中发射系统
CN114444615B (zh) * 2022-02-14 2023-04-07 烟台大学 一种基于工业类PaaS平台的贝叶斯分类识别系统及其识别方法
CN114567632B (zh) * 2022-02-23 2023-09-19 中煤能源研究院有限责任公司 渐进式编码的边缘智能图像传输方法、系统、设备及介质
CN114545405B (zh) * 2022-02-24 2023-05-02 电子科技大学 一种基于神经网络的实波束扫描雷达角超分辨方法
CN114723672A (zh) * 2022-03-09 2022-07-08 杭州易现先进科技有限公司 一种三维重建数据采集校验的方法、系统、装置和介质
CN114624818B (zh) * 2022-03-18 2024-03-29 苏州山河光电科技有限公司 光纤光栅装置以及传感设备
CN114719830B (zh) * 2022-03-23 2023-06-23 深圳市维力谷无线技术股份有限公司 一种背负式移动测绘系统及具有该系统的测绘仪
CN114419260B (zh) * 2022-03-30 2022-06-17 山西建筑工程集团有限公司 利用复合式点云网进行三维地形测绘土方工程量的方法
CN114724368B (zh) * 2022-03-31 2023-04-25 海南龙超信息科技集团有限公司 智慧城市交通管理系统
CN114814880A (zh) * 2022-04-01 2022-07-29 深圳市灵明光子科技有限公司 一种激光雷达探测参数调整控制方法及装置
CN114861587B (zh) * 2022-04-07 2023-03-10 珠海妙存科技有限公司 一种芯片载板引脚排布设计方法、系统、装置与存储介质
US20230333255A1 (en) * 2022-04-14 2023-10-19 Aurora Operations, Inc. Lidar system
US11886095B2 (en) 2022-04-15 2024-01-30 Raytheon Company Scalable unit cell device for large two-dimensional arrays with integrated phase control
CN114743269B (zh) * 2022-04-19 2022-12-02 国网湖北省电力有限公司黄石供电公司 一种变电站工人不规范操作识别方法及系统
CN114519403B (zh) * 2022-04-19 2022-09-02 清华大学 基于片上衍射神经网络的光学图神经分类网络、方法
DE102022203850A1 (de) * 2022-04-20 2023-10-26 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Bestimmung einer Pupillenposition
EP4270050A1 (de) * 2022-04-25 2023-11-01 Leica Geosystems AG Verfahren zur koordinativen messung durch terrestrische abtastung mit bildbasierter interferenzdetektion bewegter objekte
CN114935751B (zh) * 2022-05-13 2024-04-12 中国科学院西安光学精密机械研究所 一种高数字动态目标模拟器及模拟方法
CN114999581B (zh) * 2022-06-13 2023-11-10 华东交通大学 一种稀土萃取分离过程的时滞辨识方法和系统
CN114758311B (zh) * 2022-06-14 2022-09-02 北京航空航天大学 一种基于异质特征融合的交通流量预测方法及系统
CN114764911B (zh) * 2022-06-15 2022-09-23 小米汽车科技有限公司 障碍物信息检测方法、装置、电子设备及存储介质
WO2023245145A2 (en) * 2022-06-16 2023-12-21 Nanopath Inc. Multiplexed pathogen detection using nanoplasmonic sensor for human papillomavirus
EP4300133A1 (de) * 2022-06-27 2024-01-03 VoxelSensors SRL Optisches abtastsystem
CN115168345B (zh) * 2022-06-27 2023-04-18 天翼爱音乐文化科技有限公司 数据库分级分类方法、系统、装置及存储介质
DE102022116331A1 (de) * 2022-06-30 2024-01-04 Connaught Electronics Ltd. Kamera für ein Fahrzeug, Verfahren zum Betreiben einer Kamera und System mit einer Kamera, z.B. zur Verwendung als Kamera-Monitor-System oder Rundumsicht-System
CN115313128B (zh) * 2022-07-07 2024-04-26 北京工业大学 一种基于多谱段中波红外皮秒全光纤激光器的干扰系统
CN115222791B (zh) * 2022-07-15 2023-08-15 小米汽车科技有限公司 目标关联方法、装置、可读存储介质及芯片
CN114935739B (zh) * 2022-07-20 2022-11-01 南京恩瑞特实业有限公司 一种相控阵天气雷达机内测试源的补偿系统
CN115100503B (zh) * 2022-07-29 2024-05-07 电子科技大学 一种基于曲率距离与硬具体分布的对抗点云生成方法、系统、存储介质及终端
CN115253141B (zh) * 2022-08-03 2023-06-02 杭州智缤科技有限公司 一种低功耗智能消火栓系统、控制方法和控制系统
KR20240040057A (ko) * 2022-08-05 2024-03-27 코어포토닉스 리미티드 자동 조정 가능한 줌 시야를 갖는 줌 디지털 카메라용 시스템 및 방법
CN115341165B (zh) * 2022-08-22 2023-10-10 中国科学院长春应用化学研究所 一种粉末涂料熔射热喷涂设备系统
CN115144842B (zh) * 2022-09-02 2023-03-14 深圳阜时科技有限公司 发射模组、光电检测装置、电子设备及三维信息检测方法
EP4336211A1 (de) * 2022-09-07 2024-03-13 Nokia Technologies Oy Steuerung von vorrichtungen mit lidar-signalen
CN115279038B (zh) * 2022-09-26 2022-12-27 深圳国人无线通信有限公司 一种适用于高速信号传输的布线方法和pcb板
DE102022124675A1 (de) 2022-09-26 2024-03-28 Ifm Electronic Gmbh PMD-Sensor mit mehreren Halbleiterebenen
CN115356748B (zh) * 2022-09-29 2023-01-17 江西财经大学 基于激光雷达观测结果提取大气污染信息的方法与系统
WO2024081258A1 (en) * 2022-10-14 2024-04-18 Motional Ad Llc Plenoptic sensor devices, systems, and methods
WO2024092177A1 (en) * 2022-10-27 2024-05-02 Analog Photonics LLC Doppler processing in coherent lidar
CN115390164B (zh) * 2022-10-27 2023-01-31 南京信息工程大学 一种雷达回波外推预报方法及系统
CN116050243B (zh) * 2022-11-16 2023-09-05 南京玻璃纤维研究设计院有限公司 一种基于函数型统计模型的玻璃电阻率预测方法及系统
CN115603849B (zh) * 2022-11-24 2023-04-07 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) 多传感器触发控制方法、装置、设备及存储介质
CN115599799B (zh) * 2022-11-30 2023-03-10 中南大学 面向医疗大数据的区块链与联邦学习融合方法
CN115599025B (zh) * 2022-12-12 2023-03-03 南京芯驰半导体科技有限公司 芯片阵列的资源成组控制系统、方法及存储介质
CN115664426B (zh) * 2022-12-27 2023-03-21 深圳安德空间技术有限公司 一种探地雷达数据的实时无损压缩方法及系统
CN115825952A (zh) * 2023-01-19 2023-03-21 中国科学院空天信息创新研究院 一种同时双侧视成像的星载sar成像方法
US11906623B1 (en) * 2023-01-25 2024-02-20 Plusai, Inc. Velocity estimation using light detection and ranging (LIDAR) system
CN115827938B (zh) * 2023-02-20 2023-04-21 四川省煤田测绘工程院 国土空间规划数据采集方法、电子设备和计算机可读介质
CN115981375B (zh) * 2023-03-17 2023-07-28 南京信息工程大学 基于事件触发机制的多无人机时变编队控制器设计方法
CN116030212B (zh) * 2023-03-28 2023-06-02 北京集度科技有限公司 一种建图方法、设备、车辆及存储介质
CN116051429B (zh) * 2023-03-31 2023-07-18 深圳时识科技有限公司 数据增强方法、脉冲神经网络训练方法、存储介质和芯片
CN116184368B (zh) * 2023-04-25 2023-07-11 山东科技大学 基于高斯-马尔科夫的机载雷达安置误差插值校正方法
CN116232123B (zh) * 2023-05-06 2023-08-08 太原理工大学 一种基于矿用风筒振动频谱的能量自适应转换装置及方法
CN116242414B (zh) * 2023-05-12 2023-08-11 深圳深浦电气有限公司 响应时间检测系统及检测设备
US11927673B1 (en) * 2023-05-16 2024-03-12 Wireless Photonics, Llc Method and system for vehicular lidar and communication utilizing a vehicle head light and/or taillight
CN116671900B (zh) * 2023-05-17 2024-03-19 安徽理工大学 一种基于脑波仪的眨眼识别与控制方法
CN116466328A (zh) * 2023-06-19 2023-07-21 深圳市矽赫科技有限公司 一种Flash智能光学雷达装置及系统
CN117075130A (zh) * 2023-07-07 2023-11-17 中国电子科技集团公司第三十八研究所 低慢小目标激光跟踪装置及其工作方法
CN116609766B (zh) * 2023-07-21 2023-11-07 深圳市速腾聚创科技有限公司 激光雷达及可移动设备
CN116629183B (zh) * 2023-07-24 2023-10-13 湖南大学 碳化硅mosfet干扰源建模方法、设备及存储介质
CN116660866B (zh) * 2023-07-31 2023-12-05 今创集团股份有限公司 一种激光雷达可视检测盒及其制作方法、应用
CN116721301B (zh) * 2023-08-10 2023-10-24 中国地质大学(武汉) 目标场景分类模型训练方法、分类方法、设备及存储介质
CN116886637B (zh) * 2023-09-05 2023-12-19 北京邮电大学 一种基于图积分的单特征加密流检测方法及系统
CN117036647B (zh) * 2023-10-10 2023-12-12 中国电建集团昆明勘测设计研究院有限公司 基于倾斜实景三维模型的地面曲面提取方法
CN117098255B (zh) * 2023-10-19 2023-12-15 南京波达电子科技有限公司 一种基于边缘计算的去中心化雷达自组网方法
CN117170093B (zh) * 2023-11-03 2024-01-09 山东创瑞激光科技有限公司 一种面式扫描的光路系统
CN117278328B (zh) * 2023-11-21 2024-02-06 广东车卫士信息科技有限公司 基于车联网的数据处理方法及系统
CN117478278B (zh) * 2023-12-26 2024-03-15 南京信息工程大学 一种实现零差错通信的方法、装置、终端及储存介质
CN117470719B (zh) * 2023-12-27 2024-03-12 山西省生态环境监测和应急保障中心(山西省生态环境科学研究院) 一种具有多功能的环境监测机器人
CN117556221B (zh) * 2024-01-09 2024-03-26 四川大学 基于智能电气控制交互会话的数据分析方法及系统
CN117590353B (zh) * 2024-01-19 2024-03-29 山东省科学院海洋仪器仪表研究所 一种光子计数激光雷达的弱回波信号快速提取及成像方法
CN117890898B (zh) * 2024-03-01 2024-05-14 清华大学 基于相位中心捷变阵列的双基地雷达加密目标探测方法
CN117974369A (zh) * 2024-03-29 2024-05-03 陕西交控通宇交通研究有限公司 一种桥梁智能施工监控方法及装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7436038B2 (en) * 2002-02-05 2008-10-14 E-Phocus, Inc Visible/near infrared image sensor array
US8569700B2 (en) * 2012-03-06 2013-10-29 Omnivision Technologies, Inc. Image sensor for two-dimensional and three-dimensional image capture
CN103346476B (zh) * 2013-06-24 2015-10-28 中国科学院长春光学精密机械与物理研究所 光子晶体纳腔量子环单光子发射器件及其制备方法
US20150362587A1 (en) * 2014-06-17 2015-12-17 Microsoft Corporation Lidar sensor calibration using surface pattern detection
IL233356A (en) * 2014-06-24 2015-10-29 Brightway Vision Ltd Sensor-based imaging system with minimum wait time between sensor exposures
EP3161520B1 (de) * 2014-06-27 2021-10-13 HRL Laboratories, LLC Kompressiver abtastungs-lidar
IL235359A0 (en) * 2014-10-27 2015-11-30 Ofer David Wide-dynamic-range simulation of an environment with a high intensity radiating/reflecting source
CN104682194A (zh) * 2014-11-02 2015-06-03 北京工业大学 用于产生太赫兹波、微波的双共振垂直腔面发射激光器结构
TWI744196B (zh) 2015-08-04 2021-10-21 光程研創股份有限公司 製造影像感測陣列之方法
WO2017112416A1 (en) * 2015-12-20 2017-06-29 Apple Inc. Light detection and ranging sensor
US10761195B2 (en) * 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US10451740B2 (en) * 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing
US20170372602A1 (en) * 2016-06-24 2017-12-28 Continental Advanced Lidar Solutions Us, Llc Ladar enabled traffic control
US10120214B2 (en) * 2016-06-24 2018-11-06 Qualcomm Incorporated Systems and methods for light beam position detection
DE102017208052A1 (de) 2017-05-12 2018-11-15 Robert Bosch Gmbh Senderoptik für ein LiDAR-System, optische Anordnung für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung
DE202018006696U1 (de) * 2017-05-15 2022-04-01 Ouster, Inc. Optischer Bildübertrager mit Helligkeitsverbesserung
FR3066621A1 (fr) * 2017-05-17 2018-11-23 Valeo Systemes D'essuyage Dispositif de protection d'un capteur optique, systeme d'assistance a la conduite et procede d'assemblage correspondants
DE102017213298A1 (de) 2017-08-01 2019-02-07 Osram Gmbh Datenübermittlung an ein Kraftfahrzeug
DE102017213465A1 (de) 2017-08-03 2019-02-07 Robert Bosch Gmbh Lichtleiter-basiertes LiDAR-System
DE102017216198A1 (de) 2017-09-13 2019-03-14 Osram Gmbh Datenübermittlung mit einem kraftfahrzeug
DE102017127963A1 (de) 2017-11-27 2019-05-29 Valeo Schalter Und Sensoren Gmbh Schaltungsanordnung zum Erfassen von Licht
CN208111471U (zh) * 2018-04-25 2018-11-16 孙刘杰 一种基于mjt技术的倒装rcled
CN109541569A (zh) 2018-09-30 2019-03-29 北醒(北京)光子科技有限公司 一种激光雷达apd温度补偿系统及测量方法
DE102019001005A1 (de) 2019-02-11 2019-08-01 Daimler Ag Vorrichtung und Verfahren zur Kompression von Sensordaten
CN110620169B (zh) * 2019-09-10 2020-08-28 北京工业大学 一种基于共振腔的横向电流限制高效率发光二极管
CN115986033A (zh) * 2022-12-28 2023-04-18 厦门大学 一种同步辐射正交线偏振光谐振腔发光二极管

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11590908B2 (en) * 2017-05-18 2023-02-28 Jaguar Land Rover Limited Vehicle control system, method and computer program for a vehicle control multilayer architecture
US20210055740A1 (en) * 2017-09-13 2021-02-25 ClearMotion, Inc. Road surface-based vehicle control
US11733707B2 (en) * 2017-09-13 2023-08-22 ClearMotion, Inc. Road surface-based vehicle control
US20230071312A1 (en) * 2021-09-08 2023-03-09 PassiveLogic, Inc. External Activation of Quiescent Device
DE102023100352B3 (de) 2022-02-16 2023-04-27 Elmos Semiconductor Se LIDAR VCSEL-Laser-Modul mit geringen parasitären Induktivitäten
WO2023156513A2 (de) 2022-02-16 2023-08-24 Elmos Semiconductor Se Modul zur abgabe elektromagnetischer strahlung, insbesondere laserlichtmodul
DE102022107842A1 (de) 2022-04-01 2023-10-05 Valeo Schalter Und Sensoren Gmbh Detektionsvorrichtung und Verfahren zum Erkennen einer Person in einem Fahrzeuginnenraum eines Fahrzeugs
DE102022127121A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft LIDAR-System für ein Fahrassistenzsystem eines Kraftfahrzeugs
DE102022127124A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erzeugung eines Prüfdatensatzes für die Beurteilung einer Blockage eines LIDAR-Sensors für ein Fahrassistenzsystem eines Kraftfahrzeugs
DE102022127122A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft LIDAR-System für ein Fahrassistenzsystem

Also Published As

Publication number Publication date
EP3963355A1 (de) 2022-03-09
CN113795773A (zh) 2021-12-14
WO2020182591A1 (en) 2020-09-17
US20220276352A1 (en) 2022-09-01
US20200284883A1 (en) 2020-09-10
CN114942454A (zh) 2022-08-26
US20240094353A1 (en) 2024-03-21
US11726184B2 (en) 2023-08-15
CN114942453A (zh) 2022-08-26
US20220276351A1 (en) 2022-09-01
CA3173966A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
DE112020001131T5 (de) Komponente für ein Lidar-Sensorsystem, Lidar-Sensorsystem, Lidar-Sensorgerät, Verfahren für ein Lidar-Sensorsystem und Verfahren für ein Lidar-Sensorgerät
US10935989B2 (en) Methods and systems for navigating a vehicle including a novel fiducial marker system
Hakak et al. Autonomous Vehicles in 5G and beyond: A Survey
Cailean et al. Visible light communications: Application to cooperation between vehicles and road infrastructures
EP3629059B1 (de) Gemeinsame nutzung von klassifizierten, von autonomen fahrzeugen wahrgenommenen objekten
Căilean et al. Current challenges for visible light communications usage in vehicle applications: A survey
DE112020001643T5 (de) Autonomes Fahrzeugsystem
DE112020006966T5 (de) Wahrnehmung über dynamische kontextbezogene strassenbelegungskarten für die sicherheit ungeschützter verkehrsteilnehmer in intelligenten transportsystemen
CN111149141A (zh) 用于收集并使用来自交通工具的传感器数据的方法和装置
DE102019200215A1 (de) Fahrzeugübergreifendes Kommunikationssystem, Fahrzeugsystem, Fahrzeugbeleuchtungssystem und Fahrzeug
Zhang et al. Vehicle safety communications: protocols, security, and privacy
Mueck et al. Networking vehicles to everything: Evolving automotive solutions
DE212020000798U1 (de) Spezialisierte mobile Lichtvorrichtung mit einer gallium- und stickstoffhaltigen Laserquelle
WO2018050177A1 (de) Mobile funkeinheit zur verbesserung der verkehrssicherheit
DE102008061304A1 (de) Übertragung von Fahrzeug-relevanten Daten eines Fahrzeugs über mobile Kommunikation
JP6707644B2 (ja) インテリジェント分散型ビジョントラフィックマーカー及びその方法
EP2766891A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems und verfahren zum bearbeiten von fahrzeugumfelddaten
DE102018107854A1 (de) Modulierte Infrarotbeleuchtung
DE112019000310T5 (de) Entfernungsmessvorrichtung und entfernungsmessverfahren
DE102020132273A1 (de) Cybersicherheitsprotokoll
Kulkarni et al. Proposed framework for V2V communication using Li-Fi technology
Zadobrischi et al. The utility of DSRC and V2X in road safety applications and intelligent parking: Similarities, differences, and the future of vehicular communication
KR20190106928A (ko) 카메라와 그 제어 방법 및 카메라를 포함한 자율 주행 시스템
Chai et al. Autonomous driving changes the future
EP3618311B1 (de) Verfahren zum datenaustausch zwischen einem fahrzeug und einer infrastruktur oder einem weiteren fahrzeug

Legal Events

Date Code Title Description
R130 Divisional application to

Ref document number: 112020004515

Country of ref document: DE

Ref document number: 112020004514

Country of ref document: DE

R130 Divisional application to

Ref document number: 112020004515

Country of ref document: DE

Ref document number: 112020004514

Country of ref document: DE

R081 Change of applicant/patentee

Owner name: LEDDARTECH INC., CA

Free format text: FORMER OWNER: OSRAM GMBH, 80807 MUENCHEN, DE

R082 Change of representative

Representative=s name: LAVOIX MUNICH, DE

Representative=s name: LAVOIX MUNICH ZWEIGNIEDERLASSUNG DER CABINET L, DE