DE112015004335T5 - Laufzeitkamerasystem mit scanbeleuchter - Google Patents

Laufzeitkamerasystem mit scanbeleuchter Download PDF

Info

Publication number
DE112015004335T5
DE112015004335T5 DE112015004335.7T DE112015004335T DE112015004335T5 DE 112015004335 T5 DE112015004335 T5 DE 112015004335T5 DE 112015004335 T DE112015004335 T DE 112015004335T DE 112015004335 T5 DE112015004335 T5 DE 112015004335T5
Authority
DE
Germany
Prior art keywords
view
field
scanning
light
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112015004335.7T
Other languages
English (en)
Inventor
Chung Chun Wan
Jamyuen Ko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112015004335T5 publication Critical patent/DE112015004335T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es wird ein Laufzeitkamerasystem beschrieben. Das Laufzeitkamerasystem umfasst einen Beleuchter. Der Beleuchter weist eine bewegliche optische Komponente auf, um Licht innerhalb des Sichtfelds der Laufzeitkamera zu scannen, um eine erste Region innerhalb des Sichtfelds zu beleuchten, die größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird. Der Beleuchter umfasst zudem einen Bildsensor, um Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken zu bestimmen.

Description

  • Gebiet der Erfindung
  • Das Gebiet der Erfindung betrifft generell Kamerasysteme und insbesondere ein Laufzeitkamerasystem mit einem Scanbeleuchter.
  • Allgemeiner Stand der Technik
  • Viele existierende Computersysteme umfassen eine oder mehrere traditionelle Bilderfassungskameras als eine integrierte Peripherievorrichtung. Ein gegenwärtiger Trend ist, Computersystembildgebungsvermögen durch Integrieren von Tiefenerfassung in seine Bildgebungskomponenten zu verbessern. Tiefenerfassung kann beispielsweise verwendet werden, um verschiedene intelligente Objekterkennungsfunktionen wie Gesichtserkennung (z. B. zur sicheren Systementsperrung) oder Handbewegungserkennung (z. B. für berührungslose Benutzerschnittstellenfunktionen) auszuführen.
  • Eine Herangehensweise zur Tiefeninformationserfassung, die als „Laufzeit“-Bildgebung bezeichnet wird, emittiert Licht von einem System auf ein Objekt und misst für jedes von mehreren Pixeln eines Bildsensors, die Zeit zwischen der Emission des Lichts und dem Empfangen seines Spiegelbildes am Sensor. Das von den Laufzeitpixeln erzeugte Bild entspricht einem dreidimensionalen Profil des Objekts, wie gekennzeichnet, durch eine einzigartige Tiefenmessung (z) an jeder von den unterschiedlichen (x, y) Pixelpositionen.
  • Da viele Computersysteme mit Bildgebungsvermögen in der Art mobil sind (z. B. Laptopcomputer, Tabletcomputer, Smartphones usw.), stellt die Integration einer Lichtquelle („Beleuchter“) in das System, um einen Laufzeitbetrieb zu erreichen, eine Anzahl von Designherausforderungen, wie beispielsweise Herausforderungen bezüglich Kosten, Packaging und/oder Energieverbrauch.
  • Kurzdarstellung
  • Es wird ein Laufzeitkamerasystem beschrieben. Das Laufzeitkamerasystem umfasst einen Beleuchter. Der Beleuchter weist eine bewegliche optische Komponente auf, um Licht innerhalb des Sichtfelds der Laufzeitkamera zu scannen, um eine erste Region innerhalb des Sichtfelds zu beleuchten, die größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird. Der Beleuchter umfasst zudem einen Bildsensor, um Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken zu bestimmen.
  • Es wird eine Vorrichtung beschrieben, die Mittel zum Scannen von Licht innerhalb eines Sichtfelds einer Laufzeitkamera aufweist, um eine erste Region innerhalb des Sichtfelds zu beleuchten, die größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird. Die Vorrichtung umfasst zudem Mittel, um Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken zu bestimmen.
  • Figuren
  • Die folgende Beschreibung und die begleitenden Zeichnungen werden verwendet, um Ausführungsformen der Erfindung zu veranschaulichen. In den Zeichnungen:
  • Die 1a(i) und 1a(ii) betreffen ein erstes mögliches intelligentes Beleuchtungsmerkmal;
  • Die 1b(i), 1b(ii) und 1b(iii) betreffen eine unterteilte intelligente Beleuchtungsherangehensweise;
  • Die 1c(i) und 1c(ii) betreffen ebenfalls eine unterteilte intelligente Beleuchtungsherangehensweise;
  • Die 1d(i) und 1d(ii) betreffen ein weiteres mögliches intelligentes Beleuchtungsmerkmal;
  • 1e zeigt eine Ausführungsform einer Lichtquelle für ein unterteiltes Sichtfeld;
  • Die 2a bis 2e betreffen das Scannen innerhalb eines intelligenten Beleuchtungssystems;
  • 3 zeigt eine Ausführungsform eines intelligenten Beleuchtungssystems;
  • Die 4a bis 4c zeigen eine Ausführungsform eines intelligenten Beleuchtungsverfahrens;
  • 5 zeigt eine erste Ausführungsform eines Beleuchters;
  • 6 zeigt eine zweite Ausführungsform eines Beleuchters;
  • 7 zeigt eine dritte Ausführungsform eines Beleuchters;
  • Die 8a und 8b zeigen eine vierte Ausführungsform eines Beleuchters;
  • 9 zeigt ein 2D/3D-Kamerasystem;
  • 10 zeigt ein Computersystem.
  • Ausführliche Beschreibung
  • Ein „intelligente Beleuchtung“-Laufzeitsystem adressiert einige der Designherausforderungen, auf die im Abschnitt Allgemeiner Stand der Technik Bezug genommen wird. Wie nachstehend noch beschrieben bezieht eine intelligente Beleuchtung die intelligente Manipulation von einem oder allen von Größe, Form oder Bewegung des emittierten Lichts eines Laufzeitsystems ein. Laufzeitsysteme und insbesondere Laufzeitsysteme, die in einem batteriebetriebenen System integriert sind, weisen generell einen Kompromiss zwischen den Anforderungen bezüglich der Stromversorgung und der Emittier- und Empfangsstärke der optischen Signale auf.
  • D. h., während die optische Beleuchtungssignalstärke zunimmt, verbessert sich die optische Empfangssignalstärke. Eine bessere optische Empfangssignalstärke resultiert in besserer Genauigkeit und Leistung des Laufzeitsystems. Das Unterstützen einer höheren optischen Emittiersignalstärke resultiert jedoch in einer kostspieligeren Batterielösung und/oder kürzerer Batterielebensdauer, von denen beide ein Nachteil für das Vergnügen und/oder die Akzeptanz eines Systems durch den Benutzer sein können, das Laufzeitmessungsvermögen aufweist.
  • Intelligente Beleuchtung strebt danach dieses Problem durch das Konzentrieren von Beleuchtungslichtleistung in kleinere Beleuchtungsbereiche zu adressieren, die im Kamerasichtfeld auf Regionen von Interesse gerichtet werden. Durch Konzentrieren der optischen Leistung auf kleinere Beleuchtungsbereiche werden die optische Empfangssignalstärke und die Laufzeitsystemleistung verbessert, ohne den Stromverbrauch der Batterie zu erhöhen. Als solches können die vorstehend erwähnten vom Benutzer wahrgenommenen Nachteile annehmbar minimiert werden.
  • Die Verwendung von kleineren Lichtregionen bezieht die Fähigkeit ein, kleinere Beleuchtungsregionen auf Regionen von Interesse innerhalb des Sichtfelds der Kamera zu richten. Eine Region von Interesse ist beispielsweise ein Bereich innerhalb des Sichtfelds der Kamera, der kleiner ist als das Sichtfeld der Kamera, und der im Hinblick darauf, Tiefeninformationen zu erlangen, eine höhere Priorität aufweist, als andere Bereiche innerhalb des Sichtfelds. Beispiele einer Region von Interesse umfassen eine Region, in der ein Objekt existiert, dessen Tiefeninformationen (z. B. eine Hand, ein Gesicht) gewünscht sind, oder eine Region, in der eine zuvor vorgenommene Laufzeitmessung eine dürftige Intensität des empfangenen Signals lieferte.
  • Nachdem eine Region von Interesse innerhalb des Sichtfelds identifiziert wurde, empfängt das Beleuchtungssystem Informationen, die auf die Region von Interesse hinweisen, und konzentriert die optische Intensität auf die Region von Interesse. Das Konzentrieren der optischen Intensität auf die Region von Interesse kann das Emittieren von optischem Licht an oder nahe einer Leistungsgrenze des Beleuchters einbeziehen, dieses Licht aber hauptsächlich auf die Region von Interesse zu richten.
  • Ein erstes Beispiel umfasst einen Beleuchter mit einer einzelnen Lichtquelle, die Licht von der Lichtquelle an einer Leistungsgrenze des Beleuchters emittiert, und das Fokussieren eines kleineren „Spots“ von Licht in der Region von Interesse. Ein zweites Beispiel umfasst einen Beleuchter, der mehrere Lichtquellen aufweist, die Licht von einer der Lichtquellen an einer Leistungsgrenze des Beleuchters derart emittieren, dass andere von den Lichtquellen ausgeschaltet bleiben müssen, und das Lenken eines Lichtstrahls von der beleuchteten Lichtquelle in Richtung der Region von Interesse.
  • Andere intelligente Beleuchtungsschemen können von der Beleuchtung einer kleineren Region von Interesse dadurch profitieren, dass die Region von Interesse mit wenigem als der vollen Beleuchterleistung beleuchtet wird. Wenn eine Region von Interesse klein genug ist, können beispielsweise ausreichend genaue Informationen über die Region mit wenigem als der vollen Beleuchterleistung erlangbar sein.
  • Mögliche Merkmale von verschiedenen intelligenten Beleuchtungssystemen werden nachfolgend ausführlich beschrieben. Im Allgemeinen können intelligente Beleuchtungssysteme jedoch konzipiert sein, eines oder beide von der Größe und der Form einer beleuchteten Region zu ändern, um ein Objekt von Interesse innerhalb des Sichtfelds der Kamera zu beleuchten. Zusätzlich können intelligente Beleuchtungssysteme konzipiert sein, den Ort einer beleuchteten Region z. B. durch Scannen eines emittierten Strahls innerhalb des Sichtfelds zu ändern.
  • Die 1a bis 1d betreffen, wie nachfolgend beschrieben, Aspekte des Änderns der Größe und der Form der beleuchteten Region. Im Vergleich dazu betreffen die 2a bis 2c, wie nachfolgend beschrieben, Aspekte des Änderns des Orts einer beleuchteten Region.
  • Die 1a(i) und 1a(ii) demonstrieren, dass die Größe einer beleuchteten Region im Hinblick auf ein zu beleuchtendes Objekt von Interesse angepasst werden kann. D. h., dass in einem ersten Szenarium 111 von 1a(i) ein erstes kleineres Objekt von Interesse 102 einen kleineren Bereich innerhalb des Sichtfelds der Kamera 101 verbraucht. Als solches wird die Größe der beleuchteten Region von Interesse 103, die durch den Beleuchter emittiert wird, verkleinert, sodass sie das kleinere Objekt von Interesse 102 umfasst. Im Vergleich dazu verbraucht im Szenarium 112 von 1a(ii) ein zweites größeres Objekt von Interesse 104 einen größeren Bereich innerhalb des Sichtfelds der Kamera 101. Als solches wird die Größe der beleuchteten Region von Interesse 105, die durch den Beleuchter emittiert wird, erweitert, sodass sie das größere Objekt von Interesse 104 umfasst.
  • Die Verkleinerung und Erweiterung der Größe der beleuchteten Region 103, 105 kann beispielsweise mit einem Beleuchter erreicht werden, der eine bewegliche optische Komponente (z. B. eine bewegliche Lichtquelle, eine bewegliche Linse, einen beweglichen Spiegel usw.) aufweist. Die gesteuerte Bewegung einer optischen Komponente innerhalb des Beleuchters kann verwendet werden, um die Größe der beleuchteten Region steuerbar einzustellen. Beispiele von Beleuchtern, die bewegliche optische Komponenten aufweisen, werden nachstehend weiter in Bezug auf die 5a bis 5c ausführlicher beschrieben.
  • Alternativ kann wie ersichtlich in den 1b(i) und 1b(ii) das Sichtfeld 101 in unterschiedliche Abschnitte unterteilt werden, die individuell beleuchtet werden können (z. B. ist das Sichtfeld wie ersichtlich in 1b(i) in neun unterschiedliche Abschnitte 106_1 bis 106_9 unterteilt). Wie ersichtlich im Szenarium 121 von 1b(i) wird ein kleineres Objekt von Interesse 107 durch Beleuchten von einer der Unterteilungen (Unterteilung 106_1) beleuchtet. Im Vergleich dazu wird wie ersichtlich im Szenarium 122 von 1b(ii) ein größeres Objekt von Interesse 109 durch Beleuchten von vier der Unterteilungen (Unterteilungen 106_1, 106_2, 106_4 und 106_5) beleuchtet. Als solches ist die beleuchtete Region von Interesse 110 von 1b(ii) deutlich größer als die beleuchtete Region von Interesse 108 von 1b(i).
  • Unter Bezugnahme auf 1b(ii) ist zu beachten, dass das gesamte Sichtfeld durch Beleuchten aller Unterteilungen gleichzeitig oder durch Beleuchten jeder Unterteilung individuell in Folge (oder in einer Mischung der zwei Herangehensweisen) beleuchtet werden kann. Die erstgenannte Herangehensweise ist geeignet, um schwächere optische Empfangssignale zu induzieren. Die letztere Herangehensweise kann mit höheren optischen Konzentrationen auf den individuell beleuchteten Unterteilungen erfolgen, aber auf Kosten der erforderlichen Zeit, um das Sichtfeld „zu scannen“. Hier entspricht das Beleuchten jeder Unterteilung in Folge einer Form des Scannens. Scannen wird nachstehend ausführlicher in Bezug auf die 2a bis 2e beschrieben.
  • Die Beleuchtung von unterteilten Regionen innerhalb des Sichtfelds kann mit einer unterteilten Lichtquelle erreicht werden. 1b(iii) stellt eine Draufsicht (in die Fläche des Beleuchters gesehen) von einer beispielhaften unterteilten Beleuchterlichtquelle 117 mit neun individuellen Lichtquellen 113_1 bis 113_9 dar. Bei verschiedenen Ausführungsformen wird jede individuelle Lichtquelle als eine Anordnung von oberflächenemittierenden Diodenlasern (VCSELs) oder Leuchtdioden (LEDs) implementiert und ist für das Beleuchten einer bestimmten Unterteilung verantwortlich. Alle individuellen Lichtquellen 113_1 bis 113_9 können beispielsweise auf einem gleichen Halbleiterchip integriert sein. Bei einer Ausführungsform wird jede individuelle Lichtquelle als eine Anordnung von Lichtquellenvorrichtungen (VCSELs oder LEDs) implementiert, sodass das gesamte Beleuchterleistungsbudget aufgewandt werden kann, um nur eine einzelne Unterteilung zu beleuchten (wobei in diesem Fall die individuellen Lichtquellen für die anderen Unterteilungen ausgeschaltet sein müssen).
  • Wenn die Beleuchterlichtquelle 117 für das Szenarium 121 von 1b(i) verwendet wird, wäre die individuelle Lichtquelle 113_1 ein, um die Unterteilung 106_1 zu beleuchten. Wenn im Vergleich dazu die Beleuchterlichtquelle 117 für das Szenarium 112 von 1b(i) verwendet, wird, wären die individuellen Lichtquellen 113_1, 113_2, 113_4 und 113_5 ein. Mehr Details über den Beleuchter mit einem unterteilten Sichtfeld und entsprechenden Lichtquellenausführungsformen werden nachfolgend ausführlicher beschrieben.
  • 1c(i) zeigt eine weitere Unterteilungsherangehensweise, in der die Unterteilungen selbst nicht alle von der gleichen Größe sind. D. h., es existieren unterschiedliche Unterteilungen mit unterschiedlichen Größen. Mit Unterteilungen von unterschiedlichen Größen kann die Größe der beleuchteten Region durch Beleuchten unterschiedlich dimensionierter Unterteilungen der Reihe nach geändert werden. Wenn beispielsweise nur eine kleinere Unterteilung beleuchtet wird und dann nur eine größere Unterteilung beleuchtet wird, erweitert sich die Größe der beleuchteten Region. Eine beispielhafte Lichtquelle 119 für die Unterteilungsherangehensweise von 1c(i) ist in 1c(ii) ersichtlich. Zu beachten ist, dass individuelle Lichtquellen, die größere Unterteilungen beleuchten, eine größere potenzielle optische Leistungsausgabe (wie z. B. durch mehr VCSELs oder LEDs) aufweisen als individuelle Lichtquellen, die kleinere Unterteilungen beleuchten.
  • Zu beachten ist, dass die Erweiterung und/oder Verkleinerung der Größe der beleuchteten Region für eine gleiche emittierte optische Leistung (ob durch Nichtunterteilungs- oder Unterteilungsmechanismen) einen Kompromiss zwischen der Größe der beleuchteten Region und der Stärke des empfangenen Signals einbezieht. D. h., bei einer gleichen emittierten optischen Leistung entspricht eine kleinere beleuchtete Region einer stärkeren Intensität des empfangenen Signals. Im Vergleich dazu entspricht bei einer konstanten emittierten optischen Leistung eine größere beleuchtete Region einem schwächeren empfangenen Signal.
  • Wenn eine größere beleuchtete Region-Größe gewünscht ist, aber ohne den Verlust an Empfangssignalstärke, existiert ein weiterer Kompromiss zwischen der Größe der beleuchteten Region und der Menge an Strom, die durch den Beleuchter verbraucht wird. D. h., um die Größe der beleuchteten Region zu vergrößern, aber die empfangene optische Signalstärke aufrechtzuerhalten, muss der Beleuchter (ohne irgendein Scannen, wie nachfolgend beschrieben) generell intensiveres Licht emittieren, was bewirkt, dass der Beleuchter mehr Strom verbraucht.
  • Einige intelligente Beleuchtungssysteme können konzipiert sein, ein Minimum empfangener optischer Signalstärke am Bildsensor aufrechtzuerhalten. In Situationen, in denen die beleuchtete Region von Interesse sich verkleinert, kann die emittierte optische Intensität reduziert werden, da immer noch eine ausreichend starke optische Intensität pro Einheit an beleuchtetem Flächenbereich aufrechterhalten werden kann. Im umgekehrten Fall kann die Beleuchterleistung mit einer Erweiterung der Größe der Region von Interesse zunehmen.
  • Zusätzlich kann sich in Situationen, in denen die Region von Interesse kleiner ist, da sich das zu beleuchtende Objekt weiter weg befindet, die emittierte optische Intensität nur geringfügig reduzieren, konstant bleiben oder gar zunehmen, da das empfangene optische Signal zur Entfernung des reflektierenden Objekts von der Kamera generell umgekehrt proportional ist. Als solches kann ein intelligentes Beleuchtungssystem abgesehen vom Berücksichtigen der Größe eines Objekts von Interesse auch seine Entfernung berücksichtigen, wenn es eine geeignete Beleuchterlichtleistung bestimmt. Eine gründlichere Beschreibung der Faktoren, die ein intelligentes Beleuchtungssystem beim Einstellen der Beleuchtungscharakteristiken berücksichtigen kann, erfolgt nachstehend in Bezug auf 3.
  • Bei verschiedenen Ausführungsformen kann die Form der beleuchteten Region geändert werden. 1d(i) zeigt ein erstes Szenarium 131, bei dem ein gerichteter Strahl, wenn er in die Mitte des Sichtfelds gelenkt wird, im Wesentlichen kreisförmig ist, aber wie in Szenarium 132 von 1d(ii) ersichtlich, wird die beleuchtete Region in ihrer Form mehr ellipsenförmig, wenn der gleiche Strahl auf die Ecke des Sichtfelds gerichtet wird. Eine Bewegung eines gerichteten Strahls kann mit einem Beleuchter erreicht werden, der eine bewegliche optische Komponente aufweist, wie es nachfolgend ausführlicher beschrieben wird.
  • 1e zeigt eine Ausführungsform einer Lichtquelle für eine Herangehensweise eines unterteilten Sichtfelds, bei der die Unterteilungen selbst unterschiedliche Formen aufweisen. Das Beleuchten von nur einer ersten Unterteilung mit einer ersten Form und dann nur das Beleuchten einer zweiten Unterteilung mit einer zweiten unterschiedlichen Form erzeugen entsprechend beleuchtete Regionen innerhalb des Sichtfelds, welche die Form ändern.
  • Die vorstehend beschriebenen 1a bis 1e betreffen intelligente Beleuchtungssysteme, welche die Größe und/oder Form der beleuchteten Region ändern können, während das System versucht, die unterschiedlichen Objekte von Interesse, die im Sichtfeld eines Laufzeitkamerasystems vorhanden sein können, geeignet zu beleuchten.
  • Zum Vergleich betreffen die 2a bis 2c das Scannen von emittiertem Licht innerhalb des Sichtfelds der Kamera. Das Scannen bezieht das intelligente Ändern von Regionen ein, die im Laufe der Zeit Beleuchtung empfangen, um eine gesamte Region von Interesse zu erfassen, die größer ist als die Größe(n) der beleuchteten Region(en) selbst. Unter erneuter Bezugnahme auf die Beschreibung der 1a bis 1e wird daran erinnert, dass die emittierte optische Intensität vielleicht vergrößert werden muss, um eine ausreichend starke Beleuchtung und entsprechende Empfangssignalstärke aufrechtzuerhalten, während sich die Region von Interesse erweitert. Denkbar ist auch, dass einige Regionen von Interesse ausreichend groß sein können, wo die geeignete emittierte optische Intensität ein gewünschtes oder erlaubtes Leistungsbudget für den Beleuchter überschreitet.
  • Das Scannen hilft dabei, die Empfangssignalstärke über größere Regionen von Interesse aufrechtzuerhalten oder zu verbessern, aber ohne entsprechende Anstiege in der emittierten optischen Leistungsintensität. Das heißt, dass durch Scannen eines beleuchteten kleineren „Spots“ über eine größere Region von Interesse Tiefeninformationen für die größere Region von Interesse gesammelt werden können, obwohl eine optische Leistung aufgewandt wird, die nur ausreicht, um den kleineren Spot zu beleuchten.
  • 2a zeigt ein Beispiel für Scannen, wie es gerade vorstehend beschrieben wurde. Wie in 2a ersichtlich wird ein größeres Objekt von Interesse 205 durch Scannen einer kleineren beleuchteten Region anfänglich von Position 206 zur Zeit T1 zu Position 207 zur Zeit T2 und dann zu Position 208 zur Zeit T3 und schließlich zu Position 209 zur Zeit T4 beleuchtet. Das Scannen von 2a kann beispielsweise mit einem Beleuchter erreicht werden, der eine sich bewegende optische Komponente aufweist, die einen Lichtstrahl bei einer Scanbewegung innerhalb des Sichtfelds richten und bewegen kann.
  • Alternativ oder in Kombination kann wie in 2b ersichtlich das Scannen mit einem unterteilten Beleuchtungssystem erreicht werden, indem unterschiedliche Unterteilungen in einer Ein- und Aus-Sequenz beleuchtet werden. D. h., wie in 2b ersichtlich wird eine erste Unterteilung 211 zur Zeit T1 beleuchtet. Anschließend wird zur Zeit t2 die erste Unterteilung 211 ausgeschaltet und eine zweite Unterteilung 212 eingeschaltet. Ähnliche Sequenzen erfolgen anschließend zu den Zeiten t3 und t4 für dritte und vierte Unterteilungen 213, 214. Dementsprechend kann eine Region von Interesse innerhalb von allen vier Unterteilungen über die Zeiten t1 bis t4 beleuchtet werden.
  • 2c zeigt, dass das Scannen unzusammenhängend sein kann. D. h., die Ausführungsformen der 2a und 2b gehen davon aus, dass eine nächste Region, die in einem Scan zu beleuchten ist, sich neben einer vorhergehenden Region befindet, die gerade beleuchtet wurde. Zum Vergleich veranschaulicht 2c, dass ein Scan das Beleuchten zweier separater Regionen umfassen kann, die nicht angrenzen. Hier wird zur Zeit T1 eine erste Region 221 beleuchtet. Dann wird zur Zeit T2 eine zweite Region 222 beleuchtet, wobei die zwei Regionen innerhalb des Sichtfelds nicht aneinander angrenzen. Unzusammenhängendes Scannen kann beispielsweise ausgeführt werden, wenn eine „Region von Interesse“ zwei oder mehr unterschiedliche, nicht aneinander angrenzende Bereiche oder Elemente innerhalb des Sichtfelds umfasst, die beleuchtet werden müssen. Unzusammenhängendes Scannen kann sowohl mit unterteilten als auch mit nicht unterteilten Beleuchtungsschemen ausgeführt werden.
  • Zu beachten ist, dass das Beispiel von 2c auch zeigt, dass sich die Größe der beleuchteten Region während einer Scanfolge ändern kann (die beleuchtete Region 222 ist größer als die beleuchtete Region 221). Das Ändern der Größe der beleuchteten Region während eines Scans ist nicht auf unzusammenhängende Scans begrenzt und kann ein Merkmal von kontinuierlichen Scans sein, wie die vorstehend beschriebenen Scans der 2a und 2b. Im Fall von unterteilten Scans ist das Ändern der Größe der beleuchteten Region z. B. dadurch möglich, dass zuerst eine Unterteilung eingeschaltet wird und dann mehrere Unterteilungen eingeschaltet werden.
  • 2d veranschaulicht weiter, dass einige unterteilte intelligente Beleuchtungssysteme konzipiert sein können, ein Scannen innerhalb einer Unterteilung auszuführen. D. h., dass der Beleuchter sowohl eine unterteilte Lichtquelle als auch bewegliche optische Komponenten aufweisen kann, sodass ein kleinerer Strahl innerhalb einer Unterteilung innerhalb des Flächenbereichs der Unterteilung gescannt wird, um die Unterteilung effektiv zu beleuchten. Wie in 2d ersichtlich wird ein Beleuchtungs-„Spot“, der kleiner ist als die Größe einer Unterteilung, innerhalb der oben links befindlichen Unterteilung gescannt, um die oben links befindliche Unterteilung effektiv zu beleuchten. Das gesamte Sichtfeld kann durch aufeinanderfolgendes Scannen jeder Unterteilung (sequenziell) oder gleichzeitiges Scannen (wie weiter unten in Bezug auf 2e beschrieben) oder durch eine Mischung dieser zwei Herangehensweisen gescannt werden.
  • Wie vorstehend beschrieben, sind verschiedene Ausführungsformen eines Beleuchters fähig, die Größe der beleuchteten Region (durch Ändern des Querschnitts des emittierten Lichtstrahls) zu ändern, während andere Ausführungsformen eines Beleuchters eine Unterteilungsherangehensweise umfassen, bei der das Sichtfeld unterteilt ist und der Beleuchter fähig ist, jede Unterteilung individuell zu beleuchten. Die Herangehensweise von 2d kann in einen Beleuchter mit beiden dieser Charakteristiken integriert sein. D. h., ein Beleuchter, dessen Design das Ändern der Größe der beleuchteten Region unterstützt, kann möglicherweise einen Strahl bilden, der ausreichend groß ist, um eine gesamte Unterteilung zu beleuchten, und kann auch einen Strahl bilden, der kleiner als die gesamte Unterteilung ist, sodass innerhalb der Unterteilung gescannt werden kann.
  • 2e zeigt eine weitere Unterteilungsscanherangehensweise, bei der entsprechende Unterteilungen gleichzeitig mit ihren eigenen entsprechenden Lichtstrahlen gescannt werden. Bei einer Ausführungsform ist der Beleuchter konzipiert, nicht nur einen separaten Lichtstrahl auf jede Unterteilung gleichzeitig zu richten, sondern auch die Lichtstrahlen scannen zu können. Es werden nachfolgend Ausführungsformen eines Beleuchterdesigns, das fähig ist, gleichzeitig mehrere Unterteilungen innerhalb des Sichtfelds zu scannen, ausführlicher beschrieben.
  • Zu beachten ist, dass obwohl die Ausführungsform von 2d an eine Unterteilungsherangehensweise gerichtet ist, andere Ausführungsformen über eine Region scannen können, in der das Beleuchterdesign nicht vollständig ein unterteiltes Design umfasst (z. B. kann ein bestimmter Lichtstrahl in einem Sichtfeld irgendwohin gerichtet werden). Das gleichzeitige Scannen von mehreren Strahlen umfasst jedoch jeden Strahl, der seine eigene entsprechende Region aufweist, in der zu scannen ist. Derartige Regionen können während der gleichzeitigen Mehrfachstrahlscanfolge als Unterteilungen angesehen werden.
  • Irgendeine der Scanherangehensweisen der 2a bis 2e, die vorstehend beschrieben sind, kann einen Kompromiss einführen zwischen der Zeit, die benötigt wird, um die Laufzeitinformationen für eine Region von Interesse zu sammeln, und der Größe der Region von Interesse. D. h., für eine konstant beleuchtete Regionsgröße (z. B. eine „Spotgröße“) wird mehr Scandauer verbraucht, während die Größe der zu beleuchtenden Region von Interesse wächst. Umgekehrt kann die Scandauer durch Vergrößern der Größe der Beleuchtung reduziert werden, wenn die Region von Interesse vergrößert wird, aber auf Kosten von erhöhter emittierter optischer Leistung (wenn die optische Intensität pro Flächeneinheit aufrechterhalten werden muss) oder der Empfangssignalintensität (wenn erlaubt wird, dass die optische Intensität pro Flächenbereich sich verringert).
  • Die Beschreibung der 1a bis 1e und 2a bis 2d hat einige grundlegende Kompromisse hervorgehoben, die in einem intelligenten Beleuchtungssystem existieren können, wie: 1) ein Kompromiss zwischen der Größe der beleuchteten Region und der Empfangssignalstärke; 2) ein Kompromiss zwischen der Empfangssignalstärke und dem Beleuchterleistungsverbrauch; 3) ein Kompromiss zwischen der Größe der beleuchteten Region und der Scandauer; 4) ein Kompromiss zwischen der Beleuchterleistung und der Entfernung zwischen einem Objekt von Interesse und der Kamera. Ein zusätzlicher Kompromiss kann das Reflexionsvermögen des Objekts von Interesse und die emittierte optische Leistung umfassen. Hier emittiert ein typischer Laufzeitbeleuchter Infrarot-(IR)-Licht. Wenn das zu beleuchtende Objekt von Interesse im Wesentlichen IR-Licht reflektiert, kann der Beleuchter weniger optische Leistung emittieren. Im Vergleich dazu kann der Beleuchter seine emittierte optische Leistung erhöhen, wenn das zu beleuchtende Objekt von Interesse IR-Licht nicht besonders gut reflektiert.
  • Welche Kompromisse steuern und/oder welche Richtung und wie stark jeder bestimmte Kompromiss gewichtet werden sollte, tendiert dazu, eine Funktion der bestimmten Situationen zu sein, die jedes bestimmte Beleuchtungsszenarium umgibt.
  • Betrachten wir beispielsweise eine Situation, in der ein zu beleuchtendes Objekt von Interesse von kleiner Größe ist und sich weit weg von der Kamera befindet. Wenn das verfügbare Leistungsbudget groß ist und es einen Wunsch nach einem vollständigen Lesen in kurzer Zeit gibt, kann hier ein intelligentes Beleuchtungssteuerungssystem entscheiden, die Region des Objekts mit hoher Beleuchterleistung ohne jedes Scannen vollständig zu beleuchten. Im Vergleich dazu kann in einer anderen Situation, in der das Objekt von Interesse groß ist und sich nahe der Kamera befindet, wo aber das verfügbare Leistungsbudget klein ist und es keine Notwendigkeit eines unmittelbaren vollständigen Lesens gibt, das gleiche intelligente Beleuchtungssystem entscheiden, eine kleinere beleuchtete Region zu bilden und diese über die Region von Interesse zu scannen.
  • Von diesen Beispielen her sollte es eindeutig sein, dass ein intelligentes Beleuchtungssystem die Umgebungsbedingungen berücksichtigen kann, bevor es eine bestimmte Region von Interesse mit einer spezifischen beleuchteten Regionsgröße, Beleuchterleistung, und ob irgendein Scannen erfolgen soll, beleuchtet.
  • 3 zeigt die Integration der intelligenten Beleuchtungstechnik 301 in ein betriebsfähiges Computersystem wie ein handgehaltenes Tablet oder Smartphone. Hier kann die intelligente Beleuchtungstechnik z. B. teilweise oder ganz in die Gerätetreibersoftware und/oder -firmware für eine integrierte Kameravorrichtung implementiert sein, die Laufzeitmessungsvermögen umfasst. Die Software/Firmware kann z. B. in nichtflüchtigem Speicher des Computersystems (z. B. in FLASH-Firmware oder Systemspeicher) gespeichert sein.
  • Wie in 3 ersichtlich kann die intelligente Beleuchtungstechnik-Software/-Firmware als ein System von Verfahren realisiert sein, die konzipiert sind, ein geeignetes Gleichgewicht unter den vorstehend genannten Kompromissen bei einem gegebenen Satz von Eingabeparametern zu schaffen, die den Umgebungsbedingungen einer Tiefenprofilierungsbilderfassungssequenz entsprechen.
  • Wie in 3 ersichtlich, können die intelligenten Beleuchtungsverfahren 301 einen oder mehrere der folgenden Eingabeparameter vom Hostsystem 302 akzeptieren: 1) das Objekt von Interesse (welches als das spezifiziert sein kann, was das Objekt ist (z. B. Hand, Gesicht usw.) und/oder die Charakteristiken des Ortes des Objekts und/oder die Form innerhalb des Sichtfelds); 2) wie zeitkritisch die Laufzeitmessung ist (wie schnell sie ausgeführt werden muss); und 3) das Leistungsbudget des Laufzeitsystems und/oder seines Beleuchters (z. B. spezifiziert als eine maximal erlaubte Leistung). Die Komponenten des Hostsystems 302, die diese Eingabeparameter erzeugen, können eine intelligente Objekterkennungssoftwareanwendung und/oder Hardwarelogikschaltungskomponente (z. B. zur Gesichtserkennung, Handerkennung usw.) umfassen. Leistungsmanagementsoftware, -firmware und/oder -hardware des Hostsystems 302 kann die Leistungsbudgeteingabeinformation erzeugen.
  • Die intelligenten Beleuchtungsverfahren 301 können auch Eingabeinformation vom Kamerasystem 303b selbst akzeptieren wie z. B.: 1) die Entfernung zwischen dem Objekt von Interesse und der Kamera; 2) das Reflexionsvermögen des Objekts von Interesse; 3) der Ort und/oder die Form des Objekts von Interesse; 4) die Intensität des Hintergrundlichts. Jeder der durch die Kamera bereitgestellten Eingabeparameter kann nach der anfänglichen Beleuchtung des Objekts (oder des Sichtfelds generell) bereitgestellt werden. D. h., als eine anfängliche Antwort auf eine Eingabe vom Hostsystem 302 kann das Laufzeitsystem z. B. das Objekt und/oder Sichtfeld anfänglich als einen ersten Durchlauf beleuchten. Die vom ersten Durchlauf gesammelten Daten werden dann den intelligenten Beleuchtungsverfahren 301 präsentiert, sodass diese die Erfassung des Objekts hinsichtlich dessen, welche Regionen beleuchtet werden und wie intensiv das emittierte Licht sein sollte, besser optimieren können.
  • Mit den anwendbaren Eingabeparametern bestimmen die intelligenten Beleuchtungsverfahren 301 effektiv, welche Kompromisse steuern und/oder in welche Richtung und wie stark irgendein bestimmter Kompromiss gewichtet werden sollte, um Bilderfassungssteuerbefehle für die Kamera 303b zu erzeugen, die spezifizieren, welche Region(en) beleuchtet werden soll(en), die Intensität des emittierten Lichts, ob irgendein Scannen zutrifft und, z. B. wenn ja, anwendbare Scanparameter (z. B. Zeit zum Scannen, Scangeschwindigkeit, Scanmuster usw.).
  • Die 4a bis 4c zeigen eine weitere Ausführungsform eines Verfahrens, für die die intelligenten Beleuchtungsverfahren 301 von 3 zum Ausführen konzipiert sein können. Wie in 4a ersichtlich, wird anfänglich ein großer Bereich 410, der z. B. im Wesentlichen das Sichtfeld der Kamera 401 abdeckt, zuerst durch den Laufzeitbeleuchter beleuchtet. Bei einigen Ausführungsformen kann der große Bereich 410 wie in 4a ersichtlich dem gesamten Sichtfeld 401 entsprechen. Bei anderen Ausführungsformen kann der große Bereich 410 einem wesentlichen Abschnitt entsprechen, aber weniger als dem gesamten Sichtfeld 401 (z. B. annähernd 33 %, 50 %, 66 %, 75 % des Sichtfelds 410). Hier ist zu beachten, dass die Beleuchtung eines großen Bereichs 410 innerhalb des Sichtfelds 401 schwächer empfangenen optischen Intensitäten entsprechen kann, da die emittierte Beleuchtung über einen weiteren Bereich „ausgebreitet“ ist.
  • Der Bildsensor, der das reflektierte Licht empfängt, umfasst Schaltungen (wie Messverstärkerschaltungen), welche die Intensität des empfangenen Signals bei jedem Pixel gegen einen Schwellenwert messen. Diejenigen der Pixel, die Licht bei einer schwachen optischen Intensität empfangen haben, werden identifiziert (z. B. werden die Pixel, deren empfangene optische Intensität unter den Schwellenwert gefallen ist, identifiziert). In vielen Situationen wird wie in 4b ersichtlich, erwartet, dass Gruppen von angrenzenden Pixeln unter den Schwellenwert fallen, was wiederum der Identifikation von Regionen 411 innerhalb des Sichtfelds 401 entspricht, die ein schwaches optisches Signal empfangen haben.
  • Hier kann ein intelligentes Beleuchtungsverfahren 301 von 3 Signalintensitätsinformationen für alle Pixel des Bildsensors empfangen und den Schwellenwert anwenden, um die Größe und den Ort der Regionen 411 zu bestimmen, oder kann alternativ nur die Identität der Pixel erlangen, die unter den Schwellenwert fielen, und davon die Regionen 411 bestimmen. Nach dem Erkennen der Regionen 411 mit schwachen Signalen fährt das intelligente Beleuchtungsverfahren wie in 4c ersichtlich fort, Befehle an den Laufzeitbeleuchter zu richten, um diese gleichen Regionen 411 wieder zu beleuchten.
  • Die Wiederbeleuchtung wird mit mehr gebündeltem Licht ausgeführt, um die optische Intensität zu „verstärken“, die auf die Regionen 411 gerichtet ist. Die Konzentration wird durch die Bildung von kleineren Regionen von Beleuchtungslicht bewirkt (verglichen mit dem Beleuchten des gesamten Sichtfelds), wie z. B. mit dem gleichen Betrag an Beleuchterintensität, die emittiert wurde, als das Sichtfeld geflutet wurde. Mit der Wiederbeleuchtung dieser Regionen mit stärkerem Licht sollte die Laufzeitmessung dadurch abgeschlossen sein, dass die Pixel, die zuvor ein schwaches optisches Signal empfangen haben, jetzt ein ausreichend starkes optisches Signal empfangen.
  • Im Fall eines Beleuchters, der eine bewegliche optische Komponente aufweist, können die Abschnitte des Sichtfelds, das eine Wiederbeleuchtung benötigt, durch Bewegen von einem oder von mehreren optischen Komponenten wiederbeleuchtet werden, um einen Lichtstrahl auf jede Region zu richten. Im Fall eines Beleuchters, der ein unterteiltes Sichtfeld aufweist, werden die Abschnitte des Sichtfelds, die eine Wiederbeleuchtung benötigen, durch Beleuchten ihrer entsprechenden Unterteilungen wiederbeleuchtet. Bei einer Ausführungsform kann die gleiche Gesamtmenge an optischer Leistung, die verwendet wird, um anfänglich das gesamte Sichtfeld zu beleuchten, die gleiche sein wie die Gesamtmenge des Stroms, der verwendet wird, um nur eine Unterteilung zu beleuchten, die wiederbeleuchtet wird.
  • Die 5 bis 8a, b stellen unterschiedliche Ausführungsformen des Beleuchters bereit, die fähig sind, die vorstehend beschriebenen intelligenten Beleuchtungstechniken auszuführen.
  • 5 zeigt eine Ausführungsform eines Beleuchters, der sowohl eine bewegliche Linsenbaugruppe 501, 502 aufweist, um die Größe der beleuchteten Region (durch vertikales Bewegen der Linse über die Lichtquelle) anzupassen, als auch die Beleuchtungsregion zu scannen oder mindestens die Beleuchtung mit dem Sichtfeld der Kamera auf irgendeinen Bereich zu richten (indem die Ebene der Linse über der Lichtquelle gekachelt wird).
  • Wie in 5 ersichtlich, befindet sich eine Lichtquelle 503 unter der Linse 501, und wenn diese beleuchtet wird, breitet sich das emittierte Licht durch die Linse und in das Sichtfeld der Kamera aus. Die Lichtquelle 503 kann beispielsweise als ein Halbleiterchip implementiert sein, der eine Anordnung von Infrarot-(IR)-VCSELs oder LEDs aufweist. Die Verwendung der Anordnung hilft dabei, die maximale optische Ausgangsleistung zu „verstärken“, die annähernd koextensiv mit NL verläuft, wobei N die Anzahl an VCSELs/LEDs in der Anordnung ist und L die maximale Ausgangsleistung von jedem VCSEL/jeder LED. Bei einer Ausführungsform nehmen alle VCSELs/LEDs in der Anordnung einen gleichen Ansteuerungsstrom auf, sodass die emittierte optische Leistung von jedem VCSEL/jeder LED annähernd gleich ist wie die der anderen VCSELs/LEDs in der Anordnung. Die optische Ausgangsleistung wird durch Steuern der Größenordnung des Ansteuerungsstroms gesteuert.
  • Ein Paar von Tauchspulenmotoren 531 532, wobei jeder mit einer Federrückholung 533, 534 versehen ist, wird als Stellglied verwendet, um die vertikale Position von jedem von zwei Punkten entlang der Außenkante der Linse 501 zu definieren. Der Neigungswinkel der Linse 501 über die Y-Achse ist im Wesentlichen durch die Kraft eines ersten Motors 531 definiert, wie sie gegen seine Rückholfeder 533 ausgeübt wird. Der Neigungswinkel der Linse 502 über die X-Achse wird im Wesentlichen durch die Kraft eines ersten Motors 532 definiert, wie sie gegen seine Rückholfeder 534 ausgeübt wird. Aus diesen grundlegenden Szenarien kann jeder Neigungswinkel für die Linse als eine Funktion der entsprechenden Kräfte, die durch die Motoren ausgeübt werden, und die entgegenwirkenden Kräfte, die durch die Federn ausgeübt werden, festgestellt werden. Auf gegenüberliegenden Seiten der Linsenfassung 501 von den Rückholfedern können Gelenkbolzen oder Kugelgelenke vorhanden sein, um beispielsweise zu erlauben, dass die Linsenfassung 501 sich sowohl um die X-Achse als auch um die Y-Achse dreht.
  • Zusätzlich kann die Vertikalpositionierung der Linse 501 durch gleichmäßiges Betätigen der zwei Motoren 531, 532 hergestellt werden. D. h., wenn sich beide Motoren 531, 532 um ein gleiches Maß nach außen erstrecken, wird die Linse in der +z-Richtung angehoben. Wenn beide Motoren 531, 532 um ein gleiches Maß nach innen einfahren, wird die Linse in z-Richtung abgesenkt. Statt der vorstehend genannten Gelenkbolzen oder Kugelgelenke können ein oder mehrere zusätzliche Tauchspulenmotorstellglieder entlang dem Umfang der Linsenfassung 502 angeordnet sein, um sowohl den Neigungswinkel als auch die Vertikalpositionierung der Linse (z. B. drei um 120° beabstandete Stellglieder, vier um 90° beabstandete Stellglieder usw.) weiter zu stabilisieren.
  • 6 zeigt einen Beleuchter, der eine bewegliche Lichtquelle 603 aufweist. Die Lichtquelle selbst kann als die Lichtquelle 503 wie vorstehend in Bezug auf 5 beschrieben implementiert sein. Bei der Herangehensweise von 6 bleibt die Positionierung der Linsenbaugruppe im Wesentlichen fest, aber eine Plattform oder ein Substrat 610, auf der die Lichtquelle 603 befestigt ist, ist gemäß den gleichen Prinzipien wie vorstehend beschrieben in Bezug auf die Linsenfassung 502 von 5 beweglich. D. h., es kann ein Satz von Tauchspulenmotorstellgliedern und Rückholfedern 631/633, 632/634 verwendet werden, um einen Neigungswinkel der Plattform 610 über einer oder beiden der X- und Y-Achsen zu bewirken. Das Ändern des Neigungswinkels der Plattform ändert den Einfallswinkel des emittierten Lichts in die Linse, was wiederum die Richtung, in die der Lichtstrahl zeigt, der von der Linse in das Sichtfeld der Kamera emittiert wird, ändert.
  • Ein drittes Tauchspulenmotorstellglied und ein Rückholfederpaar (nicht gezeigt) können an einer Kante der Plattform 610 gekoppelt sein, die eine andere Kante ist, als die zwei Kanten, an denen sich das Tauchspulenmotorstellglied und die Rückholfedernpaare 631/633, 632/634 befinden, um eine vertikale Bewegung der Plattform 610 entlang der z-Achse zu bewirken, was wiederum die Größe der beleuchteten Region (Spotgröße) im Sichtfeld der Kamera beeinflusst.
  • s7 zeigt eine weitere Ausführungsform eines Beleuchters, bei der eine Lichtquelle 712 an der Unterseite eines mechanischen Arms 713 angebracht ist, der in einem Winkel ausgerichtet ist, der die Lichtquelle derart positioniert, dass Licht auf einen Spiegel 714 gelenkt wird, der auf einer beweglichen Plattform 710 befestigt ist. Eine Linse und eine Linsenfassung sind in einer Position über dem Spiegel fixiert, sodass Licht, das von der Fläche des Spiegels reflektiert wird, sich durch die Linse und in das Sichtfeld der Kamera ausbreitet. Die Lichtquelle kann wie vorstehend beschrieben in Bezug auf die 5 und 6 implementiert sein.
  • Ein Satz von Tauchspulenmotorstellgliedern und Rückholfedern 731/733, 732/734 kann verwendet werden, um einen Neigungswinkel der Plattform 710 über eine oder beide der X- und Y-Achsen zu bewirken. Das Ändern des Neigungswinkels der Plattform 710 ändert den Einfallswinkel des emittierten Lichts in die Linse, was wiederum die Richtung, in die der Lichtstrahl zeigt, der von der Linse in das Sichtfeld der Kamera emittiert wird, ändert.
  • Ein drittes Tauchspulenmotorstellglied und ein Rückholfederpaar (nicht gezeigt) können an einer Kante der Plattform 710 gekoppelt sein, die eine andere Kante ist, als die zwei Kanten, an denen sich das Tauchspulenmotorstellglied und die Rückholfedernpaare 731/733, 732/734 befinden, um eine vertikale Bewegung der Plattform 710 entlang der z-Achse zu bewirken, was wiederum die Größe der beleuchteten Region (Spotgröße) im Sichtfeld der Kamera beeinflusst.
  • Beide Beleuchterdesigns der 6 und 7 können verbessert werden, um eine bewegliche Linsenanordnung wie in 5 beschrieben einzuschließen. Das Hinzufügen des Vermögens einer beweglichen Linse zu den Designs der 6 und 7 kann beispielsweise eine schnellere Scandauer und/oder größere Emissionswinkel vom Beleuchter bereitstellen. Jede der beweglichen Plattformen 610, 710 der 6 und 7 kann als eine „mikro-elektro-mechanische“ (MEM) Vorrichtung implementiert werden, um die Lichtquelle (6) oder den Spiegel (7) an jedem Ort auf der XY-Ebene anzuordnen.
  • Die 8a und 8b zeigen eine Ausführungsform eines Beleuchters, der konzipiert ist, unterschiedliche Unterteilungen innerhalb des Sichtfelds individuell zu beleuchten. Wie ersichtlich in den 8a und 8b, umfasst der Beleuchter 801 einen Halbleiterchip 804, der eine Lichtquellenanordnung 806_1 bis 806_9 für jede Unterteilung innerhalb des Sichtfelds aufweist. Obwohl die bestimmte Ausführungsform der 8a und 8b neun in einem orthogonalen Gitter angeordnete Sichtfeldabschnitte zeigt, können andere Anzahlen und/oder Anordnungen von Unterteilungen verwendet werden. Desgleichen können andere Anordnungsmuster und/oder Formen einschließlich unterschiedlich dimensionierter und/oder geformter Anordnungen auf einem gleichen Halbleiterchip verwendet werden, obwohl jede Lichtquellenanordnung als eine gleich große quadratische N×N-Anordnung dargestellt ist. Jede Lichtquellenanordnung 106_1 bis 106_9 kann beispielsweise als eine Anordnung von VCSELs oder LEDs implementiert sein.
  • Unter Bezugnahme auf 8a und 8b umfasst bei einer Ausführungsform der Beleuchter 801 zudem ein Optikelement 807, das eine Mikrolinsenanordnung 808 auf einer unteren Fläche aufweist, die dem Halbleiterchip 804 gegenübersteht, und eine Abstrahlfläche mit unterschiedlichen Linsenstrukturen 805 für jede Unterteilung aufweist, um Licht, das von seiner spezifischen Lichtquellenanordnung empfangene wurde, zu seiner entsprechenden Sichtfeldunterteilung zu leiten. Jede Linse der Mikrolinsenanordnung 808 verhält sich im Wesentlichen wie eine kleinere Objektivlinse, die divergierendes Licht von den darunterliegenden Lichtquellen sammelt und das Licht formt, sodass das Licht innerhalb des Optikelements weniger divergiert, während es sich der Abstrahlfläche annähert. Bei einer Ausführungsform gibt es eine Mikrolinse, die jeder Lichtquelle der darunterliegenden Lichtquellenanordnung zugewiesen und damit ausgerichtet ist, obwohl andere Ausführungsformen existieren können, bei denen es mehr oder weniger Mikrolinsen pro Lichtquelle für jede bestimmte Anordnung gibt.
  • Die Mikrolinsenanordnung 808 verbessert die optische Effizienz, indem sie das meiste emittierte optische Licht von der darunterliegenden Laseranordnung erfasst und einen konzentrierteren Strahl bildet. Hier weisen die individuellen Lichtquellen der verschiedenen Anordnungen typischerweise einen weit emittierten Lichtdivergenzwinkel auf. Die Mikrolinsenanordnung 808 kann das meiste/gesamte divergierende Licht von den Lichtquellen einer Anordnung sammeln und dabei unterstützen, einen emittierten Lichtstrahl, der einen kleineren Divergenzwinkel aufweist, zu bilden.
  • Das Sammeln des meisten/gesamten Lichts von der Lichtquellenanordnung und Bilden eines Strahls mit niedrigerem Divergenzwinkel bildet im Wesentlichen einen stärkeren optischen Leistungsstrahl (d. h., dass die optische Intensität pro Flächenbereich erhöht ist), was in einem stärkeren empfangenen Signal am Sensor für die Region von Interesse resultiert, die durch den Strahl beleuchtet wird. Gemäß einer Berechnung wird das Reduzieren des Divergenzwinkels des emittierten Strahls auf 30°, die Signalstärke am Sensor um einen Faktor von 4,6 erhöhen, wenn der Divergenzwinkel von der Lichtquellenanordnung 60° beträgt. Das Reduzieren des Divergenzwinkels des emittierten Strahls auf 20° erhöht die Signalstärke am Sensor um einen Faktor von 10,7.
  • Das Optikelement 807 kann zusätzlich konzipiert sein, eine weitere Streuung des gesammelten Lichts bereitzustellen, indem z. B. das Element 807 mit Materialien ausgelegt wird, die im IR-Spektrum durchsichtig sind, und/oder durch anderweitiges Konzipieren des optischen Wegs innerhalb des Elements 807, um streuende interne Reflexionen aufzuerlegen (wie beispielsweise das Element 807 als eine mehrschichtige Struktur auszulegen). Wie vorstehend kurz angegeben, kann die Abstrahlfläche des Optikelements 807 ausgeprägte Linsenstrukturen 805 umfassen, von denen jede geformt ist, um Licht auf seine korrekte Sichtfeldunterteilung zu lenken. Wie ersichtlich in der spezifischen Ausführungsform der 8a und 8b weist jede Linsenstruktur 805 eine gerundete konvexe Form auf. Andere Ausführungsformen können z. B. scharfkantigere trapezförmige Formen oder überhaupt keine Struktur aufweisen.
  • Das Optikelement 807 kann auch beweglich sein, indem z. B. zwei oder drei Tauchspulenmotorstellglieder und Rückholfederpaare entsprechend den vorstehend bereitgestellten Beschreibungen in Bezug auf die 5, 6 und 7 z. B. mechanisch gekoppelt werden. Indem das Optikelement 807 beweglich konzipiert wird, kann das Scannen eines einzelnen Strahls innerhalb einer Unterteilung wie vorstehend in Bezug auf 2 beschrieben erreicht werden, indem das Optikelement 807 in einer Scanbewegung bewegt wird, während nur die Lichtquelle beleuchtet wird, die mit der Unterteilung verbundenen ist, die gescannt wird. Zusätzlich kann das gleichzeitige Scannen von mehreren Unterteilungen, wie in 2e ersichtlich, dadurch erreicht werden, dass jede der entsprechenden Lichtquellen der Unterteilungen beleuchtet wird und das Optikelement 807 in einer Scanbewegung bewegt wird.
  • 9 zeigt eine integrierte traditionelle Kamera und ein Laufzeitbildgebungssystem 900. Das System 900 weist einen Anschluss 901 auf, um elektrischen Kontakt, z. B. mit einer größeren System-/Hauptplatine herzustellen, wie beispielsweise der System-/Hauptplatine eines Laptopcomputers, Tabletcomputers oder Smartphones. Abhängig vom Layout und der Implementierung kann der Anschluss 901 mit einem flexiblen Kabel verbinden, das z. B. eine tatsächliche Verbindung mit der System-/Hauptplatine herstellt, oder der Anschluss 901 kann direkten Kontakt mit der System-/Hauptplatine herstellen.
  • Der Anschluss 901 ist an einer Grundplatine 902 angebracht, die als eine mehrschichtige Struktur von abwechselnden leitenden und isolierenden Schichten implementiert sein kann, wobei die leitenden Schichten strukturiert sind, elektronische Spuren zu bilden, welche die internen elektrischen Verbindungen des Systems 900 unterstützen. Durch den Anschluss 901 werden Befehle vom größeren Hostsystem wie Konfigurationsbefehle, die Konfigurationsinformationen von/zu Konfigurationsregistern innerhalb des Kamerasystems 900 lesen/schreiben, empfangen. Zusätzlich können die Befehle irgendwelche Befehle sein, die mit einem intelligenten Beleuchtungstechniksystem verbunden sind, wie irgendwelche der Ausgaben, die durch die intelligenten Technologieverfahren 301 bereitgestellt werden, die in Bezug auf 3 vorstehend beschrieben wurden.
  • Ein RGBZ-Bildsensor 903 ist auf der Grundplatine 902 unter einer Empfangslinse 904 angebracht. Der RGBZ-Bildsensor 903 umfasst eine Pixelmatrix, die eine RGBZ-Einheitspixelzelle aufweist. Die RGB-Pixelzellen werden verwendet, um traditionelle sichtbares Bild-„2D“-Erfassungsfunktionen (traditionelle Bilderfassungsfunktionen) zu unterstützen. Die Z-Pixelzellen sind IR-lichtempfindlich und werden verwendet, um 3D-Tiefenprofillbildgebung unter Verwendung von Laufzeittechniken zu unterstützen. Obwohl eine grundlegende Ausführungsform RGB-Pixel für die Erfassung eines sichtbaren Bildes umfasst, können andere Ausführungsformen unterschiedliche gefärbte Pixelschemen (z. B. Cyan, Magenta und Gelb) verwenden.
  • Der Bildsensor 903 kann auch ADC-Schaltungen zum Digitalisieren der Signale des Bildsensors und Timing- und Steuerschaltungen umfassen, um Taktungs- und Steuersignale für die Pixelmatrix und die ADC-Schaltungen zu erzeugen.
  • Die Grundplatine 902 kann Signalspuren umfassen, um digitale Informationen zu transportieren, die durch die ADC-Schaltungen an den Anschluss 901 zum Verarbeiten durch eine höhere Endkomponente des Host-Computersystems wie eine Bildsignalverarbeitungspipeline (die z. B. in einem Anwendungsprozessor integriert ist) bereitgestellt werden.
  • Ein Kameralinsenmodul 904 ist über dem RGBZ-Bildsensor 903 integriert. Das Kameralinsenmodul 904 enthält ein System von einer oder mehreren Linsen, um empfangenes Licht auf den Bildsensor 903 zu fokussieren. Da der Empfang des Kameralinsenmoduls von sichtbarem Licht den Empfang von IR-Licht durch die Laufzeitpixelzellen des Bildsensors stören kann und umgekehrt, da der Empfang des Kameramoduls von IR-Licht den Empfang von sichtbarem Licht durch die RGB-Pixelzellen des Bildsensors stören kann, kann eines oder beide von der Pixelmatrix des Bildsensors und dem Linsenmodul 903 ein System von Filtern enthalten, die angeordnet sind, um im Wesentlichen IR-Licht zu blockieren, das durch die RGB-Pixelzellen empfangene werden soll, und im Wesentlichen sichtbares Licht zu blockieren, das durch Laufzeitpixelzellen empfangen werden soll.
  • Ein Beleuchter 905, der fähig ist, spezifische Regionen innerhalb des Sichtfelds entsprechend der intelligenten Beleuchtungstechnik zu beleuchten, wie es in der vorstehenden Beschreibung erklärt wurde, ist auf der Grundplatine 902 angebracht. Der Beleuchter 905 kann beispielsweise wie jeder vorstehend in Bezug auf die 5 bis 8a, b beschriebene Beleuchter implementiert werden. Ein Lichtquellentreiber ist mit der Lichtquelle des Beleuchters 907 gekoppelt, um ihn zu veranlassen, Licht mit einer bestimmten Intensität und modulierten Wellenform zu emittieren.
  • Bei einer Ausführungsform unterstützt das integrierte System 900 von 9 drei Betriebsarten: 1) 2D-Modus; 3) 3D-Modus; und, 3) 2D/3D-Modus. Im Fall des 2D-Modus verhält sich das System wie eine traditionelle Kamera. Als solches ist der Beleuchter 905 deaktiviert und der Bildsensor wird verwendet, um sichtbare Bilder durch seine RGB-Pixelzellen zu empfangen. Im Fall des 3D-Modus erfasst das System Laufzeittiefeninformationen eines Objekts im Sichtfeld des Beleuchters 905. Als solches ist der Beleuchter 905 aktiviert und emittiert IR-Licht (z. B. in einer En-Aus-Ein-Aus...-Sequenz) auf das Objekt. Das IR-Licht wird vom Objekt reflektiert, durch das Kameralinsenmodul 1504 empfangen und durch die Z-Pixel des Bildsensors erfasst. Im Fall des 2D/3D-Modus sind die vorstehend beschriebenen 2D- und 3D-Modi gleichzeitig aktiv.
  • 10 zeigt eine Darstellung eines beispielhaften Computersystems 1000 wie ein Personalcomputersystem (z. B. Desktop oder Laptop) oder ein mobiles oder handgehaltenes Computersystem wie eine Tabletvorrichtung oder ein Smartphone. Wie in 10 ersichtlich kann das grundlegende Computersystem eine Zentraleinheit 1001 (die z. B. mehrere Universalprozessorkerne umfassen kann) und einen Hauptspeichercontroller 1017 umfassen, die auf einem Anwendungsprozessor oder Mehrkernprozessor 1050 angeordnet sind, Systemspeicher 1002, ein Display 1003 (z. B. Touchscreen, Flachpanel), eine lokale verdrahtete Punkt-zu-Punkt-Verbindung 1004 (z. B. USB), verschiedene Netzwerk-I/O-Funktionen 1005 (wie eine Ethernetschnittstelle und/oder ein Mobilfunkmodemsubsystem), eine drahtlose lokale Netzwerkverbindung 1006 (z. B. WiFi), eine drahtlose Punkt-zu-Punkt-Verbindung 1007 (z. B. Bluetooth) und eine globale Positionsbestimmungssystemverbindung 1008, verschiedene Sensoren 1009_1 bis 1009_N, eine oder mehrere Kameras 1010, eine Batterie 1011, eine Leistungsmanagementsteuereinheit 1012, einen Lautsprecher und ein Mikrofon 1013 und einen Audiocodierer/-decodierer 1014.
  • Ein Anwendungsprozessor oder ein Mehrkernprozessor 1050 können einen oder mehrere Universalprozessorkerne 1015 innerhalb ihrer CPU 1001, eine oder mehrere Grafikprozessoreinheiten 1016, einen Hauptspeichercontroller 1017, eine I/O-Steuerungsfunktion 1018 und eine oder mehrere Bildsignalverarbeitungspipelines 1019 umfassen. Die Universalprozessorkerne 1015 führen typischerweise das Betriebssystem und die Anwendungssoftware des Computersystems aus. Die Grafikprozessoren 1016 führen typischerweise intensive Grafikfunktionen aus, um z. B. Grafikinformationen, die auf dem Display 1003 dargestellt werden, zu erzeugen. Die Speichersteuerungsfunktion 1017 ist mit dem Systemspeicher 1002 verbunden. Die Bildsignalverarbeitungspipelines 1019 empfangen Bildinformationen von der Kamera und verarbeiten die Rohbildinformationen für nachgeordnete Verwendungen. Die Leistungsmanagementsteuereinheit 1012 steuert generell die Leistungsaufnahme des Systems 1000.
  • Die Touchscreendisplays 1003, die Kommunikationsschnittstellen 1004 bis 1007, die GPS-Schnittstelle 1008, die Sensoren 1009, die Kamera 1010 und die Lautsprecher/Mikrofon-Codecs 1013, 1014 können jeweils als verschiedene I/O-Formen (Eingabe und/oder Ausgabe) relativ zu dem gesamten Computersystem betrachtet werden einschließlich gegebenenfalls einer integrierten Peripherievorrichtung (wie z. B. die eine oder die mehreren Kameras 1010). Abhängig von der Implementierung können verschiedene dieser I/O-Komponenten im Anwendungsprozessor/Mehrkernprozessor 1050 integriert sein oder können sich außerhalb des Chips oder Pakets des Anwendungsprozessors/Mehrkernprozessors 1050 befinden.
  • Bei einer Ausführungsform umfassen eine oder mehrere Kameras 1010 einen Beleuchter, der fähig ist, spezifische Regionen innerhalb des Kamerasichtfelds entsprechend der intelligenten Beleuchtungstechnik wie sie in der vorstehenden Beschreibung erklärt wurde zu beleuchten. Anwendungssoftware, Betriebssystemsoftware, Gerätetreibersoftware und/oder Firmware, die auf einem Universal-CPU-Kern (oder einem anderen Funktionsblock, der eine Befehlsausführungspipeline aufweist, um Programmcode auszuführen) von einem Anwendungsprozessor oder einem anderen Prozessor ausgeführt wird, kann intelligente Beleuchtungsbefehle oder andere Befehle an das Kamerasystem richten und Bilddaten davon empfangen. Andere Befehle, die von der Kamera 1010 empfangen werden, können Befehle für den Eintritt in oder das Verlassen von jedem der vorstehend beschriebenen 2D,- 3D- oder 2D/3D-Kamerasystemzuständen umfassen.
  • Die intelligente Beleuchtungstechnik selbst kann teilweise oder ganz als eines oder mehrere von dem Folgenden implementiert werden: 1) Software, die auf einem Universalprozessorkern läuft; 2) Systemfirmware (z. B. BIOS-Firmware); 3) zugehörige Logikschaltungen (die z. B. bei einem oder mehreren von Folgendem angeordnet sind: an der Kamera 1010, integriert in einem ISP 1019; integriert in einen I/O- oder Peripheriecontroller 1018). Wie vorstehend beschrieben, kann die intelligente Beleuchtungstechnik Eingabeinformationen von der Leistungsmanagementsteuereinheit empfangen, die selbst teilweise oder ganz mit einer oder mehrerer Software implementiert sein kann, die auf einem Universalprozessorkern, einer Systemfirmware, einer zugehörigen Logikschaltung usw. läuft.
  • Ausführungsformen der Erfindung können wie vorstehend beschrieben verschiedene Prozesse umfassen. Die Prozesse können in maschinenausführbaren Befehlen verkörpert sein. Die Befehle können verwendet werden, um einen Allzweck- oder Spezialprozessor zu veranlassen, bestimmte Prozesse auszuführen. Alternativ können diese Prozesse durch spezifische Hardwarekomponenten ausgeführt werden, die festverdrahtete Logik enthalten, um die Prozesse auszuführen, oder durch jede Kombination von programmierten Computerkomponenten und benutzerdefinierten Hardwarekomponenten.
  • Elemente der vorliegenden Erfindung können ebenfalls als ein maschinenlesbares Medium zum Speichern der maschinenausführbaren Befehle bereitgestellt werden. Das maschinenlesbare Medium kann umfassen, ist aber nicht beschränkt auf, Disketten, optische Disks, CD-ROMs und magnetooptische Disks, FLASH-Speicher, ROMs, RAMs, EPROMs, EEPROMs, magnetische oder optische Karten, Ausbreitungsmedien oder andere Arten von Medien/maschinenlesbaren Medien, die zum Speichern elektronischer Befehle geeignet sind. Die vorliegende Erfindung kann beispielsweise als ein Computerprogramm heruntergeladen werden, das von einem entfernten Computer (z. B. einem Server) an einen anfragenden Computer (z. B. einem Client) mittels Datensignalen übertragen werden kann, die in einem Trägersignal oder einem anderen Ausbreitungsmedium über einen Kommunikationslink (z. B. ein Modem oder eine Netzwerkverbindung) ausgeführt werden.
  • In der vorstehenden Beschreibung wurde die Erfindung unter Bezugnahme auf spezifische Ausführungsbeispiele davon beschrieben. Es ist jedoch offensichtlich, dass verschiedene Modifizierungen und Änderungen daran vorgenommen werden können, ohne vom weiteren Sinn und Umfang der Erfindung, wie in den angehängten Ansprüchen angeführt, abzuweichen. Die Spezifikation und Zeichnungen sind demnach vielmehr als veranschaulichend denn als einschränkend anzusehen.

Claims (27)

  1. Verfahren, umfassend: Scannen von Licht innerhalb eines Sichtfelds einer Laufzeitkamera, um eine erste Region innerhalb des Sichtfelds zu beleuchten, die größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird; und Bestimmen von Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken.
  2. Verfahren nach Anspruch 1, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts durch gleichzeitiges Beleuchten und Scannen mehrfacher Unterteilungen ausgeführt wird, wobei jede Unterteilung ihren eigenen entsprechenden Lichtstrahl empfängt.
  3. Verfahren nach Anspruch 1, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt wird und das Scannen des Lichts nur innerhalb von einer der Unterteilungen ausgeführt wird.
  4. Verfahren nach Anspruch 1, wobei das Scannen unzusammenhängend ist.
  5. Verfahren nach Anspruch 1, wobei die zweite Region während des Scannens die Größe ändert.
  6. Maschinenlesbares Speichermedium, das darauf gespeicherten Programmcode enthält, der bei Ausführung durch ein Digitalverarbeitungssystem ein Laufzeitkamerasystem veranlasst, das folgende Verfahren auszuführen: Scannen von Licht innerhalb eines Sichtfelds einer Laufzeitkamera, um eine erste Region innerhalb des Sichtfelds zu beleuchten, die größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird; und Bestimmen von Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken.
  7. Maschinenlesbares Speichermedium nach Anspruch 6, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts durch gleichzeitiges Beleuchten und Scannen mehrfacher Unterteilungen ausgeführt wird, wobei jede Unterteilung ihren eigenen entsprechenden Lichtstrahl empfängt.
  8. Maschinenlesbares Speichermedium nach Anspruch 6, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts nur innerhalb einer der Unterteilungen ausgeführt wird.
  9. Maschinenlesbares Speichermedium nach Anspruch 6, wobei das Scannen unzusammenhängend ist.
  10. Maschinenlesbares Speichermedium nach Anspruch 6, wobei die zweite Region während des Scannens die Größe ändert.
  11. Maschinenlesbares Speichermedium nach Anspruch 6, wobei das Verfahren weiter das Senden von Befehlen umfasst, die das Scannen einem Beleuchter des Laufzeitkamerasystems beschreiben.
  12. Vorrichtung, umfassend: ein Laufzeitkamerasystem aufweisend: einen Beleuchter, wobei der Beleuchter eine bewegliche optische Komponente aufweist, um Licht innerhalb des Sichtfelds der Laufzeitkamera zu scannen, um eine erste Region innerhalb des Sichtfelds zu beleuchten, der größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird; und einen Bildsensor, um Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken zu bestimmen.
  13. Vorrichtung nach Anspruch 12, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts durch gleichzeitiges Beleuchten und Scannen mehrfacher Unterteilungen ausgeführt wird, wobei jede Unterteilung ihren eigenen entsprechenden Lichtstrahl empfängt.
  14. Vorrichtung nach Anspruch 12, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts nur innerhalb einer der Unterteilungen ausführbar ist.
  15. Vorrichtung nach Anspruch 12, wobei das Scannen unzusammenhängend sein kann.
  16. Vorrichtung nach Anspruch 12, wobei die zweite Region die Größe während des Scannens ändern kann.
  17. Vorrichtung nach Anspruch 12, wobei die bewegliche optische Komponente eine Linse ist.
  18. Vorrichtung nach Anspruch 12, wobei die bewegliche optische Komponente eine Lichtquelle ist.
  19. Vorrichtung nach Anspruch 12, wobei die bewegliche optische Komponente ein Spiegel ist.
  20. Computersystem, umfassend: einen Anwendungsprozessor, der mehrere Prozessorkerne und einen Speichercontroller aufweist, wobei ein Systemspeicher mit dem Speichercontroller gekoppelt ist; ein Laufzeitkamerasystem, das mit dem Anwendungsprozessor gekoppelt ist, wobei das Laufzeitkamerasystem umfasst: a) einen Beleuchter, wobei der Beleuchter eine bewegliche optische Komponente aufweist, um Licht innerhalb des Sichtfelds der Laufzeitkamera zu scannen, um eine erste Region innerhalb des Sichtfelds zu beleuchten, die größer ist als eine zweite Region innerhalb des Sichtfelds der Laufzeitkamera, die in jedem Augenblick durch das Licht beleuchtet wird; und b) einen Bildsensor, um Tiefenprofilinformationen innerhalb der ersten Region unter Verwendung von Laufzeitmessungstechniken zu bestimmen.
  21. Computersystem nach Anspruch 20, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts durch gleichzeitiges Beleuchten und Scannen mehrfacher Unterteilungen ausgeführt wird, wobei jede Unterteilung ihren eigenen entsprechenden Lichtstrahl empfängt.
  22. Computersystem nach Anspruch 20, wobei das Sichtfeld in unterschiedliche Unterteilungen unterteilt ist und das Scannen des Lichts nur innerhalb einer der Unterteilungen ausführbar ist.
  23. Computersystem nach Anspruch 20, wobei das Scannen unzusammenhängend sein kann.
  24. Computersystem nach Anspruch 20, wobei die zweite Region die Größe während des Scannens ändern kann.
  25. Computersystem nach Anspruch 20, wobei die bewegliche optische Komponente eine Linse ist.
  26. Computersystem nach Anspruch 20, wobei die bewegliche optische Komponente eine Lichtquelle ist.
  27. Computersystem nach Anspruch 20, wobei die bewegliche optische Komponente ein Spiegel ist.
DE112015004335.7T 2014-12-22 2015-11-18 Laufzeitkamerasystem mit scanbeleuchter Withdrawn DE112015004335T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/579,158 US9674415B2 (en) 2014-12-22 2014-12-22 Time-of-flight camera system with scanning illuminator
US14/579,158 2014-12-22
PCT/US2015/061416 WO2016105707A1 (en) 2014-12-22 2015-11-18 Time-of-flight camera system with scanning illuminator

Publications (1)

Publication Number Publication Date
DE112015004335T5 true DE112015004335T5 (de) 2017-06-14

Family

ID=56130981

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015004335.7T Withdrawn DE112015004335T5 (de) 2014-12-22 2015-11-18 Laufzeitkamerasystem mit scanbeleuchter

Country Status (6)

Country Link
US (3) US9674415B2 (de)
EP (2) EP3238434A4 (de)
CN (1) CN106664353A (de)
DE (1) DE112015004335T5 (de)
GB (1) GB2548446A (de)
WO (1) WO2016105707A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108154A1 (de) * 2018-04-06 2019-10-10 pmdtechnologies ag Kalibriervorrichtung und Kalibrierverfahren für ein Kamerasystem

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5811425B1 (ja) * 2014-09-02 2015-11-11 株式会社サンキコー 周期運動観測システム
KR102158699B1 (ko) * 2014-09-25 2020-09-22 엘지전자 주식회사 이동 단말기 제어방법 및 이동 단말기
US11972586B2 (en) 2015-02-13 2024-04-30 Carnegie Mellon University Agile depth sensing using triangulation light curtains
US11747135B2 (en) 2015-02-13 2023-09-05 Carnegie Mellon University Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US10503265B2 (en) * 2015-09-08 2019-12-10 Microvision, Inc. Mixed-mode depth detection
US10754034B1 (en) * 2015-09-30 2020-08-25 Near Earth Autonomy, Inc. Apparatus for redirecting field of view of lidar scanner, and lidar scanner including same
US10564262B2 (en) * 2015-10-27 2020-02-18 Ams Sensors Singapore Pte. Ltd. Optical ranging system having multi-mode light emitter
CN113433775B (zh) 2015-11-10 2023-01-17 亮锐控股有限公司 自适应光源
US10602070B2 (en) * 2016-01-27 2020-03-24 Raytheon Company Variable magnification active imaging system
US10382701B2 (en) 2016-01-27 2019-08-13 Raytheon Company Active imaging systems and method
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
DE102016117851A1 (de) * 2016-09-22 2018-03-22 Valeo Schalter Und Sensoren Gmbh Sendeeinrichtung für eine optische Erfassungsvorrichtung, optische Erfassungsvorrichtung, Kraftfahrzeug sowie Verfahren
KR102326493B1 (ko) 2017-03-13 2021-11-17 옵시스 테크 엘티디 눈-안전 스캐닝 lidar 시스템
CN110914702B (zh) 2017-07-28 2022-06-28 欧普赛斯技术有限公司 具有小角发散度的vcsel阵列lidar发送器
CN111356934B (zh) 2017-11-15 2024-03-12 欧普赛斯技术有限公司 噪声自适应固态lidar系统
EP3717932A1 (de) 2017-11-28 2020-10-07 Sony Semiconductor Solutions Corporation Beleuchtungsvorrichtung, flugzeitsystem und -verfahren
EP3531167B1 (de) * 2018-02-21 2021-04-07 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur optischen distanzmessung
CN111919137A (zh) 2018-04-01 2020-11-10 欧普赛斯技术有限公司 噪声自适应固态lidar系统
US10785422B2 (en) * 2018-05-29 2020-09-22 Microsoft Technology Licensing, Llc Face recognition using depth and multi-spectral camera
GB2579689A (en) * 2018-08-07 2020-07-01 Cambridge Mechatronics Ltd Improved 3D sensing
JP6908015B2 (ja) * 2018-10-25 2021-07-21 株式会社デンソー 光学的測距装置および光学的測距方法
EP3953727A4 (de) 2019-04-09 2023-01-04 Opsys Tech Ltd. Festkörperlidar-sender mit lasersteuerung
GB201907188D0 (en) * 2019-05-21 2019-07-03 Cambridge Mechatronics Ltd Apparatus
US11846728B2 (en) 2019-05-30 2023-12-19 OPSYS Tech Ltd. Eye-safe long-range LIDAR system using actuator
KR102637658B1 (ko) 2019-06-10 2024-02-20 옵시스 테크 엘티디 눈-안전 장거리 고체 상태 lidar 시스템
CN110456380B (zh) * 2019-07-31 2021-12-28 炬佑智能科技(苏州)有限公司 飞行时间传感相机及其深度检测方法
JP7321834B2 (ja) * 2019-08-26 2023-08-07 ソニーセミコンダクタソリューションズ株式会社 照明装置、および、測距モジュール
CN111025329A (zh) * 2019-12-12 2020-04-17 深圳奥比中光科技有限公司 一种基于飞行时间的深度相机及三维成像方法
CN111458692B (zh) * 2020-02-01 2023-08-25 上海鲲游科技有限公司 深度信息处理方法及其系统和电子设备
US11843221B2 (en) * 2020-03-30 2023-12-12 Namuga, Co., Ltd. Light source module for emitting high density beam and method for controlling the same
TWI723882B (zh) * 2020-05-22 2021-04-01 佳世達科技股份有限公司 口腔掃描機
US11396994B1 (en) 2021-02-16 2022-07-26 Ii-Vi Delaware, Inc. Laser light source having diffuser element and light diverging optic

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445884B1 (en) * 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
US6292433B1 (en) 1997-02-03 2001-09-18 Teratech Corporation Multi-dimensional beamforming device
USH1742H (en) 1998-03-02 1998-08-04 The United States Of America As Represented By The Secretary Of The Air Force Glint responsive parametric amplified phase conjugate signal laser radar
US7635334B2 (en) 2004-04-28 2009-12-22 Siemens Medical Solutions Usa, Inc. Dynamic sub-array mapping systems and methods for ultrasound imaging
CA2620941A1 (en) * 2005-09-02 2007-03-08 Neptec Imaging system and method
US7544945B2 (en) 2006-02-06 2009-06-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Vertical cavity surface emitting laser (VCSEL) array laser scanner
US8072581B1 (en) 2007-01-19 2011-12-06 Rockwell Collins, Inc. Laser range finding system using variable field of illumination flash lidar
US8081797B2 (en) * 2008-10-10 2011-12-20 Institut National D'optique Selective and adaptive illumination of a target
KR20100107995A (ko) 2009-03-27 2010-10-06 삼성전기주식회사 광 픽업용 광 검출기 집적회로의 포토 다이오드 셀 구조 및그 제조방법
CN102803991B (zh) * 2009-06-03 2014-06-04 学校法人中部大学 物体检测设备
US8803967B2 (en) 2009-07-31 2014-08-12 Mesa Imaging Ag Time of flight camera with rectangular field of illumination
KR101044109B1 (ko) 2009-08-18 2011-06-28 삼성전기주식회사 렌즈 구동 모듈
KR101044140B1 (ko) 2009-09-11 2011-06-24 삼성전기주식회사 렌즈 구동 모듈
KR101044219B1 (ko) 2009-10-19 2011-06-29 삼성전기주식회사 렌즈 구동 모듈
KR101022938B1 (ko) 2009-11-10 2011-03-16 삼성전기주식회사 카메라모듈의 손떨림 보정기구
KR20110064622A (ko) 2009-12-08 2011-06-15 삼성전자주식회사 티오에프 카메라를 이용한 3차원 에지 추출 방법 및 장치
KR101156872B1 (ko) 2009-12-18 2012-06-20 삼성전기주식회사 렌즈 구동 모듈
US20120289832A1 (en) 2009-12-22 2012-11-15 Miao Zhang Illumination Methods And Systems For Improving Image Resolution Of Imaging Systems
KR101077408B1 (ko) 2010-02-05 2011-10-26 서강대학교산학협력단 Cmos 이미지 센서
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
EP2558886B1 (de) 2010-04-16 2014-03-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
WO2012020380A1 (en) * 2010-08-11 2012-02-16 Primesense Ltd. Scanning projectors and image capture modules for 3d mapping
EP2667218B1 (de) 2010-11-15 2017-10-18 Cedes AG Energiespar-3-D-Sensor
KR101798063B1 (ko) 2010-12-14 2017-11-15 삼성전자주식회사 조명 광학계 및 이를 포함하는 3차원 영상 획득 장치
EP2487504A1 (de) 2011-02-10 2012-08-15 Technische Universität München Verfahren für die verbesserte Tiefenbilderfassung
KR101289094B1 (ko) 2011-07-29 2013-07-23 삼성전기주식회사 선형 모터
DE102011081561A1 (de) 2011-08-25 2013-02-28 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem mit Signalpfadüberwachung
US9628843B2 (en) 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
KR101289142B1 (ko) 2011-11-28 2013-07-23 삼성전기주식회사 발광다이오드 패키지 모듈
US20130163627A1 (en) 2011-12-24 2013-06-27 Princeton Optronics Laser Illuminator System
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9157790B2 (en) * 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
EP2815251B1 (de) 2012-02-15 2017-03-22 Heptagon Micro Optics Pte. Ltd. Tof-kamera mit streifenbeleuchtung
US8569700B2 (en) 2012-03-06 2013-10-29 Omnivision Technologies, Inc. Image sensor for two-dimensional and three-dimensional image capture
US9398229B2 (en) * 2012-06-18 2016-07-19 Microsoft Technology Licensing, Llc Selective illumination of a region within a field of view
US9057784B2 (en) 2012-08-14 2015-06-16 Microsoft Technology Licensing, Llc Illumination light shaping for a depth camera
EP2703836B1 (de) * 2012-08-30 2015-06-24 Softkinetic Sensors N.V. TOF-Beleuchtungssystem und TOF-Kamera und Betriebsverfahren mit Steuerungsmitteln zur Ansteuerung der in der Szene vorhandenen elektronischen Vorrichtungen
US8970827B2 (en) 2012-09-24 2015-03-03 Alces Technology, Inc. Structured light and time of flight depth capture with a MEMS ribbon linear array spatial light modulator
ES2512965B2 (es) * 2013-02-13 2015-11-24 Universitat Politècnica De Catalunya Sistema y método para escanear una superficie y programa de ordenador que implementa el método
US8761594B1 (en) 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
US9134114B2 (en) 2013-03-11 2015-09-15 Texas Instruments Incorporated Time of flight sensor binning
US10061028B2 (en) * 2013-09-05 2018-08-28 Texas Instruments Incorporated Time-of-flight (TOF) assisted structured light imaging
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
US9869544B2 (en) * 2014-08-29 2018-01-16 Blackberry Limited Method to determine length and area measurements within a smartphone camera image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108154A1 (de) * 2018-04-06 2019-10-10 pmdtechnologies ag Kalibriervorrichtung und Kalibrierverfahren für ein Kamerasystem
DE102018108154B4 (de) * 2018-04-06 2020-03-12 pmdtechnologies ag Kalibriervorrichtung und Kalibrierverfahren für ein Kamerasystem

Also Published As

Publication number Publication date
EP3351962A1 (de) 2018-07-25
US20160182788A1 (en) 2016-06-23
US9674415B2 (en) 2017-06-06
US20180063392A1 (en) 2018-03-01
US9832357B2 (en) 2017-11-28
EP3238434A1 (de) 2017-11-01
GB201621142D0 (en) 2017-01-25
CN106664353A (zh) 2017-05-10
US20170272632A1 (en) 2017-09-21
GB2548446A (en) 2017-09-20
WO2016105707A1 (en) 2016-06-30
EP3238434A4 (de) 2018-07-18

Similar Documents

Publication Publication Date Title
DE112015004335T5 (de) Laufzeitkamerasystem mit scanbeleuchter
DE112015005706T5 (de) Laufzeitkamerasystem und verfahren zum verbessern der messqualität von schwachen sichtfeldsignalregionen
DE112015005711T5 (de) Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse
DE112015005725T5 (de) Beleuchter für ein kamerasystem mit dreidimensionaler laufzeiterfassung mit beweglichem spiegelelement
DE102014101354B4 (de) Raumintensitätsverteilungsgesteuerter blitz
DE112008004187B4 (de) Objektmessvorrichtung und verfahren zur verwendung in der vorrichtung
DE102013111558A1 (de) Mobilsystem mit Bildsensoren, Verfahren zum Betreiben von Bildsensoren und Verfahren zum Betreiben von Mobilsystemen
DE112015005719T5 (de) Stapelhalbleiterchip-rgbz-sensor
DE112016006069T5 (de) Stereotiefenkamera mit vcsel-projektor mit gesteuerten projektionslinsen
DE102013111729A1 (de) Bewegungssensorarray-Vorrichtung sowie Tiefenerfassungssystem und Verfahren, die dieselbe verwenden
DE112013002917T5 (de) Erzeugung von Lichtmustern mit einem MEMS-Scanspiegel
DE102016100031A1 (de) Bilderzeugungsvorrichtung zum Erzeugen einer Tiefenkarte mit Phasenerfassungspixel
DE102015108847A1 (de) Fahrzeug-Beleuchtungsvorrichtung
DE202012013713U1 (de) Vorrichtung zur Dual-Target-Autobelichtung
CN106662640A (zh) 智能照明飞行时间系统和方法
DE102019120799A1 (de) Lichtdetektions- und Entfernungsmessungssystem und Verfahren zum Betreiben eines Lichtdetektions- und Entfernungsmessungssystems
DE102019107807A1 (de) Zeitauflösender bildsensor zur entfernungsmessung und 2d-grauskalenbildgebung
DE112013001647T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren im Fahrzeug
CN107850822A (zh) 照明装置、摄像装置以及透镜
DE102021132465A1 (de) MEMS-Spiegelbasierte erweiterte Realitätsprojektion mit Eye-Tracking
DE102016115636A1 (de) Bewegliche Vorrichtungen
DE102019217878A1 (de) VERGRÖßERNDE BEOBACHTUNGSVORRICHTUNG
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
DE112020001591T5 (de) Optischer sensor mit gerichteter empfindlichkeit
CN109600531A (zh) 双目视觉扫描系统及扫描方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee