DE112018006100T5 - Einzelchip-rgb-d-kamera - Google Patents

Einzelchip-rgb-d-kamera Download PDF

Info

Publication number
DE112018006100T5
DE112018006100T5 DE112018006100.0T DE112018006100T DE112018006100T5 DE 112018006100 T5 DE112018006100 T5 DE 112018006100T5 DE 112018006100 T DE112018006100 T DE 112018006100T DE 112018006100 T5 DE112018006100 T5 DE 112018006100T5
Authority
DE
Germany
Prior art keywords
tof
camera
time
signal
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018006100.0T
Other languages
English (en)
Inventor
Christoph Lang
Pedram Lajevardi
Ken Wojciechowski
Behnam Behroozpour
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE112018006100T5 publication Critical patent/DE112018006100T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Eine 3D-Kamera nutzt eine Quelle für moduliertes sichtbares Licht für Tiefenbildgebung und umfasst einen Prozessor, der betreibbar ist, um zwischen Bilddetektion und Tiefe oder Laufzeit- (ToF-) Detektion unter Verwendung derselben Photodetektoren zeitliches Multiplexen durchzuführen. Die Kamera kann zwischen dem Bilddetektionsmodus und dem ToF-Detektionsmodus abwechseln, um einen kontinuierlichen Strom von Farb- und Tiefenbildern zu erzeugen, die übereinander gelegt werden können, ohne dass eine Nachbearbeitungssoftware erforderlich ist. Die Kamera kann auch ausgelegt sein, um die Laufzeit unter Verwendung analoger Integrationsmodule zu bestimmen, wodurch die für Analog/Digital-Umwandlungen und ToF-Berechnungen im digitalen Bereich erforderlichen Schaltungsanordnungen minimiert

Description

  • Prioritätsanspruch
  • Diese Anmeldung ist eine reguläre Anmeldung für und beansprucht die Priorität der parallelen provisorischen US-Anmeldung Nr. 62/610.325 , eingereicht am 26. Dezember 2017, deren vollständige Offenbarung hierin durch Verweis aufgenommen ist.
  • Hintergrund
  • Dreidimensionale (3D-) Bildgebung und Abbildung wird weit verbreitet in der Robotertechnik, Computervision, im Videospielbereich, in der persönlichen Unterhaltung und vielen anderen Bereichen genutzt. In den meisten dieser Anwendungen werden zwei Chips genutzt. Zuerst werden die 3D-Daten von einem 3D-Laufzeit- (ToF-) Infrarot- (IR-) Bildsensorchip erfasst. Dann werden die 3D-Daten auf zweidimensionalen (2D-) Bildern und/oder Videos, die von einem herkömmlichen 2D-Farbbildgeberchip erhalten wurden, abgebildet oder mit diesen vereinigt. Beispielhafte Systeme werden in K. Shin, Z. Wang und W. Zhan, „3D Object Detection based on Lidar and Camera Fusion“, University of California, Berkeley, online verfügbar unter https://deepdrive.berkeley.edu/preject/3d-object-detectionbased-Lidar-and-camera-fusion; und in D. Pani Paudel, C. Demonceaux, A. Habed, P. Vasseur und I. S. Kweon, „2D-3D Camera Fusion for Visual Odometry in Outdoor Environments“, in lEEE/RSJ International Corference on Intelligent Robots and Systems (TROS 2014), Chicago, 2014 beschrieben, deren Offenbarungen hierin durch Verweis aufgenommen sind.
  • Durch das Verwenden eines 3D-Sensorchips und eines separaten 2D-Bildgeberchips wird die Software komplexer und erhöht den Leistungsverbrauch der digitalen Verarbeitungseinheit. Darüber hinaus erfordert die Verwendung von zwei Bildgebern einen Abgleich und eine Kalibrierung zwischen dem 3D- und 2D-Farbsensor in der physikalischen Implementationsschicht, um eine Nachbearbeitung oder Vereinigung der 3D- und 2D-Daten zu ermöglichen. Diese Anforderung schafft sogar noch mehr Komplexität und erhöht die Herstellungskosten. In manchen Fällen, in denen die 3D-Daten unter Verwendung von 2D-Bildgebern (zwei Chips) auf Basis von Triangulierung erhalten werden, entstehen bei dem Abgleich und der Kalibrierung der zwei 2D-Kameras Komplexität und Kosten im gleichen Ausmaß. Zusätzlich dazu erfordert die Verwendung von zwei 2D-Kameras eine noch größere Verarbeitung und einen größeren Leistungsverbrauch-Overhead zum Extrahieren der 3D-Informationen aus den zwei 2D-Bildern unter Verwendung von Triangulierung.
  • Aus diesem Grund gibt es andauernde Bemühungen, um 3D-Laufzeit- und 2D-Bildsensoren auf einem einzelnen Chip, vorzugsweise einem CMOS-Chip, zu entwickeln. Beispiele für diesen Ansatz sind in W. Kim, W. Yibing, I. Ovsiannikov, S. Lee, Y. Park, C. Chung und E. Fossum, „A 1.5Mpixel RGBZ CMOS Image Sensor for Simultaneous Color and Range Image Capture", in International Solid-Sate Circuits Conference, San Francisco, 2012; und S.-J. Kim, J. D. K. Kim, S.-W. Han, B. Kang, K. Lee und C.-Y. Kim, „A 640×480 Image Sensor with Unified Pixel Architecture for 2D/3D Imaging in 0.11µm CMOS", in VLSI Circuits (VLSIC), 2011 Symposium on, Honolulu, 2011 offenbart, deren Offenbarung hierin durch Verweis aufgenommen sind. Die Einzelchipvorrichtungen basieren auf dem Multiplexen zwischen den 2D- und 3D-Bildgebungsmodi, in denen sichtbares Licht unter Verwendung eines herkömmlichen Bildsensors abgebildet wird, wobei beispielsweise rote, grüne und blaue (RGB-) Farbfilter auf den Pixeln platziert werden, um eine Unterscheidung der Farben zu ermöglichen. Es werden zusätzliche Pixel bereitgestellt, die mit einem anderen optischen Filter, beispielsweise im infraroten (IR-) Spektrum, bedeckt sind, die mit einer modulierten Infrarotquelle zur Laufzeitbildgebung verwendet werden. In weiteren Fällen können die Farbfilter zum Infrarot- und Zeitmultiplexen transparent sein oder so eingesetzt werden, dass zwischen den zwei Bildgebungsmodi gewechselt werden kann. Diese früheren Ansätze benötigen eine zusätzliche IR-Quelle (zusätzlich zur sichtbaren Blitzlichtquelle, die von einer 2D-Kamera benötigt wird) und Nachbearbeitungsschritte auf dem CMOS-Chip, um dessen Empfindlichkeit gegenüber dem IR-Spektrum herzustellen, wobei beides Kosten verursacht. Eine Zusammenfassung der bekannten 3D-Kamera-Ansätze wird in 1 bereitgestellt.
  • Der allgemeine Aufbau einer traditionellen Blitzlaufzeit- (ToF-) 3D-Kamera wird in 2 gezeigt. Die ToF-3D-Kamera umfasst einen Sender TX, der betrieben werden kann, um die Amplitude des Lichts von einem Infrarot- (IR-) Laser als eine Reihe von Impulsen zu modulieren, wobei das Licht unter Verwendung der eigenen optischen Elemente auf eine Szene verteilt wird. Die Kamera umfasst ferner einen Empfänger RX, in dem das reflektierte Licht von der Szene gesammelt und auf einer Sensoranordnung, wie beispielsweise einer Photodiodenanordnung auf einem CMOS-Chip, abgebildet wird. Eine Zeitverzögerung, τ, der elektrischen Wellenform (z. B. Photodiodenstrom), die von jedem der Sensorelemente als Reaktion auf das RX-Licht in Bezug auf die ursprüngliche Modulationswellenform im TX-Licht erzeugt wird, wird unter Verwendung von elektronischen Schaltungen gemessen. Die Distanz, R, zu jedem Element der Szene wird dann unter Verwendung der Zeitverzögerung gemäß Gleichung 1 berechnet, wobei c die Lichtgeschwindigkeit ist. R = 1 2 c τ
    Figure DE112018006100T5_0001
  • 3D-Bildgebungskameras dieser Art, die in 2 gezeigt werden, wurden in R. Lange und P. Seitz, „Solid-State Time-of-Flight Range Camera", IEEE Journal of Quantum Electronics, pp. 390-397, 2001; A. Simoni, L. Gonzo and M. Gottardi, „Integrated Optical Sensors for 3-D Vision", in Sensors, 200; und D. Stoppa, L. Viarani, A. Simoni, L. Gonzo, M. Malfatti und G. Pedretti, „A 16x16-Pixel Range-Finding CMOS Image Sensor", in Europian Solid-State Circuits Corference, 2004, erforscht, deren Offenbarungen hierin durch Verweis aufgenommen sind. Nichtsdestotrotz stellen solche Systeme nicht immer ausreichend Informationen über die Farbe und Helligkeit der Szene bereit. Daher wird für Anwendungen, die sowohl Farb- als auch Tiefeninformationen benötigen, wie beispielsweise Objekterkennung und Maschinenvision ein separater herkömmlicher 2D-Bildgeber benötigt, um ein Farbfoto (z. B. eine Kamera mit RGB-Pixeln) der Szene zu erfassen. Nach der 2D- und 3D-Bilderfassung kombiniert eine digitale Bildverarbeitungseinheit die Informationen von den zwei Kameras. Dieser Schritt kann eine große Verarbeitungsleistung nutzen und zeitaufwändig sein, wodurch die Verwendung dieser Systeme zur Echtzeit-Videonutzung mitunter verhindert wird.
  • Um diese Probleme zu lösen, untersuchten Forscher die Entwicklung eines Einzelchips mit RGB+3D. In vielen Fällen wurde nahes Infrarotlicht (NIR) mit Wellenlängen in der Größenordnung von 800 bis 1000 nm zur Entfernungs- (3D-) Bildgebung genutzt. NIR war die erste Wahl, da es zwei Vorteile gegenüber sichtbarem Licht aufweist:
    1. 1) Nahes Infrarotlicht ist für das menschliche Auge nicht sichtbar.
    2. 2) Das Strahlungsausmaß des Hintergrundsonnenlichts in den nahen Infrarotwellenlängen ist niedriger als das im sichtbaren Spektrum. Daher ist das Hintergrundrauschen geringer. Ein geringeres Hintergrundrauschen bedeutet eine bessere 3D-Farbmessauflösung.
  • Nichtsdestotrotz gibt es bei Verfahren, die Infrarot (IR) nutzen Nachteile. Der erste besteht darin, dass diese Verfahren zwei Lichtquellen erfordern - eine sichtbare Lichtquelle zur Farb- oder RGB-Bildgebung und eine Infrarotquelle zur 3D-Bildgebung. Ein weiterer Nachteil in früheren RGB+3D-Systemen und Verfahren besteht darin, dass das Abtasten von Pixeln sowohl gegenüber Infrarotlicht als auch sichtbarem Licht empfindlich ist. Daher setzen die meisten RGB+3D-Kameras vier optische Filter ein, einen für jeden Teil des optischen Spektrums von Interesse, rot, grün, blau und IR, die auf einem CMOS-Pixel angeordnet sind. Da ein Teil jedes Pixels/Pixelbereichs der Detektion von IR zugeordnet sein muss, erfordert diese Lösung entweder die Verringerung des Füllfaktors der Kamera (einer der wesentlichen Gütezahlen für Kamerasysteme) oder die Vergrößerung des tatsächlichen Pixelbereichs, um sowohl Farb- als auch Tiefenbilder zu ermöglichen. Daher erhöht der Zusatz eines IR-Filters die Kameragröße/den Kamerabereich, vorausgesetzt, die Anzahl der Pixel in der Kamera wird konstant gehalten. Die Herstellungskosten zur Produktion einer Digitalkamera sind proportional zum Kamerabereich und der Komplexität, die zur Produktion benötigt wird. Daher ist eine Kamera mit zusätzlichem IR-Filter aufgrund der zusätzlichen Produktionskomplexität zur Herstellung des IR-Filters und des vergrößerten Kamerabereichs kostenintensiver. Es gilt ferner zu verstehen, dass zur Sicherstellung der RGB-Bildqualität in diesen früheren Systemen die Erfassung von 3D-Bildern nicht zur gleichen Zeit stattfindet, sondern zeitmultiplext wird, sodass erst ein RGB-Bild und dann ein 3D-Bild oder umgekehrt erfasst werden. In einem neuen System, wie dem hierin offenbarten System, ist es wünschenswert, die IR-Quelle zu eliminieren und lediglich eine sichtbare Lichtquelle oder sowohl 3D- als auch Standardbildgebung (RGB) zu verwenden.
  • In einem Versuch auf die erhöhten Kosten aufgrund eines zusätzlichen IR-Filters einzugehen, nutzen manche RGB+3D-Kameras zur IR-Detektion bestehende optische RGB-Filter, und zwar auf Grundlage der Tatsache, dass die RGB-Filter IR nicht vollständig sperren, sondern stattdessen einen Teil des Lichts im IR-Spektrum zu den CMOS-Photodetektoren durchlassen. Obwohl das Entfernen des IR-Filters Kosten reduziert, leidet die Leistung dieser Lösung, da das gesamte sichtbare Licht im Durchlassbereich der RGB-Filter Hintergrundlicht wird, wodurch das Rauschen deutlich erhöht und die 3D-Messauflösung vermindert wird. Zusätzlich dazu wird dennoch eine IR-Lichtquelle benötigt und die Detektoren leiden an einer niedrigeren Quanteneffizienz im IR-Bereich als im sichtbaren Bereich, wodurch die Wirkung des sichtbaren Hintergrundlichts verstärkt wird, während das Signal im IR-Bereich geschwächt wird. Auch hierbei ist es in einem neuen System wünschenswert, die IR-Quelle zu eliminieren und nur eine sichtbare Lichtquelle oder sowohl 3D- als auch Standardbildgebung (RGB) zu nutzen.
  • Als weiterer Hintergrund ist Lidar (Laser Imaging, Detection and Ranging) eine Technologie zur Feststellung der Distanz zu einem Objekt durch das Messen der Dauer, die eine Lichtwelle benötigt, um sich zu diesem Objekt und wieder zurück zu bewegen. Lidar kann in Abtast- oder Blitzkonstruktionen implementiert werden. Im ersten Fall tastet ein gebündelter Lichtstrahl die Szene von Punkt zu Punkt ab und erzeugt eine 3D-Punktwolke, die die Szene beschreibt. Bei einem Blitz-Lidar jedoch wird die gesamte Szene auf einmal beleuchtet und die Distanz zu allen Punkten wird gleichzeitig und parallel gemessen. Es kann auch eine Kombination aus beiden Techniken genutzt werden, wobei ein Subsatz der Punkte in der Szene parallel gemessen wird.
  • Eine der Herausforderungen bei der Umsetzung von Blitz-Lidar liegt in der Verringerung der Komplexität der Empfängerpixel, da Millionen davon oft auf einem einzelnen Chip betrieben werden müssen. Das umfasst sowohl den ToF-Messschritt als auch die Digitalisierung, was bei allen Pixeln entweder hintereinander oder parallel stattfinden muss. In Vorrichtungen des Stands der Technik gab es zwei Lösungskategorien für dieses Problem. In der ersten Kategorie werden die Eigenschaften der Wellenform genutzt, um die ToF in einen analogen elektrischen Zwischenparameter, wie beispielsweise Ladung oder Spannung, umzuwandeln und diesen dann in einem weiteren Schritt in eine digitale Zahl umzuwandeln. Zwei Beispiele für diese Kategorie werden in R. Lange und P. Seitz, „Solid-State Time-of-Flight Range Camera", IEEE Journal of Quantum Electronics, pp. 390-397, 2001.; und A. Simoni, L. Gonzo und M. Gottardi, „Integrated Optical Sensors for 3-D Vision", in Sensors, 2002 dargestellt, deren Offenbarungen hierin durch Verweis aufgenommen sind. Ein Verfahren beruht auf der sinusförmigen Modulation der Beleuchtungsquelle. Dann werden in den Empfängerpixeln vier Proben pro Modulationsperiode erhalten und digitalisiert, wobei ihre Werte genutzt werden, um die Phasenverschiebung der Sinuswellenform im Echosignal zu extrahieren und darauf basierend die ToF zu berechnen. Dieses Verfahren hängt stark von der Sinusform der Modulationswellenform ab, um das korrekte Ergebnis zu erzielen, und kann nicht leichtfertig mit anderen Modulationsmustern, wie beispielsweise einer gepulsten (oder Rechteckwellen-) Modulation, genutzt werden. Darüber hinaus wird ein zusätzlicher Schritt zur Digitalisierung der gesampelten Werte benötigt, wodurch die Komplexität zunimmt und die Genauigkeit durch zusätzliche Fehlerquellen in zusätzlichen Schritten verringert wird.
  • Zur Laufzeitmessung wurde eine andere Technik genutzt, die auf der Rechteckwellenmodulation der Beleuchtungsquelle beruht. Bei dieser Technik wird der vom Rücklauflicht erzeugte Photostrom in zwei getrennten Zeitfenstern integriert. Die Menge der gesammelten Ladung in jedem Fenster zeigt die Überlappung des Hochintensitätsteils der Rechteckwelle mit diesem. Nach der Digitalisierung und manchen zusätzlichen Verarbeitungsschritten kann dann die ToF gemessen werden. Manche andere Varianten dieses Verfahrens werden in folgenden Dokumenten offenbart: R. Lange und P. Seitz, „Solid-State Time-of-Flight Range Camera", IEEE Journal cf Quantum Electronics, pp. 390-397, 2001; A. Simoni, L. Gonzo und M. Gottardi, „Integrated Optical Sensors for 3-D Vision", in Sensors, 2002; D. Stoppa, L. Gonzo, M. Gottardi, A. Simoni und L. Viarani, „A Novel Fully Differential Pixel Concept for Indirect ToF 3D Measurement", in Instrumentation and Measurement Technology Center, 2003; L. Viarani, D. Stoppa, L. Gonzo, M. Gottardi und A. Simoni, „A CMOS Smart Pixel for Active 3-D Vision Applications", IEEE Sensors Journal, Vol. 4, Nr. 1, pp. 145-152, 2004; B. Buttgen, T. Oggier, M. Lehmann, R. Kaufmann und F. Lustenberger, „CCD/CMOS Lock-In Pixel for Range Imaging: Challenges, Limitations and State-of-the-Art", Ist Range Imaging Research Day, 2005; D. Stoppa, L. Viarani und A. Simoni, „A 50x30-pixel CMOS Sensor for ToF-based Real Time 3D Imaging", IEEE Workshop CCD&AIS, 2005; D. Stoppa, L. Gonzo und A. Simoni, „Scannerless 3D Imaging Sensors", International Workshop on Imaging Systems and Techniques, Niagara Falls, 2005; D. Stoppa, L. Pancheri, M. Scandiuzzo, L. Gonzo, G.-F. Dalla Betta und A. Simoni, „A CMOS 3-D Imager Based on Single Photon Avalanche Diode", IEEE Transactions on Circuits and Systems, Vol. 54, Nr. 1, pp. 4-12, 2007; S. Bellisani, F. Guerrieri und S. Tisa, „3D ranging with a high speed imaging array", in Ph.D. Research in Microelectronics and Electronics, 2010; M. Davidovic, G. Zach, K. Schneider-Hornstein und H. Zimmermann, „ToF Range Finding Sensor in 90nm CMOS Capable of Suppressing 180 klx Ambient light", in IEEE Sensors, 2010; G. Zach, M. Davidovic und H. Zimmermann, „A 16 16 Pixel Distance Sensor With In-Pixel Circuitry That Tolerates 150 klx of Ambient Light", JSSC, Vol. 45, Nr. 7, pp. 1345-1353, 2010; O. Sgrott, D. Mosconi, M. Perenzoni, G. Pedretti, L. Gonzo und D. Stoppa, „A 134-Pixel CMOS Sensor for Combined Time-of-Flight and Optical Triangulation 3-D Imaging", JSSC, Vol. 45, Nr. 7, pp. 1354-1364, 2010; A. Speckermann, D. Durini, W. Suss, W. Brockherede, B. Hosticka, S. Schwope und A. Grabmaier, „CMOS 3D Image Sensor Based on Pulse Modulated Time-of-Flight Principle and Intrinsic Lateral Drift-Field Photodiode Pixels", in ESSCIRC, 2011; D. Durini, A. Speckermann, J. Fink, W. Brockherde, A. Grambmaier und B. Hosticka, „Experimental Comparison of Four Different CMOS Pixel Architectures Used in Indirect Time-of-Flight Distance Measurement Sensors", in Image Sensors Workshop, 2011; M. Davidovic, M. Hofbauer, K. Schneider-Hornstein und H. Zimmermann, „High Dynamic Range Background Light Suppression for a ToF Distance Measurement Sensor in 180nm CMOS", in Sensors, 2011; R; Walker, j. Richardson und R. Henderson, „128×96 Pixel Event-Driven Phase-Domain Δ∑-Based Fully Digital 3D Camera in 0.13µm CMOS Imaging Technology", in ISSCC, 2011; D. Milos, M. Hofbauer und H. Zimmermann, „A 33 × 25 µm2 Low-Power Range Finder", in 1SCAS, 2012; D. Bronzi, S. Bellisai, B. Markovic, G. Boso, C. Scarcella, A. Della Frera and A. Tosi, „CMOS SPAD Pixels for Indirect Time-of-Flight Ranging", in Photonics Corference, 2012; M. L. Hafiane, W. Wagner, Z. Dibi und O. Manck, „Depth Resolution Enhancement Technique for CMOS Time-of-Flight 3-D Image Sensors", IEEE Sensors Journal, Vol. 12, Nr. 6, pp. 2320-2327, 2012; K. Yasutomi, T. Usui, S.-M. Han, T. Takasawa, K. Kagawa und S. Kawahito, „A 0.3mm-Resolution Time-of-Flight CMOS Range Imager with Column-Gating Clock-Skew Calibration", in ISSCC, 2014; C. Niclass, M. Soga, H. Matsubara, M. Ogawa und M. Kagami, „A 0.18- m CMOS SoC for a 100-m-Range 10-Frame/s 200 96-PixelTime-of-Flight Depth Sensor", JSSC, Vol. 49, Nr. 1, pp. 315-330, 2014; E. Tadmor, A. Lahav, G. Yahav, A. Fish und D. Cohen, „A Fast-Gated CMOS Image Sensor With a Vertical Overflow Drain Shutter Mechanism", Transaction on Electron Devices, Vol. 63, Nr. 1, pp. 138-144, 2016; J. Illade-Quinteiro, V. Brea, P. Lopez und D. Cabello, „Time-of-Flight Chip in Standard CMOS Technology with In-Pixel Adaptive Number of Accumulations", in 1SCAS, 2016, deren Offenbarungen vollständig hierin durch Verweis aufgenommen sind. Alle Verfahren, die in diesen Referenzen offenbart sind, werden als indirekte ToF- (I-ToF-) Messung bezeichnet.
  • In der zweiten Kategorie wird die ToF auf direktere Weise gemessen und wird oft als direktes ToF-Verfahren (D-ToF) bezeichnet. Die Modulationswellenform für die Verfahren in dieser Kategorie ist oft eine Reihe von kurzen Lichtimpulsen, die an das Ziel übertragen werden. In den Empfängerpixeln markiert die Ankunftsflanke des Rücklaufimpulses ein Zeitereignis, das dann unter Verwendung eines Zeit/Digital-Wandlers (TDC) digitalisiert wird. Arbeiten in dieser Kategorie werden in F. Villa, R. Lissana, D. Tamborini, B. Markovic, A. Tosi, F. Zappa und S. Tisa, „CMOS single photon sensor with in-pixel TDC for time-of-flight applications", in Workshop on Time-to-Digital Converters (NoMe TDC), Nordic-Mediterranean, 2013 präsentiert, deren Offenbarungen hierin durch Verweis aufgenommen sind. Bei diesen Verfahren werden die ToF-Informationen nur aus ansteigenden oder abfallenden Flanken der Rücklaufwellenform extrahiert, daher hängt ihre Genauigkeit stark von der Schärfe dieser Flanken ab. Darüber hinaus sollten die Empfängerpixel in der Lage sein, solche scharfen Ereignisse aufzunehmen, die die Komplexität erhöhen.
  • Eine allgemeine schematische Darstellung einer 3D-Kamera wird in 3 gezeigt, die einen Senderabschnitt TX, der das TX-Licht zum Ziel sendet und einen Empfängerabschnitt RX, der das vom Ziel reflektierte RX-Licht sammelt und dessen Laufzeit misst. Eine Art zur Erzeugung einer Punktwolke einer Szene besteht darin, diese sequentiell mit dem Licht von der Quelle abzutasten, wie in der Figur gezeigt wird. In diesem Fall können ein einzelner Detektor oder eine kleine Unteranordnung von Detektoren genutzt werden, um das 3D-Bild Punkt für Punkt oder Stück für Stück zu erzeugen. Eine andere Art besteht darin, die ganze Szene auf einmal zu fluten, wobei eine Detektoranordnung das Licht von den entsprechenden Pixeln sammelt, um ein vollständiges 3D-Bild zu erzeugen. In diesem Fall können die Strahlsteuereinheit eliminiert und die TX-Optikelemente modifiziert werden, um den Lichtstrahl (wie einen Kegel) zu erweitern, um die gesamte Szene abzudecken.
  • Zur Laufzeitmessung können unterschiedliche Parameter des übertragenen TX-Lichts, wie beispielsweise Intensität oder Amplitude, Phase oder Frequenz, basierend auf dem Aufbau des Lidar moduliert werden. Die Laufzeitmessverfahren, die in der vorliegenden Offenbarung bereitgestellt sind, sind zur Verwendung mit einem beliebigen Intensitätsmodulationsschema, wie beispielsweise einer sinusförmigen, Rechteckwellen- oder gepulsten Modulation, geeignet. 4 zeigt ferner die Betriebsprinzipien eines intensitätsmodulierten Lidar für den Fall, dass das Modulationssignal eine Rechteckwelle ist. Insbesondere gibt die ToF eine Zeitverzögerung τ im Empfangssignal in Bezug auf das Übertragungssignal wieder, das genutzt werden kann, um den Bereich R unter Verwendung der vorstehenden Gleichung 1 zu finden. Es gilt zu verstehen, dass der Faktor von eineinhalb in Gleichung 1 der Tatsache zugrunde liegt, dass die Zeitverzögerung τ von der Umlaufverzögerung des Lichts zum Ziel verursacht wird, sodass der Bereich gleich die halbe Distanz ist, die das Lichtsignal tatsächlich zurücklegt.
  • Ein effizientes ToF-Messverfahren ist bei Lidar von zentraler Bedeutung, wird jedoch bei Blitz-Lidar zur Herausforderung, wenn Millionen solcher Messungen parallel in den Bildgebungspixeln durchgeführt werden sollen. Bei den meisten Verfahren des Stands der Technik wird die Ausgabe von Millionen der Pixel digitalisiert, indem die Digitalisierungsschaltungsanordnung außerhalb der Pixel platziert wird. Durch die äußere Platzierung der Digitalisierung werden kleinere Pixel und damit eine bessere laterale Auflösung und Empfindlichkeit ermöglicht. Das Auslagern der Digitalisierung führt jedoch zu einer verringerten Bildgebungsgeschwindigkeit. In bestimmten Fällen, in denen die Bildgebungsgeschwindigkeit wichtig ist, wird der Zeitablauf in den Pixeln mit der zugeordneten Schaltungsanordnung gemessen, wie in Texas Instruments, OPT8241 3D Time-of-Flight Sensor, 2015 offenbart, wobei dieses Dokument hierin durch Verweis aufgenommen ist. Diese zusätzliche Schaltungsanordnung führt allerdings zu einer größeren Pixelgröße und einem kleineren Füllfaktor, wodurch die Empfindlichkeit verringert wird. Bei ToF-Lidar-Systemen wird eine relativ einfache Schaltungsanordnung benötigt, um die ToF mit vergleichbarer Genauigkeit aufzulösen.
  • Zusammenfassung der Offenbarung
  • In Übereinstimmung mit der vorliegenden Offenbarung wird ein System und Verfahren bereitgestellt, das die vorstehend angeführten Probleme der Ansätze des Stands der Technik lösen kann. Insbesondere beabsichtigt das vorliegende System und Verfahren das Abfühlen der Laufzeit (3D) mit dem sichtbaren Lichtspektrum und das Multiplexen des Bildsensors zwischen der 2D-Farbbildgebung- und 3D-Laufzeit-Bildgebungsmodi als Funktion der Zeit. Der Einfachheit halber wird das vorliegende System in einem Aspekt als RGBvD-System bezeichnet, das dem RGB-Farbsensor mit sichtbarem (Visible) Lichtspektrum-3D-Bildgebungssystem oder - sensor entspricht.
  • Das hierin offenbarte RGBvD-System stellt folgende Vorteile gegenüber früheren Stereokameras (zwei 2D-Bildgebern, die auf Basis von Triangulierung zwei Chips nutzen) bereit:
    1. 1) Wesentlich kleiner mit besserer Tiefenauflösung als mit Stereokameras erzielt werden kann;
    2. 2) Geringerer Overhead und geringere Kosten. Durch die Verwendung eines einzelnen Bildgebers entfallen Triangulierungsberechnungen, zusätzliche Komponenten und Einhausungskosten.
  • Das hierin offenbarte RGBvD-System stellt die folgenden Vorteile gegenüber früheren Systemen, die zwei Chips nutzen (ein Chip für die RGB- und ein Chip für die IR-3D-Abtastung, wie durch die Vorrichtung Microsoft Kinect® veranschaulicht), bereit:
    1. 1) Ermöglicht sowohl Farbbildgebung als auch 3D-Bildgebung auf einem einzelnen Chip.
    2. 2) Geringerer Overhead und geringere Kosten;
      • a. Durch die Verwendung eines einzelnen Bildgebers entfällt der Bedarf an einer Kalibrierung oder Vereinigung von 2D- und 3D-Bildern, die von den zwei Bildgeberchips erhalten werden;
      • b. Kein Bedarf an zusätzlichem 3D-IR-Bildgeberchip, IR-Quelle und zusätzlicher Linse für den 3D-IR-Bildgeber.
  • Das hierin offenbarte RGBvD-System stellt die folgenden Vorteile gegenüber bestehenden RGB+D-Zweichip-Lösungen (ein Chip zur RGB- plus einer zur IR-3D-Abtastung):
    • 1) Nutzt sichtbares Licht
      • a. Kein Bedarf an zusätzlichem IR-Filter auf dem Chip, wodurch die Chipverarbeitungskosten verringert werden;
      • b. Kein Bedarf an zusätzlicher IR-Lichtquelle. Kosten des 3D-Abtastsystems werden verringert.
  • Das hierin offenbarte RGBvD-System nutzt sichtbares Licht anstelle von Infrarot und führt ein Zeitmultiplexen zwischen Farb- und Tiefenbildgebungsmodi durch, um sowohl 2D- als auch 3D-Bilder zu den geringstmöglichen Kosten sammeln zu können.
  • In einem Aspekt der vorliegenden Offenbarung nutzt das RGBvD-System eine modulierte sichtbare Lichtquelle, wie beispielsweise den Blitz einer typischen 2D-Kamera auf einem Funktelefon, zur Tiefenbildgebung und Zeitmultiplexen zwischen Farb- und Tiefenbildgebung. Während der Farbbildgebung kann das Blitzlicht entweder durchgehend aus (z. B. bei der Bildgebung bei Tageslicht) oder durchgehend an sein (z. B. bei der Bildgebung bei Nacht), wohingegen die Intensität der Lichtquelle während der Tiefenbildgebung für die Laufzeit(ToF-) Messung moduliert werden kann. Die Modulationsfrequenz der Lichtquelle liegt außerhalb der Bandbreite des menschlichen Auges, sodass es während der 3D-Bildgebung so aussieht, als wäre die sichtbare Lichtquelle ein konstantes schwaches Licht, das von der Kamera kommt. Zusätzlich dazu kann die Kamera zwischen den beiden Modi hin- und herwechseln, um einen kontinuierlichen Strom von Farb- und Tiefenbildern zu erzeugen, die übereinander gelegt werden können, ohne dass eine Nachbearbeitungssoftware erforderlich ist. Das hierin offenbarte RGBvD-System und die Verfahren können Verfahren implementieren, um die in der Folge genauer beschriebene 3D-Tiefe zu messen, oder können andere bekannte Messverfahren für ToF nutzen, wie beispielsweise jene Verfahren, die in den vorstehenden, durch Verweis aufgenommenen, Dokumenten beschrieben sind.
  • Das hierin offenbarte RGBvD-System und Verfahren führt zu einer kostengünstigen 3D+RGB-Kameralösung, da dadurch der Bedarf an der Verwendung von kostspieligen Prozessen von CMOS-Bildgebern mit integriertem Schaltkreis, die IR-Filter aufweisen, entfällt. Darüber hinaus entfällt durch das vorliegende RGBvD-System und Verfahren der Bedarf an einer zusätzlichen IR-Quelle, die derzeit in 3D-Lösungen genutzt wird.
  • In einem weiteren Aspekt der vorliegenden Offenbarung können das vorstehend beschriebene System und Verfahren, sowie andere 3D-Kamerasysteme und -verfahren ein neues Laufzeit- (ToF-) Messsystem und -verfahren implementieren, mit dem die gleichzeitige Messung und Digitalisierung der Umlaufverzögerung einer intensitätsmodulierten Lichtwelle zu einem Ziel ermöglicht wird. Das findet Anwendung in Lidarsystemen (Light-Detection And Ranging), die zur Erzeugung einer 3D-Punktwolke eines Objekts oder einer Szene genutzt werden. Ein Aspekt des Verfahrens beruht auf der sukzessiven Approximation des Integralsymmetriepunkts der Rücklauflichtintensität auf der Zeitachse, um die Phasenverschiebung des Ankunftssignals in Bezug auf die Modulationswellenform der Beleuchtungsquelle zu bestimmen. Der Integralsymmetriepunkt ist der Punkt in der Modulationsperiode, an dem das Integral der Wellenform einer halben Periode links und rechts von dem Punkt gleich ist. Ein weiterer Aspekt des Verfahrens der vorliegenden Offenbarung beruht auf der Sigma-Delta- (ΣΔ-) Modulation, um die Laufzeit festzustellen. Verglichen mit anderen indirekten ToF-Messtechniken nutzen die vorliegenden Verfahren eine einfache Schaltungsanordnung, die im Pixel für große 3D-Blitzkameras implementiert werden können, bei denen Millionen Pixel parallel ToF-Messungen durchführen, um ein gesamtes Einzelbild mit einer einzigen Aufnahme zu erfassen. Die vorliegenden Verfahren können außerdem in einer 3D-Abtastkamera implementiert werden, bei denen Pixel eines 3D-Bilds sequentiell unter Verwendung von Strahlsteuerverfahren erfasst werden. Schließlich können die vorliegenden Verfahren, im Gegensatz zu anderen Verfahren, die üblicherweise nur mit einer bestimmten Modulationswellenform (z. B. Rechteckwelle, sinusförmig etc.) funktionieren, beinahe mit jeder Modulationswellenform einer beliebigen Intensität mit einem Schaltungsaufbau funktionieren, der mit gängigen CMOS, CMOS-Bildgebung und CCD-Technologien kompatibel ist.
  • Die Systeme und Verfahren der vorliegenden Offenbarung stellen eine inhärente Digitalisierung im Pixel bereit, wodurch der Kameraaufbau vereinfacht und das auf die Eingabe bezogene Rauschen reduziert werden kann. Im Vergleich mit dem D-ToF-Verfahren nutzt dieses Verfahren die gesamte Wellenform des Modulationssignals anstelle der Ankunftsflanke, um die ToF-Informationen zu extrahieren. Dadurch werden die Empfindlichkeit gegenüber den Merkmalen der Modulationswellenform und auch die Komplexität der Empfangsschaltungsanordnung verringert. Zusätzlich zu all diesen Vorteilen können die vorliegenden Systeme und Verfahren mit beinahe jeder beliebigen Modulationswellenform genutzt werden, wodurch diese zu Universalverfahren werden, die im Detektionspfad der meisten Systeme, unabhängig von ihrer Senderdurchlassarchitektur oder ihrer Modulationswellenform.
  • Figurenliste
    • 1 ist eine Graphik bekannter 3D-Bildgebungsverfahren.
    • 2 ist ein Diagramm einer Blitzlaufzeit- (ToF-) 3D-Kamera.
    • 3 ist ein Diagramm einer 3D-Kamera und eines Lidar-Systems.
    • 4 ist ein Diagramm von übertragenen und empfangenen Signalen unter Verwendung des in 3 gezeigten Systems.
    • 5 ist ein Diagramm des Zeitmultiplexens zur Laufzeit- und RGB-Detektion, das durch das hierin beschriebene System und Verfahren implementiert wird.
    • 6 ist ein Schaltplan, der zur Laufzeitbestimmung konfiguriert ist.
    • 7 ist ein Zeitablaufdiagramm zum Betreiben der Schaltung von 6.
    • 8a ist ein Diagramm einer Pixelanordnung zur Verwendung in der 3D-Kamera von 3.
    • 8b ist ein Schaltplan, der zur RGB-Lichtdetektion und ToF-Bestimmung für die 3D-Kamera von 3 gemäß einem Aspekt der vorliegenden Offenbarung konfiguriert ist.
    • 8c ist ein Schaltplan einer Kondensatorschaltung, die in der in 8b gezeigten Schaltung genutzt wird.
    • 9 ist ein Zeitablaufdiagramm zum Betreiben der Schaltung 8b um ein RGB-Bild zu erzeugen.
    • 10 ist ein Zeitablaufdiagramm zum Betreiben der Schaltung von 8b zum Erzeugen von Laufzeit- und Tiefeninformationen für die 3D-Kamera von 3 gemäß einem Aspekt der vorliegenden Offenbarung.
    • 11 ist ein Diagramm von ToF-Messungen unter Verwendung einer sukzessiven Approximation gemäß einem Aspekt der vorliegenden Offenbarung.
    • 12 ist ein Schaltplan einer Schaltung zum Durchführen der sukzessiven Approximation, die in dem Diagramm von 11 gezeigt wird, gemäß einem Aspekt der vorliegenden Offenbarung.
    • 13 ist ein Diagramm von ToF-Messungen unter Verwendung einer Sigma-Delta-Modulation gemäß einem weiteren Aspekt der vorliegenden Offenbarung.
    • 14 ist ein Schaltplan einer Schaltung zum Durchführen der Sigma-Delta-Modulation, die in dem Diagramm von 13 gezeigt wird, gemäß einem weiteren Aspekt der vorliegenden Offenbarung.
    • 15 ist ein Diagramm des Sigma-Delta-Modulationsverfahrens unter Verwendung von schmalen Modulationsimpulsen.
    • 16 ist eine Graphik, in der der Betrieb eines integrationsbasierten Proportionaldiskriminators gemäß einem Merkmal der vorliegenden Offenbarung erklärt wird.
    • 17 ist ein Diagramm eines Signals, das durch eine Nichtrechteckwelle übertragen wird, in dem eine Rückkopplungsschleife für den integrationsbasierten Proportionaldiskriminator dargestellt wird, um den Integralsymmetriepunkt des Signals zur Verwendung bei den hierin offenbarten ToF-Messungen zu bestimmen.
    • 18 ist ein Diagramm einer Vorrichtung zum Durchführen des in 17 gezeigten Rückkopplungsschleifenverfahrens.
    • 19 ist ein Diagramm einer Vorrichtung zum Durchführen des in 17 gezeigten Rückkopplungsschleifenverfahrens, in dem eine analoge Rückkopplungsschleife eingebunden ist.
    • 20 ist ein Diagramm einer Vorrichtung zum Durchführen des in 17 gezeigten Rückkopplungsschleifenverfahrens zur Verwendung mit der hierin offenbarten ΣΔ-Laufzeitmessung.
  • Detaillierte Beschreibung
  • Zum Zwecke eines leichteren Verständnisses der Prinzipien der Offenbarung wird nun Bezug auf die in den Zeichnungen dargestellten und in der folgenden schriftlichen Beschreibung beschriebenen Ausführungsformen genommen. Es gilt zu verstehen, dass damit keine Einschränkung des Schutzumfangs der Offenbarung beabsichtigt ist. Es gilt weiters zu verstehen, dass die vorliegende Offenbarung beliebige Änderungen und Modifikationen der dargestellten Ausführungsformen und außerdem weitere Anwendungen der hierin offenbarten Prinzipien umfasst, wie sie üblicherweise Fachleuten auf dem Gebiet der Erfindung in den Sinn kommen, an die sich diese Offenbarung richtet.
  • Zeitmultiplex-Farbbildgebungsvorrichtung
  • Die vorliegende Offenbarung beabsichtigt das Abtasten der Laufzeit (3D) mit dem sichtbaren Lichtspektrum und das Multiplexen des Bildsensors, wie beispielsweise des RX-Sensors in 3, zwischen 2D-Farbbildgebungs- und 3D-Laufzeitbildgebungsmodi als Zeitfunktion. Der Einfachheit halber wird das vorliegende System als RGBvD-System bezeichnet, das dem RGB-Farbsensor mit sichtbarem (Visible) Lichtspektrum-3D-Bildgebungssystem oder -sensor entspricht. In einem Aspekt der vorliegenden Offenbarung nutzt das RGBvD-System eine modulierte sichtbare Lichtquelle, wie beispielsweise den Blitz einer typischen 2D-Kamera auf einem Funktelefon, zur Tiefen- oder ToF-Bildgebung und zum Zeitmultiplexen zwischen der Farb- und Tiefenbildgebung. Während der Farbbildgebung kann das Blitz- oder TX-Licht entweder durchgehend aus (z. B. bei der Bildgebung bei Tageslicht) oder durchgehend an sein (z. B. bei der Bildgebung bei Nacht), wohingegen die Intensität der Lichtquelle für die Laufzeit- (ToF-) Messung moduliert werden kann. Die Modulationsfrequenz der Lichtquelle liegt außerhalb der Bandbreite des menschlichen Auges, sodass es während der 3D-Bildgebung so aussieht, als wäre die sichtbare Lichtquelle ein konstantes schwaches Licht, das von der Kamera kommt.
  • Zusätzlich dazu ist die Kamera ausgelegt, um zwischen den beiden Modi hin- und herzuwechseln, um einen kontinuierlichen Strom von Farb- und Tiefenbildern zu erzeugen, die übereinander gelegt werden können, ohne dass eine Nachbearbeitungssoftware erforderlich ist, wie in 5 gezeigt wird. Daher kann die 3D-Kamera, wie beispielsweise die Kamera in 3, und insbesondere die RX- und Verarbeitungsschaltungsanordnung oder der RX-Prozessor der Kamera gesteuert werden, wie beispielsweise durch eine Schaltungsanordnung oder Software, um zwischen dem Erhalten eines Farbbilds in einem Bildgebungsmodus, wie beispielsweise in Einzelbild N und Einzelbild N+2, und dem Erhalten von Laufzeit- (ToF-) Informationen in einem ToF-Modus, wie beispielsweise in dem Zwischeneinzelbild N+1, aus dem gleichen übertragenen TX-Licht und dem gleichen RX-Licht, das von dem detektierten Objekt oder der detektierten Szene reflektiert wird, zu multiplexen. Das hierin offenbarte RGBvD-System und die hierin offenbarten Verfahren können Verfahren umsetzen, um die 3D-Tiefe oder ToF zu messen, wie im Folgenden genauer beschrieben wird, oder sie können andere bekannte Messverfahren für ToF nutzen, wie beispielsweise jene Verfahren, die in vorstehenden, durch Verweis aufgenommenen, Dokumenten beschrieben sind. Die Kamera kann den in 3 gezeigten Aufbau aufweisen, bei dem das Rücklaufsignal zu einer Photodiodenanordnung A geleitet wird, bei der die Ausgabe jeder Photodiode vom RX-Prozessor C verarbeitet wird. In Übereinstimmung mit der hierin offenbarten RGBvD-Kamera ist der RX-Prozessor C zum Alternieren zwischen Einzelbildern ausgelegt, um Farbbilder im Bildgebungsmodus zu speichern und ToF-Informationen im ToF-Modus zu erzeugen und zu speichern, die alle vom gleichen TX-Signal stammen.
  • Eine detailliertere Erklärung beginnt mit der in 6 gezeigten Basisschaltung zum Messen der Laufzeit zwischen dem TX-Licht und dem RX-Licht, das im Diagramm in 4 gezeigt wird. Die in 6 gezeigte Schaltung betrifft einen einzelnen Lichtdetektor 10 an der RX-Sensorseite der in 3 gezeigten Kamera. Bei dem Detektor 10 kann es sich um einen herkömmlichen RGB-Lichtdetektor oder eine Photodiode handeln. Die Ausgabe von Detektor 10 wird einem Paar von Transfergates TG1 , TG2 bereitgestellt, die zusammen mit entsprechenden Kondensatoren, CFD1, CFD2, einen Integrator zum Integrieren oder Sammeln von Ladung von dem Detektor 10 bilden. Ladung Q1 , Q2 wird in jedem Kondensator gesammelt, wenn das entsprechende Transfergate geöffnet wird. Wenn die Gates geschlossen sind, kann die Ladung in jedem Kondensator durch einen Puffer BUF als entsprechende Spannungen V1 , V2 ausgegeben werden. Diese Spannungen können in entsprechende A/D-Wandler eingespeist werden, um sie zur Berechnung der Laufzeit innerhalb des RX-Prozessors C oder innerhalb einer externen Vorrichtung, der die Spannungen V1 , V2 (oder die A/D-umgewandelten digitalen Werte) bereitgestellt werden, zu verwenden.
  • Die Transfergates TG1 , TG2 werden gemäß der in 7 gezeigten Zeitablaufgraphik aktiviert oder geöffnet, um die zur Bestimmung der Laufzeit nötige Integration durchzuführen. Wie in 7 gezeigt, wird das erste Transfergate TG1 bei der Übertragung des TX-Lichtimpulses für eine Zeitspanne geöffnet, der gleich der Länge oder Zeitdauer des TX-Impulses TP ist. Solange das Transfergate TG1 offen ist, wird Ladung vom Detektor 10 als Ladung Q1 im Kondensator CFD1 gesammelt. Am Ende der Zeitspanne TP wird das zweite Gate TG2 für eine gleiche Zeitspanne TP geöffnet, währenddessen die Ladung Q2 im Kondensator CFD2 gesammelt wird. Es gilt zu verstehen, dass wenn die Transfergates TG1 , TG2 geöffnet sind, die Ladung nur in den entsprechenden Kondensatoren gesammelt wird, wenn der RX-Sensor das reflektierte Licht detektiert. Somit wird, wie in 7 gezeigt, das RX-Licht zu einem Zeitpunkt empfangen, der vom Beginn des TX-Impulses versetzt ist - d. h. die Laufzeit (ToF). Wie von den zwei schattierten Abschnitten des RX-Lichts in 7 dargestellt, überlappen der vordere Abschnitt des empfangenen RX-Impulses und der TG1-Impuls um die Ladung Q1 und der hintere Abschnitt des RX-Impulses und der TG2-Impuls um die zweite Ladung Q2 .
  • Die Schaltungsanordnung für eine 3D-Kamera gemäß der vorliegenden Offenbarung wird in 8a-8c gezeigt. Die 3D-Kamera umfasst eine Vielzahl von Pixelanordnungen, wie beispielsweise die in 8a gezeigte Pixelanordnung. In der dargestellten Ausführungsform umfasst eine 2x2-Anordnung einen Detektor, der für rotes, grünes und blaues Licht (RGB) eingestellt ist. Der zusätzliche Detektor in dem Beispiel kann auf grünes Licht oder auf andere Frequenzen oder Frequenzbandbreiten kalibriert werden. Jeder Detektor gibt einem entsprechenden Paar von Transfergates TG1 , TG2 , wie vorstehend angeführt, in Übereinstimmung mit der in 8b gezeigten Schaltung eine Ladung aus. Die entsprechenden Transfergates leiten die Ladung zu einer Kondensatorschaltung DIN weiter, die genauer in 8c dargestellt ist. Wie in 8c gezeigt, ist der Kondensator CFD durch einen Rücksetztransistor mit einer Grundspannung VDD verbunden, wobei die Ladung des Kondensators zu einem Datenbus COL über einen Puffer ausgegeben wird, der einen Auswahltransistor SEL umfasst. Wie in 8b gezeigt, umfasst jeder Detektor ein Paar von Transfergates TG1 , TG2 und ein Paar von Kondensatorschaltungen, wie in 8c gezeigt, wobei die Ausgabe jeder Kondensatorschaltung einer Leitung COL(0), COL(1) ... COL(7)., des Datenbus COL zugeführt wird. Alternativ dazu kann der Datenbus eine einzelne Datenleitung sein, wobei der Ausgang jeder Kondensatorschaltung der Busleitung COL ein Seriensignal bereitstellt.
  • In Übereinstimmung mit der vorliegenden Offenbarung wird die Schaltungsanordnung von 8b-8c abwechselnd genutzt, um das RGB-Bild zu detektieren und um die Laufzeit zu bestimmen, um so den 3D-Aspekt der Kamera zu ermöglichen. Im Speziellen beabsichtigt die vorliegende Offenbarung das Multiplexen des Betriebs der Schaltung über eine Reihe von TX-Impulsen zwischen Bilddetektion und der ToF-Messung, wie vorstehend in Bezug auf 5 angeführt. Im Speziellen werden die Eingabeleitungen SEL, RESET, VDD und Ströme zu den Transfergates TG1 , TG2 für jede Kondensatorschaltung DIN vom RX-Prozessor C gesteuert werden. Der RX-Prozessor C ist auch zur Steuerung in der Lage, wenn das TX-Licht aktiviert ist.
  • Wenn die Schaltungsanordnung von 8b-8c im RGB-Bildgebungsmodus betrieben wird, aktiviert der RX-Prozessor C die RESET-, TG1-, TG2- und SEL-Eingaben in Übereinstimmung mit der in 9 gezeigten Zeitablaufgraphik. Erst gilt es zu verstehen, dass das TX-Licht im RGB-Bildgebungsmodus nicht aktiviert sein muss, wie durch das Null-TX-Lichtsignal in 9 angezeigt wird. In diesem Fall erfolgt die Bilddetektion unter Umgebungslichtbedingungen, um eine genaue Abbildung der erfassten Szene bereitzustellen. Es gilt jedoch zu verstehen, dass in manchen Fällen zusätzliches Licht zu der Szene hinzugefügt werden kann, wobei das TX-Licht kontinuierlich über den Bildabtastungszeitraum aktiviert werden kann.
  • Im Standardfall setzt das RESET-Signal alle Kondensatorschaltungen DIN zurück, sodass keine Ladung Q1 , Q2 in beliebigen der Kondensatoren, die den RGB-Detektoren entsprechen, vorhanden ist. In Übereinstimmung mit dem Rücksetzsignal werden die zwei Transfergates TG1 , TG2 aktiviert, sodass Ladung von dem entsprechenden Detektor in jedem der Kondensatoren CFD1, CFD2 (FIG. A) gesammelt wird. Die Ladungen werden über einen vorbestimmten Zeitraum gesammelt, der besonders geeignet ist, um genug Licht für eine genaue Detektion der Intensität der jeweiligen roten, grünen und blauen Lichtkomponenten, die von der Szene reflektiert werden, zu erhalten. Die Transfergates werden nach Ende des vorbestimmten Zeitraums geschlossen und die SEL-Eingabe wird aktiviert, um die Kondensatorladung zur entsprechenden Datenbusleitung COL zu leiten. Bei diesem Farbbildgebungsmodus wird erwartet, dass die Ladungen in den zwei Kondensatoren für jeden Detektor gleich oder im Wesentlichen gleich sind, da die Transfergates für jede Kondensatorschaltung für den gleichen Zeitraum geöffnet werden. Sobald die Kondensatorladungen zum Datenbus ausgegeben wurden, startet das RESET-Signal den Zyklus von neuem. Die an den Datenbus COL ausgegebenen Ladungen werden durch einen A/D-Wandler geleitet und der RX- und Verarbeitungsschaltungsanordnung C (2), um das Farbbild der detektierten Szene zu erzeugen, und/oder einer externen Vorrichtung zur weiteren Verarbeitung zugeführt.
  • Um dem Farbbild Tiefe bereitzustellen, werden die Laufzeitinformationen im zweiten Betriebsmodus der Schaltung von 8b-8c erzeugt. Wenn die Schaltungsanordnung im ToF-Modus betrieben wird, aktiviert der RX-Prozessor C die RESET-, TX-Licht-, TG1-, TG2- und SEL-Eingaben in Übereinstimmung mit der in 10 gezeigten Zeitablaufgraphik. Das RESET-Signal bereinigt die Kondensatorschaltungen DIN jedes Detektors, wobei dann nach der Übertragung des TX-Lichtsignals das Transfergate TG1 des ersten Kondensator CFD1 jedes Detektors für die Zeitspanne Tp des TX-Lichtimpulses offen ist. Am Ende der Zeitspanne Tp ist das erste Transfergate geschlossen und das zweite Gate TG2 ist geöffnet, und Ladung wird in dem zweiten Kondensator CFD2 auf die in dem Diagramm in 7 dargestellte Weise akkumuliert. Nachdem der TX-Impuls übertragen wurde, empfangen die Detektoren gewisse Zeit danach das reflektierte Lichtsignal RX, und es ist dieses Signal, das durch die zwei Kondensatoren CFD1, CFD2, wie oben erläutert, integriert wird. Das SEL-Signal wird zu einem vorbestimmten Zeitpunkt nach der Übertragung des TX-Signals bereitgestellt, um die Kondensatoren an die entsprechende Busleitung COL zu entladen. Die Spannungen auf den Busleitungen für alle Detektoren (nämlich die RGBG-Detektoren in dem vorliegenden Beispiel) können durch einen A/D-Wandler geleitet werden, und die digitalen Informationen können verwendet werden, um die ToF für jeden Detektor zu berechnen.
  • Es gilt anzuerkennen, dass dieselbe Schaltung, die in 8b-8c dargestellt ist, ihr entsprechendes Farbsignal und ein ToF-Signal für jeden Detektor abhängig von der Zeitgebung der Signale in 9 und 10 erzeugt. Daher erwägt die vorliegende Offenbarung, dass die RX- und Verarbeitungsschaltung C der 3D-Kamera (3) ausgelegt sein kann, um die Signale RESET, TX-Licht, TG1 , TG2 und SEL gemäß dem Standardbildgebungsmodus aus 9 zu erzeugen, der mit der Erzeugung der Signale RESET, TX-Licht, TG1 , TG2 und SEL gemäß dem ToF-Modus aus 10 verschachtelt ist. Der Multiplexing-Zyklus kann in gleichmäßigen Zeitabständen wie nach jedem RESET-Signal abwechselnd zwischen den Modi auftreten, oder der ToF-Zeitablauf aus 10 kann nach 2, 3 oder mehr Zyklen des Bildgebungsmoduszeitablaufs aus 9 aktiviert werden.
  • Wie in 10 dargestellt, wird das TX-Lichtsignal gepulst, um eine Basislinie für die Messung der ToF zwischen dem TX-Lichtsignal und dem reflektierten RX-Lichtsignal zu erstellen. Die Dauer TP und die Frequenz des übertragenen TX-Lichtimpulses kann so kalibriert werden, dass das Licht nicht von Beobachtern wahrgenommen wird. Andererseits ist die Dauer TP lange genug, so dass ausreichend Lichtenergie oder Photonen von den Detektoren empfangen wird/werden, um die Kondensatoren zu laden und eine genaue Messung der Zeitablaufdifferenz ToF bereitzustellen.
  • Das Multiplexing-Merkmal der vorliegenden Offenbarung kann mit verschiedenen Lichtquellen für das TX-Licht implementiert werden. Die Lichtquelle kann z.B. eine einzelne Weißlichtquelle oder getrennte Lichtquellen sein, bei denen Licht auf einer bestimmten Wellenlänge oder einem Wellenlängenband (z.B. rot, grün, blau) zentriert ist. Alternativ dazu kann sich die Lichtquelle außerhalb des sichtbaren Spektrums befinden, wobei einer der Lichtdetektoren in der Pixelanordnung aus 8a der nichtsichtbaren Lichtquelle unter der Voraussetzung entspricht, dass die alternative Lichtquelle nur während des ToF-Teils des Zyklus aktiviert wird. Die Lichtquellen in dem TX-Bereich der Kamera aus 3 können LEDs, VCESLs, Laser oder andere geeignete Lichtübertragungselemente sein. Die Lichtdetektoren können Standard-Photodioden oder andere Vorrichtungen sein, die dazu in der Lage sind, die jeweiligen Lichtsignale zu erfassen. Alle Komponenten, einschließlich der Schaltungen aus 8b-8c, können auf einer gemeinsamen Platine unter Verwendung konventioneller Halbleiterherstellungsverfahren bereitgestellt werden.
  • Der hierin offenbarte Multiplexing-Ansatz ermöglicht die Verwendung von sichtbarem Licht, derselben Lichtquelle und denselben Lichtdetektoren sowohl für die Bilderzeugung und die ToF-Berechnung. Da dieselben Detektoren, die das Farbbild erfassen, auch ToF-Daten bereitstellen, sind die ToF-Informationen für jede Pixelanordnung der Farbkamera korrekt - d.h. es gibt keinen Parallaxe-Effekt zwischen dem Farbbild und der ToF-Tiefenmessung. Der Multiplexing-Ansatz der vorliegenden Offenbarung ermöglicht daher die Verwendung eines Standard-CMOS-Bildsensors, CIS oder ASIC, die für die Farbbilderfassung verwendet werden, unter der Steuerung der Komponenten, die dem RX-Prozessor oder der Software zugeordnet sind. Die Verarbeitungsschaltungsanordnung muss mit der 3D-Kameralichtquelle (wie dem Blitz eines Smartphones oder dergleichen) verbunden sein, um den TX-Lichtimpuls zu steuern. Die RX- und Verarbeitungsschaltungsanordnung C kann ausgelegt sein, das Signal auf der Busleitung COL zu empfangen und kann die ToF-Informationen für jeden Sensor mit den RGB-Informationen für jenen speziellen Sensor korrelieren, um ein 3D-Bild zu erzeugen.
  • Messung der sukzessiven Approximation der Laufzeit
  • In einer Ausführungsform der vorliegenden Offenbarung kann eine 3D-Kamera, wie die in 3 dargestellte Kamera, RX-Prozessor C einbinden, der ausgelegt und betreibbar ist, um ein erstes Verfahren der vorliegenden Offenbarung zur Messung der Laufzeit durchzuführen, die als „Messung des Integralsymmetriepunkts (ISP) der sukzessiven Approximation der ToF (SA-ToF)“ bezeichnet wird. Die Verarbeitungsschaltungsanordnung C kann eine elektronische Schaltungsanordnung, einen Mikroprozessor, der programmierbar ist, um Softwarebefehle auszuführen, oder eine Kombination daraus sowie eine Schaltungsanordnung umfassen, die jeder Photodiode oder einer Gruppe von Photodioden zugeordnet ist. Ältere 2D- oder 3D-Kameras basieren auf dem Abnehmen von Ladungen von Photodioden, wobei die abgenommenen Ladungen in digitale Daten umgewandelt werden und die Laufzeitberechnungen in der digitalen Domäne durchgeführt werden. Andererseits bestimmt die vorliegende Offenbarung die ToF in der analogen Domäne unter Verwendung einer Schaltungsanordnung, die einer oder mehreren Photodioden zugeordnet ist, um die gesammelten Ladungen von der/den Photodiode(n) zu integrieren. Das ISP-SA-ToF-Verfahren basiert auf dem Finden eines Punkts (d.h. ein Zeitpunkt) in dem empfangenen Signal RX während einer einzelnen Modulationsperiode, in der das Integral unter der Signalkurve rechts und links des Punkts innerhalb dieser Periode gleich ist - daher die Bezeichnung Integralsymmetriepunkt. Beispielsweise ist dieser Punkt bei einer Quadratmodulation, wie in 4 dargestellt, im Mittelpunkt des „HOCH“-Zustands der Modulation. Die ToF kann durch Vergleichen der Zeitgebung dieses ISP-Punkts in dem empfangenen Signal RX mit der Zeitgebung des ähnlichen ISP-Punkts in dem Übertragungssignal TX gemessen werden. Der ISP für das übermittelte Signal TX ist bereits von vornhinein bekannt, da das Übertragungssignal in der Kamera erzeugt und gesteuert wird.
  • Gemäß der vorliegenden Offenbarung wird der Vorgang zum Finden der exakten Position des Integralsymmetriemittelpunkts für das empfangene Signal RX in aufeinanderfolgenden Schritten über mehrere Modulationszyklen durchgeführt, daher der Aspekt der sukzessiven Approximation der SA-ToF-Messung. Das vorliegende Verfahren ermöglicht die Wiederverwendung derselben Schaltungsanordnung, welche die Schaltungskomplexität und deren Größe insbesondere beim Einsatz für 3D-Blitzkameras wiederum reduziert. Die Modulationsfrequenz ist oftmals um einige Größenordnungen höher als die Einzelbildrate, daher führt das Durchführen der Messung in aufeinanderfolgenden Perioden nicht zu praktischen Einschränkungen.
  • Das Verfahren der sukzessiven Approximation der vorliegenden Offenbarung wird in dem Diagramm in 11 dargestellt. Das vorliegende System und das Verfahren sind betreibbar, um die ToF durch Messen des Zeitablaufs des Integralsymmetriepunkts (ISP) des empfangenen Signals unter Bezugnahme auf denselben ISP-Punkt des Übertragungssignals TX zu finden. Der Einfachheit halber kann angenommen werden, dass die Modulation des TX-Lichts und des RX-Lichts beide eine Rechteckwellenform aufweisen, aber das vorliegende Verfahren kann auch auf jede andere Modulationswellenform angewendet werden. Das Übertragungssignal, das an das Ziel übermittelt wird, ist in 11 ganz oben als TX-Licht dargestellt, und das zeitverzögerte empfangene Signal oder RX-Licht ist unterhalb des TX-Signals dargestellt. Der Integralsymmetriepunkt des RX-Lichts wird durch einen Punkt mit der Bezeichnung ISP markiert und wird unter Bezugnahme auf den Integralsymmetriepunkt des TX-Lichts gemessen, der bereits im vornhinein als Mittelpunkt der Rechteckwelle bekannt ist. Gemäß der vorliegenden Offenbarung ist das Ergebnis der Messung eine Binärzahl, die mit einer Binärzahl aus einer vollständigen Skala gleich einer vordefinierten Maximallaufzeit ToFmax verglichen werden kann, die das System messen kann. Die ToFmax ist notwendigerweise geringer als die Modulationsperiode TM des TX-Signals.
  • In dem ersten Schritt der Messung werden zwei Integrationszeitfenster, W1 und W2 , definiert, von denen jedes eine vorbestimmte Zeitdauer aufweist, die gleich der Hälfte von ToFmax ist, wie in „Schritt 1“ in 11 dargestellt. Die Zeitfenster bestimmen die Periode, in der die von der Photodiode 10 erzeugte Ladung als Reaktion auf den Empfang des RX-Signals unter Verwendung einer analogen Schaltungsanordnung wie hierin beschrieben akkumuliert oder integriert wird. Das anfängliche Zeitfensterpaar W1 , W2 beginnt an dem ISP des TX-Signals. Das Integral oder die Akkumulation der Photodioden-Ladung innerhalb jedes Fensters wird bestimmt, wobei das Integral des ersten Zeitfensters W1 als Q1 bezeichnet wird, und das Integral des RX-Signals innerhalb des zweiten Zeitfensters W2 als Q2 bezeichnet wird. In der in 11 dargestellten Ausführungsform ist Q2 > Q1, so dass daraus gefolgert werden kann, dass das RX-Signal eine größere Überlagerung mit dem zweiten Zeitfenster als mit dem ersten Fenster aufweist. Daher ist dann bekannt, dass der ISP in dem zweiten Fenster W2 auftreten sollte. In Übereinstimmung mit dem vorliegenden Verfahren setzt die Gegenwart des ISP in dem zweiten Fenster W2 eine erste Binärzahl für diese zeitliche Integration auf eine binäre „1“, wie in 11 unter der Zeitachse abgebildet ist. Es gilt anzumerken, dass, falls der ISP innerhalb des ersten Fensters W1 vorhanden ist, die erste Binärzahl eine binäre „0“ wäre. Die nachfolgenden Schritte sollen das Paar aus Zeitfenstern der ½ ToFmax-Länge hin zu einem Punkt verschieben, an dem das Integral des RX-Signals in jedem der Fenster gleich, im Wesentlichen gleich oder innerhalb eines vorbestimmten Bereichs ist/liegt.
  • Daher wird in dem zweiten Schritt bestimmt, ob der ISP sich in der ersten Hälfte des Fensters W2 oder in der zweiten Hälfte dieses Fensters befindet. Um diese Bestimmung vorzunehmen, werden die Zeitfenster W1 , W2 an dem nächsten TX-Signal auf dieselbe Weise wie oben beschrieben neu definiert, und zwei neue Zeitfenster W3 und W4 werden ebenfalls auf ähnliche Weise definiert - d.h. sie weisen eine Zeitdauer gleich der Hälfte von ToFmax auf. Allerdings sind die neuen Fenster W3 , W4 anders als die ersten zwei Fenster so definiert, dass die Hinterflanke von Fenster W3 und die Vorderflanke von Fenster W4 in der Mitte des neu definierten Fensters W2 ausgerichtet sind, wie in „Schritt 2“ in 11 abgebildet. In diesem Beispiel ist das Integral der von der Photodiode 10 innerhalb des neuen Zeitfensters W3 , das als Q3 bezeichnet wird (entsprechend der während dieses Zeitfensters akkumulierten Ladung), erzeugten Ladung größer als das Integral des RX-Signals in dem Zeitfenster W4 , das als Q4 bezeichnet wird, daher wird die zweite Binärzahl als „0“ ausgewählt.
  • In dem dritten Schritt werden die Zeitfenster W1 , W2 , W3 und W4 an dem nächsten TX-Signal auf dieselbe Weise wie in dem zweiten Schritt neu definiert. Die neuen Zeitfenster W5 und W6 werden in „Schritt 3“ auf dieselbe Weise definiert, wie die Fenster W3 , W4 (d.h. von denen jedes eine Dauer von ½ ToFmax aufweist), außer, dass die Grenzen der zwei neuen Fenster auf die Mitte des dritten Fensters W3 eingestellt werden, da das Integral Q3 größer ist als Q4 . In dem dritten Schritt ist das Integral der von der Photodiode 10 als Reaktion auf das RX-Signal innerhalb des Zeitfensters W5 , das als Q5 bezeichnet wird, erzeugten Ladung größer als das Integral des RX-Signals innerhalb des Zeitfensters W6 , das als Q6 bezeichnet wird, da die dritte Zahl auch als binäre „0“ eingestellt wird. Am Ende der drei Schritte wird die ToF mit einer Genauigkeit von drei Stellen durch eine binäre „100“ dargestellt. Bei einer Genauigkeit von drei Stellen ist der Binärwert für die maximale Laufzeit ToFmax eine binäre „111“. In diesem Beispiel und bei einer Genauigkeit von drei Stellen tritt der Integralsymmetriepunkt ISP für das empfangene Signal RX, aus dem der ToF-Wert erhalten werden kann, in dem fünften Fenster oder dem Oktant des maximal messbaren ToFmax-Zeitintervalls auf. (Es gilt anzumerken, dass der erste Oktant „000“ entspricht und der achte Oktant „111“ entspricht).
  • Die Genauigkeit der Messung kann durch Fortsetzen dieser Schritte, bei denen sich die Grenze des Paars aus Integrationsfenstern näher und näher an den tatsächlichen ISP bewegt, unendlich erhöht werden, wie durch „Schritt n“ in 11 dargestellt. Es gilt anzuerkennen, dass die Grenze jedes aufeinanderfolgenden Paars aus Integrationsfenstern W2n-1 und W2n nach den ersten Integrationen in der Mitte des Zeitfensters in dem vorangegangenen Paar aus Zeitfenstern eingestellt wird, für das dessen Integral oder die akkumulierte Ladung größer ist als das Integral für das andere Fenster des Paars. Beispielsweise werden die Vorderfenster W3 , W5 etc. der Fensterpaare in dem dargestellten Beispiel immer das größere Integral aufweisen, zumindest bis die Grenze zwischen dem Paar aus Fenstern den ISP des RX-Signals erreicht. Falls das Integral von Fenster W1 in dem anfänglichen Schritt des Vorgangs andererseits größer als das Integral von Fenster W2 gewesen wäre, würde die Grenze von nachfolgenden Paaren von Integrationsfenstern an den geradzahligen Fenstern W2 , W4 etc. ausgerichtet werden.
  • In manchen Ausführungsformen wird die Messgenauigkeit von der elektronischen Schaltung begrenzt, die den Vergleich der Integralwerte Q2n-1 und Q2n in „Schritt n“ durchführt. Ebenso wird die Zeitgebungsgenauigkeit der Fenster von dem elektronischen Taktgeber oder von Verzögerungselementen begrenzt, die verwendet werden, um die Integrationszeitfenster zu verschieben. In einem speziellen Beispiel kann eine geeignete Annäherung der Fenstergrenzlinie an den tatsächlichen ISP nach zehn Schritten (n = 10) erzielt werden, was eine binäre 10-BitZahl ergibt, ausgehend von der die ToF berechnet werden kann.
  • Die Beziehung zwischen der maximalen Laufzeit ToFmax und der Modulationsperiode TM kann berücksichtigt werden, so dass sich in einem hypothetischen Fall, falls ToF gleich null ist, das erste Integrationsfenster in jedem Schritt auf der Zeitachse weiterbewegen würde, bis das Integrationszeitfenster vollständig vor dem ISP des TX-Übertragungssignals auftritt. In einem weiteren Szenario würde sich das zweite Fenster in der Zeit nach vorne bewegen, falls die ToF ihr Maximum erreicht hat, bis es vollständig nach ToFmax vor dem ISP des TX-Signals auftreten würde. Da jedes Fenster gleich 1 2 T o F m a x
    Figure DE112018006100T5_0002
    ist, bedeutet dies, dass sich der Integrationsintervall (der aus zwei Fenstern besteht) für jeden Schritt von 1 2 T o F m a x
    Figure DE112018006100T5_0003
    vor dem ISP des Übertragungssignals bis 1 2 T o F m a x  
    Figure DE112018006100T5_0004
    nach dem I S P + T o F m a x
    Figure DE112018006100T5_0005
    erstrecken kann. Deshalb sollte die Modulationsperiode TM des Sende- und Empfangssignals TX, RX für das vorliegende Verfahren zumindest gleich 2 × ToFmax sein. Falls nötig, kann diese erforderliche Zusatzzeit durch Hinzufügen einer Redundanz zu den Integrationsfenstern und auch einer Pixelschaltungsanordnung ausgeschlossen werden, wobei in diesem Fall die Modulationsperiode TM sinken kann, um gleich ToFmax zu sein.
  • Eine beispielhafte Schaltung, die die oben beschriebenen Verfahren implementiert, ist in 12 dargestellt. Diese beispielhafte Schaltung kann einem jeden Pixel oder jeder Photodiode oder einer Photodiodenanordnung zugeordnet werden oder kann Gruppen aus Pixeln/Photodioden zugeordnet werden. Es kann anerkannt werden, dass die vorliegende Offenbarung das Durchführen der ToF-Bestimmung unter Verwendung einer analogen Schaltungsanordnung ohne die Notwendigkeit des Durchführens einer Analog-Digital-Umwandlung wie in früheren ToF-Kamerasystemen erwägt. In einer Ausführungsform umfasst die Schaltungsanordnung zwei gegatete Integrationsblöcke 12, 14, die das Signal oder die Ladung von dem Photodetektor 10 empfangen, das/die als Reaktion auf den Empfang des RX-Signals erzeugt wurden. Es gilt zu verstehen, dass die Integrationsblöcke gemäß der in 6 dargestellten Schaltungsanordnung konstruiert werden können, die Transfergates und Kondensatoren verwendet, um Ladung von dem Photodetektor zu speichern. Die Transfergates von Integrationsblöcken 12, 14 werden gemäß jedem der Paare von Integrationszeitfenstern W1 , W2 , etc. aktiviert, um die Photodiodenladung innerhalb des Fensters wie oben erläutert zu integrieren oder zu akkumulieren. Der Integrationsblock 12 wird während Zeitfenster W2k-1 aktiviert, während der zweite Integrationsblock 14 während des späteren Zeitfensters W2k aktiviert wird, wobei „k“ für die Nummer des „Schritts“ steht (siehe 11). Daher können die Integrationsblöcke unter Verwendung von Schaltkondensatorschaltungen implementiert werden, um den Photostrom von dem Sensor (Photodetektor 10) in Ladungen Q2k-1 und Q2k zu integrieren. Die integrierten Werte oder Ladungen Q2k-1 und Q2k werden dann unter Verwendung eines Komparators 16 verglichen, und die analoge Spannung, entsprechend einer binären „0“ oder „1“ wird an ein Steuermodul 18 übermittelt. Das Steuermodul 18 erhöht die Nummer des „Schritts“ „k“ und legt die Zeiten für die zwei Integrationsfenster W2k+i , W2k+2 für den nächsten Zyklus fest, der nach Empfang des nächsten TX-Signals beginnt. Die neuen Zeitfenster werden an den zwei Integrationsmodulen 12, 14 bereitgestellt. Eine beispielhafte Weise, um diese Funktion des Steuermoduls 18 zu implementieren, ist die Verbindung eines Hochfrequenz-Taktsignals mit einem digitalen Zähler und die Erstellung der Zeitfenster W2k+1 , W2k+2 bei bestimmten Zahlen am Ausgang des Zählers. Diese bestimmten Zahlen können dann digital aktualisiert werden, um die Zeitgebung für W2k+1 und W2k+2 festzulegen.
  • Das Steuermodul 18 kann ausgelegt und betreibbar sein, um die analoge Ausgabe des Komparators 16 in eine binäre „0“ oder „1“ umzuwandeln. Ein Speicherblock oder ein Schieberegister 20 kann das Vergleichsergebnis von jedem Schritt für die endgültige binäre Ausgabe für das Pixel enthalten, wobei das Ergebnis des ersten Vergleichs in „Schritt 1“, die signifikanteste Bit-Position einnimmt und der letzte Vergleich die am wenigsten signifikante Bit-Position einnimmt. Es gilt zu verstehen, dass die Ausgabe eine Binärzahl mit einer Bitlänge n sein wird, wobei n der Anzahl von Integrationen entspricht, die von den Integrationsblöcken 12, 14 vorgenommen wurden. Diese Ausgabe wird an einen Prozessor innerhalb der RX-Schaltungsanordnung C übermittelt, um die ToF-Berechnung durchzuführen.
  • Alternativ dazu kann das Schieberegister 20 Serienkondensatoren umfassen, die den Ziffern der Binärzahl entsprechen, wobei die analoge Ausgabe des Komparators unter Steuerung des Steuermoduls 18 an den „k-ten“ Serienkondensator übermittelt wird. Die Serienkondensatoren können unter Verwendung eines Abtast-Halte-Peakdetektors oder einer ähnlichen Komponente in die Binärzahl mit einer Länge von n Bits umgewandelt werden.
  • Für die Berechnung der Laufzeit (ToF), kann die binäre Ausgabezahl b0b1 ...bn mit dem binären Wert für die maximale ToF verglichen werden, die von der gegenständlichen Vorrichtung gemessen werden kann. Laut Definition ist der maximale Binärwert für die maximale ToF 111 ... 1n, wobei dieser Binärwert den tatsächlichen Zeitwert für die maximal messbare ToF darstellt. Die gemessene ToF ist daher das Verhältnis der binären Ausgabe b0b1 ...bn aus der in 12 dargestellten Schaltung und die maximale binäre ToF-Zahl 111... 1n, multipliziert mit dem tatsächlichen maximalen ToFmax-Zeitwert, der bereits absichtlich bekannt ist. Daher kann der Prozessor innerhalb des RX-Prozessors C ausgelegt sein, die zwei binären Werte zu vergleichen, die Multiplikation des Verhältnisses mit dem maximalen ToFmax-Zeitwert durchführen und eine Ausgabe bereitstellen, die den tatsächlichen Laufzeitwert für das/die jeweilige Pixel/Photodiode oder Gruppe aus Pixeln/Photodioden abbildet. Diese Ausgabe kann eine wahrnehmbare Ausgabe wie eine visuelle Anzeige sein oder kann ein Ausgabesignal sein, das an einer Verarbeitungsvorrichtung wie einem Lidar oder einer Bild- oder VideoVerarbeitungsvorrichtung bereitgestellt wird. In dem oben erläuterten Beispiel mit drei Stellen ist der Binärwert in dem Ausgaberegister 20 „100“, verglichen mit dem maximalen binären ToF-Wert von „111“. Das binäre Verhältnis beträgt daher „100/111“ oder dezimal 4/7, was bedeutet, dass die tatsächlich gemessene ToF 4/7 der vorbestimmten Zeit für ToFmax beträgt.
  • Eine Variante dieser Schaltung kann beide Ladungen Q2k-1 und Q2k auf demselben Kondensator wie dem Kondensator CFD1 in 6 integrieren, jedoch mit einer anderen Polarität für die in dem späteren Zeitfenster akkumulierte Ladung, so dass die in dem Kondensator akkumulierte Ladung im Wesentlichen die zweite Ladung von der ersten Ladung subtrahiert. Die endgültige Ladung über die zwei Zeitfenster in dem Kondensator wird mit einem Referenzpotenzial verglichen, das gleich dem ursprünglichen Potenzial jenes Kondensators ist, um zu bestimmen, ob die Ladung mit positiver oder negativer Polarität größer war. Diese Technik kann zwei Vorteile bieten. Erstens kann sie den Effekt des Hintergrundlichts in dem Subtraktionsvorgang aufheben, was den erforderlichen Bereich für den Komparator-Gleichtakt verringert. Zweitens beseitigt sie den Fehlpaarungsfehler über die zwei integrierenden Kanäle unter Verwendung desselben Integrationselements (Kondensator) für beide Zeitfenster.
  • Der hierin offenbarte Algorithmus wie in dem Diagramm in 11 ausgeführt und wie durch die in 12 dargestellte Schaltung durchgeführt basiert darauf, dass die Gesamtzeit für die Integrationsschritte kurz genug ist, so dass die Objekte in der Szene keine merkliche Bewegung aufweisen, um die Messung zu stören. Eine ausreichend kurze Gesamtzeit ist möglich, da die Modulationsperiode TM nur ein Bruchteil einer Mikrosekunde sein kann und die Einzelbildrate der meisten 3D-Kameras Zehntel einer Millisekunde betragen kann. In einer speziellen Ausführungsform kann die Anzahl von Integrationsschritten, die die Anzahl von Bits für die ToF-Messung festlegt, kleiner als 10 sein. Daher kann die Zeit, die pro Umwandlungsschritt gebraucht wird, um vieles länger sein als ein Bruchteil einer Mikrosekunde. Dieses Merkmal ermöglicht die mehrmalige Wiederholung der Integrationsfenster für jeden Umwandlungsschritt und das Akkumulieren von mehr elektrischer Ladung, bevor der Vergleich zwischen den Ladungen durchgeführt wird. Eine größere akkumulierte Ladung kann die Anforderungen an die Konstruktion des Komparators verringern und kritische Parameter wie den Leistungsverbrauch für jedes Pixel positiv beeinflussen. Dies kann dann wichtig sein, wenn die Schaltung in einer Blitzkamera implementiert ist, in der die Menge Licht pro Pixel klein ist (daher kann weniger Ladung akkumuliert werden) und Millionen Pixel arbeiten gleichzeitig, daher sollte ihr Leistungsverbrauch begrenzt werden. Außerdem kann die Wiederholung der Integration pro Umwandlungsschritt dabei helfen, weißes Rauschen, das von dem Detektionsschrotrauschen und thermalem Rauschen vom elektronischen Frontend verursacht wurde, auszumitteln. Dies verbessert in der Folge die Genauigkeit der ToF-Messung. Gemäß der möglichen Modulationsperiode und typischen Einzelbildraten in 3D-Kameras können zehntausende Integrationsfenster akkumuliert werden, bevor der Vergleich für jeden Umwandlungsschritt durchgeführt wird.
  • Das Steuermodul 18 der Schaltung in 12 kann eine Schaltungsanordnung und/oder Firmware umfassen, die ausgelegt und betreibbar ist, um das Zeitfenster an jedem Schritt „k“ zu bestimmen. Die Ausgaben W2k+1 , W2k+2 können Aktivierungsfenster für die Transfergates TG1 , TG2 (6) für jedes Integrationsmodul 12,14 darstellen. Die Dauer der Zeitfenster ist basierend auf der Länge von ToFMAX vorbestimmt und kann in das Steuermodul „fest verdrahtet“ sein oder kann für das Steuermodul 18 zugänglich sein. Das Steuermodul ist ferner ausgelegt und betreibbar, zu bestimmen, welche der früheren Zeitfenster von der Grenze zwischen dem nächsten Paar aus Zeitfenstern halbiert werden. Bestimmte Aspekte des in 11 dargestellten Algorithmus, der von dem Steuermodul 18 ausgeführt wird, können an ein zentrales Steuermodul wie einer Nachschlagtabelle für die Länge von ToFMAX delegiert werden.
  • Es kann anerkannt werden, dass die Schaltung aus 12 in die in 8b dargestellte Schaltung zur Verwendung zum Multiplexen zwischen RGB-Farbbildgebung und der ToF-Bestimmung aufgenommen werden kann. In diesem Fall können der Komparator 16 und das Steuermodul 18 zwischen der Kondensatorschaltung DIN und der Ausgangsbusleitung COL integriert werden, wobei die binäre Ausgabe 20 auf der Busleitung bereitgestellt ist. Anstelle der zwei Ausgaben (z.B. COL(0), COL(1)) für jedes Pixel würde eine einzige Ausgabe bereitgestellt werden, die der binären Ausgabe 20 entspricht. Es kann ferner anerkannt werden, dass die RX- und Verarbeitungsschaltungsanordnung C ausgelegt sein kann, die Komponenten gemäß dem ToF-Zeitablaufdiagramm aus 10 über mehrere Zyklen je nach Bedarf zu betätigen, um eine Konvergenz der Integration zu erzielen. Beispielsweise kann die Schaltungsanordnung C betrieben werden, um eine RGB-Farbbildgebungssequenz gemäß dem Zeitablaufdiagramm aus 9 ausführen, gefolgt von sieben Zyklen der ToF-Zeitablaufssequenz aus 10, wobei sich dieses Muster im gesamten Bildgebungsvorgang wiederholt. Alternativ dazu kann die Schaltungsanordnung C ausgelegt sein, eine Konvergenz vor der vorbestimmten Anzahl von ToF-Zeitablaufszyklen (z.B. sieben) zu detektieren und die ToF-Zeitablaufssequenz zu beenden und die RGB-Farbdetektionszeitablaufssequenz auszuführen.
  • ∑Δ-Ladungsakkumulation für die Laufzeitmessung
  • Ein zweites Verfahren der vorliegenden Offenbarung kann als „ISP-Annäherung mit ∑Δ-Ladungsakkumulation für die ToF-Messung“ identifiziert werden, wie in 13 dargestellt. In diesem Verfahren bleibt das Integrationsfenster für jeden Schritt dasselbe - d.h. es verschiebt sich in Bezug auf die Signale TX, RX über die Zeit hinweg nicht. Vielmehr schaltet die Akkumulation der Photodiodenladung als Reaktion auf dem Empfang des RX-Signals zwischen den zwei Fenstern basierend auf dem insgesamt akkumulierten Signal um. In dem ersten Schritt werden die zwei Zeitfenster W1 , W2 wie oben beschrieben in Bezug auf den Integrationssymmetriepunkt ISP, wie in 11 dargestellt, definiert, nämlich mit einer Dauer von ½ ToFmax und mit einem Beginn am ISP des übertragenen TX-Signals. Die Ladung der Photodiode 10 als Reaktion auf das RX-Signal wird in jedem Zeitfenster, Q1 , Q2 , integriert oder akkumuliert. Q1 sowie Q2 werden in getrennten Speichern wie analogen Speichern oder Kondensatoren innerhalb der entsprechenden Integrationsmodule gespeichert. In dem in 13 dargestellten Beispiel bekommt nur die Ladung für das erste Fenster W1 , Q1 , eine zweite Akkumulation, genannt 2Q1 , da Q2 > Q1 , während Q2 gleich bleibt. Anders ausgedrückt wird die Ladungsakkumulation in dem ersten Zeitfenster in dem nächsten Schritt bestimmt oder noch genauer wird das eingehende RX-Signal nur in dem ersten Fenster integriert und in seinem entsprechenden Speicher gespeichert, während die Ladung für Q2 gleich bleibt. In dem zweiten Schritt wird Q2 mit 2Q1 verglichen und da Q2 < 2Q1 , (d.h. die zweite Ladungsakkumulation des ersten Fensters überschreitet die unveränderte Ladung des zweiten Fensters) bekommt die während des zweiten Zeitfensters W2 , Q2 , akkumulierte Ladung eine zusätzliche Akkumulierung, die als 2Q2 bezeichnet wird, während die zweite Akkumulierung für Fenster W1 , 2Q1 , gleich bleibt.
  • Das Verfahren wird dann mit derselben Logik fortgesetzt, wobei zwei Zähler die Anzahl von Akkumulierungen N1 und N2 für jedes der Fenster W1 und W2 nachverfolgen. Insbesondere werden die Akkumulierungen N1 und N2 nur dann erhöht, wenn der Umschalter 50 die Ausgabeladung an das entsprechende Integrationsmodul weiterleitet. Die Zähler können in das Steuermodul 48 aufgenommen werden. Dies ähnelt einem ∑Δ-Modulator, bei dem die Rückkopplung die Konvergenz des akkumulierten Signals von den zwei Fenstern für eine lange Messperiode verglichen mit der Abtastperiode (d.h. über-abgetastetes System) sicherstellt. Das Steuermodul 48 bestimmt das Produkt der Anzahl von Akkumulationen und der akkumulierten Ladung für jedes Integrationsmodul. Das Steuermodul beendet den Vorgang, wenn diese Produkte gleich sind, nämlich wenn N1 · Q1 = N2 · Q2. Am Ende der Umwandlung können die in den Zählern gespeicherten Zahlen verwendet werden, um das Verhältnis von Ladungen gemäß der nachstehenden Gleichung 2 zu bestimmen, wobei TP die Impulsbreite ist: N 1 Q 1 = N 2 Q 2 n = Q 1 Q 2 = N 2 N 1 T o F = 1 2 ( T o F m a x + n 1 n + 1 T p )
    Figure DE112018006100T5_0006
  • Ein Vorteil dieses ∑Δ-ToF-Messverfahrens verglichen mit dem vorangegangenen ToF-Messverfahren der sukzessiven Approximation ist jener, dass die akkumulierte Ladung über die Zeit nicht auf null zurückgesetzt wird, was eine höhere Genauigkeit ermöglicht. Außerdem erfordert das ∑Δ-Verfahren keinen Hochfrequenz-Referenztaktgeber, um die Fenster vor- und zurück zu verschieben, wie es in dem Verfahren der sukzessiven Approximation nötig ist. Der Zeitquantifizierungsschritt ist im Wesentlichen gleich der Breite der Integrationsfenster, aber das Quantifizierungsrauschen wird mittels Über-Abtasten und Rauschformen durch ∑Δ-Modulation begrenzt gehalten.
  • Eine Implementierung dieser ∑Δ-Laufzeit- (∑Δ - ToF -)Engine ist in dem Schaltbild aus 14 dargestellt. Wie die Schaltung aus 12 für die SA-ToF-Messung kann die Schaltung in 14 jedem Pixel/jeder Photodiode 40 oder einer Gruppe von Pixeln/Photodioden zugeordnet werden. Die Schaltung umfasst zwei gegatete Integrationsblöcke 42, 44, die die Ladung als Reaktion auf den Empfang des RX-Signals von dem Photodetektor 40 empfangen. Allerdings bestimmt anders als in der SA-ToF-Messschaltung ein Umschalter 50, welcher Integrationsblock das Signal von dem Photodetektor empfängt, um Ladung zu akkumulieren. Natürlich stellt der Umschalter 50 in dem anfänglichen Schritt das RX-Signal an beiden Blöcken bereit.
  • Die Ausgaben der Integrationsblöcke N1 · Q1 und N2 · Q2 werden an einen Komparator 46 weitergegeben, wobei das Ergebnis an ein Steuermodul 48 übermittelt wird, das über einen Umschalter 50 auswählt, welcher der Integrationsblöcke 42, 44 die Ladung von dem Photodetektor 40 in dem nächsten Schritt abhängig von dem oben beschriebenen Vergleich empfängt. Das Steuermodul speichert die Ausgabe in einem Speicherblock 52. In diesem Fall ist die Ausgabe die Anzahl von Akkumulationen für die zwei Fenster N1, N2, da gemäß der obigen Gleichung 2 das Verhältnis dieser Akkumulationen für das Verhältnis der gemessenen ToF und der maximal messbaren ToFmax für die Vorrichtung steht. Dieses Verhältnis kann daher verwendet werden, um die Laufzeit für das reflektierte RX-Signal durch Multiplizieren des tatsächlichen Zeitwerts für ToFmax mit diesem Verhältnis zu berechnen. Diese Berechnung kann in dem Steuermodul 48 oder in einem getrennten Prozessor erfolgen, der die Ausgabe 52 empfängt. Der Wert für die tatsächliche Laufzeit kann als wahrnehmbare Ausgabe wie eine visuelle Anzeige bereitgestellt werden oder kann ein Ausgabesignal sein, das an einer Verarbeitungsvorrichtung wie einem Lidar oder an einer Bild- oder Videoverarbeitungsvorrichtung bereitgestellt wird.
  • Diese Schaltung ähnelt einem konventionellen ∑Δ-Quantisierer, außer, dass die vorliegende Schaltung kein Referenzsignal in seinem Rückkopplungs-Digital-Analog-Wandler (DAC) verwendet. Vielmehr verwendet die Schaltung die Ladungen Q1 und Q2 als die zwei Zustände, zwischen denen der DAC hin- und herschaltet. Deshalb hängt die Genauigkeit dieses Verfahrens nicht von der Genauigkeit irgendeines analogen Parameters ab, der auf einem CMOS-Chip erzeugt werden sollte, was einen wichtigen praktischen Vorteil darstellt.
  • Eine Variante dieser Schaltung kann Ladungen aus beiden Fenstern auf demselben Speicherelement (z.B. Kondensator) speichern, jedoch mit entgegengesetzter Polarität. Dann kann die Entscheidung zum Umschalten der Akkumulierung durch Vergleichen der gespeicherten Gesamtladung mit dem ursprünglichen Referenzzustand des Kondensators getroffen werden, während die Rückkopplungsschleife sicherstellt, dass die insgesamt akkumulierte Ladung über lange Zeit gegen null konvergiert (N1 · Q1 - N2 · Q2 = 0).
  • Ähnlich wie ein konventioneller ∑Δ-Modulator kann der Integrator (d.h. Akkumulierung) in dem Vorwärtskoppelungspfad durch eine Übertragungsfunktion der höheren Ordnung ersetzt werden, um die Modulationsordnung zu erhöhen und die Genauigkeit zulasten von komplizierteren Pixeln zu verbessern, die auf einem Chip möglicherweise eine größere Fläche besetzen. Unter Annahme einer Modulationsfrequenz im MHz-Zehnerbereich (was gleich einer konventionellen ∑Δ-Abtastrate ist) und einer Einzelbildrate im Hz-Zehnerbereich ist das Über-Abtastverhältnis nahe an der Million, was groß genug ist, so dass für die meisten 3D-Bildgebungsanwendungen keine Schleifenfilter höherer Ordnung erforderlich sind.
  • Es kann angemerkt werden, dass wenn das ∑Δ-ToF-Messsystem und das hierin beschriebene Verfahren verwendet wird, das Hintergrundlicht zur Ladung von beiden Fenstern beitragen und zu einer Ungenauigkeit der Messung führen kann. Dieses Problem kann durch Hintergrundlicht-Unterdrückungsverfahren wie jenen verringert werden, die in M. Davidovic, G. Zach, K. Schneider-Hornstein and H. Zimmermann, „ToF Range Finding Sensor in 90nm CMOS Capable of Suppressing 180 klx Ambient light," in IEEE Sensors, 2010, dessen Offenbarung hierin durch Verweis aufgenommen ist, vorgeschlagen werden.
  • Das in 13 dargestellte ∑Δ-ToF-Messverfahren muss möglicherweise nicht genau sein, falls die Modulationswellenform ein scharfer Impuls ist, der nur unter eines der Zeitfenster W1 oder W2 fällt, wie in 15 dargestellt. Unter dieser Bedingung ist die in jeder Periode akkumulierte Ladung keine Funktion der Impulszeitgebung. Anders ausgedrückt wird eine konstante Menge Ladung immer in einem der Fenster akkumuliert, unabhängig davon, ob der Impuls am Anfang des Fensters ankommt oder an dessen Ende. Eine Möglichkeit, um die Verwendung dieses Verfahrens auf solche schmalen Impulswellenformen auszuweiten, ist die Verwendung eines Multi-Bit-∑Δ-Modulators, bei dem die Breite der Zeitquantifizierungsschritte kurz genug ist, um sicherzustellen, dass die Impulsbreite immer mit zumindest zwei der Schritte eine Überlagerung aufweist und daher die Ladung, die innerhalb dieser Schritte akkumuliert wurde, eine analoge Funktion der Impulsankunftszeit ist und die Zeitgebungsinformationen daher nicht verloren gehen.
  • Eine weitere Möglichkeit ist die Verwendung eines Zweistufenwandlers, in dem die erste Stufe eine SA-ToF mit niedriger Auflösung verwendet, um den ungefähren ISP wie oben in Verbindung mit 11 beschrieben zu lokalisieren. In der zweiten Stufe wird das exakte Verhältnis der Ladung in den zwei Fenstern unter Verwendung eines ∑Δ-Kerns quantisiert, um die Zeitgebung des Ankunftssignals mit höherer Auflösung aufzulösen, wie in 13 dargestellt. In diesem Fall weist der ∑Δ-Wandler die zuvor erwähnte Einschränkung nicht auf, da die SA-ToF bereits sicherstellt, dass die zwei ∑Δ-Quantifizierungsfenster einen geeigneten Zeitablauf aufweisen, so dass der Rückimpuls RX nicht von einem einzelnen Fenster eingeschlossen wird und dessen Zeitablauf korrekt von dem Verhältnis der in den zwei Fenstern akkumulierten Ladungen widergespiegelt wird.
  • Das oben beschriebene Zweistufen-Umwandlungsverfahren könnte mit SA-ToF, gefolgt von einem beliebigen anderen Wandler verwendet werden, der das genaue Verhältnis der Ladungen Q1 und Q2 bestimmen könnte, wie es mithilfe des ∑Δ-Verfahrens erreicht wird. Außerdem muss das sekundäre Feinumwandlungsverfahren nicht auf Pixelebene implementiert werden und kann auch auf Spalten- oder Einzelbild-Ebene durchgeführt werden, je nach Anforderung der jeweiligen Kameraarchitektur und des jeweiligen Anwendungsfalls. Es gilt anzuerkennen, dass die in 14 in Verbindung mit dem in 13 dargestellten ∑Δ-ToF-Messverfahren dargestellte Schaltungsanordnung für den ersten Schritt als die in 12 in Verbindung mit dem SA-ToF-Verfahren aus 11 dargestellte Schaltungsanordnung betrieben werden. Daher kann das Steuermodul 48 ausgelegt und betreibbar sein, um den Umschalter 50 für beide Integrationsmodule 42, 44 zu schließen, so dass jedes Modul die Ladung empfängt, die von der Photodiode 40 ausgegeben wurde, wodurch es der Schaltungsanordnung ermöglicht wird, im SA-ToF-Modus betrieben zu werden. Das Steuermodul arbeitet für eine begrenzte Anzahl an Schritten in diesem Modus, wie z.B. für die ersten drei Schritte, die in 11 dargestellt sind, um eine Schätzung niedriger Auflösung der Position des tatsächlichen ISP bereitzustellen. Nach Abschluss der Schritte mit niedriger Auflösung (d.h. drei in dem Beispiel) arbeitet das Steuermodul 48 in dem ∑Δ-ToF-Modus, wie oben beschrieben.
  • Finden des Integralsymmetriepunkts
  • In einem weiteren Merkmal der vorliegenden Offenbarung ist ein Verfahren zum Finden des Integralsymmetriepunkts ISP der RX-Wellenform bereitgestellt, bei dem die Wellenform keine Rechteckwelle ist. Üblicherweise wird oftmals eine Klasse an Schaltungen, die als Proportionaldiskriminator (CFD) bekannt ist, verwendet, um Zeitgebungs- oder Phaseninformationen einer Wellenform unabhängig von ihrer Amplitude zu extrahieren und diese sind in vielen verschiedenen Systemen, einschließlich Lidars, von Nutzen. In einem Lidar können die Lichtstrahlen, die von zwei Objekten mit unterschiedlicher Reflexivität reflektiert werden, unterschiedliche Amplituden aufweisen, was deren Zeitgebung nicht beeinflussen sollte. Der gemessene Abstand zu beiden Objekten sollte immer noch derselbe sein, obwohl die Amplitude des empfangenen Signals unterschiedlich sein kann. Ein Beispiel für ein Verfahren des Stands der Technik, das verwendet werden kann, um die Zeitgebungsinformationen einer Wellenform unabhängig von ihrer Amplitude zu finden, ist in https://indico.cern.ch/event/522485/contributions/2145668/attachments/1284172/1909096/ FEE2016.pdf offenbart, deren gesamte Offenbarung durch Verweis hierin aufgenommen ist. Viele Beispiele für CFDs des Stands der Technik nutzen eine Zeitverzögerung, td, die kleiner sein muss als die Anstiegszeit des eingehenden Impulses, wo die Ausgabe des CFD eine Funktion der Impulsankunftszeit und der Verzögerung ist, wie in der zuvor zitierten Referenz und in https://jrm.phys.ksu.edu/Resource/Pubs/CFD/CFD.html beschrieben, deren gesamte Offenbarung durch Verweis hierin aufgenommen ist. Da die Anstiegszeit nur in einer Größenordnung von hunderten Pikosekunden oder weniger liegt, muss diese Verzögerung relativ klein sein. Zusätzlich dazu ist diese Verzögerung oftmals eine Funktion von variierenden Umwelteinflüssen wie Temperatur und Leistung, mit der der CFD beaufschlagt wird. Während traditionelle CFDs daher Zeitgebungsausgaben bereitstellen, die von der Signalamplitude unabhängig sein, sind ihre Zeitgebungsausgaben in Hinblick auf Variationen in der Verzögerung sehr empfindlich.
  • Die hierin für die ToF-Messung offenbarten Verfahren messen die Zeitgebung der Wellenform unabhängig von deren Amplitude, was es diesen Verfahren ermöglicht, traditionelle CFD-Verfahren und -Schaltungen zu ersetzen. Ein Vorteil des hierin offenbarten Verfahrens ist jener, dass das Verfahren nicht auf einer Zeitverzögerung basiert. Es erfordert nur einen schnellen Integrator, der oftmals aus einem Verstärker und einem Kondensator besteht, in dem der schnelle Integrator einstellbar mit einer Rückkopplungsschleife gesteuert werden kann, um den ISP zu finden. Verfahren für einen integrationsbasierten Proportionaldiskriminator (CFD) zur Bestimmung des ISP werden unter Bezugnahme auf 16-20 beschrieben. Da der ISP-Punkt einer Wellenform unabhängig von deren Amplitude ist, kann die Fläche unterhalb eines Impulses mit willkürlicher Form, wie z.B. die in 16 dargestellte dreieckige Wellenform, in zwei Teile geteilt werden - A1 und A2. Die Zeitstempel t1, t2 für die zwei Flächen A1 und A2 sind gleich und unabhängig von der Impulshöhe.
  • 17-18 zeigen, wie ein Rückkopplungsmechanismus verwendet werden kann, um den ISP-Punkt der beispielhaften dreieckigen Impulsform aus 16 zu finden, wie in 17 wiederholt wird. Das Impulsfolgensignal p(t) (das dem RX-Signal entspricht) unter dem ersten Zeitfenster A1 wird an einen Integrationsblock 60 (18) übermittelt, wo das Signal mit einem positiven Zeichen (DZeichen = 1) bis zum Zeitpunkt ts integriert oder akkumuliert wird, während die Fläche unterhalb des zweiten Zeitfensters A2 mit einem negativen Zeichen (DZeichen = -1) mit Beginn ab Zeitpunkt ts in den Integrationsblock 60 integriert wird. Die Rückkopplungssteuerschleife 62 bewegt die Grenze, Zeitpunkt ts, durch Anpassen der Dauer von DZeichen = 1, wie in den nachfolgenden Zeitintervallen in 17 verdeutlicht, zwischen den zwei Fenstern, so dass DZeichen an 64 in einer Schleife an den Integrationsblock übermittelt wird, um die positive-negative-Richtung der Integration zu steuern. Die Rückkopplungssteuerschleife 62 steuert die Dauer von DZeichen und daher kommt es zu einem Anstieg der Dauer des Fensters A1, so dass die positive Integration fortgesetzt wird, bis der Fehler err(t) nicht länger negativ ist, wonach die Rückkopplungssteuerschleife 62 die Dauer des Fensters A1 reduziert. Die Dauer von Fenster A1 wird kontinuierlich angepasst, bis die Summe der zwei integrierten Werte err(t) gleich null ist, wie in der unteren Zeile des Diagramms in 17 verdeutlicht wird. Es gilt anzumerken, dass dieses System in der digitalen oder analogen Domäne implementiert werden könnte. Das Rückkopplungssignal 64, das die Integrationsgrenze (die analog oder digital sein könnte) steuert, kann als Maß für die Position des ISP auf der Zeitachse verwendet werden. In dem Beispiel in 17 entspricht die Dauer des Rückkopplungssignals DZeichen tISP und es ist dieser Wert, der verwendet wird, um den ISP für die SA-ToF-Messung (11-12) oder für die ∑Δ-ToF-Messung (13-14) zu lokalisieren, wenn die TX- und RX-Signalwellenformen keine Rechteckwellen sind. In der in 19 dargestellten Ausführungsform kann die Rückkopplungssteuerschleife durch ein Filter 65 ersetzt werden, das ein Integrator oder eine andere Art Filter sein kann, und wobei die analoge Verzögerung 66 DZeichen an der Rückkopplungsschleife 67 an den Integrationsblock 60 bereitstellt. Die analoge Verzögerung 66 empfängt ein Startsignal tstart (siehe 17), so dass die Zeitverzögerung tA einstellbar ist.
  • Es kann anerkannt werden, dass diese ISP-Bestimmung durch die Steuermodule 18 oder 48 zu Beginn ihrer entsprechenden Laufzeitvorgänge implementiert werden kann. Da die Zeitgebung beider ToF-Messverfahren an dem ISP des TX-Signals beginnt, können die Steuermodule 18, 48 ausgelegt und betreibbar sein, um die Integration und die Rückkopplung aus 18 oder 19 in das TX-Signal aufzunehmen, um den ISP zu finden.
    20 zeigt ein ∑Δ-ToF-Messverfahren zum Finden des ISP-Punkts. In dieser Ausführungsform folgt auf den Integrationsblock 60 das Filter 65, das das Fehlersignal err(t), das von dem Integrationsblock erzeugt wurde, wie auch in der Schaltung aus 19 filtert. Allerdings wird die Ausgabe des Filters an einen Analog-Digital-Wandler übermittelt, der eine Gesamtanzahl von Akkumulierungen über das ∑Δ-ToF-Messverfahren erstellt, und dieser Wert wird von einer digitalen Verzögerung 74 verwendet, um DZeichen zu bestimmen. Die Menge der digitalen Verzögerung in dem Rückkopplungspfad 72 gibt die Position des ISP-Punkts auf der Zeitachse an. Die digitale Verzögerung 74 wird von einem Taktsignal 76 und der Startzeit tstart gesteuert.
  • Die vorliegende Offenbarung sollte als beispielhaft und nicht als beschränkend ausgelegt werden. Es gilt zu verstehen, dass nur bestimmte Ausführungsformen vorgestellt wurden, und dass alle Änderungen, Modifikationen und weitere Anwendungen, die dem Geist der Offenbarung entsprechen, geschützt werden sollen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62610325 [0001]
  • Zitierte Nicht-Patentliteratur
    • W. Kim, W. Yibing, I. Ovsiannikov, S. Lee, Y. Park, C. Chung und E. Fossum, „A 1.5Mpixel RGBZ CMOS Image Sensor for Simultaneous Color and Range Image Capture“, in International Solid-Sate Circuits Conference, San Francisco, 2012 [0004]
    • S.-J. Kim, J. D. K. Kim, S.-W. Han, B. Kang, K. Lee und C.-Y. Kim, „A 640×480 Image Sensor with Unified Pixel Architecture for 2D/3D Imaging in 0.11µm CMOS“, in VLSI Circuits (VLSIC), 2011 Symposium on, Honolulu, 2011 [0004]
    • R. Lange und P. Seitz, „Solid-State Time-of-Flight Range Camera“, IEEE Journal of Quantum Electronics, pp. 390-397, 2001 [0006, 0011]
    • A. Simoni, L. Gonzo and M. Gottardi, „Integrated Optical Sensors for 3-D Vision“, in Sensors, 200; und D. Stoppa, L. Viarani, A. Simoni, L. Gonzo, M. Malfatti und G. Pedretti, „A 16x16-Pixel Range-Finding CMOS Image Sensor“ [0006]
    • A. Simoni, L. Gonzo und M. Gottardi, „Integrated Optical Sensors for 3-D Vision“, in Sensors, 2002 [0011, 0012]
    • R. Lange und P. Seitz, „Solid-State Time-of-Flight Range Camera“, IEEE Journal cf Quantum Electronics, pp. 390-397, 2001 [0012]
    • D. Stoppa, L. Gonzo, M. Gottardi, A. Simoni und L. Viarani, „A Novel Fully Differential Pixel Concept for Indirect ToF 3D Measurement“, in Instrumentation and Measurement Technology Center, 2003 [0012]
    • L. Viarani, D. Stoppa, L. Gonzo, M. Gottardi und A. Simoni, „A CMOS Smart Pixel for Active 3-D Vision Applications“, IEEE Sensors Journal, Vol. 4, Nr. 1, pp. 145-152, 2004 [0012]
    • B. Buttgen, T. Oggier, M. Lehmann, R. Kaufmann und F. Lustenberger, „CCD/CMOS Lock-In Pixel for Range Imaging: Challenges, Limitations and State-of-the-Art“, Ist Range Imaging Research Day, 2005 [0012]
    • D. Stoppa, L. Viarani und A. Simoni, „A 50x30-pixel CMOS Sensor for ToF-based Real Time 3D Imaging“, IEEE Workshop CCD&AIS, 2005 [0012]
    • D. Stoppa, L. Gonzo und A. Simoni, „Scannerless 3D Imaging Sensors“, International Workshop on Imaging Systems and Techniques, Niagara Falls, 2005 [0012]
    • D. Stoppa, L. Pancheri, M. Scandiuzzo, L. Gonzo, G.-F. Dalla Betta und A. Simoni, „A CMOS 3-D Imager Based on Single Photon Avalanche Diode“, IEEE Transactions on Circuits and Systems, Vol. 54, Nr. 1, pp. 4-12, 2007 [0012]
    • S. Bellisani, F. Guerrieri und S. Tisa, „3D ranging with a high speed imaging array“, in Ph.D. Research in Microelectronics and Electronics, 2010 [0012]
    • M. Davidovic, G. Zach, K. Schneider-Hornstein und H. Zimmermann, „ToF Range Finding Sensor in 90nm CMOS Capable of Suppressing 180 klx Ambient light“, in IEEE Sensors, 2010 [0012]
    • G. Zach, M. Davidovic und H. Zimmermann, „A 16 16 Pixel Distance Sensor With In-Pixel Circuitry That Tolerates 150 klx of Ambient Light“, JSSC, Vol. 45, Nr. 7, pp. 1345-1353, 2010 [0012]
    • O. Sgrott, D. Mosconi, M. Perenzoni, G. Pedretti, L. Gonzo und D. Stoppa, „A 134-Pixel CMOS Sensor for Combined Time-of-Flight and Optical Triangulation 3-D Imaging“, JSSC, Vol. 45, Nr. 7, pp. 1354-1364, 2010 [0012]
    • A. Speckermann, D. Durini, W. Suss, W. Brockherede, B. Hosticka, S. Schwope und A. Grabmaier, „CMOS 3D Image Sensor Based on Pulse Modulated Time-of-Flight Principle and Intrinsic Lateral Drift-Field Photodiode Pixels“, in ESSCIRC, 2011 [0012]
    • D. Durini, A. Speckermann, J. Fink, W. Brockherde, A. Grambmaier und B. Hosticka, „Experimental Comparison of Four Different CMOS Pixel Architectures Used in Indirect Time-of-Flight Distance Measurement Sensors“, in Image Sensors Workshop, 2011 [0012]
    • M. Davidovic, M. Hofbauer, K. Schneider-Hornstein und H. Zimmermann, „High Dynamic Range Background Light Suppression for a ToF Distance Measurement Sensor in 180nm CMOS“, in Sensors, 2011 [0012]
    • R; Walker, j. Richardson und R. Henderson, „128×96 Pixel Event-Driven Phase-Domain Δ∑-Based Fully Digital 3D Camera in 0.13µm CMOS Imaging Technology“, in ISSCC, 2011 [0012]
    • D. Milos, M. Hofbauer und H. Zimmermann, „A 33 × 25 µm2 Low-Power Range Finder“, in 1SCAS, 2012 [0012]
    • D. Bronzi, S. Bellisai, B. Markovic, G. Boso, C. Scarcella, A. Della Frera and A. Tosi, „CMOS SPAD Pixels for Indirect Time-of-Flight Ranging“, in Photonics Corference, 2012 [0012]
    • M. L. Hafiane, W. Wagner, Z. Dibi und O. Manck, „Depth Resolution Enhancement Technique for CMOS Time-of-Flight 3-D Image Sensors“, IEEE Sensors Journal, Vol. 12, Nr. 6, pp. 2320-2327, 2012 [0012]
    • K. Yasutomi, T. Usui, S.-M. Han, T. Takasawa, K. Kagawa und S. Kawahito, „A 0.3mm-Resolution Time-of-Flight CMOS Range Imager with Column-Gating Clock-Skew Calibration“, in ISSCC, 2014 [0012]
    • C. Niclass, M. Soga, H. Matsubara, M. Ogawa und M. Kagami, „A 0.18- m CMOS SoC for a 100-m-Range 10-Frame/s 200 96-PixelTime-of-Flight Depth Sensor“, JSSC, Vol. 49, Nr. 1, pp. 315-330, 2014 [0012]
    • E. Tadmor, A. Lahav, G. Yahav, A. Fish und D. Cohen, „A Fast-Gated CMOS Image Sensor With a Vertical Overflow Drain Shutter Mechanism“, Transaction on Electron Devices, Vol. 63, Nr. 1, pp. 138-144, 2016 [0012]
    • J. Illade-Quinteiro, V. Brea, P. Lopez und D. Cabello, „Time-of-Flight Chip in Standard CMOS Technology with In-Pixel Adaptive Number of Accumulations“, in 1SCAS, 2016 [0012]
    • F. Villa, R. Lissana, D. Tamborini, B. Markovic, A. Tosi, F. Zappa und S. Tisa, „CMOS single photon sensor with in-pixel TDC for time-of-flight applications“, in Workshop on Time-to-Digital Converters (NoMe TDC), Nordic-Mediterranean, 2013 [0013]
    • M. Davidovic, G. Zach, K. Schneider-Hornstein and H. Zimmermann, „ToF Range Finding Sensor in 90nm CMOS Capable of Suppressing 180 klx Ambient light,“ in IEEE Sensors, 2010 [0065]

Claims (10)

  1. Kamera, die Folgendes umfasst: eine Lichtquelle zur Aussendung eines gepulsten Lichtsignals TX zu einem Objekt oder einer Szene; ein Photodetektorarray, das zumindest einen Photodetektor umfasst, der ausgelegt und angeordnet ist, um ein gepulstes Lichtsignal RX zu empfangen, das von dem Objekt oder der Szene reflektiert wird, wobei jeder Photodetektor ausgelegt ist, um ein Ausgabesignal zu erzeugen, das die Detektion des Lichtsignals RX anzeigt; und einen Prozessor, der mit jedem Photodetektor des Photodetektorarrays verbunden ist und ausgelegt und betreibbar ist, um zwischen einem Bilddetektionsmodus, in dem der Prozessor das Ausgabesignal von jedem Photodetektor für Bildinformationen verarbeitet, und einem Laufzeit(ToF)-Modus, in dem der Prozessor das Ausgabesignal von jedem Photodetektor verarbeitet, um die ToF für das Lichtsignal TX zu dem Objekt oder der Szene und des reflektierten Lichts RX zu dem entsprechenden Photodetektor zu bestimmen, abzuwechseln.
  2. Kamera nach Anspruch 1, wobei der Prozessor betreibbar ist zum Aktivieren der Lichtquelle.
  3. Kamera nach Anspruch 2, wobei der Prozessor in dem ToF-Moduls betreibbar ist, um die Lichtquelle zu aktivieren, das Lichtsignal TX mit einer Frequenz zu pulsen, die durch das menschliche Auge nicht erfassbar ist.
  4. Kamera nach Anspruch 3, wobei der Prozessor betreibbar ist, um die Lichtquelle nur in dem ToF-Modus zu aktivieren.
  5. Kamera nach Anspruch 1, wobei das gepulste Lichtsignal TX ein sichtbares Lichtsignal ist.
  6. Kamera nach Anspruch 1, wobei der Prozessor zwischen dem Bildgebungsmodus und dem ToF-Modus in aufeinanderfolgenden Pulsen des gepulsten Lichtsignals RX abwechselt.
  7. Kamera nach Anspruch 1, wobei der Prozessor für einen oder mehrere aufeinanderfolgende Pulse des gepulsten Lichtsignals RX in dem Bildgebungsmodus arbeitet und dann für einen oder mehrere aufeinanderfolgende Pulse des gepulsten Lichtsignals RX in dem ToF-Modus arbeitet.
  8. Kamera nach Anspruch 1, wobei: das Ausgabesignal von jedem Photodetektor eine Ausgabeladung ist; und der Prozessor eine Integratorschaltung umfasst, die eine Kondensatorschaltung aufweist, und ausgelegt und betreibbar ist, um die Ausgabeladung von jedem Photodetektor zu empfangen und zu akkumulieren.
  9. Kamera nach Anspruch 8, wobei: die Kondensatorschaltung zwei Kondensatoren für jeden Photodetektor umfasst; und die Integratorschaltung ein Transfergate für jeden Kondensator umfasst, wobei jedes Transfergate von dem Prozessor aktiviert wird, um die Ausgabeladung in dem entsprechenden Kondensator gemäß einer Zeitablaufssequenz zu akkumulieren.
  10. Kamera nach Anspruch 9, wobei der Prozessor jedes Transfergate in dem Bildgebungsmodus gemäß derselben Zeitablaufssequenz aktiviert und jedes Transfergate in dem ToF-Modus gemäß unterschiedlichen Zeitablaufssequenzen aktiviert.
DE112018006100.0T 2017-12-26 2018-12-18 Einzelchip-rgb-d-kamera Pending DE112018006100T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762610325P 2017-12-26 2017-12-26
US62/610,325 2017-12-26
PCT/EP2018/085590 WO2019129546A1 (en) 2017-12-26 2018-12-18 Single-chip rgb-d camera

Publications (1)

Publication Number Publication Date
DE112018006100T5 true DE112018006100T5 (de) 2020-10-29

Family

ID=64900912

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112018006100.0T Pending DE112018006100T5 (de) 2017-12-26 2018-12-18 Einzelchip-rgb-d-kamera
DE112018006021.7T Pending DE112018006021T5 (de) 2017-12-26 2018-12-18 Einzelchip-rgb-d-kamera

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112018006021.7T Pending DE112018006021T5 (de) 2017-12-26 2018-12-18 Einzelchip-rgb-d-kamera

Country Status (4)

Country Link
US (2) US11240445B2 (de)
CN (2) CN111758047B (de)
DE (2) DE112018006100T5 (de)
WO (2) WO2019129544A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021201074A1 (de) 2021-02-05 2022-08-11 Robert Bosch Gesellschaft mit beschränkter Haftung Detektorbaugruppe und optischer Sensor
DE102022124675A1 (de) 2022-09-26 2024-03-28 Ifm Electronic Gmbh PMD-Sensor mit mehreren Halbleiterebenen

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11353563B2 (en) * 2018-09-13 2022-06-07 Pixart Imaging Inc. Avalanche diode based object detection device
US11381806B2 (en) 2018-09-13 2022-07-05 Pixart Imaging Inc. Detection device and detection method using avalanche diode array and calibration matrix generating method thereof
JP7420038B2 (ja) * 2019-10-16 2024-01-23 株式会社デンソー 車載の異常検出装置
CN113447954A (zh) * 2020-03-25 2021-09-28 深圳市光鉴科技有限公司 场景深度测量方法、系统、设备及存储介质
US11170549B2 (en) * 2020-04-09 2021-11-09 Wisconsin Alumni Research Foundation Systems, methods, and media for high dynamic range quanta burst imaging
US11823458B2 (en) * 2020-06-18 2023-11-21 Embedtek, LLC Object detection and tracking system
US11965968B2 (en) * 2020-12-03 2024-04-23 Pixart Imaging Inc. Optical sensing system and optical sensing method
CN113960890B (zh) * 2021-10-22 2023-12-15 深圳市先地图像科技有限公司 一种激光成像设备中的运动组件控制方法及相关设备
CN114095713A (zh) * 2021-11-23 2022-02-25 京东方科技集团股份有限公司 成像模组及其处理方法、系统、装置、介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2374743A (en) * 2001-04-04 2002-10-23 Instro Prec Ltd Surface profile measurement
WO2002082016A1 (en) * 2001-04-04 2002-10-17 Instro Precision Limited Surface profile measurement
AU2002339874A1 (en) * 2001-05-23 2002-12-03 Canesta, Inc. Enhanced dynamic range conversion in 3-d imaging
KR100770805B1 (ko) * 2001-08-06 2007-10-26 지멘스 악티엔게젤샤프트 3차원 거리측정 이미지를 기록하기 위한 방법 및 장치
US8139141B2 (en) 2004-01-28 2012-03-20 Microsoft Corporation Single chip red, green, blue, distance (RGB-Z) sensor
US7492400B2 (en) * 2004-06-01 2009-02-17 The Board Of Trustees Of The Leland Stanford Junior University Adaptive pixel for high dynamic range and disturbance detection and correction
US7408627B2 (en) * 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
WO2008152647A2 (en) * 2007-06-15 2008-12-18 Ben Gurion University Of The Negev Research And Development Authority Three-dimensional imaging method and apparatus
KR101869371B1 (ko) * 2011-07-21 2018-06-21 삼성전자주식회사 거리 측정 방법 및 이를 수행하는 3차원 이미지 센서
US9325920B2 (en) * 2012-01-10 2016-04-26 Softkinetics Sensors Nv Processing of time-of-flight signals
CN104081528B (zh) * 2012-01-10 2017-03-01 软动力学传感器公司 多光谱传感器
DE102013100522A1 (de) * 2013-01-18 2014-08-07 Huf Hülsbeck & Fürst Gmbh & Co. Kg Universelle Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
US9019480B2 (en) * 2013-02-26 2015-04-28 Jds Uniphase Corporation Time-of-flight (TOF) system, sensor pixel, and method
US9182490B2 (en) * 2013-11-27 2015-11-10 Semiconductor Components Industries, Llc Video and 3D time-of-flight image sensors
US10419703B2 (en) 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
US9425233B2 (en) * 2014-12-22 2016-08-23 Google Inc. RGBZ pixel cell unit for an RGBZ image sensor
EP3334152B1 (de) * 2015-08-04 2023-10-11 Nuvoton Technology Corporation Japan Festkörperbildgebungsvorrichtung
US10151838B2 (en) * 2015-11-24 2018-12-11 Microsoft Technology Licensing, Llc Imaging sensor with shared pixel readout circuitry
US10531073B2 (en) * 2016-03-17 2020-01-07 Samsung Electronics Co., Ltd. Method and apparatus for automatic calibration of RGBZ sensors utilizing epipolar geometry and scanning beam projector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021201074A1 (de) 2021-02-05 2022-08-11 Robert Bosch Gesellschaft mit beschränkter Haftung Detektorbaugruppe und optischer Sensor
DE102022124675A1 (de) 2022-09-26 2024-03-28 Ifm Electronic Gmbh PMD-Sensor mit mehreren Halbleiterebenen

Also Published As

Publication number Publication date
WO2019129546A1 (en) 2019-07-04
US20210075980A1 (en) 2021-03-11
DE112018006021T5 (de) 2020-09-17
WO2019129544A1 (en) 2019-07-04
US11240445B2 (en) 2022-02-01
CN111758047B (zh) 2024-01-19
CN111758047A (zh) 2020-10-09
CN111727602B (zh) 2023-06-27
US20210058605A1 (en) 2021-02-25
CN111727602A (zh) 2020-09-29
US11140340B2 (en) 2021-10-05

Similar Documents

Publication Publication Date Title
DE112018006100T5 (de) Einzelchip-rgb-d-kamera
DE112015005053B4 (de) Laufzeitabstandsmessvorrichtung und verfahren für eine solche
EP2019973B1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
EP3185038B1 (de) Optoelektronischer sensor und verfahren zur messung einer entfernung
DE102011089629B4 (de) Lichtlaufzeitkamera und Verfahren zum Betreiben einer solchen
DE69827529T2 (de) Entfernungsmessung mittels kamera
DE102013225676B4 (de) Lichtlaufzeitkamera mit einer Bewegungserkennung
DE60030802T2 (de) Bildsensor mit Messsung der Sättigungszeitmessung zur Erweiterung des Dynamikbereichs
DE202018002044U1 (de) Flugzeitmessung-Tiefenkartierung mit Parallaxenkompensation
DE112005003698B4 (de) Erfassung optischer Strahlung
DE102012109129A1 (de) Sensor-Pixelanordnung und getrennte Anordnung einer Speicherung und Akkumulation mit parallem Erfassen und Auslesen
DE60211497T2 (de) Vermessung eines oberflächenprofils
EP1009984B1 (de) Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE102006029025A1 (de) Vorrichtung und Verfahren zur Abstandsbestimmung
DE102019107807A1 (de) Zeitauflösender bildsensor zur entfernungsmessung und 2d-grauskalenbildgebung
WO2003016944A2 (de) Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
DE112010004328T5 (de) Mehrstufiger Demodulationsbildpunkt und Verfahren
DE19833207A1 (de) Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
WO2016034408A1 (de) Verfahren und vorrichtung zur vereinfachten erfassung eines tiefenbildes
DE102019121340A1 (de) Verfahren und vorrichtung zum bestimmen einer fehlfunktion und sensorsystem
DE102019121202B4 (de) Zusammenführen von mit mehreren belichtungen erhaltenen tiefenbildern
DE102011053219B4 (de) Kombiniertes Pixel mit phasensensitivem und farbselektivem Subpixel
DE112018005773T5 (de) Intensitätsnormierter bildsensor
EP3724682A1 (de) Anordnung und verfahren zur ermittlung einer entfernung wenigstens eines objekts mit lichtsignalen
DE102016213217A1 (de) Lichtlaufzeitkamerasystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed