DE102014118893A1 - Austauschen von Informationen zwischen Laufzeit-Entfernungsmessgeräten - Google Patents

Austauschen von Informationen zwischen Laufzeit-Entfernungsmessgeräten Download PDF

Info

Publication number
DE102014118893A1
DE102014118893A1 DE102014118893.4A DE102014118893A DE102014118893A1 DE 102014118893 A1 DE102014118893 A1 DE 102014118893A1 DE 102014118893 A DE102014118893 A DE 102014118893A DE 102014118893 A1 DE102014118893 A1 DE 102014118893A1
Authority
DE
Germany
Prior art keywords
signal
information
runtime
light signal
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014118893.4A
Other languages
English (en)
Inventor
Robert LOBNIK
Christoph Steiner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of DE102014118893A1 publication Critical patent/DE102014118893A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/26Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein the transmitted pulses use a frequency-modulated or phase-modulated carrier wave, e.g. for pulse compression of received signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/50Transmitters
    • H04B10/516Details of coding or modulation
    • H04B10/548Phase or frequency modulation
    • H04B10/556Digital modulation, e.g. differential phase shift keying [DPSK] or frequency shift keying [FSK]
    • H04B10/5561Digital phase modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • G01S7/006Transmission of data between radar, sonar or lidar systems and remote stations using shared front-end circuitry, e.g. antennas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Optical Communication System (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ausführungsbeispiele adressieren ein Konzept zum Austauschen von Informationen zwischen Laufzeitentfernungsmessgeräten. Z.B. weist eine Laufzeitkamera eine Beleuchtungseinheit auf, die ausgebildet ist, Informationen zu einer zweiten Laufzeitkamera zu übertragen, durch Modulieren eines Lichtsignals, das emittiert werden soll, gemäß einem informationstragenden Signal. Die Laufzeitkamera weist einen Laufzeitsensor auf, der ausgebildet ist, um das informationstragende Signal zu detektieren, das in dem emittierten Lichtsignal der ersten Laufzeitkamera enthalten ist.

Description

  • TECHNISCHES GEBIET
  • Ausführungsbeispiele beziehen sich allgemein auf das Gebiet von Laufzeit-Entfernungsmessgeräten (ToF; Time-of-Flight; Laufzeit), wie z.B. ToF-Kameras.
  • HINTERGRUND
  • Dieser Abschnitt führt Aspekte ein, die hilfreich sein können, ein besseres Verständnis der Erfindungen zu ermöglichen. Entsprechend sollen die Angaben dieses Abschnitts diesbezüglich gelesen werden und sollen nicht als Zusagen dahingehend verstanden werden, was Stand der Technik ist oder was nicht Stand der Technik ist.
  • Eine Laufzeit-Entfernungsmessung (ToF-Entfernungsmessung) ist eine der am weitesten verbreiteten Techniken für eine optische, dreidimensionale (3D) Messung. ToF-Entfernungsmess-Bilderzeugungskameras können eine Distanz zu jedem Pixel in einem Sichtfeld einer Tof-Kamera messen. Dies kann erreicht werden durch Beleuchten einer Szene mit moduliertem Licht, z.B. Infrarotlicht, und Messen einer Phasenverschiebung zwischen einem ausgehenden und einem eingehenden, modulierten Licht-Signal. Für jedes Pixel kann dann die zugehörige Distanz aus dieser Phasenverschiebung berechnet werden. Somit können herkömmliche ToF-Kameras moduliertes Licht zum Beleuchten einer Szene und dessen reflektierte Version zum Bestimmen von Tiefeninformationen verwenden, die sich auf ein oder mehrere Objekte in der Szene beziehen.
  • ZUSAMMENFASSUNG
  • Es besteht ein Bedarf zum Bereitstellen eines verbesserten Konzepts für eine Laufzeit-Kamera und ein -System.
  • Ein solcher Bedarf kann durch den Gegenstand von einem beliebigen der Ansprüche erfüllt werden.
  • In der nachfolgenden Zusammenfassung können einige Vereinfachungen ausgeführt werden, was gedacht ist, einige Aspekte der verschiedenen, exemplarischen Ausführungsbeispiele zu unterstreichen und einzuführen, aber solche Vereinfachungen sollen den Schutzbereich der Erfindung(en) nicht einschränken. Detaillierte Beschreibungen eines bevorzugten, exemplarischen Ausführungsbeispiels, die angemessen sind, es Fachleuten auf dem Gebiet zu erlauben, die erfindungsgemäßen Konzepte herzustellen und zu verwenden, folgen in späteren Abschnitten.
  • Gemäß einem ersten Aspekt stellen Ausführungsbeispiele eine Laufzeit-Kamera (ToF-Kamera) bereit. Die ToF-Kamera umfasst eine Beleuchtungseinheit, die ausgebildet ist, um Informationen zu einem entfernten Empfänger durch Modulieren eines zu emittierenden Licht-Signals gemäß einem informationstragenden Signal zu übertragen.
  • Bei einem oder mehreren Ausführungsbeispielen kann der entfernte Empfänger ein entfernter ToF-Empfänger sein, der z.B. in einer weiteren entfernten ToF-Kamera enthalten ist. Bei einigen Ausführungsbeispielen kann die Beleuchtungseinheit auch zum Beleuchten einer Szene verwenden werden, die durch die ToF-Kamera erfasst werden soll.
  • Ausführungsbeispiele umfassen ferner ein entsprechendes Verfahren. Das Verfahren umfasst das Austauschen von Informationen zwischen einer ToF-Kamera und einem entfernten ToF-Empfänger durch Modulieren, an der ToF-Kamera, eines zu emittierenden Licht-Signals gemäß einem informationstragenden Signal.
  • Bei einigen Ausführungsbeispielen ist die Beleuchtungseinheit ausgebildet, um eine Szene, die durch die Laufzeit-Kamera erfasst werden soll, mit dem Licht-Signal zu beleuchten.
  • Optional kann die Beleuchtungseinheit ausgebildet sein, um eine Phase des Licht-Signals gemäß dem informationstragenden Signal zu modulieren.
  • Bei einigen Ausführungsbeispielen kann das informationstragende Signal ein nicht vorbestimmtes Basisbandsignal aufweisen, das nützliche Informationen für den entfernten Laufzeitsensor übermittelt.
  • Bei einigen Ausführungsbeispielen ist die Beleuchtungseinheit ausgebildet, um das Licht-Signal mit einer ersten, periodischen Signalsequenz gemäß einem ersten Informationssymbol des Informationstragenden Signals und mit einer zweiten periodischen Signalsequenz gemäß einem zweiten Informationssymbol des informationstragenden Signals zu modulieren. Die erste periodische Signalsequenz und die zweite periodische Signalsequenz können um einen vorbestimmten Wert phasenverschoben sein.
  • Bei einigen Ausführungsbeispielen kann die Beleuchtungseinheit ausgebildet sein, um das Licht-Signal gemäß einem nicht-kohärenten Modulationsschema zu modulieren.
  • Bei einigen Ausführungsbeispielen kann die Beleuchtungseinheit ausgebildet sein, um das Licht-Signal gemäß einem differentiellen Modulationsschema zu modulieren.
  • Bei einem Ausführungsbeispiel ist die Beleuchtungseinheit ausgebildet, um das Licht-Signal gemäß einem Phasendifferenz-Modulationsschema (DPSK-Modulationsschema; DPSK = Differential Phase Shift-Keying) zu modulieren.
  • Bei einigen Ausführungsbeispielen weist das informationstragende Signal ein vordefiniertes Synchronisationssignal auf, um dem entfernten Laufzeit-Sensor zu ermöglichen, mit einer Phase des emittierten Licht-Signals zu synchronisieren.
  • Bei einem oder mehreren Ausführungsbeispielen kann die Beleuchtungseinheit ausgebildet sein, um das Licht-Signal drahtlos an den entfernten Laufzeitempfänger zu emittieren.
  • Bei einem Ausführungsbeispiel ist das Licht-Signal ein Infrarotlicht-Signal.
  • Optional kann die Laufzeit-Kamera ferner einen Detektor umfassen, der ausgebildet ist, um ein weiteres informationstragendes Signal zu detektieren, das in einem Licht-Signal enthalten ist, das aus einer entfernten Laufzeit-Kamera emittiert wird.
  • Bei einigen Ausführungsbeispielen kann der Detektor ausgebildet sein, um auch zumindest einen Teil einer Szene zu umfassen, die durch die Laufzeit-Kamera erfasst werden soll.
  • Bei einem oder mehreren Ausführungsbeispielen kann der Detektor ausgebildet sein, um das weitere informationstragende Signal basierend auf einem nicht-kohärenten Erfassungsschema zu erfassen.
  • Bei einigen Ausführungsbeispielen kann der Detektor zumindest ein Photonik-Misch-Gerät-Pixel (PMD-Pixel; PMD = Photonic Mixing Device) aufweisen, um das modulierte Licht-Signal zu empfangen.
  • Bei einem Ausführungsbeispiel kann das PMD-Pixel mit einer Referenzsignaleinheit gekoppelt sein, um das empfangene, modulierte Licht-Signal in einen Basisbandbereich unter Verwendung eines Referenzsignals abwärts zu wandeln.
  • Bei einigen Ausführungsbeispielen kann die Referenzsignaleinheit ausgebildet sein, um eine Phase des Referenzsignals basierend auf einem vordefinierten Synchronisationssignal einzustellen, das in dem weiteren, informationstragenden Signals enthalten ist.
  • Gemäß einem weiteren Aspekt stellen Ausführungsbeispiele einen ToF-Empfänger bereit, der einen ToF-Sensor umfasst, der ausgebildet ist, um ein informationstragendes Signal zu detektieren, das in einem modulierten Licht-Signal enthalten ist, das aus einer entfernten Lichtquelle emittiert wird.
  • Bei einem oder mehreren Ausführungsbeispielen kann der ToF-Empfänger in einer ToF-Kamera enthalten sein. Bei einigen Ausführungsbeispielen kann der ToF-Sensor ein ToF-Pixel sein, z.B. ein Pixel eines Photonik-Misch-Geräts (PMD; Photonic Mixing Device). Bei einigen Ausführungsbeispielen kann die entfernte Lichtquelle in einer Beleuchtungseinheit einer entfernten ToF-Kamera enthalten sein.
  • Ausführungsbeispiele umfassen ferner ein entsprechendes Verfahren. Das Verfahren umfasst an einem ToF-Empfänger das Erfassen eines informationstragenden Signals, das in einem modulierten Licht-Signal enthalten ist, das aus einer entfernten Lichtquelle emittiert wird. Ein oder mehrere, herkömmliche ToF-Pixel können zu diesem Zweck verwendet werden.
  • Ausführungsbeispiele weisen auch ein System auf, das eine erste und eine zweite ToF-Kamera umfasst. Die erste ToF-Kamera weist eine Beleuchtungseinheit auf, die ausgebildet ist, um Informationen an eine zweite ToF-Kamera zu übertragen, durch Modulieren eines Licht-Signals, das emittiert werden soll, gemäß einem informationstragenden Signal. Die zweite ToF-Kamera weist einen ToF-Sensor auf, der ausgebildet ist, um das informationstragende Signal detektieren, das in dem emittierten Licht-Signal der ersten ToF-Kamera enthalten ist. Dadurch kann ermöglicht werden, dass eine Mehrzahl von ToF-Kameras miteinander kommuniziert.
  • Ausführungsbeispiele umfassen ferner ein Verfahren zum Austauschen von Informationen zwischen einer ersten und einer zweiten ToF-Kamera. Das Verfahren umfasst das Modulieren eines Licht-Signals, das aus der ersten ToF-Kamera emittiert werden soll, gemäß einem informationstragenden Signal, und das Erfassen, mit der zweiten ToF-Kamera, des informationstragenden Signals, das in dem emittierten Licht-Signal der ersten ToF-Kamera enthalten ist.
  • Einige Ausführungsbeispiele weisen eine digitale Schaltungsanordnung auf, die innerhalb einer ToF-Kamera zum Ausführen des entsprechenden Verfahrens installiert ist. Eine solche digitale Steuerungsschaltungsanordnung, z.B. ein digitaler Signalprozessor (DSP; Digital Signal Processor), ein Feld-Programmierbares Gate-Array (FPGA; Field-Programmable Gate Array), eine anwendungsspezifische, integrierte Schaltung (ASIC; Application-Specific Integrated Circuit) oder ein Allzweckprozessor müssen entsprechend programmiert werden. Somit stellen wiederum weitere Ausführungsbeispiele ein Computerprogramm mit einem Programmcode zum Ausführen von Ausführungsbeispielen von einem der oben erwähnten Verfahren oder zumindest einem oder mehreren Schritten desselben bereit, wenn das Computerprogramm auf einem Computer auf einer programmierbaren Hardwarevorrichtung ausgeführt wird.
  • Ausführungsbeispiele können eine 3D-Bilderzeugung und einen Datenaustausch auf 3D-ToF-Kameras kombinieren.
  • KURZE BESCHREIBUNG DER FIGUREN
  • Nachfolgend werden einige Ausführungsbeispiele von Vorrichtungen und/oder Verfahren ausschließlich beispielhaft und bezugnehmend auf die beiliegenden Figuren beschrieben, in denen:
  • 1 eine ToF-Kamera gemäß einem Ausführungsbeispiel zeigt;
  • 2 ein System mehrerer ToF-Kameras gemäß einem Ausführungsbeispiel zeigt;
  • 3 ein Beispiel eines informationstragenden Signals zeigt; und
  • 4a, b beispielhafte Implementierungen einer Detektionsschaltungsanordnung für ein informationstragendes Signal zeigen.
  • DETAILLIERTE BESCHREIBUNG
  • Verschiedene Beispiele werden nun ausführlicher bezugnehmend auf die beiliegenden Zeichnungen beschrieben, in denen einige Beispiele dargestellt sind. In den Figuren kann die Dicke der Linien, Schichten und/oder Regionen der Klarheit halber übertrieben sein.
  • Während dementsprechend verschiedene Abänderungen und alternative Formen von weiteren Beispielen möglich sind, werden die erläuternden Beispiele in den Figuren hier ausführlich beschrieben. Es versteht sich jedoch, dass es nicht beabsichtigt ist, Beispiele auf die offenbarten bestimmten Formen zu begrenzen, sondern im Gegensatz die Beispiele alle in den Rahmen der Offenbarung fallenden Abänderungen, Entsprechungen und Alternativen abdecken sollen. In der gesamten Beschreibung der Figuren beziehen sich gleiche Ziffern auf gleiche oder ähnliche Elemente.
  • Es versteht sich, dass wenn ein Element als mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, es direkt mit dem anderen Element verbunden oder gekoppelt sein kann oder Zwischenelemente vorhanden sein können. Wenn im Gegensatz ein Element als „direkt“ mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, sind keine Zwischenelemente vorhanden. Sonstige zum Beschreiben des Verhältnisses zwischen Elementen benutzte Worte sollten auf gleichartige Weise ausgelegt werden (z.B. „zwischen“ gegenüber „direkt zwischen“, „benachbart“ gegenüber „direkt benachbart“ usw.).
  • Die hier angewandte Terminologie bezweckt nur das Beschreiben erläuternder Beispiele und soll nicht begrenzend für weitere Beispiele sein. Nach hiesigem Gebrauch sollen die Einzelformen „ein, eine“ und „das, der, die“ auch die Pluralformen umfassen, wenn der Zusammenhang nicht deutlich sonstiges anzeigt. Es versteht sich weiterhin, dass die Begriffe „umfasst“, „umfassend“, „aufweisen“ und/oder „aufweisend“ bei hiesigem Gebrauch das Vorhandensein angegebener Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Bestandteile angeben, aber nicht das Vorhandensein oder die Zufügung eines oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Bestandteile und/oder Gruppen derselben ausschließen.
  • Sofern nicht anderweitig definiert, besitzen alle hier benutzten Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) die gleiche Bedeutung wie sie gewöhnlich von einem Durchschnittsfachmann auf dem Gebiet verstanden wird, zu dem Beispiele gehören. Weiterhin versteht es sich, dass Begriffe, z.B. die in gewöhnlich benutzten Wörterbüchern definierten, als eine Bedeutung besitzend ausgelegt werden sollten, die ihrer Bedeutung im Zusammenhang der entsprechenden Technik entspricht, und nicht in einem idealisierten oder übermäßig formalen Sinn ausgelegt werden, sofern sie nicht ausdrücklich so definiert sind.
  • 1 stellt ein schematisches Blockdiagramm einer Laufzeit-Kamera (ToF-Kamera) 100 gemäß einem Ausführungsbeispiel dar.
  • Die ToF-Kamera 100 kann als ein Beispiel für eine Entfernungsmess-Bilderzeugungsvorrichtung sein, die eine Distanz basierend auf der bekannten Lichtgeschwindigkeit und durch Messen der Laufzeit eines Licht-Signals zwischen der Kamera 100 und einem Objekt für jeden Punkt des Sichtfeldes der Kamera auflöst. Die ToF-Kamera 100 kann eine alleinstehende ToF-Kamera sein oder kann in einer anderen Vorrichtung umfasst sein, wie z.B. einem Smartphone, einem Tablet-PC, einem Laptop-PC oder ähnlichem. Gemäß Ausführungsbeispielen kann die ToF-Kamera 100 gleichzeitig mit anderen ToF-Vorrichtungen kommunizieren.
  • Die ToF-Kamera 100 weist eine Beleuchtungseinheit 110 auf, die einen Lichtemitter 112, eine Optikanordnung 120, einen Bildsensor 130, eine Treiberschaltungsanordnung 140 und eine Prozessoreinheit 150 umfasst. Gemäß Ausführungsbeispielen ist die Beleuchtungseinheit 110 oder genauer gesagt ihr Lichtemitter 112 ausgebildet, um Informationen mit einem entfernten Empfänger (nicht gezeigt) auszutauschen / an diesen zu kommunizieren, durch Modulieren von Licht oder eines Licht-Signals 114, das emittiert werden soll, gemäß einem informationstragenden Signal 116.
  • Dadurch kann zumindest ein Teil des informationstragenden Signals 116 nicht vorbestimmt sein, d.h. nicht vorab bekannt sein und kann von tatsächlichen Informationen abhängen, die von der Kamera 110 an den entfernten oder Fern-Empfänger übertragen werden sollen. Das informationstragende Signal 116 kann daher nützliche Informationen tragen, die von der ToF-Kamera 100 zu dem entfernten Empfänger übertragen werden sollen, der ein/e entfernte/r ToF-Entfernungsmess-Vorrichtung oder -Empfänger sein kann, wie z.B. bei einigen Ausführungsbeispielen eine weitere ToF-Kamera. Jedoch sind ToF-Empfänger bei anderen Vorrichtungen ebenfalls möglich, wie z.B. Smartphones, Tablet-PCs, Laptop-PCs oder ähnlichem.
  • Bei einigen Ausführungsbeispielen kann das informationstragende Signal ein oder mehrere nicht vorbestimmte, digitale Basisbandsignale zum Übermitteln nützlicher Informationen an den entfernten Empfänger aufweisen. Z.B. kann das informationstragende Signal 116 Informationen über ein Bild aufweisen, das durch die Kamera 100 erfasst wird und/oder 3D-Informationen desselben. Für ein anderes Beispiel kann das informationstragende Signal 116 Informationen über die Kamera 100 aufweisen, wie z.B. Konfigurationsinformationen der Kamera. Dadurch können die Konfigurationsinformationen vordefinierte und Kameraspezifische Modulationssequenzen zum Modulieren des emittierten Lichts 114 umfassen. Durch Kommunizieren der Kamera-spezifischen Modulationssequenz an andere ToF-Kameras können letztere andere orthogonale Modulationssequenzen auswählen, um eine gegenseitige Interferenz zwischen den mehreren 3D-Kameras in der Nähe zueinander zu reduzieren.
  • Bei einigen Ausführungsbeispielen kann ein Modulator 118 der Beleuchtungseinheit 110 ausgebildet sein, eine Phase des Licht-Signals gemäß dem informationstragenden Signal 116 zu modulieren. Der Modulator 118 kann somit ausgebildet sein, eine Phasenmodulation des Licht-Signals 114 auszuführen. Alternativ oder zusätzlich kann auch die Amplitude des Licht-Signals 114 basierend auf dem informationstragenden Signal 116 moduliert werden.
  • Bei einigen Ausführungsbeispielen kann der Modulator 118 ausgebildet sein, um das Licht 114 gemäß einem nicht-kohärenten Modulationsschema zu modulieren. Auf diese Weise müssen die sendende ToF-Kamera 110 und der entfernte Empfänger nicht phasensynchronisiert sein, um das informationstragende Signal zu erfassen, was zu weniger komplexen Implementierungen führen kann. Z.B. kann das Licht-Signal 114 gemäß einem differentiellen Modulationsschema moduliert werden, wie z.B. der Phasendifferenzmodulation (DPSK; Differential Phase Shift-Keying). Hier können Daten des informationstragenden Signals verwendet werden, um die Phase des Lichts 114, das emittiert werden soll, zu ändern und nicht einzustellen.
  • Es wird darauf hingewiesen, dass bei anderen Ausführungsbeispielen auch kohärente Sende- oder Modulations-Schemata eingesetzt werden können, wie z.B. Phasenumtastungs-(PSK; Phase Shift-Keying) oder Quadraturamplitudenmodulations-(QAN; Quadrature Amplitude Modulation)-Schemata. In solchen Fällen kann das informationstragende Signal 116 mit einem vordefinierten Synchronisations- oder Trainings-Signal ergänzt werden, um dem entfernten Empfänger zu ermöglichen, die Phase des emittierten, modulierten Licht-Signals zu schätzen und sich mit dieser zu synchronisieren. Kohärente Sende-/Empfangs-Schemata können das Erfassen von sowohl einem unbekannten, gesendeten informationstragenden Signal 116 als auch einer Distanz zwischen einer Sendevorrichtung und einer entfernten Empfangsvorrichtung erlauben.
  • Abgesehen von dem Austauschen von Informationen kann die Beleuchtungseinheit 110 auch ausgebildet sein, um eine Szene zu beleuchten, die durch die Laufzeit-Kamera 100 erfasst werden soll. Somit kann der Lichtemitter 112 ausgebildet sein, um drahtlos, d.h. ohne Kabel oder Fasern, das Licht 114 hin zu der Szene und/oder dem entfernten Empfänger zu emittieren, die in dem Sichtfeld der Beleuchtungseinheit 110 sein sollten, um in der Lage zu sein, das modulierte Licht 114 zu empfangen. Da das Licht 114 mit Geschwindigkeiten von einigen bis zu hunderten Megahertz moduliert werden kann, können z.B. lichtemittierende Dioden (LED; Light-Emitting Diodes) oder Laser-Dioden den Lichtemitter 112 bilden. Die Beleuchtungseinheit 110 kann Infrarotlicht verwenden, um die Beleuchtung unauffällig zu machen. Somit kann das Licht-Signal 114 ein Infrarotlicht-Signal sein, das Wellenlängen von 340 THz bis hinunter zu 300 GHz abdeckt, was Wellenlängen von 700 nm bis 1 mm entspricht.
  • Die Optikanordnung 120 kann eine oder mehrere Linsen 122 aufweisen, um reflektiertes Licht aufzunehmen und die erfasste Szene/Umgebung auf den Bildsensor 130 abzubilden.
  • Die Optikanordnung 120 kann ferner ein oder mehrere optische Bandpassfilter aufweisen, um Licht mit derselben Wellenlänge weiterzuleiten wie das Licht, das aus der Beleuchtungseinheit 110 emittiert wird. Optische Bandpassfilter können helfen, unerwünschtes Hintergrundlicht zu unterdrücken.
  • Der Bildsensor 130 kann ein oder mehrere tiefenempfindliche Pixel 132 aufweisen, um zumindest einen Teil einer Szene in dem Halbraum vor der Laufzeit-Kamera 100 zu erfassen. Die tiefenempfindlichen Pixel können ausgebildet sein, um die Zeit zu messen, die das Licht 114 benötigt hat, sich von der Beleuchtungseinheit 110, d.h. von der Kamera 100, zu einem beleuchteten Objekt und zurück zu bewegen. Somit können die tiefenempfindlichen Pixel 132 des Bildsensors 130 jeweils als ToF-Sensoren betrachtet werden und der Bildsensor 130 kann als ToF-Empfänger betrachtet werden. Andere ToF-Empfänger, die nicht in eine ToF-Kamera eingebettet sind, sind ebenfalls denkbar. Beispiele von ToF-Sensoren umfassen PMD-Pixel (PMD = Photonic Mixing Device), um das modulierte Licht-Signal zu empfangen. Wie der Durchschnittsfachmann in Kenntnis der vorliegenden Offenbarung erkennen wird, ist ein PMD-Pixel ein Oberflächenkanal-Halbleiterbauelement, das gleichzeitig ein Misch- und Ladungs-Integrations-Verfahren in seinem fotoempfindlichen Bereich ausführen kann. Ein PMD-Pixel kann gemäß herkömmlichen Komplementär-Metalloxidhalbleitertechniken (CMOS-Halbleitertechniken; CMOS = Complementary Metal Oxide Semiconductor) hergestellt werden.
  • Bei einigen Ausführungsbeispielen können ein oder mehrere ToF-Pixel/Detektoren 132 des Bildsensors 130 alternativ oder zusätzlich ausgebildet sein, ein informationstragendes Signal zu detektieren, das in einem Licht-Signal enthalten ist, das aus einer entfernten ToF-Kamera (nicht gezeigt) emittiert wird und durch die ToF-Kamera 100 erfasst wird. Abhängig von dem zugrundeliegenden Modulationsschema kann das informationstragende Signal basierend auf kohärenten oder nicht-kohärenten Detektionsschemata detektiert werden. Während für kohärente Detektionsschemata eine Phasensynchronisation zwischen emittiertem/übertragenem Licht-Signal und empfangenem Licht-Signal erforderlich ist, ist eine Phasensynchronisation für nicht-kohärente Detektionsschemata nicht notwendig, wie z.B. für DPSK.
  • Sowohl die Beleuchtungseinheit 110 als auch der Bildsensor 130 der ToF-Kamera 100 können durch Hochgeschwindigkeitssignale gesteuert werden, die von der Treiberschaltungsanordnung 140 geliefert werden. Solche Signale können sehr genau sein, um eine hohe Auflösung zu erhalten. Wenn z.B. die Signale zwischen der Beleuchtungseinheit 110 und dem Sensor 130 um nur 10 Picosekunden verschoben sind, kann sich die detektierte Distanz um 1,5 mm ändern. Die Distanz und/oder der Schätzwert des empfangenen, informationstragenden Signals kann z.B. mit Hilfe der Prozessoreinheit 150 bestimmt werden.
  • Bezugnehmend nun auf 2 ist schematisch ein Kommunikationssystem 200 dargestellt, das eine Mehrzahl von ToF-Kameras 100-1, 100-2, 100-3 aufweist. Gemäß Ausführungsbeispielen kann die Mehrzahl von ToF-Kameras 100-1, 100-2, 100-3 untereinander Informationen austauschen.
  • Wie vorangehend erklärt wurde, weist eine erste ToF-Kamera 100-1 eine Beleuchtungseinheit 110-1 auf, die ausgebildet ist, um Informationen mit einer zweiten ToF-Kamera 100-2 oder 100-3 auszutauschen oder Informationen zu derselben zu senden, durch Modulieren eines Licht-Signals, das gemäß einem informationstragenden Signal emittiert werden soll. Die zweite ToF-Kamera 100-2 oder 100-3 weist ein oder mehrere ToF-Sensoren auf, die ausgebildet sind, das informationstragende Signal zu detektieren, das in dem emittierten Licht-Signal der ersten ToF-Kamera 100-1 enthalten ist. Fachleute auf dem Gebiet werden erkennen, dass die Kommunikation zwischen den ToF-Kameras 100-1, 100-2, 100-3 jeweils bidirektional sein kann. Somit kann jede der ToF-Kameras 100-1, 100-2, 100-3 sowohl einen optischen Sender als auch eine optische Empfängerschaltungsanordnung umfassen, wie vorangehend erklärt wurde. Es wird darauf hingewiesen, das auch andere ToF-Vorrichtungen, die nicht notwendigerweise ToF-Kameras sein müssen, Teil des Kommunikationssystems 200 sein können.
  • Somit können Ausführungsbeispiele eine Datenkommunikation z.B. zwischen unterschiedlichen 3D-Kameras unterstützen. Die Kameras können ihre eigenen Konfigurationsdaten periodisch rundsenden. Andere Kameras können diese Parameter empfangen und sich ihrer Umgebung bewusst werden, z.B. darüber, wie viele andere Kameras in der Nähe sind und/oder welche Konfiguration sie verwenden. Mit diesen Informationen über andere Benutzer kann jede Kamera ihre eigene Konfiguration, z.B. ihre Modulationsfrequenz und/oder Sequenz, an die Umgebung anpassen/optimieren. Einige Ausführungsbeispiele können somit eine Beleuchtungsinterferenz zwischen unterschiedlichen ToF-Kameras dynamisch reduzieren, die in der Nähe voneinander eingesetzt werden.
  • 3 stellt ein Beispiel dar, wie ein Informationssymbol eines informationstragenden Signals 116 ein zu emittierendes Licht-Signal modulieren kann.
  • 3 zeigt exemplarisch ausschließlich zu darstellenden Zwecken ein Binärsymbolalphabet {0; 1}. Der Fachmann wird erkennen, dass auch M-äre Symbolalphabete und Modulationsschemata höherer Ordnung durch Ausführungsbeispiele abgedeckt sind, wobei M > 2. Für das Informationssymbol „0“ sowie das Informationssymbol „1“ kann das emittierte Licht-Signal, das ein Licht im nahen Infrarotbereich (NIR; Near InfraRed) sein kann, von rechteckiger Form sein, was zu einer ersten periodischen Sequenz 316-0 und einer zweiten periodischen Sequenz 316-1 aus Lichtpulsen führt. Somit kann das informationstragende Signal eine erste, binäre Signalsequenz 316-0 gemäß einem ersten Informationssymbol und eine unterschiedliche, zweite binäre Signalsequenz 316-1 gemäß einem unterschiedlichen zweiten Informationssymbol aufweisen. Eine Differenz zwischen der ersten Sequenz 316-0, die zu dem Symbol „0“ gehört, und der zweiten Sequenz 316-1, die zu dem Symbol „1“ gehört, kann eine vorbestimmte Phasenverschiebung der emittierten Lichtsequenzen sein, z.B. eine Phasenverschiebung Δφ = 180°. Somit kann eine Phase des Licht-Signals gemäß dem informationstragenden Signal moduliert werden.
  • Bei dem beispielhaften Ausführungsbeispiel von 3 weist jedes Informationssymbol {0; 1} mehrere Perioden einer periodischen Signalsequenz 316-0, 316-1 auf. Wie nachfolgend erklärt wird, kann ein entfernter Empfänger über diese Perioden integrieren, um ein ausreichendes Signal-zu-Rausch-Verhältnis (SNR; Signal to Noise Ratio) zu erreichen. Obwohl 3 exemplarisch rechteckige Signalsequenzen 316-0, 316-1 darstellt, wird der Fachmann erkennen, dass andere Signalformen ebenfalls gelten können, z.B. sinusförmige Signalformen.
  • An einer entfernten Empfangsseite, z.B. einer entfernten ToF-Kamera, können ToF-Pixel entworfen sein, um die Phasenverschiebung zwischen einem empfangenen Signal und einem Referenzsignal zu detektieren, wie in 4a und 4b dargestellt ist. Herkömmlicherweise hängt diese Phasenverschiebung von einer Distanz zu einem beleuchteten Ziel ab. Im Fall einer Datenkommunikation jedoch können der Sender und der Empfänger zwei unterschiedliche und verteilte ToF-Kameras sein, die möglicherweise nicht dieselbe Phasen- und Takt-Referenz aufweisen (nicht kohärente Detektion). Bei einigen Ausführungsbeispielen können der Sender und der Empfänger jedoch symbolsynchronisiert sein. Eine solche Symbolsynchronisation kann erreicht werden durch Erfassen großer Phasensprünge z.B. oder durch Einfügen bekannter Trainingssymbole an einem informationstragenden Signal 116.
  • 4a stellt schematisch ein exemplarisches Sende/Empfangs-Schema in Form einer nicht kohärenten, orthogonalen Signalerzeugung über Phasendifferenzmodulation (DPSK; Differential Phase Shift Keying) dar. Hier kann ein Demodulator 400-1 Änderungen bei der Phase des empfangenen Signals und nicht der Phase (relativ zu einer Bezugswelle) selbst bestimmen. Es besteht kein Bedarf, dass der Demodulator 400-1 eine Kopie des emittierten/übertragenen Licht-Signals hat, um die exakte Phase des empfangenen Signals zu bestimmen, es ist ein nicht-kohärentes Schema.
  • Z.B. kann das optische oder Licht-Signal 114 zum Übertragen des Informationssymbols „0“ ohne Phasenverschiebung kodiert werden gemäß
    Figure DE102014118893A1_0002
  • Das optische Signal zum Übertragen des Symbols „1“ kann dann mit einer Phasenverschiebung kodiert werden gemäß
    Figure DE102014118893A1_0003
  • Anstatt der Kosinus-Wellenform kann jegliche andere periodische Wellenform, wie z.B. rechteckig, verwendet werden, wie vorangehend erklärt wurde. Die Variable f bezeichnet eine Modulationsfrequenz des optischen Signals und die Variable T bezeichnet die Symboldauer oder Integrationszeit eines entsprechenden Empfängers. Üblicherweise kann T ein ganzzahliges Mehrfaches von 1/f sein.
  • 4a zeigt ein schematisches Blockdiagramm eines DPSK-Detektors/Demodulators 400-1 für ein informationstragendes Signal, das in einem empfangenen optischen oder Licht-Signal si(t) enthalten ist, wobei i das gesendete Symbol bezeichnet. Der Beispieldetektor 400-1 weist ein erstes PMD-Pixel 402-1 und ein zweites PMD-Pixel 402-2 auf. Beide PMD-Pixel 402-1, 402-2 sind mit einer Referenzsignalquelle zum Abwärtsumwandeln (Abwärtsmischen) des empfangenen Licht-Signals si(t) in einen niedrigeren Frequenzbereich gekoppelt, wie z.B. den Basisbandbereich, unter Verwendung eines Referenzsignals r(t) = cos(2πft). Dabei verwendet das PMD-Pixel 402-2 eine –90° phasenverschobene Version des Referenzsignals r(t), was bei unserem Beispiel sin(2πft) ergibt, zum Abwärtsumwandeln des empfangenen Licht-Signals si(t). Es wird darauf hingewiesen, dass eine Phase des Referenzsignals r(t) und des emittierten Licht-Signals für nicht-kohärente Detektionsschemata nicht notwendigerweise ausgerichtet sein müssen. Die Referenzsignal-Quelle oder -Einheit kann jedoch ausgebildet sein, um eine Phase des Referenzsignals r(t) basierend auf einem vordefinierten Synchronisations- oder Trainings-Signal einzustellen, das in dem Signal si(t) enthalten ist.
  • Der Mischprozess bei beiden PMD-Pixeln 402-1, 402-2 kann Basisbandsignale s I / i(t) bzw. s Q / i(t) ergeben. Die Basisbandsignale s I / i(t) und s Q / i(t) können durch Integratoren 404-1, 404-2 für eine jeweilige Symboldauer T integriert werden. Die Integratoren 404-1, 404-2 können in den PMD-Pixeln 402-1 bzw. 402-2 enthalten sein. Die Ausgaben der Integratoren 404-1, 404-2 können dann von analog zu digital umgewandelt werden, durch Analog-zu-Digital-Wandler (ADCs; Analog-to-Digital Converters) 406-1 bzw. 406-2, um digitale Abtastwerte x[k] und y[k] zu ergeben, wobei k der Abtastindex ist. Unter Verwendung der digitalen In-Phasen-(I)-Abtastwerte x[k] und Quadratur-(Q)-Abtastwerte y[k] kann eine bekannte differentielle digitale Signalverarbeitung 408 an x[k-1], x[k], y[k-1], ausgeführt werden, um den Informationssymbolschätzwert für das Symbol i zu erreichen.
  • Während das Ausführungsbeispiel von 4a, das I- und Q-Komponenten für ein empfangenes Signal erzeugt, besonders vorteilhaft für Modulationsschemata höherer Ordnung sein kann, zeigt 4b einen weniger komplexen Empfängeraufbau 400-2, der nur ein Pixel 402 anstatt zwei einsetzt.
  • 4b zeigt ein schematisches Blockdiagramm einer anderen Implementierung eines PSK-Detektors/Demodulators 400-2 für ein informationstragendes Signal, das in einem empfangenen optischen oder Licht-Signal si(t) enthalten ist, wobei i das übertragene Symbol bezeichnet. Der Beispieldetektor 400-2 weist nur ein PMD-Pixel 402 auf, das mit einer Referenzsignalquelle 410 zum Abwärtsumwandeln (Abwärtsmischen) des empfangenen Lichtsignals si(t) in einen niedrigeren Frequenzbereich gekoppelt ist, wie z.B. den Basisbandbereich, unter Verwendung einer Mehrzahl von Referenzsignalen rn(t, φn) mit unterschiedlichen Phasen φn. Z.B. können vier Referenzsignale mit vier Phasenverschiebungen von φ1 = 0°, φ2 = 90°, φ3 = 180°, und φ4 = 270°, sequenziell angewendet werden. Während dieser Zeit sollte sich das Informationssymbol nicht ändern. Somit, wenn die Symboldauer T ist, ist die Anwendungszeit von Referenzsignalen rn(t, φn) T/N, wobei N die Anzahl von unterschiedlichen Phasenverschiebungen ist (hier bei diesem Beispiel N = 4). An dem Ausgang des Pixels 402 liegt eine Sequenz von vier Werten A0, A1, A2, A3 vor, die in dem Speicher 412 gespeichert werden können. Diese vier Werte können verwendet werden, um die tatsächliche Phase des Symbols i zu berechnen, d.h. α[i], über die Gleichung
    Figure DE102014118893A1_0004
  • Der Fachmann auf dem Gebiet wird ohne weiteres erkennen, dass eine ToF-Kamera auch mehr als einen ToF-Sensor 132 zum Empfangen eines informationstragenden Signals einsetzen kann, was zu sogenannten optischen SIMO-Konzepten führt (SIMO = Single Input Multiple Output; eine Eingabe mehrere Ausgaben). Wenn eine sendende ToF-Kamera mehr als einen Lichtemitter 112 einsetzt, können optische MIMO-Sendeszenarien entstehen (MIMO = Multiple Input Multiple Output; mehrere Eingaben mehrere Ausgaben), was vorteilhaft für eine Hochgeschwindigkeitsdatenkommunikation und/oder in eingeschränkten Umgebungen sein kann.
  • Zusammenfassend schlagen Ausführungsbeispiele die Verwendung von ToF-Pixeln vor, die herkömmlicherweise zum Zweck der Distanzschätzung (3D-Bilderzeugung) dienen, also zum Datenempfang. Daten-Sende- und/oder -Empfangs-Fähigkeiten können ohne zusätzliche Hardwarekosten einhergehen. Eine Datenübertragung kann durch ordnungsgemäße Modulation des emittierten Lichts erreicht werden. Ausführungsbeispiele können 3D-Bilderzeugung und -Datenübertragung auf einer 3D-Kamera kombinieren. Der Datenempfang und die Distanzschätzung kann durch Standard-ToF-Pixel erreicht werden. Die Datenübertragung kann durch Modulieren des emittierten Infrarotlichts erreicht werden.
  • Ausführungsbeispiele können eine Datenkommunikation zwischen unterschiedlichen 3D-Kameras unterstützen. Somit kann jede Kamera ihre eigenen Konfigurationsdaten z.B. periodisch rundsenden. Andere Kameras können diese Parameter empfangen und sich der Umgebung bewusst werden (z.B. wie viele andere Kameras sind in der Nähe? Welche Konfiguration verwenden sie? etc.). Mit diesen Informationen über andere Benutzer kann jede Kamera ihre eigene Konfiguration (z.B. Modulationsfrequenz) an die Umgebung anpassen/optimieren.
  • Ausführungsbeispiele können relevant sein für Anwendungen wie Fernkonfiguration, Fernsteuerung, Selbstorganisation von PC/Laptop/TV/Heim-Stereo, etc.
  • Ausführungsbeispiele schlagen einen neuen Empfängerentwurf für eine optische Datenübertragung mit vielen Vorteilen im Vergleich zu den Lösungen auf dem Stand der Technik vor. Eine Korrelationsfunktion kann direkt in dem optischen aktiven Bereich implementiert sein (ToF-Pixel).
  • Ausführungsbeispiele erlauben eine gemeinsame Datenkommunikation und Distanzschätzung. Dies kann Distanzbegrenzungsprotokolle ermöglichen, um Wurmloch-Angriffe zu vermeiden. Distanzbegrenzungsprotokolle sind kryptographische Protokolle, die es einem Verifizierer V ermöglichen, eine obere Begrenzung im Hinblick auf eine physische Distanz zu einer Prüfeinrichtung P einzurichten. Sie basieren auf der Zeitgebung einer Verzögerung zwischen dem Aussenden von Herausforderungs-Bits und dem Zurückempfangen entsprechender Antwort-Bits. Die Verzögerungszeit für Antworten ermöglicht V, eine Obergrenze für die Distanz zu berechnen, als Umlauf-Verzögerungszeit geteilt in 2x Lichtgeschwindigkeit. Die Berechnung basiert auf der Tatsache, dass sich elektromagnetische Wellen annähernd bei Lichtgeschwindigkeit bewegen, sich aber nicht schneller bewegen können. Z.B. kann eine sichere Nahfeldkommunikation (NFC; Near Field Communication) ermöglicht werden (z.B. nur wenn die Distanz kleiner ist als 1 cm ist eine Kommunikation erlaubt).
  • Es wird darauf hingewiesen, dass die beschriebenen Vorrichtungen entsprechende Verfahren ausführen können.
  • Beispiele können weiterhin ein Computerprogramm mit einem Programmcode zum Durchführen eines der obigen Verfahren bereitstellen, wenn das Computerprogramm auf einem Computer oder Prozessor ausgeführt wird. Ein Fachmann würde leicht erkennen, dass Schritte verschiedener oben beschriebener Verfahren durch programmierte Computer durchgeführt werden können. Hierbei sollen einige Beispiele auch Programmspeichervorrichtungen, z.B. Digitaldatenspeichermedien abdecken, die maschinen- oder computerlesbar sind und maschinenausführbare oder computerausführbare Programme von Anweisungen codieren, wobei die Anweisungen einige oder alle der Handlungen der oben beschriebenen Verfahren durchführen. Die nichtflüchtigen Programmspeichervorrichtungen können z.B. Digitalspeicher, magnetische Speichermedien wie beispielsweise Magnetplatten und Magnetbänder, Festplattenlaufwerke oder optisch lesbare Digitaldatenspeichermedien sein. Auch sollen die Beispiele Computer programmiert zum Durchführen der Handlungen der oben beschriebenen Verfahren oder (feld-)programmierbare Logik-Arrays ((F)PLA – (Field) Programmable Logic Arrays) oder (feld-)programmierbare Gate-Arrays ((F)PGA – (Field) Programmable Gate Arrays) programmiert zum Durchführen der Handlungen der oben beschriebenen Verfahren abdecken.
  • Durch die Beschreibung und Zeichnungen werden nur die Grundsätze der Offenbarung dargestellt. Es versteht sich daher, dass der Fachmann verschiedene Anordnungen ableiten kann, die, obwohl sie nicht ausdrücklich hier beschrieben oder dargestellt sind, die Grundsätze der Offenbarung verkörpern und in ihrem Wesen und Schutzbereich enthalten sind. Weiterhin sollen alle hier aufgeführten Beispiele grundsätzlich nur Lehrzwecken dienen, um den Leser beim Verständnis der Grundsätze der Offenbarung und der durch den (die) Erfinder beigetragenen Konzepte zur Weiterentwicklung der Technik zu unterstützen, und sollen als ohne Begrenzung solcher besonders aufgeführten Beispiele und Bedingungen dienend aufgefasst werden. Weiterhin sollen alle hiesigen Aussagen über Grundsätze, Aspekte und Beispiele der Offenbarung wie auch besondere Beispiele derselben deren Entsprechungen umfassen.
  • Als „Einheiten für…“ (Durchführung einer gewissen Funktion) bezeichnete Funktionsblöcke sind als Funktionsblöcke umfassend Schaltungen zu verstehen, die jeweils zum Durchführen einer gewissen Funktion eingerichtet sind. Daher kann eine „Einheit für etwas“ ebenso als „Einheit ausgebildet für oder geeignet für etwas“ verstanden werden. Eine Einheit ausgebildet zum Durchführen einer gewissen Funktion bedeutet daher nicht, dass ein solches Mittel notwendigerweise die Funktion durchführt (in einem gegebenen Zeitmoment).
  • Funktionen verschiedener in den Figuren dargestellter Elemente einschließlich jeder als „Mittel“, „Mittel zur Bereitstellung eines Sensorsignals“, „Mittel zum Erzeugen eines Sendesignals“ usw. bezeichneter Funktionsblöcke können durch die Verwendung dedizierter Hardware wie beispielsweise „eines Signalanbieters“, „einer Signalverarbeitungseinheit“, „eines Prozessors“, „einer Steuerung“, usw. wie auch als Hardware fähig der Ausführung von Software in Verbindung mit zugehöriger Software bereitgestellt werden. Weiterhin könnte jede hier als „Mittel“ beschriebene Instanz als „ein oder mehrere Module“, „eine oder mehrere Vorrichtungen“, „eine oder mehrere Einheiten“, usw. implementiert sein oder diesem entsprechen. Bei Bereitstellung durch einen Prozessor können die Funktionen durch einen einzigen dedizierten Prozessor, durch einen einzelnen gemeinschaftlich verwendeten Prozessor oder durch eine Vielzahl einzelner Prozessoren bereitgestellt werden, von denen einige gemeinschaftlich verwendet werden können. Weiterhin soll ausdrückliche Verwendung des Begriffs „Prozessor“ oder „Steuerung“ nicht als ausschließlich auf zur Ausführung von Software fähige Hardware bezogen ausgelegt werden, und kann implizit ohne Begrenzung Digitalsignalprozessor-(DSP-)Hardware, Netzprozessor, anwendungsspezifische integrierte Schaltung (ASIC – Application Specific Integrated Circuit), feldprogrammierbares Gate-Array (FPGA – Field Programmable Gate Array), Nurlesespeicher (ROM – Read Only Memory) zum Speichern von Software, Direktzugriffsspeicher (RAM – Random Access Memory) und nichtflüchtige Speicherung einschließen. Auch kann sonstige Hardware, herkömmliche und/oder kundenspezifisch eingeschlossen sein.
  • Der Fachmann sollte verstehen, dass alle hiesigen Blockschaltbilder konzeptmäßige Ansichten beispielhafter Schaltungen darstellen, die die Grundsätze der Offenbarung verkörpern. Auf ähnliche Weise versteht es sich, dass alle Flussdiagramme, Zustandsübergangsdiagramme, Pseudocode und dergleichen verschiedene Prozesse darstellen, die im Wesentlichen in einem computerlesbaren Medium dargestellt und so durch einen Computer oder Prozessor ausgeführt werden, ungeachtet dessen, ob ein solcher Computer oder Prozessor ausdrücklich dargestellt ist.
  • Weiterhin sind die nachfolgenden Ansprüche hiermit in die ausführliche Beschreibung aufgenommen, wo jeder Anspruch als getrenntes Beispiel für sich stehen kann. Wenn jeder Anspruch als getrenntes Beispiel für sich stehen kann, ist zu beachten, dass – obwohl ein abhängiger Anspruch sich in den Ansprüchen auf eine besondere Kombination mit einem oder mehreren anderen Ansprüchen beziehen kann – andere Beispiele auch eine Kombination des abhängigen Anspruchs mit dem Gegenstand jedes anderen abhängigen oder unabhängigen Anspruchs einschließen können. Diese Kombinationen werden hier vorgeschlagen, sofern nicht angegeben ist, dass eine bestimmte Kombination nicht beabsichtigt ist. Weiterhin sollen auch Merkmale eines Anspruchs für jeden anderen unabhängigen Anspruch eingeschlossen sein, selbst wenn dieser Anspruch nicht direkt abhängig von dem unabhängigen Anspruch gemacht ist.
  • Es ist weiterhin zu beachten, dass in der Beschreibung oder in den Ansprüchen offenbarte Verfahren durch eine Vorrichtung mit Mitteln zum Durchführen jeder der jeweiligen Handlungen dieser Verfahren implementiert sein können.
  • Weiterhin versteht es sich, dass die Offenbarung vielfacher in der Beschreibung oder den Ansprüchen offenbarter Handlungen oder Funktionen nicht als in der bestimmten Reihenfolge befindlich ausgelegt werden sollten. Durch die Offenbarung von vielfachen Handlungen oder Funktionen werden diese daher nicht auf eine bestimmte Reihenfolge begrenzt, es sei denn, dass diese Handlungen oder Funktionen aus technischen Gründen nicht austauschbar sind. Weiterhin kann in einigen Beispielen eine einzelne Handlung mehrere Teilhandlungen einschließen oder in diese unterteilt werden. Solche Teilhandlungen können eingeschlossen sein und Teil der Offenbarung dieser Einzelhandlung bilden, sofern sie nicht ausdrücklich ausgeschlossen sind.

Claims (21)

  1. Laufzeitkamera (100), umfassend: eine Beleuchtungseinheit (110), die ausgebildet ist, Informationen zu einem entfernten Laufzeitempfänger durch Modulieren eines zu emittierenden Lichtsignals (114) gemäß einem informationstragenden Signal (116) zu übertragen.
  2. Die Laufzeitkamera gemäß Anspruch 1, wobei die Beleuchtungseinheit (110) ausgebildet ist, eine Szene, die durch die Laufzeitkamera (100) erfasst werden soll, mit dem Lichtsignal (114) zu beleuchten.
  3. Die Laufzeitkamera gemäß Anspruch 1 oder 2, wobei die Beleuchtungseinheit (110) ausgebildet ist, um eine Phase des Lichtsignals (114) gemäß dem informationstragenden Signal (116) zu modulieren.
  4. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei das informationstragende Signal (116) ein nicht-vorbestimmtes Basisbandsignal aufweist, das nützliche Informationen für den entfernten Laufzeitsensor überträgt.
  5. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinheit (110) ausgebildet ist, um das Lichtsignal (114) mit einer ersten, periodischen Signalsequenz gemäß einem ersten Informationssymbol des informationstragenden Signals (116) und mit einer zweiten, periodischen Signalsequenz gemäß einem zweiten Informationssymbol des informationstragenden Signals (116) zu modulieren.
  6. Die Laufzeitkamera gemäß Anspruch 5, wobei die erste, periodische Signalsequenz und die zweite, periodische Signalsequenz um einen vorbestimmten Wert phasenverschoben sind.
  7. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinheit (110) ausgebildet ist, das Lichtsignal (114) gemäß einem nicht-kohärenten Modulationsschema zu modulieren.
  8. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinheit (110) ausgebildet ist, das Lichtsignal (114) gemäß einem differentiellen Modulationsschema zu modulieren.
  9. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinheit (110) ausgebildet ist, um das Lichtsignal (114) gemäß einem Phasendifferenz-Modulationsschema (DPSK; Differential Phase Shift-Keying) zu modulieren.
  10. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei das informationstragende Signal (116) ein vordefiniertes Synchronisationssignal aufweist, um dem entfernten Laufzeitsensor zu ermöglichen, sich mit einer Phase des emittierten Lichtsignals (114) zu synchronisieren.
  11. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei die Beleuchtungseinheit (110) ausgebildet ist, um das Lichtsignal (114) drahtlos zu dem entfernten Laufzeitempfänger zu emittieren.
  12. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, wobei das Lichtsignal (114) ein Infrarotlicht-Signal ist.
  13. Die Laufzeitkamera gemäß einem der vorangehenden Ansprüche, ferner umfassend: einen Detektor, der ausgebildet ist, ein weiteres, informationstragendes Signal (116) zu erfassen, das in einem Lichtsignal (114) enthalten ist, das aus einer entfernten Laufzeitkamera (100) emittiert wird.
  14. Die Laufzeitkamera gemäß Anspruch 13, wobei der Detektor ausgebildet ist, ferner zumindest einen Teil einer Szene zu erfassen, die durch die Laufzeitkamera (100) erfasst werden soll.
  15. Die Laufzeitkamera gemäß Anspruch 13 oder 14, wobei der Detektor ausgebildet ist, das weitere, informationstragende Signal (116) basierend auf einem nicht-kohärenten Detektionsschema zu detektieren.
  16. Die Laufzeitkamera gemäß einem der Ansprüche 13 bis 15, wobei der Detektor zumindest ein PMD-Pixel (PMD = Photonic Mixing Device; photonische Mischvorrichtung) aufweist, um das modulierte Lichtsignal zu empfangen.
  17. Die Laufzeitkamera gemäß Anspruch 16, wobei das PMD-Pixel mit einer Referenzsignaleinheit gekoppelt ist, um das empfangene, modulierte Lichtsignal in den Basisbandbereich unter Verwendung eines Referenzsignals abwärts zu wandeln.
  18. Die Laufzeitkamera gemäß Anspruch 17, wobei die Referenzsignaleinheit ausgebildet ist, um eine Phase des Referenzsignals basierend auf einem vordefinierten Synchronisationssignal einzustellen, das in dem weiteren informationstragenden Signal enthalten ist.
  19. Laufzeitempfänger, umfassend: einen Laufzeitsensor, der ausgebildet ist, um ein informationstragendes Signal (116) zu detektieren, das in einem Lichtsignal (114) enthalten ist, das aus einer entfernten Lichtquelle emittiert wird.
  20. Der Laufzeitempfänger gemäß Anspruch 19, wobei der Laufzeitempfänger in einer Laufzeitkamera (100) enthalten ist und/oder wobei das informationstragende Signal (116) nützliche Informationen aus einer entfernten Laufzeitkamera aufweist.
  21. System, umfassend: eine erste Laufzeitkamera mit einer Beleuchtungseinheit (110), die ausgebildet ist, um Informationen zu einer zweiten Laufzeitkamera durch Modulieren eines zu emittierenden Lichtsignals (114) gemäß einem informationstragenden Signal (116) zu übertragen; und eine zweite Laufzeitkamera mit einem Laufzeitsensor, der ausgebildet ist, um das informationstragende Signal (116) zu erfassen, das in dem emittierten Lichtsignal (114) der ersten Laufzeitkamera enthalten ist.
DE102014118893.4A 2013-12-20 2014-12-17 Austauschen von Informationen zwischen Laufzeit-Entfernungsmessgeräten Pending DE102014118893A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/136,257 2013-12-20
US14/136,257 US10291329B2 (en) 2013-12-20 2013-12-20 Exchanging information between time-of-flight ranging devices

Publications (1)

Publication Number Publication Date
DE102014118893A1 true DE102014118893A1 (de) 2015-07-09

Family

ID=53401294

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014118893.4A Pending DE102014118893A1 (de) 2013-12-20 2014-12-17 Austauschen von Informationen zwischen Laufzeit-Entfernungsmessgeräten

Country Status (3)

Country Link
US (1) US10291329B2 (de)
CN (1) CN104730536B (de)
DE (1) DE102014118893A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3293046A1 (de) * 2016-09-12 2018-03-14 Fahrzeugwerk Bernard Krone GmbH & Co. KG Fahrzeugaufbau
DE102018120977A1 (de) * 2018-08-28 2020-03-05 Basler Ag Reduzierung gegenseitiger Störungen für Reflexionssignalverarbeitungsvorrichtungen
EP3712639A1 (de) * 2019-03-21 2020-09-23 Infineon Technologies AG Gleichzeitige datenübertragung und tiefenbildaufzeichnung mit flugzeitkameras

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014136110A1 (en) * 2013-03-05 2014-09-12 Shilat Optical Systems Ltd Free space optical communication system
US9336584B2 (en) * 2014-06-30 2016-05-10 Trimble Navigation Limited Active imaging systems for plant growth monitoring
WO2017058947A1 (en) * 2015-09-28 2017-04-06 Red Balloon Security, Inc. Injectable hardware and software attestation of sensory input data
US10872169B2 (en) 2015-09-28 2020-12-22 Red Balloon Security, Inc. Injectable hardware and software attestation of sensory input data
US10397546B2 (en) * 2015-09-30 2019-08-27 Microsoft Technology Licensing, Llc Range imaging
US11067691B2 (en) 2015-11-13 2021-07-20 Ams Sensors Singapore Pte. Ltd. Acquisition of distance data with optical ranging systems
US10311232B2 (en) 2015-11-17 2019-06-04 Red Balloon Security, Inc. Embedded systems monitoring systems and methods
EP3185039B1 (de) * 2015-12-23 2021-09-08 STMicroelectronics (Research & Development) Limited Vorrichtung und verfahren zur entfernungsbestimmung und kommunikation
US10523923B2 (en) 2015-12-28 2019-12-31 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10462452B2 (en) * 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10810753B2 (en) * 2017-02-27 2020-10-20 Microsoft Technology Licensing, Llc Single-frequency time-of-flight depth computation using stereoscopic disambiguation
US11092674B2 (en) * 2017-07-13 2021-08-17 Texas Instruments Incorporated Transmit signal design for an optical distance measurement system
DE102017128369A1 (de) * 2017-11-30 2019-06-06 Infineon Technologies Ag Vorrichtung und verfahren zum lokalisieren eines ersten bauelements, lokalisierungsvorrichtung und verfahren zur lokalisierung
EP3726249B1 (de) * 2017-12-15 2024-05-15 NEC Corporation Vorrichtung zur entfernungsmessung und steuerverfahren
AU2018387716B2 (en) 2017-12-20 2024-05-23 Intervet International B.V. Method and system for external fish parasite monitoring in aquaculture
CA3084304A1 (en) 2017-12-20 2019-06-27 Intervet International B.V. System for external fish parasite monitoring in aquaculture
US11632939B2 (en) * 2017-12-20 2023-04-25 Intervet Inc. System for external fish parasite monitoring in aquaculture
AU2018387713A1 (en) * 2017-12-20 2020-06-11 Intervet International B.V. System for external fish parasite monitoring in aquaculture
TWI828695B (zh) * 2018-07-27 2024-01-11 日商索尼半導體解決方案公司 受光裝置及測距裝置
EP3667362A1 (de) * 2018-12-10 2020-06-17 Infineon Technologies AG Verfahren und vorrichtungen zur bestimmung von rotationsparametern zur umrechnung zwischen koordinatensystemen
CN111885322B (zh) * 2019-05-02 2022-11-22 广州印芯半导体技术有限公司 具有距离感测功能的图像传感器及其操作方法
US20200348415A1 (en) * 2019-05-02 2020-11-05 Guangzhou Tyrafos Semiconductor Technologies Co., Ltd Time of flight ranging module, operating method thereof, and multimedia system
CN113541792B (zh) * 2020-04-21 2022-08-19 北京小米移动软件有限公司 数据传输方法及装置、移动终端及存储介质

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5920288A (en) * 1995-06-07 1999-07-06 Parkervision, Inc. Tracking system and method for controlling the field of view of a camera
US20040051785A1 (en) * 1997-06-06 2004-03-18 Nikon Corporation Electronic camera having a communication function
US6323980B1 (en) * 1998-03-05 2001-11-27 Air Fiber, Inc. Hybrid picocell communication system
GB0000908D0 (en) * 2000-01-14 2000-03-08 Scient Generics Ltd Parallel free-space optical communications
US6826371B1 (en) * 2000-06-15 2004-11-30 Northrop Grumman Corporation Variable rate DPSK system architecture
EP1330869A1 (de) * 2000-10-16 2003-07-30 SCHWARTE, Rudolf Verfahren und vorrichtung zur erfassung und verarbeitung von signalwellen
RU2178954C1 (ru) * 2001-03-01 2002-01-27 Септре Коммуникейшинс Лимитед Беспроводная дуплексная оптическая система связи
JP3671881B2 (ja) * 2001-07-18 2005-07-13 ソニー株式会社 通信システムおよび方法、情報処理装置および方法、通信端末および方法、拡張装置、並びにプログラム
US7046292B2 (en) * 2002-01-16 2006-05-16 Hewlett-Packard Development Company, L.P. System for near-simultaneous capture of multiple camera images
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7248802B2 (en) * 2002-11-27 2007-07-24 Nokia Corporation Distribution of a synchronization signal in an optical communication system
US7603045B2 (en) * 2003-08-28 2009-10-13 Fujitsu Limited Method and system for automatic feedback control for fine tuning a delay interferometer
JP2005323044A (ja) * 2004-05-07 2005-11-17 Uniden Corp 画像送信装置及び画像受信装置
JP2006080642A (ja) * 2004-09-07 2006-03-23 Sony Corp 情報処理装置および方法、プログラム並びに記録媒体
US7961717B2 (en) * 2005-05-12 2011-06-14 Iposi, Inc. System and methods for IP and VoIP device location determination
JP4689412B2 (ja) * 2005-08-31 2011-05-25 京セラ株式会社 送信装置及び通信システム
US8582973B2 (en) * 2005-09-13 2013-11-12 Nikon Corporation Data communication apparatus, electronic camera, and data communication system
JP4643403B2 (ja) * 2005-09-13 2011-03-02 株式会社東芝 可視光通信システム及びその方法
JP4325604B2 (ja) * 2005-09-30 2009-09-02 日本電気株式会社 可視光制御装置、可視光通信装置、可視光制御方法及びプログラム
US8242476B2 (en) * 2005-12-19 2012-08-14 Leddartech Inc. LED object detection system and method combining complete reflection traces from individual narrow field-of-view channels
US7817924B2 (en) * 2006-03-24 2010-10-19 The Mitre Corporation Rate adjustable differential phase shift key (DPSK) modulation
KR100856194B1 (ko) * 2006-11-30 2008-09-03 삼성전자주식회사 가시광 통신을 이용한 통신 링크 연결방법
JP2008227944A (ja) * 2007-03-13 2008-09-25 Toshiba Corp 可視光通信の受信装置及び可視光通信システム
US8953647B1 (en) * 2007-03-21 2015-02-10 Lockheed Martin Corporation High-power laser using thulium-doped fiber amplifier and frequency quadrupling for blue output
JP2009027525A (ja) * 2007-07-20 2009-02-05 Nec Corp 光伝送システムおよび光伝送方法
KR101376375B1 (ko) * 2007-07-20 2014-03-20 한국과학기술원 가시광 통신을 이용한 무선 랜 시스템에서 모바일 노드의상태 표시 방법 및 이를 위한 장치
US8629976B2 (en) * 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
WO2009049887A1 (de) * 2007-10-16 2009-04-23 I F M Electronic Gmbh Verfahren und vorrichtung zur abstandsbestimmung
CN101459638B (zh) * 2007-12-14 2012-03-21 华为技术有限公司 差分正交相移键控dqpsk信号的接收装置及方法
DE202007017639U1 (de) 2007-12-18 2008-03-27 Pepperl + Fuchs Gmbh Optischer Sensor zum Nachweis von Objekten
US8334893B2 (en) * 2008-11-07 2012-12-18 Honeywell International Inc. Method and apparatus for combining range information with an optical image
US8165472B2 (en) * 2009-02-19 2012-04-24 Kabushiki Kaisha Toshiba Apparatus for transmitting and receiving a signal in a visible light communication system
US20100247112A1 (en) * 2009-03-31 2010-09-30 Soo-Young Chang System and Method for Visible Light Communications
DE102009023896B4 (de) * 2009-06-04 2015-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erfassen einer Pflanze
EP3009859B1 (de) * 2009-06-26 2021-09-08 Trimble AB Entfernungsmessvorrichtung
EP2275990B1 (de) * 2009-07-06 2012-09-26 Sick Ag 3D-Sensor
US8803967B2 (en) * 2009-07-31 2014-08-12 Mesa Imaging Ag Time of flight camera with rectangular field of illumination
US8712254B2 (en) * 2009-08-27 2014-04-29 Broadcom Corporation Electronic dispersion compensation within optical communications using reconstruction
CN101667983A (zh) * 2009-09-16 2010-03-10 华为技术有限公司 调制信号的产生方法和传输设备
EP2302564A1 (de) * 2009-09-23 2011-03-30 Iee International Electronics & Engineering S.A. Dynamische Echtzeitreferenzbilderzeugung für ein Entfernungsbildgebungssystem
WO2011119897A2 (en) * 2010-03-24 2011-09-29 Massachusetts Institute Of Technology Phase shift keyed optical communications
DE102010003843A1 (de) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Entfernungsmessgerät mit homogenisierender Messauswertung
EP2378310B1 (de) * 2010-04-15 2016-08-10 Rockwell Automation Safety AG Flugzeit-Kamerasystem und optisches Überwachungssystem
KR101666854B1 (ko) * 2010-06-14 2016-10-17 삼성전자주식회사 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
US8325332B2 (en) * 2010-07-30 2012-12-04 Corning Incorporated Start-up methods for frequency converted light sources
US9857469B2 (en) * 2010-10-22 2018-01-02 Heptagon Micro Optics Pte. Ltd. System and method for multi TOF camera operation using phase hopping
WO2012070250A1 (ja) * 2010-11-25 2012-05-31 パナソニック株式会社 通信機器
US8384584B2 (en) * 2010-12-10 2013-02-26 Roundtrip Llc Reduced computation communication techniques for location systems
US20120157159A1 (en) * 2010-12-17 2012-06-21 Electronics And Telecommunications Research Institute Communication apparatus using image sensor and error correction method
FR2969766B1 (fr) * 2010-12-27 2013-05-10 Thales Sa Procede de synchronisation de systemes optroniques et ensemble de systemes optroniques synchronises selon ce procede
EP2477043A1 (de) * 2011-01-12 2012-07-18 Sony Corporation 3D-Flugzeitkamera und Verfahren
CN103477644B (zh) * 2011-02-04 2017-04-12 皇家飞利浦电子股份有限公司 记录图像和从图像获得3d信息的方法、相机系统
US8954024B2 (en) * 2011-03-31 2015-02-10 Chien-Cheng Tung Full duplex wireless method and apparatus
US20120269520A1 (en) * 2011-04-19 2012-10-25 Hong Steve M Lighting apparatuses and led modules for both illumation and optical communication
DE102011081561A1 (de) * 2011-08-25 2013-02-28 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem mit Signalpfadüberwachung
US9239386B2 (en) 2011-10-05 2016-01-19 Infineon Technologies Ag Sonic sensors and packages
US9341464B2 (en) * 2011-10-17 2016-05-17 Atlas5D, Inc. Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
US9628843B2 (en) 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9190540B2 (en) 2011-12-21 2015-11-17 Infineon Technologies Ag Photo cell devices for phase-sensitive detection of light signals
US20130177322A1 (en) * 2012-01-09 2013-07-11 Google Inc. Establishing Optical-Communication Lock with Nearby Balloon
US9325920B2 (en) * 2012-01-10 2016-04-26 Softkinetics Sensors Nv Processing of time-of-flight signals
CN104081528B (zh) * 2012-01-10 2017-03-01 软动力学传感器公司 多光谱传感器
KR101974366B1 (ko) * 2012-02-10 2019-05-03 삼성전자주식회사 디지털 정보 디스플레이 장치에서 영상 내 각 객체에 대한 부가 정보를 제공하기 위한 방법 및 이를 위한 디지털 정보 디스플레이 장치 그리고 상기 부가 정보를 제공받는 가시광 통신 단말
TWI467935B (zh) * 2012-03-06 2015-01-01 Ind Tech Res Inst 可見光通訊收發器與系統
US9450671B2 (en) * 2012-03-20 2016-09-20 Industrial Technology Research Institute Transmitting and receiving apparatus and method for light communication, and the light communication system thereof
US8873965B2 (en) * 2012-04-10 2014-10-28 Disney Enterprises, Inc. Visible light communication with flickering prevention
CN104205677B (zh) * 2012-04-13 2017-08-25 飞利浦灯具控股公司 用于可见光通信的方法和装置
DE102012206212A1 (de) * 2012-04-16 2013-10-17 Robert Bosch Gmbh Verfahren zur Bestimmung der Orientierung mindestens einer Fahrschiene eines Messplatzes und Vorrichtung zur Durchführung des Verfahrens
DE102013207649A1 (de) * 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102012208995B4 (de) * 2012-05-29 2017-12-07 pmdtechnologies ag Lichtlaufzeitkamerasystem mit Datenkanal
US9232505B2 (en) * 2012-07-10 2016-01-05 Electronics And Telecommunications Research Institute Method of generating packet, method of transmitting packet, and method of ranging of physical layer transmitter of wireless personal area network system
KR102003496B1 (ko) * 2013-03-06 2019-10-01 삼성전자주식회사 이미지 센서 및 이미지 픽업 장치
US9641806B2 (en) * 2013-03-12 2017-05-02 3M Innovative Properties Company Average speed detection with flash illumination
EP2835973B1 (de) * 2013-08-06 2015-10-07 Sick Ag 3D-Kamera und Verfahren zur Erfassung von dreidimensionalen Bilddaten

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3293046A1 (de) * 2016-09-12 2018-03-14 Fahrzeugwerk Bernard Krone GmbH & Co. KG Fahrzeugaufbau
DE102016010881A1 (de) 2016-09-12 2018-03-15 Fahrzeugwerk Bernard Krone GmbH & Co. KG Fahrzeugaufbau
EP3293046B1 (de) 2016-09-12 2020-07-15 Fahrzeugwerk Bernard Krone GmbH & Co. KG Fahrzeugaufbau
DE102018120977A1 (de) * 2018-08-28 2020-03-05 Basler Ag Reduzierung gegenseitiger Störungen für Reflexionssignalverarbeitungsvorrichtungen
EP3712639A1 (de) * 2019-03-21 2020-09-23 Infineon Technologies AG Gleichzeitige datenübertragung und tiefenbildaufzeichnung mit flugzeitkameras
US11681025B2 (en) 2019-03-21 2023-06-20 Infineon Technologies Ag Simultaneous data transmission and depth image recording with time-of-flight cameras

Also Published As

Publication number Publication date
US10291329B2 (en) 2019-05-14
US20150180581A1 (en) 2015-06-25
CN104730536B (zh) 2018-05-01
CN104730536A (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
DE102014118893A1 (de) Austauschen von Informationen zwischen Laufzeit-Entfernungsmessgeräten
DE102017105142B4 (de) Laufzeit-Bilderzeugungsvorrichtungen und ein Verfahren zum Anpassen einer Referenzfrequenz
DE112015003407T5 (de) Unsichtbare optische Kennung zur Übermittlung von Informationen zwischen Rechenvorrichtungen
EP2917762B1 (de) Aufnahmeverfahren für zumindest zwei tof-kameras
KR101756910B1 (ko) 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
DE102012109129B4 (de) Sensor-Pixelanordnung und getrennte Anordnung einer Speicherung und Akkumulation mit parallelem Erfassen und Auslesen
DE112018001383T5 (de) Systeme und verfahren zum schätzen des ankunftswinkel in einer drahtlosen vorrichtung
DE102015207220A1 (de) Verfahren zur Erzeugung eines Geheimnisses oder eines Schlüssels in einem Netzwerk
DE112015006244T5 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
CN106572339B (zh) 一种图像采集器和图像采集系统
EP3489712B1 (de) Radarsystem und verfahren zum betreiben eines radarsystems
DE102009046108B4 (de) Kamerasystem
WO2013072316A2 (de) Positionsbestimmung eines objekts mittels erfassung eines positionsmusters durch optischen sensor
DE102016106511A1 (de) Parametrische Online-Kalibrierung und Kompensation bei der TOF-Bilderzeugung
DE102011089629A1 (de) Lichtlaufzeitkamera
EP2019281A1 (de) 3D-Sensor und Verfahren zum Betrieb eines 3D-Sensors
DE102015105161A1 (de) Eine Vorrichtung und ein Verfahren zum Detektieren einer Bewegung eines Objekts in einem Zielraum
DE112020000248T5 (de) Verfahren zum senden/empfangen von daten in einem drahtloskommunikationssystem und vorrichtung dafür
DE102018115764A1 (de) Positionsbestimmungsvorrichtung und -verfahren
DE102013111531A1 (de) Vorrichtung zur raumfilterung unter verwendung eines sendeverzögerungsunterschieds von signalen und verfahren für selbiges
WO2013178448A1 (de) Lichtlaufzeitkamerasystem mit datenkanal
EP1537391B1 (de) Verfahren und vorrichtung zur ermittlung eines pixel-grauwertbildes
EP4231547A1 (de) Verfahren und system zur datenübertragung
DE102014114492A1 (de) Tag-Sendevorrichtung und Signalsendeverfahren dafür
DE102020215039A1 (de) LiDAR-Sensorsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication