DE102020203150A1 - System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen - Google Patents

System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen Download PDF

Info

Publication number
DE102020203150A1
DE102020203150A1 DE102020203150.9A DE102020203150A DE102020203150A1 DE 102020203150 A1 DE102020203150 A1 DE 102020203150A1 DE 102020203150 A DE102020203150 A DE 102020203150A DE 102020203150 A1 DE102020203150 A1 DE 102020203150A1
Authority
DE
Germany
Prior art keywords
photon
groups
group
illumination
designed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020203150.9A
Other languages
English (en)
Inventor
Dominik Walter
Carsten Pitsch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Karlsruher Institut fuer Technologie KIT
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Karlsruher Institut fuer Technologie KIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV, Karlsruher Institut fuer Technologie KIT filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102020203150.9A priority Critical patent/DE102020203150A1/de
Priority to EP21711542.7A priority patent/EP4118458A2/de
Priority to PCT/EP2021/056087 priority patent/WO2021180807A2/de
Publication of DE102020203150A1 publication Critical patent/DE102020203150A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming

Abstract

Ein System zur Erzeugung einer Aufnahme eines Objekts (104), um eine Darstellung des Objekts (104) zu erzeugen, wird bereitgestellt. Das System umfasst eine Photonenquelle (101) zur Ausgabe einer Mehrzahl von Photonengruppen, wobei jede Photonengruppe der Mehrzahl der Photonengruppen miteinander korrelierte Photonen umfasst, wobei die miteinander korrelierten Photonen mindestens ein Referenzphoton und mindestens ein Beleuchtungsphoton umfassen. Des Weiteren umfasst das System ein Trennsystem (102) zur Trennung des mindestens einen Referenzphotons und des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen. Ferner umfasst das System eine erste Detektoreinheit (107) zur Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen. Des Weiteren umfasst das System eine zweite Detektoreinheit (108) zur Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, nachdem das mindestens eine Beleuchtungsphoton an dem Objekt (104) reflektiert oder von dem Objekt (104) gestreut wurde oder eine Ebene, in der sich das Objekt (104) befindet, transmittiert hat. Ferner umfasst das System eine Verarbeitungseinheit (110) zur Erzeugung der Darstellung des Objekts (104) abhängig von der Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die erste Detektoreinheit (107) und abhängig von der Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die zweite Detektoreinheit (108).

Description

  • Die Anmeldung betrifft ein System und ein Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen.
  • Aus dem Stand der Technik ist ein Quantum Ghost Imaging Aufbau bekannt (siehe [1]). Dabei wird die zeitliche Verknüpfung beider Photonen ausgenutzt, indem die Detektion des Beleuchtungsphotons als Trigger des Detektors für das Referenzphoton fungiert, wobei das Referenzphoton unter Verwendung einer bilderhaltenden optischen Verzögerungsstrecke verspätet detektiert wird, um eine Koinzidenzdetektion zu ermöglichen. Durch die Korrelation der Emissionswinkel der Photonen und deren Erzeugung am gleichen Ort kann die Bildinformation des Beleuchtungsphotons aus der Bildinformation des Referenzphotons rekonstruiert werden.
  • Der erste Aufbau zu Quanten Ghost Imaging entstand 1995. Eine technische Besonderheit aktuell verfügbarer Einzelphotonendetektoren (z.B. Single Photon Avalanche Diode, „SPAD“) ist, dass sie nach einer Detektion eine Totzeit besitzen, in der sie nichts detektieren können. Für Quanten Ghost Imaging wird in einem der beiden Arme ein räumlich auflösender Detektor benötigt, der eine möglichst hohe Auflösung besitzen soll, aber auch eine möglichst hohe Quanteneffizienz besitzen soll, um einzelne Photonen pixelaufgelöst nachweisen zu können. Da in Vergangenheit noch keine SPADs mit guter räumlicher Auflösung vorhanden waren wurde dieser Anspruch bisher durch hochsensitive CCD-Kameras erfüllt (siehe [1]), deren Totzeiten aber sehr hoch waren. Solche Kameras können aber extern getriggert werden, um für ein auf den Trigger folgendes Zeitfenster aufnahmebereit zu sein. Um die Wahrscheinlichkeit von Koinzidenzdetektionen der Photonen eines Photonenpaares zu erhöhen wurden in bisherigen Aufbauten die Detektoren beider Arme miteinander synchronisiert, d.h. die Detektion eines Detektors triggert die Detektionsbereitschaft des zweiten Detektors.
  • Allerdings benötigt es relativ viel Zeit, bis das Triggersignal nach der Detektion des ersten Detektors zum zweiten Detektor übertragen wird, und bis der zweite Detektor daraufhin für eine Aufnahme scharfgeschaltet werden kann. Der noch zu detektierende Photonenpartner muss während diesem Zeitraum optisch verzögert werden (siehe [1]).
  • Ein weiterer Nachteil dieser technologischen Lösung ist, dass keine Aufnahmen mit räumlicher Tiefe erhalten werden können, da die erlaubte Flugzeitdifferenz der Photonen eines Photonenpaares durch den Aufbau von Anfang an festgelegt ist. Dadurch ist dieses Verfahren nicht zur Fernerkundung und Tomographie geeignet, da es auf vorausgehende Informationen bezüglich der Entfernungen angewiesen ist und nur zweidimensionale Informationen liefert.
  • Aufgrund technologischer Weiterentwicklungen der SPAD-Technologie, ist es möglich, die Photonen in beiden Armen des Ghost Imaging Aufbaus ganz unabhängig, asynchron, zu detektieren. Dadurch ist es möglich, die komplette Information der räumlichen Tiefe der beleuchteten Szene zu erhalten.
  • Der Quantum Ghost Imaging Aufbau in [2] ist allgemeiner beschrieben und beinhaltet eine unabhängige Detektion des Beleuchtungsphotons und Referenzphotons und der im Anschluss daran erfolgenden Rekonstruktion der Bildinformation. Jedoch wird die Methodik der Bildrekonstruktion nicht näher spezifiziert. Ferner existieren im Stand der Technik grundsätzlich keine Lösungen für einen 3D-Bildrekonstruktionsalgorithmus.
  • Wünschenswert wäre es, verbesserte Konzepte zur Bildrekonstruktion mit einzelnen Photonen bereitzustellen.
  • Ein System nach Anspruch 1, ein Verfahren nach Anspruch 27 und ein Computerprogramm nach Anspruch 28 werden bereitgestellt.
  • Ein System zur Erzeugung einer Aufnahme eines Objekts, um eine Darstellung des Objekts zu erzeugen, wird bereitgestellt. Das System umfasst eine Photonenquelle zur Ausgabe einer Mehrzahl von Photonengruppen, wobei jede Photonengruppe der Mehrzahl der Photonengruppen miteinander korrelierte Photonen umfasst, wobei die miteinander korrelierten Photonen mindestens ein Referenzphoton und mindestens ein Beleuchtungsphoton umfassen. Des Weiteren umfasst das System ein Trennsystem zur Trennung des mindestens einen Referenzphotons und des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen. Ferner umfasst das System eine erste Detektoreinheit zur Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen. Des Weiteren umfasst das System eine zweite Detektoreinheit zur Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, nachdem das mindestens eine Beleuchtungsphoton an dem Objekt reflektiert oder von dem Objekt gestreut wurde oder eine Ebene, in der sich das Objekt befindet, transmittiert hat. Ferner umfasst das System eine Verarbeitungseinheit zur Erzeugung der Darstellung des Objekts abhängig von der Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die erste Detektoreinheit und abhängig von der Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die zweite Detektoreinheit.
  • Des Weiteren wird ein Verfahren zur Erzeugung einer Aufnahme eines Objekts bereitgestellt, um eine Darstellung des Objekts zu erhalten. Das Verfahren umfasst:
    • - Ausgeben einer Mehrzahl von Photonengruppen, wobei jede Photonengruppe der Mehrzahl der Photonengruppen miteinander korrelierte Photonen umfasst, wobei die miteinander korrelierten Photonen mindestens ein Referenzphoton und mindestens ein Beleuchtungsphoton umfassen.
    • - Trennen des mindestens einen Referenzphotons und des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen.
    • - Detektieren des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen.
    • - Detektieren des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, nachdem das mindestens eine Beleuchtungsphoton an dem Objekt reflektiert oder von dem Objekt gestreut wurde oder eine Ebene, in der sich das Objekt befindet, transmittiert hat. Und:
    • - Erzeugen der Darstellung des Objekts abhängig von der Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen und abhängig von der Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen.
  • Ferner wird ein Computerprogramm mit einem Programmcode zur Durchführung des oben beschriebenen Verfahrens bereitgestellt.
  • Nachfolgend werden bevorzugte Ausführungsformen der Erfindung unter Bezugnahme auf die Zeichnungen beschrieben.
  • In den Zeichnungen ist dargestellt:
    • 1 zeigt beispielhaft ein System zur Realisierung eines Aufbaus mit SPDC-Quelle in Reflexion mit asynchroner Detektion gemäß einer Ausführungsform (SPDC = spontaneous parametric down-conversion; deutsch: parametrische Fluoreszenz).
    • 2 zeigt beispielhaft ein System zur Realisierung eines Aufbaus mit SPDC-Quelle in Transmission mit asynchroner Detektion gemäß einer weiteren Ausführungsform.
    • 3 zeigt ein beispielhaftes System zur Realisierung eines Aufbaus mit FWM-Quelle in Reflexion mit Detektoren an Zeitaufnahme-Gerät gemäß einer weiteren Ausführungsform (FWM = Four Wave mixing; deutsch: Vier-Wellen-Mischung).
    • 4 zeigt ein Beispiel der Funktionsweise einer speziellen Implementierung eines Optimierungsalgorithmus anhand eines evolutionären Algorithmus gemäß einer weiteren Ausführungsform.
    • 5 zeigt ein Beispiel der Topologie eines neuronalen Netzwerks/neuronalen Netzes.
  • 1 zeigt ein System zur Erzeugung einer Aufnahme eines Objekts 104, um eine Darstellung des Objekts 104 zu erzeugen, gemäß einer Ausführungsform. Es versteht sich, dass das Objekt 104 kein Teil des Systems zur Erzeugung einer Aufnahme des Objekts 104 ist. Vielmehr ist das System zur Erzeugung einer Aufnahme des Objekts 104 geeignet.
  • Das System umfasst eine Photonenquelle 101 zur Ausgabe einer Mehrzahl von Photonengruppen, wobei jede Photonengruppe der Mehrzahl der Photonengruppen miteinander korrelierte Photonen umfasst, wobei die miteinander korrelierten Photonen mindestens ein Referenzphoton und mindestens ein Beleuchtungsphoton umfassen. Weitere Beispiele für Photonenquellen sind Photonenquelle 201 in 2 und Photonenquelle 301 in 3. Dabei ist z.B. das mindestens eine Beleuchtungsphoton mit dem mindestens einen Referenzphoton korreliert.
  • Des Weiteren umfasst das System ein Trennsystem 102 zur Trennung des mindestens einen Referenzphotons und des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen. Weitere Beispiele für Trennsysteme sind Trennsystem 202 in 2 und Trennsystem 302 in 3.
  • Ferner umfasst das System eine erste Detektoreinheit 107 zur Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen. Weitere Beispiele für eine erste Detektoreinheit sind Detektoreinheit 208 in 2 und Detektoreinheit 307 in 3.
  • Des Weiteren umfasst das System eine zweite Detektoreinheit 108 zur Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, nachdem das mindestens eine Beleuchtungsphoton an dem Objekt 104 reflektiert oder von dem Objekt 104 gestreut wurde oder eine Ebene, in der sich das Objekt 104 befindet, transmittiert hat. Weitere Beispiele für eine zweite Detektoreinheit sind Detektoreinheit 206 in 2 und Detektoreinheit 308 in 3. Eine Detektoreinheit kann dabei einen Detektor aufweisen (wie Detektoreinheit 206 in 2) oder mehrere Detektoren aufweisen (wie Detektoreinheit 308 in 3), wobei mehrere Detektoren dabei räumlich zusammen oder räumlich voneinander getrennt realisiert sein können.
  • Ferner umfasst das System eine Verarbeitungseinheit 110 zur Erzeugung der Darstellung des Objekts 104 abhängig von der Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die erste Detektoreinheit 107 und abhängig von der Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die zweite Detektoreinheit 108. Weitere Beispiele für eine Verarbeitungseinheit sind Verarbeitungseinheit 210 in 2 und Detektoreinheit 310 in 3.
  • Weitere Beispiele für ein (z.B. aufzunehmendes oder zu erfassendes) Objekt finden sich mit Objekt 204 in 2 und mit Objekt 304 in 3.
  • In einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 des Weiteren z.B. ein System zur Synchronisation 209; 309 umfassen. Ein solches System zur Synchronisation 209; 309 ist beispielsweise in 2 und in 3 gezeigt. Das System zur Synchronisation 209; 309 kann z.B. die erste Detektoreinheit 107; 208; 307 mit der zweiten Detektoreinheit 108; 206; 308 zeitlich synchronisieren oder die Detektion beider Einheiten auf eine gemeinsame, referenzierbare Zeitbasis beziehen, um eine referenzierbare Detektion der individuellen Photonen der Photonengruppe zu erhalten und der Verarbeitungseinheit 110; 210; 310 zu übergeben. Die Verarbeitungseinheit 110; 210; 310 kann dabei z.B. ausgebildet sein, die Darstellung des Objekts 104; 204; 304 abhängig von der referenzierbaren Detektion von jeder der Photonengruppen zu erzeugen.
  • Gemäß einem Ausführungsbeispiel können z.B. für jede Photonengruppe der Mehrzahl der Photonengruppen das mindestens eine Referenzphoton der Photonengruppe und das mindestens eine Beleuchtungsphoton der Photonengruppe verschränkt sein.
  • In einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 des Weiteren z.B. ein optisches System 207; 305 zur Verbesserung der Abbildung des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen von dem Trennsystem 102; 202; 302 auf die erste Detektoreinheit 107; 208; 307 aufweisen. Ein solches optisches System 207; 305 ist beispielsweise in 2 und in 3 gezeigt.
  • Gemäß einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 des Weiteren z.B. ein optisches System 203; 303 zur Verbesserung der Abbildung des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen von dem Trennsystem 102; 202; 302 auf das Objekt 104; 204; 304 aufweisen. Ein solches optisches System 203; 303 ist beispielsweise in 2 und in 3 gezeigt.
  • In einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 des Weiteren z.B. ein optisches System 205; 306 zur Verbesserung der Abbildung des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, das von dem Objekt 104; 304 reflektiert oder von dem Objekt 104; 204; 304 gestreut wurde oder das durch die Ebene, in der sich das Objekt 104; 204 befindet, transmittiert ist, auf die zweite Detektoreinheit aufweisen. Ein solches optisches System 205; 306 ist beispielsweise in 2 und in 3 gezeigt.
  • Gemäß einer Ausführungsform kann die Photonenquelle 101; 201; 301 z.B. ausgebildet sein, für jede Photonengruppe der Mehrzahl der Photonengruppen, das mindestens eine Beleuchtungsphoton der Photonengruppe und das mindestens eine Referenzphoton der Photonengruppe räumlich und/oder zeitlich zufällig oder pseudozufällig zu erzeugen.
  • In einer Ausführungsform kann die Photonenquelle 101; 201; 301 z.B. ausgebildet sein, für jede Photonengruppe der Mehrzahl der Photonengruppen, das mindestens eine Beleuchtungsphoton der Photonengruppe und das mindestens eine Referenzphoton der Photonengruppe zeitlich zufällig oder pseudozufällig nur innerhalb eines ausgewählten Zeitfensters zu erzeugen, indem die Erzeugung außerhalb des Zeitfenster verhindert wird. Beispielsweise kann das Zeitfenster von einer vordefinierten Bildtiefe oder von Parametern der Detektoren abhängen.
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, eine Bewertung vorzunehmen, die abhängt von einer erhaltenen Oberflächenstruktur des Objekts 104; 204; 304, und/oder einer erhaltenen Helligkeit der erhaltenen Oberflächenstruktur des Objekts 104; 204; 304, und/oder einer Dichte von erhaltenen Oberflächenvoxeln des Objekts 104; 204; 304, und/oder einer zu der Dichte der erhaltenen Oberflächenvoxeln zugehörigen Helligkeitsverteilung. Ein einzelner Oberflächenvoxel ist dabei im Dreidimensionalen z.B. durch seine kartesischen Koordinaten x, y und z definiert.
  • In einer Ausführungsform kann die Mehrzahl der Photonengruppen z.B. eine erste Menge von Photonengruppen sein, die Bewertung kann z.B. eine erste Bewertung sein, und die Photonenquelle 101; 201; 301 kann z.B. ausgebildet sein, wenn die erste Bewertung ein vordefiniertes Kriterium nicht erfüllt und/oder einen vordefinierten Schwellwert nicht überschreitet, ein oder mehrere weitere Mengen von Photonengruppen auszugeben, die sich z.B. voneinander und von der ersten Menge der Photonengruppen unterscheiden können, bis eine weitere Bewertung von ein oder mehreren weiteren Bewertungen, zu deren Bestimmung die Verarbeitungseinheit 110; 210; 310 ausgebildet ist, das vordefinierte Kriterium erfüllt oder den vordefinierten Schwellwert überschreitet. Beispielsweise kann durch eine Änderung der Temperatur des Kristalls das Spektrum modifiziert werden, durch mehr Pumpleistung können z.B. mehr Photonengruppen/sec erzeugt werden, durch Änderung der Pump-Fokussierung kann z.B. die Verteilung beeinflusst werden.
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, jede der ein oder mehreren weiteren Bewertungen abhängig von einer weiteren erhaltenen Oberflächenstruktur des Objekts 104; 204; 304, und/oder einer weiteren erhaltenen Helligkeit der weiter erhaltenen Oberflächenstruktur des Objekts 104; 204; 304, und/oder einer weiteren Dichte von weiter erhaltenen Oberflächenvoxeln des Objekts 104; 204; 304, und/oder einer zu der weiteren Dichte der weiter erhaltenen Oberflächenvoxeln zugehörigen weiteren Helligkeitsverteilung zu bestimmen.
  • In einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 z.B. ein neuronales Netz umfassen. Ein Beispiel für ein entsprechendes neuronales Netz ist in 5 gezeigt.
  • Gemäß einer Ausführungsform kann das neuronale Netz z.B. ausgebildet sein, als Eingabedatensatz zum Training Detektionsorte und/oder Detektionszeiten einer Menge an Photonengruppen aus der Mehrzahl der Photonengruppen zu erhalten. Ferner kann das neuronale Netz z.B. ausgebildet sein, als Ausgabedatensatz zum Training Informationen über das Objekt zu erhalten.
  • Ziel der Datenauswertung ist z.B., die Photonen die zu einer Photonengruppe gehören (die also z.B. miteinander verschränkt sind, z.B. RA- und BA- Photonen) sicher zu bestimmen. Erst dann können alle Informationen richtig zugeordnet werden und echte Bildinformation erhalten werden. (RA-Photon steht für Referenzarm-Photon bzw. für Referenzphoton; BA-Photon steht für Beleuchtungsarm-Photon bzw. für Beleuchtungsphoton.)
  • In einer Ausführungsform kann es sich bei dem neuronalen Netz z.B. um ein einschichtiges feedforward-Netz oder z.B. um ein mehrschichtiges feedforward-Netz oder z.B. um ein rekurrentes Netz handeln.
  • In einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 z.B. ausgebildet sein, das neuronale Netz durch Neuroevolution zu erzeugen oder zu aktualisieren.
  • Gemäß einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 z.B. ausgebildet sein, als Lernverfahren des neuronalen Netzes überwachtes Lernen einzusetzen.
  • In einer Ausführungsform kann das System zur Erzeugung einer Aufnahme des Objekts 104; 204; 304 z.B. ausgebildet sein, als Bewertungskriterium für das überwachte Lernen zu vergleichen, inwieweit eine Rekonstruktion des Objekts zu dem Objekt ähnlich ist.
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, eine Entfernung zu dem Objekt zu bestimmen.
  • In einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, eine dreidimensionale Oberfläche des Objekts zu bestimmen.
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, ein Gradientenverfahren zur Erzeugung der Darstellung des Objekts einzusetzen.
  • In einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, eine Optimierungsheuristik zur Erzeugung der Darstellung des Objekts einzusetzen.
  • Gemäß einer Ausführungsform kann es sich bei der Darstellung des Objekts 104; 204; 304 z.B. um eine statische Darstellung des Objekts 104; 204; 304 handeln.
  • In einer Ausführungsform kann es sich bei der Darstellung des Objekts 104; 204; 304 z.B. um eine Darstellung des Objekts 104; 204; 304 in Bewegung über einen Zeitverlauf handeln.
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, einen Algorithmus einzusetzen, mit dem das Objekt 104; 204; 304, nachdem es erkannt wurde, verfolgt werden kann.
  • In einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, eine Objekterkennung in regelmäßigen Zeitabständen zu wiederholen
  • Gemäß einer Ausführungsform kann die Verarbeitungseinheit 110; 210; 310 z.B. ausgebildet sein, eine zeitliche Dynamik des Objekts zu bestimmen.
  • Im Folgenden werden spezifische Ausführungsbeispiele beschrieben.
  • 2 zeigt beispielhaft ein System zur Realisierung eines Aufbaus mit SPDC-Quelle in Transmission mit asynchroner Detektion gemäß einer weiteren Ausführungsform. In 2 sind die Detektoren synchronisiert um „globale“, referenzierbare Zeitstempel zu erhalten. Die Detektion selbst erfolgt allerdings asynchron/unabhängig
  • Insbesondere ist in 2 eine Quelle 201 von verschränkten Photonen dargestellt.
  • Das System der 2 weist des Weiteren ein System 202 zur Trennung der verschränkten Photonen auf. Bei einem solchen System kann es sich z.B. um einen dichroitischen Spiegel, einen polarisierenden Strahlteiler oder ähnliches handeln.
  • In 2 soll ein teilweise lichtdurchlässiges Objekt 204 abgebildet werden. Das System der 2 weist hierzu ein optisches System 203 zur Optimierung der Abbildung auf das Objekt 204 auf.
  • Des Weiteren umfasst das System der 2 einen Bucket Detektor 206 zur zeitlichen Detektion der Idler Photonen (Beleuchtungsphotonen). Ferner weist das System der 2 ein optisches System 205 zur Optimierung der Detektion des Bucket-Detektors 206 auf.
  • Ferner weist das System der 2 einen Detektor 208 zur zeitlichen und räumlichen Detektion der Signal-Photonen (Referenzphotönen) und ein optisches System 207 zur Optimierung der Abbildung auf den Signal-Arm-Detektor 208 auf.
  • Des Weiteren ist beim System der 2 ein System 209 zur Synchronisation von Bucket-Detektor und Signal-Arm-Detektor und eine Verarbeitungseinheit (z.B. Recheneinheit) 210 zur Bildrekonstruktion vorgesehen. Die Verarbeitungseinheit 210 ist dafür vorgesehen, das aufzunehmende Bild zu erzeugen.
  • 3 zeigt ein beispielhaftes System zur Realisierung eines Aufbaus mit FWM-Quelle in Reflexion mit Detektoren an Zeitaufnahme-Gerät gemäß einer weiteren Ausführungsform.
  • So weist das System der 3 eine FWM-Quelle 301 von verschränkten Photonen auf.
  • Das System der 3 weist des Weiteren wiederum ein System 302 zur Trennung der verschränkten Photonen auf (z.B. Dichroitischer Spiegel, polarisierender Strahlteiler oder ähnliches).
  • In 3 soll ein reflektierendes oder streuendes Objekt 304 abgebildet werden. Das System der 3 weist hierzu ein optisches System 303 zur Optimierung der Abbildung auf das Objekt 304 auf.
  • Des Weiterem weist das System der 3 ein oder mehrere (z.B. zwei oder mehrere) Bucket Detektoren 308 zur zeitlichen Detektion der Idler Photonen (Beleuchtungsphotonen) und ein oder mehrere optische Systeme 306 zur Optimierung der Detektion der ein oder mehreren Bucket-Detektoren 308 auf.
  • Ferner weist das System der 3 einen Detektor 307 zur zeitlichen und räumlichen Detektion der Signal-Photonen (Referenzphotonen) und ein optisches System 305 zur Optimierung der Abbildung auf den Signal-Arm-Detektor 307 auf.
  • Des Weiteren ist beim System der 3 ein System 309 zur zeitlichen Aufnahme und Synchronisation bzw. Referenzierung der Daten der ein oder mehreren Bucket-Detektoren 308 und des Signal-Arm-Detektors 307 vorgesehen, sowie eine Verarbeitungseinheit (z.B. Recheneinheit) 310 zur Bildrekonstruktion. Die Verarbeitungseinheit 310 ist dafür vorgesehen, das aufzunehmende Bild zu erzeugen.
  • 4 zeigt ein Beispiel der Funktionsweise einer speziellen Implementierung eines Optimierungsalgorithmus anhand eines evolutionären Algorithmus gemäß einer weiteren Ausführungsform.
  • So ist in 4 ein Datensatz 401 des Beleuchtungsarmes und ein Datensatz 402 des Referenzarmes dargestellt.
  • Ferner ist eine Zeitdifferenz 403 zu möglichen RA-Photonenpartnern für BA-Photon A und eine Zeitdifferenz 404 zu möglichen RA-Photonenpartnern für BA-Photon B illustriert.
  • Des Weiteren werden in 4 Positionsdaten 405 der möglichen Partner für Photon A und Positionsdaten 406 der möglichen Partner für Photon B gezeigt.
  • Ferner zeigt 4 ein BA-RA Photonenpaar A 407, das Bildvoxel A mit den Koordinaten (xA2, yA2, zA2) ergibt, und ein BA-RA Photonenpaar B 408, das Bildvoxel B mit den Koordinaten (xb1, yB1, zB1) ergibt.
  • Der restliche Datensatz 409 aller weiteren angenommenen Paarungen von BA- und RA-Photonen, die jeweils einen Bildvoxel ergeben, ist ebenfalls in 4 gezeigt.
  • Dieser Datensatz bildet die DNA eines evolutionären Algorithmus. Im Folgenden wird die Wolke aller Bildvoxel durch wiederholte Mutation, Bewertung und Selektion der angenommenen Paarungen so optimiert, dass die reale 3D-Szene möglichst gut rekonstruiert wird.
  • 5 zeigt ein Beispiel der Topologie eines neuronalen Netzwerks/neuronalen Netzes.
  • So ist in 5 eine Eingangsschicht 501 zur Eingabe der Daten dargestellt. Des Weiteren zeigt 5 eine versteckte Schicht 503 und eine Ausgangsschicht 504. Zwischen den Schichten des neuronalen Netzwerks existieren gewichtete Verbindungen 502.
  • Im Folgenden werden weitere Ausführungsformen beschrieben:
    • Ein erstes dieser weiteren Ausführungsbeispiele (nachfolgend als Beispiel 1 bezeichnet), kann als eine der nachfolgend beschriebenen Varianten, Variante a) oder Variante b) oder Variante c) realisiert sein.
  • Beispiel 1: Ein Verfahren zur Bilderstellung aus Daten eines Aufbaus zur räumlich und zeitlich aufgelösten Messung von Biphotonen (verschränkte Photonenpaare) wird bereitgestellt. Das Verfahren weist eine oder mehrere der folgenden Varianten und Verfahrensschritte auf:
    • Variante a) von Beispiel 1 erfolgt unter Verwendung eines Optimierungsalgorithmus. Variante a) umfasst:
      • a1) Eine zufallsbasierte Zuweisung von einer Anzahl von BA-Photonen zu RA-Photonen (= BA-RA Datenpaar) aus einem geeigneten Zeitfenster. Das Zeitfenster wird dabei so gewählt, dass es die gewünschte Bildtiefe abdeckt. Aus den räumlich aufgelösten Messdaten ergibt sich in Kombination mit der Zeitdifferenz von BA-Photon und dem zugewiesenen RA Photon ein Bildvoxel.
      • a2) Eine Objektbewertung der erhaltenen Oberflächenstruktur und deren Helligkeit bezüglich Erkennungsgrad des Objekts und Dichte der Oberflächenvoxel und die dazugehörige Helligkeitsverteilung.
      • a3) Eine Bestimmung der Dichteverteilung der Wolke aus Bildvoxeln, die durch die BA-RA Datenpaare definiert wird, und Bestimmung von Oberflächenvoxel anhand der Verteilung von Bildvoxeln.
      • a4) Eine Änderung der Zuweisung eines oder mehrerer BA-RA Datenpaare durch Neuwahl eines der beiden Datenpartnern. Dieser Schritt kann beim ersten Durchlauf ausgelassen werden
      • a5) Eine Wiederholung der Schritte a2) a3) und a4) durch einen Optimierungsalgorithmus, der darauf ausgerichtet ist in vielfachen Durchläufen die Objektbewertung so zu optimieren, dass das Objekt besser erkannt werden kann und/oder die Dichte der Oberflächenvoxel und/oder die dazugehörige Helligkeitsverteilung und/oder die Statistik der Verteilung von Nicht-Oberflächenvoxeln verbessert wird.
    • Variante b) von Beispiel 1 erfolgt unter Verwendung eines künstlichen neuronalen Netzes (im folgenden KNN) umfassend eine Eingangs- und eine Ausgangsschicht und folgende weiteren Topologien, Lernstrategien, Trainingsdaten und Charakteristika. Variante b) umfasst:
      • b1) Eine Verwendung einer oder mehrerer versteckter Schichten. Die zugehörigen KNNs besitzen ein einschichtiges feedforward-Netz, ein mehrschichtiges feedforward-Netz oder ein rekurrentes Netz. Die Aktivierungsfunktionen zwischen den Schichten sind dabei frei wählbar.
      • b2) Eine Verwendung eines durch Neuroevolution erzeugtem KNN. Die Aktivierungsfunktion jedes Neurons ist frei wählbar.
      • b3) Als Eingabedatensatz zum Training bzw. zur Bewertung der unter b1) und b2) beschriebenen KNN werden gemessene oder simulierte Datensätze von RA- und BA Photonen, oder Teile dieser Datensätze, verwendet. Die Daten können vorverarbeitet sein.
      • b4) Als Ausgabedatensatz zum Training bzw. zur Bewertung der unter b1) und b2) beschriebenen KNN werden 3D-Bildinformationen von gemessenen oder simulierten Objekten genutzt und/oder deren Oberfläche und/oder deren Struktur. Zu simulierten Objekten zählen auch idealisierte oder abstrakte Formen.
      • b5) Als Lernverfahren bzw. als Fitnessfunktion der unter b1) und b2) beschriebenen KNN wird überwachtes Lernen und/oder bestärktes Lernen genutzt. Als Bewertung für das bestärkte Lernen wird ein quantitatives Maß für die Ähnlichkeit des rekonstruierten Objekts mit dem Zielobjekt und/oder die Dichte der Oberflächenvoxel und/oder die Helligkeitsverteilung der Oberflächenvoxel und/oder die Statistik der Verteilung von Nicht-Oberflächenvoxeln genutzt.
    • Variante c) von Beispiel 1 erfolgt unter Verwendung einer Kombination eines oder mehreren der unter Variante a) genannten Optimierungsalgorithmen und/oder eines oder mehreren der unter Variante b) genannten neuronalen Netze (z.B. der Kombination eines langsam konvergierenden Verfahrens, das jeweils den Startpunkt für ein schnell konvergierendes Verfahren liefert).
  • Weitere spezifische Ausführungsformen (beispielhaft konkretisierende Beispiele 2 bis 12), die beispielsweise die obigen Varianten a) und/oder b) und/oder c) ergänzen können, werden nachfolgend dargestellt:
    • Beispiel 2: Verfahren zur Bildgebung nach Beispiel 1, dadurch gekennzeichnet, dass die Oberflächenvoxel des Objekts eine Oberfläche mit minimaler Krümmung bilden.
    • Beispiel 3: Verfahren zur Bildgebung nach Beispiel 1, dadurch gekennzeichnet, dass die Form der 3D-Oberfläche einem erwarteten Objekt (z. B. Person Fahrzeug, Haus, Schiff, ...) entspricht.
    • Beispiel 4: Verfahren zur Bildgebung nach einem der Beispiele 1 bis 3, dadurch gekennzeichnet, dass die Entfernung zum Objekt anhand zusätzlicher Informationen erhalten wird z.B. durch klassische Bildgebung.
    • Beispiel 5: Verfahren zur Bildgebung nach einem der Beispiele 1 bis 4, dadurch gekennzeichnet, dass die 3D- Oberfläche ganz oder teilweise anhand zusätzlicher Informationen erhalten wird z.B. durch klassische Bildgebung.
    • Beispiel 6: Verfahren zur Bildgebung nach einem der Beispiele 1 bis 5, dadurch gekennzeichnet, dass ein Gradientenverfahren (wie z.B. Stochastic Gradient Descent oder weitere) als Optimierungsverfahren genutzt wird.
    • Beispiel 7: Verfahren zur Bildgebung nach einem der Beispiele 1 bis 5, dadurch gekennzeichnet, dass eine Optimierungsheuristik (wie z.B. Simulated Annealing oder ein genetischer bzw. evolutionärer Algorithmus oder weitere) als Optimierungsverfahren genutzt wird.
    • Beispiel 8: Verfahren zur Bildgebung nach einem der Beispiele 1 bis 5, dadurch gekennzeichnet, dass durch Konstruktionsmethoden optimiert wurde.
    • Beispiel 9: Verfahren zur Bildgebung nach einem der Beispiele 1 bis 5, dadurch gekennzeichnet, dass durch Reihenuntersuchungen optimiert wurde.
    • Beispiel 10: Verfahren zur Bildgebung nach einem der Beispiele 6 bis 9, dadurch gekennzeichnet, dass mehrere Algorithmen parallel (oder in Sequenz zur Bilderkennung) zum Einsatz kommen, wie z.B. ein Algorithmus, der ein erkanntes Objekt verfolgen kann.
    • Beispiel 11: Verfahren zur Bildgebung nach einem der Beispiele 6 bis 10, dadurch gekennzeichnet, dass die Objekterkennung in regelmäßigen Zeitabständen auf Grundlage der Information der gesamten Datensätze oder Teilen davon wiederholt wird.
    • Beispiel 12: Verfahren zur Bildgebung nach einem der Beispiele 6 bis 11, dadurch gekennzeichnet, dass anhand einer Objekterkennung auf Grundlage verschiedener Teile der Datensätze eine zeitliche Dynamik des Objekts erhalten werden kann.
  • Nachfolgend werden weitere Ausführungsbeispiele beschrieben:
    • Ausführungsformen stellen eine Lösung für ein Problem bereit, das in einem neuartigen optischen Aufbau, Quantum Ghost Imaging, mit asynchroner Detektion, auftritt. Quantum Ghost Imaging nutzt die Information von zwei Detektoren in zwei unterschiedlichen optischen Armen, um die Bildinformation zu erhalten, Der Aufbau sieht vor, dass verschränkte Photonenpaare erzeugt werden und in die beiden Arme des Aufbaus aufgeteilt werden. Nur wenn die Detektoren in beiden Armen die beiden Photonen eines verschränkten Photonenpaares detektieren, kann daraus sinnvolle Bildinformation erhalten werden.
  • Die Photonen eines Photonenpaares werden zum gleichen Zeitpunkt erzeugt und besitzen eine bekannte Geschwindigkeit (Lichtgeschwindigkeit im Medium). Ausführungsformen basieren darauf, dass, wenn man die Flugstrecke beider Photonen kennt, man über eine zeitlich aufgelöste Detektion der Detektoren beider Arme die Zugehörigkeit der jeweils detektierten Photonen zum gleichen Photonenpaar schlussfolgern kann.
  • Ausführungsformen stellen einen Aufbau bereit, der zur Bildgebung mit Quanten Ghost Imaging einsetzbar ist.
  • In beispielhaften Ausführungsformen löst die bereitgestellte 3D-Bildrekonstruktion ein komplexes Problem, da die Zuweisung der detektierten Photonen beider Arme zu Photonenpaaren nicht eindeutig ist.
  • In Ausführungsformen wird ein 3D-Bildrekonstruktionsalgorithmus bereitgestellt, der eine effiziente 3D-Bildgebung mit verschränkten Photonen realisiert.
  • In Ausführungsformen kann z.B. eine Quantentechnologie Kamera bereitgestellt werden.
  • In Ausführungsformen kann z.B. eine Bildinformation pro Photon, das mit dem Objekt wechselwirkt, bereitgestellt sein, die höher als bei anderen Systemen des Stands der Technik ist.
  • Eine QT-Kamera (QT = Quantentechnologie) gemäß Ausführungsformen weist gegenüber bestehenden Active-Imaging Kameras verbesserte Bildinformationen auf, beispielsweise betreffend Qualität und/oder Rate und/oder Reichweite der bereitgestellten Bildinformation.
  • Dagegen werden im Stand der Technik keine asynchronen Detektoren benutzt und grundsätzlich nur zweidimensionale Bilder erzeugt.
  • Ausführungsformen stellen computergestützte Konzepte, z.B. ein computergestütztes System und/oder ein computergestütztes Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen bereit.
  • Die computergestützten Konzepte ermöglichen die Bildgebung mit einzelnen Photonen auf beliebige Entfernungen. Die Beleuchtungsphotonen werden dabei derartig erzeugt, dass sie einen mit ihnen korrelierten Photonenpartner besitzen, über dessen Messung der Zeitpunkt und die Position oder der Impuls des Beleuchtungsphotons bestimmt werden kann, dadurch erhält man nach zeitlicher Messung des rückreflektierten Beleuchtungsphotons die Möglichkeit einen 3D-Bildpunkt (Bildvoxel) der beleuchteten Szene zu erhalten. Nach vielen Messungen lässt sich aus einer Vielzahl von erhaltenen Bildvoxeln die gesamte beleuchtete Szene durch einen computerimplementierten Algorithmus zur Bildrekonstruktion erhalten.
  • Das neue Verfahren und der dazugehörige Aufbau sehen beispielsweise vor, dass eine Quelle für miteinander korrelierte Photonen verwendet wird, die mindestens zwei miteinander korrelierte Photonen generiert.
  • Beispielsweise kann ein optisches System zur Trennung der miteinander korrelierten Photonen verwendet werden.
  • In Ausführungsformen kann beispielsweise mindestens ein zeitlich und ein zeitlich und räumlich auflösender Einzel-Photonen Detektor verwendet werden.
  • Gemäß Ausführungsformen können Konzepte zur zeitlichen Synchronisation der Zeitpunkte der Detektion aller Detektoren eingesetzt werden.
  • In Ausführungsformen kann beispielsweise eine Implementierung eines Algorithmus zur Bildrekonstruktion aus den erhaltenen Informationen eingesetzt werden.
  • Konzepte zur Synchronisation von registrierten Zeitstempeln können in Ausführungsformen beispielsweise verwendet werden.
  • Ausführungsformen setzen beispielsweise eine Rechnereinheit mit der benötigten Rechen- und Speicherleistung ein.
  • System und Verfahren gemäß Ausführungsformen können zum Beispiel zur Fernerkundung, Tomografie und dreidimensionalen Bildgebung eingesetzt werden.
  • Ausführungsformen betreffen ein bildgebendes Verfahren in dem eine Szene aus einem oder mehreren Objekten durch einzelne Photonen (Beleuchtungsphotonen) beleuchtet wird. Die Beleuchtungsphotonen sind hierbei mit einem Referenzphoton verschränkt. Durch zeitliche Messung der Beleuchtungsphotonen und zeitliche und räumliche Messung der Referenzphotonen kann die beleuchtete Szene rekonstruiert werden. Die räumlichen Messung bezieht sich hierbei auf die beiden räumlichen Achsen der Detektionsebene. Die Photonen des Photonenpaares können dabei gleiche oder unterschiedliche Wellenlängen besitzen.
  • Der optische Aufbau von Ausführungsformen kann dabei z.B. einem „Quantum Ghost Imaging“-Aufbau entsprechen.
  • Bisher wurde kein Verfahren zur Bildrekonstruktion veröffentlicht und die Möglichkeit von 3D-Rekonstruktion von Objektoberflächen nicht genannt. Aufgrund der zufälligen Eigenschaften der Beleuchtungsphotonen (zufälliger Emissionszeitpunkt und zufällige Beleuchtungsposition) ist die richtige Zuweisung der Messdaten der Detektoren beider Arme des Aufbaus nicht trivial. Es ist nach der Messung nicht eindeutig, welche der unabhängig detektierten Photonen ursprünglich die Partner eines verschränkten Photonenpaares waren und es gibt daher Mehrdeutigkeiten, die völlig unterschiedliche Bildinformation liefern. Eine falsche Zuweisung der Messdaten führt daher zu einer fehlerhaften 3D-Bildrekonstruktion. Das hier vorgestellte, neue Verfahren zur 3D-Bildrekonstruktion stellt hierfür eine Lösung dar.
  • Das neue Verfahren zur 3D-Bildrekonstruktion gemäß Ausführungsformen ist neben dem Quantum Ghost Imaging Aufbau auch in anderen Aufbauten anwendbar in denen eine Zeitdifferenz sowie Orts- oder Impulsinformation von miteinander korrelierten Photonenpaaren bestimmt werden kann.
  • In Ausführungsformen trennt der Aufbau die verschränkten Photonen räumlich in zwei Arme, wobei der erste Arm, der sogenannte Beleuchtungsarm das Beleuchtungsphoton auf das Objekt abbildet und das zurückreflektierte Beleuchtungsphoton zeitlich aufgelöst detektiert. Der zweite Arm, der sogenannte Referenzarm bildet das Referenzphoton, das mit dem Beleuchtungsphoton verschränkt ist, auf einen räumlich und zeitlich auflösenden Detektor ab.
  • Die hier verwendete Terminologie ist lediglich beispielhaft zu verstehen und ist nicht dazu bestimmt den vollen Umfang der Erfindung einschränken. Die Singularformen Beleuchtungs- und Referenzphoton stehen auch für die entsprechenden Pluralformen. „Das Objekt“ steht stellvertretend für ein oder auch mehrere Objekte oder ein komplettes Gelände.
  • In einer Ausführung des Aufbaus erfolgt die Abbildung in beiden Armen des Aufbaus derartig, dass die Emissionsebene des nichtlinearen Kristalls auf das Objekt im Beleuchtungsarm und den Detektor des Referenzarmes abgebildet wird.
  • Diese Ausführung besitzt dabei den Vorteil dass die Schärfe der Abbildung nicht durch die Winkelkorrelation sondern durch die verwendeten Optiken gegeben ist und das Auflösungslimit somit nur von der numerischen Apertur der Emission gemäß dem Abbe-Limit begrenzt ist. Nachteil dieser Ausführung ist, dass hierbei Kristallausführungen mit möglichst großem Querschnitt benötigt werden, während Kristallausführungen mit periodischer Polung aktuell nur mit sehr kleinen Querschnitten gefertigt werden können.
  • In einer anderen Ausführung des Aufbaus erfolgt die Abbildung in beiden Armen des Aufbaus derartig, dass die die Fourier-Ebene der Emission des nichtlinearen Kristalls auf das Objekt im Beleuchtungsarm und den Detektor des Referenzarmes abgebildet wird.
  • Diese Ausführung nutzt die Winkelkorrelation zur Übertragung der Bildinformation, was zu einer Erhöhung der Tiefenschärfe führt. Für hohe Bildauflösung sollte dabei die SPDC-Emission einer möglichst punktförmigen Quelle entsprechen, weshalb der Pumpstrahl stark fokussiert werden muss.
  • Zudem ist in Ausführungsbeispielen eine möglichst scharfe Winkelkorrelation der Photonen sicherzustellen, um das Auflösungsvermögen zu verbessern.
  • Aufgrund von festen Abständen zwischen Photonenquelle, Objekt(en) und Detektoren entsprechen die Flugzeiten („time-of-flight“) der Photonen räumlichen Distanzen. Um die time-of-flight Information eines Beleuchtungsphotons zu erhalten, wird dabei die Zeitdifferenz der Detektionszeitpunkte des miteinander korrelierten Photonenpaares, abzüglich eines technisch bedingten Zeitversatzes, gebildet. Da die Position oder die Richtung der Emission des Beleuchtungsphotons durch eine räumlich aufgelöste Messung des mit dem Beleuchtungsphoton korrelierten Referenzphotons bekannt ist, lässt sich daraus eindeutig die Position bestimmen, an der das Beleuchtungsphoton am Objekt reflektiert wurde.
  • Um die räumlich aufgelöste Oberflächenstruktur des beleuchteten Objekts oder der beleuchteten Objekte zu erhalten werden möglichst viele einzelne Photonen des Referenzarms sowohl zeitlich als auch räumlich aufgelöst gemessen, deren Detektionszeit und -position an die Recheneinheit geleitet und dort in einem Datensatz gespeichert. Zusätzlich werden möglichst viele einzelne Photonen des Beleuchtungsarms zeitlich und eventuell, aber nicht notwendigerweise, räumlich aufgelöst detektiert, die Detektionszeit ebenfalls an die Recheneinheit geleitet und in einem zweiten Datensatz gespeichert.
  • Damit die zeitlichen Informationen vergleichbar sind muss eine Methode zur Synchronisation der registrierten Zeitstempel vorhanden sein. Hierzu können entweder die Detektoren miteinander synchronisiert werden oder die Daten können an ein oder mehrere, miteinander synchronisierte, Geräte für eine externe Synchronisation übermittelt werden.
  • Diese somit erhaltenen Datensätze werden, unter Zuhilfenahme der Implementierung eines geeigneten Algorithmus, ausgewertet und dadurch das Bild rekonstruiert, wobei im Folgenden mehrere mögliche Realisierungen solch eines Algorithmus präsentiert werden. Hierbei gelten folgende Bezeichnungen:
    • Ein BA-Photon ist ein detektiertes Ereignis des Detektors des Beleuchtungsarmes des Aufbaus. Dieses Ereignis kann eine Detektion eines Beleuchtungsphotons oder eines Hintergrundphotons oder das Resultat von Dunkelrauschen sein.
    • Ein RA-Photon ist ein detektiertes Ereignis des Detektors des Referenzarmes des Aufbaus. Dieses Ereignis kann eine Detektion eines Referenzphotons oder eines Hintergrundphotons oder das Resultat von Dunkelrauschen sein.
    • Ein Oberflächenvoxel ist ein Bildvoxel, der als zur Oberfläche des Objekts zugehörig angesehen wird.
  • Die Helligkeit eines zusammenhängenden Bereichs der Wolke aus Bildvoxeln kann sich beispielsweise aus der Dichte der Bildvoxel in diesem Bereich ergeben.
  • Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder einer elektronischen Schaltung durchgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.
  • Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software oder zumindest teilweise in Hardware oder zumindest teilweise in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer BluRay® Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.
  • Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.
  • Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.
  • Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.
  • Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist. Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen mindestens eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.
  • Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist. Der Datenträger oder das digitale Speichermedium oder das computerlesbare Medium sind typischerweise greifbar und/oder nicht flüchtig.
  • Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.
  • Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst sind, eines der hierin beschriebenen Verfahren durchzuführen.
  • Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.
  • Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.
  • Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise eine feldprogrammierbare Gatter-Anordnung, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann eine feldprogrammierbare Gatter-Anordnung mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.
  • Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.
  • Referenzen:
    1. [1] Morris, P, A., Aspden, R. S., Bell, J E., Boyd, R. W. und Padgett, M. J. „Imaging with a small number of photons", Nat. Commun. 6, 5913 (2015).
    2. [2] Meyers, R. E., Deacon, K. S., „Method and system for quantum and quantum inspired ghost imaging“, US 2010/0140458 A1 ; veröffentlicht: 2010.
    3. [3] Padgett, M. J., und Boyd, R. W., „An introduction to ghost imaging quantum and classical", Trans. R. Soc. A 375 20160233 (2016).
    4. [4] Meyers, R., Deacon, K. S., and Shih, Y., „Ghost-imaging experiment by measuring reflected photons", Phys. Rev. A77, 041801 (R) (2008).
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2010/0140458 A1 [0122]
  • Zitierte Nicht-Patentliteratur
    • Morris, P, A., Aspden, R. S., Bell, J E., Boyd, R. W. und Padgett, M. J. „Imaging with a small number of photons“, Nat. Commun. 6, 5913 (2015) [0122]
    • Padgett, M. J., und Boyd, R. W., „An introduction to ghost imaging quantum and classical“, Trans. R. Soc. A 375 20160233 (2016) [0122]
    • Meyers, R., Deacon, K. S., and Shih, Y., „Ghost-imaging experiment by measuring reflected photons“, Phys. Rev. A77, 041801 (R) (2008) [0122]

Claims (28)

  1. System zur Erzeugung einer Aufnahme eines Objekts (104; 204; 304), um eine Darstellung des Objekts (104; 204; 304) zu erzeugen, wobei das System umfasst: Eine Photonenquelle (101; 201; 301) zur Ausgabe einer Mehrzahl von Photonengruppen, wobei jede Photonengruppe der Mehrzahl der Photonengruppen miteinander korrelierte Photonen umfasst, wobei die miteinander korrelierten Photonen mindestens ein Referenzphoton und mindestens ein Beleuchtungsphoton umfassen, ein Trennsystem (102; 202; 302) zur Trennung des mindestens einen Referenzphotons und des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, eine erste Detektoreinheit (107; 208; 307) zur Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, eine zweite Detektoreinheit (108; 206; 308) zur Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, nachdem das mindestens eine Beleuchtungsphoton an dem Objekt (104; 304) reflektiert oder von dem Objekt (104; 204; 304) gestreut wurde oder eine Ebene, in der sich das Objekt (104; 204) befindet, transmittiert hat, und eine Verarbeitungseinheit (110; 210; 310) zur Erzeugung der Darstellung des Objekts (104; 204; 304) abhängig von der Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die erste Detektoreinheit (107; 208; 307) und abhängig von der Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen durch die zweite Detektoreinheit (108; 206; 308).
  2. System nach Anspruch 1, wobei das System nach Anspruch 1 des Weiteren ein System (209; 309) zur Synchronisation umfasst, wobei das System (209; 309) zur Synchronisation für jede Photonengruppe der Mehrzahl der Photonengruppen die Detektion des mindestens einen Referenzphotons der Photonengruppe durch die erste Detektoreinheit (107; 208; 307) mit der Detektion des mindestens einen Beleuchtungsphotons der Photonengruppe durch die zweite Detektoreinheit (108; 206; 308) räumlich und/oder zeitlich synchronisiert, um ein referenzierbares Ergebnis der Detektion von individuellen Photonen der Photonengruppe zu erhalten und der Verarbeitungseinheit (110; 210; 310) zu übergeben, wobei die individuellen Photonen der Photonengruppe das mindestens eine Referenzphoton und das mindestens eine Beleuchtungsphoton der Photonengruppe umfassen, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, die Darstellung des Objekts (104; 204; 304) abhängig von dem referenzierbaren Ergebnis von jeder der Photonengruppen zu erzeugen.
  3. System nach Anspruch 1 oder 2, wobei für jede Photonengruppe der Mehrzahl der Photonengruppen das mindestens eine Referenzphoton der Photonengruppe und das mindestens eine Beleuchtungsphoton der Photonengruppe verschränkt sind.
  4. System nach einem der vorherigen Ansprüche, wobei das System nach einem der vorherigen Ansprüche ein optisches System (207; 305) zur Verbesserung der Abbildung des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen von dem Trennsystem (102; 202; 302) auf die erste Detektoreinheit (107; 208; 307) aufweist.
  5. System nach einem der vorherigen Ansprüche, wobei das System nach einem der vorherigen Ansprüche ein optisches System (203; 303) zur Verbesserung der Abbildung des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen von dem Trennsystem (102; 202; 302) auf das Objekt (104; 204; 304) aufweist.
  6. System nach einem der vorherigen Ansprüche, wobei das System nach einem der vorherigen Ansprüche ein optisches System (205; 306) zur Verbesserung der Abbildung des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, das von dem Objekt (104; 204; 304) reflektiert oder von dem Objekt (104; 204; 304) gestreut wurde oder das durch die Ebene, in der sich das Objekt (104; 204; 304) befindet, transmittiert ist, auf die zweite Detektoreinheit (108; 206; 308) aufweist.
  7. System nach einem der vorherigen Ansprüche, wobei die Photonenquelle (101; 201; 301) ausgebildet ist, für jede Photonengruppe der Mehrzahl der Photonengruppen, das mindestens eine Beleuchtungsphoton der Photonengruppe und das mindestens eine Referenzphoton der Photonengruppe räumlich und/oder zeitlich zufällig oder pseudozufällig zu erzeugen.
  8. System nach Anspruch 7, wobei die Photonenquelle (101; 201; 301) ausgebildet ist, für jede Photonengruppe der Mehrzahl der Photonengruppen, das mindestens eine Beleuchtungsphoton der Photonengruppe und das mindestens eine Referenzphoton der Photonengruppe zeitlich zufällig oder pseudozufällig nur innerhalb eines ausgewählten Zeitfensters zu erzeugen, indem die Erzeugung außerhalb des Zeitfenster verhindert wird.
  9. System nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, eine Bewertung vorzunehmen, die abhängt von einer erhaltenen Oberflächenstruktur des Objekts (104; 204; 304), und/oder einer erhaltenen Helligkeit der erhaltenen Oberflächenstruktur des Objekts (104; 204; 304), und/oder einer Dichte von erhaltenen Oberflächenvoxeln des Objekts (104; 204; 304), und/oder einer zu der Dichte der erhaltenen Oberflächenvoxeln zugehörigen Helligkeitsverteilung.
  10. System nach Anspruch 9, wobei die Mehrzahl der Photonengruppen eine erste Menge von Photonengruppen ist, und wobei die Bewertung eine erste Bewertung ist, wobei die Photonenquelle (101; 201; 301), wenn die erste Bewertung ein vordefiniertes Kriterium nicht erfüllt oder einen vordefinierten Schwellwert nicht überschreitet, ausgebildet ist, ein oder mehrere weitere Mengen von Photonengruppen auszugeben, bis eine weitere Bewertung von ein oder mehreren weiteren Bewertungen, zu deren Bestimmung die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, das vordefinierte Kriterium erfüllt oder den vordefinierten Schwellwert überschreitet.
  11. System nach Anspruch 10, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, jede der ein oder mehreren weiteren Bewertungen abhängig von einer weiteren erhaltenen Oberflächenstruktur des Objekts (104; 204; 304), und/oder einer weiteren erhaltenen Helligkeit der weiter erhaltenen Oberflächenstruktur des Objekts (104; 204; 304), und/oder einer weiteren Dichte von weiter erhaltenen Oberflächenvoxeln des Objekts (104; 204; 304), und/oder einer zu der weiteren Dichte der weiter erhaltenen Oberflächenvoxeln zugehörigen weiteren Helligkeitsverteilung zu bestimmen.
  12. System nach einem der vorherigen Ansprüche, wobei das System nach einem der vorherigen Ansprüche ein neuronales Netz umfasst.
  13. System nach Anspruch 12, wobei das neuronale Netz ausgebildet ist, als Eingabedatensatz zum Training Detektionsorte und/oder Detektionszeiten einer Menge an Photonengruppen aus der Mehrzahl der Photonengruppen zu erhalten, und wobei das neuronale Netz ausgebildet ist, als Ausgabedatensatz zum Training Informationen über das Objekt (104; 204; 304) zu erhalten.
  14. System nach Anspruch 12 oder 13, wobei es sich bei dem neuronalen Netz um ein einschichtiges feedforward-Netz oder um ein mehrschichtiges feedforward-Netz oder um ein rekurrentes Netz handelt.
  15. System nach einem der Ansprüche 12 bis 14, wobei das System nach einem der Ansprüche 12 bis 14 ausgebildet ist, das neuronale Netz durch Neuroevolution zu erzeugen oder zu aktualisieren.
  16. System nach einem der Ansprüche 12 bis 15, wobei das System nach einem der Ansprüche 12 bis 15 ausgebildet ist, als Lernverfahren des neuronalen Netzes überwachtes Lernen einzusetzen.
  17. System nach Anspruch 16, wobei das System nach Anspruch 16 ausgebildet ist, als Bewertungskriterium für das überwachte Lernen zu vergleichen, inwieweit eine Rekonstruktion des Objekts (104; 204; 304) zu dem Objekt (104; 204; 304) ähnlich ist.
  18. System nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, eine Entfernung zu dem Objekt (104; 204; 304) zu bestimmen.
  19. System nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, eine dreidimensionale Oberfläche des Objekts (104; 204; 304) zu bestimmen.
  20. System nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, ein Gradientenverfahren zur Erzeugung der Darstellung des Objekts (104; 204; 304) einzusetzen.
  21. System nach einem der vorherigen Ansprüche, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, eine Optimierungsheuristik zur Erzeugung der Darstellung des Objekts (104; 204; 304) einzusetzen.
  22. System nach einem der vorherigen Ansprüche, wobei es sich bei der Darstellung des Objekts (104; 204; 304) um eine statische Darstellung des Objekts (104; 204; 304) handelt.
  23. System nach einem der Ansprüche 1 bis 21, wobei es sich bei der Darstellung des Objekts (104; 204; 304) um eine Darstellung des Objekts (104; 204; 304) in Bewegung über einen Zeitverlauf handelt.
  24. System nach Anspruch 23, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, einen Algorithmus einzusetzen, mit dem das Objekt (104; 204; 304), nachdem es erkannt wurde, verfolgt werden kann.
  25. System nach Anspruch 23 oder 24, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, eine Objekterkennung in regelmäßigen Zeitabständen zu wiederholen.
  26. System nach einem der Ansprüche 23 bis 25, wobei die Verarbeitungseinheit (110; 210; 310) ausgebildet ist, eine zeitliche Dynamik des Objekts (104; 204; 304) zu bestimmen.
  27. Verfahren zur Erzeugung einer Aufnahme eines Objekts, um eine Darstellung des Objekts zu erhalten, wobei das Verfahren umfasst: Ausgeben einer Mehrzahl von Photonengruppen, wobei jede Photonengruppe der Mehrzahl der Photonengruppen miteinander korrelierte Photonen umfasst, wobei die miteinander korrelierten Photonen mindestens ein Referenzphoton und mindestens ein Beleuchtungsphoton umfassen, Trennen des mindestens einen Referenzphotons und des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, Detektieren des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, Detektieren des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen, nachdem das mindestens eine Beleuchtungsphoton an dem Objekt reflektiert oder von dem Objekt gestreut wurde oder eine Ebene, in der sich das Objekt befindet, transmittiert hat, und Erzeugen der Darstellung des Objekts abhängig von der Detektion des mindestens einen Referenzphotons jeder Photonengruppe der Mehrzahl der Photonengruppen und abhängig von der Detektion des mindestens einen Beleuchtungsphotons jeder Photonengruppe der Mehrzahl der Photonengruppen.
  28. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 27.
DE102020203150.9A 2020-03-11 2020-03-11 System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen Pending DE102020203150A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102020203150.9A DE102020203150A1 (de) 2020-03-11 2020-03-11 System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen
EP21711542.7A EP4118458A2 (de) 2020-03-11 2021-03-10 System und verfahren zur bildrekonstruktion unter verwendung eines optischen aufbaus zur aktiven beleuchtung mit einzelnen photonen
PCT/EP2021/056087 WO2021180807A2 (de) 2020-03-11 2021-03-10 System und verfahren zur bildrekonstruktion unter verwendung eines optischen aufbaus zur aktiven beleuchtung mit einzelnen photonen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020203150.9A DE102020203150A1 (de) 2020-03-11 2020-03-11 System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen

Publications (1)

Publication Number Publication Date
DE102020203150A1 true DE102020203150A1 (de) 2021-09-16

Family

ID=74871405

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020203150.9A Pending DE102020203150A1 (de) 2020-03-11 2020-03-11 System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen

Country Status (3)

Country Link
EP (1) EP4118458A2 (de)
DE (1) DE102020203150A1 (de)
WO (1) WO2021180807A2 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100140458A1 (en) 2007-12-06 2010-06-10 U.S. Government As Represented By The Secretary Of The Army Method and system for quantum and quantum inspired ghost imaging
US20180284234A1 (en) 2017-03-29 2018-10-04 Luminar Technologies, Inc. Foveated Imaging in a Lidar System
DE102018132069A1 (de) 2017-06-20 2019-12-12 Nvidia Corporation Äquivariante Orientierungspunkt-Transformation für Orientierungspunkt-Lokalisierung

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9123114B2 (en) * 2007-12-06 2015-09-01 The United States Of America As Represented By The Secretary Of The Army System and processor implemented method for improved image quality and enhancement based on quantum properties
EP3136712A1 (de) * 2015-08-25 2017-03-01 BAE Systems PLC Bildgebungsvorrichtung und -verfahren

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100140458A1 (en) 2007-12-06 2010-06-10 U.S. Government As Represented By The Secretary Of The Army Method and system for quantum and quantum inspired ghost imaging
US20180284234A1 (en) 2017-03-29 2018-10-04 Luminar Technologies, Inc. Foveated Imaging in a Lidar System
DE102018132069A1 (de) 2017-06-20 2019-12-12 Nvidia Corporation Äquivariante Orientierungspunkt-Transformation für Orientierungspunkt-Lokalisierung

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Meyers, R., Deacon, K. S., and Shih, Y., „Ghost-imaging experiment by measuring reflected photons", Phys. Rev. A77, 041801 (R) (2008)
Morris, P, A., Aspden, R. S., Bell, J E., Boyd, R. W. und Padgett, M. J. „Imaging with a small number of photons", Nat. Commun. 6, 5913 (2015)
Padgett, M. J., und Boyd, R. W., „An introduction to ghost imaging quantum and classical", Trans. R. Soc. A 375 20160233 (2016)
Richmond, Richard D. / Cain, Stephen C.: Direct Detection LADAR Systems, Bellingham, Washington, USA, 2010, ISBN 978-0-8195-8072-9, Seite 7

Also Published As

Publication number Publication date
EP4118458A2 (de) 2023-01-18
WO2021180807A3 (de) 2021-11-11
WO2021180807A2 (de) 2021-09-16

Similar Documents

Publication Publication Date Title
Wieschollek et al. Separating reflection and transmission images in the wild
DE102011088393B4 (de) Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird
DE112012001984B4 (de) Integrieren von Video-Metadaten in 3D-Modelle
DE102014104712A1 (de) Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE102014112242A1 (de) Phasenkontrast-Bildgebung
DE102016107959A1 (de) Auf strukturiertem Licht basierende Multipfadlöschung bei Top-Bilderzeugung
DE102016106511A1 (de) Parametrische Online-Kalibrierung und Kompensation bei der TOF-Bilderzeugung
DE112010003752T5 (de) Dynamische echtzeitreferenzbilderzeugung für ein entfernungsbildgebungssystem
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
EP3807838A2 (de) Materialprüfung von optischen prüflingen
EP1342150A2 (de) Messverfahren zur ermittlung der position eines objektes vor einem bildschirm und vorrichtung zur durchführung des verfahrens
EP2758915B1 (de) Verfahren zur automatisierten echtzeit-erfassung von marinen säugern
DE102020203796A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Messinformation und LiDAR-Gerät
EP3557487B1 (de) Generieren von validierungsdaten mit generativen kontradiktorischen netzwerken
DE102014113258A1 (de) Verfahren zum Erzeugen eines Ergebnisbilds und optische Vorrichtung
WO2009132761A1 (de) Entfernungsmesssystem
Yao et al. Robust photon-efficient imaging using a pixel-wise residual shrinkage network
DE102020203150A1 (de) System und Verfahren zur Bildrekonstruktion unter Verwendung eines optischen Aufbaus zur aktiven Beleuchtung mit einzelnen Photonen
DE102017217844A1 (de) Verfahren und ein maschinelles Lernsystem zur Klassierung von Objekten
DE102020207974A1 (de) Systeme und verfahren zum nachweis von bewegung während 3d-datenrekonstruktion
DE102019200177B4 (de) Verfahren zur Identifizierung eines Lebewesens
Peng et al. Detailed feature representation and analysis of low frequency UWB radar range profile for improving through-wall human activity recognition
DE102016225806A1 (de) Verfahren zur Erfassung und Klassifizierung von Objekten
DE4205056A1 (de) Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten
DE102014113431A1 (de) Adaptive Abstandsschätzung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01J0001160000

Ipc: G01S0007480000