DE102017113194B4 - Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum - Google Patents

Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum Download PDF

Info

Publication number
DE102017113194B4
DE102017113194B4 DE102017113194.9A DE102017113194A DE102017113194B4 DE 102017113194 B4 DE102017113194 B4 DE 102017113194B4 DE 102017113194 A DE102017113194 A DE 102017113194A DE 102017113194 B4 DE102017113194 B4 DE 102017113194B4
Authority
DE
Germany
Prior art keywords
images
objects
cameras
exposed
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017113194.9A
Other languages
English (en)
Other versions
DE102017113194A1 (de
Inventor
Bernhard Wieneke
Andreas Schröder
Arne Henning
Matteo Novara
Daniel Schanz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
LaVision GmbH
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
LaVision GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV, LaVision GmbH filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102017113194.9A priority Critical patent/DE102017113194B4/de
Priority to US16/008,326 priority patent/US10890521B2/en
Publication of DE102017113194A1 publication Critical patent/DE102017113194A1/de
Application granted granted Critical
Publication of DE102017113194B4 publication Critical patent/DE102017113194B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/001Full-field flow measurement, e.g. determining flow velocity and direction in a whole region at the same time, flow visualisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1456Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1456Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals
    • G01N15/1459Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals the analysis being performed on a sample stream
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/18Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the time taken to traverse a fixed distance
    • G01P5/20Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the time taken to traverse a fixed distance using particles entrained by a fluid stream
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1434Optical arrangements
    • G01N2015/144Imaging characterised by its optical setup
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1789Time resolved
    • G01N2021/1791Time resolved stroboscopic; pulse gated; time range gated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/069Supply of sources
    • G01N2201/0696Pulsed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/069Supply of sources
    • G01N2201/0696Pulsed
    • G01N2201/0697Pulsed lasers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/069Supply of sources
    • G01N2201/0696Pulsed
    • G01N2201/0698Using reference pulsed source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Dispersion Chemistry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten (9) mit- Aufnehmen von zweidimensionalen Bildern der Vielzahl der Objekte (9) aus mehreren Abbildungsrichtungen mit mehreren S/W-Kameras (2, 3),- wobei die Bilder der S/W-Kameras (2, 3) zeitgleich belichtet werden und wobei mindestens zwei aufeinanderfolgende Bilder jeder der S/W-Kameras (2, 3) belichtet werden,- Bestimmen von realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern und- Verknüpfen der zu jeweils einem der Objekte (9) gehörenden realen Positionen zu einer zeitlich aufgelösten Trajektorie (29) des jeweiligen Objekts (9) im dreidimensionalen Raum, dadurch gekennzeichnet,- dass beide der mindestens zwei aufeinanderfolgenden Bilder jeder der S/W-Kameras (2, 3) zu mindestens zwei voneinander beabstandeten Zeiten (17, 18, 22; 19, 20, 23) in gleicher Weise belichtet werden, wobei ein Abstand der mindestens zwei voneinander beabstandeten Zeiten (17, 18; 19, 20) mindestens das Zweifache eines Abstands beträgt, den die erste Zeit des Belichtens des späteren zu der letzten Zeit des Belichtens des früheren der mindestens zwei aufeinanderfolgenden Bilder aufweist,- dass aus den Abbildern der Objekte (9) in den Bildern der S/W-Kameras (2, 3), die jeweils zu den mindestens zwei gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden, eine Verteilung (27, 28) von realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum bestimmt wird, und- dass auch verschiedene Positionen jeweils eines der Objekte (9) innerhalb jeder der Verteilungen (27, 28) zu der zeitlich aufgelösten Trajektorie (29) des jeweiligen Objekts (9) im Raum verknüpft werden.

Description

  • TECHNISCHES GEBIET DER ERFINDUNG
  • Die Erfindung bezieht sich auf ein Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum. Spezieller bezieht sich die vorliegende Erfindung auf ein Verfahren, bei dem zweidimensionale Bilder einer Vielzahl von punktförmigen Objekten aus mehreren Abbildungsrichtungen mit mehreren S/W-Kameras aufgenommen werden, wobei die Bilder der S/W-Kameras zeitgleich belichtet werden und wobei mindestens zwei aufeinanderfolgenden Bilder jeder der S/W-Kameras belichtet werden, bei dem reale Positionen der einzelnen Objekte im dreidimensionalen Raum aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern bestimmt werden und bei dem die zu jeweils einem der Objekte gehörenden realen Positionen zu einer zeitlich aufgelösten Trajektorie des jeweiligen Objekts im dreidimensionalen Raum verknüpft werden.
  • Bei den verfolgten Objekten kann es sich insbesondere um solche handeln, die sich mit einer Strömung bewegen. Dann kann aus den zeitlich aufgelösten Trajektorien der Objekte nicht nur auf deren Geschwindigkeiten und Beschleunigungen, sondern auch auf Geschwindigkeitsfelder, Beschleunigungsfelder und Druckfelder der jeweiligen Strömung geschlossen werden. Die punktförmigen Objekte sind beispielsweise kleine Partikel, Gasblasen oder Tröpfchen, die Licht diffus streuen und die so mit Kameras abgebildet werden können, dass sich in den Bildern der Kameras Abbilder der Objekte zeigen. Bei kleinen Objekten sind diese Abbilder unabhängig von der aktuellen Form der Partikel punktförmig oder quasi-punktförmig.
  • STAND DER TECHNIK
  • Ein Verfahren mit den oben genannten Merkmalen des Oberbegriffs des unabhängigen Patentanspruchs 1 ist aus der WO 2014/191461 A1 bekannt. Bei dem bekannten Verfahren werden zum Ermitteln einer sich ändernden räumlichen Verteilung von Partikeln zu mehreren in zeitlichen Abständen aufeinander folgenden Zeitpunkten für jeden der Zeitpunkte die folgenden Schritte durchgeführt. Reale zweidimensionale Bilder der Partikel werden mit unterschiedlichen wirksamen Abbildungsfunktionen aufgenommen. Eine geschätzte räumliche Verteilung der Partikel wird vorgegeben, und virtuelle zweidimensionale Bilder der geschätzten räumlichen Verteilung werden mit den unterschiedlichen Abbildungsfunktionen berechnet. Dann werden Differenzen zwischen den virtuellen zweidimensionalen Bildern und den realen zweidimensionalen Bildern mit denselben Abbildungsfunktionen erfasst, und die geschätzte räumliche Verteilung der Partikel wird zur Reduzierung der Differenzen verändert, um ein an die tatsächliche räumliche Verteilung der Partikel zu dem jeweiligen Zeitpunkt angenäherte räumliche Verteilung zu erhalten. Die geschätzte räumliche Verteilung der Partikel wird vorgegeben, indem die Positionen der einzelnen Partikel in einer für einen früheren Zeitpunkt erhaltenen angenäherten räumlichen Verteilung abhängig davon verschoben werden, wie sich ihre Positionen zwischen für mindestens zwei frühere Zeitpunkte angenäherten räumlichen Verteilungen verschoben haben. Auf diese Weise werden die realen Positionen der einzelnen Partikel in den verschiedenen angenäherten räumlichen Verteilungen miteinander verknüpft und so zeitlich aufgelöste Trajektorien der Partikel im Raum ermittelt.
  • Bei der Durchführung des aus der WO 2014/191461 A1 bekannten Verfahrens zur Bestimmung von Geschwindigkeits-, Beschleunigungs- oder Druckfeldern in schnellen Strömungen müssen die realen Bilder der Partikel sehr schnell hintereinander aufgenommen werden, damit die zu den verschiedenen Zeitpunkten aufgenommenen Bilder zumindest im Wesentlichen dieselben Partikel zeigen. Bei der Geschwindigkeit, mit der mehr als zwei Bilder nacheinander aufgenommen werden können, ist man jedoch grundsätzlich durch die Bildfrequenz der verwendeten Kameras eingeschränkt. Kameras mit sehr hoher Bildfrequenz sind teuer. Um die Vielzahl der Objekte aus mehreren Abbildungsrichtungen aufnehmen zu können, müssen dann entsprechend auch mehrere solche teure Kameras eingesetzt werden.
  • Aus der DE 10 2012 112 118 A1 ist eine Verwendung eines Bildsensors einer Kamera zur Aufzeichnung schnell aufeinander folgender Bilder bekannt, bei der die jeweils von zwei benachbarten Lichtsensoren registrierten Lichtintensitäten aufaddiert werden, um schnell nacheinander zwei Bilder mit halber Auflösung aufnehmen zu können, denen dann noch ein drittes Bild mit voller Auflösung folgen kann, bevor die beiden ineinander verschachtelten Bilder halber Auflösung aus dem Bildsensor ausgelesen sind. Diese Verwendung ist zwar bei bestimmten, aber doch nur wenigen handelsüblichen Bildsensoren möglich. Sie ist zudem mit dem Nachteil verbunden, dass die beiden ersten Bilder zumindest in einer Richtung nur die halbe räumliche Auflösung aufweisen und dass auch in der Summe nur drei Bilder schnell hintereinander aufgenommen werden können.
  • Aus der DE 10 2013 104 060 A1 ist ein Verfahren zur Verfolgung mindestens eines schnell bewegten Objekts bekannt, bei dem synchron mehrere Bildsensoren mehrfach belichtet werden, um während einer Belichtungszeit n deckungsgleiche Teilbilder in n voneinander getrennten Spektralbereichen aufzuzeichnen, wobei n größer oder gleich 2 ist. Dabei wird das Objekt zu m aufeinanderfolgenden Zeitpunkten mit m Lichtpulsen unterschiedlicher spektraler Zusammensetzung beleuchtet, wobei m größer als n ist und mindestens einer der m Lichtpulse eine spektrale Zusammensetzung mit wesentlichen Anteilen in mehreren der voneinander getrennten Spektralbereiche aufweist. So können m Abbilder des Objekts aufgrund ihrer unterschiedlichen Lichtintensitäten in den mit den verschiedenen Bildsensoren aufgenommenen Teilbildern zeitlich getrennt werden.
  • Als nachteilig bei dem aus der DE 10 2013 104 060 A1 bekannten Verfahren erweist es sich jedoch, dass die Bildsensoren exakt relativ zueinander angeordnet werden müssen. Alternativ kann statt drei separaten Bildsensoren zwar auch eine RGB-Kamera verwendet werden. Bei einer RGB-Kamera sind die den Farben Rot, Grün und Blau zugeordneten Bildsensoren aber nicht exakt deckungsgleich sondern leicht zueinander versetzt. Auch die schnelle Beleuchtung des Objekts mit Licht unterschiedlicher spektraler Zusammensetzung nacheinander ist aufwändig.
  • Aus der DE 10 2009 029 321 A1 ist ein Verfahren zur videografischen Aufzeichnung schneller Vorgänge bekannt, bei dem der jeweilige Vorgang ebenfalls mit Licht unterschiedlicher Farben jeweils kurzzeitig beleuchtet wird und nach Farben getrennte Bilder des Vorgangs aufgezeichnet werden. Konkret werden die Bilder getrennt in den verschiedenen Farbkanälen einer Farbvideokamera aufgezeichnet, die eine digitale RGB-Kamera sein kann. Weiterhin kann der jeweilige Vorgang jeweils vor und nach einem Bildwechsel der Farbvideokamera nacheinander mit Licht aller der unterschiedlichen Farben beleuchtet werden.
  • Aus Markus Raffel et al.: Particle Image Velocimetry: A Practical Guide, Springer-Verlag Berlin Heidelberg, 1998 ist es bekannt, innerhalb eines im Wesentlichen zweidimensionalen Lichtschnitts angeordnete Partikel nacheinander so mit Lichtpulsen zu beleuchten, dass auf jedes Bild der verwendeten Kamera maximal ein Lichtpuls entfällt, so dass jedes Partikel in jedem Bild des Lichtschnitts nur mit einem Abbild erscheint. Weiter wird hier die Möglichkeit beschrieben, während jedes Bilds der Kamera zwei Lichtpulse auf die Partikel in dem Lichtschnitt zu richten, so dass die Bilder jeweils zwei Abbilder von jedem Partikel aufweisen. Jedes dieser Bilder kann dann durch Berechnung einer Autokorrelationsfunktion ausgewertet werden, die die Verschiebung der Abbilder zwischen den zugehörigen Belichtungen bestimmt. Die Verschiebungen der Abbilder zwischen den Bildern können hingegen durch Berechnen einer Kreuzkorrelationsfunktion zwischen den Bildern ermittelt werden.
  • Aus Ronald J. Adrian: Particle-Imaging techniques for experimental fluid mechanics. In: Annu. Rev. Fluid Mech. 1991. 23: 261-304, Seiten 261 bis 304 ist es bei der Particle Image Velocimetry bekannt, zweidimensionale Bilder einer Vielzahl von punktförmigen Objekten aus mehreren Abbildungsrichtungen mit mehreren S-W-Kameras aufzunehmen, wobei die Bilder der S-W-Kameras zeitgleich belichtet werden und wobei reale Positionen der einzelnen Objekte im dreidimensionalen Raum aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern bestimmt werden. Weiterhin sind aus diesem Dokument verschiedene Beleuchtungskonzepte für mehrere aufeinanderfolgende Bilder bekannt. Bei einem Multi-Frame/Single-Puls-Verfahren wird jedes von aufeinanderfolgenden Bildern zu einer Zeit belichtet. Bei einem Multi-Frame/Double-Puls-Verfahren wird jedes von aufeinanderfolgenden Bildern zu zwei Zeiten belichtet, und bei einem Multi-Frame/Multi-Puls-Verfahren wird jedes von mehreren aufeinanderfolgenden Bildern zu mehr als zwei aufeinanderfolgenden Zeiten belichtet. Weiterhin ist es aus dem Dokument bekannt, mehrere Abbilder jeweils eines Objekts zu einer zeitlich aufgelösten Trajektorie des Objekt zu verknüpfen.
  • AUFGABE DER ERFINDUNG
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren mit den Merkmalen des Oberbegriffs des unabhängigen Patentanspruchs 1 aufzuzeigen, das mit geringem apparativen Aufwand auch zur Verfolgung einer Vielzahl von sich sehr schnell bewegenden punktförmigen Objekten im Raum geeignet ist, um mit hoher Genauigkeit nicht nur Geschwindigkeits- sondern auch Beschleunigungs- und Druckfelder einer schnellen Strömung erfassen zu können .
  • LÖSUNG
  • Die Aufgabe der Erfindung wird durch ein Verfahren mit den Merkmalen des unabhängigen Patentanspruchs 1 gelöst. Bevorzugte Ausführungsformen des erfindungsgemäßen Verfahrens sind in den abhängigen Patentansprüchen definiert.
  • BESCHREIBUNG DER ERFINDUNG
  • Bei einem erfindungsgemäßen Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten werden zweidimensionale Bilder der Vielzahl der Objekte aus mehreren Abbildungsrichtungen mit mehreren Kameras aufgenommen. Bei den Kameras handelt sich um S/W-Kameras, d. h. Schwarzweiß-Kameras. Auch wenn im Folgenden nur von Kameras die Rede ist, sind solche S/W-Kameras gemeint, soweit nicht ausdrücklich etwas anderes zum Ausdruck gebracht ist. Dabei bedeutet die Angabe S/W-Kameras nicht, dass den Kameras kein Farbfilter vorgeschaltet werden darf, um beispielsweise Hintergrundlicht gegenüber monochromatischem Licht zu unterdrücken, mit dem die Objekte gezielt beleuchtet werden. Die mehreren Kameras dienen auch dann nicht zur spektralen Auflösung des Lichts von den Objekten.
  • Typischerweise sind die mehreren Kameras, mit denen die Bilder der Objekte aus unterschiedlichen Abbildungsrichtungen aufgenommen werden, räumlich voneinander getrennt. Grundsätzlich kann das erfindungsgemäße Verfahren aber auch mit einer sogenannten Lightfield-Kamera durchgeführt werden. Eine Lightfield-Kamera bildet ein Messvolumen aus mehreren leicht unterschiedlichen Abbildungsrichtungen mit einem Array von Objektivlinsen in unterschiedliche Bereiche eines Bildsensors ab. Jeder dieser Bereiche des Bildsensors und die zugehörige Teillinse des Arrays von Objektivlinsen wird hier als eine Kamera angesehen.
  • Die Kameras werden hinsichtlich der Abfolge ihrer Bilder zumindest soweit synchronisiert, dass die Bilder der verschiedenen Kameras jeweils zeitgleich belichtet werden. Mindestens zwei aufeinanderfolgende Bilder jeder der Kameras werden zu voneinander beabstandeten Zeiten belichtet. Das heißt, jedes der beiden mindestens zwei aufeinanderfolgenden Bilder jeder der Kameras wird zu mindestens zwei voneinander beabstandeten Zeiten belichtet.
  • Das erfindungsgemäße Verfahren ist auch zum Verfolgen von sich sehr schnell bewegenden Objekten im dreidimensionalen Raum mit kostengünstigen Kameras durchführbar, die eine vergleichsweise niedrige Bildfrequenz aufweisen. Grundsätzlich könnte es mit Kameras durchgeführt werden, die überhaupt nur zwei Bilder nacheinander aufnehmen können. Günstig ist es in jedem Fall, wenn die Kameras nur kurze Totzeiten beim Bildwechsel zwischen ihren mindestens zwei Bildern aufweisen, in denen sie kein Licht registrieren können.
  • Reale Positionen der einzelnen Objekte im dreidimensionalen Raum werden aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern bestimmt. Dabei werden im Wesentlichen zu allen Abbildern der Objekte in den aus den verschiedenen Abbildungsrichtungen aufgenommenen Bildern reale Positionen bestimmt. Erfindungsgemäß wird so auch aus den Abbildern der Objekte in den Bildern der Kameras, die jeweils zu den mindestens zwei gleichen Zeiten belichtet wurden, eine Verteilung von realen Positionen der einzelnen Objekte im dreidimensionalen Raum bestimmt, die mehr und mindestens etwa zweimal mehr reale Positionen umfasst, als einzelne Objekte vorhanden sind. Die jeweils zu einem der Objekte gehörenden realen Positionen werden dann zu einer zeitlich aufgelösten Trajektorie des jeweiligen Objekts im dreidimensionalen Raum verknüpft. Dabei werden auch verschiedene Positionen jeweils eines der Objekte innerhalb jeder der Verteilungen zu der zeitlich aufgelösten Trajektorie des jeweiligen Objekts im Raum verknüpft.
  • Überraschenderweise stellt sich heraus, dass nicht nur doppelt belichtete Bilder von im Wesentlichen zweidimensionalen Lichtschnitten, in denen die Abbilder der Objekte unmittelbar einer Position der Objekte in dem jeweiligen Lichtschnitt entsprechen, ausgewertet werden können, sondern dass dies auch für mehrfach belichtete, aus unterschiedlichen Abbildungsrichtungen aufgenommene Bilder von Objekten in einem Volumen möglich ist. Mit der Mehrfachbelichtung der Bilder der Kameras lassen sich auch unter Verwendung von Kameras mit normalen Bildfrequenzen Objekte verfolgen, die ihre Position schnell ändern, weil sie sich beispielsweise mit einer schnellen Strömung bewegen. Dass die Belichtungen über mindestens einen Bildwechsel der Kameras hinweg erfolgen, stellt eine zeitliche Information bereit, weil die Abbilder der Objekte in den früher aufgenommenen Bildern früheren realen Positionen entlang ihrer Trajektorien entsprechen als die Abbilder in den später aufgenommenen Bildern.
  • Es versteht sich, dass die Objekte in dem jeweiligen Volumen bzw. ihre Abbilder in den aufgenommenen Bildern nur eine so hohe Dichte aufweisen dürfen, dass aus den Abbildern reale Positionen der Objekte im Raum bestimmt werden können und dass diese realen Positionen im Raum miteinander verknüpft werden können. Bei Anwendung geeigneter Methoden für die Bestimmung der realen Positionen der Objekte im Raum und ihre Verknüpfung zu Trajektorien, wie sie im Folgenden angegeben werden, sind aber ausreichend hohe Dichten der Objekte im Volumen möglich, um beispielsweise auch komplexere Strömungen bezüglich ihrer Geschwindigkeits-, Beschleunigungs- oder Druckfelder räumlich aufzulösen. Konkret sind Partikeldichten von mehr als 0,05 ppp (particles per pixel, d. h. Teilchen pro Pixel der Bildsensoren der Kameras) möglich.
  • Bei dem erfindungsgemäßen Verfahren werden zu im Wesentlichen allen Abbildern der Objekte auch in den mehrfach zeitgleich belichteten Bildern reale Positionen der Objekte im Raum bestimmt, und erst diese realen Positionen im Raum werden zu den jeweils zu einem der Objekte gehörenden Trajektorien verknüpft. Es erfolgt also noch keine Verknüpfung der Abbilder der Objekte in den mehrfach belichteten Bildern und zwischen den Bildern. Dies schließt jedoch nicht aus, dass die aus der Verknüpfung der realen Positionen zu Trajektorien jeweils eines Objekts erlangten Informationen zu dem Schritt des Bestimmens der realen Positionen der einzelnen Objekte aus ihren Abbildern zurückgeführt werden, um diese realen Positionen insbesondere mit größerer Genauigkeit zu bestimmen. Auch eine Rückführung zu dem Schritt des Verknüpfens, insbesondere zur Erhöhung der Sicherheit bei der Zuordnung verschiedener realer Positionen zu jeweils einem Objekt, ist möglich.
  • Bei dem erfindungsgemäßen Verfahren werden die Bilder der Kameras zu den mindestens zwei voneinander beabstandeten Zeiten in gleicher Weise belichtet, so dass die Abbilder eines selben realen Objekts in den einzelnen Bildern nicht unterscheidbar sind und so nicht auf die Zeiten der ihnen zugrundeliegenden Belichtungen der Kameras rückgeschlossen werden kann. Die Unterscheidung der Abbilder nach den verschiedenen Zeiten und Objekten erfolgt bei dem erfindungsgemäßen Verfahren vielmehr grundsätzlich durch das Verknüpfen der jeweils zu einem der Objekte gehörenden realen Positionen zu einer Trajektorie des jeweiligen Objekts im Raum. Dieses Verknüpfen setzt demnach nicht voraus, dass sich die zu jeweils einem der Objekte gehörenden realen Positionen schon vorher von den realen Positionen der anderen Objekte im Raum unterscheiden lassen. Vielmehr beinhaltet der Schritt des Verknüpfens des erfindungsgemäßen Verfahrens die Analyse, welche realen Positionen jeweils welchem der Objekte zuzuordnen sind.
  • Bei dem erfindungsgemäßen Verfahren wird jedes der mindestens zwei aufeinanderfolgenden Bilder jeder der Kameras zu mindestens zwei voneinander beabstandeten Zeiten belichtet, deren Abstand mindestens das Zweifache und vorzugsweise das Fünffache oder das Zehnfache eines Abstands beträgt, den die erste Zeit der Belichtung des späteren zu der letzten Zeit der Belichtung des früheren der mindestens zwei aufeinanderfolgenden Bilder aufweist. Je eine der Zeiten, zu denen die Bilder der Kameras belichtet werden, grenzt also in jedem der beiden aufeinanderfolgenden Bilder dicht an den Bildwechsel zwischen den mindestens zwei aufeinanderfolgenden Bildern und die damit verbundene kurze Totzeit der Kameras an.
  • Die dichter aufeinanderfolgenden Zeiten der Belichtung der Bilder der Kameras führen dazu, dass sich die Objekte zwischen diesen Zeiten nicht weit bewegt haben können, so dass eine einfache Verknüpfung der zugehörigen realen Positionen im Raum möglich ist. Die realen Position zu den jeweils weiter voneinander beabstandeten Zeiten sind zwar nicht ganz so leicht zu der Trajektorie des jeweiligen Objekts zu verknüpfen. Die größeren Abstände dieser realen Positionen der Objekte lassen aber eine genauere Bestimmung der Geschwindigkeiten der Objekte und bei Bestimmung mehrerer Geschwindigkeiten auch der Beschleunigungen der Objekte zu.
  • Wie schon angesprochen wurde, ist das erfindungsgemäße Verfahren insbesondere dazu geeignet, aus den Trajektorien der Objekte Geschwindigkeiten und/oder Beschleunigungen der einzelnen Objekte bzw. Geschwindigkeitsfelder, Beschleunigungsfelder und/oder Druckfelder einer Strömung zu bestimmen, mit der sich die Objekte bewegen. Für letztere Bestimmungen können die Objekte in einer geeigneten Dichte in die Strömung eingeimpft werden, so dass sie sich mit der Strömung bewegen, wenn die Bilder von ihnen aufgenommen werden. Bei den Objekten kann es sich um Objekte handeln, mit denen üblicherweise Strömungen beimpft werden, um diese optisch zu vermessen. Hierzu zählen feste Teilchen, feine Tropfen und feine Gasblasen sowohl in strömenden Gasen als auch in strömenden Flüssigkeiten.
  • Die Bilder der Kameras können zu den voneinander beabstandeten Zeiten durch Öffnen eines Verschlusses der jeweiligen Kamera belichtet werden. Grundsätzlich kann es sich dabei um einen mechanischen Verschluss handeln. Schneller und insbesondere schneller hintereinander sind elektronische Verschlüsse ansteuerbar. Sehr dicht aufeinanderfolgende Zeiten der Belichtung der Bilder der Kameras werden nicht mit einem Verschluss, sondern dadurch realisiert, dass die Objekte zu den voneinander beabstandeten Zeiten mit Lichtpulsen beleuchtet werden, deren Intensität für eine Abbildung der Objekte binnen der kurzen Zeiten ausreicht. Geeignet sind hierfür beispielsweise Laserlichtpulse von Lasern mit ausreichend hoher Ausgangsleistung. Dabei erweist es sich als vorteilhaft, dass viele Laser zumindest zweimal kurz hintereinander zur Abgabe eines Laserlichtpulses hoher Lichtleistung ansteuerbar sind. Statt Lasern können aber auch LEDs oder LED-Arrays als Lichtquellen für geeignete Lichtpulse verwendet werden. Weitere Lichtquellen, wie beispielsweise Laserdioden, können ebenfalls eingesetzt werden.
  • Aus den Abbildern der einzelnen Objekte in den Bildern der Kameras, die jeweils zu den mindestens zwei gleichen Zeiten belichtet wurden, kann die Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum durch Triangulation bestimmt werden. Diese Verteilung der Position der einzelnen Objekte im dreidimensionalen Raum ist dann die Grundlage für die Verknüpfung der realen Positionen zu Trajektorien der einzelnen Objekte.
  • Die Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum kann auch tomographisch aus den Bildern der Kameras bestimmt wird, die jeweils zu den mindestens zwei gleichen Zeiten belichtet wurden, wie dies beispielsweise aus der US 2005/0062954 A1 und dem entsprechenden Patent US 7,382,900 B2 bekannt ist.
  • Das Ergebnis einer solchen tomographischen Analyse der zeitgleich belichteten Bilder mag man genauer als eine Dichteverteilung der Objekte über Voxel eines Messvolumens bezeichnen. Wenn in dieser Anmeldung von realen Positionen der Objekte im Raum die Rede ist, soll dies aber immer die Möglichkeit implizieren, dass diese realen Positionen im Raum als Dichteverteilung der Objekte über Voxel eines Messvolumens beschrieben werden.
  • Eine weitere, bevorzugte Möglichkeit, die Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum zu bestimmen, besteht darin, dass eine angenommene Verteilung der realen Positionen der einzelnen Objekte im Raum an ihre Abbilder in den Bildern der Kameras angepasst wird, die jeweils zeitgleich belichtet wurden, wie dies beispielsweise aus der DE 10 2009 009 551 B4 oder der WO 2014/191461 A1 bekannt ist. Es versteht sich aber, dass dabei die angenommene Verteilung für jedes der Objekte und jede Zeit des Belichtens je eine Position umfassen muss. Das heißt, bei zwei Belichtungen der zeitgleich belichteten Bilder muss die Verteilung zweimal so viele reale Positionen aufweisen, wie Objekte abgebildet werden, da jedes Objekt an zwei Positionen abgebildet wird, sofern es sich zwischen den aufeinanderfolgenden Belichtungen der Bilder bewegt hat.
  • Soweit von der Lehre der WO 2014/191461 A1 im Rahmen der vorliegenden Erfindung Gebrauch gemacht wird, kann die angenommene Verteilung für einen Satz von zeitgleich belichteten Bildern der Kameras aus einer Verteilung, die aus den Abbildern der einzelnen Objekte in anderen Bildern der Kameras, die jeweils zu anderen gleichen Zeiten belichtet wurden, bestimmt wurde oder aus einer für eine der Zeiten, zu der die anderen Bilder belichtet wurden, bestimmten Momentanverteilung der realen Positionen der einzelnen Objekte im Raum abgeschätzt werden. Dieses Abschätzen kann ein Extrapolieren der realen Positionen der einzelnen Objekte im Raum längs der Trajektorien der einzelnen Objekte im Raum auf die mindestens zwei gleichen Zeiten umfassen. Hiermit ist dann auch eine Basis für das fortgesetzte Verknüpfen der realen Positionen zu Trajektorien der einzelnen Objekte im Raum gegeben.
  • Die Verknüpfung der realen Positionen der einzelnen Objekte zu Trajektorien kann zudem oder stattdessen auch auf der Berechnung einer Autokorrelationsfunktion der Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum beruhen, die aus den Abbildern der Objekte in den zeitgleich mehrfach belichteten Bildern bestimmt wurde. Entsprechend kann eine Kreuzkorrelationsfunktion von solchen zwei Verteilungen der realen Positionen der einzelnen Objekte im dreidimensionalen Raum berechnet werden, die aus den Abbildern der Objekte in den mindestens zwei aufeinanderfolgenden Bildern bestimmt wurden, um die verschiedenen Positionen jeweils eines der Objekte während des Belichtens der mindestens zwei aufeinanderfolgenden Bilder jeder der Kameras zu verknüpfen.
  • Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den Patentansprüchen, der Beschreibung und den Zeichnungen. Die in der Beschreibung genannten Vorteile von Merkmalen und von Kombinationen mehrerer Merkmale sind lediglich beispielhaft und können alternativ oder kumulativ zur Wirkung kommen, ohne dass die Vorteile zwingend von erfindungsgemäßen Ausführungsformen erzielt werden müssen. Ohne dass hierdurch der Gegenstand der beigefügten Patentansprüche verändert wird, gilt hinsichtlich des Offenbarungsgehalts der ursprünglichen Anmeldungsunterlagen und des Patents Folgendes: weitere Merkmale sind den Zeichnungen - insbesondere den dargestellten Geometrien und den relativen Abmessungen mehrerer Bauteile zueinander sowie deren relativer Anordnung und Wirkverbindung - zu entnehmen. Die Kombination von Merkmalen unterschiedlicher Ausführungsformen der Erfindung oder von Merkmalen unterschiedlicher Patentansprüche ist ebenfalls abweichend von den gewählten Rückbeziehungen der Patentansprüche möglich und wird hiermit angeregt. Dies betrifft auch solche Merkmale, die in separaten Zeichnungen dargestellt sind oder bei deren Beschreibung genannt werden. Diese Merkmale können auch mit Merkmalen unterschiedlicher Patentansprüche kombiniert werden. Ebenso können in den Patentansprüchen aufgeführte Merkmale für weitere Ausführungsformen der Erfindung entfallen.
  • Die in den Patentansprüchen und der Beschreibung genannten Merkmale sind bezüglich ihrer Anzahl so zu verstehen, dass genau diese Anzahl oder eine größere Anzahl als die genannte Anzahl vorhanden ist, ohne dass es einer expliziten Verwendung des Adverbs „mindestens“ bedarf. Wenn also beispielsweise von einem Element die Rede ist, ist dies so zu verstehen, dass genau ein Element, zwei Elemente oder mehr Elemente vorhanden sind. Die in den Patentansprüchen angeführten Merkmale können durch andere Merkmale ergänzt werden oder die einzigen Merkmale sein, die das jeweilige Verfahren aufweist.
  • Die in den Patentansprüchen enthaltenen Bezugszeichen stellen keine Beschränkung des Umfangs der durch die Patentansprüche geschützten Gegenstände dar. Sie dienen lediglich dem Zweck, die Patentansprüche leichter verständlich zu machen.
  • Figurenliste
  • Im Folgenden wird die Erfindung anhand in den Figuren dargestellter bevorzugter Ausführungsbeispiele weiter erläutert und beschrieben.
    • 1 illustriert einen Messaufbau zum Aufnehmen von zweidimensionalen Bildern einer Vielzahl von Objekten aus mehreren Abbildungsrichtungen mit mehreren synchronisierten Kameras.
    • 2 illustriert verschiedene mögliche zeitliche Abfolgen von Lichtpulsen für das Beleuchten der Vielzahl von Objekten gemäß 1 zum Belichten von aufeinanderfolgenden Bildern der Kameras, wobei die Abfolge gemäß 2 (a) nicht unter die Patentansprüche fällt.
    • 3 ist ein Flussdiagramm zur Erläuterung des Ablaufs des erfindungsgemäßen Verfahrens; und
    • 4 erläutert den Schritt des Verknüpfens von realen Positionen eines einzelnen Objekts im Raum, die das Objekt jeweils während des Belichtens von zwei aufeinanderfolgenden Bildern jeder der Kameras einnimmt, zu einer zeitlich aufgelösten Trajektorie des Objekts.
  • FIGURENBESCHREIBUNG
  • Die in 1 dargestellte Messanordnung 1 umfasst mindestens zwei Kameras 2 und 3. Die Kameras 2 und 3 weisen jeweils ein Objektiv 4 und einen Bildsensor 5 auf. Die Objektive 4 bilden ein von beiden Kameras 2 und 3 erfasstes Messvolumen 6 jeweils aus einer Abbildungsrichtung 7, die der optischen Achse 8 ihres Objektivs 4 entspricht, auf den Bildsensor 5 ab. In dem Messvolumen 6 befindet sich eine Vielzahl von Objekten 9, die in eine schematisch angedeutete Strömung 10 eingeimpft sind und sich mit der Strömung 10 bewegen. Die Kameras 2 und 3 sind elektronische Kameras, bei denen die Bildsensoren 5 bildweise die Intensität von einfallendem Licht aufintegrieren und ausgeben. Dabei sind die Kameras 2 und 3 synchronisiert, d. h. Wechsel zwischen den Bildern der Kameras 2 und 3 erfolgen zumindest soweit gleichzeitig, dass die Bilder der verschiedenen Kameras 2 und 3 zeitgleich belichtet werden.
  • Das Belichten der Bilder der Kameras 2 und 3 erfolgt durch Beleuchten der Objekte 9 in dem Messvolumen 6 mit einer Lichtquelle 11. Die Lichtquelle 11 umfasst hier neben zwei gepulsten Lasern 12 und einer Projektionslinse 14 zwei Lichtleiter 13. Statt der beiden Lichtleiter 13 kann beispielsweise auch ein Polarisationsstrahlteiler zum Zusammenführen des dann vorzugsweise unterschiedlich polarisierten Laserlichts von den beiden Lasern 12 vor der Projektionslinse 14 verwendet werden. Die Laser 12 werden wechselweise so angesteuert, dass die Objekte 9 mit Lichtpulsen beleuchtet werden. Mit dem von den Objekten 9 reflektierten Licht werden die Bilder der Kameras 2 und 3 belichtet. Da das Messvolumen 6 ansonsten unbeleuchtet ist, werden die Bilder der Kameras 2 und 3 nur während der Zeiten der Lichtpulse von den Lasern 12 belichtet. Grundsätzlich wäre ein Laser 12 für die Lichtquelle 11 ausreichend. Durch den zweiten Laser 12 ist es aber einfacher möglich, das Messvolumen 6 zweimal schnell hintereinander mit je einem Lichtpuls hoher Intensität von einem der beiden Laser 12 zu beleuchten.
  • Aus den Abbildern der Objekte 9 in den mit den Bildsensoren 5 aufgenommenen Bildern, die das Messvolumen 6 aus den unterschiedlichen Abbildungsrichtungen 7 zeigen, sind die realen Positionen der Objekte 9 in dem Messvolumen 6 bestimmbar. Diese Bestimmung kann, wie bereits ausgeführt wurde, auf unterschiedliche Weise erfolgen.
  • 2 (a) zeigt die Abfolge von zwei Lichtintegrationszeiträumen 15 und 16 der Kameras 2 und 3 gemäß 1, die durch Bildwechsel 30 der Bildsensoren 5 gemäß 1 begrenzt und gegeneinander abgegrenzt sind. Innerhalb jedes der beiden Lichtintegrationszeiträume 15 und 16 wird das auf die Bildsensoren 5 einfallende Licht aufintegriert, um eines von zwei aufeinanderfolgenden Bildern aufzunehmen. Jedes dieser Bilder wird zu zwei Zeiten 17 und 18 bzw. 19 und 20 kurzzeitig belichtet, indem die Objekte 9 in dem Messvolumen 6 mit einem Lichtpuls 21 von dem einen oder dem anderen der beiden Laser 12 beleuchtet werden. Dabei liegen hier die beiden Zeiten 17 und 18 bzw. 19 und 20 innerhalb des jeweiligen Lichtintegrationszeitraums 15 bzw. 16 dicht beieinander, während sie von Lichtintegrationszeitraum 15 zu Lichtintegrationszeitraum 16 betrachtet etwa um den Abstand der aufeinanderfolgenden Bildwechsel 30 auseinander liegen.
  • 2 (b) illustriert demgegenüber eine Ausführungsform des erfindungsgemäßen Verfahrens, bei der die in jeden der Lichtintegrationszeiträume 15 bzw. 16 fallenden Zeiten 17 und 18 bzw. 19 und 20 der Lichtpulse 21 innerhalb des Lichtintegrationszeitraums 15 und 16 weit auseinander liegen, aber von Lichtintegrationszeitraum 15 zu Lichtintegrationszeitraum 16 dicht beieinander liegen. In jedem Fall sorgen die zeitlich dicht beieinanderliegenden Lichtpulse 21 für dichter beieinanderliegende reale Positionen der Objekte 9 in dem Messvolumen 6 als weiter auseinanderliegende Lichtpulse 21. Dichter beieinanderliegende reale Positionen der Objekte 9 in dem Messvolumen 6 lassen sich leichter einem einzelnen Objekt 9 zuordnen als weiter voneinander reale entfernte Positionen. Letztere erlauben hingegen eine genauere Bestimmung der Geschwindigkeit des jeweiligen Objekts 9 zwischen den realen Positionen.
  • 2 (c) zeigt in dem Lichtintegrationszeitraum 15 noch einen dritten Lichtpuls 21 zu einer Zeit 22 und in dem Lichtintegrationszeitraum 16 noch einen dritten Lichtpuls 21 zu einer Zeit 23. Dabei sind alle Lichtpulse 21 bzw. die zugehörigen Zeiten 17, 18, 22, 19, 20, 23 in gleichen Abständen zueinander angeordnet. Entsprechend sind auch die realen Positionen der Objekte 9 in dem Messvolumen 6 zu den Zeiten 17, 18, 22, 19, 20, 23 gleich beabstandet, sofern sich die Objekte 9 gleichförmig durch das Messvolumen 6 bewegen. Grundsätzlich können auch noch mehr Lichtpulse 21 auf jeden der Lichtintegrationszeiträume 15 und 16 entfallen. In den aufeinanderfolgenden Lichtintegrationszeiträumen 15 und 16 können auch unterschiedlich viele Lichtpulse 21 auf das Messvolumen 6 gerichtet werden.
  • Auch wenn sich in 2 die Lichtintegrationszeiträume 15 und 16 jeweils über den gesamten Abstand der aufeinanderfolgenden Bildwechsel 30 erstrecken, könnten sie sich auf kürzere, die Zeiten 17, 18 und ggf. 22 bzw. 19, 20 und ggf. 23 umfassende Intervalle konzentrieren. Die Lichtintegrationszeiträume 15 und 16 könnten dabei auch zwischen den Zeiten 17, 18 und ggf. 22 bzw. 19, 20 und ggf. 23 unterbrochen werden, um das außerhalb des gewünschten Belichtens der Bilder zu den Zeiten 17, 18 und ggf. 22 bzw. 19, 20 und ggf. 23 als Untergrund registrierte Licht zu minimieren.
  • Das Flussdiagramm gemäß 3 (a) erläutert die Auswertung der mit den Kameras 2 und 3 gemäß 1 aufgenommenen Bilder des Messvolumens 6 für Abstände zwischen Lichtpulsen wie in 2 (a) dargestellt. In einem Schritt 24 wird die Verteilung der realen Positionen im Raum des Messvolumens 6 aus den Abbildern der Objekte 9 in den jeweils zeitgleich belichteten Bildern bestimmt. Dann werden in einem Schritt 25 die realen Positionen innerhalb jeder dieser Verteilungen zu Trajektorien der Objekte 9 verknüpft. In einem Schritt 26 erfolgt eine Verknüpfung dieser Trajektorien der Objekte 9 auch zwischen den Verteilungen, wodurch sich zeitaufgelöste Trajektorien der Objekte 9 ergeben. Bei Betrachtung nur der aus den Abbildern der Objekte 9 in den jeweils zeitgleich belichteten Bildern bestimmten realen Positionen bzw. der diese verknüpfenden Trajektorien lässt sich die zeitliche Abfolge der realen Positionen, d. h. die Bewegungsrichtung des jeweiligen Objekts 9 entlang der jeweiligen Trajektorie, noch nicht feststellen. Die im Schritt 26 bestimmten zeitaufgelösten Trajektorien der Objekte 9 können wiederum genutzt werden, um die Bestimmung der realen Positionen zu den Abbildern der Objekte 9 in dem Schritt 24 zu verbessern, wie dies beispielsweise aus der WO 2014/191461 A1 bekannt ist. Zudem kann die Auswertung über eine Vielzahl von aufeinanderfolgenden Bildern jeder der Kamers 2 und 3 nicht nur in deren tatsächlichen zeitlichen Abfolge, sondern auch entgegen deren tatsächlichen zeitlichen Abfolge erfolgen, um die Trajektorien maximal an die aufgenommenen Bilder des Messvolumens 6 anzupassen, d. h. die in diesen Bildern enthaltenen Informationen maximal zu nutzen.
  • Das Flussdiagramm gemäß 3 (b) entspricht dagegen einer bevorzugten Auswertung für Abstände zwischen Lichtpulsen wie in 2 (b) dargestellt. Schritt 25 und 26 sind vertauscht.
  • Aufgrund des geringen Abstandes zwischen den realen Positionen zu den Zeiten 18 und 19 werden zuerst diese zu einer Trajektorie des jeweiligen Objekts 9 verknüpft, gefolgt von der Erweiterung der Trajektorie auf die reale Position zur Zeit 17 der früheren Belichtung des ersten Bilds während des ersten Lichtintegrationszeitraums 15 und die reale Position zur Zeit 20 der späteren Belichtung des zweiten Bilds während des zweiten Lichtintegrationszeitraums 16.
  • Bei dem erfindungsgemäßen Verfahren werden keine Positionen von Abbildern der Objekte 9 in den mit den Bildsensoren 5 aufgenommenen Bildern miteinander verknüpft, sondern die aus diesen Abbildern bestimmten realen Positionen der Objekte 9 im Raum. Dies ist bei der Betrachtung von 4 zu berücksichtigen, die Projektionen von realen Positionen eines Objekts 9 im Raum zu den Zeiten 17 bis 20 gemäß 2 (a) auf eine x-y-Ebene zeigt, wobei die Zeiten 17 und 18 sowie 19 und 20 entsprechend 2 (a) dichter beieinander liegen als die Zeiten 18 und 19. Zu den beiden Zeiten 17 und 18 wird das erste Bild jeder der Kameras 2 und 3 in dem Lichtintegrationszeitraum 15 belichtet. Entsprechend gehören die zu den Zeiten 17 und 18 eingenommenen Positionen des Objekts 9 zu einer in 4 (a) links angedeuteten Verteilung 27 von realen Positionen, die aus den Abbildern der Objekte 9 in diesen Bildern bestimmte wurde. Die zu den Zeiten 19 und 20 eingenommenen Positionen gehören demgegenüber zu einer aus den Abbildern der Objekte 9 in dem folgenden Bild jeder der Kameras bestimmten Verteilung 28 von realen Positionen. Jede dieser Verteilungen 27 und 28 umfasst damit nur einen Teil der Trajektorie 29 des betrachteten Objekts 9, wobei die Richtung der Trajektorie 29 noch offen ist. Erst die Verknüpfung der beiden Verteilungen 27 und 28, wie sie in 4 (b) angedeutet ist, lässt die Trajektorie 29 des betrachteten Objekts 9 vollständig, einschließlich ihrer zeitlichen Abfolge, d. h. ihrer Richtung, erkennen. Dabei sind die realen Positionen des Objekts 9 längs der Trajektorie 29 bzw. deren Abstände ein Maß für die Geschwindigkeit des Objekts 9. Sich ändernde Geschwindigkeiten bedeuten Beschleunigungen des Objekts 9; und bei Betrachtung einer Vielzahl von Objekten 9 lassen sich Rückschlüsse auf die Dichte der Objekte 9 und damit auch die Dichte bzw. den Druck in der jeweiligen Strömung 10 ziehen.
  • Bezugszeichenliste
  • 1
    Messanordnung
    2
    Kamera
    3
    Kamera
    4
    Objektiv
    5
    Bildsensor
    6
    Messvolumen
    7
    Abbildungsrichtung
    8
    optische Achse des Objektivs 4
    9
    Objekt
    10
    Strömung
    11
    Lichtquelle
    12
    Laser
    13
    Lichtleiter
    14
    Projektionslinse
    15
    Lichtintegrationszeitraum
    16
    Lichtintegrationszeitraum
    17
    Zeit
    18
    Zeit
    19
    Zeit
    20
    Zeit
    21
    Lichtpuls
    22
    Zeit
    23
    Zeit
    24
    Schritt
    25
    Schritt
    26
    Schritt
    27
    Verteilung
    28
    Verteilung
    29
    Trajektorie
    30
    Bildwechsel

Claims (10)

  1. Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten (9) mit - Aufnehmen von zweidimensionalen Bildern der Vielzahl der Objekte (9) aus mehreren Abbildungsrichtungen mit mehreren S/W-Kameras (2, 3), - wobei die Bilder der S/W-Kameras (2, 3) zeitgleich belichtet werden und wobei mindestens zwei aufeinanderfolgende Bilder jeder der S/W-Kameras (2, 3) belichtet werden, - Bestimmen von realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern und - Verknüpfen der zu jeweils einem der Objekte (9) gehörenden realen Positionen zu einer zeitlich aufgelösten Trajektorie (29) des jeweiligen Objekts (9) im dreidimensionalen Raum, dadurch gekennzeichnet, - dass beide der mindestens zwei aufeinanderfolgenden Bilder jeder der S/W-Kameras (2, 3) zu mindestens zwei voneinander beabstandeten Zeiten (17, 18, 22; 19, 20, 23) in gleicher Weise belichtet werden, wobei ein Abstand der mindestens zwei voneinander beabstandeten Zeiten (17, 18; 19, 20) mindestens das Zweifache eines Abstands beträgt, den die erste Zeit des Belichtens des späteren zu der letzten Zeit des Belichtens des früheren der mindestens zwei aufeinanderfolgenden Bilder aufweist, - dass aus den Abbildern der Objekte (9) in den Bildern der S/W-Kameras (2, 3), die jeweils zu den mindestens zwei gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden, eine Verteilung (27, 28) von realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum bestimmt wird, und - dass auch verschiedene Positionen jeweils eines der Objekte (9) innerhalb jeder der Verteilungen (27, 28) zu der zeitlich aufgelösten Trajektorie (29) des jeweiligen Objekts (9) im Raum verknüpft werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Abstand der mindestens zwei voneinander beabstandeten Zeiten (17, 18; 19, 20) mindestens das Fünffache oder das Zehnfache des Abstands beträgt, den die erste Zeit des Belichtens des späteren zu der letzten Zeit des Belichtens des früheren der mindestens zwei aufeinanderfolgenden Bilder aufweist.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den realen Positionen Geschwindigkeiten und/oder Beschleunigungen der einzelnen Objekte (9) und/oder Geschwindigkeitsfelder, Beschleunigungsfelder und/oder Druckfelder einer Strömung (10) bestimmt werden, mit der sich die Objekte (9) bewegen.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilder der S/W-Kameras (2, 3) zu den voneinander beabstandeten Zeiten (17, 18, 22, 19, 20, 23) belichtet werden, indem die Objekte (9) mit Lichtpulsen (21) beleuchtet werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den Abbildern der einzelnen Objekte (9) in den Bildern der S/W-Kameras (2, 3), die jeweils zu den mindestens zwei gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden, die Verteilung der realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum durch Triangulation bestimmt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verteilung der realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum tomographisch aus den Bildern der S/W-Kameras (2, 3) bestimmt wird, die jeweils zu den mindestens zwei gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine angenommene Verteilung (27, 28) der realen Positionen der einzelnen Objekte (9) im Raum an ihre Abbilder in den Bildern der S/W-Kameras (2, 3) angepasst wird, die jeweils zu den mindestens zwei gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden, um die Verteilung (27, 28) der realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum zu bestimmen.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die angenommene Verteilung (27, 28) für die Bilder der S/W-Kameras (2, 3), die jeweils zu den mindestens zwei gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden, aus - einer Verteilung, die aus den Abbildern der einzelnen Objekte (9) in anderen Bildern der S/W-Kameras (2, 3), die jeweils zu anderen gleichen Zeiten (17, 18, 22; 19, 20, 23) belichtet wurden, bestimmt wurde, oder - einer für eine der Zeiten, zu der die anderen Bilder der S/W-Kameras (2, 3) belichtet wurden, bestimmten Momentanverteilung der realen Positionen der einzelnen Objekte (9) im Raum durch Extrapolieren längs der Trajektorien (29) der einzelnen Objekte (9) im Raum auf die mindestens zwei gleichen Zeiten (17, 18, 22) abgeschätzt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Autokorrelationsfunktion der Verteilung (27, 28) der realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum berechnet wird, um die verschiedenen Positionen jeweils eines der Objekte (9) zu den mindestens zwei Zeiten (17, 18, 22, 19, 20, 23) zu verknüpfen, zu denen die zu der Verteilung (27, 28) zugehörigen Bilder der S/W-Kameras (2, 3) zeitgleich belichtet wurden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Kreuzkorrelationsfunktion von zwei Verteilungen (27, 28) der realen Positionen der einzelnen Objekte (9) im dreidimensionalen Raum berechnet wird, um die verschiedenen Positionen jeweils eines der Objekte (9) während der Zeiten (17, 18, 22, 19, 20, 23) zu verknüpfen, zu denen die zu den Verteilungen (27, 28) zugehörigen Bilder der S/W-Kameras (2, 3) zeitgleich belichtet wurden.
DE102017113194.9A 2017-06-14 2017-06-14 Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum Active DE102017113194B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017113194.9A DE102017113194B4 (de) 2017-06-14 2017-06-14 Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum
US16/008,326 US10890521B2 (en) 2017-06-14 2018-06-14 Method of tracking a plurality of point-shaped objects in a three-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017113194.9A DE102017113194B4 (de) 2017-06-14 2017-06-14 Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum

Publications (2)

Publication Number Publication Date
DE102017113194A1 DE102017113194A1 (de) 2018-12-20
DE102017113194B4 true DE102017113194B4 (de) 2019-06-19

Family

ID=64457336

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017113194.9A Active DE102017113194B4 (de) 2017-06-14 2017-06-14 Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum

Country Status (2)

Country Link
US (1) US10890521B2 (de)
DE (1) DE102017113194B4 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230003632A1 (en) * 2019-09-20 2023-01-05 Kansas State University Research Foundation Methods and apparatus for contactless orthographic imaging of aerosol particles
CN114530018B (zh) * 2022-04-24 2022-08-16 浙江华眼视觉科技有限公司 一种基于取件人轨迹分析的语音提示方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050062954A1 (en) 2003-09-18 2005-03-24 Lavision Gmbh Method of determining a three-dimensional velocity field in a volume
DE102009029321A1 (de) 2009-09-09 2011-05-12 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur videografischen Aufzeichnung schneller Vorgänge
DE102009009551B4 (de) 2009-02-19 2013-02-07 Lavision Gmbh Verfahren zur Bestimmung von Strömungsverhältnissen
DE102012112118A1 (de) 2012-12-11 2014-06-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verwendung eines Bildsensors zur Aufzeichnung schnell aufeinander folgender Bilder
DE102013104060A1 (de) 2013-04-22 2014-10-23 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur videografischen Verfolgung von schnell bewegten Objekten
WO2014191461A1 (de) 2013-05-31 2014-12-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur ermittlung einer sich ändernden räumlichen verteilung von partikeln zu mehreren zeitpunkten

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4408072C2 (de) 1994-02-01 1997-11-20 Deutsche Forsch Luft Raumfahrt Verwendung einer elektronischen Hochgeschwindigkeitskamera bei einem Verfahren zur Bestimmung von Strömungsgeschwindigkeiten in einer Strömung
MY158884A (en) * 2009-05-01 2016-11-30 Xtralis Technologies Ltd Particle detectors
EP2550351A4 (de) * 2010-03-25 2014-07-09 Quantalife Inc Detektionssystem für assays auf tröpfchenbasis
CN108449962B (zh) * 2015-09-30 2020-12-15 卡勒格锐研究有限公司 用于确定物体的反射率的方法和相关设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050062954A1 (en) 2003-09-18 2005-03-24 Lavision Gmbh Method of determining a three-dimensional velocity field in a volume
US7382900B2 (en) 2003-09-18 2008-06-03 Lavision Gmbh Method of determining a three-dimensional velocity field in a volume
DE102009009551B4 (de) 2009-02-19 2013-02-07 Lavision Gmbh Verfahren zur Bestimmung von Strömungsverhältnissen
DE102009029321A1 (de) 2009-09-09 2011-05-12 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur videografischen Aufzeichnung schneller Vorgänge
DE102012112118A1 (de) 2012-12-11 2014-06-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verwendung eines Bildsensors zur Aufzeichnung schnell aufeinander folgender Bilder
DE102013104060A1 (de) 2013-04-22 2014-10-23 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur videografischen Verfolgung von schnell bewegten Objekten
WO2014191461A1 (de) 2013-05-31 2014-12-04 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur ermittlung einer sich ändernden räumlichen verteilung von partikeln zu mehreren zeitpunkten

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ADRIAN, R.J., Particle-Imaging techniques for experimental fluid mechanics. In: Annular Review or Fluid Mechanics, 23 (1991), Seiten 261-304 *
J. Adrian: Particle-Imaging techniques for experimental fluid mechanics. In: Annu. Rev. Fluid Mech. 1991. 23: 261-304, Seiten 261 bis 304 ist es bei der Particle Image Velocimetry
LIM, W.L. et al., Improving the dynamic range or particle tracking velocimetry systems. In: Experiments in Fluids, 17 (2004), Seiten 282-289 *
WESTERWEEL, J. et al., Particle Image Velocimetry for Complex and Turbulent Flows. In: Annual Review or Fluid Mechanics, 45 (2013), Seiten 409-436 *

Also Published As

Publication number Publication date
US20190139235A1 (en) 2019-05-09
DE102017113194A1 (de) 2018-12-20
US10890521B2 (en) 2021-01-12

Similar Documents

Publication Publication Date Title
DE4408072C2 (de) Verwendung einer elektronischen Hochgeschwindigkeitskamera bei einem Verfahren zur Bestimmung von Strömungsgeschwindigkeiten in einer Strömung
DE102004014048B4 (de) Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
DE102008040947A1 (de) 3D-Dentalkamera zur Erfassung von Oberflächenstrukturen eines Messobjekts mittels Triangulation
DE2225557A1 (de) Entfernungsmesser
EP2276585A1 (de) Verfahren zum optischen detektieren von bewegten objekten
DE102016000415A1 (de) Vorrichtung zum dreidimensionalen Erfassen einer Oberflächenstruktur
DE10343160B3 (de) Verfahren zur Bestimmung eines dreidimensionalen Geschwindigkeitsfeldes in einem Volumen
DE102017113194B4 (de) Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum
DE102013104425B3 (de) Verfahren zur Erfassung von Geschwindigkeitsverstößen mit restriktiver Datenspeicherung
EP1870761B1 (de) Rastermikroskop zur optischen Vermessung eines Objekts
DE60036467T2 (de) Verfahren und vorrichtung zur dopplergeschwindigkeitsmessung
EP1181561B1 (de) Verfahren und vorrichtung zur analyse von strömungen
EP3593190B1 (de) 3d-mikroskopie
DE102009029321B4 (de) Verfahren und Vorrichtung zur videografischen Aufzeichnung schneller Vorgänge
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
DE19921374C2 (de) Vorrichtung zur dreidimensionalen optischen Untersuchung eines Objektes mit Beleuchtung durch eine Lochplatte
DE102013104060B4 (de) Verfahren und Vorrichtung zur videografischen Verfolgung von schnell bewegten Objekten
DE10256725B3 (de) Sensor, Vorrichtung und Verfahren zur Geschwindigkeitsmessung
DE102011007751A1 (de) Weitfeldmikroskop und Verfahren zur Weitfeldmikroskopie
DE102016008854A1 (de) System zur gleichzeitigen videografischen oder fotografischen Erfassung von mehreren Bilder
DE102009001518B4 (de) Verfahren zur Erzeugung einer HDR-Videobildfolge
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera
DE102016109131B4 (de) Verfahren zur dreidimensionalen Erfassung eines Objekts
DE102012102962B3 (de) Verfahren zur Bildaufzeichnung
DE102016110433B4 (de) Mikroskop und Mikroskopieverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final