-
TECHNISCHES GEBIET DER ERFINDUNG
-
Die Erfindung bezieht sich auf ein Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum. Spezieller bezieht sich die vorliegende Erfindung auf ein Verfahren, bei dem zweidimensionale Bilder einer Vielzahl von punktförmigen Objekten aus mehreren Abbildungsrichtungen mit mehreren S/W-Kameras aufgenommen werden, wobei die Bilder der S/W-Kameras zeitgleich belichtet werden und wobei mindestens zwei aufeinanderfolgenden Bilder jeder der S/W-Kameras belichtet werden, bei dem reale Positionen der einzelnen Objekte im dreidimensionalen Raum aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern bestimmt werden und bei dem die zu jeweils einem der Objekte gehörenden realen Positionen zu einer zeitlich aufgelösten Trajektorie des jeweiligen Objekts im dreidimensionalen Raum verknüpft werden.
-
Bei den verfolgten Objekten kann es sich insbesondere um solche handeln, die sich mit einer Strömung bewegen. Dann kann aus den zeitlich aufgelösten Trajektorien der Objekte nicht nur auf deren Geschwindigkeiten und Beschleunigungen, sondern auch auf Geschwindigkeitsfelder, Beschleunigungsfelder und Druckfelder der jeweiligen Strömung geschlossen werden. Die punktförmigen Objekte sind beispielsweise kleine Partikel, Gasblasen oder Tröpfchen, die Licht diffus streuen und die so mit Kameras abgebildet werden können, dass sich in den Bildern der Kameras Abbilder der Objekte zeigen. Bei kleinen Objekten sind diese Abbilder unabhängig von der aktuellen Form der Partikel punktförmig oder quasi-punktförmig.
-
STAND DER TECHNIK
-
Ein Verfahren mit den oben genannten Merkmalen des Oberbegriffs des unabhängigen Patentanspruchs 1 ist aus der
WO 2014/191461 A1 bekannt. Bei dem bekannten Verfahren werden zum Ermitteln einer sich ändernden räumlichen Verteilung von Partikeln zu mehreren in zeitlichen Abständen aufeinander folgenden Zeitpunkten für jeden der Zeitpunkte die folgenden Schritte durchgeführt. Reale zweidimensionale Bilder der Partikel werden mit unterschiedlichen wirksamen Abbildungsfunktionen aufgenommen. Eine geschätzte räumliche Verteilung der Partikel wird vorgegeben, und virtuelle zweidimensionale Bilder der geschätzten räumlichen Verteilung werden mit den unterschiedlichen Abbildungsfunktionen berechnet. Dann werden Differenzen zwischen den virtuellen zweidimensionalen Bildern und den realen zweidimensionalen Bildern mit denselben Abbildungsfunktionen erfasst, und die geschätzte räumliche Verteilung der Partikel wird zur Reduzierung der Differenzen verändert, um ein an die tatsächliche räumliche Verteilung der Partikel zu dem jeweiligen Zeitpunkt angenäherte räumliche Verteilung zu erhalten. Die geschätzte räumliche Verteilung der Partikel wird vorgegeben, indem die Positionen der einzelnen Partikel in einer für einen früheren Zeitpunkt erhaltenen angenäherten räumlichen Verteilung abhängig davon verschoben werden, wie sich ihre Positionen zwischen für mindestens zwei frühere Zeitpunkte angenäherten räumlichen Verteilungen verschoben haben. Auf diese Weise werden die realen Positionen der einzelnen Partikel in den verschiedenen angenäherten räumlichen Verteilungen miteinander verknüpft und so zeitlich aufgelöste Trajektorien der Partikel im Raum ermittelt.
-
Bei der Durchführung des aus der
WO 2014/191461 A1 bekannten Verfahrens zur Bestimmung von Geschwindigkeits-, Beschleunigungs- oder Druckfeldern in schnellen Strömungen müssen die realen Bilder der Partikel sehr schnell hintereinander aufgenommen werden, damit die zu den verschiedenen Zeitpunkten aufgenommenen Bilder zumindest im Wesentlichen dieselben Partikel zeigen. Bei der Geschwindigkeit, mit der mehr als zwei Bilder nacheinander aufgenommen werden können, ist man jedoch grundsätzlich durch die Bildfrequenz der verwendeten Kameras eingeschränkt. Kameras mit sehr hoher Bildfrequenz sind teuer. Um die Vielzahl der Objekte aus mehreren Abbildungsrichtungen aufnehmen zu können, müssen dann entsprechend auch mehrere solche teure Kameras eingesetzt werden.
-
Aus der
DE 10 2012 112 118 A1 ist eine Verwendung eines Bildsensors einer Kamera zur Aufzeichnung schnell aufeinander folgender Bilder bekannt, bei der die jeweils von zwei benachbarten Lichtsensoren registrierten Lichtintensitäten aufaddiert werden, um schnell nacheinander zwei Bilder mit halber Auflösung aufnehmen zu können, denen dann noch ein drittes Bild mit voller Auflösung folgen kann, bevor die beiden ineinander verschachtelten Bilder halber Auflösung aus dem Bildsensor ausgelesen sind. Diese Verwendung ist zwar bei bestimmten, aber doch nur wenigen handelsüblichen Bildsensoren möglich. Sie ist zudem mit dem Nachteil verbunden, dass die beiden ersten Bilder zumindest in einer Richtung nur die halbe räumliche Auflösung aufweisen und dass auch in der Summe nur drei Bilder schnell hintereinander aufgenommen werden können.
-
Aus der
DE 10 2013 104 060 A1 ist ein Verfahren zur Verfolgung mindestens eines schnell bewegten Objekts bekannt, bei dem synchron mehrere Bildsensoren mehrfach belichtet werden, um während einer Belichtungszeit n deckungsgleiche Teilbilder in n voneinander getrennten Spektralbereichen aufzuzeichnen, wobei n größer oder gleich 2 ist. Dabei wird das Objekt zu m aufeinanderfolgenden Zeitpunkten mit m Lichtpulsen unterschiedlicher spektraler Zusammensetzung beleuchtet, wobei m größer als n ist und mindestens einer der m Lichtpulse eine spektrale Zusammensetzung mit wesentlichen Anteilen in mehreren der voneinander getrennten Spektralbereiche aufweist. So können m Abbilder des Objekts aufgrund ihrer unterschiedlichen Lichtintensitäten in den mit den verschiedenen Bildsensoren aufgenommenen Teilbildern zeitlich getrennt werden.
-
Als nachteilig bei dem aus der
DE 10 2013 104 060 A1 bekannten Verfahren erweist es sich jedoch, dass die Bildsensoren exakt relativ zueinander angeordnet werden müssen. Alternativ kann statt drei separaten Bildsensoren zwar auch eine RGB-Kamera verwendet werden. Bei einer RGB-Kamera sind die den Farben Rot, Grün und Blau zugeordneten Bildsensoren aber nicht exakt deckungsgleich sondern leicht zueinander versetzt. Auch die schnelle Beleuchtung des Objekts mit Licht unterschiedlicher spektraler Zusammensetzung nacheinander ist aufwändig.
-
Aus der
DE 10 2009 029 321 A1 ist ein Verfahren zur videografischen Aufzeichnung schneller Vorgänge bekannt, bei dem der jeweilige Vorgang ebenfalls mit Licht unterschiedlicher Farben jeweils kurzzeitig beleuchtet wird und nach Farben getrennte Bilder des Vorgangs aufgezeichnet werden. Konkret werden die Bilder getrennt in den verschiedenen Farbkanälen einer Farbvideokamera aufgezeichnet, die eine digitale RGB-Kamera sein kann. Weiterhin kann der jeweilige Vorgang jeweils vor und nach einem Bildwechsel der Farbvideokamera nacheinander mit Licht aller der unterschiedlichen Farben beleuchtet werden.
-
Aus Markus Raffel et al.: Particle Image Velocimetry: A Practical Guide, Springer-Verlag Berlin Heidelberg, 1998 ist es bekannt, innerhalb eines im Wesentlichen zweidimensionalen Lichtschnitts angeordnete Partikel nacheinander so mit Lichtpulsen zu beleuchten, dass auf jedes Bild der verwendeten Kamera maximal ein Lichtpuls entfällt, so dass jedes Partikel in jedem Bild des Lichtschnitts nur mit einem Abbild erscheint. Weiter wird hier die Möglichkeit beschrieben, während jedes Bilds der Kamera zwei Lichtpulse auf die Partikel in dem Lichtschnitt zu richten, so dass die Bilder jeweils zwei Abbilder von jedem Partikel aufweisen. Jedes dieser Bilder kann dann durch Berechnung einer Autokorrelationsfunktion ausgewertet werden, die die Verschiebung der Abbilder zwischen den zugehörigen Belichtungen bestimmt. Die Verschiebungen der Abbilder zwischen den Bildern können hingegen durch Berechnen einer Kreuzkorrelationsfunktion zwischen den Bildern ermittelt werden.
-
Aus Ronald J. Adrian: Particle-Imaging techniques for experimental fluid mechanics. In: Annu. Rev. Fluid Mech. 1991. 23: 261-304, Seiten 261 bis 304 ist es bei der Particle Image Velocimetry bekannt, zweidimensionale Bilder einer Vielzahl von punktförmigen Objekten aus mehreren Abbildungsrichtungen mit mehreren S-W-Kameras aufzunehmen, wobei die Bilder der S-W-Kameras zeitgleich belichtet werden und wobei reale Positionen der einzelnen Objekte im dreidimensionalen Raum aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern bestimmt werden. Weiterhin sind aus diesem Dokument verschiedene Beleuchtungskonzepte für mehrere aufeinanderfolgende Bilder bekannt. Bei einem Multi-Frame/Single-Puls-Verfahren wird jedes von aufeinanderfolgenden Bildern zu einer Zeit belichtet. Bei einem Multi-Frame/Double-Puls-Verfahren wird jedes von aufeinanderfolgenden Bildern zu zwei Zeiten belichtet, und bei einem Multi-Frame/Multi-Puls-Verfahren wird jedes von mehreren aufeinanderfolgenden Bildern zu mehr als zwei aufeinanderfolgenden Zeiten belichtet. Weiterhin ist es aus dem Dokument bekannt, mehrere Abbilder jeweils eines Objekts zu einer zeitlich aufgelösten Trajektorie des Objekt zu verknüpfen.
-
AUFGABE DER ERFINDUNG
-
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren mit den Merkmalen des Oberbegriffs des unabhängigen Patentanspruchs 1 aufzuzeigen, das mit geringem apparativen Aufwand auch zur Verfolgung einer Vielzahl von sich sehr schnell bewegenden punktförmigen Objekten im Raum geeignet ist, um mit hoher Genauigkeit nicht nur Geschwindigkeits- sondern auch Beschleunigungs- und Druckfelder einer schnellen Strömung erfassen zu können .
-
LÖSUNG
-
Die Aufgabe der Erfindung wird durch ein Verfahren mit den Merkmalen des unabhängigen Patentanspruchs 1 gelöst. Bevorzugte Ausführungsformen des erfindungsgemäßen Verfahrens sind in den abhängigen Patentansprüchen definiert.
-
BESCHREIBUNG DER ERFINDUNG
-
Bei einem erfindungsgemäßen Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten werden zweidimensionale Bilder der Vielzahl der Objekte aus mehreren Abbildungsrichtungen mit mehreren Kameras aufgenommen. Bei den Kameras handelt sich um S/W-Kameras, d. h. Schwarzweiß-Kameras. Auch wenn im Folgenden nur von Kameras die Rede ist, sind solche S/W-Kameras gemeint, soweit nicht ausdrücklich etwas anderes zum Ausdruck gebracht ist. Dabei bedeutet die Angabe S/W-Kameras nicht, dass den Kameras kein Farbfilter vorgeschaltet werden darf, um beispielsweise Hintergrundlicht gegenüber monochromatischem Licht zu unterdrücken, mit dem die Objekte gezielt beleuchtet werden. Die mehreren Kameras dienen auch dann nicht zur spektralen Auflösung des Lichts von den Objekten.
-
Typischerweise sind die mehreren Kameras, mit denen die Bilder der Objekte aus unterschiedlichen Abbildungsrichtungen aufgenommen werden, räumlich voneinander getrennt. Grundsätzlich kann das erfindungsgemäße Verfahren aber auch mit einer sogenannten Lightfield-Kamera durchgeführt werden. Eine Lightfield-Kamera bildet ein Messvolumen aus mehreren leicht unterschiedlichen Abbildungsrichtungen mit einem Array von Objektivlinsen in unterschiedliche Bereiche eines Bildsensors ab. Jeder dieser Bereiche des Bildsensors und die zugehörige Teillinse des Arrays von Objektivlinsen wird hier als eine Kamera angesehen.
-
Die Kameras werden hinsichtlich der Abfolge ihrer Bilder zumindest soweit synchronisiert, dass die Bilder der verschiedenen Kameras jeweils zeitgleich belichtet werden. Mindestens zwei aufeinanderfolgende Bilder jeder der Kameras werden zu voneinander beabstandeten Zeiten belichtet. Das heißt, jedes der beiden mindestens zwei aufeinanderfolgenden Bilder jeder der Kameras wird zu mindestens zwei voneinander beabstandeten Zeiten belichtet.
-
Das erfindungsgemäße Verfahren ist auch zum Verfolgen von sich sehr schnell bewegenden Objekten im dreidimensionalen Raum mit kostengünstigen Kameras durchführbar, die eine vergleichsweise niedrige Bildfrequenz aufweisen. Grundsätzlich könnte es mit Kameras durchgeführt werden, die überhaupt nur zwei Bilder nacheinander aufnehmen können. Günstig ist es in jedem Fall, wenn die Kameras nur kurze Totzeiten beim Bildwechsel zwischen ihren mindestens zwei Bildern aufweisen, in denen sie kein Licht registrieren können.
-
Reale Positionen der einzelnen Objekte im dreidimensionalen Raum werden aus ihren Abbildern in den jeweils zeitgleich belichteten Bildern bestimmt. Dabei werden im Wesentlichen zu allen Abbildern der Objekte in den aus den verschiedenen Abbildungsrichtungen aufgenommenen Bildern reale Positionen bestimmt. Erfindungsgemäß wird so auch aus den Abbildern der Objekte in den Bildern der Kameras, die jeweils zu den mindestens zwei gleichen Zeiten belichtet wurden, eine Verteilung von realen Positionen der einzelnen Objekte im dreidimensionalen Raum bestimmt, die mehr und mindestens etwa zweimal mehr reale Positionen umfasst, als einzelne Objekte vorhanden sind. Die jeweils zu einem der Objekte gehörenden realen Positionen werden dann zu einer zeitlich aufgelösten Trajektorie des jeweiligen Objekts im dreidimensionalen Raum verknüpft. Dabei werden auch verschiedene Positionen jeweils eines der Objekte innerhalb jeder der Verteilungen zu der zeitlich aufgelösten Trajektorie des jeweiligen Objekts im Raum verknüpft.
-
Überraschenderweise stellt sich heraus, dass nicht nur doppelt belichtete Bilder von im Wesentlichen zweidimensionalen Lichtschnitten, in denen die Abbilder der Objekte unmittelbar einer Position der Objekte in dem jeweiligen Lichtschnitt entsprechen, ausgewertet werden können, sondern dass dies auch für mehrfach belichtete, aus unterschiedlichen Abbildungsrichtungen aufgenommene Bilder von Objekten in einem Volumen möglich ist. Mit der Mehrfachbelichtung der Bilder der Kameras lassen sich auch unter Verwendung von Kameras mit normalen Bildfrequenzen Objekte verfolgen, die ihre Position schnell ändern, weil sie sich beispielsweise mit einer schnellen Strömung bewegen. Dass die Belichtungen über mindestens einen Bildwechsel der Kameras hinweg erfolgen, stellt eine zeitliche Information bereit, weil die Abbilder der Objekte in den früher aufgenommenen Bildern früheren realen Positionen entlang ihrer Trajektorien entsprechen als die Abbilder in den später aufgenommenen Bildern.
-
Es versteht sich, dass die Objekte in dem jeweiligen Volumen bzw. ihre Abbilder in den aufgenommenen Bildern nur eine so hohe Dichte aufweisen dürfen, dass aus den Abbildern reale Positionen der Objekte im Raum bestimmt werden können und dass diese realen Positionen im Raum miteinander verknüpft werden können. Bei Anwendung geeigneter Methoden für die Bestimmung der realen Positionen der Objekte im Raum und ihre Verknüpfung zu Trajektorien, wie sie im Folgenden angegeben werden, sind aber ausreichend hohe Dichten der Objekte im Volumen möglich, um beispielsweise auch komplexere Strömungen bezüglich ihrer Geschwindigkeits-, Beschleunigungs- oder Druckfelder räumlich aufzulösen. Konkret sind Partikeldichten von mehr als 0,05 ppp (particles per pixel, d. h. Teilchen pro Pixel der Bildsensoren der Kameras) möglich.
-
Bei dem erfindungsgemäßen Verfahren werden zu im Wesentlichen allen Abbildern der Objekte auch in den mehrfach zeitgleich belichteten Bildern reale Positionen der Objekte im Raum bestimmt, und erst diese realen Positionen im Raum werden zu den jeweils zu einem der Objekte gehörenden Trajektorien verknüpft. Es erfolgt also noch keine Verknüpfung der Abbilder der Objekte in den mehrfach belichteten Bildern und zwischen den Bildern. Dies schließt jedoch nicht aus, dass die aus der Verknüpfung der realen Positionen zu Trajektorien jeweils eines Objekts erlangten Informationen zu dem Schritt des Bestimmens der realen Positionen der einzelnen Objekte aus ihren Abbildern zurückgeführt werden, um diese realen Positionen insbesondere mit größerer Genauigkeit zu bestimmen. Auch eine Rückführung zu dem Schritt des Verknüpfens, insbesondere zur Erhöhung der Sicherheit bei der Zuordnung verschiedener realer Positionen zu jeweils einem Objekt, ist möglich.
-
Bei dem erfindungsgemäßen Verfahren werden die Bilder der Kameras zu den mindestens zwei voneinander beabstandeten Zeiten in gleicher Weise belichtet, so dass die Abbilder eines selben realen Objekts in den einzelnen Bildern nicht unterscheidbar sind und so nicht auf die Zeiten der ihnen zugrundeliegenden Belichtungen der Kameras rückgeschlossen werden kann. Die Unterscheidung der Abbilder nach den verschiedenen Zeiten und Objekten erfolgt bei dem erfindungsgemäßen Verfahren vielmehr grundsätzlich durch das Verknüpfen der jeweils zu einem der Objekte gehörenden realen Positionen zu einer Trajektorie des jeweiligen Objekts im Raum. Dieses Verknüpfen setzt demnach nicht voraus, dass sich die zu jeweils einem der Objekte gehörenden realen Positionen schon vorher von den realen Positionen der anderen Objekte im Raum unterscheiden lassen. Vielmehr beinhaltet der Schritt des Verknüpfens des erfindungsgemäßen Verfahrens die Analyse, welche realen Positionen jeweils welchem der Objekte zuzuordnen sind.
-
Bei dem erfindungsgemäßen Verfahren wird jedes der mindestens zwei aufeinanderfolgenden Bilder jeder der Kameras zu mindestens zwei voneinander beabstandeten Zeiten belichtet, deren Abstand mindestens das Zweifache und vorzugsweise das Fünffache oder das Zehnfache eines Abstands beträgt, den die erste Zeit der Belichtung des späteren zu der letzten Zeit der Belichtung des früheren der mindestens zwei aufeinanderfolgenden Bilder aufweist. Je eine der Zeiten, zu denen die Bilder der Kameras belichtet werden, grenzt also in jedem der beiden aufeinanderfolgenden Bilder dicht an den Bildwechsel zwischen den mindestens zwei aufeinanderfolgenden Bildern und die damit verbundene kurze Totzeit der Kameras an.
-
Die dichter aufeinanderfolgenden Zeiten der Belichtung der Bilder der Kameras führen dazu, dass sich die Objekte zwischen diesen Zeiten nicht weit bewegt haben können, so dass eine einfache Verknüpfung der zugehörigen realen Positionen im Raum möglich ist. Die realen Position zu den jeweils weiter voneinander beabstandeten Zeiten sind zwar nicht ganz so leicht zu der Trajektorie des jeweiligen Objekts zu verknüpfen. Die größeren Abstände dieser realen Positionen der Objekte lassen aber eine genauere Bestimmung der Geschwindigkeiten der Objekte und bei Bestimmung mehrerer Geschwindigkeiten auch der Beschleunigungen der Objekte zu.
-
Wie schon angesprochen wurde, ist das erfindungsgemäße Verfahren insbesondere dazu geeignet, aus den Trajektorien der Objekte Geschwindigkeiten und/oder Beschleunigungen der einzelnen Objekte bzw. Geschwindigkeitsfelder, Beschleunigungsfelder und/oder Druckfelder einer Strömung zu bestimmen, mit der sich die Objekte bewegen. Für letztere Bestimmungen können die Objekte in einer geeigneten Dichte in die Strömung eingeimpft werden, so dass sie sich mit der Strömung bewegen, wenn die Bilder von ihnen aufgenommen werden. Bei den Objekten kann es sich um Objekte handeln, mit denen üblicherweise Strömungen beimpft werden, um diese optisch zu vermessen. Hierzu zählen feste Teilchen, feine Tropfen und feine Gasblasen sowohl in strömenden Gasen als auch in strömenden Flüssigkeiten.
-
Die Bilder der Kameras können zu den voneinander beabstandeten Zeiten durch Öffnen eines Verschlusses der jeweiligen Kamera belichtet werden. Grundsätzlich kann es sich dabei um einen mechanischen Verschluss handeln. Schneller und insbesondere schneller hintereinander sind elektronische Verschlüsse ansteuerbar. Sehr dicht aufeinanderfolgende Zeiten der Belichtung der Bilder der Kameras werden nicht mit einem Verschluss, sondern dadurch realisiert, dass die Objekte zu den voneinander beabstandeten Zeiten mit Lichtpulsen beleuchtet werden, deren Intensität für eine Abbildung der Objekte binnen der kurzen Zeiten ausreicht. Geeignet sind hierfür beispielsweise Laserlichtpulse von Lasern mit ausreichend hoher Ausgangsleistung. Dabei erweist es sich als vorteilhaft, dass viele Laser zumindest zweimal kurz hintereinander zur Abgabe eines Laserlichtpulses hoher Lichtleistung ansteuerbar sind. Statt Lasern können aber auch LEDs oder LED-Arrays als Lichtquellen für geeignete Lichtpulse verwendet werden. Weitere Lichtquellen, wie beispielsweise Laserdioden, können ebenfalls eingesetzt werden.
-
Aus den Abbildern der einzelnen Objekte in den Bildern der Kameras, die jeweils zu den mindestens zwei gleichen Zeiten belichtet wurden, kann die Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum durch Triangulation bestimmt werden. Diese Verteilung der Position der einzelnen Objekte im dreidimensionalen Raum ist dann die Grundlage für die Verknüpfung der realen Positionen zu Trajektorien der einzelnen Objekte.
-
Die Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum kann auch tomographisch aus den Bildern der Kameras bestimmt wird, die jeweils zu den mindestens zwei gleichen Zeiten belichtet wurden, wie dies beispielsweise aus der
US 2005/0062954 A1 und dem entsprechenden Patent
US 7,382,900 B2 bekannt ist.
-
Das Ergebnis einer solchen tomographischen Analyse der zeitgleich belichteten Bilder mag man genauer als eine Dichteverteilung der Objekte über Voxel eines Messvolumens bezeichnen. Wenn in dieser Anmeldung von realen Positionen der Objekte im Raum die Rede ist, soll dies aber immer die Möglichkeit implizieren, dass diese realen Positionen im Raum als Dichteverteilung der Objekte über Voxel eines Messvolumens beschrieben werden.
-
Eine weitere, bevorzugte Möglichkeit, die Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum zu bestimmen, besteht darin, dass eine angenommene Verteilung der realen Positionen der einzelnen Objekte im Raum an ihre Abbilder in den Bildern der Kameras angepasst wird, die jeweils zeitgleich belichtet wurden, wie dies beispielsweise aus der
DE 10 2009 009 551 B4 oder der
WO 2014/191461 A1 bekannt ist. Es versteht sich aber, dass dabei die angenommene Verteilung für jedes der Objekte und jede Zeit des Belichtens je eine Position umfassen muss. Das heißt, bei zwei Belichtungen der zeitgleich belichteten Bilder muss die Verteilung zweimal so viele reale Positionen aufweisen, wie Objekte abgebildet werden, da jedes Objekt an zwei Positionen abgebildet wird, sofern es sich zwischen den aufeinanderfolgenden Belichtungen der Bilder bewegt hat.
-
Soweit von der Lehre der
WO 2014/191461 A1 im Rahmen der vorliegenden Erfindung Gebrauch gemacht wird, kann die angenommene Verteilung für einen Satz von zeitgleich belichteten Bildern der Kameras aus einer Verteilung, die aus den Abbildern der einzelnen Objekte in anderen Bildern der Kameras, die jeweils zu anderen gleichen Zeiten belichtet wurden, bestimmt wurde oder aus einer für eine der Zeiten, zu der die anderen Bilder belichtet wurden, bestimmten Momentanverteilung der realen Positionen der einzelnen Objekte im Raum abgeschätzt werden. Dieses Abschätzen kann ein Extrapolieren der realen Positionen der einzelnen Objekte im Raum längs der Trajektorien der einzelnen Objekte im Raum auf die mindestens zwei gleichen Zeiten umfassen. Hiermit ist dann auch eine Basis für das fortgesetzte Verknüpfen der realen Positionen zu Trajektorien der einzelnen Objekte im Raum gegeben.
-
Die Verknüpfung der realen Positionen der einzelnen Objekte zu Trajektorien kann zudem oder stattdessen auch auf der Berechnung einer Autokorrelationsfunktion der Verteilung der realen Positionen der einzelnen Objekte im dreidimensionalen Raum beruhen, die aus den Abbildern der Objekte in den zeitgleich mehrfach belichteten Bildern bestimmt wurde. Entsprechend kann eine Kreuzkorrelationsfunktion von solchen zwei Verteilungen der realen Positionen der einzelnen Objekte im dreidimensionalen Raum berechnet werden, die aus den Abbildern der Objekte in den mindestens zwei aufeinanderfolgenden Bildern bestimmt wurden, um die verschiedenen Positionen jeweils eines der Objekte während des Belichtens der mindestens zwei aufeinanderfolgenden Bilder jeder der Kameras zu verknüpfen.
-
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den Patentansprüchen, der Beschreibung und den Zeichnungen. Die in der Beschreibung genannten Vorteile von Merkmalen und von Kombinationen mehrerer Merkmale sind lediglich beispielhaft und können alternativ oder kumulativ zur Wirkung kommen, ohne dass die Vorteile zwingend von erfindungsgemäßen Ausführungsformen erzielt werden müssen. Ohne dass hierdurch der Gegenstand der beigefügten Patentansprüche verändert wird, gilt hinsichtlich des Offenbarungsgehalts der ursprünglichen Anmeldungsunterlagen und des Patents Folgendes: weitere Merkmale sind den Zeichnungen - insbesondere den dargestellten Geometrien und den relativen Abmessungen mehrerer Bauteile zueinander sowie deren relativer Anordnung und Wirkverbindung - zu entnehmen. Die Kombination von Merkmalen unterschiedlicher Ausführungsformen der Erfindung oder von Merkmalen unterschiedlicher Patentansprüche ist ebenfalls abweichend von den gewählten Rückbeziehungen der Patentansprüche möglich und wird hiermit angeregt. Dies betrifft auch solche Merkmale, die in separaten Zeichnungen dargestellt sind oder bei deren Beschreibung genannt werden. Diese Merkmale können auch mit Merkmalen unterschiedlicher Patentansprüche kombiniert werden. Ebenso können in den Patentansprüchen aufgeführte Merkmale für weitere Ausführungsformen der Erfindung entfallen.
-
Die in den Patentansprüchen und der Beschreibung genannten Merkmale sind bezüglich ihrer Anzahl so zu verstehen, dass genau diese Anzahl oder eine größere Anzahl als die genannte Anzahl vorhanden ist, ohne dass es einer expliziten Verwendung des Adverbs „mindestens“ bedarf. Wenn also beispielsweise von einem Element die Rede ist, ist dies so zu verstehen, dass genau ein Element, zwei Elemente oder mehr Elemente vorhanden sind. Die in den Patentansprüchen angeführten Merkmale können durch andere Merkmale ergänzt werden oder die einzigen Merkmale sein, die das jeweilige Verfahren aufweist.
-
Die in den Patentansprüchen enthaltenen Bezugszeichen stellen keine Beschränkung des Umfangs der durch die Patentansprüche geschützten Gegenstände dar. Sie dienen lediglich dem Zweck, die Patentansprüche leichter verständlich zu machen.
-
Figurenliste
-
Im Folgenden wird die Erfindung anhand in den Figuren dargestellter bevorzugter Ausführungsbeispiele weiter erläutert und beschrieben.
- 1 illustriert einen Messaufbau zum Aufnehmen von zweidimensionalen Bildern einer Vielzahl von Objekten aus mehreren Abbildungsrichtungen mit mehreren synchronisierten Kameras.
- 2 illustriert verschiedene mögliche zeitliche Abfolgen von Lichtpulsen für das Beleuchten der Vielzahl von Objekten gemäß 1 zum Belichten von aufeinanderfolgenden Bildern der Kameras, wobei die Abfolge gemäß 2 (a) nicht unter die Patentansprüche fällt.
- 3 ist ein Flussdiagramm zur Erläuterung des Ablaufs des erfindungsgemäßen Verfahrens; und
- 4 erläutert den Schritt des Verknüpfens von realen Positionen eines einzelnen Objekts im Raum, die das Objekt jeweils während des Belichtens von zwei aufeinanderfolgenden Bildern jeder der Kameras einnimmt, zu einer zeitlich aufgelösten Trajektorie des Objekts.
-
FIGURENBESCHREIBUNG
-
Die in 1 dargestellte Messanordnung 1 umfasst mindestens zwei Kameras 2 und 3. Die Kameras 2 und 3 weisen jeweils ein Objektiv 4 und einen Bildsensor 5 auf. Die Objektive 4 bilden ein von beiden Kameras 2 und 3 erfasstes Messvolumen 6 jeweils aus einer Abbildungsrichtung 7, die der optischen Achse 8 ihres Objektivs 4 entspricht, auf den Bildsensor 5 ab. In dem Messvolumen 6 befindet sich eine Vielzahl von Objekten 9, die in eine schematisch angedeutete Strömung 10 eingeimpft sind und sich mit der Strömung 10 bewegen. Die Kameras 2 und 3 sind elektronische Kameras, bei denen die Bildsensoren 5 bildweise die Intensität von einfallendem Licht aufintegrieren und ausgeben. Dabei sind die Kameras 2 und 3 synchronisiert, d. h. Wechsel zwischen den Bildern der Kameras 2 und 3 erfolgen zumindest soweit gleichzeitig, dass die Bilder der verschiedenen Kameras 2 und 3 zeitgleich belichtet werden.
-
Das Belichten der Bilder der Kameras 2 und 3 erfolgt durch Beleuchten der Objekte 9 in dem Messvolumen 6 mit einer Lichtquelle 11. Die Lichtquelle 11 umfasst hier neben zwei gepulsten Lasern 12 und einer Projektionslinse 14 zwei Lichtleiter 13. Statt der beiden Lichtleiter 13 kann beispielsweise auch ein Polarisationsstrahlteiler zum Zusammenführen des dann vorzugsweise unterschiedlich polarisierten Laserlichts von den beiden Lasern 12 vor der Projektionslinse 14 verwendet werden. Die Laser 12 werden wechselweise so angesteuert, dass die Objekte 9 mit Lichtpulsen beleuchtet werden. Mit dem von den Objekten 9 reflektierten Licht werden die Bilder der Kameras 2 und 3 belichtet. Da das Messvolumen 6 ansonsten unbeleuchtet ist, werden die Bilder der Kameras 2 und 3 nur während der Zeiten der Lichtpulse von den Lasern 12 belichtet. Grundsätzlich wäre ein Laser 12 für die Lichtquelle 11 ausreichend. Durch den zweiten Laser 12 ist es aber einfacher möglich, das Messvolumen 6 zweimal schnell hintereinander mit je einem Lichtpuls hoher Intensität von einem der beiden Laser 12 zu beleuchten.
-
Aus den Abbildern der Objekte 9 in den mit den Bildsensoren 5 aufgenommenen Bildern, die das Messvolumen 6 aus den unterschiedlichen Abbildungsrichtungen 7 zeigen, sind die realen Positionen der Objekte 9 in dem Messvolumen 6 bestimmbar. Diese Bestimmung kann, wie bereits ausgeführt wurde, auf unterschiedliche Weise erfolgen.
-
2 (a) zeigt die Abfolge von zwei Lichtintegrationszeiträumen 15 und 16 der Kameras 2 und 3 gemäß 1, die durch Bildwechsel 30 der Bildsensoren 5 gemäß 1 begrenzt und gegeneinander abgegrenzt sind. Innerhalb jedes der beiden Lichtintegrationszeiträume 15 und 16 wird das auf die Bildsensoren 5 einfallende Licht aufintegriert, um eines von zwei aufeinanderfolgenden Bildern aufzunehmen. Jedes dieser Bilder wird zu zwei Zeiten 17 und 18 bzw. 19 und 20 kurzzeitig belichtet, indem die Objekte 9 in dem Messvolumen 6 mit einem Lichtpuls 21 von dem einen oder dem anderen der beiden Laser 12 beleuchtet werden. Dabei liegen hier die beiden Zeiten 17 und 18 bzw. 19 und 20 innerhalb des jeweiligen Lichtintegrationszeitraums 15 bzw. 16 dicht beieinander, während sie von Lichtintegrationszeitraum 15 zu Lichtintegrationszeitraum 16 betrachtet etwa um den Abstand der aufeinanderfolgenden Bildwechsel 30 auseinander liegen.
-
2 (b) illustriert demgegenüber eine Ausführungsform des erfindungsgemäßen Verfahrens, bei der die in jeden der Lichtintegrationszeiträume 15 bzw. 16 fallenden Zeiten 17 und 18 bzw. 19 und 20 der Lichtpulse 21 innerhalb des Lichtintegrationszeitraums 15 und 16 weit auseinander liegen, aber von Lichtintegrationszeitraum 15 zu Lichtintegrationszeitraum 16 dicht beieinander liegen. In jedem Fall sorgen die zeitlich dicht beieinanderliegenden Lichtpulse 21 für dichter beieinanderliegende reale Positionen der Objekte 9 in dem Messvolumen 6 als weiter auseinanderliegende Lichtpulse 21. Dichter beieinanderliegende reale Positionen der Objekte 9 in dem Messvolumen 6 lassen sich leichter einem einzelnen Objekt 9 zuordnen als weiter voneinander reale entfernte Positionen. Letztere erlauben hingegen eine genauere Bestimmung der Geschwindigkeit des jeweiligen Objekts 9 zwischen den realen Positionen.
-
2 (c) zeigt in dem Lichtintegrationszeitraum 15 noch einen dritten Lichtpuls 21 zu einer Zeit 22 und in dem Lichtintegrationszeitraum 16 noch einen dritten Lichtpuls 21 zu einer Zeit 23. Dabei sind alle Lichtpulse 21 bzw. die zugehörigen Zeiten 17, 18, 22, 19, 20, 23 in gleichen Abständen zueinander angeordnet. Entsprechend sind auch die realen Positionen der Objekte 9 in dem Messvolumen 6 zu den Zeiten 17, 18, 22, 19, 20, 23 gleich beabstandet, sofern sich die Objekte 9 gleichförmig durch das Messvolumen 6 bewegen. Grundsätzlich können auch noch mehr Lichtpulse 21 auf jeden der Lichtintegrationszeiträume 15 und 16 entfallen. In den aufeinanderfolgenden Lichtintegrationszeiträumen 15 und 16 können auch unterschiedlich viele Lichtpulse 21 auf das Messvolumen 6 gerichtet werden.
-
Auch wenn sich in 2 die Lichtintegrationszeiträume 15 und 16 jeweils über den gesamten Abstand der aufeinanderfolgenden Bildwechsel 30 erstrecken, könnten sie sich auf kürzere, die Zeiten 17, 18 und ggf. 22 bzw. 19, 20 und ggf. 23 umfassende Intervalle konzentrieren. Die Lichtintegrationszeiträume 15 und 16 könnten dabei auch zwischen den Zeiten 17, 18 und ggf. 22 bzw. 19, 20 und ggf. 23 unterbrochen werden, um das außerhalb des gewünschten Belichtens der Bilder zu den Zeiten 17, 18 und ggf. 22 bzw. 19, 20 und ggf. 23 als Untergrund registrierte Licht zu minimieren.
-
Das Flussdiagramm gemäß
3 (a) erläutert die Auswertung der mit den Kameras
2 und
3 gemäß
1 aufgenommenen Bilder des Messvolumens
6 für Abstände zwischen Lichtpulsen wie in
2 (a) dargestellt. In einem Schritt
24 wird die Verteilung der realen Positionen im Raum des Messvolumens
6 aus den Abbildern der Objekte
9 in den jeweils zeitgleich belichteten Bildern bestimmt. Dann werden in einem Schritt
25 die realen Positionen innerhalb jeder dieser Verteilungen zu Trajektorien der Objekte
9 verknüpft. In einem Schritt
26 erfolgt eine Verknüpfung dieser Trajektorien der Objekte
9 auch zwischen den Verteilungen, wodurch sich zeitaufgelöste Trajektorien der Objekte
9 ergeben. Bei Betrachtung nur der aus den Abbildern der Objekte
9 in den jeweils zeitgleich belichteten Bildern bestimmten realen Positionen bzw. der diese verknüpfenden Trajektorien lässt sich die zeitliche Abfolge der realen Positionen, d. h. die Bewegungsrichtung des jeweiligen Objekts
9 entlang der jeweiligen Trajektorie, noch nicht feststellen. Die im Schritt
26 bestimmten zeitaufgelösten Trajektorien der Objekte
9 können wiederum genutzt werden, um die Bestimmung der realen Positionen zu den Abbildern der Objekte
9 in dem Schritt
24 zu verbessern, wie dies beispielsweise aus der
WO 2014/191461 A1 bekannt ist. Zudem kann die Auswertung über eine Vielzahl von aufeinanderfolgenden Bildern jeder der Kamers
2 und
3 nicht nur in deren tatsächlichen zeitlichen Abfolge, sondern auch entgegen deren tatsächlichen zeitlichen Abfolge erfolgen, um die Trajektorien maximal an die aufgenommenen Bilder des Messvolumens
6 anzupassen, d. h. die in diesen Bildern enthaltenen Informationen maximal zu nutzen.
-
Das Flussdiagramm gemäß 3 (b) entspricht dagegen einer bevorzugten Auswertung für Abstände zwischen Lichtpulsen wie in 2 (b) dargestellt. Schritt 25 und 26 sind vertauscht.
-
Aufgrund des geringen Abstandes zwischen den realen Positionen zu den Zeiten 18 und 19 werden zuerst diese zu einer Trajektorie des jeweiligen Objekts 9 verknüpft, gefolgt von der Erweiterung der Trajektorie auf die reale Position zur Zeit 17 der früheren Belichtung des ersten Bilds während des ersten Lichtintegrationszeitraums 15 und die reale Position zur Zeit 20 der späteren Belichtung des zweiten Bilds während des zweiten Lichtintegrationszeitraums 16.
-
Bei dem erfindungsgemäßen Verfahren werden keine Positionen von Abbildern der Objekte 9 in den mit den Bildsensoren 5 aufgenommenen Bildern miteinander verknüpft, sondern die aus diesen Abbildern bestimmten realen Positionen der Objekte 9 im Raum. Dies ist bei der Betrachtung von 4 zu berücksichtigen, die Projektionen von realen Positionen eines Objekts 9 im Raum zu den Zeiten 17 bis 20 gemäß 2 (a) auf eine x-y-Ebene zeigt, wobei die Zeiten 17 und 18 sowie 19 und 20 entsprechend 2 (a) dichter beieinander liegen als die Zeiten 18 und 19. Zu den beiden Zeiten 17 und 18 wird das erste Bild jeder der Kameras 2 und 3 in dem Lichtintegrationszeitraum 15 belichtet. Entsprechend gehören die zu den Zeiten 17 und 18 eingenommenen Positionen des Objekts 9 zu einer in 4 (a) links angedeuteten Verteilung 27 von realen Positionen, die aus den Abbildern der Objekte 9 in diesen Bildern bestimmte wurde. Die zu den Zeiten 19 und 20 eingenommenen Positionen gehören demgegenüber zu einer aus den Abbildern der Objekte 9 in dem folgenden Bild jeder der Kameras bestimmten Verteilung 28 von realen Positionen. Jede dieser Verteilungen 27 und 28 umfasst damit nur einen Teil der Trajektorie 29 des betrachteten Objekts 9, wobei die Richtung der Trajektorie 29 noch offen ist. Erst die Verknüpfung der beiden Verteilungen 27 und 28, wie sie in 4 (b) angedeutet ist, lässt die Trajektorie 29 des betrachteten Objekts 9 vollständig, einschließlich ihrer zeitlichen Abfolge, d. h. ihrer Richtung, erkennen. Dabei sind die realen Positionen des Objekts 9 längs der Trajektorie 29 bzw. deren Abstände ein Maß für die Geschwindigkeit des Objekts 9. Sich ändernde Geschwindigkeiten bedeuten Beschleunigungen des Objekts 9; und bei Betrachtung einer Vielzahl von Objekten 9 lassen sich Rückschlüsse auf die Dichte der Objekte 9 und damit auch die Dichte bzw. den Druck in der jeweiligen Strömung 10 ziehen.
-
Bezugszeichenliste
-
- 1
- Messanordnung
- 2
- Kamera
- 3
- Kamera
- 4
- Objektiv
- 5
- Bildsensor
- 6
- Messvolumen
- 7
- Abbildungsrichtung
- 8
- optische Achse des Objektivs 4
- 9
- Objekt
- 10
- Strömung
- 11
- Lichtquelle
- 12
- Laser
- 13
- Lichtleiter
- 14
- Projektionslinse
- 15
- Lichtintegrationszeitraum
- 16
- Lichtintegrationszeitraum
- 17
- Zeit
- 18
- Zeit
- 19
- Zeit
- 20
- Zeit
- 21
- Lichtpuls
- 22
- Zeit
- 23
- Zeit
- 24
- Schritt
- 25
- Schritt
- 26
- Schritt
- 27
- Verteilung
- 28
- Verteilung
- 29
- Trajektorie
- 30
- Bildwechsel