-
Die vorliegende Erfindung betrifft das oberbegrifflich Beanspruchte und bezieht sich somit auf eine Kamera.
-
Es gibt eine Vielzahl von Kameras, die für unterschiedliche Zwecke konstruiert sind. Je nach Anforderung an die Kamera wird die Konstruktion der Kamera sehr teuer und aufwändig. Dies gilt beispielsweise für die von der Anmelderin SpheronVR erhältliche hochauflösende Kamera, die vollsphärische Farbbilder liefert und die Aufnahmen von Bildern mit hoher Dynamik von bis zu 26 Blendensstufen ermöglicht. Dazu dreht sich bei der bekannten Kamera das Objektiv gemeinsam mit einem Streifensensor um den Nodalpunkt des Objektivs, so dass vollsphärische Panoramen aufgenommen werden können. Derartige Kameras finden unter anderen Einsatz bei der Objekterfassung während des Baus von Gebäuden, zur forensischen Dokumentation von Tatorten sowie zur Ermittlung von Lichtfeldern, die dann für die Erstellung computergenerierter Bilder, für digitale Trickeffekte in Kinofilmen und so weiter verwendet werden können.
-
Die Erfahrung hat gezeigt, dass es ungeachtet der hohen Dynamik, die mit der vorbekannten Kameraanordnung erzielbar ist, und ungeachtet der bereits sehr guten optischen Auflösung vielfach wünschenswert ist, mit einer Kamera einen noch größeren Dynamikbereich räumlich noch besser aufgelöst und schneller zu erfassen, und zwar bevorzugt so, dass es prinzipiell möglich ist, aus dem Rohdatenbestand dem realen Raumwinkel eines jeden Pixels zugleich einen radiometrisch korrekten Messwerte zuzuordnen, ohne dass allerdings die Kosten hierfür prohibitiv werden dürfen.
-
Eine geeignete Ausbildung einer wünschenswerten Kamera würde beispielsweise erlauben, in einem Raum zunächst die Lage von Objekten zu bestimmen und dann diesen korrekte Farben und Tätigkeiten zuzuordnen. Es wird einsichtig sein, dass dies neue, wünschenswerte Anwendungsmöglichkeiten eröffnet.
-
Es wäre wünschenswert, zumindest einem Teil der vorstehenden Forderungen zumindest partiell genügen zu können.
-
Die Aufgabe der vorliegenden Erfindung besteht darin, Neues für die gewerbliche Anwendung bereitzustellen.
-
Die Lösung dieser Aufgabe wird in unabhängiger Form beansprucht. Bevorzugte Ausführungsformen finden sich in den Unteransprüchen.
-
Gemäß einem ersten Grundgedanken der Erfindung umfasst eine Kamera mit einer Strahlteileranordnung und mit einer Vielzahl von in deren Teilstrahlengängen angeordneten, flächigen Bildsensorchips in einem ersten Teilstrahlengang mehrere, voneinander mit Lücke beabstandete Bildsensorchips und für zumindest eine Lücke einen lückenübergreifenden Bildsensorchip in einem weiteren Teilstrahlengang.
-
Es wurde gefunden, dass die Verwendung von flächigen Bildsensorchips ermöglicht, ohne großen zusätzlichen Aufwand eine hochauflösende und erforderlichenfalls eine hohe Dynamik aufweisende Kamera bereitzustellen, die in der Lage ist, sehr schnell wieder aufzunehmen. Die Anordnung von mehreren flächigen Bildsensorchips in einem ersten Teilstrahlengang und die Überdeckung der von diesen belassenen Lücken mit flächigen Bildsensorchips in einem weiteren Teilstrahlengang trägt dazu bei, dass eine insgesamt großflächig Bilder aufnehmende Sensoranordnung zur Verfügung steht. Da eine Vielzahl von Sensoren verwendet wird, lassen sich diese einerseits schnell auslesen und die entsprechenden Daten wie erforderlich bearbeiten. Zum anderen können, da flächige Bildsensoren verwendet werden, große Bereiche einer Szene simultan erfasst werden, ohne dass hierfür ein einzelner großer und damit sowohl hinsichtlich des Chips als auch bezüglich der dafür erforderlichen vorgeschalteten Optik sehr teurer Chip erforderlich ist. Es versteht sich also, dass der Kameraanordnung typisch eine Bildverknüpfungseinheit zugeordnet ist, mit welcher die von den einzelnen flächigen Bildsensorchips stammenden Einzelbilder bzw. HDR-Einzelbilder zu einem Gesamtbild, beispielsweise einem Bildstreifen oder einem HDR-Bildstreifen verknüpft werden. Diese Verknüpfung kann innerhalb der Kamera, gegebenenfalls auch in Echtzeit bei der Bildaufnahme erfolgen, oder außerhalb der Kamera, z. B. auf einer die Rohdaten von den Bildsensorchips verknüpfenden Rechnereinheit.
-
Im Hinblick darauf, dass gerade für die Aufnahme von Bildern mit hoher Dynamik eine nicht unbeachtliche Datenverarbeitung und sorgfältige Aufnahmen der Rohdaten selbst mit sehr großflächigen und damit sehr teuren Bildsensorchips erforderlich ist, steigt durch die Verwendung mehrerer kleiner Bildsensorchips der erforderliche bauliche Aufwand allenfalls marginal, während, aufgrund der günstigeren kleineren flächigen Bildsensorchips, die verwendbar werden, die Gesamtkameraanordnung preiswerter ausgestaltet werden kann. Zugleich ermöglicht bei der Panoramaaufnahme die Verwendung flächiger Bildsensorchips eine Drehung der Kamera um einen Drehwinkel, der nicht so exakt vorherbestimmt sein muss wie bei einem Zeilensensor, sondern nur in etwa zu einer gegebenen Endposition führen muss; damit wird es möglich, den Antrieb zu beschleunigen und somit die Messung insgesamt schneller durchzuführen.
-
Zudem wird darauf hingewiesen, dass die hier vorgeschlagene Verwendung vieler flächiger, aber typisch kleinflächiger Bildsensorchips schon deswegen vorteilhaft ist, weil Bildsensorchips mit neuen Sensortechnologien oftmals zunächst als kleinflächige Chips zur Verfügung stehen. Damit ist es viel einfacher möglich, die Kamera der vorliegenden Erfindung zu aktualisieren und/oder zu überarbeiten.
-
Es wird einsichtig sein, dass bevorzugt im ersten Teilstrahlengang mehr als zwei Bildsensorchips jeweils mit Lücke zueinander in einer Reihe angeordnet sind und deren Lücken außerhalb des ersten Teilstrahlengangs überdeckt werden, so dass also in der bevorzugten Variante wenigstens fünf Bildsensorchips in einer Reihe vorliegen; besonders bevorzugt ist es dabei, wenn diese Bildsensorchips zumindest im wesentlichen gleichgroße Lücken zueinander aufweisen und bevorzugt alle in einer Reihe liegen. Diese Reihe wird bevorzugt im Gebrauch vertikal angeordnet sein, so dass in jeder Drehposition einer Drehung um eine vertikale Achse ein großer Bildbereich von oben nach unten simultan abgetastet bzw. erfasst werden kann. Die Lücken werden insoweit bevorzugt gleich zueinander sein, als dies die Montage und Auswertung vereinfacht. Die Lücken müssen dabei allerdings nicht exakt gleich groß sein, da bevorzugt ein erheblicher Überlapp zwischen den Bildsensorchips im ersten Teilstrahlengang und jenen im zweiten Teilstrahlengang besteht. So kann beispielsweise eine Lücke von einer halben Sensorkantenlänge in einer Richtung belassen werden. Die Bildsensoren im ersten bzw. zweiten Teilstrahlengang können dann so überlappend zueinander angeordnet werden, dass ein jeweiliger Überlapp um eine Viertel Bildsensorchipkantenbreite in einer Richtung vorliegt. Bei typischen Auflösungen preiswerter flächiger Bildsensorchips ergeben sich so mehrere 100 Pixel Überlapp, was die Montage bzw. die Bestimmung von einem einheitlichen Datensatz mit klarer Zuordnung zwischen Pixel und erfasster Raumposition ermöglicht. Es versteht sich aus dem vorstehenden, dass „zumindest im wesentlichen” gleichgroße Lücken dann noch vorliegen, wenn dies gewährleistet bleibt und insbesondere wenigstens einige zehn Pixel breite Überlappstreifen wie beispielsweise 20–50 Pixel große Überlappstreifen bestehen bleiben, während minimal nicht weniger als ein Fünftel der Bildsensorchipkantenbreite überlappfrei ist
-
Die Lücken können also für die Zwecke der vorliegenden Erfindung über einen hinreichend großen Bereich als gleichgroß angesehen werden, was die Montage der Bildsensorchips erleichtert. Diese Bildsensorchips können beispielsweise vorab auf einer Platine untergebracht werden und es ist zu verstehen, dass es selbst bei Fertigungsgenauigkeiten mit etlichen Mikrometern Spiel nach Verlöten der Bildsensorchips auf einer Trägerplatine noch eine hinreichende Präzision für Zwecke der Erfindung gewährleistet ist. Auch eine mangelnde Montagepräzision in Umfangsrichtung, d. h. quer zum durch die Vielzahl von Bildsensorchips gebildeten Reihen kann bei flächigen Sensorchips ohne weiteres ausgeglichen werden, indem die seitlichen Randpixel je nach exakter Montageposition ignoriert werden.
-
Während vorstehend davon gesprochen wurde, dass die Bildsensorchips in einem ersten Teilstrahlengang mit Lücke zueinander in einer Reihe angeordnet sind und die so gebildeten Lücken mit Bildsensorchips in einem zweiten Teilstrahlengang überdeckt werden, ist nachzuvollziehen, dass gegebenenfalls nebeneinander mehrere derartige Reihen von mit Lücken zueinander montierten Bildsensoren realisiert sein können und dann die Lücken zwischen den Spalten gegebenenfalls mit Sensoren weiterer Teilstrahlengängen überdeckt werden können, um so eine in zwei Richtungen besonders großflächige Gesamt-Bildsensorchipanordnung zu realisieren. So könnte in einem ersten Teilstrahlengang ein Feld aus in Spalten und Reihen angeordneten Bildsensorchips vorgesehen werden, die in einer Reihe belassen Lücken in einem zweiten Teilstrahlengang mit erfindungsgemäß angeordneten Bildsensorchips überdeckt werden und die Zwischen Spalten belassenen Lücken dann mit Bildsensorchips in einem dritten und vierten Strahlengang überdeckt werden.
-
Allerdings wird ungeachtet dieser prinzipiellen Möglichkeit, mit der sich ein sehr großflächiger Bildsensorchip realisieren ließe, im Regelfall bevorzugt, nur eine einzelne mit flächigen Sensoren gebildete Spalte und damit auch nur einen Strahlteiler zu verwenden. Dies ist darin begründet, dass zur Aufnahme eines vollsphärischen Bildes, wie es mit der Kamera bevorzugt aufgenommen wird, auch bei Verwendung mehrerer Spalten noch eine Drehung der Kameraanordnung erforderlich ist und demgemäß selbst bei in zwei Richtungen weit ausgedehnter Gesamtbildsensorchipanordnung noch eine Kamerarotation mit entsprechend zu zugehörigem Rotationantrieb, Rotationssteuerung usw. erforderlich sind. Zugleich muss die Kameraoptik, die bevorzugt sehr weitwinklig ist, womöglich für die Verwendung mehrerer Spalten angepasst werden, was zu weiteren Kosten führt. Vor diesem Hintergrund werden kaum positive Effekte erhalten, weil zwar bei flächigen Bildsensorchips eine noch schnellere Bildaufnahme erfolgen könnte, aber die erforderlichen zusätzlichen optischen Elemente massiv sein müssen, was die Baugröße erhöht, die Kamera schwerer macht, stärkere Antriebe erfordert und so weiter. Selbst wenn eine extrem schnelle Bildaufnahme gewünscht wird, ist es daher gegebenenfalls günstiger, Schlichtweg die Rechenkapazität zu erhöhen.
-
Besonders bevorzugt ist es, wenn die Strahlteileranordnung mit einem massiven Strahlteilerblock gebildet ist, d. h. nicht mit einem teildurchlässigen dünnen Spiegel, sondern beispielsweise mittels verkitteter Prismen oder dergleichen. In einem solchen Fall können die flächigen Bildsensorchips der ersten Teilstrahlengruppe mit einer ersten Fläche des massiven Strahlteilerblocks verklebt sein, während der mindestens eine lückenübergreifende Bildsensorchip im weiteren Teilstrahlengang mit einer anderen (Ausgangs-)Fläche des Strahlteilerblocks verklebt ist. Die jeweiligen flächigen Bildsensorchips können dabei gruppenweise rückseitig kontaktiert sein, insbesondere durch (gruppenweise) Anordnung auf einer gemeinsamen Platine. Die Verklebung mit dem massiven Strahlteilerblock hat erhebliche Vorteile für die Kamera. Es versteht sich, dass die Verklebung mit einem optischen Kitt geschehen kann, der an die Brechungsindices von Strahlteilerblock bzw. den Deckschichten (Schutzschichten) der Bildsensorchips angepasst sein wird. Die Dicke derartige Kitt-Schichten wird typisch kaum variieren und kann gegebenenfalls, gemeinsam mit den optischen Eigenschaften des massiven Strahlteilerblock bei der Auslegung eines Kameraobjektivs mitberücksichtigt werden. Die Verwendung von beispielsweise UV-härtendem Kleber bzw. Kitt erlaubt zudem, die Bildsensorchips, insbesondere soweit sie auf hinreichend flexiblen Platinen verlötet sind, entweder gemeinsam oder einzeln ausgerichtet auf den Strahlteilerblock zu verkleben, und zwar indem auf den Strahlteilerblock mit hinreichend großer UV-Energie eingestrahlt wird. Nach Verkleben auf dem Strahlteilerblock sind die Bildsensorchips vibrationssicher angeordnet und eine Dejustierung ist deutlich weniger wahrscheinlich.
-
Die Verwendung eines massiven Strahlteilerblocks auf dem die flächigen Bildsensorchips aufgeklebt sind, hat darüber hinaus noch weitere erhebliche Vorteile für hochwertige Kameraanordnungen. Zum einen werden den Bildsensorchips Strahlen aus dem Strahlteilerblock ungeachtet der erforderlichen weitwinkligen Bildaufnahme, die sonst typisch zu schräg einfallenden Strahlen auf dem Sensor führen, vergleichsweise gerade zugeführt. Dies ist vorteilhaft, weil ein Schrägeinfall im Stand der Technik, gerade in Randbereichen von Sensoren, zu Farbverschiebungen führen kann, wenn die Sensoren Bayer-Filter und dergleichen aufweisen. Durch die bevorzugte Anordnung mit einem massiven Strahlteilerblock werden demgemäß solche in den Sensor-Randbereichen im Stand der Technik auftretenden Fehler sicher vermieden.
-
Hinzu kommt, dass durch den massiven Strahlteilerblock auch die Störung durch Licht-Rückreflexe an den Sensor-Abdeckschichten signifikant reduziert ist. Im Betrieb eines Sensors ist nämlich nie vollständig zu vermeiden, dass einfallendes Licht von der lichtempfindlichen Sensoroberfläche rückgestreut wird. Gelangt dieses Licht auf die Sensor-Schutzschicht und somit im Stand der Technik an eine Glas-Luft-Grenzschicht, so kann es wieder zurück auf andere Sensorbereiche reflektiert werden. Aus diesem Grund sind typische Bildsensorchips antireflexbeschichtet. Allerdings stößt auch eine höchst wirksame Antireflexbeschichtung dort an ihre Grenzen, wo Bilder mit extrem hoher Dynamik aufgenommen werden sollen, denn in einem solchen Fall können selbst sonst als schwach empfundene Reflexionen Messwerte noch signifikant verfälschen. Durch die Verwendung eines massiven Strahlteilerblocks, auf welchen die Bildsensorchips geklebt werden, kann die Reflexion an der Grenzfläche zwischen Sensors Schutzschicht und Kitt bzw. Strahlteilerblock ganz massiv reduziert werden und es wird als dominante Reflexion nun die Reflexion an der Grenzfläche zwischen Strahlteileranordnung und Luft hin zum Objektiv erhalten. Da diese Grenzfläche bei üblicher Auslegung der Kameraanordnung wesentlich weiter von den lichtempfindlichen Elementen des Bildsensorchips entfernt sein wird als die Sensorschutzschicht, sind die zu erwartenden Störungen verringert, typisch quadratisch im Verhältnis von vorhandener und im Regelfall auch belassener Schutzglasdicke zu Strahlteilerblockdicke.
-
Es sei insoweit erwähnt, dass die Verkittung eines flächigen Bildsensorchips mit einer wenigstens 5 mm dicken Schicht prinzipiell vorteilhaft für HDR-Aufnahmen ist, weil dadurch Rückreflexe weniger stark ausfallen und insoweit erforderliche Korrekturen zur Berücksichtigung der Punktverschmierfunktion weniger gravierend sein müssen. Es bleibt vorbehalten, Schutz auch für eine Kamera zur Aufnahme von HDR-Bildern mit wenigstens 30 bit Dynamik zu beanspruchen, in welcher wenigstens ein Bildaufnahmesensor mit einer Abdeckung versehen ist, die wenigstens eine Dicke von 5 mm aufweist.
-
Es sei überdies erwähnt, dass die noch zu beschreibenden Methoden der HDR-Rohdatengenerierung überdies erlauben, auf derartige Effekte zu korrigieren.
-
Es ist möglich und bevorzugt, dass die Bildsensorchips Mehrfarbsensoren sind, d. h. jeder der flächigen Bildsensorchips ist in der Lage, simultan mehrere Farben aufzunehmen. Dies kann beispielsweise durch Bayerfilter auf den Sensoren erreicht werden; das alternativ auch andere Farbsensoren wie Foveon-Sensoren verwendbar sind, sei aber erwähnt.
-
Besonders bevorzugt ist es, wenn die Kamera ein Weitwinkelobjektiv aufweist, insbesondere ein Weitwinkelobjektiv mit fester Brennweite und fester Blende. Die Verwendung eines Festbrennweitenobjektivs ist vorteilhaft, wenn die Kamera speziell für die Aufnahme von Vollsphären ausgelegt wird. Die Verwendung einer festen Blende ist vorteilhaft, weil, auch und gerade zur Aufnahme von HDR-Bildern bevorzugt die Belichtungszeit variiert wird, nicht jedoch die Blendenstufe, damit die Tiefenschärfe nicht durch Blendenvariation variiert. Bei fester Blende kann überdies die Blende so gewählt werden kann, dass die Abbildungsleistung des Kameraobjektivs optimiert wird; es ist insbesondere möglich, ein Weitwinkelobjektiv bei großer Tiefenschärfe beugungsbegrenzt für die Kamera auszulegen. Eine große Tiefenschärfe liegt dann vor, wenn ab dem Nahbereich von einigen wenigen Meter, beispielsweise unter 3 m, bevorzugt ab zwischen 1,5 bis 2 m Entfernung von der Kamera weg bis hin ins Unendliche eine scharfe Abbildung vorliegt.
-
Bei Verwendung eines Weitwinkelobjektivs werden bevorzugt so viele Bildsensorchips in einer Reihe angeordnet, dass ein flächigen Streifen mit den gewünschten Raumwinkel erfasst und insbesondere der vertikalen Öffnungswinkel über 150° beträgt, bevorzugt 180° eines 360° Vollkreises oder mehr.
-
In einer besonders bevorzugten Ausführungsform wird ein Antrieb zur Rotation der Kamera verwendet, der eine im Gebrauch vertikal Achse besitzt. Es ist möglich, diesen Antrieb so zu benutzen, dass die Kamera nicht pixelgenau bis zu einer exakt vorgegebenen Position gedreht wird, sondern, dank der flächigen Bildsensorchips und deren streifenartige Anordnung in der Kamera, eine Rotation der Kamera bis etwa zu einem gewünschten Drehwinkel hin vorgenommen wird und dann dort die exakte Endposition der jeweiligen Drehbewegung, an welcher die nur grob vorgegebene Rotation beendet wurde, mittels einer subpixelgenauen Bestimmung des Rotationwinkels ermittelt wird. Dafür ist dann lediglich ein hinreichend genauer Winkeldecoder erforderlich, der ohne weiteres in der Lage ist, bei typischen Pixel Abständen eine Subpixel genaue Rotationsposition zu bestimmen. Derartige Winkeldecoder sind preiswert verfügbar; für den Antrieb selbst kann ein Piezoantrieb (sog. Ultraschallmotor) verwendet werden; dieser erlaubt es in der Regel, insbesondere bei Auslegung als Ringantrieb, die nach Beendigung des Antriebs eingenommene Endposition kriechfrei zu halten. Dies ist vorteilhaft, weil damit die Belichtungssequenzen, die in einer jeweiligen Drehposition angenommen werden, in exakt gleicher Ausrichtung aufgenommen werden und somit die Verknüpfung der Daten von einem Pixel, die bei einer bestimmten Belichtung aufgenommen wurden, mit den Daten des gleichen Pixels, die bei einer anderen Belichtung aufgenommen wurden, wesentlich erleichtert ist.
-
Es sei erwähnt, dass die Kamera typisch nicht nur um eine vertikale Achse gedreht wird, genauer, dass in der Kamera Bildsensorchips und Objektiv um eine vertikalen Achse gedreht werden, sondern es wird typisch eine Drehung sogar derart vorgenommen, dass die Rotation um den Nodalpunkt des Kameraobjektivs erfolgen wird. Dies führt zu parallaxenfrei verknüpfbaren Einzelbildern von den unterschiedlichen Drehpositionen. Es sei betont, dass eine derartige gemeinsame Drehung von Kameraobjektiv und Bildsensorchips um den Objektivnodalpunkt per se bekannt und bereits ohne weiteres realisierbar ist, indem für die Montage ein sehr geringes Spiel der Objektiv-Bildsensorchip-Einheit in Richtung radial zur Drehachse zugelassen wird, und ansonsten eine korrekte Ausrichtung des Objektivs zur Drehachse gewährleistet wird. Es sei weiter erwähnt, dass nicht bei allen Objektiven ein „Nodalpunkt” im engeren Sinne definiert werden kann; als Nodalpunkt wird oftmals in der Panoramafotografie jener Punkt auf der optischen Achse eines Objektivs verstanden, um den eine Kamera mitsamt Objektiv zur Optimierung der Bildbearbeitung aufgenommener Panoramadaten gedreht werden soll. Gegebenenfalls kann dies bezüglich einer Eintrittspupille gemeint sein oder bei einem stark weitwinkligen Objektiv jener Punkt, durch welchen ein Strahl tritt, der im Fernfeld einen Winkel von 90° zur optischen Achse aufweist. Dieser Punkt wird auch als NPP90 (= No Parallax Point bei 90°) bezeichnet.
-
Es versteht sich, dass die Anzahl von für eine Vollsphäre aufzunehmenden Bildsequenzen, d. h. während der Vollsphärenerfassung einzunehmenden Drehpositionen, abhängig sein wird von der Kantenlänge der flächigen Bildsensorchips und von der Entfernung der Bildsensorchips von der Drehachse. Es ist bevorzugt, wenn die Bildsensorchips eine Kantenlänge in Umfangsrichtung von wenigstens 4 mm besitzen, bevorzugt von über 5 mm. Damit ist bei vertretbaren Größen für die Optik eine Kamera konstruierbar, welche nicht mehr als 50, typisch lediglich 25 unterschiedliche Drehpositionen zur Aufnahme einer Vollsphäre benötigt. Eine zu große Zahl an einzunehmenden Drehpositionen verlangsamt die Messung; eine zu kleine Zahl wird nur bei sehr großen Bildsensorchips erreicht, die evtl. prohibitiv teuer werden. Die Kantenlänge um 5 mm ist dagegen mit sehr preiswerten Chips erreichbar und die Anzahl der Aufnahmen ist vertretbar.
-
Dass auch dann von einer Vollsphäre gesprochen wird, wenn der Bereich unterhalb der Kamera oder dicht um das Stativ herum nicht erfasst wird und oder gegebenenfalls keine Messungen exakt nach oben erfolgen, sondern auch im oberen (Pol)-Bereich gegebenenfalls nicht erfasste Bereichen verbleiben, auch wenn dies offensichtlich nicht bevorzugt ist, sei erwähnt. Bevorzugt ist in jedem Fall, Vollsphären zu erfassen, bei denen wenigstens oberhalb der Kamera der gesamte Bereich bis hin zum Polpunkte erfasst wird. Dass im Übrigen zu bestimmten Zwecken keine Drehung der Kamera um einen Vollkreis erfolgen muss, sei erwähnt. Es kann oftmals ausreichen, etwa dort, wo für Werbezwecken Aussichtspanoramen aufgenommen werden sollen, nur einen Teilbereich des Vollkreises zu erfassen; für Anwendungen wie die Lichtfeldaufnahme wird aber typisch eine Vollsphärenaufnahme bevorzugt.
-
Die flächigen Bildsensorchips werden in Umfangsrichtung der Drehung typisch mehrere 100, bevorzugt über 1000 Pixel, insbesondere bevorzugt über 1500 Pixel, beispielsweise 2200 Pixel aufweisen. Dies ermöglicht, für eine breite Anzahl von Anwendern hinreichend hoch auf gelöste Bilder bereitzustellen, bei denen auch von in größerer Entfernung zur Kamera befindlichen Objekten noch hinreichend feine Details erkennbar sind. Es ist zudem möglich, auf ungenaue Montage der Bildsensorchips entlang einer Reihe zu kompensieren, indem je nach exakter Bildsensorchiplage die Randpixel ignoriert werden. Werden etwa 100 Pixel am linken und 100 Pixel am rechten Rand jeweils zur Kompensation einer ungenauen Justierung „geopfert”, ergeben sich zulässige Montagetoleranzen von z. B. 100·2 μm (bei typischen Pixelgrößen), was herstellungstechnisch ohne weiteres zu bewältigen ist.
-
Es ist bevorzugt, wenn die Kameraanordnung der vorliegenden Erfindung im Objektivstrahlengang ein zwischen Objektiveintrittslinse und Bildsensorchips bewegliches Lichtfilter aufweist, das insbesondere im Austausch gegen ein anderes Filter in den Objektivstrahlengang zwischen Objektiv und Bildsensorchips bewegt werden kann, bevorzugt vor dem Strahlteiler. Besonders bevorzugt ist es, das Filter nahe der Ebene der Aperturblende in den Strahlengang zu bewegen, da sich dann Verunreinigungen auf der Filteroberfläche im Filterglas usw. am Wenigsten auf den Bildinhalt ausweiten. Es ist möglich, als derartiges Lichtfilter einen von mehreren breitbandigen Spektralfiltern vorzusehen, um durch Messung mit unterschiedlichen Spektralfiltern den der Kamera zugänglichen Farbraum zu erweitern. Sofern eine derartige Erweiterung des Farbraums der Kamera die vorliegende Erfindung gewünscht wird, ist es möglich, einen Mehrfachbelichtung in jeder Position vorzunehmen, wobei mindestens einmal mit jedem Farbfilter im Strahlengang gemessen werden kann und/oder wenigstens zwei Spektralfilter nacheinander in den Strahlengang für unterschiedliche Messungen in einer Kameradrehposition eingeschoben werden. Es sei erwähnt, dass dort, wo HDR-Rohdaten gewünscht sind, einleuchtender Weise mit jedem Farbfilter im Strahlengang eine HDR-Belichtungsreihe, beispielsweise durch Variation der Belichtungszeit vorgenommen werden kann. Dies kann durch Aufnahme einer vollständigen Belichtungsreihe an jeder Drehposition, d. h. unabhängig von den momentan beobachteten Helligkeitswerten geschehen; alternativ werden, unter Berücksichtigung momentan erfasster Helligkeitswerte, nur die Aufnahmen gemacht, die zwingend notwendig sind – so ist es etwa nicht erforderlich, lange Belichtungen auszuführen, wenn schon alle Teile des Bildes bei mittleren Belichtungszeiten überbelichtet sind. Dass prinzipiell die Möglichkeit besteht, auch unabhängig von der Verwendung von in den Strahlengang einschiebbaren Farbfiltern und/oder Neutraldichtefiltern stets vollständige Belichtungsreihen aufzunehmen, ohne die aktuell erfassten Helligkeitswerte aufzunehmen, sei als – wenn auch deutlich weniger bevorzugte – Möglichkeit erwähnt.
-
Bereits durch alternatives Einschieben zweier breitbandiger Spektralfilter im Wechsel gegen einen Neutralfilter kann mit einem herkömmlichen Bayersensor unter Verwendung eines zusätzlichen neutralen Filters eine Messung mit neun Primärfarben erfolgen. Dies hat offensichtlich Vorteile durch die so mögliche Erweiterung des zugänglichen Farbraums.
-
Als Lichtfilter kann aber auch ein Neutraldichtefilter verwendet werden. Dies ermöglicht es, selbst besonders helle Objekte noch korrekt zu erfassen bzw. zu vermessen. Insbesondere ist es möglich, Objekte korrekt zu erfassen, die so hell leuchten, dass auch mit kürzest möglicher Belichtungszeit noch ein überlaufen der Bildsensorchips oder einzelner Bildsensorchips zu befürchten ist. Es sei erwähnt, dass die Bewegung der Lichtfilter, seien es Neutraldichtefilter und/oder Farbfilter, in den Objektivstrahlengang in einem bevorzugten Ausführungsbeispiel gesteuert von der Kamera erfolgen wird. Gerade bei den Neutraldichtefiltern können zur Steuerung die mit den Bildsensorchips erhaltenen Helligkeitswerte (d. h. die Helligkeiten in den einzelnen Farbkanälen) betrachtet werden. Eine besonders schnelle Messung ergibt sich dann, wenn bildsensorweise entschieden wird, ob jeweils einen neuerliche Belichtung mit größerer oder kleinerer Belichtungsdauer erforderlich ist. Dazu können in einer bevorzugten Variante die Maximalwerte, die mit einem Chip erhalten werden bzw. die Minimalwerte der Helligkeit betrachtet werden. Liegen einzelne Helligkeitswerte außerhalb jenes Bereichs, in denen ein hinreichend lineares Verhalten unterstellt werden kann oder eine hinreichende Rauscharmut erwartet werden kann, kann für den gesamten Bildsensorchip einen neuerliche Messung mit kürzerer oder längerer Belichtungszeit vorgesehen werden; überdies kann auch dann, wenn eine Vielzahl von Bildsensorpixeln eines Chips eine recht große oder recht niedrige Belichtung erfahren haben, eine entsprechend korrigierte Aufnahme weiterer Daten mit längerer oder kürzerer Belichtungszeit erfolgen bzw. mit eingeschoben Neutraldichtefilter. Dass gegebenenfalls mehrere unterschiedliche Neutraldichtefilter verwendbar wären, sei erwähnt. Dies kann den zugänglichen Dynamikbereich weiter erweitern.
-
Es kann auch zur Festlegung erforderlicher Belichtungen untersucht werden, ob eine Über- bzw. Unterbelichtung von einzelnen Bildsensorchippixeln jenem Bereich beobachtet wurde, der einen Überlapp zu Bildsensorchips der anderen Gruppe aufweist, oder ob er in einem Bereich aufgetreten ist, der in einer Lücke der anderen Bildsensorchipgruppe liegt. Abhängig davon kann dann entschieden werden, ob gegebenenfalls auch eine andere Belichtung bei jenen Bildsensorchips ausgelöst werden kann, die mit dem über- oder unter laufenden Bildsensorchip überlappen. Die Beschränkung der Messung mit größerer oder kleinerer Belichtungsdauer auf nur einen jeweiligen Chips oder einige wenige Chips ermöglicht es, die insgesamt in einer Kameradrehposition erforderlichen Messungen zu verkürzen und damit insgesamt die Messung zu beschleunigen. Es versteht sich aber, dass spätestens dann, wenn ein Neutraldichtefilter in den Strahlengang geschoben wird, eine Messung mit allen Chips erfolgen wird. Es sei darauf hingewiesen, dass Neutraldichtefilter ohne weiteres in der für die vorliegende Erfindung typisch erforderlichen Größe verfügbar und hinreichend homogen sind. Dort, wo eine Kalibrierung mit einer internen Referenzlichtquelle erfolgt, kann es vorteilhaft sein, die Referenzlichtquelle sowohl abgeschwächt durch den Neutraldichtefilter wie auch nicht abgeschwächt zu beobachten, falls Zweifel an der Dauerbeständigkeit oder Homogenität des Neutraldichtefilters bestehen.
-
Wenn ein Filter im Austausch gegen ein anderes Lichtfilter in den Strahlengang bewegt wird, kann als eines der anderen oder einziges anderes Filter insbesondere ein nicht abschwächendes Filterelement verwendet werden, welches gleiche oder zumindest im wesentlichen gleiche Brechungseigenschaften besitzt und ebenfalls im Strahlengang miteingerechnet wurde. Auf diese Weise wird vermieden, dass durch das Einschieben des Lichtfilters in den Strahlengang ein Versatz oder dergleichen mit und ohne Lichtfilter auftritt, so dass die Abbildung Eigenschaften des Objektivs nicht verändert werden und insbesondere auch die Zuordnung zwischen Bildpixel und Raumwinkel unbeeinflusst vom jeweiligen Filter ist.
-
Es ist besonders vorteilhaft, wenn die Kamera die Möglichkeit der vollautomatischen Selbstkalibration besitzt. Dazu kann einerseits ein Abdunkelungsmittel vorgesehen sein, wie ein mechanischer, hoch lichtdichter Shutter. Mit diesem ist es möglich, dass Dunkelverhalten aller Bildsensorchippixel exakt zu bestimmen. Zugleich ist es besonders bevorzugt, wenn auch eine zumindest kurzzeitkonstante Referenzlichtquelle vorgesehen ist, mit der die Bildsensorchips insbesondere bei abdunkelndem, d. h. geschlossenem mechanischen Verschluss möglich ist. Es kann insbesondere eine LED verwendet werden, die entweder mit stabilisiertem Strom betrieben wird oder durch simultane Einstrahlung eines Teils des von ihr emittierten Lichtes auf einen großflächigen Sensor stabilisiert wird. Mit einer solchen Referenzlichtquelle ist es möglich, die exakte Helligkeit, die mit einzelnen Bildsensorchippixeln erfasst wird, abhängig von einem eingestellten Gain (Verstärkung) und oder einem analogen Offset exakt zu bestimmen. Dies kann, sofern gewünscht, bei unterschiedlichen Beleuchtungsdauern der Fall sein, wozu entweder ein elektronischer Shutter genutzt wird oder die Beleuchtung kurzfristig an- und ausgeschaltet wird. Es kann dann bei unterschiedlichen eingestellten Gain-Werten gemessen werden. Die Referenzlichtquelle muss lediglich für die Dauer einer Kalibrierungsmessung stabil sein, damit der Einfluss von Verstärkung bzw. Analogoffset bestimmt werden kann. Diese Forderung lässt sich ohne weiteres technisch vergleichsweise einfach realisieren. Falls gewünscht, kann die Referenzlichtquelle auch regelmäßig mit einer absoluten, (amtlich) geeichten Lichtquelle verglichen werden.
-
Wenn eine Referenzlichtquelle vorgesehen ist, wird die Auswerteeinheit typisch zur exakten Bestimmung der Pixelempfindlichkeit ausgebildet sein. Es versteht sich, dass auf diese Weise eine hohe Linearität erreicht werden kann, die besonders vorteilhaft ist, wenn extrem große Dynamikbereiche gewünscht werden. Der große Dynamikbereich erlaubt es nämlich unter bestimmten Bedingungen, Helligkeitswerte nach der Erfassung zu verändern. Es kann, mit anderen Worten, eine ganze Szene heller oder dunkler „gerechnet” werden. Wird dies gemacht, könnten sich Alinearitäten besonders massiv auswirken.
-
Die Kamera wird bevorzugt eine Sequenzsteuerung aufweisen, die bestimmt, ob in einer gegebenen Position weitere Messungen erforderlich sind oder ob an einer anderen Kameraposition weiter gemessen werden kann. Die Aufnahme von HDR-Sequenzen geschieht dabei bevorzugt durch Veränderung der Belichtungszeiten. Wenn elektronische Shutter verwendet werden, können ohne großen Aufwand auch sehr kurze Belichtungszeiten realisiert werden. Dies ist vorteilhaft, wenn extrem helle Objekte mit korrekten Helligkeiten erfasst werden sollen, beispielsweise die Sonne bei unbedecktem Himmel. Zugleich kann durch Integration über ein hinreichend langen Zeitraum auch eine Messung von sehr geringen Helligkeitswerten mit großer Genauigkeit erfolgen. Für eine HDR-Sequenz werden also bevorzugt keine Veränderungen der Verstärkung vorgenommen; die Veränderung ausschließlich über die Belichtungsdauer bzw. das erforderlichenfalls erfolgende Einschieben eines Neutraldichtefilters hat den Vorteil, dass Belichtungszeiten durch Zählen eines Taktes sehr genau bestimmt werden können und insofern Abweichungen zwischen zwei Messungen im wesentlichen nur durch den bei typischen Anwendungen ohne weiteres vernachlässigbaren Einfluss der Taktstabilität bestimmt sind.
-
Es wird als vorteilhaft angesehen, wenn mit einem Bildsensorchip so gemessen werden kann, dass ein jeweiliges Pixel in einem mittleren Bereich des bei einer gegebenen Belichtungszeit und einer gegebenen Verstärkung zugänglichen Dynamikbereich liegt. Bei sehr geringen Helligkeitswerten werden diese Werte zu stark von Rauschen beeinflusst sein sowie einem gegebenen gegebenenfalls nicht vollständig kompensierten Offset, d. h. dass sich Dunkelströme bzw. Zählraten zu stark auswirken.
-
Obwohl bevorzugt Messungen immer unter Abzug der bei Dunkelheit an einem Pixel erhalten Messwerte ausgeführt werden, kann es trotzdem zu Fehlern kommen, etwa dann, wenn die Kamera zwischen Dunkelmessung und eigentlicher Messung starken Temperaturschwankungen ausgesetzt ist oder dergleichen. Weiter ist es vorteilhaft, wenn der mit einem gegebenen Bildsensorchippixel bestimmte Helligkeitswert nicht zu groß ist. Andernfalls können beispielsweise Sättigungseffekte beginnen, sich stärker als gewünscht auszuwirken. Bei einer typischen 12 Bit-Dynamik können Werte, bei denen wenigstens das drittkleinste Bit anspricht und maximal dass zehntgrößte Bit anspricht, als mittlerer Dynamikbereich angesehen werden. Bei einer HDR-Messesequenz ist dies besonders vorteilhaft, weil dann ein hinreichend breiter Bit-Überlapp zum nächsthelleren bzw. nächstdunkleren Bild der Sequenz besteht. Durch die bei typischen Szenen gegebene Helligkeitsvariabilität wird dies vielfach, d. h. bei sehr vielen Pixeln eines jeweiligen Bildsensorchips der Fall sein.
-
Hier kann einerseits kontrolliert werden, ob die mit größerer und kleinerer Belichtung erfassten Helligkeitswerte zumindest in etwa mit dem Erwartungen übereinstimmen; es kann eine Mittelung vorgenommen werden und so weiter. Wenn für bestimmte Bildsensorchippixel oder Pixelblöcke gleiche und erhebliche Abweichungen zwischen Bildern einer Bildsequenz auftreten, kann dies für das ein- oder ausschalten von Lichtquellen sprechen. In einem solchen Fall kann gegebenenfalls entweder eine Warnung ausgegeben werden und/oder eine Messung insgesamt wiederholt werden.
-
Während vorstehend für einen Dynamikbereich das Ansprechen der 3. bis 10. Dynamikbits von insgesamt 12 Bits als im mittleren Bereich liegend erklärt wurde, versteht sich, dass die Erfindung weder auf Bildsensoren mit einer Dynamik von 12 Bit beschränkt ist noch ein mittlerer Dynamikbereichs so klein wie nur 8 Bit von 12 maximal möglichen Dynamikbits sein muss. Allerdings zeigt sich, dass auch preiswerte Bildsensorchips am Anmeldetag einen Dynamikbereich von typisch 10–42 Bit nomineller Dynamik zulassen (auch wenn dann gegebenenfalls Linearitätsabweichungen schon erheblich sind, wie sie etwa durch Rauschen auftreten können).
-
Als kritisch kann in einer Sequenz angesehen werden, wenn Pixelwerte sehr weit im unteren Bereich der mit einer Einzelbelichtung bei gegebener Verstärkung (gain) und gegebener Belichtungszeit zugänglichen Dynamikbereich liegen, beispielsweise, weil nur zwei von 12 Bit ansprechen, oder weil einzelne Bits extrem helle Lichtquellen erfasst haben und in oder nahezu in Sättigung liegen, beispielsweise nicht mehr als 2 Bits unter der Überlaufschwelle. In einem solchen Fall kann bereits bei Ansprechen einzelner Pixel oder einiger weniger Pixel von der Sequenzsteuerung eine neuerliche Messung veranlasst werden. Darüber hinaus kann ergänzend und/oder zusätzlich vorgesehen sein, dass dann weitere Messungen vorgenommen werden, wenn ein erheblicher Anteil der Pixel, beispielsweise mehr als 3% oder mehr als 10% eines Bildsensorchips bzw. von dessen relevanter Fläche nahe einer geringen Belichtungsschwelle wie beispielsweise Ansprechen von nur maximal 4 Bit des Dynamikbereichs und oder einer Hochbelichtungsschwelle, d. h. Werte von oberhalb z. B. 9 Bit von 12 möglichen Bit Dynamik liegen.
-
Es versteht sich, dass dazu eine pixelweise Betrachtung des Überschreitens von Grenzwerten erfolgen kann, dass aber, um zu bestimmen, ob nach diesen Vorschriften neuerliche Belichtungen für eine HDR-Sequenz erforderlich sind, nicht mehr als beispielsweise vier Zähler (gegebenenfalls je Bildsensorchip, sofern bildsensorchipweise über weitere Belichtungen entschieden wird) vorgesehen sein müssen, mit denen gezählt wird, wie viele Pixel jeweils oberhalb bzw. unterhalb der Grenzwelle liegen. Durch Vergleich der gezählten Anzahl von Pixelwerten mit einer als akzeptabel angesehenen Anzahl kann auch eine Entscheidung über die Ausführung einer neuerlichen Meßsequenz getroffen werden.
-
Es sei auch erwähnt, dass bei der Betrachtung, ob eine weitere Belichtung an einer gegebenen Kameraposition erforderlich ist, bestimmte Pixel außer Betracht bleiben können. Dies kann etwa dann der Fall sein, wenn bei einer Messung von Dunkelwerten ein signifikant zu hoher Messwert mit einem solchen Pixel erhalten wird und oder wenn bei Belichtung mit der Referenzlichtquelle und gegebenenfalls Variationen der Verstärkung bzw. des analogen Offsets und/oder der Belichtungsdauer mit Referenzlicht ein Verhalten beobachtet wird, das signifikant von einem erwarteten Verhalten abweicht. In einem solchen Fall kann unterstellt werden, dass das Pixel nicht geeignet ist, korrekte Helligkeitswerte zu bestimmen. Die an dessen Position erwarteten Helligkeitswerte können dann im Übrigen bei der Bestimmung eines HDR-Datensatzes oder dergleichen wie erforderlich interpoliert werden. Dadurch, dass das Vorhandensein defekter Pixel auf den Bildsensorchips ohne weiteres zugelassen wird, können Bildsensorchips geringerer Selektionsstufe verwendet werden; dies senkt die Kosten der Kameraanordnung ohne Weiteres weiter. Um festzulegen, welche Pixel ausgeblendet werden, kann eine Look-Up-Tabelle oder dergl. verwendet werden.
-
Es sei weiter erwähnt, dass je nach Grad des Überlapps zwischen mehreren Bildsensorchipgruppen in den verschiedenen Teilstrahlengängen etliche der als defekt eingestuften Pixel auch in einem Überlappbereich liegen können. In einem solchen Fall bedarf es noch nicht einmal der Interpolation; vielmehr ist es möglich, zur Berücksichtigung von Pixeldefekten Rückgriff nur auf jene Pixel zu nehmen, die gegebenenfalls auf dem jeweils anderen Bildsensorchip, mit dem ein bestimmter, redundante erfasster Szenenbereich beobachtet wird, liegen.
-
Es sei auch erwähnt, dass gegebenenfalls auch ohne Bezugnahme auf die Referenzlichtquelle oder dergleichen Pixel als defekt erkannt werden können, etwa dann, wenn sich ungeachtet ihrer jeweiligen Drehposition stets gleiche Werte ergeben, auch wenn Nachbarwerte stark variieren. Dies lässt Pixeldefekte als zumindest wahrscheinlich erscheinen. Auch hier kann ein Ausblenden bzw. Außerachtlassen vorgesehen werden.
-
Damit Pixel gegebenenfalls außer Betracht bleiben, können dementsprechend statistische Informationen wie Mittelwerte und Standardabweichungen für jedes Pixel bestimmt werden.
-
Aus dem vorstehenden wird zu verstehen sein, dass Schutz insbesondere beansprucht wird für eine Kamera mit feststehendem Objektiv, einen Objektivstrahlen in zwei Teilstrahlengänge aufteilenden Strahlteiler und zwei Gruppen von bevorzugt farbempfindliche Flächensensoren, wobei die flächigen Sensoren der ersten Gruppe auf Lücke beabstandet und im ersten Teilstrahlengang angeordnet sind und die Flächensensoren der zweiten Gruppe die Lücken der ersten übergreifend im zweiten Teilstrahlengang angeordnet sind, und wobei die Kamera in der Lage ist, um den Nodalpunkt zur Messung bzw. Aufnahme von Vollsphären weitergedreht zu werden und dabei die bevorzugt kriechfrei beim Ende des Weiterdrehens eingenommene Dreh-Endposition exakt zu erfassen und vor neuerlicher Weiterbewegung eine HDR-Sequenz zu messen, insbesondere mit einer Dynamik von insgesamt über 30 Bit unter Verwendung von Flächensensoren mit einer Einzelaufnahmen- Dynamik von unter 16 Bit, vorzugsweise nicht mehr als 14 Bit, insbesondere bevorzugt nicht mehr als 12 Bit.
-
Es sei als einleuchtend und verständlich erwähnt, dass sich die Erfindung, obgleich Schutz insbesondere für eine derartige Kamera beansprucht wird, keinesfalls auf eine solche beschränkt, dass aber eine derartige Kamera besondere Vorteile bietet, insbesondere weil durch die flächigen Sensoren schnell, kostengünstig, mit extrem hohen Dynamik und hervorragender Positionsauflösung gemessen werden kann. Es wird einzuschätzen sein, dass mit einer derartigen Kamera vollsphärische Bilder mit über 30 Bit Dynamik und mit am Anmeldetag preisgünstig verfügbaren, massenproduzierten Bildsensorchips, einer Auflösung von über 800 Megapixeln je Vollsphäre binnen weniger als 1 Minute aufgenommen werden können.
-
Es sei erwähnt, dass es die Messung mit extrem großer Dynamik ermöglicht, auch auf den Effekt von z. B. mehrfachen Rückreflexionen zu kompensieren, d. h. darauf, dass Licht weg von der Bildsensorfläche hin zu den Grenzflächen näher am Objektiveintritt zurück gelangt und dann dieses Licht wieder zurück auf den Sensor gelangt. Dies kann beispielsweise durch Ausmessung der sog. Punktverschmierungsfunktion (point spread function) in einer Vorab-Messung, die bevorzugt spezifisch mit jeder einzelnen Kamera durchgeführt wird, geschehen. Bei bekannter Punktverschmierungsfunktion kann dann eine entsprechende Korrektur erfolgen. Da die Auswirkungen der Rückreflexion aufgrund der Verwendung eines massiven Strahlteilers ohnehin bereits signifikant verringert ist, sind die mit der Kompensation erhaltenen Bilder kaum noch von derartigen Effekten beeinflusst. Es ist aus dem vorstehenden einsichtig, dass es bevorzugt, aber nicht zwingend ist, ein Mittel zur Kompensation von internen Rückreflexionen zu verwenden. Dieses Mittel kann in einer bevorzugten Variante einen Speicher für eine kameraspezifische oder kameramodellspezifische, d. h. über typische Eigenschaften eines Kameramodells mittelnde, Punktverschmierfunktion bzw. Punktverschmierfunktionskompensationen umfassen und eine Bilddatenveränderungseinheit, mit der aufgenommene Bilddaten, insbesondere HDR-Bilddaten mit einem Dynamikbereich über 20 bit, bevorzugt über 30 bit, zur Kompensation von Rückreflexion unter Rückgriff auf die im Speicher abgelegten Punktverschmierfunktion bzw. Punktverschmierfunktionskompensationen verändert werden.
-
Die Erfindung wird im Folgenden nur beispielsweise anhand der Zeichnung beschrieben. In dieser ist dargestellt durch
-
1 eine Kameraanordnung der vorliegenden Erfindung im Querschnitt und zwar in Blickrichtung entlang der Rotationsachse, um welche das Kameragehäuse im Betrieb gedreht wird;
-
2 eine Veranschaulichung eines Exoskeletts für eine Kameraanordnung nach 1;
-
3 ein weiterer Querschnitt durch die Kameraanordnung der vorliegenden Erfindung von 1, hier jedoch senkrecht zur optischen Achse; die zweite Bildsensorplatine, die am Strahlteiler angeordnet ist, ist nur in 4 dargestellt;
-
4 eine Veranschaulichung der Lage der Bildsensorchips auf den Platinen in unterschiedlichen Teilstrahlengängen der Kameraanordnung, dargestellt an einem Teil der (im übrigen um 90° gedrehten) Ansicht von 3, um die Lage der Bildsenorchips relativ zueinander auf den ersten und zweiten Strahlteilerflächen zu veranschaulichen; die Bereiche der Lücken in einer Bildsensorchipreihe sind zur anderen Bildsensorchipreihe hin schraffiert übertragen;
-
5 eine Veranschaulichung des sich mit unterschiedlichen Belichtungszeiten und eingeschoben Dynamikfilter ergebenden Dynamikumfangs;
-
6 eine Schnittansicht durch ein Exoskelett wie in 2 dargestellt mit wesentlichen Modulen der Kameraanordnung.
-
Nach 1 umfasst eine allgemein mit 1 bezeichnete Kameraanordnung eine Strahlteileranordnung 2 und eine Vielzahl von in deren Teilstrahlengängen angeordneten flächigen Bildsensorchips 3a und 3b, wobei in einem ersten Teilstrahlengang 2a mehrere voneinander mit Lücke angeordnete Bildsensorchips angeordnet sind, vergleiche Bildsensorchips 3a1 bis 3a5 in 4, und wobei für zumindest eine Lücke 3a1a2 ein lückenübergreifender Bildsensorchip 3b1 in einem weiteren Teilstrahlengang 2b des Strahlteilers vorgesehen ist.
-
Die Kameraanordnung ist im vorliegenden Fall mit einem Weitwinkelobjektiv 9 versehen und als autarker, mit Bedienenelementen, vergleiche Bezugszahl 4 in 6, fest versehener Kamerakörper gebildet, der eine Datenauswerte- und Speichereinheit 5 sowie eine wiederaufladbare Batterie 6 aufweist, und der bei Montage des Kameragrundkörpers auf einem Stativ (nicht gezeigt) durch einen Antrieb 7 um eine bei Benutzung vertikale Achse 8 drehbar ist, wobei die optische Achse 8 durch den Nodalpunkt des Weitwinkel-Kameraobjektivs verläuft.
-
Das Kameraobjektiv 9 ist vorliegend als Festbrennweitenobjektiv mit so großem Öffnungswinkel gerechnet, dass in vertikaler Richtung ein Öffnungswinkel von 180° erhalten wird. Das Kameraobjektiv ist rotationssymmetrisch um seine optische Achse, obwohl die Kamera zu Zwecken der Aufnahme von vollsphärischen Bildern gedreht wird und in jeder Drehposition nur ein streifenförmiges Bild aufgenommen wird. Die Verwendung eines Rotationssymmetrischen Objektivs ist dabei bevorzugt, weil die entsprechenden optischen Elemente preiswerter sind. Gleichwohl ist es möglich, einzelne oder alle Linsen in äquatorialer Richtung zu beschneiden, um die Abmessungen des Sensorkopfes zu verringern. Zur Verringerung von Streulichteffekten und dergleichen ist dem Objektiv eine einen vertikalen verlaufenen Schlitz definierende Blende vorgesetzt, vergleiche 9A, so dass andernfalls seitlich eintretende Strahlen nicht ins Kamerainneren gelangen können, was vorteilhaft ist, weil sonst in erheblichem Maß Streulicht zu erwarten ist, wie an den beispielhaft dargestellten (durch den Schlitz eben unterdrückten und nicht in das Kamerainnere tretenden) Strahlen 20x1, 20x2, 20x3 zu erkennen ist, die nicht auf Bildsensorchips enden, vgl. 20x1a, 20x2a, 20x3a.
-
Es versteht sich, dass die einzelnen optischen Elemente des Objektivs 9 in einer geeigneten Halterung 9b angeordnet sind, die eine hinreichend lange Zeit stabil, wie benötigt stoßunempfindlich sowie nur geringfügig auf schwankende Temperaturen empfindlich ist. Es sei darauf hingewiesen, dass die Halterung 9b nur schematisch angedeutet ist, was schon daraus ersichtlich ist, dass etliche der zum Objektiv gehörenden Linsen keine Verbindung zum Objektivhalter erkennbar ist. Hingewiesen sei allerdings auch darauf, dass die Frontlinse zum Kamerainneren hin einen abgeflachten Randbereich aufweist, mit welchem sie auf einer Stufe aufliegt, die im Objektivhalter gebildet ist. Wie noch beschrieben wird, erleichtert dies die Montage der Linse, weil hier nur zentriert werden muss. Es ist einsichtig, dass dieses Prinzip der Anordnung einer flachen Linsen-Randfläche auf einer am Objektivhalter vorgesehenen Stufe vorteilhaft eingesetzt wird soweit möglich.
-
Die einzelnen Linsen des Objektivs sind hochvergütet, allerdings nur auf eine Dynamik von 12 Bit. Innerhalb des Objektivs ist eine Blendenanordnung zur Begrenzung von Randstrahlen vorgesehen sowie ein elektrisch unter Steuerung einer zur Kamerasteuerung 5 gehörenden elektrischen Steuereinheit betätigbarer mechanischer Shutter, durch den Lichteinfall in das Innere des Kamerakörpers vollständig unterbunden werden kann. Es sei erwähnt, dass die Blendenanordnung mehr als eine Blende umfassen kann.
-
Es sei in diesem Zusammenhang darauf hingewiesen, dass das Kameragehäuse so ausgelegt ist, dass auch durch andere Öffnungen, beispielsweise elektrische Buchsen zur Kontaktierung der Steuerung, der Batterie und der Datenschnittstellen, und/oder aus der Bedieneinheit und dem zugehörigen Display 4 kein Licht in das Innere des Kameragehäuses eindringt. Damit herrscht im Kameragehäuse bei Schließen des mechanischen Verschlusses absolute Dunkelheit, sofern nicht eine ebenfalls in der Kamera angeordnete LED 10 erregt wird, die Licht einerseits auf einen Referenzsensor einstrahlt und andererseits, über eine Licht streuende Scheibe 10b, auf eine Fläche 2c des Strahlteilers 2, von welcher ein erster Teil des Kalibrationslichtes auf die Bildsensorchips 3a1–3a5 der ersten Gruppe fällt, während ein zweiter Anteil des Lichts auf die Bildsensorchips 3b1 bis 3b4 im zweiten Teilstrahlengang fällt. Durch die Licht vergleichmäßigende Streuscheibe 10b ist dabei gewährleistet, dass in hinreichendem Maß auf jedes Pixel des Bildsensorchips ein gleicher und gleich bleibender Anteil an Licht gestreut wird.
-
Die Bildsensorchips 3a bzw. 3b sind jeweils auf einer Platine aufgelötet, d. h. es sind alle Bildsensoren 3a1–3a5 der Gruppe 3a auf einer ersten, gemeinsamen Platine angeordnet und alle Bildsensorchips 3b1–3b4 der zweiten Gruppe auf einer anderen Platine befestigt. Dass es – abweichend von der Darstellung in 4 – möglich ist, jeweils gleich viele Bildsensoren auf einer Platine anzuordnen, sei hier erwähnt. Auf diese Weise können für beide Teilstrahlengänge baugleiche Platinen verwendet werden.
-
Diese Platine ist nachgiebig und trägt neben den Bildsensorchips auch noch die Ansteuerungselektronik und die Schnittstellen zur Auswerte-Elektronik, in 1 dargestellt als FPGA-Boards 11a und 11b. Die FPGA-Boards 11a und 11b sind, wie noch beschrieben werden wird, mit derart leistungsstarken FPGAs bestückt, dass in Echtzeit untersucht werden kann, ob einzelne Pixel der Bildsensorchips sich normal verhalten, ob die mit ihnen erfassten Helligkeitswerte bestimmte Maximalwerte überschreiten bzw. Minimalwerte unterschreiten und ob eine zu große Anzahl von Pixeln je Bildsensorchip bestimmte Helligkeitswerte über- oder unterschreitet.
-
Die Datenaufnahme und Steuerung 5 ist dazu ausgelegt, innerhalb des Kameragehäuses eine Vielzahl von vollsphärischen Aufnahmen hoher Dynamik und hoher Auflösung abzulegen, so dass erst am Ende eines Arbeitstages die Daten abgerufen werden müssen; dafür sind geeignete Schnittstellen vorhanden. Die Batterie 6 ist ebenfalls dazu ausgelegt, eine Vielzahl von vollsphärischen Bildern aufzunehmen, ohne gewechselt bzw. neu geladen werden zu müssen.
-
Der Strahlteilerblock ist im vorliegenden Ausführungsbeispiel ein lang gestreckter, massiver Strahlteilerblock aus zwei miteinander verkitteten Prismen, wobei auf der Austrittsfläche des ersten Prismas die Bildsensorchips der ersten Gruppe aufgebracht sind und auf der Austrittsfläche des den zweiten Teilstrahlengang definierenden zweiten Prismas die Bildsensorchips der zweiten Gruppe aufgebracht sind. Sowohl die Bildsensorchips der ersten Bildsensorchipgruppe wie auch die Bildsensorchips der zweiten Bildsensorchipgruppe sind dabei mit einem optischen Kleber, der UV-härtend ist, auf die jeweiligen Flächen aufgeklebt. Die Dicke der Klebstoffschicht kann geringfügig variieren, wenn die Sensoren in optimierter Position, insbesondere unter maschineller Steuerung, aufgeklebt werden, wie noch zu erläutern sein wird. Gleichwohl wird das Objektiv so ausgelegt sein, dass bei dessen Berechnung sowohl der Strahlteilerblock als auch die Schichten des optischen Klebers mit eingerechnet sind. Weiter ist bei der Auslegung des Objektivs eingerechnet ein Filterelement 12, dass austauschbar gegen ein weiteres Filterelement (nicht gezeigt) angeordnet ist, und zwar durch automatischen Austausch unter Bewegung eines geeigneten Aktors durch die Steuerung 5.
-
Der Antrieb 7 ist vorliegend als Piezo-Rotationsdrehantrieb gebaut, der in der Lage ist, eine Drehposition sehr schnell zu erreichen und danach, d. h. nach Beenden seiner Erregung, in seiner Endposition kriechfrei zu verbleiben. Als kriechfrei wird vorliegend ein Antrieb angesehen, der binnen der für die Durchführung einer HDR-Mess-Sequenz erforderlichen Zeit, typisch also bei einer derzeitigen praktischen Variante für 0,5 Sekunden bis eine Sekunde allenfalls eine Bewegung in oder gegen die Antriebsrichtung von weniger als 1 Pixel ausführt; typisch beträgt die Kriechbewegung zwischen 1/10 bis 1/4 Pixel während der Meßdauer, und zwar selbst dann, wenn die Kamera nicht exakt lotrecht steht.
-
Die Ansteuerung des Rotationsantriebs erfolgt durch die Steuerung 5. Die Steuerung 5 erhält auch Signale über die Drehposition, in welcher die Kamera vom Antrieb 7 jeweils kriechfrei abgesetzt wurde, und zwar von einem hoch auflösenden Winkelgeber. Hochauflösend bedeutet dabei mit Subpixelgenauigkeit entsprechend der Pixelgröße der jeweiligen Bildsensoren.
-
Es sei diesbezüglich erwähnt, dass in einer ersten Realisierung der Erfindung Bildsensoren mit einer Auflösung von 2592×1944 aktiven Pixeln der Größe von ca. 2 μm × 2 μm und einem vorgeschalteten RGB-Bayerfilter verwendet wurden, deren Bilddaten mit einem 12 Bit ADC on chip ausgelesen und digitalisiert werden können, wobei die gesamte Einzelchipfläche eine Breite von 5,7 mm × 4,3 mm besitzen. Die in dieser ersten gebauten Variante einer erfindungsgemäßen Kameraanordnung verwendeten Bildsensorchips haben zudem einen elektronischen Shutter (Elektronic Rolling Shutter, ERS). Die verwendeten Chips sind insbesondere hinsichtlich der analogen Verstärkung und des analogen Offsets der Pixelausgangssignale vor dem Analog-Digital-Konverter einstellbar. Es wird einzuschätzen sein, dass derartige Bildsensorchips ohne weiteres preiswert und in großen Mengen verfügbar sind.
-
Die Kamera wird montiert und verwendet wie folgt:
Eine erste Art der Montage ist wie folgt:
Zunächst erfolgt eine Vormontage von Komponenten. Dabei werden beispielsweise die optischen Elemente des Objektivs, die in der Objektivhalterung 9b zu montieren sind, darin mit hoher Präzision fixiert, so dass eine vorgefertigte Einheit erhalten wird, die aber noch relativ zur Drehachse des Exoskeletts und relativ zum Strahlteilerblock im Exoskelett angeordnet werden muss und relativ zu welcher die Sensoren korrekt zu montieren sind. Insoweit als aufgrund der Berücksichtigung des Strahlteilerblocks bei der Objektivauslegung dieser Strahlteilerblock als Teil des Objektivs angesehen wird, liegt also kein fertig montiertes Objektiv vor, sondern nur ein vorgefertigtes Bauelement des Objektivs.
-
Weiter werden die Platinen wie beispielsweise die FPGA-Platinen zur Auswertung der Bildsensorchip-Signale, die Platinen mit der Kalibrations-LED und dem zugehörigen Referenzsensor sowie mit der über wenigstens eine 8×8-Pixel große Fläche Licht jeweils hinreichend vergleichmässigenden Streuscheibe vormontiert, wie erforderlich funktionsgeprüft und dann an den vorgesehenen Stellen im Exoskelett angeordnet und, soweit schon möglich, miteinander verbunden. Gleiches gilt für die verbleibenden Module, soweit diese schon vormontiert sind, wie beispielsweise das Drehantriebsmodul.
-
Es werden dann Platinen mit dem Bildsensorchips ebenfalls bestückt und einzeln auf einwandfreie Funktion geprüft. Wie erwähnt, werden dafür nachgiebige Platinen und, für die Verbindung zwischen Bildsensorchips und Platinen, ein vergleichsweise weiches Lot verwendet, so dass im fertig montierten Zustand, in welchem die Bildsensorchips mit UV-gehärtetem Lack auf die jeweiligen Strahlaustrittsflächen des Strahlteilerblock geklebt sind, gegebenenfalls einwirkende Kräfte vom Lot bzw. der Platine aufgenommen werden können, ohne dass sich der Kleber löst oder andere Beeinträchtigungen, z. B. Kontaktversagen, zu erwarten sind.
-
Nach Vormontage der Module im Exoskelett muss dann Sorge dafür getragen werden, dass die Objektivhalterung mit den vormontierten Elementen relativ zum Strahlteilerblock und zu den Bildsensorchips auf den Platinen korrekt ausgerichtet montiert und fixiert wird. Zugleich muss dafür Sorge getragen werden, dass der optischen Nodalpunkt des Objektivs auf der Drehachse des Kameragehäuses korrekt zu liegen kommt.
-
Dies kann bewirkt werden, indem das Exoskelett mit den vormontierten Elementen auf einer geeigneten optischen Bank montiert wird, Passerkreuze, die an relativ zur Montagestelle bekannten Stellen angeordnet sind, mit der ja bereits insoweit funktionsfähigen Anordnung beobachtet werden und dann aus den dabei erfassten Daten bestimmt wird, wie beispielsweise die Objektivhalterung relativ zum Exoskelett montiert werden muss, um eine korrekte Ausrichtung des Nodalpunktes zu gewährleisten; nach korrekter Positionierung der Objektivhalterung, die insbesondere unter Verwendung eines Roboterarms oder dergleichen vollautomatisch geschehen kann, wird die Objektivhalterung fixiert. Dazu kann vorab UV-härtender Lack auf die Grenzfläche zwischen Objektivhalterung und Exoskelett aufgebracht werden, sofern diese gut beleuchtet werden kann, und dann eine UV-Lichtquelle zur Aushärtung aktiviert werden. Wo derartige Flächen zwischen Objektivhalterung und Exoskelett nicht gut ausgeleuchtet werden können, ist alternativ möglich, dass eine temperaturinduzierte Härtung oder dergleichen vorgenommen wird. Bevorzugt, aber nicht zwingend ist dabei, die Härtung bewusst zu einem bestimmten Zeitpunkt auslösen zu können. Wo dies nicht der Fall sein muss, kann auch ein selbsthärtender Kleber mit geeigneter Zeit bis zur Härtung verwendet werden.
-
Nach Fixierung der Objektivhalterung sind dann noch der der Strahlteilerblock und die Platinen mit den Bildsensorchips zu montieren. Dies kann wieder durch Beobachtung von Passerkreuzen und unter Verwendung von Roboterarmen geschehen, die im Ansprechen auf die Bilder, die mit dem Bildsensorchips aufgenommen werden, gesteuert werden, um die Bildsensorchipplatinen wie erforderlich zu bewegen. Sobald eine korrekte Ausrichtung der Elemente erzielt wurde, werden die Bildsensorchips entsprechend fixiert, wobei hier ein UV-härtbarer Lack durch die Möglichkeit, UV-Licht durch die Frontlinse einzustrahlen, in jedem Fall verwendbar ist.
-
Prinzipiell bestehen mehrere Möglichkeiten, die Verklebung zu bewirken. Es können entweder alle Bildsensorchips, die auf einer Platine vormontiert sind, simultan auf den Strahlteilerblock verklebt werden, ohne dass die aktuelle Lage der Chips auf der Platine berücksichtigt wird; dann werden die sich von Bildsensorchip zu Bildsensorchip geringfügig anderen Lagen und Ausrichtungen auf der Platine dahingehend auswirken, dass für einen Rohdatensatz evtl. eine Interpolation vorgenommen werden muss, um den real stochastisch, aber fest und damit in bekannter Weise liegenden Bildsensorchips Bildunkte auf einem definierten Gitter zuzuordnen. Dies lässt sich mit per se bekannten Verfahren bewältigen, weil die entsprechenden Interpolationsverfahren jeweils nur bildsensorchipweise durchgeführt werden müssen. Es ist möglich, der Kamera eine Vermessungsdatei zuzuordnen, die durch Auswertung von an bekannten Stellen relativ zur Kamera angeordneten Marken (wie Passerkreuzen) erzeugt wurde und unter Verwendung von welcher die stochastische Bildsensorausrichtung heraus kompensierbar ist. Alternativ ist es möglich, die wenn auch geringe, gleichwohl vorhandene Flexibilität von Lötverbindung und Platinengrundmaterial auszunutzen, um jeden Bildsensorchip unter Auswertung der momentan bei Montage gerade erfassten Bilddaten exakt pixelgenau auszurichten, so dass alle Pixel von vorneherein auf einem gemeinsamen Raster liegen. Da gegebenenfalls Randpixel ignoriert werden dürfen, kommt es nur darauf an, ob bei der Verklebung für jedes Pixel eine Genauigkeit von weniger als einer Pixelabmessung eingehalten werden kann. Dies erfordert also einerseits, eine Positionierung mit Roboterarm von genauer als 1–2 μm vornehmen zu können – was per se möglich ist – und andererseits, einen noch nicht verklebten, sondern nur auf seiner Platine vormontierten (verlöteten) Chip nach Verkleben anderer Chips noch – mitsamt der Platine – weit genug bewegen zu können, um ihn korrekt auszurichten, was aber durch die typische Flexibilität von Leiterplatten und Nachgiebigkeit weichen Lotes möglich ist. Geschieht dies, wird eine Rohdatensatzberechnung wesentlich vereinfacht, weil allenfalls noch die korrekte Spalte und Reihe ausgewählt werden muss, aber numerische Rotationskorrekturen unterbleiben können.
-
Gemäß einer weiteren Montagevariante wird die Kamera bezüglich Objektiv und Strahlteilerblockmontage montiert und verwendet wie folgt:
Wiederum erfolgt zunächst eine Vormontage von Komponenten, und zwar zunächst der Objektivkomponenten relativ zueinander, bevor die Bildsensorkomponenten relativ zu den Objektivkomponenten montiert werden. Dazu wird in dieser Variante ein eigenes Modul gebildet, mit welchem Objektivkomponenten und Sensorkomponenten dann gemeinsam in das Exoskelett der Kamera eingesetzt werden; bei diesem Einsetzen von fertig miteinander vormontierten Objektiv- und Sensorkomponenten werden diese so zum Exoskelett eingesetzt, dass die durch das Exoskelett und den darin befindlichen Kameradrehantrieb definierte Drehachse nach Möglichkeit senkrecht auf die optische Achse des Objektivs tritt und zwar an dem dafür vorgesehen Punkt, der in der vorliegenden Anmeldung aus Gründen der besseren Einprägsamkeit als Nodalpunkt bezeichnet wird.
-
Bei der Vormontage des Objektivs kann für Zwecke einer weitwinklig Bilder erfassenden Panoramakamera ausgenutzt werden, dass das Objektiv nicht fokussiert werden muss, sondern fest eingestellt ist. Insofern können alle Linsen des Objektivs fest in einem festen Objektivhalter verklebt werden. Es ist möglich und bevorzugt, die Linsen des Objektivs so auszulegen, dass sie zum Sensor hin eine flache Auflagefläche besitzen. Dann wird die Linsenhalterung im Objektiv im Idealfall aus einem einzigen Materialstück mit mehreren Stufen gebildet, wobei für jede der Linsen eine separate Stufe vorgesehen ist. Die Linsenmontage erfordert dann nur ein Zentrieren, was sich leicht bewerkstelligen lässt.
-
Die Objektivhalterung kann entweder Teil des eigenen Modul sein, mit welchem Objektivkomponenten und Sensorkomponenten dann gemeinsam in das Exoskelett der Kamera eingesetzt werden, oder die Objektivhalterung wird nach Linsenmontage in das Objektiv eingesetzt. Es sind dann die Bildsensoren und der Strahlteilerblock zu montieren.
-
Wiederum kann – wie zuvor bereits beschrieben – eine Montage dergestalt erfolgen, dass zunächst die Bildsensorchips mit dem Strahlteilerblock verklebt werden. Bevorzugt geschieht dies mit einem sehr festen, transparenten Kleber, dessen optische Eigenschaften bekannt sind und bei Berechnung des Strahlengangs berücksichtigt wurden. In der hier ausgeführten Montagevariante wird im Hinblick darauf, dass später ohnehin noch Korrekturen an den Bildern und eine pixelweise Zuordnung von Pixeln zu realen Richtungen im Raum erforderlich sind, auf eine exakt ausgerichtete Montage verzichtet und lediglich Sorge dafür getragen, dass die Bildsensoren so auf dem Strahlteilerblock angeordnet werden, dass die Lücken auf der einen Strahlteilerblockfläche, d. h. dem ersten Teilstrahlengang, überdeckt werden von den Bildsensoren auf dem anderen Strahlteilerblock d. h. der anderen Strahlteilerblockfläche und dass zum Bildrand hin zumindest noch soviel Überlapp auftritt, dass die gewünschte Streifenbreite erhalten wird.
-
Es ist danach dafür Sorge zu tragen, dass der Strahlteilerblock in richtiger Ausrichtung zum Objektiv fixiert wird. Per se hat der Strahlteilerblock relativ zum Objektiv sechs Freiheitsgrade, die für eine optimale Bildwiedergabe korrekt gewählt werden müssen. Allerdings müssen bei der Montage nur in geringem Umfang Toleranzen berücksichtigt werden, da die Fertigung des Strahlteilerblockes recht genau erfolgen kann, die Verklebung der Bildsensorchips mit wenig Variation erfolgen wird und die Linsen des Objektivs fest in der Objektivhalterung montiert sind. Die für eine optimale Bildwiedergabe erforderliche Variation der Strahlteilerblockverklebung im Objektiv-Strahlteiler-Modul kann unter anderem durch eine Variation der Klebstoffdicke erzielt werden.
-
Um die ideale Position der Strahlteilerblockverklebung zu bestimmen, wird der Strahlteilerblock mit einem numerisch gesteuerten (Roboter-)arm an etwa die richtige Stelle im Objektiv-Strahlteiler-Modul gebracht, eine Reihe von bekannten Marken durch das Objektiv mit den an den Strahlteilerblock bereits verklebten Bildsensorchips beobachtet und dann der Strahlteilerblock mittels des Armes solange bewegt, bis ein als optimal scharf erkanntes Bild der bekannten Marken mit den Bildsensorchips erhalten wird. In dieser Position erfolgt dann die Verklebung. Dies kann im übrigen durch UV-Aktivierung eines bereits zuvor aufgebrachten UV-härtenden Klebstoffes geschehen.
-
Dass im übrigen auch die Streuscheiben für Referenzlicht usw. an geeigneter Stelle und gegebener Zeit montiert werden, sei erwähnt.
-
Die Bildsensorchips haben dann eine feste Anordnung relativ zum Objektiv. Damit kann für jeden Pixel per se festgelegt werden, aus welcher Richtung bezogen auf das Objektiv Licht empfangen wird. Um diese Festlegung zu gewährleisten, wird in der hier beschriebenen Variante ein bekanntes Muster betrachtet, das in einer bekannten Richtung relativ zum Objektiv angebracht ist (z. B. ein genau ausgemessenes Muster aus Passerkreuzen) Damit kann dann, gegebenenfalls durch Interpolation, für jedes Pixel bestimmt werden, aus welcher Richtung relativ zum Objektiv es Licht erhält. Dies wird zunächst veranlasst.
-
Nach diesem Schritt ist das Modul aus Objektiv, Bildsensorchips und Strahlteiler in das Exoskelett einzusetzen und wiederum dort zu fixieren; dass zu diesem Modul gegebenenfalls auch die Ausleseplatinen zu den Bildsensorchips usw. gehören können, sei erwähnt. Es wird nämlich in jedem Fall bevorzugt sein, das Modul aus Objektiv, Bildsensorchips und Strahlteiler so auszubilden, dass Bilder für die Montage und Ausrichtung hinreichend einfach ausgelesen werden können.
-
Dies kann wiederum z. B. durch Einkleben geschehen, wobei nunmehr das Objektiv so in dem Exoskelett der Kamera fixiert wird, dass sich ein möglichst geringer Parallaxenfehler ergibt. Dies kann durch Rotation der Kamera um die Drehachse unter Beobachtung der sich ergebenden Abweichungen in bestimmten Richtungen erfolgen. Es wird einsichtig sein, dass zwar die Minimierung der Parallaxenfehler angestrebt, aber nicht vollumfänglich erreicht wird. Es ergibt sich durch Ausmessung nunmehr eine Relation zwischen der Richtung im Raum, auf die das Objektiv tatsächlich gerichtet ist, und der Richtung im Raum, die man bei idealer Lage des Objektivs erwarten würde.
-
Zusammen mit den Daten, die angeben, welches Pixel Licht durch das Objektiv aus welcher Richtung empfängt, wird es somit möglich, jedem Pixel eine bestimmte Richtung im realen Raum zuzuordnen.
-
Es kann also wiederum nach geeigneten Einmess- und Kalibrationsprozessen eine eindeutige Bestimmung von Raumrichtungen erfolgen, was dazu beiträgt, dass mit der Kameraanordnung, hinreichende räumliche Auflösung vorausgesetzt, ausmessbare vollsphärische Bilder aufgenommen werden können, was wiederum eine Vielzahl von Anwendungen der Messtechnik eröffnet. Insbesondere wird es ohne weiteres möglich, einen Abgleich eines vollsphärischen Datensatzes mit etwa den Daten eines Laserscanners usw. vorzunehmen. Gleichwohl sei darauf hingewiesen, dass diese exakte Zuordnung für bestimmte Anwendungen bedeutsamer ist als für andere. So kann beispielsweise für Messzwecke bei der Dokumentation eines Gebäudebau-Fortschreitens oder bei der Erfassung von Tatorten eine höhere Genauigkeit gefordert werden als bei Lichtfeldaufhahmen, die für die digitale Bildbearbeitung und -generierung benötigt werden. Es gibt also durchaus Anwendungen, wo die genaue Ausmessung, Kalibration usw. nicht benötigt werden.
-
Es kann dann weiter eine Helligkeitskalibrierung erfolgen.
-
Eine weitere Möglichkeit der Kameramontage ist die Folgende:
Nach erfolgter korrekter Ausrichtung der Bildsensorchipplatinen zueinander und zum Objektiv kann dann begonnen werden, die Kamera zu kalibrieren bzw. zu eichen und die optischen Eigenschaften zu vermessen.
-
Dafür werden zunächst an bekannten Positionen angebrachte Passerkreuze beobachtet. Dies erlaubt es, eine Relation zwischen Richtungen realer Weltkoordinaten und dem Bildpixel, auf welches aus deren entsprechenden Richtung abgebildet wird, herzustellen. Es wird einzuschätzen sein, dass durch geringen Versatz und oder geringes Verdrehen von Kamera zu Kamera unterschiedliche Zuordnungen einzelner Pixel zu Raumrichtungen bestehen können. Vor diesem Hintergrund ist einsichtig, dass die so erfassten Daten bevorzugt kameraspezifisch aufgenommen werden und es dann ermöglichen, eine klare Zuordnung von Bildsensorpixeln zu Raumwinkeln vorzunehmen.
-
Es kann also nach geeigneten Einmess- und Kalibrationsprozessen eine eindeutige Bestimmung von Raumrichtungen erfolgen, was dazu beiträgt, dass mit der Kameraanordnung, hinreichende räumliche Auflösung vorausgesetzt, ausmessbare vollsphärische Bilder aufgenommen werden können, was wiederum eine Vielzahl von Anwendungen der Messtechnik eröffnet. Insbesondere wird es ohne weiteres möglich, einen Abgleich eines vollsphärischen Datensatzes mit etwa den Daten eines Laserscanners usw. vorzunehmen. Gleichwohl sei darauf hingewiesen, dass diese exakte Zuordnung für bestimmte Anwendungen bedeutsamer ist als für andere. So kann beispielsweise für Messzwecke bei der Dokumentation eines Gebäudebau-Fortschreitens oder bei der Erfassung von Tatorten eine höhere Genauigkeit gefordert werden als bei Lichtfeldaufnahmen, die für die digitale Bildbearbeitung und -generierung benötigt werden. Es gibt also durchaus Anwendungen, wo die genaue Ausmessung, Kalibration usw. nicht benötigt werden.
-
Es kann dann weiter eine Helligkeitskalibrierung erfolgen.
-
Durch Verwendung einer amtlich geeichten externen Strahlungsquelle wie einer Ulbricht-Kugel oder dergleichen kann dabei eine absolute Helligkeitsempfindlichkeit für jedes Pixel mit amtlicher Eichung bestimmt werden. Bevorzugt wird dabei auch ein Abgleich mit der kurzzeitstabilen internen Referenzlichtquelle vorgenommen, so dass einerseits durch regelmäßige Bezugnahme auf die interne Referenzlichtquelle sich ungleich empfindliche Pixel nicht mehr auswirken und andererseits die mit bestimmten Pixeln oder Pixelgruppen bei Verwendung der Referenzlichtquelle ergebenden Messwerte exakt an eine absolute Helligkeit angeglichen werden. Es versteht sich, dass die externe Quelle regelmäßig selbst amtlich überprüft werden kann und, sofern ein Benutzer dies gewünscht, auch eine regelmäßige Neu-Eichung der Kamera durch Vergleich mit der Referenzlichtquelle erfolgen kann.
-
Bevorzugt erfolgt zunächst die interne Helligkeitskalibrierung. Dazu wird vorgegangen wie folgt:
Zunächst wird der mechanische Shutter geschlossen und somit eine Messung mit dem Bildsensorchips bei absoluter Dunkelheit ermöglicht. Dabei werden keine Nullzählwerte bestimmt, sondern Pixelzählwerte, die von Null verschieden sein werden und zudem von Pixel zu Pixel variieren werden. Der Grund hierfür ist, dass einerseits die Pixel Rauschen unterworfen sind, das heißt von Null verschiedene Zählwerte aufgrund rein statistischer Effekte beobachtet werden; die entsprechende Rauschkomponente kann durch längere Beobachtungszeit, wie per se bekannt ist, deutlich reduziert werden. Zum anderen sind die Werte von Null verschieden, weil die mit dem Bildsensorpixeln erhaltenen elektrischen Signale mittels eines Analog-Digital-Konverters digitalisiert werden und ein an dessen Eingang pixelabhängig auftretender analoger Offset zu von Null verschiedenen Zählwerten führt (der Begriff Zählwert wird hier für das Ausgangssignal aus dem ADC verwendet, weil damit klar ist, dass auf einen digitalen Wert Bezug genommen wird. Es wird im Übrigen bevorzugt, einen Offset zu wählen, der zu einem Dunkelmittelwert echt größer als Null führt und diesen dann abzuziehen. Dies hat sich als vorteilhaft und präzise erwiesen). Bei typischen Bildsensorchips kann dieser Offset eingestellt werden bzw. es kann auf den Offset kompensiert werden. Allerdings wird diese Offset-Kompensations-Einstellung nicht 100% exakt sein. Überdies werden in der Praxis beispielsweise temperaturabhängige Variationen, Driften usw. beobachtet. Diese führen nach einer bestimmten Zeit trotz vorheriger exakter Kompensation wieder zu einem von Null verschiedenen Zählwert. Es kann aber davon ausgegangen werden, dass Messungen mit der Kamera auch unter ungünstigen Bedingungen so schnell ausgeführt werden können, dass sich derartige Effekte auf eine einzelne Messreihe unter Normalbedingungen allenfalls marginal auswirken.
-
Es kann dann für jedes Pixel der Zählwert bestimmt werden, der sich bei einer gegebenen geltenden, d. h. auf den Bildsensorchips eingestellten, Verstärkung der analogen elektrischen Signale ergibt, wenn die Pixel mit der Helligkeit der internen Strahlungsquellen beleuchtet werden, während der mechanische Shutter immer noch geschlossen ist. Bei exakt auf Null gesetztem analogen Offset und identischer Empfindlichkeit aller Bildpixel für einen gegebenen eingestellten Gain wäre zu erwarten, dass alle Bildpixel die gleichen digitalen Helligkeitswerte liefern, zumindest insoweit als die Beleuchtung spektral gleichverteilt ist, die Farbfilter gleiche Helligkeiten durchlassen und eine hinreichend gleichmäßige Beleuchtung der gesamten Fläche durch die Lichtquelle gewährleistet ist. Tatsächlich zeigt sich jedoch in der Praxis, dass Unterschiede von Pixel zu Pixel auftreten werden. Insoweit, als eine hinreichende Vergleichmäßigung der Pixelausleuchtung durch die Referenzlichtquelle mittels der Streuscheibe bewirkt worden ist, sind derartige Variationen der Helligkeit ausschließlich zurückzuführen auf nicht gleichförmig empfindliche Bildsensorpixel. Es kann auf diese variierenden Empfindlichkeiten korrigiert werden. Dazu kann zum einen der analoge Gain pixelweise verstellt werden, falls dies möglich ist; alternativ und/oder zusätzlich kann auch eine entsprechende Kalibrationsdatei erzeugt werden, indem für jedes Pixel die momentane Empfindlichkeit bestimmt und abgelegt wird, so dass unter Rückgriff auf die so bestimmten Empfindlichkeitswerte eine Korrektur der nicht gleichförmigen Pixelempfindlichkeit herbeizuführen ist. (Es sei hier erwähnt, dass oftmals ein ohnehin großer Aufwand bei der Rohbildatenbearbeitung erforderlich ist; insofern stellt die Verwendung einer Kalibrationsdatei oder dergleichen keinen signifikanten Zusatzaufwand dar. Es ist möglich und bevorzugt, in einem solchen Fall die Empfindlichkeitseinstellung der Pixel nicht zur Vergleichsmäßigung der Pixelempfindlichkeiten durchzuführen, sondern stattdessen das Signal-Rausch-Verhalten zu optimieren).
-
Es sei erwähnt, dass gegebenenfalls eine nur näherungsweise homogene Beleuchtung mittels der Referenzquelle, das heißt eine Beleuchtung, in welcher noch großflächige Variationen zu beobachten sind, z. B. durch Interpolation, beispielsweise Spline-Interpolation über eine bestimmte Feldgröße wie beispielsweise 8×8 Pixel kompensiert werden kann; zudem ist es möglich, auf die nicht völlig homogene Lichtverteilung durch die der internen Kalibrationslichtquelle zugeordnete Streulichtscheibe zu kompensieren. Dazu kann für jedes Pixel einerseits ein (um seinen Dunkelwert bereits reduzierter) Helligkeitswert bei Beleuchtung mit der internen Kalibrationslichtquelle für jedes Pixel bestimmt werden und dann die Eichlichtquelle vor dem Objektiv beobachtet werden.
-
Weiter versteht sich, dass die Helligkeitswerte nicht zwingend nur mit einer einzigen Belichtungsdauer erfasst werden müssen. Vielmehr ist es möglich, die Helligkeitswerte mit einer Belichtungsreihe aufzunehmen, wobei einleuchtend sein wird, dass die durch Licht bedingten Signalanteile mit der Belichtungsdauer zunehmen werden, während der analoge Offset zu einem konstanten Signalpegel unabhängig von der Belichtungsdauer führen wird. Durch Bestimmung entsprechender Ausgleichsgeraden kann demgemäß der analoge Offset und die tatsächliche Verstärkung aus mehreren Messwerten ermittelt werden. Dazu kann insbesondere ausgenutzt werden, dass die Bildsensorchips mit elektronischem Shutter bei gegen Außenlicht abgedunkeltem Kamerainnenraum betrieben werden können.
-
Nach Bestimmung des Dunkelzählwertes, des Offset und der Pixelempfindlichkeit gemäß interner Referenzlichtquelle kann der mechanische Shutter geöffnet werden und die Eichlichtquelle beobachtet werden. Es werden bei dieser Beobachtung zusätzlich Helligkeitswerte für jedes Pixel aufgenommen, die sich bei einer ganz bestimmten, bekannten Helligkeit ergeben. Damit ergibt sich die Möglichkeit, einen Helligkeitswert, der mit einem gegebenen Pixel bestimmt wird, auf eine absolute Helligkeit zu übersetzen.
-
Die Ausmessung der Kameraeigenschaften vor Beginn eigentlicher Messungen kann dann noch fortgesetzt werden; dabei kann die sogenannte Punktausgleichsfunktion bzw. Punktverschmierfunktion (Pointspreadfunction) ermittelt werden. Wie bereits ausgeführt, können durch unerwünschte optische Effekte in der Kamera wie Streuung, Reflexion und so weiter Beeinträchtigungen bei der Bildaufnahme auftreten. Während per se eine punktförmiger kleine Lichtquelle, die Licht nur auf einen einzigen Pixel einstrahlt, auch nur bei diesem Pixel einen von null verschiedenen Helligkeitswert generieren sollte, wird durch die unerwünschten Effekte tatsächlich bei einer Vielzahl von Pixeln ein von Null verschiedener Helligkeitswert generiert, weil dort Streulicht, mehrfach reflektiertes Licht usw. empfangen wird.
-
Auch bei herkömmlichen Kameras tritt dieser Effekt per se auf. Allerdings wirken sich Rückreflexionen dank der üblichen Maßnahmen zur Streulichtbekämpfung, Rückreflexionsbekämpfung usw. wie Schwärzung von Gehäuseinnenteilen, Schwärzung von Objektivinnenteilen, Antireflexbeschichtungen von optischen Komponenten wie Bildsensorchip-Schutzgläsern, Linsenoberflächen, Filteroberflächen etc. auf den mit herkömmlichen Techniken erreichbaren Dynamikbereich von 12 bis maximal 14 Bit (entsprechend Blendenstufen) allenfalls dahingehend aus, dass dann die entsprechenden Effekte nicht mehr vollständig sauber quantitativ erfasst werden können; gleichwohl tragen derartige Effekte beispielsweise zu einer Mikrokontrastverringerung frei. Die Kameraanordnung der vorliegenden Erfindung erlaubt es hingegen einerseits, aufgrund der besonders bevorzugten Benutzung als hochdynamische Kamera mit deutlich über 30 Blendenstufendynamik bei der Bildaufnahme, typisch zwischen 36 und 40 Blendenstufen Dynamik, die Punktverschmierfunktion exakt zu bestimmen und die unerwünschten Effekte dann unter Berücksichtigung der bestimmten Funktion sehr weitgehend zu kompensieren. Es sei darauf hingewiesen, dass die Bestimmungen von Punktverteilungsfunktionen und ergo auch deren numerische Kompensation per se ein wohl definiertes, von Fachleuten der Optik ohne weiteres lösbares Problem darstellen, so dass hier auf die exakten Mechanismen nicht näher eingegangen werden muss, sondern für Zwecke der Offenbarung unterstellt werden kann, dass der Fachmann in der Lage ist, aus der Verwaschungsfunktion bzw. Verschmierfunktion die entsprechenden Korrekturen wie erforderlich vorzunehmen.
-
Die Punktverschmierfunktion kann dank der möglichen sehr hohen Dynamik bestimmt werden, obwohl gerade durch den Strahlteiler die Auswirkungen der Rückreflexion von Licht am Bildsensorchip in Richtung auf die Objektiveintrittslinse hin und des Rückempfangens von mehrfach gestreutem Licht auf andere Bildsensorpixel besonders schwach sind.
-
Es versteht sich, dass eine Kompensation der Punktverschmierung bei der Bildaufnahme bevorzugt durchgeführt wird, nachdem eine HDR-Sequenz an einer Position bestimmt wurde. Dies kann vor Abspeicherung der Rohdaten erfolgen, wenn die Rechenleistung der Kameraanordnung ausreicht; andernfalls kann eine entsprechende Kompensation auch offline erfolgen.
-
Nach Zuordnung von Bildsensoren zu Raumrichtungen, der Bestimmung der Pixelgleichförmigkeit über die gesamte Fläche des Bildsensorchipstreifens aus einer Reihe von Bildsensorchips, dem Abgleich zwischen interner Referenzlichtquelle und absolute Helligkeit und erforderlichenfalls der Verschmierfunktion kann die Kamera auch zu Meßzwecken für hochpräzise Messungen benutzt werden.
-
Dazu wird die Kamera an den gewünschten Aufnahmeort verbracht, mit vertikaler Drehachse auf einem stabilen Stativ montiert und eine Messung durch Betätigung auf dem Eingabefeld ausgelöst. Dass im Übrigen Hilfsmittel vorgesehen sein können, um die exakt vertikale Ausrichtung zu erleichtern, sei erwähnt. Verwiesen sei z. B. auf multiaxiale Beschleunigungssensoren usw. Dass Abweichungen von einer exakt vertikalen Ausrichtung per se zulässig sind, sei ebenfalls betont, auch wenn solche Abweichungen unerwünscht sind.
-
Danach wird zunächst eine Dunkelmessung bei geschlossenem Shutter durchgeführt, dann werden für mehrere Belichtungszeiten Helligkeitswerte bei geschlossenem Shutter bestimmt, daraus pixelweise für die aktuelle Temperatur, Kameraspannungsversorgung usw. die analogen Offsetwerte und Verstärkung(en) jeweiliger Pixel bestimmt, der Shutter geöffnet und die Messung begonnen. Dabei wird mit einer mittleren Belichtungsdauer begonnen und überprüft, ob die erfassten Messdaten die Aufnahme von Bildern in der gleichen Position mit größerer oder kleinerer Belichtungsdauer erfordern. Wie aus dem vorstehenden einleuchtend sein wird, werden dazu einerseits die Helligkeitswerte bestimmt, die mit den einzelnen Pixeln der jeweiligen Bildsensorchips erfasst wurden und andererseits statistische Betrachtungen über die Gesamthelligkeitsverteilung unternommen. Bei zu vielen zu hellen Pixeln wird eine Belichtung mit kürzerer Belichtungsdauer durchgeführt. Sind selbst bei kürzest möglicher Belichtungsdauer auch dann noch Pixel zu hell, erregt die Steuerung den Aktor, mit dem der Neutraldichtefilter mit großer Abschwächung in den Strahlengang bewegt wird, und führt dann eine Messung mit geeignet kurzer Belichtungsdauer durch. Alternativ und/oder zusätzlich wird überprüft, ob in der anfänglichen Messung der Sequenz Pixel zu dunkel waren; falls ja, wird mit verlängerten Belichtungszeiten erneut gemessen, neuerlich überprüft, ob nun noch Pixel zu dunkel belichtet sind, neu gemessen usw. Dies setzt sich fort, bis sichergestellt ist, dass die Beobachtung der Szene in der aktuellen Drehausrichtung der Kamera ohne über- oder unterschreiten von Helligkeitsgrenzwerten erfolgt ist.
-
Damit liegt eine korrekte Belichtungsreihe vor. Es ist nun von den Belichtungen jedes Pixels der vorab bestimmte Dunkelwert abzuziehen, es ist jedes Pixel auf die nichtgleichförmige Pixelempfindlichkeit zu kompensieren, es sind die Interpolationen an Stellen defekter Pixel durchzuführen, es sind die Belichtungsreihen für jedes Pixel zusammenzuführen und die in einer Stellung auf unterschiedlichen Bildsensorchips bestimmten Helligkeitswerte zu einem einheitlichen Datensatz zu verschmelzen. Zudem können weitere Korrekturen wie Debayering/Demosaiking etc. vorgenommen werden. All dies kann offline, oder, entsprechende Rechenleistung vorausgesetzt, als Teil der Datenaufnahme in Echtzeit erfolgen.
-
Es können dann die aktuell aufgenommenen Daten an die zuvor aufgenommenen Daten angefügt werden. Da die exakte Drehposition, an welcher die Kamera kriechfrei für die Aufnahme der aktuellen HDR-Sequenz abgesetzt wurde, bekannt ist, kann ohne weiteres bestimmt werden, welche Pixel jedes Sensors in Umfangsrichtung die Fortsetzung der zuvor gespeicherten Daten ermöglichen. Es sei darauf hingewiesen, dass gegebenenfalls dort, wo die Kameraanordnung nicht pixelgenau abgesetzt wurde, aber sehr hohe Genauigkeit gewünscht ist, eine Interpolation der aktuell erfassten Werte auf ein festes Gitter erfolgen kann, wie per se bekannt.
-
Sobald die Datenaufnahme, in Echtzeit wie erwünscht erfolgende Datenaufbereitung und Abspeicherung der Daten von einer Stelle abgeschlossen ist, wird der Drehantrieb weiterbewegt, und zwar um ungefähr den Winkel, der erforderlich ist, damit zum vorherigen Bild ein Überlapp von einigen zehn Pixeln verbleibt, bevorzugt auch um 100. Mit geringer auflösenden Bildsensorchips, die in äquatorialer Umfangsrichtung etwa 2200 Pixel besitzen, können so vollsphärische Bilder aufgenommen werden, die entlang des Äquators 50.000 Pixel besitzen, wenn 25 Einzelstreifen aufgenommen werden. Bei entsprechend vielen, untereinander in Reihe mit überdeckten Lücken angeordneten Bildsensoren ergibt sich somit o. w. eine Gesamtsphärenauflösung von 1 Gigapixel.
-
Die für ein Gigapixel erforderlichen HDR-Sequenzen von 25 Einzelstreifen können bei geeignetem Antrieb und geeigneter interner Datenbe- und -verarbeitung binnen weniger als 1 Minute mit 38 Blendenstufendynamik aufgenommen werden. Dabei erfasst der Drehwinkelgeber jeweils die Endposition, in welcher die Kamera für die nächste Messung kriechfrei abgesetzt wird, subpixelgenau, was eine Verknüpfung der Einzelstreifen zu einem Gesamtbild ohne weiteres ermöglicht. Es versteht sich, dass in den erzeugten Rohdatenbildern auch die erforderlichen Korrekturen, beispielsweise auf nicht gleichförmige Helligkeit, Punktverschmierfunktionen, die Bestimmung von Farbwerten entsprechend den Charakteristiken des Bayerfilter usw. vorgenommen werden.
-
Weiter sei darauf hingewiesen, dass in der vorliegenden Anmeldung regelmäßig von „Helligkeitswerten” gesprochen wird, auch wenn die verwendeten Bildsensorchips Farbchips sind, d. h. Chips, die jeweils jeder mehrere Farben unterscheiden können. Die Bestimmung eines Helligkeitswertes eines Pixels bedeutet insoweit beispielsweise die Bestimmung der Helligkeit in einem grünen Kanal oder die Bestimmung der Helligkeit in einem roten Kanal oder die Bestimmung der Helligkeit im blauen Kanal, ohne dass dies an jeder jeweils einzelnen Stelle betont wird, an welcher auf eine „Helligkeit” Bezug genommen wird. Vielmehr wird der Begriff „Helligkeit” verwendet, um dem Umstand Rechnung zu tragen, dass zwar jeder Bildsensorchip mehrere Farbkanäle aufweisen wird; auch kann sich gegebenenfalls der Begriff Sensorgleichförmigkeit entsprechend beziehen auf die Gleichförmigkeit der grünempfindlichen Pixel zu anderen grünempfindlichen Pixeln, der rotempfindlichen Pixel zu anderen rotempfindlichen Pixeln und der blauempfindlichen Pixel zu anderen blauempfindlichen Pixeln, Gleiches gilt an anderen Stellen.
-
Nach der Ausführung der Messung, d. h. nach erfolgter Drehung der Kamera um die Rotationsachse, kann erwünschtenfalls der Verschluss neuerlich geschlossen werden und überprüft werden, ob sich zwischenzeitlich, etwa durch Temperaturschwankungen die Empfindlichkeit und/oder die Dunkelwerte verändert haben. Es versteht sich, dass es dort, wo derartige Driften kompensiert werden sollen, vorteilhaft ist, die Rohdaten wegzuschreiben, die Kalibrationsdaten bzw. Dunkelraten und Empfindlichkeitswerte wegzuschreiben und dann, unter Berücksichtigung von sowohl vor als auch nach der eigentlichen Messung vorgenommenen Dunkel- und Referenzmesswerten die Datenaufbereitung der Rohdaten vorzunehmen.
-
Mit der Kameraanordnung der vorliegenden Erfindung kann sichergestellt werden, dass der aufgenommene Datensatz ein radiometrisch und geometrisch exaktes Abbild der Umgebung darstellt.
-
Da die Helligkeits-(Luminanz-)Werte für alle Farbkanäle exakt abgeglichen sind, wirken sich über den großen Dynamikbereich Alinearitäten praktisch nicht aus und es wird ein hoch linearer Datensatz erhalten, was es auch erlaubt, rechnerisch die beobachteten Helligkeitswerte anzupassen. Dies hat Vorteile vor allem dort, wo mit der Kamera Lichtfelder aufgenommen wurden, um diese für Zwecke der virtuellen Realität zu verwenden, etwa in Szenen von Kinofilmen, für das Einrendern zu bewerbender Produkte in bestimmte Szenen usw.
-
Beschrieben wurde vorstehend somit unter anderem ein Verfahren zur schnellen Aufnahme vollsphärischer Bilder mit hoher Dynamik, wobei eine Vielzahl von in unterschiedlichen Teilstrahlengängen angeordneten, insgesamt überlappenden flächigen (Multi-)Farbsensoren gemeinsam mit einem Objektiv in eine bestimmte Position gedreht wird, an dieser Position eine HDR-Messreihe aufgenommen wird und die Farbsensoren dann gemeinsam mit dem Objektiv weitergedreht werden, um in einer weiteren Position einen flächigen Bildstreifen aufzunehmen.