Lernfahiges aktives Kamerasystem
Die vorliegende Erfindung betrifft ein Kamerasystem mit den Merkmalen des Oberbegriffs des Anspruchs 1 sowie ein Verfahren zum Betrieb eines derartigen Kamerasystems.
Es sind verschiedene Kamerasysteme mit beweglicher Blickachse bekannt, so zum Beispiel diverse Nachtsichtgeräte und Infra- rotsichtgerate, die m der Bauart eines Fernglases ausgeführt sind oder an einem Helm vor den Augen getragen werden können. Weiterhin gibt es ferngesteuerte Uberwachungskameras, die zum Teil ihre Blickrichtung m Kopplung mit Kopf- oder Augenbewegungen des Benutzers andern können. Schließlich sind tragbare Videokameras bekannt, bei denen elektronisch die Blickrichtung stabilisiert wird, um Zittern oder Verwackeln zu kompensieren. Hierbei wird die Blickachse geringfügig gegenüber dem Gehäuse verschwenkt.
Die gegenwartig erfugbaren Nachtsicht- oder Infrarotsichtge- rate haben verschiedene Funktionsemschrankungen . Insbesondere muß der Benutzer zur Änderung der Blickrichtung üblicherweise das gesamte Nachtsichtgerät verschwenken. Die Leucht- dichteadaptation ist relativ langsam und wird für den gesamten Bildbereich einheitlich durchgeführt, ohne auf lokale Un-
terschiede der Leuchtdichte Rucksicht zu nehmen. Schließlich sind Kompensationen von Eigenbewegungen und das Erzeugen simulierter Blickbewegungen sowie eine automatische Objektver- folgung nicht bekannt. Eine bidirektionale Kommunikation mit dem Benutzer zur Meldung von detektierten Objektpositionen, bekannten Mustern oder der Relativbewegung des entfernten Kamerasystems ist nicht vorgesehen. Entsprechendes gilt für ferngesteuerte Sichtgerate, die lediglich m Abhängigkeit von einer Fernsteuerung ihre Blickachse verschwenken können.
Auch die derzeit bekannten tragbaren Kameras verfugen außer der erwähnten Bildstabilisierung nicht über autonome Funktionen, beispielsweise zur Objektverfolgung oder zur Erzeugung von Blickbewegungen durch Verschwenken der Blickachse. Autonome Zoom- und Akkomodationsfunktionen sind ebenso wie die Fähigkeit zur schnellen und ausschnittsweise unterschiedlichen Leuchtdichteadaptation praktisch nicht vorhanden.
Es ist deshalb Aufgabe der vorliegenden Erfindung, ein Kamerasystem zu schaffen, das teilweise autonom und teilweise m bidirektionaler Kopplung mit dem Benutzer aktive optische Funktionen ausüben kann. Diese Aufgabe wird von einem Kamerasystem mit den Merkmalen des Anspruchs 1 gelost.
Weil eine Detektoreinheit für rotatorische und/oder transla- torische Bewegungen vorgesehen ist, kann die -Blickrichtung des Kamerasystems m einem weiten Wmkelbereich m Abhängigkeit von der Eigenbewegung der Detektoreinheit variiert werden. Unerwünschte Eigenbewegungen können kompensiert werden.
Wenn die Detektoreinheit kinematisch mit der Kameraeinheit und/oder mit einem Benutzer gekoppelt ist, können einerseits Eigenbewegungen der Kameraeinheit zur Stabilisierung der Blickachse kompensiert werden. Andererseits können bei ruhender Kamera Bewegungen des Benutzers zur Steuerung der Blickachse verwendet werden. Sofern die Detektoreinheit mit dem
Benutzer und der Kameraeinheit gekoppelt ist, kann der vesti- bulo-okulare Reflex simuliert werden.
Wenn die Detektoreinheit einen Augenbewegungsdetektor umfaßt, der Augenbewegungen des Benutzers erfaßt, kann außerdem mit oder ohne Eigenbewegung des Benutzers eine Ob ektverfolgung oder ein Umherblicken durchgeführt werden.
Wenn ein am Kopf des Benutzers befestigtes Sichtgerat mit Kopfbewegungssensoren vorgesehen ist, welches für den Menschen nicht oder nur schwer sichtbare Bildmuster und Szenen für das menschliche Sehsystem durch Restlichtverstarkung nach Art eines Nachtsichtgerätes oder durch Auswertung einer Beleuchtung im nicht sichtbaren Wellenlangenbereich sichtbar macht, können aktive Nachtsichtgeräte geschaffen werden. Wenn weiterhin die Kopfbewegungen des Benutzers durch elektronische Bildverschiebung und/oder mechanische Bewegung der Blickachse kompensiert werden, ist die Bildstabilisierung besonders zuverlässig.
Wenn ein bidirektionaler Kommunikationsweg zwischen den dem Benutzer zugeordneten Komponenten und der Kamera besteht, kann die Kamera Objekterkennungsfunktionen, beispielsweise Warn- und Meidefunktionen übernehmen. Außerdem kann m Abhängigkeit von den Anforderungen des Benutzers und dem jeweiligen Blickfeld der Kamera mitgeteilt werden, ob ihre jeweils autonom ausgeübten Funktionen wie Scharfeinstellung, Hellig- keitsadaptation und Zoom ausreichend sind oder ob für eine optimale Funktion eine Programmanpassung durch ein Lernverfahren erforderlich ist.
Eine bevorzugte Ausfuhrungsform ergibt sich, wenn ein am Kopf befestigter Bildmonitor vorgesehen ist, wobei die Kamera vom Korper des Benutzers entfernt angeordnet ist und die Blickachse des entfernten Sichtgerätes durch Kopf- und/oder Augenbewegungen des Benutzers oder durch simulierte Blick- und
pradiktive Folgebewegungen zur autonomen Verfolgung bewegter Objekte m einem geeigneten Koordinatensystem gesteuert wird, so kann der Benutzer das Blickfeld und die Blickachse einer von ihm entfernt bewegbaren Kamera selbst durch Kopfbewegungen sowie Bewegungen der Blickachse durch seine Augenbewegungen steuern oder autonom durchgeführte Blickbewegungen dieser Kamera beobachten. Wenn die Kontrollemheit von der Kamera beabstandet sowie mit einem Monitor versehen ist, wobei die Kontrollemheit eine Eingabevorrichtung zur Eingabe von Steuerbefehlen und Arbeitsprogrammen umfaßt, kann ein aktives Kamerasystem mit nahezu vollständig simulierten visuell und ve- stibular ausgelosten menschlichen Blickfunktionen gesteuert werden.
Bei einer vorteilhaften Ausfuhrungsform ist ein Vorverarbeitungsmodul vorgesehen, das zur Erkennung charakteristischer Muster und/oder zur Datenreduktion eingerichtet ist. Dabei kann das Vorverarbeitungsmodul helle und dunkle Bildbereiche unterschiedlicher Beleuchtung erkennen, voneinander abgrenzen und zu einem Gesamtbild mit jeweils regional optimalem Kontrast integrieren, ebenso können nahe und entfernt liegende Bildbereiche voneinander getrennt bezuglich Scharfeinstellung optimiert und danach wieder als Gesamtbild integriert werden, und schließlich können charakteristische Muster wie z. B. Warnschilder hervorgehoben werden. Diese Vorverarbeitung kann zur Verbesserung der Bilddarstellung, aber auch zur Erzeugung von Warnhinweisen sowie zur Datenreduktion im Kommunikationskanal zwischen der Kamera und dem Encoder dienen.
Bei einem Verfahren zum Betrieb eines Kamerasystems ist vorgesehen, daß Augenbewegungen zum Zwecke der Bewegung der Blickachse simuliert werden, insbesondere für schnelles Umherblicken oder kontinuierliche und pradiktive Objektverfol¬ gung. Diese Verfahren ermöglichen aktive Sehfunktionen, wie sie dem Sehsystem und dem Augenbewegungssystem von Primaten möglich sind.
Dabei ist eine gute Bildqualltat zu erreichen, wenn die Brennweite, die Fokussierungsentfernung und/oder die Leucht- dichteadaptation örtlich individuell und automatisch variiert wird. Wenn bei dem Verfahren die Position eines mit der Blickachse verfolgten Objekts relativ zum Benutzer an ein geeignetes Sinnesorgan übermittelt wird, insbesondere der Benutzer vor Hindernissen und Gefahren gewarnt wird, steht ein neuartiges Sicherheitssystem zur Verfugung.
Wenn Lageveranderungen einer vom Korper entfernten Kamera an geeignete Sinnesorgane des Benutzers übermittelt werden, kann dieser seine Orientierung bei Fernsteuerungsaufgaben deutlich verbessern.
Wenn zudem der Leuchtdichtearbeitsbereich aus nicht linear bewerteten Ausschnitten des Bildmusterleuchtdichtebereichs regional zusammengesetzt wird, können dunkle Bereiche künstlich aufgehellt und helle Bereiche kunstlich abgedunkelt werden, so daß Bildbereiche, die normalerweise nicht gleichzeitig m einer geeigneten Helligkeit betrachtet werden konnten, simultan sichtbar gemacht werden.
Der Benutzer kann bei einer Ausfuhrungsform über das Kontrollmodul den Bildmusterverlauf überwachen und verschiedene Blickbewegungsprogramme anwählen. Dabei kann der Benutzer oder ein geeigneter Suchalgoπthmus beim Auftauchen eines vorbestimmten Objektes dem Kamerabewegungssystem mitteilen, dieses Objekt sei fortan zu verfolgen. Das Kamerasystem wird dann die Ob ektverfolgung automatisch fortfuhren. Dabei werden Bewegungen des Benutzers, eines Fahrzeugs oder einer die Kamera tragenden Struktur ausgeglichen.
Es ist außerdem vorteilhaft, wenn m dem erfmdungsgemaßen Verfahren Augenbewegungen als Blickachsenbewegungen der Kamera m Echtzeit simuliert werdenDadurch kann ein sehr großer Raum effizient überwacht werden und es können interessante
Objekte auch bei Bewegung standig mit maximaler Auflosung de- tektiert werden.
Wahrend der Objektverfolgung können die Blickachsenbewegungen so gesteuert werden, daß die jeweils nächste Position des verfolgten Objektes vorhergesagt wird und auch bei einem zeitweisen Verschwinden des Objekts aus dem Blickbereich die Blickachse weitergeführt wird.
Eine besonders gute Lagestabilisierung der Bildmuster bei naturlichen Kopf-Rumpfbewegungen des Betrachters m kinematischer Kopplung mit der Kamera wird erzeugt, wenn kompensato- rische Blickachsenbewegungen der Kamera m Anlehnung an den vestibulo-okularen Reflex von Primaten erzeugt werden.
Schließlich ist es von Vorteil, wenn m einem Verfahrensablauf die Adaptation der Akkommodation zunächst, beispielsweise im Vordergrund, scharf eingestellt werden, diese Bereiche gespeichert werden und dann zweite Bereiche des Blickfeldes als Bild scharf eingestellt werden, beispielsweise der Hintergrund eines Blickfeldes. Die dabei unscharf werdenden ersten Bereiche werden aus dem zweiten Bildmuster ausgeblendet und durch die ersten gespeicherten, scharfen Bereiche ersetzt. Hierdurch wird eine im Rahmen der geometrischen Optik nicht erreichbare Tiefenscharfe erzeugt. Bei sich zyklisch wiederholendem Ablauf dieser Verfahrensschritte und einem entsprechenden Bildausgleich kann dieser Vorgang von einem Benutzer unbemerkt bleiben, so daß auch bei geringen Lichtstarken und langen Brennweiten der zugehörigen Optik ein Bild von großer Tiefenscharfe scheinbar erreicht wird.
Im folgenden wird die vorliegende Erfindung anhand der Zeichnung veranschaulicht. Es zeigen:
Figur 1: Eine tragbare, lernfahige Digitalka era mit einem ebenso tragbaren Monitor;
Figur 2: eine vom Benutzer entfernt arbeitende lernfahige
Kamera mit verschiedenen, dem Benutzer zugeordneten Steuerungsmodulen sowie mit einem Bildschirm;
Figur 3: die Darstellung einer Szene mit sehr unterschiedlichen Helligkeitsbereichen und Bereichen unterschiedlicher Fokussierungsentfernung; sowie
Figur 4: den Verlauf der Helligkeitsstufen m der Kameraabbildung für vier verschiedene Bildbereiche aus Figur 3.
In der Figur 1 ist eine Kamera 1 mit beweglicher Blickachse 2 dargestellt, die m einem tragbaren Gehäuse 3 zusammen mit einer Detektoreinheit 4 sowie mit nicht dargestellten Nebenaggregaten wie Stromversorgung etc. angeordnet ist. Das Gehäuse 3 tragt außerdem eine Antenne 5 zur Kommunikation mit einem tragbaren Monitor 6, der wiederum eine Sende- und Empfangseinrichtung 8 sowie einen Bildschirm 7 und eine Befehl- semgabeemheit 9 in Form von Tasten aufweist.
Bei dem vorliegenden Ausfuhrungsbeispiel ist die Kamera 1 als Digitalkamera ausgeführt, die eine schwenkbare Optik besitzt. In der gezeigten Konfiguration kann die Kamera 1 Bewegungen um 180° jeweils m der Vertikalen und der Horizontalen sowie Drehbewegungen der Blickachse 2 ausfuhren und dadurch z.B. den hinter einem Benutzer 10 liegenden Halbraum erfassen. Die Detektoreinheit 4 umfaßt Sensoren für die sechs Bewegungsfreiheitsgrade, nämlich die rotatorische Bewegung um drei Achsen und die translatorische Bewegung m drei Richtungen.
Der Benutzer 10 der portablen, lernfahigen und aktiven Kamera 1 kann das zu einem bestimmten Zeitpunkt von der Kamera 1 übermittelte Bild auf dem Bildschirm 7 beobachten. Er kann über die Befehlsemgabeemheit 9 verschiedene Kamerafunktionen auswählen. Zunächst wird er bei dem dargestellten Beispiel zur Beobachtung eines Vogels 11 das gewünschte Objekt
suchen und der Kamera 1 den entsprechenden Befehl geben. Daraufhin steuert ein im Gehäuse 3 befindlicher sensomotorischer Encoder die Kamera 1 derart, daß der sichtbare Bereich nach entsprechenden, zuvor gespeicherten Mustern abgesucht wird. Ist die Suche nach einem entsprechenden Bildmuster erfolgreich, so wird der Vogel 11 als Abbildung auf dem Monitor 7 dargestellt und der Benutzer entscheidet sich für eine zweite Betriebsart der Kamera 1, nämlich die Objektverfolgung. Die Kamera 1 wird nun von dem Encoder derart gesteuert, daß der zu verfolgende Vogel 11 standig im Blickfeld der Kamera 1 und damit auf dem Monitor 7 beobachtbar bleibt. Die Detektoreinheit 4 ermittelt dabei die Eigenbewegungen der Kamera 3 sowie des Benutzers 10, der ohne weiteres wahrend der Beobachtung und Objektverfolgung umhergehen kann. Die von der Detektoreinheit 4 ermittelten Bewegungs- und Lagesignale werden über den lernfahigen sensomotorischen Encoder der Kamera 1 als Steuersignale übermittelt und die Blickachse 2 so bei Eigenbewegung der Kamera 3 und des Benutzers 10 stabilisiert.
Ein Vorverarbeitungsmodul innerhalb des Gehäuses 3 berechnet das von der Kamera 1 erfaßte Bildmuster des beobachteten Vogels 11 und kann dieses Bildmuster mit an sich bekannten Bildverarbeitungsmethoden hervorheben, beispielsweise durch Vergrößerung der Konturenscharfe. Es kann aber auch ein Bildmuster, das über längere Zeit beobachtet wird und deshalb für den Benutzer 10 besonders interessant sein durfte, m seine gespeicherten Suchmuster aufnehmen. Auf diese Weise wird der am Anfang gewählte Modus der Objektsuche m einem standigen Lernvorgang den Bedurfnissen des Benutzers 10 angepaßt.
In der Figur 2 ist ein Kamerasystem dargestellt, das von einem Benutzer entfernt angeordnet ist. Die Kamera 1 mit ihren zugehörigen Komponenten kann an einem beliebig weit entfernten Ort stehen. Sie steht über die Sende- und Empfangsantenne 5 mit dem Benutzer 10, genauer gesagt mit einem ihm zugeord-
neten Sende- und Empfangsmodul m bidirektionaler Kommunikation.
Dem Benutzer 10 sind zur Steuerung der Kamera und zur Ruckmeldung verschiedener Funktionen ein Kopflage- und Bewegungssensor 12, ein Augenbewegungsdetektor 13 und eine Halsmanschette 14 zugeordnet. Das von der Kamera 1 in Richtung der Blickachse 2 aufgenommene Bild des Vogels 11 ist auf einem relativ großen Bildschirm 15 dargestellt, der von der Dimension her dem Benutzer ein Umherblicken auf dem Bildschirm 15 ermöglicht .
Die Kamera 1 mit ihrem Gehäuse 3 und den dazugehörigen Kompo¬ nenten ist m der Praxis an einem entfernten oder unzugänglichen Ort, der zum Beispiel m einem besonderen Gefahrenbereich (Strahlungsbereich eines Kernkraftwerks) oder beispielsweise auch m der Gondel eines Ballons angeordnet. Der Benutzer 10 kann nun ähnlich wie im vorhergehenden Ausfuh- rungsbeispiel die Kamera zunächst m den Modus „Objektsuche" schalten und damit nach einem gespeicherten Bildmuster suchen lassen. Sobald das gewünschte Objekt gefunden wurde, wird der Modus „Ob ektverfolgung" gewählt und das Objekt, soweit möglich, im Bereich der Blickachse 2 gehalten. Wenn nun das Gehäuse 3 der Kamera 1 eine aufgrund eines nicht dargestellten Antriebs selbständig erzeugte oder von dem Benutzer ausgeloste Eigenbewegung ausfuhrt, um entweder ein bestimmtes Objekt zu verfolgen, das aus dem Blickraum zu verschwinden droht, oder weil es an einer sich selbst bewegenden Struktur befestigt ist, so wird diese Eigenbewegung über die Lagesensoren der Detektoreinheit m den sechs Freiheitsgraden ermittelt und die Richtung der Blickachse 2 relativ zu dem Gehäuse 3 entsprechend kompensiert. Gleichzeitig wird dem Benutzer die Änderung der Lage übermittelt. Der Benutzer tragt hierzu die Halsmanschette 14, auf der umlaufend Aktoren zur Auslosung einer Beruhrungswahrnehmung angeordnet sind. Der Ort einer solchen Stimulation ist an der Vorderseite der Halsmanschette
mit 15 angedeutet. Wenn sich das Ka eragehause 3 m seinem Koordinatensystem linksherum dreht, wandert der Ort der Be- ruhrungswahrnehmung 15 auf der Halsmanschette 14 ebenfalls linksherum, so wie es in der Abbildung mit dem Pfeil angedeutet ist. Dies ermöglicht dem Benutzer 10, eine Eigenbewegung der Kamera nachzuvollziehen und sich trotz sich bewegender Kamera m dem überwachten Raum zu orientieren.
Der Benutzer kann bei der Betrachtung eines Objektes 11 feststellen, daß m dem ihm zur Verfugung stehenden Blickbereich der Kamera 1 andere interessante Objekte zu betrachten sind. Er wird dann auf dem Bildschirm 15 an eine andere Stelle blicken. Diese Änderung seiner Blickrichtung wird durch den Augenbewegungsdetektor 13 erfaßt. Die Blickachse 2 wird entsprechend verschwenkt. Dabei wird auf dem Bildschirm 15 jeweils das Blickfeld des Betrachters, der gewissermaßen die Umwelt aus der Perspektive der Kamera betrachtet, dargestellt. Weiter kann der Benutzer seinen Kopf bewegen, was über den Kopfbewegungs- und Lagesensor 12 m sechs Freiheitsgraden erfaßt wird. Eine entsprechende Kopfbewegung wird im Bereich der Kamera m eine Verschwenkung der Blickachse 2 und/oder m eine entsprechende Bewegung des Gehäuses 3 selbst umgesetzt. Der Bildschirm 15 ist für derartige Anwendungen möglichst als halbkugelformiger Bildschirm kinematisch mit dem Benutzer 10 gekoppelt, indem ihm ein entsprechender Helm zur Verfugung gestellt wird. Wenn der Benutzer sich jetzt umdreht, erhalt der Lagesensor 12 die Information „drehen m horizontaler Richtung um 180°". Diese Bewegung wird von dem Kameragehause 3 nachvollzogen. Der Bildbereich, der im Bildschirm 15 dargestellt wird, wird entsprechend verschwenkt.
Auf diese Weise ist eine vollständige Orientierung des Benutzers m einem von ihm entfernt liegenden Raum möglich. Er ist insbesondere m der Lage, über Manipulatoren Reparaturen oder Aufraumarbeiten m aktiven Kernkraftwerksbereichen oder ande-
ren unzugänglichen Räumen zu überwachen, zu steuern oder selbst auszuführen.
Die Figur 3 zeigt eine durch die Fotosensoren in der Praxis wahrgenommene Szene, bei der eine Terrassentür 30 aus einem Raum heraus betrachtet wird. Die Tür 30 weist ein Fenster 31, ein Schlüsselloch 32 und ein Türblatt 33 auf. Vor der Tür hängt eine Spinne 34, und durch das Fenster 31 ist eine Strandszene 35 sichtbar.
Die Beleuchtungsunterschiede in dieser Szene liegen zwischen etwa 10"1 cd/m2 im Bereich des Türschlosses über 10' cd/m2 im Bereich der Spinne und 101 cd/m2 im Bereich des Türblattes bis hin zu 10" - 10r cd/m2 im Außenbereich. Derartige Leuchtdichteunterschiede sind simultan mit herkömmlichen Kameras und im übrigen auch mit dem menschlichen Auge nicht sichtbar. Die Leuchtdichteanpassung erfolgt immer nur in dem jeweils betrachteten Bereich.
In der Figur 4 ist in Gestalt eines Diagramms dargestellt, wie das Vorverarbeitungsmodul der Kamera 1 aufgrund seiner Mustererkennungsfuktionen die einzelnen Bereiche voneinander abgrenzt und mit unterschiedlichen Funktionen in Leuchtdichtestufen der Kameraabbildung umsetzt. Auf der x-Achse ist die Leuchtdichte in cd/m2 über insgesamt 9 Dekaden aufgezeichnet, so wie sie im realen Bild der Figur 3 auftritt. Die y-Achse zeigt die 256 relativen Einheiten des Leuchtdichtearbeitsbereichs, die von der Kamera bzw. deren Vorverarbeitungsmodul der Bilddarstellung zugewiesen wird. 256 Einheiten entsprechen einer Leuchtdichtemodulation von 8 Bit.
Eine erste Leuchtdichtekurve L-,_ zeigt den Bereich der Leuchtdichte des Türschlosses 32, abgebildet auf die 256 relativen Leuchtdichtestufen der Kameraabbildung. Entsprechende Leuchtdichtekurven L, für das Türblatt 33, L_,_ für die Spinne
34 und L35 für den Außenbereich 35 sind ebenfalls dargestellt .
Das Vorverarbeitungsmodul erkennt in der eingehenden Abbil¬ dung unterschiedliche, konturenscharf voneinander abgegrenzte Bereiche mit den vier unterschiedlichen Leuchtdichtebereichen. Diese Bereiche werden rechnerisch voneinander getrennt und jeweils mit optimaler Auflösung auf die 256 Helligkeits¬ stufen der Kameraabbildung transponiert. Im Ergebnis zeigt sich dem Betrachter der Szene gemäß Figur 3 ein Bild, bei dem die Bildbereiche 32, 33, 34 und 35 in der Darstellung ähnlich hell und kontrastreich und mit entsprechender Strukturierung in den verschiedenen Helligkeitsstufen dargestellt werden. Eine solche Darstellung kann ungewohnt sein, sie bietet aber einen Detailreichtum in verschiedenen Regionen, der weder mit dem menschlichen Auge noch mit herkömmlichen Kamerasystemen simultan darstellbar ist.
Die Abbildung gemäß Figur 3 zeigt auch Objekte unterschiedlicher Distanz. So sind die Objekte 32, 33 und 34 beispielsweise auf einer Entfernung von 2 m vom Betrachter angeordnet, während die dem Außenbereich 35 zugeordnete Palme 36 in einer Entfernung von 40 m stehen kann. Mit herkömmlichen Kameraobjektiven ist es in der Regel nicht möglich, beide Objekte 34 und 35 gleichzeitig scharf zu stellen. Die verfügbaren Tiefenschärfenbereiche reichen hierfür in der Regel nicht aus.
Der lernfähige sensomotorische Encoder kann gemeinsam mit dem Vorverarbeitungsmodul zunächst den entfernt liegenden Bereich 35 scharf stellen und dort konturenscharf abgegrenzte Regionen (Palme) erkennen und speichern. Sodann kann ein zweiter Entfernungsbereich gewählt werden, bei dem die Spinne 34 scharf eingestellt wird, während der Bereich 35 unscharf wird. Das Vorverarbeitungsmodul kann diesen Umstand erkennen und anstelle des unscharf gewordenen Bereichs 35 den zuvor ermittelten und gespeicherten scharfen Bildinhalt rechnerisch
m das auf kurze Entfernung fokussierte Bild einfugen. Diese Abfolge kann m einer Art Fokusscannmg zyklisch wiederholt werden, so daß standig aus verschiedenen Fokussierungsentfer- nungen scharfe Bereiche ermittelt, gespeichert und zu einem insgesamt scharfen Bild zusammengefugt werden. Die Tiefenscharfe, die auf diese Art und Weise virtuell erreichbar ist, übersteigt diejenige eines normalen optischen Systems um ein Vielfaches. Bei ausreichender Wiederholfrequenz des Verfahrensablaufs ist für den Benutzer das erzeugte Bild von einem realen Bild nur anhand der besonders großen Tiefenscharfe zu unterscheiden .
Wesentliche Teile und Verfahren des lernfahigen Informationsverarbeitungssystems werden m Actιve Night Vision' Systemen als Nachtsichtgeräten mit beweglicher Blickachse,
Remote Vision' Systemen als korperferne Sichtgerate mit beweglicher Blickachse und für Portable Active Vision' Kamera Systeme mit beweglicher Blickachse eingesetzt.
Eine Anpassung des Leuchtdichte-Arbeitsbereiches des Encoders an die örtlich verteilte Bildmusterleuchtdichte oder an zusammengesetzte Teilbereiche des gesamt erfugbaren Leuchtdichte-Funktionsbereiches wird ermöglicht.
Mit der technischen Anpassung des Leuchtdichtearbeitsberei- ches ist es möglich, im physiologisch hell-adaptierten oder dunkel-adaptierten Leuchtdichtebereich die Funktion an die Bildmuster anzupassen oder einen Arbeitsbereich technisch zusammenzustellen, der z.B. aus um Dekaden voneinander entfernten Teilbereichen des über mehrere Leuchtdichtedekaden reichenden Photosensorfunktionsbereiches besteht.
Vorverarbeitung eintreffender Bildmuster insbesondere bezüglich Farbbewertung, Kontrast, Kantendetektion, Segmentierung und Figur-Hintergrund Trennung mit schneller Wahl- und Ande-
rungsmoglichkeit der jeweiligen Vorverarbeitungsfunktionen wird ermöglicht.
Ein im normal nicht sichtbaren Bereich funktionierendes, am Kopf befestigtes Sichtgerat mit diversen lernfahigen Funktio¬ nen, welches Augenbewegungsfunktlonen, Kopfbewegungskompensation, Zoom, ortlich verteilte Akkommodation, örtlich verteilte Leuchtdichteadaptation, Meldung der Position detektierter Objekte, Bildvorverarbeitung und Mustererkennung leistet, wird vorgeschlagen.
Mit lernfahigen Active Night Vision Systemen wird der Funktionsbereich z.B. herkömmlicher Nachtsicht- oder Infrarotsicht- gerate wesentlich erweitert. Es kommen wesentliche bisher nicht erfugbare Funktionen hinzu.
Ein ferngesteuertes Sichtgerat als Active Remote Vision System mit diversen lernfahigen Funktionen, welches Augenbewegungsfunktionen, Zoom, ortlich verteilte Akkommodation, örtlich verteilte Leuchtdichteadaptation, Meldung der Bewegung des entfernten Sichtgerätes und der Position detektierter Objekte, Bildvorverarbeitung und Mustererkennung leistet und dessen Blickachse oder Kameraposition durch Augen- oder Kopfbewegungen des entfernten Benutzers gesteuert werden kann, wird vorgeschlagen.
Mit lernfahigen Remote Vision Systemen wird der Funktionsbereich z.B. herkömmlicher ferngesteuerter Überwachungsgeräte wesentlich erweitert und um diverse bisher überhaupt nicht erfugbare Funktionen angereichert.
Eine portable Kamera als Active Vision System mit diversen lernfahigen Funktionen, welche Augenbewegungsfunktionen, Zoom, ortlich verteilte Akkommodation, ortlich verteilte Leuchtdichteadaptation, Meldung der Position detektierter Objekte, Bildvorverarbeitung und Mustererkennung leistet, deren Blickachsenbewegung infolge Bewegung der Kamera z.B. infolge
eines kinematisch gekoppelten, beweglichen beweglichen Benutzers oder Fahrzeuges kompensiert wird und welche vom Benutzer über einen separaten Monitor ausgewählte Objekte weitgehend autonom verfolgen kann, wird vorgeschlagen.
Mit lernfahigen Portable Active Vision Kameras wird der Funktionsbereich z.B. herkömmlicher portabler Kameras oder Video- Registπergerate wesentlich erweitert und um diverse, bisher überhaupt nicht verfugbare Funktionen angereichert.
Eine vorteilhafte Ausgestaltung des lernfahigen Active Night Vision Systems besteht darin, daß z.B. ein in einem Helm befestigtes Sichtgerat zunächst vom Benutzer nicht sichtbare Szenen oder Bilder durch geeignete Verfahren m den sichtbaren Bereich transponiert und durch ein Vorver-arbeitungs- Modul vereinfacht, daß die Blickachse des Sichtgerätes durch geeignete, optische, mechanische, oder elektronische Verfahren beweglich ist und vom Betrachter m verschiedene Blickbewegungsmoden, wie z.B. automatisches Umherblicken oder pradiktive Verfolgung bewegter Objekte auch bei vorübergehendem Verlust des Sichtkontaktes geschaltet werden kann, daß bei diesen technisch erzeugten "Augenbewegungen" auftretende Kopfbewegungen des Benutzers durch Auswertung der detektier- ten Kopfbewegungen kompensiert werden, daß Zoom und ortlich verteilte Akkommodation technisch verstellt werden, daß eine bidirektionale Kommunikation zwischen dem Sichtgerat und dem Benutzer besteht, daß zur Kontrastoptimierung und Blendungsvermeidung eine ortlich verteilte Leuchtdichte-Adaptation durch Verwendung eines sehr schnellen und über mehrere Leuchtdichtedekaden empfindlichen Photosensorarrays erzeugt und schnell angepaßt wird, daß bei Bedarf die Position anvisierter Objekte relativ zum Korper des Benutzers diesem z.B. als Tastwahrnehmung auf der Haut gemeldet wird und daß die einzelnen Funktionen von einem digitalen Signalprozessor gesteuert und durch neuronale Netze m einer Lernphase optimiert werden.
Eine vorteilhafte Ausgestaltung des lernfahigen Active Remote Vision Systems z.B. für Uberwachungsaufgaben und Videotelefo- nie besteht darin , daß der Benutzer über einen am Helm befestigten Monitor mit Kopfbewegungssensor sowie eine Befehl- semgabe-Emheit m bi-direktionaler Kommunikation mit einem vom Korper entfernten Sichtgerat m Verbindung steht, daß die Blickachse des Sichtgerätes durch geeignete, optische, mechanische, oder elektronische Verfahren beweglich ist und vom Betrachter m verschiedene Blickbewegungsmoden, wie z.B. Umherblicken oder pradiktiver Verfolgung bewegter Objekte auch bei vorübergehendem Verlust des Sichtkontaktes geschaltet werden kann, daß die Blickachse des Sichtgerätes von den seinerseits detektierten Augenbewegungen des Betrachters nach einer Lernphase gesteuert werden kann, daß m einer Lernphase die Koordinatensysteme im Bereich des Sichtgerätes denjenigen des Betrachters angepaßt werden, daß die Lage der entfernten Kamera und damit das Referenzkoordinatensystem für das Blicksystem durch Blickbewegungen des Betrachters verändert werden kann, daß die Position erkannter Objekte dem Betrachter z.B. als Tastwahrnehmung auf der Haut gemeldet wird, daß Zoom und örtlich verteilte Akkommodation technisch verstellt werden, daß zur Kontrastoptimierung und Blendungsvermeldung eine ortlich verteilte Leuchtdichte-Adaptation durch Verwendung eines sehr schnellen und über mehrere Leuchtdichte-Dekaden empfindlichen Photosensor-Arrays erzeugt und schnell angepaßt wird, daß mit einem lernfahigen Vorverarbeitungs-Modul Bildmuster insbesondere bezüglich Farbe, Konrast, Kantendetektion, Segmentierung und Figur-Hintergrund Trennung zur Mustervereinfachung und teilweisen Abbildung aus dem Musterraum m einen Merkmalsraum vorverarbeitet werden und daß die einzelnen Funktionen von einem digitalen Signalprozessor gesteuert und durch neuronale Netze m einer Lernphase optimiert werden.
Eine vorteilhafte Ausgestaltung der Portable Active Vision Kamera z.B. als intelligente, mit dem Benutzer mitgefuhrte
Kamera besteht darin, daß die Blickachse der Kamera durch geeignete, optische, mechanische, oder elektronische Verfahren beweglich ist und vom Betrachter m verschiedene Blickbewegungsmoden, wie z.B. Umherblicken oder pradiktiver Verfolgung bewegter Objekte auch bei vorübergehendem Verlust des Sichtkontaktes geschaltet werden kann, daß der Benutzer über ein Kontroll-Modul über eine bi-direktionale Kommunikation Kontakt zur Kamera hat, daß die Kamera mit Bewegungssensoren sowie Zoom, örtlich verteilte Akkommodationsanderung und einer örtlich regional zusammenstellbaren Leuchtdichte-Adaptation insbesondere zur Kontrastoptimierung und Ubersteuerungsver- meidung ausgestattet ist, daß Kamerabewegungen infolge der Bewegung z.B. des bewegten Benutzers oder des mit der Kamera gekoppelten Fahrzeuges durch entsprechende kompensatorische Bewegungen der Blickachse weitgehend kompensiert werden, daß vom Benutzer ausgewählte Objekte auch wahrend Bewegungen von Objekt und/oder Benutzer kontinuierlich verfolgt und auf einem Monitor laufend dargestellt werden, und daß schließlich die Funktionen mit neuronalen Lernverfahren optimiert werden.