DE3905619C2 - Bildeingabe-/Ausgabevorrichtung - Google Patents

Bildeingabe-/Ausgabevorrichtung

Info

Publication number
DE3905619C2
DE3905619C2 DE3905619A DE3905619A DE3905619C2 DE 3905619 C2 DE3905619 C2 DE 3905619C2 DE 3905619 A DE3905619 A DE 3905619A DE 3905619 A DE3905619 A DE 3905619A DE 3905619 C2 DE3905619 C2 DE 3905619C2
Authority
DE
Germany
Prior art keywords
image
images
input
focus
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3905619A
Other languages
English (en)
Other versions
DE3905619A1 (de
Inventor
Junpei Tsujiuchi
Toshio Honda
Nagaaki Oyama
Tatsuo Nagasaki
Susumu Kikuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Publication of DE3905619A1 publication Critical patent/DE3905619A1/de
Application granted granted Critical
Publication of DE3905619C2 publication Critical patent/DE3905619C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Description

Die Erfindung betrifft eine Bildeingabe-/Ausgabevor­ richtung zur Eingabe/Ausgabe von Bildinformationen, nach dem Oberbegriff des Anspruches 1 bzw. 2 bzw. 14.
Ein fokussierendes optisches System mit einem optischen Element einer großen Apertur ist nötig, um Bildinforma­ tionen mit einer hohen Auflösung, einer hohen Vergröße­ rung und einer hohen Helligkeit optisch zu lesen. Her­ kömmliche optische Systeme, welche durch Linsen aufge­ baut sind, haben kleinere Brennpunktstiefen (focal depth), wenn ihre Aperturgrößen vergrößert werden. Bei Anwendungsfällen, bei denen Bilderzeugungsausrüstungen verwendet werden, wie beispielweise Mikroskope, Kameras und Endoskope haben die sich ergebenden Bilder vorzugs­ weise hohe Auflösungen und Helligkeiten, wobei sie gleichzeitig hohe Brennpunktstiefen haben.
Eine bekannte Technik zur Erhaltung eines Bildes mit einer hohen Brennpunktstiefe ist in "W. T. Welford, Journal of Optical Society of America, Vol 50, S. 749 (1960)" beschrieben. Diese bekannte Technik beschreibt eine Vorrichtung, die ein fokussierendes optisches System mit einer speziellen Apertur, wie beispielsweise einer Zonenplatte (zone plate) verwendet. Bei dieser Vorrichtung kann vorteilhafterweise ein Bild mit einer hohen Brennpunktstiefe erzeugt werden. Allerdings sind Auflösung und Lichtmenge stark verringert, was wiederum nachteilig ist.
Weiterhin ist ein Verfahren bekannt, welches eine Bild­ verarbeitungstechnik beschreibt und die durch "S. A. Su­ gimoto und Y. Ichioka, Applied Optics Vol. 24, S. 2076 (1985)" oder "Takatoshi OTA, Kokichi SUGIHARA und Noburo SUGIE, Journal of the Institute of Electronic and Com­ munication Engineers (D), J66-D, 1245, (1983)" bekannt wurde. Bei diesem Verfahren werden eine Mehrzahl von Bildern mit unterschiedlichen Brennpunkten (auf welche als innerhalb des Brennpunkts liegenden Positionen be­ zogen wird) in einem Objektabstand, um die lokale Ver­ teilungsinformation zu erhalten und Bereiche in dem fo­ kussierten Zustand synthetisiert. Hierbei kann ein Bild mit einer hohen Brennpunktstiefe synthetisiert werden, ohne hierbei Auflösung oder Helligkeit zu verringern. Somit kann diese bekannte Maßnahme als effektiv be­ trachtet werden. Wenn jedoch ein Objekt eine weiche Oberfläche hat oder in unterschiedlichen Lagen unter­ schiedlich starke Vorsprünge aufweist, ist es schwierig, diese bekannte Maßnahme auf ein derartiges Objekt anzu­ wenden. Zusätzlich ist eine große Hardware nötig, um dieses Verfahren zu realisieren, wobei der Algorithmus kompliziert ist, was in der Praxis zu Problemen führt.
Insoweit zusammenfassend haben herkömmliche Verfahren die folgenden Nachteile:
  • 1. Bei der Vorrichtung zur Erhöhung des Brennpunktab­ standes unter Verwendung eines fokussierenden optischen Systems mit einer speziellen Apertur, wie beispielsweise einer Zonenplatte, werden Auflösung und Lichtmenge stark verringert. Obwohl es möglich ist, ein Bild zu erhalten, welches einen hohen Brennpunktsabstand hat, werden Auf­ lösung und Helligkeit des Bildes verloren. Somit kann diese bekannte Vorrichtung nicht als ein optisches System dienen, welches alle Faktoren erfüllt, nämlich Brennpunktsabstand, Auflösung und Helligkeit.
  • 2. Bei der Vorrichtung zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen im Brennpunkt gelagerten Positionen und Synthetisierung von Teilbildern des im Fokus befindlichen Zustandes auf der Grundlage von ört­ lichen Verteilungsinformationen werden die Anwendungs­ fälle auf bestimmte Objektzustände beschränkt, was in der Praxis zu Problemen führt.
Es ist daher Aufgabe der vorliegenden Erfindung, eine Bildeingabe-/Ausgabevorrichtung nach dem Oberbegriff des Anspruches 1 bzw. 2 bzw. 14 derart auszubilden, daß Bilder mit einem hohen Brennpunktsabstand ohne Verrin­ gerung von Auflösung und Helligkeit erzeugbar sind, wo­ bei die Vorrichtung eine Vielzahl von praktischen An­ wendungen bei einer Vielzahl von verschiedenen Objekten bei gleichzeitig einfacher Ausbildung erlaubt, wobei die Vorrichtung unmittelbar und geeignet für alle Praxis­ fälle anwendbar ist.
Die Lösung dieser Aufgabe erfolgt erfindungsgemäß durch die im Anspruch 1 bzw. 2 bzw. 14 angegebenen Merkmale.
Genauer gesagt:
  • 1. Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden eingegeben;
  • 2. die eingegebenen Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden synthetisiert; und
  • 3. eine Rückgewinnungs-Verarbeitung des synthetisierten Bildes wird durchgeführt.
Diese erwähnten Schritte bringen die folgende Funktion mit sich:
Wenn eine sich im Brennpunkt befindliche Position (im folgenden mit "In-Fokus-Position" bezeichnet) auf einer Objektebene in einem optischen System zur Bildausgabe festgesetzt wird, wird ein Defokussierungsbetrag des eingegebenen Bildes durch einen Abstand zwischen dem Objekt und der In-Fokus-Ebene bestimmt. Wenn das Objekt einen Brennpunktsabstand hat, der größer ist als der des optischen Systems in der optischen Achse des optischen Systems zur Bildeingabe, sind die Defokussierungszu­ stände der erhaltenen Bilder beim Festsetzen der In-Fo­ kus-Position in einer gegebenen Objektebene in ihren Lagen unterschiedlich. Wenn die In-Fokus-Position geän­ dert wird, wird ein Bild mit einer Defokussierungsver­ teilung unterschiedlich von der des vorhergehenden ein­ gegebenen Bildes eingegeben. Genauer gesagt, ein Defo­ kussierungsteil des vorher eingegebenen Bildes kann bei dem nächsten eingegebenen Bild zu einem In-Fokus-Teil werden und der In-Fokus-Teil des vorher eingegebenen Bildes kann beim nächsten Bildeingabevorgang ein defo­ kussierter Bereich werden. Diese Beziehungen werden durch den Abstand zwischen der Struktur des Objektes und der vorgewählten In-Fokus-Ebene bestimmt. Wenn die Bil­ der eingegeben werden, während die In-Fokus-Position geändert wird innerhalb eines geeigneten Bereiches, kann eine Mehrzahl von Bildern erhalten werden, welche auf unterschiedliche Teile des Objektes fokussiert sind. Wenn diese Bilder synthetisiert werden, ist das synthe­ tisierte Bild praktisch gleichmäßig über die Gesamtheit des Bildes hinweg defokussiert. Das synthetisierte Bild wird dann einer Rückgewinnungs-Verarbeitung (recovery processing) unterworfen, wodurch ein Bild reproduziert wird, welches auf die gesamten Punkte des Objektes fo­ kussiert ist.
Ein Bild mit einem hohen Brennpunktsabstand kann repro­ duziert werden, ohne Auflösung und Helligkeit zu ver­ ringern. In diesem Fall ist die Verarbeitung sehr ein­ fach und ein Lokalverarbeitung des Bildes muß nicht durchgeführt werden. Somit kann auch die Bildverarbei­ tungsvorrichtung vereinfacht werden. Die Verarbeitung kann durchgeführt werden ungeachtet unterschiedlicher Oberflächenzustände der Objekte. Somit kann die vorlie­ gende Erfindung bei einer Vielzahl von Anwendungsfällen verwendet werden.
Weiterhin können bei der vorliegenden Erfindung die folgenden Schritte durchgeführt werden:
  • 1. Eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen wird eingegeben;
  • 2. die Bilder mit unterschiedlichen In-Fokus-Positionen werden einer Fourier-Transformation unterworfen;
  • 3. die Bilder der Fourier-Transformation mit unter­ schiedlichen In-Fokus-Positionen werden in Einheiten von Ortsfrequenzen gewichtet und die gewichteten Bilder werden synthetisiert; und
  • 4. das synthetisierte Fourier-Spektrumbild wird dann einer inversen Fourier-Transformation unterworfen.
Genauer gesagt, die folgenden Abläufe finden statt: Die Bilder mit unterschiedlichen Brennpunktslagen werden diskret eingegeben und eine Synthese von Fourier trans­ formierten Bildern wird durchgeführt. Das sich ergebende Fourier-Spektrumbild wird einer inversen Fourier-Trans­ formation unterworfen. Somit kann ein Bild mit einem hohen Brennpunktsabstand erhalten werden, ohne daß Auf­ lösung und Helligkeit verringert werden. Zusätzlich kann die Verarbeitung ohne irgendwelche Schwierigkeiten durchgeführt werden, ungeachtet unterschiedlicher Zu­ stände und Arten der Oberflächen der Objekte, wobei eine Anwendung bei einer Vielzahl von Anwendungsfällen mög­ lich ist. Weiterhin müssen spezielle Vorbereitungen und spezielle Eingabevorgänge nicht durchgeführt werden. Somit kann die vorliegende Erfindung in geeigneter Weise bei einer Vielzahl von Anwendungsfällen ohne irgendwel­ che Abwandlungen verwendet werden.
Vorteilhafte Weiterbildungen der Erfindung sind in den jeweiligen Unteransprüchen angegeben.
Weitere Einzelheiten, Aspekte und Vorteile der vorlie­ genden Erfindung ergeben sich aus der nachfolgenden Be­ schreibung unter Bezugnahme auf die Zeichnung.
Es zeigt:
Fig. 1 bis 48 erste Ausführungsformen der vorliegenden Erfindung; hierbei zeigt:
Fig. 1 eine schematische Darstellung einer ersten Ausführungsform;
Fig. 2 eine schematische Darstellung einer zweiten Ausführungsform;
Fig. 3 eine schematische Darstellung einer dritten Ausführungsform;
Fig. 4 eine schematische Darstellung einer vierten Ausführungsform;
Fig. 5 eine schematische Darstellung einer fünften Ausführungsform;
Fig. 6 eine Frontansicht einer Fresnel-Zonenplatte von Fig. 5;
Fig. 7 eine schematische Ansicht einer sechsten Ausführungsform;
Fig. 8 und 9 Blockschaltbilder zur Veranschaulichung unterschiedlicher Anordnungen einer Rückge­ winnungs-Einheit in der ersten bis sechsten Ausführungsform;
Fig. 10 eine Darstellung zur Erläuterung der geome­ trischen Beziehung bei einem Verfahren zur Bestimmung eines Wiedergewinnungsfilters in der Wiedergewinnungseinheit;
Fig. 11A bis 11D grafische Ansichten von Verfahrenspro­ zeduren bei einem Verfahren zur Bestimmung des Rückgewinnungsfilters;
Fig. 12 teilweise schematisch eine siebte Ausfüh­ rungsform;
Fig. 13A bis 13C teilweise schematisch eine achte Aus­ führungsform;
Fig. 14 eine Draufsicht auf einen Rückgewinnungs­ farbfilter gemäß Fig. 13;
Fig. 15 teilweise schematisch eine neunte Ausfüh­ rungsform;
Fig. 16 teilweise schematisch eine zehnte Ausfüh­ rungsform;
Fig. 17 teilweise schematisch eine elfte Ausfüh­ rungsform;
Fig. 18 eine Ansicht zur Erläuterung eines optischen Rückgewinnungs-Vorganges bei einem auf einem Film aufgezeichneten Bild;
Fig. 19 die Netzstruktur in einem Fibroskop-Bild;
Fig. 20 ein Fourier-Spektrumbild eines Fibroskop-Bil­ des, welches während des optischen Rückge­ winnungsvorganges erscheint;
Fig. 21 die Vorderansicht eines Filters, das im op­ tischen Rückgewinnungsvorgang verwendet wird;
Fig. 22 teilweise schematisch eine zwölfte Ausfüh­ rungsform;
Fig. 23 teilweise schematisch eine dreizehnte Aus­ führungsform;
Fig. 24 grafisch die Beziehung Amplitude und Frequenzleistung einer spe­ ziellen Ortsfrequenz zur Erläuterung einer Funktion der dreizehnten Ausführungsform;
Fig. 25 schematisch eine vierzehnte Ausführungsform;
Fig. 26 die Frontansicht eines drehenden optischen Verschlusses in der vierzehnten Ausführungs­ form;
Fig. 27 eine grafische Darstellung der Charakteristik eines logarithmischen Filters in der vier­ zehnten Ausführungsform;
Fig. 28 die Anordnung einer fünfzehnten Ausführungs­ form der vorliegenden Erfindung;
Fig. 29 die Anordnung einer sechzehnten Ausführungs­ form;
Fig. 30 die Anordnung einer siebzehnten Ausführungs­ form;
Fig. 31 schematisch eine Ansicht zur Erläuterung ei­ ner Verfahrens zur Verarbeitung und Anzeige eines Farbbildes in der sechzehnten und siebzehnten Ausführungsform der vorliegenden Erfindung;
Fig. 32 eine Ansicht eines Farbbildprozessors als eine teilweise Abwandlung der Anordnung der siebzehnten Ausführungsform;
Fig. 33 schematisch einen Teil einer optischen Bypass-Filteranordnung in einer achtzehnten Ausführungsform der vorliegenden Erfindung;
Fig. 34A und 34B grafische Darstellungen zur Erläuterung eines Verfahrens zur Auswahl eines Bildes in der achtzehnten Ausführungsform;
Fig. 35A und 35B Ansichten einer Anordnung einer neun­ zehnten Ausführungsform der vorliegenden Er­ findung;
Fig. 36A und 36B Ansichten einer linken Bildebene und einer rechten Bildebene einer Stereo-Anpas­ sungseinrichtung der neunzehnten Ausfüh­ rungsform;
Fig. 37 die Anordnung eines Anpassungsschaltkreises in der neunzehnten Ausführungsform;
Fig. 38 eine Ansicht einer Abwandlung eines Anpas­ sungsschaltkreises und einer Speicheranord­ nung in der neunzehnten Ausführungsform;
Fig. 39 eine Darstellung zur Erläuterung einer Rück­ gewinnungs-Verarbeitungseinrichtung in der neunzehnten Ausführungsform;
Fig. 40A und 40B Ansichten einer Anordnung der zwanzig­ sten Ausführungsform der vorliegenden Erfin­ dung;
Fig. 41 und 42 Darstellungen zur Erläuterung der Ar­ beitsweise der zwanzigsten Ausführungsform;
Fig. 43 eine Ansicht einer einundzwanzigsten Ausfüh­ rungsform der vorliegenden Erfindung;
Fig. 44 eine Darstellung zur Erläuterung der Ar­ beitsweise der einundzwanzigsten Ausfüh­ rungsform;
Fig. 45 die Anordnung einer zweiundzwanzigsten Aus­ führungsform der vorliegenden Erfindung;
Fig. 46 und 47 Darstellungen zur Erläuterung der Ar­ beitsweise der zweiundzwanzigsten Ausfüh­ rungsform; und
Fig. 48 schematisch die Anordnung eines optischen Systems für die In-Fokus-Positionssteuerung in der ersten Ausführungsform und derglei­ chen;
Fig. 49 bis 55 zeigen weitere Ausführungsformen im Rah­ men der vorliegenden Erfindung; hierbei zeigt:
Fig. 49 die Anordnung einer dreiundzwanzigsten Aus­ führungsform;
Fig. 50 eine Darstellung zur Erläuterung der Ar­ beitsweise der dreiundzwanzigsten Ausfüh­ rungsform;
Fig. 51 die Ansicht einer vierundzwanzigsten Ausfüh­ rungsform;
Fig. 52 eine Darstellung zur Erläuterung einer Ar­ beitsweise der vierundzwanzigsten Ausfüh­ rungsform;
Fig. 53 eine fünfundzwanzigste Ausführungsform;
Fig. 54A bis 50C eine sechsundzwanzigste Ausführungs­ form; und
Fig. 55 die Anordnung einer siebenundzwanzigsten Ausführungsform.
Vorzugsweise Ausführungsformen der vorliegenden Erfin­ dung werden nun im folgenden unter Bezugnahme auf die Zeichnungen näher erläutert.
(Erste Ausführungsform)
Fig. 1 zeigt schematisch eine erste Ausführungsform der vorliegenden Erfindung. Eine Bildebene wird mittels ei­ ner Linse 1 auf den lichtempfangenden Teil einer Abbil­ dungsvorrichtung 2, gebildet aus einer ladungsträgerge­ koppelten Vorrichtung (im folgenden CCD genannt), einer Abbildungsröhre oder dergleichen fokussiert. Ein opti­ sches Eingabesystem weist normalerweise eine Kombination aus einer Mehrzahl von Linsen auf. Aus Gründen der Ein­ fachkeit der Darstellung ist nur die eine Linse in Fig. 1 dargestellt. Ein Ausgangssignal von der Abbildungs­ vorrichtung 2 wird mittels eines A/D-Wandlers 3 in ein digitales Signal gewandelt. Das digitale Signal wird mittels eines Addierers 4 zu einem Bildsignal addiert, welches in einem Speicher 5 aufgezeichnet ist. Diese Summe wird wiederum in dem Speicher 5 gespeichert. Die obigen Abläufe werden unter der Annahme durchgeführt, daß die In-Fokus-Position des optischen Systems wieder­ holt durchgeführt wird, während die Linse 1 von einem In-Fokus-Positionssteuerer 6 bewegt wird. Das heißt, daß die obigen Abläufe derart durchgeführt werden, daß die In-Fokus-Position des optischen Systems diskret in geeigneten Intervallen innerhalb eines Abstandsbereiches geändert wird. Die Eingangsbilder werden addiert und die Summe wird in dem Speicher 5 gespeichert.
Das Summenbild wird einer geeigneten Rückgewinnungs-Ver­ arbeitung mittels einer Rückgewinnungs-Verarbeitungs­ einheit 7 unterworfen. Beispielsweise wird eine Hoch­ paß-Filterung oder eine Bandpaß-Filterung an dem Sum­ menbild bezüglich beispielsweise einer Ortsfrequenz durchgeführt. Das verarbeitete Ergebnis wird wieder in dem Speicher 5 abgespeichert. Das der Rückgewinnungs- Verarbeitung unterworfene Bildsignal, das in dem Spei­ cher 5 gespeichert ist, wird mittels eines D/A-Wandlers 8 in ein Analogsignal umgesetzt. Das Analogsignal wird dann auf einem Anzeigemonitor 9 dargestellt. Die zeit­ liche Steuerung und die Steuerung der Signalflüsse wird hierbei von einer zentralen Steuerung 10 übernommen.
Als eine Einrichtung zur Änderung der In-Fokus-Position des optischen Systems kann die Abbildungsvorrichtung 2 bewegt werden, wohingegen das Linsensystem stationär bleiben kann. Die Rückgewinnungs-Verarbeitungseinheit 7 kann ein Rückgewinnungs-Verarbeitungsergebnis direkt an den A/D-Wandler 8 unter Verwendung eines kanalisierten Verarbeitungsschemas (pipelined processing scheme) aus­ geben. Das Summenbild, das in dem Speicher 5 gespeichert ist, kann auch auf einem anderen Aufzeichnungsmedium, beispielsweise einer Floppy Disk, einem Magnetband oder einer optischen Speichereinheit gespeichert werden und das auf diesem externen Aufzeichnungsmedium gespeicherte Bildsignal kann ausgelesen und der Rückgewinnungs-Ver­ arbeitung unterworfen werden, wonach das rückgewonnene Bild angezeigt werden kann. Mit anderen Worten, Bild­ aufzeichnungs- und Bildwiedergabe-Einheit können off- line über ein Aufzeichnungsmedium miteinander verbunden sein.
Die beschriebene erste Ausführungsform mit dem obigen Aufbau hat die folgende Wirkungsweise:
Bilder mit unterschiedlichen In-Fokus-Positionen werden diskret eingegeben und gleichzeitig miteinander addiert. Somit kann die Verarbeitung mit relativ einfachem Aufbau durchgeführt werden. Zusätzlich können Eingabe- und Ausgabevorgänge der Bilder mit hoher Geschwindigkeit durchgeführt werden.
(Zweite Ausführungsform)
Fig. 2 zeigt eine zweite Ausführungsform der vorliegen­ den Erfindung. In dieser Ausführungsform wird die Brennpunktlage kontinuierlich von der In-Fokus-Posi­ tionssteuerung 6 innerhalb eines festgelegten Distanz­ bereiches geändert. Bilder werden auf dem lichtempfan­ genden Bereich (genauer gesagt: lichtempfangende Ober­ fläche eines Fotosensors oder einer Bildaufnahmevor­ richtung auf Halbleiterbasis oder dergleichen) der Ab­ bildungsvorrichtung 2 fokussiert. Die in der Abbil­ dungsvorrichtung 2 empfangenen Bilder werden von dem A/D-Wandler 3 in digitale Signale gewandelt und in dem Speicher 5 gespeichert. Von einer Rückgewinnungs-Verar­ beitungseinheit 7 wird eine geeignete Rückgewinnungs- Filterung der digitalen Signale durchgeführt. Das der Rückgewinnungs-Verarbeitung unterworfene Signal wird in dem Speicher 5 wieder abgespeichert. Das in dem Speicher 5 abgespeicherte Signal wird von dem D/A-Wandler 8 in ein Analogsignal gewandelt. Das Analogsignal wird auf dem Monitor 9 dargestellt. Zeitsteuerung und Datenflüsse in den oben beschriebenen Vorgängen werden von der Steuerung 10 kontrolliert.
Diese zweite Ausführungsform zeichnet sich wie folgt aus. Der Akkumulationseffekt der Lichtenergie der Ab­ bildungsvorrichtung 2 selbst wird verwendet, um konti­ nuierlich Bilder mit unterschiedlichen In-Fokus-Posi­ tionen einzugeben und gleichzeitig werden diese Bilder gespeichert. Somit können Eingabe- und Ausgabevorgänge der Bilder gleichzeitig von der Abbildungsvorrichtung 2 selbst durchgeführt werden. Der Aufbau der Vorrichtung kann vereinfacht werden und eine Hochgeschwindigkeits­ verarbeitung kann durchgeführt werden. Da der Brennpunkt kontinuierlich innerhalb einer geeigneten Distanz ver­ ändert wird, kann die Steuerung der Brennpunktslagen vereinfacht werden.
(Dritte Ausführungsform)
Fig. 3 zeigt die Anordnung einer dritten Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform wird das von der Linse 1 fokussierte Bild von der Ab­ bildungsvorrichtung 2 in ein Bildsignal gewandelt. Das Bildsignal wird dann von dem A/D-Wandler 3 in ein Digi­ talsignal umgesetzt. Das digitale Signal wird in einem festgelegten Speicher von Speichern 5-1 bis 5-m mittels eines Selektors 11 abgespeichert. Die obigen Vorgänge werden wiederholt durchgeführt, während die Linse 1 von der In-Fokus-Positionssteuerung 6 bewegt wird. Genauer gesagt, die obigen Abläufe werden diskret durchgeführt, um die In-Fokus-Positionen in festgelegten Intervallen innerhalb eines festgelegten Distanzbereiches zu ändern. Die eingegebenen n (n ≦ m)-Bilder werden entsprechend in den n-Speichern der Speicher 5-1 bis 5-m gespeichert. Ein Adressenkompensator 12 führt eine Vergrößerungskor­ rektur und eine Korrektur von Positionsfehlern der in den Speichern 5-1 bis 5-m abgespeicherten Bilder durch. Die Korrekturergebnisse werden in den Speichern 5-1 bis 5-m wieder abgespeichert. Die adressenkorrigierten Bildsignale der Speicher 5-1 bis 5-m werden von einem Selektor 13 ausgewählt. Das heißt, von den n-Bildern in den Speichern 5-1 bis 5-m werden k (k ≦ n)-Bilder, die eine festgelegte Bedingung erfüllen, ausgewählt. Die k ausgewählten Bilder werden miteinander mittels eines Addierers 14 addiert. Das Summenbildsignal von dem Ad­ dierer 14 wird in einem Speicher 15 aufgezeichnet oder gespeichert. Das in dem Speicher 15 aufgezeichnete Bildsignal wird dann einer geeigneten Rückgewinnungs- Filterung durch die Rückgewinnungs-Verarbeitungseinheit 7 unterworfen. Das Rückgewinnungs-gefilterte Signal wird dann wieder in dem Speicher 15 gespeichert. Das in dem Speicher 15 abgespeicherte verarbeitete Signal wird mittels des D/A-Wandlers 8 in ein Analogsignal umgesetzt und dann auf dem Monitor 9 dargestellt. Zeitsteuerung und Datenstromsteuerung sowie die Festsetzung der Se­ lektoren 11 und 13 wird durch die Steuerung 10 durchge­ führt.
Die ursprünglichen Bildsignale in den Speichern 5-1 bis 5-m können auch in einem anderen Aufzeichnungsmedium gespeichert werden und können beim Lesezugriff auf das abgespeicherte Bildsignal der Adresskorrektur, den Ad­ ditionen und der Rückgewinnungsverarbeitung unterworfen werden. Die sich ergebenden Bilder können dann darge­ stellt werden. Das heißt, Bildaufzeichnung und Bildwie­ dergabeeinheiten können off-line durch das Aufzeich­ nungsmedium miteinander verbunden sein.
Diese dritte Ausführungsform hat die folgenden Wir­ kungsweisen:
eine Mehrzahl von Bildern mit unterschiedlichen In-Fo­ kus-Positionen wird gespeichert und von diesen Bildern werden gewünschte Bilder selektiert und synthetisiert. Somit hat diese dritte Ausführungsform den Vorteil, daß ein Bild mit einem In-Fokus-Zustand eines jeden Berei­ ches des Objektes wiedergegeben werden kann. Zusätzlich korrigiert der Adressenkompensator 12 Unterschiede in den Vergrößerungen, die durch unterschiedliche Defokus­ sierungsbeträge verursacht werden, Vibrationen zum Zeitpunkt der Bildeingabe und Positionsfehler, die durch eine mögliche Bewegung des Objektes erzeugt werden. So­ mit kann die Vorrichtung in einer Vielzahl von Anwen­ dungsfällen verwendet werden. Der Adressenkompensator 12 führt beispielsweise eine lokale Anpassung zwischen den Bildern durch, und führt somit die Positionierung durch. Somit können bei dieser Ausführungsform Brennpunktab­ stände und In-Fokus-Bereiche des Bildes wahlweise ge­ setzt werden. Die Vorrichtung dieser Ausführungsform ist sehr effektiv bei einer Additionsverarbeitung und bei einer Änderung in der Vergrößerung. Zusätzlich, selbst wenn Positionsfehler während der Bildeingaben und zwi­ schen den Bildern auftreten aufgrund einer Bewegung des Objektes, wird das wiedergegebene Bild durch diese Po­ sitionsfehler nicht nachteilig beeinflußt. Somit kann die Vorrichtung dieser Ausführungsform bei einer Viel­ zahl von Anwendungsfällen zum Einsatz gelangen.
(Vierte Ausführungsform)
Fig. 4 zeigt die Anordnung einer vierten Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform sind Halbspiegel 16-1 und 16-2 hinter der Linse 1 des optischen Systems zur Bildeingabe angeordnet. Bei­ spielsweise sind drei Abbildungsvorrichtungen 2-1, 2-2 und 2-3 in unterschiedlichen Abständen von der Linse 1 angeordnet. Die Bildsignale von den Abbildungsvorrich­ tungen 2-1 bis 2-3 werden durch A/D-Wandler 3-1, 3-2 und 3-3 in digitale Signale umgesetzt. Die weiteren Anord­ nungen dieser Ausführungsform sind gleich der in der ersten und dritten Ausführungsform und eine detaillierte Beschreibung erfolgt nicht.
Es sei hier festgehalten, daß die Lagen der Abbildungs­ vorrichtungen 2-1 bis 2-3 variabel sein können, um va­ riable Abstände zu dem Objekt festzusetzen.
Diese vierte Ausführungsform der vorliegenden Erfindung arbeitet wie folgt: eine Mehrzahl von Bildern, die in unterschiedlichen Ebenen fokussiert sind, werden einge­ geben und die Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen werden gleichzeitig eingegeben. So­ mit kann eine Änderung der In-Fokus-Position, d. h. eine mechanische Betätigung vermieden werden. Weiterhin kann der Anwendungsbereich dieser vierten Ausführungsform noch weiter sein.
(Fünfte Ausführungsform)
Fig. 5 zeigt die Anordnung einer fünften Ausführungsform der vorliegenden Erfindung. Bei dieser Ausführungsform ist eine Fresnel-Zonenplatte 17 vorgesehen, um die Fo­ kussierung einer Mehrzahl von In-Fokus-Positionen vor­ zunehmen; eine Mehrzahl von Bildern, die auf eine Mehr­ zahl von Objektebenen fokussiert sind, werden gleich­ zeitig in die Abbildungsvorrichtung 2 eingegeben. Ein tatsächliches optisches Eingabesystem weist eine Mehr­ zahl von Linsen zusätzlich zu der Zonenplatte 17 auf, aus Gründen der Übersichtlichkeit sind diese Linsen je­ doch nicht dargestellt und nur die Fresnel-Zonenplatte 17 ist dargestellt. Ein Bildsignal von der Abbildungs­ vorrichtung 2 wird durch den A/D-Wandler 3 in ein digi­ tales Signal umgesetzt, wonach dieses digitale Signal in dem Speicher 5 gespeichert wird. Das in dem Speicher 5 abgespeicherte Bild wird durch die Rückgewinnungs-Ver­ arbeitungseinheit 7 einer geeigneten Rückgewinnungs-Fil­ terung unterworfen. Das gefilterte Bild wird dann wieder in dem Speicher 5 abgespeichert. Das in dem Speicher 5 abgespeicherte Bild wird durch den D/A-Wandler 8 in ein Analogsignal umgesetzt, welches dann auf dem Anzeigemo­ nitor 9 dargestellt wird. Zeitsteuerung und Datenfluß­ steuerung in dieser Ausführungsform wird durch die Steuerung 10 durchgeführt.
Die In-Fokus-Positionssteuerung 6 kann zu der Anordnung von Fig. 5 hinzugefügt werden, um In-Fokus-Positionen zu kompensieren und für die eingegebenen Bilder kann die gleiche Verarbeitung wie in den ersten bis dritten Aus­ führungsformen durchgeführt werden.
Die fünfte Ausführungsform mit dem obigen Aufbau arbei­ tet wie folgt: Die Fresnel-Zonenplatte 17, die ausgelegt ist, Licht auf die Mehrzahl von Brennpunktslagen zu fo­ kussieren wird zusammen mit den nicht dargestellten Linsen verwendet. Eine Mehrzahl von fokussierten Bildern wird gleichzeitig auf eine Mehrzahl von Objektebenen ausgebildet und die fokussierten Bilder werden gleich­ zeitig in die Abbildungsvorrichtung 2 eingegeben, so daß diese Bilder äquivalent addiert werden. Fig. 6 zeigt eine Vorderansicht der Zonenplatte 17, die geeignet ist, Licht auf eine Mehrzahl von Brennpunktslagen zu fokus­ sieren. Bei der Zonenplatte 17 sind ringförmige Zonen (Fresnel-Zonen) mit identischen Bereichen ausgebildet und voneinander durch opake Ringe getrennt. Die Fres­ nel-Zonenplatte 17 hat die gleiche Funktion wie eine Linse mit Brennweiten von ±f0 = r2λ (wobei r der Radius des zentralen Bereiches der Zonenplatte 17 ist und λ die Wellenlänge des Lichtes ist. Wenn somit die Fresnel-Zo­ nenplatte 17 mit einer Fokussierungslinse kombiniert wird, kann eine Mehrzahl von Brennweiten erhalten wer­ den. Eine Mehrzahl von Bildern kann auf eine Mehrzahl von Objektebenen mit unterschiedlichen Abständen fokus­ siert werden, während die Fresnel-Zonenplatte 17 fest­ gehalten ist. Theoretisch hat eine Fresnel-Zonenplatte 17 Brennweiten von ±f0/3, ±f0/5, . . . zusätzlich zu ±f0. In der Praxis ist die Intensität von Licht in dem Brennpunkt ±f0 hoch und eine Auswirkung auf andere Brennpunkte ist schwach. Zusätzlich wird die originale Brennpunktsweite der Linse von nichtdiffraktiertem Licht freigehalten. Wenn eine Fresnel-Linse so ausgewählt wird, daß die Phase des Lichtes, das hindurchläuft um π verzögert wird anstelle der Ausbildung von anderen opa­ ken Ringen, bleiben die Lagen von ±f0 ungeändert, aber die hierauf fokussierte Lichtintensität kann erhöht werden. Die ursprüngliche Brennpunktslage der Platte verschwindet. Wenn ein Phasendifferenz geeignet ausge­ wählt wird, können drei Brennpunkte, d. h. ±f0 und die Original-Brennpunktslage der Platte erhalten werden. Die Fresnel-Zonenplatte wird streng bei einer speziellen Wellenlänge betrieben. Wenn die Wellenlänge geeignet ausgewählt wird, um um die zentrale Wellenlänge (λ = 550 nm) des sichtbaren Lichtes zu sein, wird der Einfluß einer chromatischen Aberration nicht sehr hoch erhöht. Die Zonen mit einer festgelegten Phasendifferenz können durch eine Vakuumabscheidung eines transparenten Dünn­ filmes wie beispielsweise MgF2 ausgebildet werden.
Bei dieser Ausführungsform kann eine Mehrzahl von Bil­ dern auf die Mehrzahl von Objektebenen durch Verwendung eines einzelnen optischen Elementes ohne Durchführung einer mechanischen Betätigung zur Änderung der Brenn­ punktslage fokussiert werden und somit kann eine Mehr­ zahl von Bildern eingegeben und miteinander addiert werden, um ein synthetisiertes Bild zu erhalten. Somit kann die Anordnung dieser Vorrichtung gemäß dieser Aus­ führungsform bedeutend vereinfacht werden und die Vor­ richtung ist unempfindlich gegenüber Störungen, die durch Bewegung des Objektes oder dergleichen verursacht werden.
(Sechste Ausführungsform)
Fig. 7 zeigt eine sechste Ausführungsform der vorlie­ genden Erfindung. Bei dieser Ausführungsform ist ein optisches Element, d. h. eine Linse 18 vorgesehen, um absichtlich ein chromatische Aberration in dem optischen System zur Bildeingabe zu erzeugen. Die Abbildungsvor­ richtung 2 besteht aus einer monochromatischen Abbil­ dungsröhre oder einer Abbildungsvorrichtung auf Halb­ leiterbasis mit einem Empfindlichkeitsbereich innerhalb des gesamten Spektralbereiches des sichtbaren Lichtes. Bei dieser Anordnung können die auf verschiedenen Lagen fokussierten Bilder gleichzeitig durch Wellenlängen von Licht ausgebildet werden und die Bilder werden durch die Abbildungsvorrichtung 2 eingegeben und addiert. Die weitere Anordnung dieser sechsten Ausbildungsform ent­ spricht der fünften Ausführungsform.
Ein Bandpaß-Farbfilter kann vor der Abbildungsvorrich­ tung 2 angeordnet sein, um Bilder unterschiedlicher Wellenlängenbereiche einzugeben und aufzuzeichnen und eine Adresskorrektur, die Einstellung von Brennpunkts­ abständen und dergleichen kann mit der gleichen Anord­ nung wie in der vierten Ausführungsform durchgeführt werden.
Diese sechste Ausführungsform arbeitet im wesentlichen wie folgt: das reflektierte Lichtspektrum eines Objektes wird in einem weiten Bereich verteilt, der beinahe dem gesamten Bereich des sichtbaren Lichtes entspricht. Diese Ausführungsform verwendet die starke Korrelation zwischen Bildern bei entsprechenden Wellenlängen. Das heißt, das optische Element wird verwendet, um absicht­ lich eine chromatische Aberration zu erzeugen und die auf unterschiedliche Lagen in Einheiten der Wellenlängen fokussierten Bilder werden ausgebildet. Diese Bilder werden in die Abbildungsrichtung 2 eingegeben und die Addition kann gleichmäßig durchgeführt werden. Somit können die auf der Mehrzahl von Positionen fokussierten Bilder eingegeben und addiert werden unter Verwendung nur eines optischen Elementes mit einem großen chroma­ tischen Aberrationswert ohne Verwendung einer mechani­ schen Betätigung zur Änderung der In-Fokus-Position. Die Anordnung kann sehr einfach gehalten werden und die sich ergebende Vorrichtung kann Störungen kompensieren, die durch Bewegung eines Objektes oder dergleichen verur­ sacht werden.
Der genaue Aufbau der Rückgewinnungs-Verarbeitungsein­ heit 7 in der ersten bis sechsten Ausführungsform der vorliegenden Erfindung wird nun im folgenden beschrie­ ben. Die Einheit 7 ist eine Einheit zur Durchführung geeigneter Bypass- oder Bandpaß-Filterungen der Summen­ bilder mit unterschiedlichen In-Fokus-Positionen bezüg­ lich der Ortsfrequenz.
Fig. 8 zeigt ein Blockdiagramm der Rückgewinnungs-Ver­ arbeitungseinheit 7. Die Summe der Bilder mit unter­ schiedlichen In-Fokus-Positionen, die in dem Speicher 5 gespeichert sind, wird einer zweidimensionalen Fou­ rier-Transformation durch ein FFT-Arithmetikelement 20 in der Einheit 7 unterworfen. Das arithmetische Ergebnis wird in einem Speicher 21 gespeichert. Ein Filterfaktor oder Koeffizient, der auf einer Ortsfrequenzebene geeig­ net bestimmt ist, ist in einem Speicher 22 gespeichert. Das Ortsfrequenzspektrum in dem Speicher 21 wird durch einen Multiplizierer 23 mit einem Filterkoeffizienten multipliziert, der in dem Speicher 22 gespeichert ist. Das Produkt von dem Multiplizierer 23 wird wieder in dem Speicher 21 gespeichert. Das gefilterte Ortsfrequenzbild in dem Speicher 21 wird dann einer zweidimensionalen umgekehrten Fourier-Transformation durch das Arithmetik­ element 20 unterworfen. Das Ergebnis wird in dem Spei­ cher 5 gespeichert. Mit dieser Anordnung kann die Fil­ tercharakteristikkurve auf der Ortsfrequenzebene wahl­ weise bestimmt werden.
Fig. 9 ist ein Blockdiagramm einer weiteren Ausfüh­ rungsform der Rückgewinnungs-Verarbeitungseinheit 7. Von all den Bildersummen der Bilder mit unterschiedlichen In-Fokus-Positionen, die in dem Speicher 5 gespeichert sind, wird ein Pixelkomponentenwert, der durch einen Adressengenerator 30 in der Verarbeitungseinheit 7 aus­ gewählt wird einem Multiplizierer 32 eingegeben. Gleich­ zeitig wird ein Koeffizient, der in einem Speicher 31 gespeichert ist und von dem Adressengenerator 30 ange­ wählt wird, in dem Multiplizierer 32 eingegeben. Der Multiplizierer 32 multipliziert den Pixelkomponentenwert mit dem Koeffizienten. Ein Produkt von dem Multiplizie­ rer 32 wird von einem Addierer 32 mit einem Wert ad­ diert, der in einem Speicher 34 gespeichert ist. Diese Summe wird wieder in dem Speicher 34 gespeichert. Mit dieser Ausführungsform wird ein "Rollkurven-Betrieb" (convolution operation) in einem lokalen Bereich, z. B. 3 × 3 Pixel oder 5 × 5 Pixel an dem Bild durchgeführt. Das arithmetische Ergebnis wird dann in dem Speicher 5 wieder abgespeichert.
Bei dieser Anordnung wird somit der "Rollkurven-Betrieb" mit einer Matrix, die auf der Bildoberfläche geeignet ausgewählt wurde, anstelle des Filterns der Ortsfre­ quenzebene durchgeführt, wodurch der Rückgewinnungs-Ver­ arbeitungsvorgang erfolgt. Somit wird bei dieser Anord­ nung die Verarbeitung mit einem einfachen Schaltkreis­ aufbau durchgeführt. Wenn ein effektives Filter mit ei­ ner kleinen Matrixgröße ausgewählt werden kann, kann die Anzahl von arithmetischen Abläufen vorteilhafterweise verringert werden.
Weiterhin kann ein Kanalprozessor (pipelined processor) verwendet werden, um einen Hochgeschwindigkeitsbetrieb durchzuführen, wodurch eine Maskierung möglich ist.
Ein Verfahren zur Auswahl des Rückgewinnungsfilters wird im folgenden beschrieben. Zunächst wird ein Verfahren zur Auswahl eines Rückgewinnungsfilters mittels Simula­ tion beschrieben. Im allgemeinen werden die räumlichen Charakteristiken eines inkohärenten fokussierenden op­ tischen Systems durch eine optische Transferfunktion (OTF) ausgedrückt, die durch eine Autokorrelation einer Pupillenfunktion gegeben ist. Wenn eine Apertur als eine kreisförmige Apertur gegeben ist, kann ein OTF auf der Brennebene durch eine Autokorrelation (2) einer Pupil­ lenfunktion ausgedrückt werden, die sich durch die fol­ gende Gleichung (1) ergibt:
wobei (x, y) eine Koordinatenachse ist, wenn die Pupil­ lenebene durch ein rechtwinkeliges Koordinatensystem ausgedrückt wird und (r, θ) eine Radialkomponente und eine Winkelkomponente ist, wenn die Pupillenebene durch ein zylindrisches Koordinatensystem ausgedrückt wird.
wobei a0 eine Pupillengröße ist, welche beispielsweise als Radius einer Linsenapertur angenommen werden kann. Wenn die Apertur kreisförmig ist, kann θ weggelassen werden, da keine Winkelrichtung in den Berechnungen vorkommt. Ein OTF für einen Brennpunktsfehler wird durch eine Auto-Korrektur der allgemeinen Pupillenfunktion vertreten und ergibt sich wie die folgende Gleichung (3):
P(x, y) = P(r, θ)
= P(r)exp[jkW(r; z)] (3)
wobei k = 2π/λ die Anzahl der Wellen ist; W(r; z) die Wellenoberflächeaberration ist, welche sich durch eine Differenz zwischen einer Wellenoberfläche W1 von Licht fokussiert auf einer gegebenen Objektebene und einer Wellenoberfläche W2 mit einem Defokussierungsbetrag auf der Pupillenebene ergibt; und z Koordinaten auf der op­ tischen Achse anzeigt, welche einen Defokussierungsbe­ trag von einer Fokallage bei einer In-Fokus-Position mit z = 0 ergibt. Die Wellenoberflächenaberration W(r; z) kann in einem Paraxialbereich wie folgt angenähert wer­ den:
W(r; z) = r2.z/(2.f2) (4)
Wenn eine Linsenapertur groß ist, kann die Wellenober­ flächenaberration wie folgt ausgedrückt werden:
W(r; z) = r2.z/[2(f2 + r2)] (5)
wobei f die Brennweite der Linse ist. In diesem Fall wird angenommen, daß f << z ist.
Fig. 10 zeigt die geometrische Beziehung die sich aus dem oben gesagten ergibt. Ein OTF für einen gegebenen Defokussierungsbetrag z kann erhalten werden.
Die Fig. 11A bis 11D zeigen Verfahren zur Erhaltung ei­ nes Rückgewinnungsfilters auf der Grundlage des erhal­ tenen OTF. Der Wert z wird auf der Grundlage der fest­ gesetzten Bedingungen verändert, um OTFs zu erhalten, wie in Fig. 11A dargestellt. Diese OTFs werden mitei­ nander addiert, um ein zusammengesetztes OTF zu erhal­ ten, wie in Fig. 11B dargestellt. Ein Rückgewinnungs­ filter wird so ausgewählt, daß das zusammengesetzte OTF zu einem OTF für einen korrekten Brennpunkt wird, wie in Fig. 11C dargestellt. Wenn ein OTF für einen korrekten Brennpunkt zu
H(u, v) = H(µ, ϕ) = H(µ)
gegeben ist und ein OTF für einen inkorrekten Brennpunkt als H0(µ) gegeben ist, wird ein Rückgewinnungsfilter V(µ) wie folgt ausgedrückt:
V(µ) = H0(µ)/H(µ) (6)
Fig. 11D zeigt das Rückgewinnungsfilter V(µ). (u, v) sind Ortsfrequenzkoordinaten ausgedrückt durch ein rechtwin­ keliges Koordinatensystem und (µ, ϕ) sind Ortsfrequenz­ koordinaten ausgedrückt in einem zylindrischen Koordi­ natensystem. Wenn die Apertur kreisförmig ist, wird nur die radiale Ortsfrequenz µ verwendet, da die Berechnun­ gen nicht von der Winkelrichtung abhängig sind.
Wenn ein Objekt auf einen gewissen Betrag begrenzt wer­ den kann, kann die statistische Art des Bildes vorher­ gesagt werden und die Art des Rauschens ist ebenfalls bekannt, so daß ein Wien'sches Filter als Rückgewin­ nungsfilter verwendet werden kann. Einflüsse von Rau­ schen können verringert werden unter Verwendung des folgenden Wien'schen Filters:
W(µ) = [H0(µ).|H(µ)2]/H(µ){|H(µ)|2 + Snn(µ)/Sgg(µ)}] (7)
wobei Snn(µ) das Energiespektrum des Rauschens ist und Sgg(µ) das Energiespektrum des Bildes ist. Das folgende Filter kann als ein Pseudo-Wien'sches Filter definiert werden und ein Parameter P kann geeignet gesetzt wer­ den:
W'(µ) = [H0(µ).|H(µ)|2]/[H(µ){|H(µ)|2 + P}] (8)
Ein Verfahren zur experimentellen Bestimmung eines Rückgewinnungsfilters wird nun im folgenden beschrieben. Ein Testbild mit einer ausreichend flachen Oberfläche wird in einer festgelegten Position angeordnet und Bil­ der werden mit vorgewählten Bedingungen eingegeben, während die In-Fokus-Position geändert wird. Die einge­ gebenen Bilder werden dann addiert. Ein auf die Ober­ fläche des Testbildes fokussiertes Bild wird ebenfalls eingegeben. Die Summe der eingegebenen Bilder während der Änderung der In-Fokus-Position wird von einem geeig­ neten Rückgewinnungsfilter ausgefiltert. Das gefilterte Bild wird mit dem auf das Testbild fokussierte Bild verglichen. Das Rückgewinnungsfilter wird einjustiert, um das Summenbild und das auf das Testbild fokussierte Bild gleich zu machen und dann werden diese Bilder wie­ der miteinander verglichen. Diese Läufe werden wieder­ holt, um ein geeignetes Rückgewinnungsfilter zu erhal­ ten. Dieses Verfahren ist sehr effektiv und in der Pra­ xis gut anwendbar.
Oben wurden Verfahren zur Erhaltung der Gewinnungsfilter mittels Simulation und Experiment beschrieben. Das Rückgewinnungsfilter muß nicht die Frequenzcharakteri­ stiken entsprechend dem In-Fokus-Zustand rückgewinnen. Beispielsweise kann das Rückgewinnungsfilter so betrie­ ben werden, daß eine Betonung, z. B. einer Hochfre­ quenzkomponente erhalten wird, um einen besseren Kon­ trast zu gewinnen. Im Gegensatz hierzu kann das Rückge­ winnungsfilter so betrieben werden, daß ein Bild mit einem guten Weichfokus-Effekt (soft focus effekt) erhalten wird.
(Siebte Ausführungsform)
Fig. 12 zeigt die Anordnung einer siebten Ausführungs­ form der vorliegenden Erfindung. Diese Ausführungsform stellt beispielshaft die Anwendung der vorliegenden Er­ findung (insbesondere deren zweiter Ausführungsform) bei einem Reflektionsmikroskop dar. Gemäß Fig. 12 wird Licht von einer Beleuchtungsquelle 100 emittiert, von einer Beleuchtungsanordnung 101 nach unten geführt und durch eine Objektivlinse 102 auf die Oberfläche einer zu un­ tersuchenden Probe abgestrahlt. Ein von der Probe re­ flektiertes Bild des Lichtes wird von der Objektivlinse 102 fokussiert und von einer TV-Kamera 104 dargestellt, welche am oberen Ende eines Linsentubus 103 angeordnet ist. In diesem Falle wird eine In-Fokus-Ebene für die Probe kontinuierlich von einem Fokuspegeltreiber 105 geändert, was innerhalb einer festgelegten Zeitdauer erfolgt. Die eingegebenen Bilder während dieser Zeit­ dauer werden in einem lichtempfangenen Element der TV-Kamera 104 akkumuliert. Die Probe wird von einem X-Y-Kontroller 106 in X und Y-Richtungen bewegt. Die innerhalb der festgelegten Zeitdauer abgespeicherten Bilder werden von einem Leser in der Kamera 104 ausge­ lesen und als elektrisches Signal einem Kameratreiber 107 übertragen. Der Kameratreiber 107 steuert auch die Energiezufuhr oder dergleichen zu der Kamera 104. Ein zu dem Kameratreiber 107 übertragenes Bildsignal wird weiterhin einem Prozessor 108 zugeführt. Der Prozessor 108 weist unter anderem einen A/D-Wandler, einen Bild­ speicher, eine Rückgewinnungs-Verarbeitungseinheit und einen D/A-Wandler auf. Der Prozessor 108 führt eine geeignete Rückgewinnungsverarbeitung des Bildsignals durch. Das verarbeitete Ergebnis wird einem TV-Monitor 109 zugeführt und auf diesem dargestellt. Die obigen Abläufe werden wiederholt durchgeführt für verschiedene Bereiche zu untersuchenden Probe und der Steuerung des X-Y-Kontrollers 106 und die verarbeiteten Ergebnisse werden sequentiell angezeigt. Das Mikroskop bei dieser Ausführungsform wird im wesentlichen vollständig von einer Steuerung 110 gesteuert und Betriebsbedingungen werden von einer Beobachtungsperson über ein Interface 111, wie beispielsweise einer Tastatur oder dergleichen eingegeben.
Bei dieser Ausführungsform kann die Synthetisierung von Bildern mit großen Brennpunktsabständen relativ leicht durchgeführt werden, während Auflösung und Helligkeit des Objektes im Mikroskop aufrechterhalten werden. Wenn mit dem Mikroskop eine sehr kleine Struktur untersucht werden soll, muß eine Objektivlinse mit einer hohen Vergrößerung verwendet werden. Im allgemeinen, je hoher die Vergrößerung wird, umso größer wird die numerische Apertur und umso geringer wird der Brennpunktsabstand. In diesem Fall kann diese Ausführungsform als eine ef­ fektive Maßnahme zur Anzeige eines Bildes mit einem ge­ ringen Brennpunktsabstand verwendet werden. Insbesonde­ re, wenn der Fokuspegeltreiber 105 und der Prozessor 108 mit hoher Geschwindigkeit betrieben werden, kann ein Bild in Echtzeit dargestellt werden, so daß die Vor­ richtung in der Praxis sehr effizient ist. Die Anordnung der vorliegenden Erfindung kann in einer Mehrzahl von Anwendungsfällen bei der Beobachtung verschiedener Arten von Objekten verwendet werden, beispielsweise in der Mineralogie, der Papiertechnik, der Fasertechnik, bei lebenden Organismen oder beim Test von integrierten Schaltkreisen oder großen integrierten Strukturen.
Die Erläuterung dieser Ausführungsform erfolgt anhand eines Reflektionsmikroskopes. Die vorliegende Erfindung ist jedoch auch bei einem Transmissionsmikroskop mög­ lich, sowie bei einem Fluoreszenzmikroskop oder der­ gleichen. In dem Prozessor 108 kann ein Addierer vorge­ sehen sein, um die Bilder einzugeben und zu addieren, ähnlich wie in der ersten Ausführungsform der vorlie­ genden Erfindung.
(Achte Ausführungsform)
Die Fig. 13A bis 13C zeigen in ihrer Gesamtheit eine achte Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform veranschaulicht die Anwendung der vor­ liegenden Erfindung bei einem oberflächensequentiellen elektronischen Endoskop. Gemäß den Fig. 13A bis 13C weist die Vorrichtung im wesentlichen eine Endoskopsonde 200, eine Bildeingabeeinheit 201, eine Farbfehlausrich­ tung-Korrektureinheit 202, einen Farbinformationsauf­ zeichner 203, eine Brennpunktsabstand-Erhöhungseinheit 204, eine Bildanzeigeeinheit 205 und eine Steuerung 206 auf.
Eine monochromatische Bildaufnahmevorrichtung auf Halb­ leiterbasis, wie beispielsweise eine CCD ist am distalen Ende der Endoskopsonde 200 angeordnet und nimmt ein Bild auf, das von einer Objektivlinse auf einen In-Fokus-Po­ sitionssteuerer 211 fokussiert wird. In diesem Falle wird ein Illuminationslicht wie folgt emittiert: Licht von einer weißen Beleuchtungsquelle 212, wie beispiels­ weise einer Xe-Lampe in der Bildeingabeeinheit 201 läuft durch einen drehenden Farbfilter 213 und wird durch eine Lichtquelle 214, wie einer optischen Faser oder dergl. durch die Endoskopsonde 200 geführt. Das Licht wird dann vom distalen Ende der Sonde abgestrahlt.
Fig. 14 zeigt eine Draufsicht auf den Aufbau des dre­ henden Farbfilters 213. Gemäß Fig. 14 sind Transmis­ sions-Filterelemente 213R, 213G und 213B umfangsseitig abwechselnd angeordnet und haben die Farben rot (R), grün (G) und blau (B).
Wieder unter Bezugnahme auf die Fig. 13A bis C, wird das drehende Farbfilter 213 von einem Motor 213M in der Bildeingabeeinheit 201 angetrieben, so daß das Beleuch­ tungslicht sequentiell in der Reihenfolge von R, G und B geändert wird. Aus diesem Grund erzeugt eine Abbil­ dungsvorrichtung 210 ein monochromatisches Bild des Ob­ jektes in der Reihenfolge der oben erwähnten Farben. Ein Ausgangsbildsignal von der Abbildungsvorrichtung 210 wird von einem A/D-Wandler 215 in der Bildeingabeeinheit 201 in ein digitales Signal umgesetzt und die digitalen Signale werden in entsprechenden Bereichen eines Rah­ menbildspeichers 217 (frame memory) mittels eines Se­ lektors in den einzelnen Farbkomponenten R, G und B ab­ gespeichert. Die beschriebenen Abläufe werden von einer Bildeingabesteuerung 218 gesteuert. Von den Primärfarb­ bildern, die sequentiell in den entsprechenden Bereichen des Bildspeichers 217 gespeichert sind, werden die Kom­ ponenten R und G oder die Komponenten G und B von einem weiteren Selektor 219 ausgewählt. Die Ausgangssignale des Selektors 219 werden der Farbfehlausrichtung-Kor­ rektureinheit 202 zugeführt und einem Detektor 220 für den einem Primärbild entsprechenden Bereich zugeführt. Der Fehlausrichtungsbetrag des Bildes R oder B bezüglich des Bildes G wird von dem Detektor 220 lokal erfaßt. Ein Adressengenerator 221 erzeugt ein Adressensignal zur Korrektur der Bilder R und B auf der Grundlage des Fehl­ ausrichtungsbetrages, der von dem Detektor 220 berechnet wurde. Dieses Adressensignal wird dem Rahmenbildspeicher 217 zugeführt. Der Rahmenbildspeicher 217 korrigiert die Bilder R und B unter Verwendung des Adressensignales und eines Pufferspeichers.
Ein Farbbild, das so erhalten wurde, wird dem Farbin­ formationsaufzeichner 203 über den Selektor 219 zuge­ führt. Das dem Informationsaufzeichner 203 zugeführte Farbbild wird den entsprechenden Farbkomponenten mittels eines Addierers 222 hinzuaddiert, wodurch ein Hellig­ keitswert Y = R + G + B berechnet wird. Die Farbkompo­ nentenwerte R, G und B werden mittels Teilern 223-1 bis 223-3 durch den Helligkeitswert Y dividiert. Die Quo­ tienten R/Y, G/Y und B/Y werden in entsprechenden Spei­ chern 224-1 bis 224-3 abgespeichert.
Die in dem Speicher 217 in der Bildeingabeeinheit 201 abgespeicherten Bilder R, G und B werden der Brennpunkt­ abstands-Erhöhungseinheit 204 zugeführt und durch einen Addierer 225 miteinander addiert. Die Summe wird in ei­ nem weiteren Rahmenbildspeicher 226 gespeichert. Das in dem Rahmenbildspeicher 226 gespeicherte Bild wird einer Rückgewinnungs-Verarbeitung mittels einer Rückgewin­ nungsverarbeitungseinheit 227 unterworfen. Ein Prozeßer­ gebnis von der Rückgewinnungs-Verarbeitungseinheit 227 wird wieder in dem Rahmenbildspeicher 226 gespeichert.
Das in dem Speicher 226 gespeichert Bild wird dann dem Farbinformationsaufzeichner 203 zugeführt.
Das dem Farbinformationsaufzeichner 203 zugeführte Bildsignal und die in den Speichern 224-1 bis 224-3 ge­ speicherten Farbinformationen werden durch Multiplizie­ rer 228-1 bis 228-3 in Farbkomponenten-Einheiten multi­ pliziert. Die Produkte von den Multiplizierern 228-1 bis 228-3 werden dann der Bildanzeigeeinheit 205 zugeführt.
Die von den Multiplizierern 228-1 bis 228-3 der Bildan­ zeigeeinheit 205 zugeführten Signale werden von D/A- Wandlern 229-1 bis 229-3 in Analogsignale umgesetzt. Diese Analogsignale werden dann auf einem TV-Monitor 230 angezeigt. Die Bildverarbeitungs- und Anzeigeeinheiten werden von der Steuerung 206 gesteuert.
Diese Ausführungsform verwendet die starke Korrelation zwischen den drei Primärfarbbildern (R, G und B) und der Bilddefokussierung, welche in den meisten Fällen abhän­ gig ist von der Helligkeit der Farbinformation. Wenn die vorliegende Erfindung bei einem oberflächensequentiellen elektronischen Endoskop angewandt wird, werden Bilder mit verschiedenen In-Fokus-Positionen in Einheiten der Primärfarbbilder eingegeben und addiert und das synthe­ tisierte Bild wird dem Rückgewinnungsprozeß unterworfen. Die Arbeitsweise dieser Ausführungsform wird im folgen­ den beschrieben. Farbbilder R, G und B werden sequen­ tiell von der Bildeingabeeinheit 201 eingegeben. Wenn in diesem Falle die Endoskopsonde 200 selbst abrupt bewegt wird, weichen die Relativlagen der entsprechenden Pri­ märbilder voneinander ab, so daß eine sogenannte Farb- Fehlausrichtung entsteht. Die Farbfehlausrichtung-Kor­ rektureinheit 202 erhält Fehlausrichtungs-Beträge der Bilder R und B bezüglich des Bildes G durch Berechnung von Anpassungswerten der lokalen und partiellen Bilder.
Die Bilder R und B werden auf der Grundlage der Farb­ fehlausrichtungs-Beträge korrigiert. Ein Farbbild bei einer vorgegebenen In-Fokus-Position wird durch das er­ wähnte Verfahren eingegeben. In diesem Zustand werden die Werte R, G und B durch den Helligkeitswert Y = R + G + B von dem Farbinformationsaufzeichner 203 normali­ siert. Die resultierenden Daten R/Y, G/Y und B/Y werden aufgezeichnet. Wenn eine Mehrzahl von Primärfarbbildern mit unterschiedlichen In-Fokus-Positionen eingegeben wird, werden diese Bilder einer Farbfehlausrichtungs- Korrektur unterworfen und dann miteinander addiert. Die Summe der Bilddaten wird dann dem Rückgewinnungs-Prozeß unterworfen, so daß ein Bild mit einer Helligkeit Y' und einem hohen Brennpunktsabstand erhalten werden kann. Schließlich wird das Bild Y' mit den Farbdaten R/Y, G/Y und B/Y multipliziert, um ein Farbbild mit einem hohen Brennpunktsabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein Bild mit einem hohen Brennpunktsabstand relativ leicht als En­ doskopbild erhalten werden kann. Eine Objektivlinse mit einer großen numerischen Apertur kann verwendet werden, so daß die Leistung der Beleuchtungslichtquelle verrin­ gert werden kann. Wenn zusätzlich die erwähnte Objek­ tivlinse verwendet wird, kann die optische Speicherzeit der Abbildungsvorrichtung verkürzt werden, so daß Ein­ flüsse hinsichtlich einer Farbfehlausrichtung minimiert werden.
Bei der beschriebenen Ausführungsform kann die folgende Modifikation zur Anwendung gelangen: Bilder R, G und B, die sequentiell eingegeben werden, werden zu dem synthetisierten Bild hinzuaddiert, das in dem Rahmen­ bildspeicher 226 gespeichert ist. Auf diese Weise können Bilder mit drei oder mehr unterschiedlichen In-Fokus-Po­ sitionen verwendet werden, um ein Bild mit einem großen Brennpunktsabstand zu erhalten. In diesem Falle wird eine Lageabweichung zwischen dem Bild in dem Rahmen­ bildspeicher 226 und einem neu eingegebenen Bild G durch die Korrektureinheit 202 korrigiert. Wenn eine Bildein­ gabe mit hoher Geschwindigkeit durchgeführt werden kann und die Farbabweichung vernachlässigbar ist, kann auf die Farbfehlausrichtung-Korrektureinheit 202 verzichtet werden. Weiterhin werden die entsprechenden Primärfarb­ bilder eingegeben und addiert in der gleichen Weise wie in der ersten oder zweiten Ausführungsform, um ein Bild mit großem Brennpunktabstand in Einheiten der Primär­ farbkomponenten zu erhalten.
(Neunte Ausführungsform)
Fig. 15 zeigt eine neunte Ausführungsform der vorlie­ genden Erfindung. Diese Ausführungsform veranschaulicht ein elektronisches Endoskop mit einer Farbbild-Abbil­ dungsvorrichtung des Single-Plate-Typs. Gemäß Fig. 15 weist eine Abbildungsvorrichtung 302 auf Halbleiterbasis eine lichtempfindliche Oberfläche auf, welche mit einem Farbmosaikfilter 301 bestehend aus R, G und B Filterele­ menten abgedeckt ist und welche am distalen Ende einer Endoskopsonde 300 angeordnet ist. Ein von einer Objek­ tivlinse in einer Brennpunktlagensteuerung 303 fokus­ siertes Bild wird von der Abbildungsvorrichtung 302 dargestellt. In diesem Falle wird ein Beleuchtungslicht wie folgt erhalten: Licht von einer Weißlichtquelle 305 in der Vorrichtung wird in die Endoskopsonde 300 mittels eines Lichtleiters 304 geführt und vom distalen Ende der Sonde abgestrahlt. Ein Ausgangssignal von der Abbil­ dungsvorrichtung 302 wird in die Vorrichtung geführt und in Signale R, G und B mittels eines Farbtrennschalt­ kreises 306 geteilt. In dieser Ausführungsform wird an­ genommen, daß das Farbmosaikfilter 301 Filterelemente R, G und B hat. Das Farbmosaikfilter 301 kann jedoch auch Komplementärfarbfilterelemente (z. B. Cyan und Gelb) ha­ ben. In jedem Fall wird das durch das Farbmosaikfilter 301 erhaltene Farbsignal von dem Farbtrennschaltkreis 306 getrennt. Die abgetrennten Signale R, G und B werden in einen Matrixschaltkreis 307 eingegeben und in Signale Y, R-Y und B-Y gewandelt. Die Signale Y, R-Y und B-Y werden von A/D-Wandlern 308-1 bis 308-3 in Digitalsi­ gnale umgesetzt. Diese digitalen Signale werden in Rah­ menbildspeichern 310-1 bis 310-3 gespeichert. In diesem Falle werden die digitalen Signale zu Signalen hinzuad­ diert, die bereits in den Speichern 310-1 bis 310-3 aufgezeichnet sind, was durch Addierer 309-1 bis 309-3 erfolgt. Mit anderen Worten, eine akkumulative Addi­ tion/Aufzeichnung wird durchgeführt. Bei dieser Anord­ nung werden die Bilder mit unterschiedlichen In-Fokus- Positionen eingegeben und miteinander addiert, was unter Steuerung der Brennpunktlagensteuerung 303 in der En­ doskopsonde 300 erfolgt.
Das Bildsignal Y in dem Bildrahmenspeicher 310-1 wird einem Rückgewinnungsvorgang mittels einer Rückgewin­ nungs-Verarbeitungseinheit 311 unterworfen. Das so zu­ rückgewonnene Signal wird wieder in dem Speicher 310-1 gespeichert. Darauffolgend werden die entsprechenden Signale in den Rahmenbildspeichern 310-1 bis 310-3 durch D/A-Wandler 312-1 bis 312-3 in Analogsignale umgesetzt. Die Analogsignale werden in ein NTSC-Signal durch einen NTSC-Encoder 313 gewandelt. Das NTSC-Signal wird auf einem TV-Monitor 314 angezeigt. Die erwähnten Prozeßab­ läufe werden von einer Steuerung 315 überwacht und ge­ steuert.
Bei dieser Ausführungsform wird die Helligkeitskompo­ nente Y des endoskopischen Bildes von der Abbildungs­ vorrichtung 302 unter Verwendung des Farbmosaikfilters 301 extrahiert, wonach eine Prozeßverarbeitung abläuft, um den Brennpunktsabstand zu erhöhen. Danach wird die durchschnittliche Farbinformation addiert, um ein Farb­ bild zu reproduzieren und anzuzeigen. Genauer gesagt, die Helligkeitskomponenten Y der Bilder an unterschied­ lichen Brennpunktslagen werden von der Brennpunktsla­ gensteuerung 303 in der Endoskopsonde 300 gesteuert und akkumulativ addiert und von dem Addierer 309-1 und Speicher 310-1 addiert und aufgezeichnet. Die Rückge­ winnungs-Filterverarbeitung des aufgezeichneten Bildes wird von der Verarbeitungseinheit 311 durchgeführt, so daß der Brennpunktsabstand erhöht wird. Zwischenzeitlich wurden die Signale R-Y und B-Y als Farbkomponenten ak­ kumuliert, addiert und aufgezeichnet durch den Addierer 309-2 und den Speicher 310-2 bzw. den Addierer 309-3 und den Speicher 310-3, so daß Durchschnittsfarbdaten zwi­ schen Bildern unterschiedlicher Brennpunktslagen erhal­ ten wurden. Diese Daten werden addiert und als ein NTSC-Signal ausgegeben. Daher kann ein Farbbild mit ei­ nem hohen Brennpunktsabstand erhalten werden. Eine De­ fokussierung verursacht durch eine Außerbrennpunktslage hängt zumeist von der Helligkeitskomponente ab und leichte Defokussierung berührt das Bild nicht in einer negativen Art und Weise. Somit kann durch Durchführung der oben erwähnten Prozeßabläufe das vorgewählte Objekt befriedigend dargestellt werden. Bei dieser Ausfüh­ rungsform kann der gleiche Effekt wie in der achten Ausführungsform bei einem elektronischen Endoskop mit eine Farbabbildungsvorrichtung erhalten werden.
(Zehnte Ausführungsform)
Fig. 16 zeigt eine zehnte Ausführungsform der vorlie­ genden Erfindung. Diese Ausführungsform verwendet eben­ falls ein elektronisches Endoskop mit einer Farb-Bild­ erzeugungsvorrichtung des Single-Plate-Typs, wie in der neunten Ausführungsform. Gemäß Fig. 16 sind der Aufbau der Endoskopsonde 300 und die Anordnung der Weißlicht­ quelle 305 gleich wie in der neunten Ausführungsform. Ein Signal von der Abbildungsvorrichtung 302 wird durch den Farbtrennschaltkreis 306 in Signale R, G und B ge­ trennt. Die farbgetrennten Signale werden durch den Ma­ trixschaltkreis 307 in Signale Y, R-Y und B-Y konver­ tiert. Die Signale Y, R-Y und B-Y werden von dem NTSC-Encoder 313 in NTSC-Signale konvertiert. Dieses NTSC-Signal wird dann durch den A/D-Wandler 308 in ein digitales Signal umgesetzt. Dieses digitale Signal wird durch einen Addierer 316 zu einem Signal hinzuaddiert, das bereits in einem Rahmenbildspeicher 318 vorgespei­ chert ist. Diese Summe wird dann in dem Rahmenbildspei­ cher 318 wieder über einen Selektor 317 aufgezeichnet. Mit dieser Anordnung werden Bilder mit unterschiedlichen Brennpunktlagen, gesetzt durch die Brennpunktlagen­ steuerung 303 in der Endoskopsonde 300 eingegeben und miteinander addiert. Nur das Signal Y von dem Bildsi­ gnal, d. h. dem digitalen NTSC-Signal entsprechend dem synthetisierten Bild in dem Bildrahmenspeicher 318 wird extrahiert. Das extrahierte Signal Y wird durch eine RückgewinnungsVerarbeitungseinheit 320 einem geeigneten Rückgewinnungsprozeß unterworfen, um eine räumliche Filterung mittels eines kanalisierten Schemas (pipelined scheme) durchzuführen. Das rückgewonnene Y-Signal wird von einem Addierer 321 dem originalen NTSC-Signal hin­ zuaddiert, wobei die zeitliche Steuerung von einem Ver­ zögerungsschaltkreis 322 eingestellt wird, so daß ein NTSC-Signal mit einem großen Brennpunktsabstand erhalten wird. Das NTSC-Signal wird in dem Rahmenbildspeicher 318 über den Selektor 317 gespeichert. Das verarbeitete Bild in dem Bildrahmenspeicher 318 wird von dem D/A-Wandler 312 in ein Analogsignal umgesetzt und dieses Analogsi­ gnal wird auf dem TV-Monitor 314 dargestellt. Die oben beschriebenen Abläufe werden von der Steuerung 315 ge­ steuert.
Die Farbbildsignale, die in der NTSC-Signal umgewandelt wurden, werden eingegeben und miteinander addiert unter Verwendung eines Rahmenbildspeichers. Der gleiche Effekt wie in der neunten Ausführungsform kann erhalten werden, wobei jedoch die Vorrichtungsgröße reduziert werden kann.
(Elfte Ausführungsform)
Fig. 17 zeigt eine elfte Ausführungsform der vorliegen­ den Erfindung. Diese Ausführungsform verwendet ein En­ doskop (Fibroskop) mit einem optischen Faserbündel. Ge­ mäß Fig. 17 weist eine Endoskopsonde 400 eine In-Fo­ kus-Positionssteuerung 401 und einen Bildleiter 402 auf. Die Positionssteuerung 401 umfaßt eine Objektivlinse und einen Treiber zur kontinuierlichen Änderung der In-Fo­ kus-Position. Der Bildleiter 402 ist aus einem optischen Faserbündel aufgebaut. Die Endoskopsonde 400 überträgt optisch das Bild. In diesem Falle wird ein Beleuch­ tungslicht wie folgt emittiert: Weißlicht von einer Be­ leuchtungseinrichtung 404 wird in die Endoskopsonde 400 mittels eines Lichtleiter 403 emittiert und vom distalen Ende der Sonde als Ausgangslicht abgestrahlt. Eine Ka­ mera 405 ist am oberen Ende der Endoskopsonde 400 an­ geordnet. Die Kamera 405 zeichnet ein Bild auf, welches durch den Bildleiter 402 übertragen wurde, wobei die Aufzeichnung auf einem Silberchloridfilm erfolgt. Wenn bei dieser Anordnung die In-Fokus-Position kontinuier­ lich durch die Positionssteuerung 401 geändert wird, werden die Bilder in der Kamera 405 auf dem Silberchlo­ ridfilm addiert und aufgezeichnet.
Fig. 18 zeigt eine Anordnung einer Vorrichtung zum op­ tischen Rückgewinnen der auf dem Silberchloridfilm auf­ gezeichneten Bilder. Eine Multispektrum-Beleuchtungs­ quelle 500 ist eine Weißlichtquelle mit einem gleichmä­ ßigen Spektrum in dem sichtbaren Lichtbereich oder eine Lichtquelle zur Erzeugung eines Mischlichtes der drei Primärfarben (R, G und B) oder von Lichtstrahlen mit unterschiedlichen Wellenlängenbereichen in Zeitinter­ vallen. Licht von der Beleuchtungsquelle 500 wird auf einen Schlitz 502 mittels einer Kollimatorlinse 501 fo­ kussiert und dient als annähernde Punktlichtquelle. Licht, das durch den Schlitz 502 läuft, wird durch eine Linse 503 zu einem parallelen Lichtbündel und fällt auf einen Farbfilm 504, auf den die Bilder der Kamera 405 aufgezeichnet sind. Das Licht, welches durch den Farb­ film 504 hindurchtritt, wird von einer Linse 505 fokus­ siert. Das fokussierte Licht wird durch ein Farb-Orts­ frequenzfilter 506 in der Brennpunktebene der Linse 505 geeignet gefiltert. Das gefilterte Licht wird von einer Linse 507 kollimiert und somit das Bild reproduziert. Das reproduzierte Bild wird mittels einer Kamera 508 auf dem Silberchloridfilm aufgezeichnet. Das reproduzierte Bild kann auch in ein elektrisches Signal gewandelt werden und in einem Speicher aufgezeichnet werden.
In dieser Ausführungsform werden die eingegebenen Bilder wie in der zweiten Ausführungsform überlagert und auf dem Silberchloridfilm aufgezeichnet. Die auf dem Farb­ silberchloridfilm aufgezeichneten Bilder werden dann einer Rückgewinnungsfilterung durch ein optisches System unterworfen, das in Fig. 18 dargestellt ist.
Der optische Rückgewinnungsvorgang gemäß Fig. 18 wird nun im folgenden erläutert. Ein auf dem Farbfilm 104 aufgezeichnetes endoskopisches Bild wird durch die Linse 505 optisch einer Fourier-Transformation unterworfen und von dem Frequenzfilter 506 bei einer geeigneten Orts­ frequenz gefiltert. Ein von dem Fibroskop erhaltenes Bild besteht im allgemeinen aus Pixeln, welche den ein­ zelnen optischen Fasern entsprechen. Daher hat das Bild eine netzartige Struktur, wie in Fig. 19 dargestellt. Eine Rückgewinnungsfilterung des Ortsfrequenzfilters 506 und eine Elimination der Netz- oder Rasterstruktur 510 werden gleichzeitig durchgeführt. Ein Fourier-Spektrum eines Fibroskopbildes, das in einer Brennpunktsebene der Linse 505 erscheint, ist in Fig. 20 dargestellt. Ein Spektrum 511 nullter Ordnung des Bildes selbst erscheint im Mittenbereich und Spektren 512 höherer Ordnung, wel­ che von der optischen Faseranordnung entspringen, er­ scheinen im Umfangsbereich. Gemäß Fig. 21 ist ein Filter 520 mit einer Amplituden-Durchlässigkeit angeordnet, um einen Rückgewinnungsvorgang des Spektrums 511 nullter Ordnung in dem Mittenbereich 521 durchzuführen und um die Spektren 512 höherer Ordnung am Umfangsbereich 522 abzuschneiden, wobei dieses Filter als Filter 506 ver­ wendet wird. Mit dieser Anordnung kann ein Bild mit ei­ nem hohen Brennpunktsabstand und ohne die Netz- oder Rasterstruktur 510 wiedergegeben werden. Da das Rückge­ winnungsfilter keine maximale Amplitudendurchlässigkeit von 1 oder mehr haben muß, kann das Rückgewinnungsfilter so ausgelegt sein, daß die Amplitudendurchlässigkeit in einem niederen Ortsfrequenzbereich relativ limitiert wird. Da die Multispektrum-Beleuchtungsquelle in Fig. 18 verwendet wird, sind die Spektren der Linse 505 in der Brennpunktebene unterschiedlich in ihren Lagen abhängig von den Wellenlängen. Das Farb-Ortsfrequenzfilter 506 ist aus einem Farbumkehrfilm gebildet, der eine Spek­ tralcharakteristik hat, die es erlaubt, daß die entspre­ chenden Spektren ausreichend ausgefiltert werden.
Ein Verfahren zu optischen Durchführung des Rückgewin­ nungsvorganges gemäß dieser Ausführungsform ist im De­ tail in der JP-OS 61-227454 beschrieben.
Bei dieser Ausführungsform wird ein Fibroskopbild mit einem größeren Brennpunktsabstand durch eine relativ einfache Anordnung reproduziert. Auf gleiche Weise wie in der achten Ausführungsform kann die Leistung der Be­ leuchtungslichtquelle reduziert werden. Bei dieser Aus­ führungsform wird das Bild des Fibroskopes auf einem Silberchloridfilm durch die Kamera 405 aufgezeichnet. Es kann jedoch anstelle der Kamera 405 auch eine TV-Kamera verwendet werden, um ein Signal elektronisch zu verar­ beiten und das Bild aufzuzeichnen. Genauer gesagt, das von der TV-Kamera erhaltene Bild kann durch einen A/D- Wandler in ein Digitalsignal mit einer Abtasthöhe ge­ wandelt werden, die ausreichend kleiner ist als die der Netz- oder Rasterstruktur des Fibroskops. Für das digi­ tale Bild können dann die gleichen Verarbeitungen wie in der beschriebenen Ausführungsform durchgeführt werden.
(Zwölfte Ausführungsform)
Fig. 22 zeigt eine zwölfte Ausführungsform der vorlie­ genden Erfindung. Diese Ausführungsform verwendet eine elektronische Kamera, welche wiederum die vorliegende Erfindung verwendet. Diese Ausführungsform entspricht einer Anordnung, in welcher die Bildeingabeeinheit und die Bildverarbeitungseinheit gemäß der dritten Ausfüh­ rungsform über ein Aufzeichnungsmedium off-line verbun­ den sind. Gemäß Fig. 22 wird eine Mehrzahl von Bildern, die durch eine elektronische Kamera erhalten werden und in verschiedenen Brennpunkten fokussiert sind, der Ka­ mera 600 als elektrische Signale eingegeben. Alle ein­ gegebenen elektrischen Signale werden in einem Auf­ zeichnungsmedium 601 in der Kamera 600 aufgezeichnet. Das Aufzeichnungsmedium 601 ist eine floppy disk, ein Magnetband, ein optischer Speicher, ein Speicher auf Halbleiterbasis mit einem Halbleiter-IC oder einem Dünnfilm oder dergl. Die auf dem Aufzeichnungsmedium 601 aufgezeichneten Bildsignale werden von einem Leser 602 gelesen. Die auf dem Bildaufzeichnungsmedium aufge­ zeichneten Bildsignale sind Analogsignale. Ein A/D-Wand­ ler ist in dem Leser 602 angeordnet, um die Bildsignale in ein digitales Signal zu wandeln. Ein Prozessor 603 enthält die Speicher 5-1 bis 5-m, den Adressenkompensa­ tor 12, den Selektor 13, den Addierer 14, den Speicher 15, die Rückgewinnungs-Verarbeitungseinheit 7, den D/A-Wandler 8 und die Steuerung 10, die bereits unter Bezugnahme der dritten Ausführungsform in Fig. 3 be­ schrieben wurden. Die gleiche Verarbeitung wie in der dritten Ausführungsform wird auch für ein digitales Bildsignal durchgeführt, das von dem Leser 602 in dem Prozessor 603 übertragen worden ist. Das verarbeitete Bildsignal wird einem TV-Monitor 604 übertragen und dort angezeigt. Die verschiedenen Bearbeitungszustände des Prozessors 603 werden von einer Beobachtungsperson an einem geeigneten Interface, wie beispielsweise einer Tastatur 605 festgesetzt, welche mit einer Steuerung in dem Prozessor 603 verbunden ist.
Bei dieser Ausführungsform wird die Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen, die durch die elektronische Kamera 600 abgebildet werden, erhalten, um den gleichen Effekt wie in der dritten Ausführungsform zu erzielen. Diese Ausführungsform verwendet die elek­ tronische Kamera 600, welche wiederum in der dritten Ausführungsform verwendet wird. Es kann jedoch jede der ersten, zweiten, vierten, fünften und sechsten Ausfüh­ rungsformen mit dieser Ausführungsform kombiniert wer­ den. D. h., die Bilder mit unterschiedlichen In-Fokus-Po­ sitionen in der Kamera werden eingegeben und miteinander addiert und das synthetisierte Bild wird auf einem Auf­ zeichnungsmedium abgespeichert. Nur die Rückgewin­ nungs-Verarbeitung kann in einer On-Line-Verarbeitungs­ einheit durchgeführt werden. In diesem Fall kann der Aufbau der Vorrichtung noch weiter vereinfacht werden.
Wenn die vorliegende Erfindung bei einer Kamera ange­ wendet wird, in der Bilder auf einem Silberchloridfilm aufgezeichnet werden, können Bilder mit unterschiedli­ chen In-Fokus-Positionen kontinuierlich aufgezeichnet werden und der gleiche Prozeß wie in der zwölften Aus­ führungsform kann durchgeführt werden. Weiterhin können, wie in der elften Ausführungsform dargestellt, Bilder mit unterschiedlichen Brennpunkten eingegeben und auf dem Silberchloridfilm addiert werden und eine optische oder elektrische Rückgewinnungs-Verarbeitung kann durchgeführt werden.
(Dreizehnte Ausführungsform)
Fig. 23 zeigt eine dreizehnte Ausführungsform der vor­ liegenden Erfindung. Diese Ausführungsform verwendet ein Reflektionsmikroskop, was die Anwendung der vorliegenden Erfindung in der gleichen Weise möglich macht, wie in der siebten Ausführungsform gemäß Fig. 12. Gemäß Fig. 23 wird Licht von einer Lichtquelle 700 durch eine geei­ gnete Vorrichtung 701 nach unten geleitet und fällt schließlich auf eine Probenoberfläche durch eine Objek­ tivlinse 702. Ein Bild des von der Probe reflektierten Lichtes wird auf die Objektivlinse 702 fokussiert und von einer Kamera 704 aufgezeichnet, die auf einem Lin­ sentubus 703 angeordnet ist. In diesem Falle wird die Probe von einem Oszillator 706 in Vibration versetzt, der an einem Objektträger 705 angeordnet ist. Die Vi­ bration erfolgt bei einer festgelegten Frequenz in der optischen Achse des Mikroskopes. Der Oszillator 706 wird von einem Oszillatortreiber 707 mit einer geeigneten Periode und Amplitude betrieben. Ein von der Kamera 704 erhaltenes Bildsignal wird einem Kameratreiber 708 übertragen. Der Kameratreiber 708 liefert auch die Energie an die TV-Kamera 704. Das an den Kameratreiber 708 übertragene Bildsignal wird einer Steuerung 709 zu­ geführt. Die Steuerung 709 beinhaltet einen A/D-Wandler, einen Bildspeicher, eine Rückgewinnungs-Verarbeitungs­ einheit und einen D/A-Wandler. Die Steuerung oder der Prozessor 709 führt eine digitale Rückgewinnungs-Verar­ beitung durch oder verursacht eine analoge Bandpaß- oder Hochpaßfilterung für eine Rückgewinnungs-Verarbeitung. Das Bildsignal von dem Prozessor 709 wird einem Monitor 710 übertragen und dort angezeigt.
Die Vorrichtung zur Überwachung einer Leistung eines speziellen Ortsfrequenzbereiches im eingehenden Bildsi­ gnal unter Verwendung eines Bandpaßfilters ist in dem Prozessor 709 angeordnet. Somit kann die Amplitude des Oszillators 706 automatisch bestimmt werden. Der Oszil­ latortreiber 707 kann in Übereinstimmung mit den Be­ stimmungsergebnissen betrieben werden.
Die dreizehnte Ausführungsform mit der obigen Anordnung hat die folgende Wirkungsweise: Da in dieser Ausfüh­ rungsform die TV-Kamera 704 angeordnet ist, um ein Ob­ jekt einmal oder mehrmals mit einer speziellen Amplitude zu oszillieren, während ein Ein-Rahmenbild oder ein Ein-Feldbild eingegeben wird, können die Bilder mit un­ terschiedlichen In-Fokus-Ebenen in einer Bildebene der TV-Kamera akkumuliert werden. Die Anfangsamplitude des Oszillators 706 kann durch das folgende Verfahren be­ stimmt werden: Bilder werden eingegeben, während die Amplitude geändert wird. Der Prozessor 709 überwacht dann die Leistung der speziellen Ortsfrequenzregion des Eingangsbildes. Eine Änderung der Leistung in der spe­ ziellen Ortsfrequenz als Funktion der Amplitude ist in Fig. 24 dargestellt. Wenn ein Amplitudenwert erhöht wird aufgrund einer Struktur eines Objektes in einer Richtung der Tiefe, sind viele Defokus-Komponenten in dem Bild enthalten. Aus diesem Grund nimmt die Leistung ab. Ein vorherbestimmter Schwellenwert TH wird geeignet festge­ setzt und ein Amplitudenwert A entsprechend der Lei­ stung, die geringer ist als der Schwellenwert TH wird in der tatsächlichen Verarbeitung dann verwendet. In diesem Falle kann ein klares Bild mit einem ausreichenden Brennpunktsabstand bezüglich der Objektstruktur erhalten werden. Das Verfahren zur Bestimmung des Akkumulations­ bereiches kann auch bei der siebsten Ausführungsform angewendet werden.
Diese Ausführungsform stellt einen ausreichenden Effekt bei gleichzeitig einfachem Aufbau zur Verfügung. Wenn die Wiedergewinnungs-Verarbeitung mit einer Videorate durchgeführt wird, kann ein verarbeitetes Bild in Echt­ zeit erhalten werden, was in der Praxis viele Vorteile hat.
In der beschriebenen Ausführungsform wird das Objekt oszilliert. Es kann jedoch auch eine Relaislinse oder ein Abbildungselement in dem optischen System, z. B. die Objektivlinse 702 oder der Linsentubus 703 oszilliert werden. Diese Ausführungsform kann bei optischen Ausrü­ stungsgegenständen, wie beispielsweise einer elektroni­ schen Kamera oder einem Endoskop anstelle des Mikroskopes angewendet werden, um das optische System oder ein Ab­ bildungselement zu oszillieren.
(Vierzehnte Ausführungsform)
Fig. 25 ist eine Darstellung einer vierzehnten Ausfüh­ rungsform der vorliegenden Erfindung in Verbindung mit einem Reflektionsmikroskop. Aus Gründen einer einfachen Darstellung ist nur eine Beleuchtungsquelle 800, eine Beleuchtungseinrichtung 801, eine Objektivlinse 802 und ein Linsentubus 803 des Refektionsmikroskops darge­ stellt. Eine Farb-Kamera 804 ist an dem Linsentubus 803 angeordnet. Ein Dynamikbereich einer Abbildungsvorrich­ tung in der Farbkamera 804 sei auf 40 dB festgesetzt. Ein drehender optischer Verschluß 805 ist in der Beleuch­ tungseinrichtung 801 angeordnet. Der optische Verschluß 805 läßt Licht durch bzw. schattet Licht ab von der Be­ leuchtungsquelle 800 und zwar zu festgelegten Zeit­ punkten. Wie in Fig. 26 dargestellt, weist der drehende optische Verschluß 805 Bereiche 805A bis 805C einer Scheibe 805D auf, welche gleichmäßig unterteilt ist. Fenster (gestrichelte Bereiche) a, b und c haben ein Flächenverhältnis von 10.000 : 100 : 1 und sind in den Bereichen 805A bis 805C ausgebildet. Wenn sich die Scheibe 805D einmal pro 1/10 Sekunden dreht, was mittels eines Motors 807 erfolgt, der von einem Motortreiber 806 angetrieben wird, fällt eine festgesetzte Lichtmenge auf die Probe pro 1/30 Sekunden (d. h. einer Ein-Rahmen-Ab­ tastzeit der Kamera). In diesem Fall fällt das Beleuch­ tungslicht auf die Probe durch einen Halbspiegel 808 und die Objektivlinse 802. Ein Bild des von der Probe re­ flektierten Lichtes wird von der Farb-Kamera 804 abge­ bildet, welche von einem Kameratreiber 809 gesteuert wird. Ein Kolher'sches Illuminationssystem (nicht darge­ stellt) bestehend aus einer Mehrzahl von Linsen und ei­ ner Apertur ist in der Beleuchtungseinrichtung 801 ange­ ordnet. Ein Treiber 810 für den Objektträger weist einen Oszillator auf, (vgl. dreizehnte Ausführungsform) und oszilliert einen Objektträer 811 wenigstens einmal pro 1/30 Sekunden mit einer festgelegten Amplitude. Die Bilder mit unterschiedlichen In-Fokus-Ebenen können auf der lichtempfindlichen Oberfläche der Farbkamera 804 akkumuliert werden. Auf diese Weise werden drei farbige Rahmenbilder mit unterschiedlichen Belichtungsgraden eingegeben. Diese Farbbilder werden einem Prozessor 820 als die drei Primärfarbsignale, d. h. als Signale R, G und B zugeführt.
Die dem Prozessor 820 übertragenen Bildsignale werden mittels eines A/D-Wandlers 821 in digitale Signale um­ gesetzt. Von diesen umgewandelten digitalen Signalen werden die Signale des ersten Rahmenbildes, d. h. die Bildsignale, die durch das Fenster a des drehenden op­ tischen Verschlusses 805 belichtet wurden und in dem Prozessor 820 eingegeben wurden, durch einen Addierer 822 ohne Verarbeitung übertragen und in einem Rahmen­ bildspeicher 823 gespeichert. Die Bildsignale des zwei­ ten und dritten Rahmenbildes, d. h. die durch die Fenster b und c des Verschlusses 805 belichteten Bildsignale, die dem Prozessor 820 eingegeben wurden, werden durch den Addierer 822 zu den Bildsignalen hinzuaddiert, die bereits in dem Bildrahmenspeicher 823 gespeichert sind. Die sich ergebende Summe wird wieder in dem Bildrahmen­ speicher 823 gespeichert. Somit werden die drei Primär­ farben (R, G und B) Bilddaten mit logarithmischen Cha­ rakteristiken einer polygonalen Approximation in dem Rahmenspeicher 823 gespeichert. Die Bilddaten logR, logG und logB in dem Rahmenbildspeicher 823 werden in einen Wert logY (Y = 0.3R + 0.59G + 0.11B) von einem logY- Wandlerschaltkreis 824 konvertiert. Die konvertierten Daten werden in einem anderen Rahmenbildspeicher 825 gespeichert. Das Bildsignal in dem Rahmenbildspeicher 825 wird einem Rückgewinnungs-Verarbeitungs-Schaltkreis 826 zugeführt. Das dem Schaltkreis 826 zugeführte Bild­ signal wird einer geeigneten Filterung bezüglich einer Ortsfrequenz unterworfen, wobei das Bildsignal loga­ rithmische Charakteristiken hat. Das gefilterte Bildsi­ gnal wird einem Steuerschaltkreis 827 für Dynamikbereich und Verstärkung zugeführt. Das dem Rückgewinnungsprozeß unterworfene Bildsignal logY' wird mit dem Verstär­ kungssteuerungswert logb durch diesen Schaltkreis 827 addiert und gleichzeitig mit einem Dynamikbereich-Ein­ stellwert a multipliziert, so daß ein Signal alogbY' ausgegeben wird. Das Bildsignal alogbY' wird von einem Logarithmus-Konverter 828 logarithmisch komprimiert und als log(alogbY') ausgegeben. Dieser Ausgangswert wird einem Subtrahierer 829 eingegeben und die Differenz zwischen dem Signal log(alogbY'/Y) und dem Bildsignal log(alogby') und dem Bildsignal logY wird von dem Sub­ trahierer 829 berechnet. Die Differenz wird als Signal log(alogY'/Y) ausgegeben. Das Ausgangssignal log(alogbY'/Y) von dem Subtrahierer 829 wird durch Ad­ dierer 830R, 830G und 830B zu den drei logarthmisch komprimierten Primärfarbsignalen logR, logG und logB in dem Speicher 823 addiert. Die sich ergebenden Summensi­ gnale werden einem inversen Logarithmus-Konverter (Ex­ ponential-Konverter) 831 zugeführt und die inverse lo­ garithmische Konversion wird hierin durchgeführt, so daß Ausgangssignale alogbY'/Y.R, alogbY'/Y.G und alogbY'/Y.B ausgegeben werden. Diese berechneten Werte werden in Videosignale R, B und G mittels eines D/A-Wandlers 832 umgesetzt und auf einem Monitor 833 dargestellt. Der Prozessor 822 arbeitet hierbei auf der Basis eines Farb­ logarithmus-Bildvideoprozessors gemäß der JP-OS 62-234133. Die Steuerung der Arbeitsweise dieser Vor­ richtung mit dem obigen Aufbau wird durch eine Steuerung 834 durchgeführt. Prozeßbedingungen werden an einer Beobachtungsperson von einem Interface 835 eingegeben, welches mit der Steuerung 834 verbunden ist.
Die vier 92836 00070 552 001000280000000200012000285919272500040 0002003905619 00004 92717zehnte Ausführungsform mit dem erwähnten Aufbau hat die folgende Wirkungsweise: Da diese Ausführungsform ein Farblogarithmus-Abbildungssystem verwendet, können sowohl ein Arbeitsgang zur Eingabe des Bildes mit einem Dynamikbereich oberhalb der Leistung der Abbildungsvor­ richtung der Kamera 804 und ein Arbeitsgang zur wirksa­ men Durchführung eines Rückgewinnungsprozesses durch logarithmisches Filtern gleichzeitig durchgeführt wer­ den. Das logarithmische Farb-Abbildungssystem wird im folgenden beschrieben. Hierfür sei angenommen, daß der Dynamikbereich der Abbildungsvorrichtung in der TV-Ka­ mera 804 als 40 dB gegeben ist. Wenn ein Objekt eine Helligkeitsinformation hat, welche eine Abbildung in dem Dynamikbereich von 40 dB nicht erlaubt, wird der Dyna­ mikbereich erheblich erweitert, wie folgt: Das Objekt wird mit einer ausreichendend hohen Belichtungsmenge abgebildet und ein Bild mit Dunkelinformation wird ein­ gegeben. In diesem Bild ist ein heller Bereich in der Sättigung. Das Bild wird dann mit einer Belichtungsmenge von 1/100 des vorher eingegebenen Bildes eingegeben. Von den gesättigten Bereichen des vorher eingegebenen Bildes können Informationen von 40 dB von einem dunkleren Be­ reich erhalten werden. Auf ähnliche Weise wird ein Bild mit einer Belichtungsmenge von 1/100 des vorher einge­ gebenen Bildes eingegeben und ein Bild mit einer Infor­ mation von 40 dB eines helleren Bereiches kann eingegeben werden. Diese eingegebenen Bilder werden miteinander addiert, um ein Bildsignal zu erhalten, welches lo­ garithmische Charakteristiken einer polygonalen Annähe­ rung hat. Somit kann dieses Bildsignal als ein Bildsi­ gnal mit einem wesentlich erweiterten Dynamikbereich verwendet werden. Zusätzlich wird, um die verarbeiteten Bilder auszubalancieren nur eine logarithmische Kom­ pression eines Helligkeitssignals Y durchgeführt. Um die Einflüsse von Abschattungen und Sättigungen des Farb­ bildes zu eliminieren, wird ein Kompressionsgrad logY/Y des Helligkeitssignals Y mit den Signalen R, G und B multipliziert, um die Signale logY/Y.R, logY/Y.G und logY/Y.B zu erhalten. Diese Signale werden als die drei Primärfarbsignale ausgegeben. In dieser Ausführungsform werden Verstärkung und Dynamikbereiche einer Anzeige gesteuert, um die drei Primärfarbsignale bestehend aus alogY/Y.R, alogY/Y.G und alogbY/Y.B auszugeben. Diese Steuerung von Verstärkung und Dynamikbereich kann ma­ nuell oder automatisch durchgeführt werden. Details des erwähnten logarithmischen Farbkompressionssystems sind in der JP-OS 62-234133 beschrieben.
Eine Funktion zur Erhaltung einer Ortsfrequenzfilterung, d. h. einer logarithmischen Filterung des Helligkeitssi­ gnales logY mit logarithmischen Charakteristiken wird nun im folgenden beschrieben:
Eine Verteilungsfunktion des reflektierten Lichtes ist wie folgt definiert:
Y(Γ) = L(Γ).R(Γ) (a)
wobei Y(Γ): Verteilungsfunktion des reflektierten Lich­ tes;
L(Γ): Verteilungsfunktion der Beleuchtungsfunk­ tion; und
R(Γ): Reflektivitäts-Verteilungsfunktion eines Objektes.
Wenn die rechten und linken Seiten logarithmisch kon­ vertiert werden, ergibt sich die folgende Gleichung:
LogY(Γ) = logL(Γ) + logR(Γ) (b)
Bei einer optischen Ausrüstung mit keinem Beleuchtungs­ licht oder keiner Beleuchtungseinrichtung hat die Funk­ tion L(Γ) entsprechend der Verteilung von natürlichem Licht oder externem Beleuchtungslicht hauptsächlich eine Niederortsfrequenz-Komponente. Im Gegensatz hierzu hat die Reflektivitäts-Verteilungsfunktion R(Γ) hauptsäch­ lich eine Komponente von niederen bis mittleren Orts­ frequenzen. Ein Filter mit Charakteristiken gemäß Fig. 27 ist angeordnet, um Ungleichmäßigkeiten des Beleuch­ tungslichtes der Niederortsfrequenz-Komponente und einen Hochortsfrequenz-Bereich, in dem Rauschkomponenten vor­ herrschend sind, abzuschneiden. Somit kann ein Bereich entsprechend der Struktur des Objektes betont werden. Somit wird unter Verwendung des logarithmischen Filterns eine noch wirksamere Rückgewinnung durchgeführt. Orts­ frequenzwerte fl und fh in Fig. 27 können von einer Beobachtungsperson an dem Interface 835 beliebig gesetzt werden, während die Prozeßergebnisse beobachtet werden. Wenn alternativ die Bildtypen limitiert sind und die Charakteristiken bekannt sind, können die Ortsfrequenz­ werte vorgewählt werden.
Gemäß dieser Ausführungsform kann, selbst wenn die Ab­ bildungskamera einen niederen Dynamikbereich hat, ein Bild mit einem im wesentlichen hohen Dynamikbereich erhalten werden. Im allgemeinen wird bei einer Kamera mit einem geringen Dynamikbereich eine Akkumulation auf der lichtempfindlichen Oberfläche durchgeführt und nur eine Durchschnittsintensität (Frequenzintensität nullter Ordnung) des Bildes wird erhöht. Daten des Hochortsfre­ quenz-Bereiches werden unerwünschterweise mit Rauschen derart gemischt, daß eine Rückgewinnung nicht möglich wäre. Dieser Nachteil wird bei der vorliegenden Ausfüh­ rungsform eliminiert. Eine Bildkomponente des Hochorts­ frequenz-Bereiches kann mit einem gewünschten Signal- Rauschabstand eingegeben werden, während es akkumuliert wird. Eine wirksamere Rückgewinnungs-Verarbeitung kann durchgeführt werden und durch das logarithmische Filtern kann ein klares Bild dargestellt werden.
Diese Ausführungsform veranschaulicht die Anwendung bei einem Reflektionsmikroskop. Genauso gut ist diese Aus­ führungsform jedoch bei anderen optischen Vorrichtungen mit einer Beleuchtungseinrichtung verwendbar, bei­ spielsweise bei einem elektronischen Endoskop. Weiterhin muß der Verschluß 805 kein mechanischer Verschluß wie dargestellt sein; es ist auch ein optischer Verschluß, z. B. in Form einer Flüssigkristallplatte möglich.
(Fünfzehnte Ausführungsform)
Fig. 28 zeigt eine fünfzehnte Ausführungsform der vor­ liegenden Erfindung, bei der logarithmische Farbabbil­ dung und logarithmisches Filtern gemäß der vierzehnten Ausführungsform bei einem optischen Gerät durchgeführt werden, welches keine Beleuchtungsausstattung hat. Ein Objektbild wird auf die lichtempfindliche Oberfläche eines Bildsensors 902 auf Halbleiterbasis fokussiert, was durch eine Linse 901 erfolgt. Der Bildsensor oder die Abbildungsvorrichtung 902 wird von einem logarith­ mischen Abbildungstreiber 903 gesteuert. Wenn bei­ spielsweise die Abbildungsvorrichtung 902 eine CCD ist, ist die Höhe eines overflow drain gate oder eines hori­ zontalen transfer gate innerhalb einer Belichtungszeit geändert, so daß ein Ausgangssignal logarithmische Cha­ rakteristiken hat. Details einer logarithmischen Kom­ pression einer Abbildungsvorrichtung auf Halbleiterbasis sind in der JP-OS 62-234133 beschrieben. Ein Ausgangs­ signal von der Abbildungsvorrichtung 902 wird in drei Primärfarbsignale logR, logG und logB mittels eines Vi­ deoprozessors 904 konvertiert. Diese Primärfarbsignale werden mittels eines A/D-Wandlers 905 in digitale Si­ gnale umgesetzt. Die digitalen Signale werden dann in eine Bildverarbeitungseinheit 910 übertragen. Die Linse 901 wird oszilliert und angetrieben von einem Oszillator 907 mit eine Periode ausreichend kürzer als die Belich­ tungszeit der Abbildungseinrichtung 902. Hierbei wird der Oszillator 907 von einem Oszillationstreiber 906 angetrieben und gesteuert. Bilder mit unterschiedlichen In-Fokus-Positionen werden akkumuliert und eingegeben auf der lichtempfindlichen Oberfläche der Abbildungs­ vorrichtung 902.
Die Bildverarbeitungseinheit 910 weist einen logY-Kon­ verter 911, eine Rückgewinnungs-Verarbeitungseinheit 912, einen Steuerschaltkreis 913 für Dynamikbereich und Verstärkung, einen logarithmischen Konvertierer 914, einen Subtrahierer 915, Addierer 916R, 916G, 916B und einen inversen logarithmischen Konvertierer 917 auf. In der Bildverarbeitungseinheit 910 wird ein Helligkeits­ signal Y logarithmisch gefiltert, wie in der vierzehnten Ausführungsform gemäß Fig. 25. Die drei Primärfarbsi­ gnale alogbY/Y.R, alogbY/Y.G und alogbY'/Y.B, deren Dynamikbereiche und Verstärkungen geeignet gesteuert werden, werden ausgegeben. Ausgangssignale von der Bildverarbeitungseinheit 910 werden durch einen D/A- Wandler 920 in analoge Farbsignale umgesetzt und auf einem TV-Monitor 921 dargestellt. Die erwähnten Abläufe werden von einer Steuerung 930 gesteuert.
Die fünfzehnte Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Da die logarithmischen Kompressions-Eingangcharakteristiken der Abbildungsvor­ richtung 902 selbst zugeordnet sind, kann der Dynamik­ bereich erweitert werden und eine Rückgewinnungs-Verar­ beitung durch eine logarithmische Filterung kann durch­ geführt werden, ohne die Farbkomponenten außer Balance zu bringen, wie in der vierzehnten Ausführungsform. Zu­ sätzlich hat die Vorrichtung gemäß der fünfzehnten Aus­ führungsform einen einfachen Aufbau.
Bei dieser Ausführungsform kann der gleiche Effekt wie in der vierzehnten Ausführungsform bei einer optischen Ausstattung ohne zusätzliche Beleuchtungsvorrichtung erzielt werden, wie beispielsweise bei einer elektroni­ schen Kamera. Die Bilder mit unterschiedlichen In-Fo­ kus-Positionen werden von der Abbildungsvorrichtung 902 selbst akkumuliert, so daß die Vorrichtung selbst ver­ einfacht ist.
Anstelle der Abbildungsvorrichtung selbst die logarith­ mische Eingangscharakteristik zuzuweisen, kann die Mehrzahl von Bildern eingegeben werden, während die Be­ lichtungszeit geändert wird, so daß ein Bild syntheti­ siert wird, welches eine logarithmische Charakteristik von polygonaler Annäherung hat. Eine Weiterverarbeitung kann durchgeführt werden unter Verwendung der gleichen Anordnung wie der Prozessor 820 in der vierzehnten Aus­ führungsform.
(Sechzehnte Ausführungsform)
Fig. 29 zeigt eine sechzehnte Ausführungsform der vor­ liegenden Erfindung, welche bei einem Reflektionsmi­ kroskop zur Anwendung kommt, wie im Falle der vierzehn­ ten Ausführungsform gemäß Fig. 25. Licht von einer Be­ leuchtungsquelle 1001 fällt durch einen Halbspiegel 1003 und eine Objektivlinse 1004 auf eine Probenoberfläche. Ein von der Probe reflektiertes Bild wird von der Ob­ jektivlinse 1004 vergrößert und eine Fokussierungslinse 1006 an einem Linsentubus 1005 fokussiert das Bild auf die lichtempfindliche Oberfläche eines räumlich-opti­ schen Modulators (im folgenden mit SLM bezeichnet) 1007 (spatial optical modulator) in dem Linsentubus 1005. Der SLM 1007 wird von einem Treiber 1008 angetrieben und gesteuert und dient als inkohärent-zu-kohärent Konver­ ter. Ein Treiber 1009 treibt einen Objektträger 1010 in einem festgelegten Entfernungsbereich in axialer Rich­ tung des Mikroskopes innerhalb einer Abtastzeit, welche in Anbetracht einer Umwandlungs-Reaktionszeit des SLM 1007 festgesetzt ist. Ein Laserstrahl von einem Laser 1011 wird von einem Strahlexpander 1012 expandiert und ein Fortpflanzungsweg wird von einem Halbspiegel 1013 geändert. Der Laserstrahl fällt dann auf eine Oberfläche (Reflektionsoberfläche) des SLM 1007 gegenüber der lichtempfinglichen Oberfläche. Ein mikroskopisches Bild wird als Gradientenindex auf der Reflektionsoberfläche des SLM 1007 angezeigt. Somit wird ein Reflektions- Raummuster des Laserstrahls als mikroskopisches Bild fortgepflanzt. Dieses mikroskopische Bild, d. h. ein re­ flektierter Laserstrahl, wird von einer Linse 1014 räumlich Fourier-transformiert. Eine Filterung des sich ergebenden Strahles wird von einem Filter 1015 an der rückwärtigen Brennebene 1014 durchgeführt. Der reflek­ tierte Laserstrahl wird einer inversen Fourier-Trans­ formation durch eine Linse 1016 unterworfen. Das sich ergebende Bild wird einer TV-Kamera 1017 eingegeben. Eine Amplitudendurchlässigkeit des Filters 1015 wird von dessen Mittenbereich zu dessen Umfangsbereich erhöht und ist so ausgelegt, daß für eine Ortsfrequenz ein Hoch­ paßfilter vorliegt. Eine Energieversorgung und eine Zeitsteuerung für die Kamera 1017 erfolgt durch einen Kameratreiber 1018. Durch den Kameratreiber 1018 wird das eingegebene Bild einem Prozessor 1020 übertragen. Ein Bildsignal, das dem Prozessor 1020 eingegeben worden ist, wird von einem A/D-Wandler 1021 in ein digitales Signal umgesetzt und das digitale Signal wird in einem Rahmenbildspeicher 1022 abgespeichert. Das digitale Bild in dem Bildrahmenspeicher 1022 wird mittels einer Rück­ gewinnungsverarbeitungseinheit 1023 einem geeigneten Rückgewinnungsprozeß unterworfen. Das derart verarbei­ tete Bildsignal wird von einem D/A-Wandler 1024 in ein Analogsignal umgesetzt und auf einem TV-Monitor 1025 dargestellt. Die oben erwähnten Abläufe werden von einer Steuerung 1026 gesteuert und Betriebsbedingungen sind von einer Bedienungs- oder Beobachtungsperson über ein Interface 1027 eingebbar, welches mit der Steuerung 1026 verbunden ist.
Im folgenden erfolgt eine kurze Beschreibung des SLM 1007. Der SLM 1007 ist ein räumlicher Modulator des op­ tischen Eingangstyps und dient als optisches funktiona­ les Element, welches ein optisches Signal zweidimensio­ nal lesen und schreiben kann. Beispiele für dieses op­ tische funktionale Element sind ein PROM (Pockls Read-out Optical Modulator), der die optische Leitfä­ higkeit und die elektrooptischen Effekte von Bi12Sio20 (BSO) verwendet und ein LCLV (Liquid Crystal Light Val­ ve), welches durch Kombination eines fotoleitfähigen Materials und eines Flüssigkristalls erhalten worden ist. Jedes dieser erwähnten optischen funktionalen Ele­ mente wandelt ein optisches Eingangssignal in eine elektrische Feldverteilung und steuert einen Gradienten­ index der Reflektionsoberfläche. Ein Polarisationsstand des Laserstrahls, der auf die Reflektionsoberfläche des SLM 1007 fällt, wird in Abhängigkeit von dem Gradienten­ index der Reflektionsoberfläche geändert. Wenn der La­ serstrahl durch einen Detektor läuft, kann er als kohä­ rentes optisches Bild gelesen werden. In dieser Ausfüh­ rungsform wird ein SLM mit einem weiten Dynamikbereich und einer kurzen Ansprechzeit verwendet.
Die sechzehnte Ausführungsform mit dem obigen Aufbau hat die folgende Wirkungsweise: Bevor die Bilder auf der lichtempfindlichen Oberfläche der Kamera 1017 akkumu­ liert werden, wird eine optische Hochpaß-Filterung durchgeführt. D. h., die durch das Mikroskop eingegange­ nen Bilder pflanzen sich mit einem Laserstrahl durch den SLM 1007 fort. Bilder mit unterschiedlichen In-Fokus-Po­ sitionen werden auf der lichtempfangenden Oberfläche der Kamera 1017 akkumuliert, während eine Ortsfrequenzfil­ terung von dem kohärenten optischen System durchgeführt wird. Mit dem obigen Aufbau können Einschränkungen hin­ sichtlich des Akkumulationseffektes durch Begrenzungen des Dynamikbereiches der Kamera 1017 gelöst werden. Als Ergebnis kann die Akkumulation und der Eingabevorgang der Ortsfrequenzkomponenten mit dem gewünschten Si­ gnal/Rausch-Abstand durchgeführt werden.
Bei dieser Ausführungsform kann der Dynamikbereich der Kamera 1017 wirksam genutzt werden und ein klareres Bild kann durch den Rückgewinnungsvorgang in dem Prozessor erhalten werden.
(Siebzehnte Ausführungsform)
Fig. 30 zeigt eine siebzehnte Ausführungsform der vor­ liegenden Erfindung in Verbindung mit einem Reflek­ tionsmikroskop wie in der sechzehnten Ausführungsform. Bei dieser Ausführungsform wird auf den Prozessor 1020 verzichtet und ein Bildsignal von der Kamera 1017 wird direkt in den TV-Monitor 1025 durch den Kameratreiber 1018 eingegeben. Gleiche Bezugszeichen wir in Fig. 29 bezeichnen in Fig. 30 gleiche Teile und eine detail­ lierte Beschreibung hiervon erfolgt nicht.
Die sechzehnte Ausführungsform mit dem Aufbau gemäß Fig. 30 hat folgende Wirkungskreise: Der Objektträger 1010 wird von dem Treiber 1009 innerhalb eines festgelegten Distanzbereiches entlang der optischen Achse des Mi­ kroskopes bewegt. Während des Bewegens werden mikrosko­ pische Bilder auf der lichtempfindlichen Oberfläche des SLM 1007 akkumuliert. Somit wird eine Mehrzahl von Bil­ dern mit unterschiedlichen In-Fokus-Positionen akkumu­ liert. Wenn dieser Vorgang abgeschlossen ist, werden die akkumulierten Bilder auf der Reflektionsoberfläche des SLM 1007 angezeigt und von einem Laserstrahl gelesen und die gelesenen Bilder werden einem Rückgewinnungsprozeß (Ortsfrequenzfilterung) durch ein kohärentes optisches System unterworfen. Das Prozeßergebnis wird von der Ka­ mera 1017 aufgenommen und auf dem Monitor 1025 darge­ stellt. Das heißt, der Bildakkumulationseffekt auf der lichtempfindlichen Oberfläche des SLM 1007 wird verwen­ det, um einen Rückgewinnungsprozeß durch optisches Fil­ tern durchzuführen.
Da bei dieser Ausführungsform der Rückgewinnungsprozeß perfekt in Echtzeit durchgeführt wird, kann die Gesamt­ prozeßzeit vorteilhafterweise verkürzt werden.
Ein Verfahren zur Verarbeitung und Anzeige eines Farb­ bildes in der sechzehnten und siebzehnten Ausführungs­ form wird nun unter Bezugnahme auf Fig. 31 beschrieben. Gemäß Fig. 31 ist ein drehendes Farbfilter 1030 in einer Beleuchtungsanordnung 1002 angeordnet. Das Farbfilter 1030 wird erhalten durch Anordnung der drei Primärfarb­ filterelemente (R, G und B) entlang der Drehrichtung einer Scheibe in gleicher Weise wie bei dem Drehfilter 213 von Fig. 14. Wenn das Farbfilter 1030 von einem Mo­ tor 1031 angetrieben wird, wird Licht von der Weiß­ lichtquelle 1001 in der Reihenfolge von R, G und B ein­ gefärbt. Die sich ergebenden Primärbeleuchtungskompo­ nenten werden weitergeführt und den sequentiellen Pro­ zeßabläufen auf der Grundlage der Anordnungen gemäß der sechzehnten und siebzehnten Ausführungsform unterwor­ fen.
Fig. 32 ist ein Blockdiagramm einer Anordnung eines Farbbildprozessors gemäß dem Prozessor 1020 in der sechzehnten Ausführungsform von Fig. 29. Ausgangssignale entsprechen den entsprechenden Primärbeleuchtungslicht­ komponenten und werden einem Prozessor 1100 eingegeben und von einem A/D-Wandler 1101 in digitale Signale um­ gesetzt. Die digitalen Signale werden in Rahmenbild­ speichern 1103R, 1103G und 1103B mittels eines Selektors 1102 in Farbkomponenten-Einheiten gespeichert. Alle Prozeßergebnisse durch Beleuchtung mit den drei Primär­ farben sind in den Speichern 1103R bis 1103B gespeichert und diese Ergebnisse werden einem (R, G, B) -zu-Y-Wandler 1104 zugeführt und ein Helligkeitssignal Y = 0.3R + 0.59G + 0.11B wird hierin berechnet. Das Helligkeitssi­ gnal Y von dem Wandler 1104 wird Teilern 1105R, 1105G und 1105B zugeführt zur Division der Farbkomponenten mit dem Helligkeitssignal Y, so daß sich R/Y, G/Y und B/Y ergibt. Diese Rechnungsergebnisse werden Multiplizierern 1106R, 1106G und 1106B zugeführt.
Das Helligkeitssignal Y wird in einem Rückgewinnungs- Verarbeitungsschaltkreis 1107 einer geeigneten Rückge­ winnungsprozedur unterworfen. Ein Ausgang Y' von dem Schaltkreis 1107 wird den Multiplizierern 1106R, 1106G und 1106B zugeführt und wird mit den Signalen R/Y, G/Y und B/Y multipliziert. Die Produkte (R/Y)Y', (G/Y)Y' und (B/Y)Y' werden von D/A-Wandlern 1108R bis 1108B in ana­ loge Videosignale umgewandelt. Die erwähnten Abläufe werden von einer Steuerung 1109 gesteuert.
Bei der erwähnten Anordnung wird nur die Helligkeits­ komponente eines jeden Primärfarbensignales dem Rückge­ winnungsprozeß unterworfen, so daß eine gute Farbbalance erhalten bleibt. Die aufgrund der Rückgewinnungsverar­ beitung ermittelten Daten der drei Primärfarben werden gleichzeitig ausgegeben und die Ergebnisse können als Farbbild dargestellt werden.
Wenn diese Anordnung der siebzehnten Ausführungsform zugeordnet wird, können der Wandler 1104, die Teiler 1105R bis 1105B, der Schaltkreis 1107 und die Multipli­ zierer 1106R bis 1106B von der Anordnung gemäß Fig. 32 weggelassen werden. Ein Prozessor, in dem die Rahmen­ bildspeicher 1103R bis 1103B direkt mit dem D/A-Wandlern 1108R bis 1108B verbunden sind, wird somit erreicht. Dieser Prozessor wird zwischen dem Kameratreiber 1018 und dem Monitor 1025 in Fig. 30 gesetzt. Mit dieser Anordnung können die Bildsignale der drei Primärfarben, welche bereits einer Rückgewinnungs-Verarbeitung unter­ worfen wurden und sequentiell eingegeben wurden, zeit­ weise in dem Rahmenbildspeicher in dem Prozessor ge­ speichert werden und können als Farbbild bei einem gleichzeitigen Lesezugriff auf die erwähnten Mehrfarb­ signale dargestellt werden.
(Achzehnte Ausführungsform)
Fig. 33 zeigt schematisch ein optisches Hochpaßfil­ tersystem einer achzehnten Ausführungsform der vorlie­ genden Erfindung zur Anwendung in einem Transmissions­ mikroskop. Gemäß Fig. 33 weist ein optisches Transmis­ sions-Beleuchtungssystem eine Kohler'sche Beleuchtungs­ ausstattung 1200 auf. Beleuchtungslicht von einer Lichtquelle 1201 wird von einer Kollektorlinse 1202 fo­ kussiert und fällt auf eine Probe 1206 über eine Kon­ densorlinse 1205, eine Feldapertur 1203 und eine Kon­ densorapertur 1204. In diesem Fall ist die Größe der Kondensorapertur 1204 ausreichend klein gehalten und ein praktisch paralleles Licht trifft auf die Probe 1206 auf. Licht, das die Probe 1206 durchtritt, wird zu einer Objektivlinse 1207 geführt und eine Ortsfrequenzfilte­ rung des Bildes der Probe 1206 wird durchgeführt. Das Filter 1208 ist derart angeordnet, daß sein Mittenbe­ reich einen hohen Absorptionsgrad hat, wobei der Ab­ sorptionsgrad in Richtung des Umfanges abnimmt. Mit an­ deren Worten, der Absorptionsgrad nimmt graduell von der Mitte zum Umfang hin ab. Durch Unterdrückung einer Nie­ derortsfrequenzkomponente wird ein Hochpaßfiltervorgang durchgeführt. Das hochpaßgefilterte Bild wird auf ein Bildeingangssystem mittels einer Fokussierlinse 1209 fokussiert.
Die weiteren Anordnungen entsprechen im wesentlichen der des Transmissionsmikroskopes in der siebten, dreizehnten und siebzehnten Ausführungsform.
Die achzehnte Ausführungsform mit dem beschriebenen Aufbau hat die folgende Wirkungsweise: Da die Probe 1206 mit parallelem Licht in dem Transmissionsmikroskop be­ leuchtet wird, kann ein kohärentes optisches System erhalten werden und eine Hochpaßfilterung des Bildes kann optisch durchgeführt werden.
Bei dieser Ausführungsform wird die Probe durch die Bildeingabeeinheit, wie beispielsweise einer Kamera dargestellt, während die Niederortsfrequenzkomponente des Bildes auf gleicher Weise wie in der Ausführungsform von Fig. 16 unterdrückt bleibt, so daß auf wirksame Weise der Dynamikbereich der Bildeingabeeinheit verwen­ det werden kann. Somit kann ein Bild mit einem großen Brennpunktsabstand klarer dargestellt werden.
Ein Verfahren zur Auswahl der Anzahl von Bildern die miteinander addiert werden müssen, sowie des Akkumula­ tionsbereiches wird im folgenden beschrieben.
Die Fig. 34A und 34B sind Ansichten zur Darstellung des Prinzips dieser Auswahlmethode. Es sei angenommen, daß ein Objekt 1210 eine stufenweise Oberflächenstruktur hat, wie im linken Teil von Fig. 34A dargestellt. Wenn dieses Objekt 1210 von einem optischen System mit einem kleinen Brennpunktsabstand dargestellt wird, hat ein Fourierspektrum eines Bildes das auf einen Bereich des Objektes fokussiert ist, ebenfalls relativ hohe Orts­ frequenzkomponenten. Im Falle eines Bildes, das nicht auf einen beliebigen Bereich des Objektes fokussiert ist, hat das Bild nur niederfrequente Komponenten, wie im rechten Teil von Fig. 34A dargestellt. Das heißt, ein Fourierspektrum F(u) eines Bildes einer In-Fokus-Posi­ tion an einer Stelle, die durch die gestrichelte Linie bezüglich des Objektes 1210 angedeutet ist, ist darge­ stellt. Ein Wert F(u1, u2) (gestrichelte Bereiche 1220), der durch Integration eines Spektrums bei einer gegebe­ nen Ortsfrequenz (u1, u2) erhalten wird, wird ebenfalls in Betracht gezogen. Änderung in dem Wert F(u1, u2) bei Änderungen der In-Fokus-Positionen sind in Fig. 34B dargestellt. Wenn ein Bereich (z1, z2), in dem der Wert F(u1, u2) einen gegebenen Schwellenwert übersteigt als ein Additions- oder Akkumulationsbereich definiert ist, können defokussierte Bilder im wesentlichen vollständig von dem zu interessierenden Objekt ausgeschlossen wer­ den. Als Ergebnis kann ein klares Bild mit einem hohen Brennpunktsabstand erhalten werden durch Addieren oder Synthetisieren von Bildern mit unterschiedlichen In-Fo­ kus-Positionen. Wie unter Bezugnahme auf die dritte und zwölfte Ausführungsform beschrieben, werden, wenn Bilder mit unterschiedlichen In-Fokus-Positionen aufgezeichnet werden, die aufgezeichneten Bildsignale durch ein Band­ paßfilter gefiltert, und die sich ergebenden Werte wer­ den überprüft, so daß die Beziehung gemäß Fig. 34B erhalten werden kann. Auf der Grundlage dieser Bezie­ hungen können Bilder, die für Additionen verwendbar sind, bestimmt werden. Wenn dieses Verfahren bei einem Reflektionsmikroskop (siebte, vierzehnte, sechzehnte und siebzehnte Ausführungsform) angewendet wird, wird der Objektträger oder die Objektivlinse in festgelegten stufenweisen Intervallen auf- oder abwärtsbewegt. Die eingegebenen Bildsignale an den entsprechenden Brenn­ punktpegeln werden durch ein Bandpaßfilter gefiltert. Hierdurch ist die Beziehung gemäß Fig. 34B erhaltbar und der Additions- oder Akkumulationsbereich wird bestimmt. Speziell beim Testen von integrierten Bausteinen, Halb­ leiterstrukturen oder dergleichen kann, da ähnliche Mu­ ster wiederholt werden, durch die Bestimmungen des Ak­ kumulationsbereiches die Möglichkeit gegeben werden, jeden Teilbereich unter identischen Bedingungen optimal zu untersuchen. Das Bandpaßfilter kann eine Mehrzahl von Filtern mit unterschiedlichen Frequenzbereichen haben und jedes dieser Filter kann verwendet werden oder alle Filter können verwendet werden, um den Bereich systema­ tisch zu bestimmen.
(Neunzehnte Ausführungsform)
Die Fig. 35A und 35B zeigen eine Anordnung gemäß einer neunzehnten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera. Die elektronische Kamera umfaßt im wesentlichen ein Kamera­ gehäuse 1300, ein Aufzeichnungsmedium 1400, einen Pro­ zessor 1500, ein Interface 1600 und einen TV-Monitor 1700. Das Kameragehäuse 1300 weist gemäß Fig. 35A eine Linse 1301, einen Verschluß 1302, einen In-Fokus-Posi­ tions-Kontroller 1303, eine Abbildungsvorrichtung 1304, einen A/D-Wandler 1305, einen Speicher 1306, einen An­ passungsschaltkreis 1307, einen Speicher 1308, einen Bereichsberechnungsschaltkreis 1309, eine Steuerung 1310 und einen Schreiber 1311 zum Schreiben eines Bildes in das Aufzeichnungsmedium 1400 auf. Das Kameragehäuse 1300 wird wie folgt betrieben: In dem Kameragehäuse 1300 wird Vor-Fotografieren und Haupt-Fotografieren durchgeführt. In dem Vor-Fotografiermodus schattet der Verschluß 1302 die halbe Oberfläche der Linse 1301 ab. Die nichtabge­ schattete halbe Oberfläche wird verwendet, um ein Bild zu fokussieren und das fokussierte Bild wird in die Eingabevorrichtung 1304 eingegeben. In diesem Fall wird ein Ausgangssignal von der Bildeingabevorrichtung 1304 durch den Wandler 1305 in ein digitales Signal umgewan­ delt und in dem Speicher 1306 aufgezeichnet. Der Verschluß 1302 überdeckt dann die andere halbe Oberflä­ che der Linse 1301 und das eingegebene Bild wird in dem Speicher 1306 aufgezeichnet. Auf diese Weise werden zwei halbe Oberflächen der Linse 1301 abwechselnd verwendet, um zwei Bilder mit einer Parallaxe einzugeben und die beiden Eingangsbilder werden durch den Anpassungs­ schaltkreis 1307 stereoangepaßt. Somit kann eine Distanz zu dem Objekt gemessen werden. Gemäß den Fig. 36A und 36B werden bei dem erwähnten Anpassungsvorgang bei­ spielsweise Erfassungspunkte 1315 in dem Bild bestimmt und lokale Bereiche 1316 und 1317 werden festgesetzt unter Verwendung der Erkennungspunkte 1315 als Zentren und dann der oben erwähnten Anpassung unterworfen. Fig. 36A zeigt ein linkes Bild oder eine Bildoberfläche, während Fig. 36B ein rechtes Bild oder eine rechte Bild­ oberfläche zeigt.
Fig. 37 zeigt eine Anordnung des Anpassungsschaltkreises 1307 zusammen mit den Speichern 1306 und 1308. Ein lin­ ker Bildspeicher 1306a und ein rechter Bildspeicher 1306b zur Aufzeichnung zweier Bilder mit linken und rechten Gesichtsfeldern sind in dem Speicher 1306 ange­ ordnet. Ein Adressengenerator 1320 ist in dem Anpas­ sungsschaltkreis 1307 angeordnet. Der Adressengenerator 1320 erzeugt Adressen eines festgesetzten Bereiches 1316 mit einem Erfassungspunkt 1315 als Mittenpunkt des lin­ ken Bildes und einen festgelegten Bereich 1317 (mit ei­ ner Fläche gleich der Fläche des linken Bildes) des rechten Bildes, der von dem Erfassungspunkt 1315 um ei­ nige Pixel (Anzahl der Verschiebungspixel = S) in Rich­ tung der Parallaxe verschoben ist. Die linken und rech­ ten Bildsignale der festgelegten Bereiche 1316 und 1317 werden von dem Speicher 1306 einem Subtrahierer 1321 im Anpassungsschaltkreis 1307 zugeführt. Die Differenz zwischen den linken und rechten Bildsignalen werden in dem Subtrahierer 1321 in Pixeleinheiten berechnet. Ein Absolutwert der Differenz von dem Subtrahierer 1321 wird von einem Absolutwert-Arithmetikelement 1322 berechnet. Die Absolutwerte der Differenzen zwischen den linken und rechten Pixelsignalen der linken und rechten festge­ setzten Bereiche 1316 und 1317 werden berechnet. Diese Absolutwerte werden miteinander in einem Addierer 1323 addiert und eine Summe wird einem Kriteriensteuerer 1324 zugeführt. Der Adressengenerator 1320 erzeugt die glei­ che Adresse wie die Startadresse für das linke Bild in dem Speicher 1306. Der Adressengenerator 1320 erzeugt eine Adresse entsprechend einer Position (d. h. einem Punkt erhalten durch Verschiebung des Mittenpunktes ei­ nes neuen Bereiches von dem Erkennungspunkt durch S-1 oder S-2 in Parallaxenrichtung) erhalten durch Ver­ schiebung der Startadresse des rechten Bildes durch ein oder zwei Pixel in Parallaxenrichtung. Die ähnlichen Berechnungsergebnisse werden dem Kriterienkontroller 1324 zugeführt. Die obigen Abläufe werden für jeden Er­ kennungspunkt innerhalb eines festgesetzten Bereiches (z. B. einem Bereich in welchem der Mittenpunkt des festgelegten Bereiches 1317 des rechten Bildes um S nach -S bezüglich des Erfassungspunktes verschoben ist) wie­ derholt. Der Kriterienkontroller 1324 vergleicht die Berechnungsergebnisse bezüglich der Verschiebungsbeträge und erfaßt einen minimalen Verschiebungsbetrag. Der mi­ nimale Verschiebungsbetrag wird dem Speicher 1308 ein­ gegeben. Dieser Vorgang wird in Einheiten von Erfas­ sungspunkten durchgeführt. Die obigen Abläufe werden durch eine Steuerung 1325 kontrolliert.
Die Arbeitsweise des Anpassungsschaltkreises 1307 wird im folgenden beschrieben: Es ist nötig, die entspre­ chende Punkte der linken und rechten Bilder mit Paral­ laxe zu finden. Die folgenden Abläufe werden durchge­ führt, um die entsprechenden Punkte mittels des Anpas­ sungsschaltkreises 1307 zu finden:
ρ(t) = ΣR|r(x + t, y) - fl(x, y)| (c)
wobei x: Parallaxenrichtung,
t: Verschiebungsbetrag
fr(x, y): rechtes Bild
fl(x, y): linkes Bild
ΣR: ein Operant entsprechend allen Additionen in den festgesetzten Bereichen.
Gleichung (c) wird berechnet während t innerhalb eines festgelegten Bereiches geändert wird (z. B. t = S bis -S) bezüglich eines gegebenen Erfassungspunktes, so daß hierbei ein Minimalwert von t ermittelt wird. Somit kann ein rechter Bildpunkt entsprechend dem Erfassungspunkt des linken Bildes erhalten werden. Anstelle von Glei­ chung (c) kann der Anpassungsschaltkreis 1307 so ange­ ordnet sein, daß er die folgende Korrelation als Ver­ fahren zur Erkennung des korrespondierenden Punktes durchführt:
ϕ(t) = ΣRfr(x + t, y).fl(x, y) (d)
Alternativ können Vorspannung und Verstärkungskomponen­ ten der linken und rechten Bilder durch die folgende normalisierende Kreuzkorrelation korrigiert werden, wo­ durch eine noch präzisere Korrelation erfolgt:
wobei fr: Durchschnittswert in dem festgelegten Bereich des rechten Bildes
fl: Durchschnittswert in dem festgelegten Bereich des linken Bildes
σr: Standardabweichung des festgelegten Bereiches des rechten Bildes
σl: Standardabweichung des festgelegten Bereiches des linken Bildes.
In dieser Ausführungsform ist die Lage des festgelegten Bereiches 1316 des linken Bildes fest und der entspre­ chende Punkt wird in dem rechten Bild gefunden. Es kann jedoch auch die Lage des festgelegten Bereiches 1317 im rechten Bild fest sein und ein korrespondierender oder entsprechender Punkt kann im linken Bild gefunden wer­ den. Alternativ können die Erfassungspunkte beider festgelegten Bereiche der linken und rechten Bilder re­ lativ bezüglich des Erfassungspunktes gelegt werden, um die korrespondierenden Punkte zu erfassen. Zusätzlich kann ein Korrelationstheorem in der Fourier-Transforma­ tion angewandt werden, um den folgenden Korrelations­ vorgang unter Verwendung eines FFT-Arithmetikelementes in dem Anpassungsschaltkreis 1307 durchzuführen:
ϕF(u, v) = F-1[F{fr(x, y).F{fl(x, y)}*] (f)
F: Fourier-Transformationsoperant
F-1: inverser Fourier-Transformationsoperant
In diesem Fall muß die Relativposition t zwischen den beiden Bildern nicht verschoben werden, um einen Korre­ lationswert zu erhalten, im Gegensatz zum Fall der Gleichungen (c) bis (e).
Ein korrespondierender Punkt wird dadurch erhalten, in­ dem eine Position eines Spitzenwertes eines Kreuzkorre­ lations-Bildes ϕF(u, v) detektiert wird. Wenn der Rausch­ einfluß gering ist, kann ein korrekter korrespondieren­ der Punkt durch eine Phasenkorrelation, gegeben durch die folgende Gleichung, detektiert werden.
Alternativ können der Speicher 1306 und der Anpassungs­ schaltkreis 1307 zusammen mit einem Selektor 1330 ange­ ordnet sein, wie in Fig. 38 dargestellt. In diesem Fall wird ein Bild in Komponenten in Parallaxenrichtung und in Richtung senkrecht hierzu aufgetrennt und die aufge­ trennten Komponenten werden aufgezeichnet, um eine Pa­ rallelanpassung der Teilbilder durchzuführen, so daß die Gesamtverarbeitungszeit verkürzt wird.
Ein Verschiebungsbetrag zwischen den rechten und linken Bildern an jedem Punkt in dem Speicher 1308 wird in ei­ nen Berechnungsschaltkreis 1309 eingegeben, wie in Fig. 35A dargestellt. Der Berechnungsschaltkreis 1309 be­ rechnet einen Abstand zwischen dem Kameragehäuse 1300 und jedem Erfassungspunkt auf der Grundlage der Paral­ laxenkomponente, die bei Bildeingabe erzeugt wurde unter Verwendung der halben Oberflächen der Linse 1301 und des Verschiebungsgrades.
Ein Berechnungsergebnis von dem Schaltkreis 1309 wird in die Steuerung 1310 eingegeben. Nachdem die Vor-Fotogra­ fierung abgeschlossen worden ist, kann die In-Fokus-Po­ sitionssteuerung 1303 automatisch unter Verwendung der Distanzdaten am Mittenpunkt des Bildes derart gesteuert werden, daß ein Objekt im Mittenbereich des Suchers fo­ kussiert wird, so daß eine Autofokus-Arbeitsweise durchgeführt werden kann.
Im folgenden wird das Haupt-Fotografieren durch die Ka­ mera 1300 beschrieben. Die Steuerung 1310 setzt einen Verschiebungsbetrag der In-Fokus-Objektebenenlagen, welche der Akkumulation unterworfen sind und von Ein­ gangsvorgängen auf der Grundlage der Distanzinformation von dem Berechnungsschaltkreis 1309. Ein Verfahren zum Festsetzen des Bereiches der In-Fokus-Positionen wird im folgenden beschrieben. Eine Standardabweichung anzeigend den Grad der Variationen wird auf der Grundlage der Di­ stanzdaten der entsprechenden Erfassungspunkte berech­ net. Ein Bereich von ±kσ (k = 1 bis 2) wird von dem durchschnittlichen Distanzwert erhalten, um einen Akku­ mulationsbereich zu definieren. In diesem Fall werden Daten die als unendlich oder als Null berechnet wurden ausgeschlossen, wenn der durchschnittliche Distanzwert und die Standardabweichung berechnet werden. Der Akku­ mulationsbereich kann wahlweise und manuell von einer Bedienungsperson festgesetzt werden. Beim Haupt-Foto­ grafieren ist der Verschluß 1302 voll offen und die In-Fokus-Positionssteuerung 1303 wird im Akkumulations­ bereich betrieben, der von der Steuerung 1310 festge­ setzt wurde, innerhalb einer Belichtungszeit bestimmt durch den Verschluß 1302. Bilder mit unterschiedlichen In-Fokus-Positionen werden auf der lichtempfindlichen Oberfläche der Abbildungsvorrichtung 1304 akkumuliert. Ein Ausgangssignal von der Abbildungsvorrichtung 1304 wird durch den A/D-Wandler 1305 in ein Digitalsignal umgesetzt. Das digitale Signal wird in dem Speicher 1306 gespeichert. Die in dem Speicher 1306 gespeicherten ak­ kumulierten Bilder und Verschiebungsbeträge zwischen den rechten und linken Bildern bezüglich der Erfassungs­ punkte der Bilder in dem Speicher 1308 werden mittels des Schreiber 1311 auf dem Aufzeichnungsmedium 1400 ge­ speichert. Alternativ kann ein Addierer in dem Kamera­ gehäuse 1300 angeordnet sein und die Bilder mit unter­ schiedlichen In-Fokus-Positionen können beim Haupt-Fo­ tografieren akkumuliert und addiert werden.
Das Aufzeichnungsmedium 1400 kann eine Floppydisk, ein optischer Speicher, eine Platine mit einem Halbleiter- IC, ein Magnetband, einen Halbleiterspeicher ohne Ma­ gnetkörper, ein Speicher aus einem organischen Material oder dergleichen sein. Daten, die von dem Kameragehäuse 1300 erhalten worden sind, werden off-line zu dem Pro­ zessor 1500 über das Aufzeichnungsmedium 1400 übertra­ gen.
Anordnung und Arbeitsweise des Prozessors 1500 gemäß Fig. 35B werden nun beschrieben. Daten in dem Aufzeich­ nungsmedium 1400 werden von einem Leser 1501 ausgelesen. Die ausgelesenen Bilddaten werden in einem Speicher 1502 gespeichert. Die Verschiebungsbeträge zwischen rechten und linken Bildern bezüglich der Erfassungspunkte werden in einem Speicher 1503 gespeichert. Die Bilddaten in dem Bildspeicher 1502 werden einem Rückgewinnungs-Verarbei­ tungsschaltkreis 1504 zugeführt. Die Verschiebungsbe­ tragdaten in dem Speicher 1503 werden einem Faktorgene­ rator 1505 zugeführt. Der Faktorgenerator 1505 erzeugt einen Faktor oder Koeffizientenwert entsprechend dem Verschiebungsbetrag und der Faktorwert wird in den Rückgewinnungs-Verarbeitungsschaltkreis 1504 eingegeben. Ein Bildsignal, welches geeignet einer Rückgewinnungs- Verarbeitung durch den Schaltkreis 1504 unterworfen wurde, wird von einem D/A-Wandler 1506 in ein analoges Videosignal umgesetzt. Das analoge Videosignal wird auf dem TV-Monitor 1700 dargestellt. Die Arbeitsweise des Prozessors 1500 wird von einer Steuerung 1507 kontrol­ liert. Verarbeitungsbedingungen und Bildanzeigebedin­ gungen können von einer Beobachtungsperson über ein In­ terface 1600 eingegeben werden, welches mit der Steue­ rung 1507 verbunden ist.
Der Ablauf der Rückgewinnungs-Verarbeitung in dem Pro­ zessor 1500 wird nun beschrieben. Eine räumliche Filte­ rung wird von der Rückgewinnungs-Verarbeitungseinheit 1504 durch eine Umwandlung eines lokalen Bereiches durchgeführt, so daß die Rückgewinnungs-Verarbeitung abläuft.
Fig. 39 ist eine Ansicht eines Prinzips der Rückgewin­ nungs-Verarbeitung. Eine Umwandlungsoperation für ein gegebenes Pixel zwischen einer festgesetzten Maske 1510 und einem Pixelbereich von 5 × 5 des gegebenen Pixels wird durchgeführt. In einem folgenden Ablauf wird ein Ersatz des Umwandlungsergebnisses für das interessie­ rende Pixel sequentiell für interessierende Pixel durchgeführt (vorausgesetzt, daß dieser Vorgang nicht für zwei umfangseitige Linien durchgeführt wird). Mit dem obigen Verfahren wird die Rückgewinnungs-Verarbei­ tung durchgeführt und somit können unterschiedliche Filtervorgänge abhängig von der Lage innerhalb des Bil­ des durchgeführt werden. Wenn das Bild, das durch das Kameragehäuse 1300 synthetisiert wurde, nicht gleichmä­ ßig defokussiert ist, wird der Faktor der Maske 1510 in Abhängigkeit von den Lagen des Bildes geändert. Somit kann ein vollständig fokussiertes Bild angezeigt werden. Um die erwähnten Abläufe durchführen zu können, werden Distanzen zwischen dem Objekt und verschiedenen Erfas­ sungspunkten 1315 des Bildes in dem Kameragehäuse 1300 beim Vor-Fotografieren gemessen und die Grade der Defo­ kussierungsbeträge der entsprechenden Bereiche der ak­ kumulierten Bilder werden vorher erfaßt. Der Faktor der Maske 1510 wird dann auf der Grundlage der Defokussie­ rungsbetrag-Information bestimmt.
Bei dieser neunzehnten Ausführungsform kann der Grad der In-Fokus-Positionen, die der Akkumulation unterworfen werden im Vor-Fotografieren bestimmt werden. Selbst wenn die Defokussierung von Positionen innerhalb des Bildes abhängt, kann eine zufriedenstellende Rückgewinnungs- Verarbeitung durchgeführt werden. Somit kann der Anwen­ dungsfall der vorliegenden Erfindung hinsichtlich der elektronischen Kamera erweitert werden. Da der Faktor in der Rückgewinnungs-Verarbeitungsmaske 1510 in dem Pro­ zessor 1500 wahlweise abhängig von Positionen des Bildes geändert werden kann, kann der Brennpunktabstand von einer Bedienungsperson wie gewünscht wahlweise geändert werden.
(Zwanzigste Ausführungsform)
Fig. 40A und 40B zeigen eine Anordnung einer zwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera wie in der neunzehnten Ausführungsform. Die elektronische Kamera weist im we­ sentlichen ein Kameragehäuse 1800, ein Aufzeichnungsme­ dium 1900, einen Prozessor 2000, ein Interface 2100 und einen TV-Monitor 2200 auf. Das Kameragehäuse 1800 führt wie in der neunzehnten Ausführungsform ein Vor-Fotogra­ fieren und ein Haupt-Fotografieren durch. Beim Vor-Fo­ tografieren wird ein Objektbild von dem Mittenbereich einer Linse 1801 eingegeben, von einem Spiegel 1802 re­ flektiert und auf einen Autofokussensor 1803 (im fol­ genden mit AF-Sensor bezeichnet) gelenkt. Der AF-Sensor 1803 wird auf der Grundlage eines Phasendifferenz-Auto­ fokusschemas ähnlich der Stereoanpassung in der neun­ zehnten Ausführungsform betrieben und Daten entsprechend einer Phasendifferenz der zwei mit Parallaxe fokussier­ ten Bilder werden einem Bereichs-Berechnungsschaltkreis 1804 zugeführt. Der Berechnungsschaltkreis 1804 berech­ net einen Abstand zwischen dem Kameragehäuse 1800 und dem Objekt auf der Grundlage der Daten von dem Autofo­ kussensor 1803. Die Distanzdaten werden in einem Spei­ cher 1805 gespeichert. Die obigen Abläufe werden für verschiedene Positionen des Objektes, welche von einer Bedienungsperson festgesetzt werden, wiederholt. Die einzelnen Ergebnisse werden in dem Speicher 1805 ge­ speichert. Die Distanzmessung-Ergebnisse der Mehrzahl von Punkten, die in dem Speicher 1805 gespeichert sind, werden zu einer Steuerung 1806 geschickt, wonach die Bedingungen für das Haupt-Fotografieren gesetzt werden.
Der Ablauf des Haupt-Fotografierens wird im folgenden erläutert. Die Steuerung 1806 gewichtet in geeigneter Weise Bilder mit unterschiedlichen In-Fokus-Positionen und gibt diese Bilder auf der Grundlage der Distanzdaten zwischen dem Kameragehäuse 1800 und dem Objekt (gemessen beim Vor-Fotografieren) ein und addiert sie. Das heißt, eine In-Fokus-Positionssteuerung 1807 ändert diskret die In-Fokus-Position innerhalb des Bereiches, der beim Vor-Fotografieren vorgewählt wurde. In diesem Zustand wird ein Bild, das von der Linse 1801 fokussiert wird, einer Bildeingabevorrichtung 1808 eingegeben. Das in die Eingabevorrichtung 1808 eingegebene Bildsignal wird von einem A/D-Wandler 1809 in ein Digitalsignal umgesetzt. Das Digitalsignal wird von einem Multiplizierer 1811 mit einem vorherbestimmten Faktor oder Koeffizient, der in einem Speicher 1810 gespeichert ist, multipliziert. Das Produkt von dem Multiplizierer 1811 wird durch einen Addierer 1812 zu dem Bildsignal in einem Speicher 1813 hinzuaddiert. Diese Summe wird dann in dem Speicher 1813 wieder abgespeichert. Mit dieser Anordnung wird die Mehrzahl von Bildern, die eingegeben wird während die In-Fokus-Position diskret geändert wird, miteinander addiert. In dem Speicher 1813 wird eine Summe gespei­ chert. Wenn das Haupt-Fotografiern durchgeführt wird, wird der Spiegel 1802 mechanisch aus dem optischen Weg gebracht oder er wird optisch derart beeinflußt, daß er das Fotografieren nicht mehr stört. Die Distanzmeßdaten an verschiedenen Beobachtungspunkten, die in dem Spei­ cher 1805 aufgezeichnet sind und die Bilddaten in dem Speicher 1813 werden mittels eines Schreibers 1814 auf einem Aufzeichnungsmedium 1900 aufgezeichnet.
Aufbau und Arbeitsweise des Prozessors 2000 gemäß Fig. 40B werden nun beschrieben. Die in dem Aufzeichnungsme­ dium 1900 aufgezeichneten Daten werden von einem Leser 2001 ausgelesen. Die Bilddaten werden dann in einem Speicher 2002 gespeichert und die Distanzmeßdaten werden einer Steuerung 2003 eingegeben. Eine geeignete Rückge­ winnungs-Verarbeitung wird unter Verwendung der Di­ stanzmeßdaten in Abhängigkeit mit Bedingungen durchge­ führt, die von der Steuerung 2003 gesetzt wurden. Ein Bildsignal, das Rückgewinnungs-verarbeitet worden ist, wird durch einen D/A-Wandler 2005 in ein Analogsignal gewandelt und das analoge Videosignal wird auf einem TV-Monitor 2200 dargestellt. Der Rückgewinnungs-Vorgang durch den Prozessor 2000 und die verschiedenen Bildaus­ gangsvorgänge werden von dem Interface 2100, das mit der Steuerung 2003 verbunden ist, vorgewählt.
Die zwanzigste Ausführung mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Eine Bedienungsperson setzt verschiedene Objektteile in einen Mittenbereich des Rahmenbildes fest und drückt einen Bereichsberech­ nungs-Knopf. Die Distanz zwischen dem Kameragehäuse 1800 und den verschiedenen Objektbereichen werden in dem Speicher 1805 in dem Kameragehäuse 1800 aufgezeichnet. Die Steuerung 1806 setzt die Eingangsbedingungen für das von der Bedienungsperson ausgewählte Objekt auf beinahe defokusiert. In diesem Zustand wird das Haupt-Fotogra­ fieren durchgeführt. Der Prozessor 2000 führt eine geeignete Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmessungsdaten durch, welche beim Vor-Foto­ grafieren erhalten worden sind.
Ein Verfahren von Festsetzen von Additions- und Einga­ bebedingungen der Bilder auf der Grundlage einer Mehr­ zahl von Distanzmessungsdaten wird im folgenden be­ schrieben. Aus Gründen der Einfachheit der Erläuterung sei angenommen, daß zwei Objekte mit unterschiedlichen Abständen von dem Kameragehäuse 1800 vorhanden sind. Erfindungsgemäß wird, um ein Bild mit einem großen Brennpunktsabstand durch Durchführen einer raum-inva­ rianten Rückgewinnungs-Filterung der eingegebenen Bil­ der, die miteinander addiert wurden, während die In-Fo­ kus-Position geändert wurde, anzuzeigen, der Grad der Defokussierung des synthetisierten Bildes raum-invariant sein muß. Ein Defokussierungsbetrag um "außerhalb der Fokussierung" wird durch eine geometrische Annäherung gegeben.
Fig. 41 zeigt diese geometrische Beziehung. Es sei ange­ nommen, daß ein Objektpunkt A1 von einer Fotografier­ ebene 1820 des Kameragehäuses 1800 um eine Distanz l1 entfernt ist und daß ein Objektpunkt A2 hiervon um einen Abstand l2 entfernt ist. Weiterhin sei angenommen, daß eine Distanz zwischen den Objektpunkten A1 und A2 gleich d ist. Die obere Hälfte von Fig. 41 zeigt eine geome­ trische Beziehung, wenn der Objektpunkt A1 fokussiert ist. In diesem Fall wird ein Defokussierungsbetrag σ2 des Objektpunktes A2 von einem Strahlenbündel vertreten, das von dem Objektpunkt A2 in der Fotografierebene 1820 entspringt. Die untere Hälfte von Fig. 41 zeigt die geometrische Beziehung, wenn der Objektpunkt A2 fokus­ siert ist. In diesem Falle wird ein Defokussierungsbe­ trag σ1 des Objektpunktes A1 von einem Strahlenbündel vertreten, welches von dem Objektpunkt A1 in der Foto­ grafierebene 1820 vorspringt. Wenn eine Brennweite der Linse 1801 zu f definiert ist und die Bedingung f << l1 angenommen wird, können die Defokussierungsbeträge σ2 und σ1 wie folgt angenähert werden:
wobei F eine f-Nummer der Kamera ist und F = f/D (D = Durchmesser einer Austrittspupille einer Linse). Wenn die Näherungsgleichungen (h) und (i) verglichen werden, ergibt sich die Beziehung zwischen dem Defokussierungs­ betrag σ2 des Objektpunktes A2 bei Fokussierung auf den Objektpunkt A1 und der Defokussierungsbetrag σ1 des Ob­ jektpunktes A1 bei Fokussierung auf den Objektpunkt A2 zu σ2 < σ1. Wenn die Differenz zwischen diesen beiden Defokussierungsbeträgen klein ist, ist die Distanz l1 klein. Mit anderen Worten, es zeigt sich, daß ein typi­ scher Effekt erhalten wird, wenn das Objekt A1, das nä­ her an der Kamera ist, sich hieran noch annähert. In diesem Fall können die Defokussierungsbeträge der Ob­ jekte an den Objektpunkten A1 und A2 in den addierten und eingegebenen Bildern während sich die In-Fokus-Po­ sition äquidistant im Bereich zwischen den Objektpunkten A1 und A2 ändert, nicht gleich erhalten werden. Dies bedeutet, daß der Defokussierungsbetrag des Objektes am Objektpunkt A2 größer ist als der am Objektpunkt A1. In dieser Ausführungsform wird der Defokussierungsbetrag des synthetisierten Bildes durch eine Gewichtungsaddie­ rung auf raum-invariant gesetzt, d. h. durch eine Ad­ dierung mit einer Gewichtung. Ein Verfahren zur Bestim­ mung eines Gewichtungsfaktors wird im folgenden be­ schrieben.
Es sei angenommen, daß m In-Fokus-Positionen äquidistant innerhalb des Bereiches zwischen A1 und A2 festgesetzt sind, wie in Fig. 42 dargestellt. Gewichtungskoeff­ izienten oder -faktoren ωi (i = 1, 2, .... m) werden mit den entsprechenden In-Fokus-Positionen multipliziert und die Produkte werden miteinander addiert. Defokussie­ rungsbeträge σ2(i) und σ1(i) (i = 1, 2, ... m) an den Punkten A2 und A1 an den In-Fokus-Positionen werden durch die folgenden Gleichungen ausgedrückt:
Die Defokussierungbeträge der Objekte an den Objekt­ punkten A2 und A1 der gewichteten und addierten Bilder werden durch
repräsen­ tiert. Um ein Minimum ωi (i = 1, 2, ... m) unter der Be­ dingung dieser Punkte zu erhalten, die durch
beschränkt sind, wird ein Lagrange'sches Unbestimmt­ heits-Multiplizierverfahren wie folgt verwendet:
Ein gleichzeitiges System (p) wird für eine unbestimmte Anzahl ωi (i = 1, 2, . . . m) auf der Basis der Gleichun­ gen (o) und (m) errichtet. Das System (p) ergibt sich in Form der folgenden Matrix:
Durch Auflösung der Matrix (p) kann ein optimales i (i = 1, 2, . . . m) erhalten werden.
Wenn die Distanz (l1 und d) zwischen dem Kameragehäuse 1800 und dem Objekt erfaßt wurde, wird zuvor der Weg des Festsetzens des Gewichtungsfaktors überprüft. Geeignete Gewichtungsadditions- und Eingabeabläufe werden in der Praxis auf der Grundlage der Distanz zu jedem Objekt durchgeführt, welche beim Vor-Fotografieren berechnet wird. Wenn die Linse 1801 eine austauschbare Linse ist, kann der Gewichtungsfaktor bzw. die Gewichtungsfaktor­ daten in einem Speicher mit wahlfreiem Zugriff (ROM) für die Linse 1801 gespeichert werden und die Daten werden der Steuerung 1806 in dem Kameragehäuse 1800 übertragen, so daß eine vorbestimmte Verarbeitung durchgeführt wer­ den kann.
Bei dieser zwanzigsten Ausführungsform kann der Brenn­ punktsabstand beliebig geregelt werden, um auf alle Ob­ jekte zu fokussieren, die wahlweise von einer Bedie­ nungsperson ausgewählt werden. Additionen mit Gewichtung werden durchgeführt, um den Defokussierungszustand des Bildes so zu setzen, daß dieser praktisch raum-invariant ist, so daß der Rückgewinnungs-Verarbeitungsvorgang ver­ einfacht ist.
(Einundzwanzigste Ausführungsform)
Fig. 43 zeigt die Anordnung einer einundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera wie in der neunzehnten und zwanzigsten Ausführungsform. Die Anordnung dieser einundzwanzigsten Ausführungsform entspricht der Anord­ nung, die erhalten wird, wenn in der zwanzigsten Aus­ führungsform gemäß Fig. 40A auf den Speicher 1810 und den Multiplizierer 1811 des Kameragehäuses 1800 ver­ zichtet wird. Ein Kameragehäuse 2300 in der einundzwan­ zigsten Ausführungsform führt ein Vor-Fotografieren und ein Haupt-Fotografieren durch. Beim Vor-Fotografieren passiert das gleiche wie im Falle der zwanzigsten Aus­ führungsform und eine detaillierte Beschreibung hiervon erfolgt nicht mehr. Im folgenden wird der Vorgang beim Haupt-Fotografieren in der einundzwanzigsten Ausfüh­ rungsform beschrieben. Eine Steuerung 2306 steuert einen In-Fokus-Positionskontroller 2307 um Bilder in Abhän­ gigkeit von Bedingungen bestimmt durch das Vor-Fotogra­ fieren einzugeben und zu addieren. Der Kontroller 2307 ändert diskret die In-Fokus-Position in Abhängigkeit der erwähnten Bedingungen. In jedem Zustand wird ein Bild, das durch eine Linse 2301 fokussiert ist einer Bildein­ gabevorrichtung 2308 zugeführt. Ein Bildsignal der Vor­ richtung 2308 wird von einem A/D-Wandler 2309 in ein digitales Signal umgesetzt. Das digitale Signal wird von einem Addierer 2312 zu dem Bildsignal in einem Speicher 2313 hinzuaddiert. Die sich ergebende Summe wird wieder in dem Speicher 2313 gespeichert. Mit dieser Anordnung wird die Mehrzahl von gegebenen Bildern, während die In-Fokus-Position diskret geändert wird, akkumuliert und addiert. Das Ergebnis wird dann in dem Speicher 2313 gespeichert. Distanzmeßdaten von verschiedenen Beobach­ tungspunkten in dem Speicher 2305 und die Bilddaten in dem Speicher 2313 werden auf im Aufzeichnungsmedium 1900 mittels eines Schreibers 2314 aufgezeichnet. Das syn­ thetisierte Bild auf dem Aufzeichnungsmedium 1900 wird von einem Prozessor in gleicher Weise wie in der zwan­ zigsten Ausführungsform ausgelesen und einer geeigneten Rückgewinnungs-Verarbeitung auf der Grundlage der Dis­ tanzmeßdaten, ausgelesen von dem Aufzeichnungsmedium 1900 unterworfen. Die entsprechend verarbeiteten Daten werden auf einem TV-Monitor dargestellt. Anordnungen von Prozessor, Monitor und Interface dieser Ausführungsform entsprechen der der zwanzigsten Ausführungsform.
Die einundzwanzigste Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Wie bereits unter Bezugnahme auf die zwanzigste Ausführungsform erläutert, ist die Defokussierung der Bilder die eingegeben werden, während die Distanz zwischen den Punkten A1 und A2 äquidistant in In-Fokus-Positionen unterteilt ist, nicht raum-invariant. Diese Ausführungsform verwendet die folgende Einrichtung um die Bilder einzugeben und zu addieren, so daß die Defokussierung praktisch völlig raum-invariant wird. In-Fokus-Punkte werden von dem Ob­ jektpunkt A1 zu dem Objektpunkt A2 gesetzt, wie in Fig. 44 dargestellt. Das heißt, die Distanz zwischen den In-Fokus-Positionen ist groß nahe dem Objektpunkt A1 aber die Distanz zwischen den In-Fokus-Positionen wird kleiner nahe dem Objektpunkt A2. Ein Objekt an dem ent­ fernten Objektpunkt A2 vom Kameragehäuse 2300 beim Set­ zen der In-Fokus-Positionen wie beschrieben wird nun in Betracht gezogen. Die Anzahl von Bildern mit großen De­ fokussierungsbeträgen an einem Brennpunkt des Kamerage­ häuses 2300 an einem näheren Punkt ist geringer als die, die erhalten wird bei äquidistanten In-Fokus-Positionen. Der Defokussierungsbetrag des Objektes an dem Objekt­ punkt A2 kann in dem synthetisierten Bild reduziert werden. Der Defokussierungsbetrag des Objektes am Ob­ jektpunkt A1 ist im Vergleich mit dem Fall in dem synthetisierten Bild erhöht, indem die In-Fokus-Posi­ tionen äquidistant gesetzt sind. Somit ist die Defokus­ sierung des synthetisierten Bildes praktisch raum-inva­ riant. Die Distanzen zwischen den In-Fokus-Positionen in dieser Ausführungsform können leicht durch den Faktor ωi (i = 1, 2, . . . m) berechnet werden durch das Verfahren, das bereits unter Bezug auf die zwanzigste Ausführungs­ form beschrieben wurde. In der einundzwanzigsten Aus­ führungsform können die Bilder geeignet eingegeben und addiert werden auf der Grundlage der Distanzen zu den entsprechenden Objekten, welche beim Vor-Fotografieren gemessen wurden.
Der gleiche Effekt wie in der zwanzigsten Ausführungs­ form kann auch bei der einundzwanzigsten Ausführungsform mit einer einfachen Anordnung erhalten werden.
(Zweiundzwanzigste Ausführungsform)
Fig. 45 zeigt die Anordnung einer zweiundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einer elektronischen Kamera, wie in der neunzehnten, zwanzigsten und einundzwanzigsten Ausführungsform. Die Anordnung bzw. Ausgestaltung des Kameragehäuses 2400 in der zweiundzwanzigsten Ausführungsform ist gleich der Anordnung die erhalten wird, indem der Addierer 2312 in der einundzwanzigsten Ausführungsform weggelassen wird. Das Kameragehäuse 2300 dieser Ausführungsform führt ein Vor-Fotografieren und ein Haupt-Fotografieren durch. Der Ablauf des Vor-Fotografierens in dieser Ausführungsform entspricht dem in der zwanzigsten Ausführungsform und eine detaillierte Beschreibung hiervon erfolgt nicht. Beim Haupt-Fotografieren steuert eine Steuerung 2406 einen In-Fokus-Positionskontroller 2407 derart, daß Bilder auf der Grundlage der beim Vor-Fotografieren be­ stimmten Bedingungen eingegeben und addiert werden. Die Bilder, die auf eine Linse 2401 fokussiert werden, wäh­ rend die In-Fokus-Position mit einer festgelegten Ge­ schwindigkeit innerhalb einer Belichtungszeit geändert wird, werden auf einer lichtempfindlichen Oberfläche einer Abbildungsvorrichtung 2408 akkumuliert. Das akku­ mulierte Bild wird von einem Konverter 2409 in ein di­ gitales Signal umgesetzt und das digitale Signal wird in einem Speicher 2413 gespeichert. Die gespeicherten Bilddaten zusammen mit den Distanzmeßdaten in einem Speicher 2405 werden auf einem Aufzeichnungsmedium 1900 mittels eines Schreibers 2414 gespeichert. Das synthe­ tisierte oder akkumulierte Bild auf dem Aufzeichnungs­ medium 1900 wird in einem Prozessor ähnlich dem der zwanzigsten Ausführungsform übertragen. Die ausgelesenen Daten werden einer geeigneten Rückgewinnungs-Verarbei­ tung auf der Grundlage der Distanzmeßdaten von dem Auf­ zeichnungsmedium 1900 unterworfen. Das entsprechend ver­ arbeitete Bild wird dann auf einem TV-Monitor darge­ stellt. Anordnung von Prozessor, Monitor und Interface, mit dem eine Bedienungsperson Manipulationen vornehmen kann, entsprechen der der zwanzigsten Ausführungsform.
Die zweiundzwanzigste Ausführungsform mit der beschrie­ benen Anordnung arbeitet wie folgt: Die In-Fokus-Punkte werden gesteuert um raum-invariant zu sein unter Ver­ wendung der Distanzmeßdaten von verschiedenen Objekten, die beliebig von einer Bedienungsperson in gleicher Weise wie in der zwanzigsten und einundzwanzigsten Aus­ führungsform ausgewählt werden können. Um den geometri­ schen Beziehungen gemäß Fig. 41 gerecht zu werden, wer­ den die In-Fokus-Positionen innerhalb der Belichtungs­ zeit in diser Ausführungsform mit den Charakteristiken gesteuert, die wie in Fig. 46 dargestellt, geändert sind. Genauer gesagt, die In-Fokus-Position wird schnell bewegt, um die Bilder nahe dem Objektpunkt A1 näher an dem Kameragehäuse 2400 nur sparsam zu akkumulieren, wo­ hingegen die In-Fokus-Position langsam bewegt wird, um die Bilder nahe dem Objektpunkt A2 entfernt von dem Ka­ meragehäuse 2400 dicht zu akkumulieren. Hierdurch ist das synthetisierte Bild praktisch raum-invariant, wo­ durch die Defokussierung nicht von örtlichkeiten ab­ hängt, also so wie in der einundzwanzigsten Ausfüh­ rungsform. Eine Kurve f(x) in Fig. 46 ist so gegeben, daß der Faktor ωi (i = 1, 2, . . . m) aus der zwanzigsten Ausführungsform als Differentialkoeffizient entlang ei­ ner Koordinatenachse x dient, welche die In-Fokus-Posi­ tionen angibt. Das heißt,
gilt. Wie in Fig. 47 dargestellt, können Bilder akkumuliert und eingegeben werden, während die In-Fokus-Position schrittweise geändert wird. In diesem Fall wird die Be­ lichtungszeit in der In-Fokus-Position vorzugsweise so gesetzt, daß sich ein Verhältnis der Faktoren i (i = 1, 2, . . . m) ergibt, wie in der zwanzigsten Ausführungsform erhalten.
Die gleichen Effekte wie in der zwanzigsten und ein­ undzwanzigsten Ausführungsform können in der zweiund­ zwanzigsten Ausführungsform mit einer noch einfacheren Anordnung erreicht werden.
Eine Anordnung für ein optisches System zur Eingabe von Bildern mit unterschiedlichen In-Fokus-Positionen der ersten, zweiten, dritten, fünfzehnten, neunzehnten, zwanzigsten, einundzwanzigsten und zweiundzwanzigsten Ausführungsform wird im folgenden beschrieben.
Fig. 48 zeigt die Anordnung einer Zoom-Linse. Das Lin­ sensystem weist ein Fokussierungssystem 2501, ein va­ riables System 2502, ein Kompensatorsystem 2503 und ein Relaislinsensystem 2504 auf. Jedes Linsensystem kann aus einer Mehrzahl von Linsen bestehen, wobei jedoch in Fig. 48 diese Mehrzahl von Linsen nicht dargestellt ist. Von den obigen Linsensystemen wird das Relaislinsensystem 2504 beim Zoomen nicht mechanisch bewegt und fokussiert ein Bild das von dem Kompensatorsystem 2503 geführt wird auf eine Abbildungsvorrichtung 2506. Wenn somit das Re­ laislinsensystem 2504 von einem entsprechenden Treiber 2505 in der optischen Achse angetrieben wird, können Bilder mit In-Fokus-Positionen eingegeben werden, unab­ hängig von den Brennweiten der Linsen. Der Relaislin­ sentreiber 2505 wird von einem Stellglied realisiert unter Verwendung eines elektromagnetischen Motors, eines Ultraschallmotors, eines piezoelektrischen Elements oder dergleichen.
(Dreiundzwanzigste Ausführungsform)
Fig. 49 zeigt eine dreiundzwanzigste Ausführungsform der vorliegenden Erfindung. Die dreiundzwanzigste Ausfüh­ rungsform entspricht teilweise der dritten Ausführungs­ form gemäß Fig. 3. Ein Objektbild wird auf einen licht­ empfangenden Teil einer Abbildungsvorrichtung 52, ge­ bildet durch ein CCD oder eine Abbildungsröhre durch eine Linse 51, dargestellt im oberen rechten Abschnitt von Fig. 49, fokussiert. Ein optisches Eingabesystem weist normalerweise eine Mehrzahl von Linsen auf, jedoch ist aus Gründen der Übersichtlichkeit nur eine Linse dargestellt. Ein Ausgangssignal, d. h. ein Bildsignal von der Abbildungsvorrichtung 52 wird von einem A/D- Wandler 53 in ein digitales Signal umgesetzt. Das digi­ tale Signal wird in einem festgelegten von Speichern 55-1 bis 55-m abgespeichert, der von einem Selektor 54 ausgewählt wird. Diese Abläufe werden so durchgeführt, daß die In-Fokus-Position diskret von einer Steuerung 56 in festgelegten Intervallen innerhalb eines festgelegten Abstandsbereiches geändert wird. Die n (n ≦ m) eingege­ benen Bilder werden entsprechend in n-Speichern der Speicher 55-1 bis 55-m gespeichert. Die in den Speichern 55-1 bis 55-m gespeicherten Bilder werden einer Fou­ rier-Transformation unterworfen und die Ergebnisse wer­ den wieder in den Speichern 55-1 bis 55-m gespeichert. Die in den Speichern 55-1 bis 55-m gespeicherten Fou­ rier-transformierten Bildsignale werden einem Komparator 58 zugeführt. Der Komparator 58 vergleicht Spektralin­ tensitäten der Fourier transformierten Bilder in Ein­ heiten von Ortsfrequenzen. Die Fourier transformierten Bilder werden von höher- zu niederintensiven Bilder neu geordnet. Diese Bildsignale werden Multiplizierern 60-1 bis 60-P (P ≦ m) zugeführt. Faktoren oder Koeffizienten in einem Speicher 59 werden den Multiplizierern 60-1 bis 60-P als Multiplikanten zugeführt. Die Multiplizierer 60-1 bis 60-P multiplizieren die Koeffizienten mit den Fourier transformierten Bildsignalen von dem Komparator 58. Die Ausgangssignale von den Multiplizierern 60-1 bis 60-P werden einem Addierer 61 zugeführt und hier ad­ diert. Ein synthetisiertes Signal von dem Addierer 61 wird in einem Speicher 62 gespeichert. Die Fourier­ transformierten Bilder, die in Einheiten von Ortsfre­ quenzen gewichtet und addiert und in dem Speicher 62 aufgezeichnet sind, werden dann mittels einem FFT- Arithmetikelement 57 einer inversen Fourier-Transforma­ tion unterworfen. Das Ergebnis von dem Arithmetikelement 57 wird wieder in dem Speicher 62 gespeichert. Das ver­ arbeitete Bildsignal in dem Speicher 62 wird durch einen D/A-Wandler 63 in ein Analogsignal umgesetzt. Das Ana­ logsignal wird auf einem Anzeigemonitor 64 dargestellt. Die Zeitsteuerung und die Signalflüsse in den obigen Abläufen werden durch eine Steuerung 65 gesteuert.
Anstelle des Faktor-Festsetzungsspeichers 59 und der Multiplizierer 60-1 bis 60-P kann eine Datentabelle (lookup table) verwendet werden und vorher bestimmte Faktoren können durch eine Tabellenkonversion multipli­ ziert werden. Die originalen Bildsignale in den Spei­ chern 55-1 bis 55-m können auf einem anderen Aufzeich­ nungsmedium, beispielsweise einer Floppydisk, einem Ma­ gnetband, einem optischen Speicher oder dergleichen aufgezeichnet werden. Die Bildeingabe, Aufzeichnungs- und Wiedergabeeinheiten können off-line derart mitei­ nander sein, daß das aus diesem externen Aufzeichnungs­ medium ausgelesene Bildsignal der Fourier-Transformation Additionen mit Gewichtung und inverser Fourier-Trans­ formation während der Bildwiedergabe unterworfen werden kann. Die Gewichtungsfaktoren oder -Koeffizienten, die während der Addition mit den gewichteten Einheiten von Ortsfrequenzen verwendet werden, können von Anfang an fest sein oder einer aus der Mehrzahl von Faktoren vor­ gespeichert in dem Speicher 59 kann durch eine Bedie­ nungsperson ausgewählt werden. Alternativ hierzu kann der Inhalt des Speichers 59 erneuert werden.
Die dreiundzwanzigste Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Es sei angenommen, daß ein Objekt 70 eine stufenweise Struktur hat wie in Fig. 50 dargestellt. Die entsprechenden Oberflächen der stufenartigen Abschnitte des Objektes 70 haben natürli­ che Frequenzen. Wenn das Objekt 70 mit Vorsprüngen in Tiefenrichtung mit einem optischen System beobachtet wird, das einen relativ kleinen Brennpunktsabstand hat, kann eine fokussierte Oberfläche klar beobachtet werden, aber die anderen Oberflächen sind außerhalb des Fokus­ sierungsbereiches. Wenn eine gegebene Oberfläche fokus­ siert ist, hat sein Eingangsbild eine Frequenz, die einzig zu seiner Oberfläche ist. Somit haben die Fou­ rier-Spektren FS1, FS2, FS3, . . . dieser Eingangsbilder, die auf die entsprechenden Oberflächen fokussiert sind, natürliche Ortsfrquenzdaten der entsprechenden Oberflä­ chen. Wenn die Fourier-Spektren FS1, FS2, FS3, . . . der Mehrzahl von eingegangenen Bildern gewichtet und addiert werden in Einheiten der Ortsfrequenzen, während die Brennpunktslage geändert wird, kann hierdurch ein syn­ thetisiertes Fourier-Spektrum eines Bildes erhalten werden einschließlich der Ortsfrequenzdaten aller Ober­ flächen.
In diesem Fall wird die folgende Gewichtungstechnik verwendet: Eine gegebene Ortsfrequenz wird in Betracht gezogen und Spektralintensitäten der Frequenzen werden zwischen den Bildern mit unterschiedlichen In-Fokus-Po­ sitionen verglichen. "10" wird mit dem Bild mit der höchsten Spektralintensität multipliziert und "0" wird mit den verbleibenden Bildern multipliziert oder "4", "3", "2" und "1" werden den Bildern von den höheren Spektralintensitäten der Frequenz zugewichtet. Alternat­ iv hierzu kann die Gewichtung proportional zu den Spek­ tralintensitäten erfolgen. Wenn praktisch nur noch Rau­ schen in einer Hochortsfrequenz-Region auftritt, werden identische Gewichtungsfaktoren oder -Koeffizienten ver­ wendet und "0" wird jeweils mit den Bildern multipli­ ziert, wodurch das Rauschen verringert wird. Die Ge­ wichtungstechnik kann geeignet ausgewählt werden in Ab­ hängigkeit von den Eigenschaften des Objektes oder des optischen Systems.
Das sich ergebende Fourier-Spektrum-Bild wird einer in­ versen Fourier-Transformation unterworfen, um ein Bild zu erhalten mit einem im wesentlichen hohen Brennpunkts­ abstand. Aus Gründen der Einfachkeit der Erläuterung wird eine eindimensionale Fourier-Transformation ver­ wendet, es kann jedoch auch eine zweidimensionale Fou­ rier-Transformation in der Praxis verwendet werden.
(Vierundzwanzigste Ausführungsform)
Fig. 51 zeigt die Anordnung einer vierundzwanzigsten Ausführungsform der vorliegenden Erfindung. In dieser Ausführungsform wird ein optisches Element, z. B. eine Linse 66 so ausgelegt, daß absichtlich eine chromatische Aberration in dem optischen System zur Bildeingabe auftritt. Zusätzlich sind dichroitische Spiegel 67-1 und 67-2 hinterhalb der Linse 66 angeordnet. Bilder mit un­ terschiedlichen Wellenlängen-Bereichen werden von Ab­ bildungsvorrichtungen 52-1 bis 52-3 ausgebildet. Die Spiegel 67-1 und 67-2 können Spiegel mit Filtercharak­ teristiken gemäß Fig. 52 sein.
Wie in Fig. 52 dargestellt, kann der Spiegel 67-1 Licht des blauen Bereiches reflektieren und Licht mit einer Wellenlänge größer als der von grün hindurchlassen. Der Spiegel 67-2 kann Licht mit einer Wellenlänge kleiner als der von grün reflektieren und ist durchlässig für rotes Licht. Mit dieser Anordnung wird ein Bild eines blauen Bereiches der Abbildungsvorrichtung 52-1 einge­ geben, ein grünes Bild der Abbildungsvorrichtung 52-2 und ein rotes Bild der Abbildungsvorrichtung 52-3.
Gemäß Fig. 51 werden die Bildsignale von den Abbil­ dungsvorrichtungen 52-1 bis 52-3 von A/D-Wandlern 53-1 bis 53-3 in digitale Signale umgesetzt. Die digitalen Signale werden in Speichern 55-1 bis 55-m abgespeichert.
Die verbleibenden Punkte dieser Ausführungsform sind gleich der dreiundzwanzigsten Ausführungsform und eine detaillierte Beschreibung erfolgt nicht.
Gemäß dieser Ausführungsform wird das Bild in drei Kom­ ponenten, d. h. in die Komponenten blau, grün und rot aufgeteilt. Jedoch ist die vorliegende Erfindung nicht auf diesen Sachverhalt beschränkt. Beispielsweise kann die Anzahl der Bänder auf vier oder mehr erhöht werden oder auch auf zwei beschränkt werden. Zusätzlich kann ein Interferenzfilter verwendet werden, um ein Bild einzugeben mit einem engen speziellen Wellenlängenbe­ reich. Eine Mehrzahl von durchschnittlichen Bandpaß- oder Farbfiltern kann anstelle der dichroitischen Spie­ gel 67-1 und 67-2 verwendet werden und diese Filter können schaltbar sein um eine Abbildungsvorrichtung zu veranlassen, Bilder mit einem Mehrfachband auszugeben.
Die vierundzwanzigste Ausführungsform mit dem erwähnten Aufbau hat die folgende Arbeitsweise: Die spektrale Re­ flektionscharakteristik eines allgemeinen Objektes ist über einen weiten Bereich im wesentlichen entsprechend dem gesamten Bereich von sichtbaren Licht verteilt. Bilder an den entsprechenden Wellenlängen haben eine starke Korrelation. Das heißt, durch Verwendung eines optischen Elementes, welches absichtlich eine chromati­ sche Aberration verursacht, werden Bilder mit unter­ schiedlichen Brennpunktslagen entsprechend den Wellen­ längen fokussiert und Bilder mit im wesentlichen unter­ schiedlichen In-Fokus-Positionen können gleichzeitig eingegeben werden. Da Bilder eingegeben werden können, die an einer Mehrzahl von Positionen fokussiert sind, ohne irgendeinen mechanischen Vorgang zur Änderung der In-Fokus-Position zu erzeugen, kann eine Vorrichtung frei von Verzerrungen oder dergleichen geschaffen wer­ den, die bisweilen bei mechanischen Vorrichtungen der Fall sein können.
(Fünfundzwanzigste Ausführungsform)
Fig. 53 zeigt die Anordnung einer fünfundzwanzigsten Ausführungsform der vorliegenden Erfindung. Diese Aus­ führungsform entspricht teilweise der vierten Ausfüh­ rungsform gemäß Fig. 4. In der fünfundzwanzigsten Aus­ führungsform sind Halbspiegel 68-1 und 68-2 hinter einer Linse 51 eines optischen Systems zur Bildeingabe an­ geordnet und Distanzen zwischen der Linse 51 und den Abbildungsvorrichtungen 52-1 bis 52-3 sind zueinander unterschiedlich festgesetzt. Die weiteren Anordnungen sind gleich der in der vierundzwanzigsten und dreiund­ zwanzigsten Ausführungsform und eine nochmalige detail­ lierte Beschreibung erfolgt nicht.
Die Abbildungsvorrichtungen 52-1 bis 52-3 können beweg­ bar sein, um ihre Lage in Abhängigkeit mit den ver­ schiedenen Objekttypen geeignet festsetzen zu können.
Die fünfundzwanzigste Ausführungsform mit der erwähnten Anordnung hat die folgende Arbeitsweise: in dieser Aus­ führungsform werden die Bilder, die auf die Mehrzahl von unterschiedlichen Ebenen fokussiert sind, eingegeben und die Mehrzahl von Bildern mit unterschiedlichen In-Fo­ kus-Positionen kann gleichzeitig eingegeben werden. So­ mit kann eine einfache Anordnung erhalten werden, bei der die mechanischen Operationen zur Änderung der In-Fo­ kus-Positionen nicht durchgeführt werden müssen und die Anwendungsmöglichkeiten für diese Vorrichtung können erweitert werden.
(Sechsundzwanzigste Ausführungsform)
Die Fig. 54A bis 54C zeigen eine Anordnung gemäß einer sechsundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einem oberflächensequen­ tiellen elektronischen Endoskop ähnlich der achten Aus­ führungsform gemäß den Fig. 13A bis 13C. Das elektroni­ sche Endoskop faßt hauptsächlich eine Endoskopsonde 3300, eine Bildeingabeeinheit 3301, eine Farbfehlaus­ richtungs-Korrektureinheit 3302, einen Farbinformations­ aufzeichner 3303, eine Brennpunktabstands-Erhöhungsein­ heit 3304, eine Bildanzeigeeinheit 3305 und eine Steue­ rung 3306. Eine Abbildungsvorrichtung 3310 die monochro­ matisch und auf Halbleiterbasis ist, beispielsweise eine CCD, ist am distalen Ende der Endoskopsonde 3300 ange­ ordnet. Ein Bild, das von einer Objektivlinse in einer In-Fokus-Lagesteuerung 3311 fokussiert wird, wird abge­ bildet. In diesem Falle wird Beleuchtungslicht wie folgt erhalten: Licht von einer Weißlichtquelle 3313, wie beispielsweise einer Xe-Lampe, welches ein Drehfarben­ filter 3312 in der Bildeingabeeinheit 3301 durchtritt, wird mittels eines Lichtleiters 3314 bestehend aus einer optischen Faser oder dergleichen in die Endoskopsonde 3300 geführt. Das Licht wird dann vom distalen Ende der Sonde abgestrahlt.
Der drehende Farbfilter 3312 weist den gleichen Aufbau auf wie der gemäß Fig. 14.
Gemäß Fig. 54B, wird der Farbfilter 3312 von einem Motor 3314 in der Bildeingabeeinheit 3301 angetrieben und die Farben des Beleuchtungslichtes ändern sich in der Rei­ henfolge von R nach G und nach B. Aus diesem Grund wird ein mit diesem Lichtkomponenten beleuchtetes Objekt mit diesen Farben von der Bildabtastvorrichtung 3310 als monochromatisches Bild aufgenommen. Ein Ausgangsbildsi­ gnal von der Bildaufnahmevorrichtung 3310 wird mittels eines A/D-Wandlers 3315 in ein digitales Signal umge­ setzt und das digitale Signal wird in einem entspre­ chenden vorbestimmten Farbbereich von Rahmenbildspei­ chern 3317-1 bis 3317-3 gespeichert. Die obigen Abläufe werden von einer Bildeingabesteuerung 3318 gesteuert. Die Komponenten R und G oder die Komponenten G und B der Primärfarbbilder, d. h. der Komponenten R, G und B, die sequentiell in dem Rahmenbildspeicher 3317 gespeichert sind, werden von einem Selektor 3319 ausgewählt. Die ausgewählten Bildsignale werden einem Bereichsdetektor 3320 in der Farbfehlausrichtungs-Korrektureinheit 3302 zugeführt und Fehlausrichtungsbeträge der Bilder R oder B bezüglich des Bildes G werden lokal detektiert. Ein Adressengenerator 3321 erzeugt Adressen zur Korrektur der Fehlausrichtungsbeträge, die durch den Detektor 3320 berechnet wurden und diese Adressensignale werden dem Rahmenbildspeicher 3317-1 bis 3317-3 zugeführt. Die Rahmenbildspeicher 3317-1 bis 3317-3 korrigieren die Bilder R und B unter Verwendung der Adressensignale und eines Pufferspeichers 3317-4.
Das sich ergebende einzelne Farbbild wird der Farbin­ formations-Aufzeichnungseinheit 3303 über den Selektor 3319 zugeführt. In der Aufzeichnungseinheit 3303 werden die entsprechenden Farbkomponenten durch einen Addierer 3322 miteinander addiert, um einen Helligkeitswert Y = R + G + B zu erhalten. Gleichzeitig werden die Farbkompo­ nenten R, G und B durch Teiler 3323-1 bis 3323-3 durch Y dividiert. Die Quotienten R/Y, G/Y und B/Y von den Tei­ lern 3323-1 bis 3323-3 werden in entsprechenden Spei­ chern 3324-1 bis 3324-3 gespeichert.
Die Bilder R, G und B die eingegeben wurden, während die Brennpunktslage durch Steuerung 3311 in der Endoskop­ sonde 3300 geändert wurde, d. h. die Bilder R, G und B in den Rahmenbildspeichern 3317-1 bis 3317-3 in der Bildeingabeeinheit 3301 werden in Rahmenbildspeichern 3325-1 bis 3325-3 in einer Brennpunktabstands-Erhöhungs­ einheit 3304 aufgezeichnet. Zusätzlich zu den Speichern 3325-1 bis 3325-3 weist die Brennpunktabstands-Erhö­ hungseinheit 3304 ein FFT-Arithmetikelement 3326, einen Komparator 3327, Multiplizierer 3328-1 bis 3328-3, einen Speicher 3329, einen Addierer 3330 und einen Rahmen­ bildspeicher 3331 auf. Die Erhöhungseinheit 3304 wird in gleicher Weise wie in der dreiundzwanzigsten Ausfüh­ rungsform betrieben und das Verarbeitungsergebnis wird in dem Speicher 3331 als Helligkeit Y = R + G + B ge­ speichert.
Die Farbinformation in den Speichern 3324-1 bis 3324-3 und das Bildsignal im Speicher 3331 werden durch Multi­ plizierer 3332-1 bis 3332-3 in Einheiten von Farbkompo­ nenten multipliziert. Die Produkte der Multiplizierer 3332-1 bis 3332-3 werden der Bildanzeigeeinheit 3305 zugeführt.
Die der Anzeigeeinheit 3305 von den Multiplizierern 3332-1 bis 3332-3 zugeführten Signale werden von D/A- Wandlern 3333-1 bis 3333-3 in Analogsignale umgesetzt. Diese Analogsignale werden dann auf einem TV-Monitor 3334 dargestellt. Bildverarbeitung und Anzeige werden von der Steuerung 3306 kontrolliert.
Diese Ausführungsform verwendet die starke Korrelation zwischen den drei primären (R, G und B) endoskopischen Bildern und die Abhängigkeit einer Bilddefokussierung bereits von der Helligkeit der Farbbildkomponenten. Bilder mit unterschiedlichen Brennpunktslagen in Ein­ heiten der drei Primärgruppen werden in das oberflä­ chensequentielle elektronische Endoskop eingegeben und die weitere Verarbeitung erfolgt durch die vorliegende Erfindung.
Eine Arbeitsweise dieser Ausführungsform wird nun im folgenden beschrieben. Komponentenbilder R, G und B werden sequentiell durch die Bildeingabeeinheit 3301 eingegeben. Wenn in diesem Falle das Objekt oder die Endoskopsonde 3300 abrupt bewegt wird, weichen die Re­ lativlagen der drei Primärbilder von den richtigen Po­ sitionen ab, so daß eine sogenannte Farbfehlausrichtung verursacht wird. Die Farbfehlausrichtungs-Korrekturein­ heit 3302 berechnet die Fehlausrichtungsbeträge der Bilder R und B bezüglich des Bildes B durch Anpassung zwischen örtlichen Teilbildern. Die Bilder R und B wer­ den auf der Grundlage der berechneten Fehlfarbausrich­ tungsbeträge korrigiert. Ein Farbbild mit einer festge­ setzten In-Fokus-Position wird durch das obige Verfahren eingegeben. Daten R/Y, G/Y und B/Y, die durch Normali­ sierung der Werte R, G und B durch die Helligkeit Y = R + G + B erhalten wurden, werden in der Aufzeichnungs­ einheit 3203 aufgezeichnet. Die primären Farbbilder werden eingegeben während die Brennpunktslage geändert wird und die Eingangsbilddaten werden der Farbfehlaus­ richtungs-Korrektur unterworfen. Die korrigierten Daten werden durch die Brennpunktabstands-Erhöhungseinheit 3304 unter Verwendung der Bilder R, G und B syntheti­ siert, so daß ein Bild mit einem hohen Brennpunktsab­ stand erhalten werden kann.
Das sich ergebende Bild wird als neues Helligkeitsbild Y' definiert. Schließlich wird das Bild Y' mit den Daten R/Y, G/Y und B/Y multipliziert, um ein Farbbild mit ei­ nem hohen Brennpunktsabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein endosko­ pisches Bild mit einem hohen Brennpunktsabstand synthe­ tisiert werden kann. Da weiterhin eine Objektivlinse mit einer großen Aperturgröße verwendet werden kann, kann die Leistung der Beleuchtungsquelle verringert werden. Zusätzlich kann die Lichtspeicherzeit der Abbildungs­ vorrichtung verkürzt werden und ein Einfluß auf Farb­ fehlausrichtung kann minimiert werden.
(Siebenundzwanzigste Ausführungsform)
Fig. 55 zeigt die Anordnung einer siebenundzwanzigsten Ausführungsform der vorliegenden Erfindung in Verbindung mit einem elektronischen Endoskop unter Verwendung einer single-plate Farbabbildungsvorrichtung. Gemäß Fig. 55 ist eine Abbildungsvorrichtung 3402 auf Halbleiterbasis mit einem Farbmosaikfilter 3401 abgedeckt, dessen licht­ empfangende Oberfläche aus Filterelementen in R, G und B besteht, wobei diese Anordnung am distalen Ende einer Endoskopsonde 3400 angeordnet ist. Ein von einer Objek­ tivlinse in einer In-Fokus-Lagesteuerung 3403 fokus­ siertes Bild wird abgebildet. In diesem Falle wird Be­ leuchtungslicht wie folgt erzeugt: Licht von einer Weißlichtquelle 3405 wird über einen Lichtleiter 3404 in die Endoskopsonde 3400 geführt und vom distalen Ende der Sonde abgestrahlt. Ein Ausgangssignal von der Abbil­ dungsvorrichtung 3402 wird in Farbsignale R, G und B durch einen Farbtrennschaltkreis 3406 geteilt. In dieser Ausführungsform besteht das Farbmosaikfilter 3401 aus Filterelementen R, G und B. Das Filter 3401 kann jedoch auch komplementäre Farbfilterelemente, wie Cyan und Gelb enthalten. In jedem Fall trennt der Farbtrennschaltkreis 3406 die Farbsignale entsprechend den Farbkomponenten gebildet durch das Farbmosaikfilter 3401. Die Komponen­ tensignale R, G und B werden in Signale Y, R-Y und B-Y durch einen Matrixschaltkreis 3407 konvertiert. Die Si­ gnale Y, R-Y und B-Y werden durch einen NTSC-Enkoder 3408 in ein NTSC-Signal konvertiert. Das NTSC-Signal wird durch einen A/D-Wandler 3409 in ein digitales Si­ gnal umgesetzt und dieses digitale Signal wird in einem von Rahmenbildspeichern 3411-1 bis 3411-m durch einen Selektor 3410 gespeichert.
Die n (n ≦ m) Bilder, die eingegeben werden, während die In-Fokus-Position geeignet geändert wird, werden in n-Speichern der Speicher 3411-1 bis 3411-m gespeichert. Die Vorrichtung weist weiterhin ein FFT-Arithmetikele­ ment 3411, einen Komparator 3413, Multiplizierer 3414-1 bis 3414-P, einen Speicher 3415, einen Addierer 3416, einen Rahmenbildspeicher 3417, einen D/A-Wandler 3418, einen TV-Monitor 3419 und eine Steuerung 3420 auf. In dieser siebenundzwanzigsten Ausführungsform erfolgt die gleiche Prozeßverarbeitung wie in der dreiundzwanzigsten Ausführungsform.
In dieser Ausführungsform wird das Endoskopbild, erhal­ ten durch die Farbabbildung 3402 unter Verwendung des Farbmosaikfilters 3401 in das NTSC-Signal konvertiert. Das konvertierte Farbbildsignal wird im Rahmen der vor­ liegenden Erfindung verarbeitet. Bei dieser Ausfüh­ rungsform kann daher die Vorrichtungsgröße selbst ver­ ringert werden und der gleiche Effekt für das Endoskop­ bild wie in der sechsundzwanzigsten Ausführungsform der vorliegenden Erfindung erhalten werden.
Weitere Ausführungsformen sind im Rahmen der vorliegen­ den Erfindung denkbar, so beispielsweise die Anwendung auf ein Reflektionsmikroskop wie in der siebten Ausfüh­ rungsform gemäß Fig. 12 und die Anwendung auf eine elektronische Kamera wie in der zwölften Ausführungsform gemäß Fig. 22.

Claims (15)

1. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von Bildinformationen, mit
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Einrichtung (2, 3) zur Eingabe einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (4) zum Bereitstellen eines defokussierten Summenbildes durch Addieren der durch die Eingabeeinrichtung (2, 3) eingegebenen Mehrzahl von Bildern, und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung des defokussierten Summenbildes, das durch Addieren der Mehrzahl von Bildern mittels der Addiereinrichtung (4) erhalten wurde.
2. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe einer Bildinformation, mit
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Einrichtung (2, 3) zum Bereitstellen eines defokussierten Summenbildes durch kontinuierliche Eingabe und Addition der Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind; und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung des defokussierten Summenbildes, das durch Addieren der Bilder mittels der Eingabe- und Addiervorrichtung (2, 3) erhalten wurde.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Fokussiereinrichtung aufweist: eine Ein­ richtung (6) zur Änderung einer In-Fokus-Objektebe­ nenposition; und eine Einrichtung (18) zur Änderung eines Wellenlängenbereiches von Licht.
4. Vorrichtung nach Anspruch 1 oder 2, dadurch gekenn­ zeichnet, daß die Fokussiereinrichtung eine Ein­ richtung (105) zur periodischen Änderung einer In- Fokus-Objektebenenposition aufweist.
5. Vorrichtung nach Anspruch 1 oder 4, dadurch gekenn­ zeichnet, daß die Eingabeeinrichtung eine Einrich­ tung (709) zur Durchführung einer Bandpaßfilterung aufweist und daß die Fokussiereinrichtung eine Ein­ richtung (707) zur Auswahl eines Bereiches, inner­ halb dem die In-Fokus-Objektebenenposition geändert wird auf der Grundlage eines Ausganges von der Ein­ richtung (709) zur Durchführung des Bandpaßfilters aufweist.
6. Vorrichtung nach Anspruch 1, 4 oder 5, dadurch ge­ kennzeichnet, daß die Fokussiereinrichtung eine Einrichtung (1309) zur Messung einer Distanz von einem Abbildungsbereich zu einem zu fotografierenden Objekt und eine Einrichtung (1309) zur Auswahl eines Bereiches aufweist, innerhalb dem die In-Fokus-Ob­ jektebenenposition auf der Grundlage der Distanz­ meßdaten von der Distanzmeßeinrichtung (1310) geän­ dert wird, wobei die Rückgewinnungs-Verarbeitungs­ einrichtung (7) eine Einrichtung (1504) zur Durch­ führung einer Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmeßdaten aufweist.
7. Vorrichtung nach Anspruch 1 oder 5, dadurch gekenn­ zeichnet, daß die Fokussiereinrichtung aufweist: eine Einrichtung (2306) zur Auswahl eines Bereiches, innerhalb dem die In-Fokus-Objektebenenposition geändert wird; und eine Einrichtung (2307) zur Festsetzung nicht-äquidistanter Objektebenenposi­ tionen innerhalb des durch die Auswahleinrichtung (2306) ausgewählten Bereiches.
8. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Eingabeeinrichtungen derart ausgebildet sind, daß eine Mehrzahl von Abbildungsvorrichtungen (2-1 bis 2-3) in einer Mehrzahl von unterschiedli­ chen Bildebenen angeordnet ist, um gleichzeitig eine Mehrzahl von Bildern einzulesen, welche auf die Mehrzahl von unterschiedlichen Objektebenen fokus­ siert sind.
9. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, daß die Eingabe- und Addiereinrichtungen aufweisen:
eine Abbildungsvorrichtung (902) zum elektrischen Konvertieren eines Lichtbildes;
eine Farbtrenneinrichtung (904) zum Separieren eines Ausganges von der Abbildungsvorrichtung (902) in Einheiten von drei Primär- oder Komplementärfarben hiervon; und
einen ersten logarithmischen Kompressionsschaltkreis (902, 903) zum logarithmischen Komprimieren eines Ausgangs von der Farbtrenneinrichtung in Einheiten der drei Primär- oder Komplementärfarben hiervon;
und wobei die Rückgewinnungs-Verarberarbeitungseinrich­ tung (910) aufweist:
einen inversen logarithmischen Wandelschaltkreis (911) zur Durchführung einer inversen logarithmi­ schen Wandlung eines Signales von dem ersten loga­ rithmischen Kompressionsschaltkreis (902, 903);
einen Matrizen-Konversionsschaltkreis (911) zur Durchführung einer linearen Matrizen-Konversion ei­ nes Ausgangs vor dem inversen logarithmischen Wan­ delschaltkreis (911);
einen zweiten logarithmischen Kompressionsschalt­ kreis (911) zur logarithmischen Komprimierung eines Ausgangssignals von dem Matrizen-Wandelschaltkreis (911); und
Farbsignal-Synthetisiereinrichtungen (916, 917) zur Synthetisierung eines Farbsignals unter Verwendung eines Ausgangssignals von dem zweiten logarithmi­ schen Kompressionsschaltkreis (911) und des Aus­ gangssignals von dem ersten logarithmischen Kom­ pressionsschaltkreis (902, 903).
10. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Addiereinrichtung eine Addition (1807, 1812, 1813) mit Gewichtung durchführt.
11. Vorrichtung nach Anspruch 1 oder 2, dadurch gekenn­ zeichnet, daß die Rückgewinnungs-Verarbeitungsvor­ richtung eine Einrichtung (22) zum Vorspeichern ei­ nes Bild-Ortsfrequenzfilters unter Berücksichtigung einer Ortsfrequenzcharakteristik der Eingabeein­ richtung aufweist.
12. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Eingabeeinrichtung Einrichtungen (1001 bis 1005 und 1030 bis 1031) aufweist zur Eingabe einer Mehrzahl von Bildern in Einheiten von unterschied­ lichen Wellenlängenbereichen;
daß die Addiereinrichtung Einrichtungen (1017, 1018) zur Addierung der Mehrzahl von durch die Eingabevor­ richtung eingegebenen Bildern in Einheiten von un­ terschiedlichen Wellenlängenbereichen aufweist; und
daß die Rückgewinnungs-Verarbeitungseinrichtung eine Einrichtung (1104) zur Extraktion eines Hellig­ keitssignals von einem Bild, synthetisiert durch die Addiereinrichtung, eine Einrichtung (1107) zur Durchführung einer Rückgewinnungs-Verarbeitung des extrahierten Helligkeitssignals und eine Einrichtung aufweist zur Synthetisierung des Helligkeitssignals, das durch die Verarbeitungseinrichtung (1107) einer Rückgewinnungs-Verarbeitung unterworfen wurde, sowie der Bilder, die in Einheiten von Wellenlängen ad­ diert worden sind, um ein einzelnes Bild zu erhal­ ten.
13. Vorrichtung nach Anspruch 1 oder 3, weiterhin ge­ kennzeichnet durch:
eine weitere Fokussiereinrichtung zur Durchführung von In-Fokus-Vorgängen an der Mehrzahl von Objekt­ ebenen, wobei die weitere Fokussiereinrichtung mit einer Einrichtung ausgestattet ist zur Änderung der In-Fokus-Objektebenenposition und mit einer Ein­ richtung zur Änderung des Wellenlängenbereiches von Licht;
eine weitere Eingabevorrichtung (200) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedli­ chen Wellenlängenbereichen;
eine weitere Addiervorrichtung (225) zur Addierung der durch die Eingabevorrichtung eingegebenen Bil­ der;
eine weitere Rückgewinnungs-Verarbeitungseinheit (227) zur Durchführung einer Rückgewinnungs-Verar­ beitung durch Ortsfrequenzfilterung einer Summe, die durch die weitere Addiereinrichtung (225) erhalten wurde; und
eine Synthetisiereinrichtung (203) zur Multiplizie­ rung eines rückgewonnenen Bildes von der weiteren Rückgewinnungs-Verarbeitungsvorrichtung mit jedem Bild, welches einer Division durch ein Bild unter­ worfen wurde, welches durch Addieren der Mehrzahl von Eingangsbildern erhalten wurde zur Synthetisie­ rung der sich ergebenden Bildern in ein Einzelbild.
14. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von Bildinformationen, mit:
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Eingabeeinrichtung (52) zur Eingabe einer Mehrzahl von Bildern, welche durch die Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (57) zur Fourier-Transformation der Mehrzahl von eingegebenen Bildern;
einer Einrichtung (61) zum Erzeugen eines Fourier- Spektrum-Bildes durch Gewichtung und Addition der durch die Fourier-Transformationseinrichtung (57) Fourier­ transformierten Bilder; und
einer Einrichtung (57) zur Durchführung einer inversen Fourier-Transformation des durch die Einrichtung (61) erzeugten Fourier-Spektrum-Bildes.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, daß die Fokussiereinrichtung aufweist:
eine weitere Eingabe-Vorrichtung (3300) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In- Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen, wobei die weitere Eingabevorrichtung mit einer Einrichtung (6) zur Änderung der In-Fokus-Objektebenenpositionen und einer Einrichtung (18) zur Änderung des Wellenlängenbereiches von Licht ausgestattet ist;
eine weitere Fourier-Transformationseinrichtung (3326) zur Fourier-Transformation der Mehrzahl von durch die weitere Eingabevorrichtung (3300) eingegebenen Bilder;
eine weitere Gewichtungs- und Addiereinrichtung (3304) zur Gewichtung und Addierung der durch die weitere Fourier-Transformationseinrichtung Fourier­ transformierten Bilder;
eine weitere inverse Fourier-Transformationseinrichtung (3331, 3326) zur Durchführung einer inversen Fourier- Transformation der Bilder, die durch die weitere Gewichtungs- und Addiereinrichtung (3304) gewichtet und addiert wurden; und
eine Synthetisierungseinrichtung (3303) zur Multiplizierung der durch die weitere inverse Fourier- Transformationseinrichtung invers Fourier­ transformierten Bilder mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addierung der eingegebenen Bilder erhalten wurde und zur Synthetisierung der sich ergebenden Bilder in ein Einzelbild.
DE3905619A 1988-02-23 1989-02-23 Bildeingabe-/Ausgabevorrichtung Expired - Fee Related DE3905619C2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP3993688 1988-02-23
JP24943188 1988-10-03

Publications (2)

Publication Number Publication Date
DE3905619A1 DE3905619A1 (de) 1989-08-31
DE3905619C2 true DE3905619C2 (de) 2000-04-13

Family

ID=26379338

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3905619A Expired - Fee Related DE3905619C2 (de) 1988-02-23 1989-02-23 Bildeingabe-/Ausgabevorrichtung

Country Status (2)

Country Link
US (1) US5148502A (de)
DE (1) DE3905619C2 (de)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3931934C2 (de) * 1988-10-03 1994-11-10 Olympus Optical Co Bild-Ein/Ausgabevorrichtung
CA2054344C (en) * 1990-10-29 1997-04-15 Kazuhiro Itsumi Video camera having focusing and image-processing function
IL100657A0 (en) * 1992-01-14 1992-09-06 Ziv Soferman Multifocal optical apparatus
DE4304276A1 (en) * 1992-02-17 1993-08-19 Galram Technology Ind Ltd Forming high resolution image of planar or three=dimensional object - combining sharp image data provided by detector matrix for successive scanning of object via optical imaging system.
JPH0630245A (ja) * 1992-05-23 1994-02-04 Takayama:Kk 画像処理装置
JP3327948B2 (ja) * 1992-06-09 2002-09-24 オリンパス光学工業株式会社 光学像再構成装置
US5850479A (en) * 1992-11-13 1998-12-15 The Johns Hopkins University Optical feature extraction apparatus and encoding method for detection of DNA sequences
IL110771A (en) * 1994-08-25 1998-02-08 Holon Holon Hanni A priori and adaptive filtering for detection of signals corrupted by noise
US5581631A (en) * 1994-09-20 1996-12-03 Neopath, Inc. Cytological system image collection integrity checking apparatus
JPH08122662A (ja) * 1994-10-20 1996-05-17 Fuji Photo Optical Co Ltd 内視鏡照明系
US5577181A (en) * 1995-06-07 1996-11-19 E-Systems, Inc. Method for autonomous determination of tie points in imagery
SE512350C2 (sv) 1996-01-09 2000-03-06 Kjell Olsson Ökat skärpedjup i fotografisk bild
JP3206420B2 (ja) * 1996-02-22 2001-09-10 株式会社デンソー カメラ装置
JP4136011B2 (ja) * 1996-04-30 2008-08-20 オリンパス株式会社 焦点深度伸長装置
AU6499098A (en) * 1997-02-21 1998-09-09 Rolf Eckmiller Adaptive active camera system
JP4069545B2 (ja) * 1999-05-19 2008-04-02 株式会社日立製作所 電子顕微方法及びそれを用いた電子顕微鏡並び生体試料検査方法及び生体検査装置
DE19927129C1 (de) 1999-06-15 2001-01-04 Wolf Gmbh Richard Fokussier- und Brennweiteneinstellvorrichtung für eine Videokamera
US7233351B1 (en) * 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
US20060023219A1 (en) * 2001-03-28 2006-02-02 Meyer Michael G Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification
US6944322B2 (en) 2001-03-28 2005-09-13 Visiongate, Inc. Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification
US7907765B2 (en) * 2001-03-28 2011-03-15 University Of Washington Focal plane tracking for optical microtomography
WO2003001698A1 (fr) * 2001-06-25 2003-01-03 Sony Corporation Procede de demodulation de signaux d'etalement du spectre et appareil correspondant
US6741730B2 (en) 2001-08-10 2004-05-25 Visiongate, Inc. Method and apparatus for three-dimensional imaging in the fourier domain
US6980227B2 (en) * 2001-10-01 2005-12-27 Pentax Corporation Electronic endoscope with light-amount adjustment apparatus
WO2003052465A2 (en) * 2001-12-18 2003-06-26 University Of Rochester Multifocal aspheric lens obtaining extended field depth
US7811825B2 (en) * 2002-04-19 2010-10-12 University Of Washington System and method for processing specimens and images for optical tomography
US7260253B2 (en) * 2002-04-19 2007-08-21 Visiongate, Inc. Method for correction of relative object-detector motion between successive views
US7738945B2 (en) * 2002-04-19 2010-06-15 University Of Washington Method and apparatus for pseudo-projection formation for optical tomography
US20050085708A1 (en) * 2002-04-19 2005-04-21 University Of Washington System and method for preparation of cells for 3D image acquisition
US6697508B2 (en) 2002-05-10 2004-02-24 Visiongate, Inc. Tomographic reconstruction of small objects using a priori knowledge
US6770893B2 (en) * 2002-05-13 2004-08-03 Visiongate, Inc. Method and apparatus for emission computed tomography using temporal signatures
JP2004174771A (ja) * 2002-11-25 2004-06-24 Kyocera Corp 画像形成装置
JP3867143B2 (ja) * 2003-06-25 2007-01-10 独立行政法人産業技術総合研究所 三次元顕微鏡システムおよび画像表示方法
US7756357B2 (en) * 2003-07-01 2010-07-13 Olympus Corporation Microscope system for obtaining high and low magnification images
US7687167B2 (en) * 2003-07-18 2010-03-30 Panasonic Corporation Power supply unit
JP4705047B2 (ja) * 2004-02-09 2011-06-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ドップラシフト及びレーザ自己混合に基づく光入力装置
JP4644819B2 (ja) * 2004-04-22 2011-03-09 国立大学法人電気通信大学 微小変位計測法及び装置
JP2005354610A (ja) * 2004-06-14 2005-12-22 Canon Inc 画像処理装置、画像処理方法および画像処理プログラム
US7336430B2 (en) 2004-09-03 2008-02-26 Micron Technology, Inc. Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture
US6991738B1 (en) 2004-10-13 2006-01-31 University Of Washington Flow-through drum centrifuge
US20060096358A1 (en) * 2004-10-28 2006-05-11 University Of Washington Optical projection tomography microscope
US7494809B2 (en) 2004-11-09 2009-02-24 Visiongate, Inc. Automated cell sample enrichment preparation method
KR100725895B1 (ko) * 2005-09-15 2007-06-08 주식회사 아이캔텍 광섬유를 이용하는 광학 데이터 입력 장치
JP2009519625A (ja) * 2005-12-02 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像信号の深度依存性フィルタリング
US7835561B2 (en) 2007-05-18 2010-11-16 Visiongate, Inc. Method for image processing and reconstruction of images for optical tomography
US7787112B2 (en) * 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
JP5090188B2 (ja) * 2008-01-10 2012-12-05 オリンパス株式会社 顕微鏡装置
US8090183B2 (en) * 2009-03-12 2012-01-03 Visiongate, Inc. Pattern noise correction for pseudo projections
US8254023B2 (en) * 2009-02-23 2012-08-28 Visiongate, Inc. Optical tomography system with high-speed scanner
US8155420B2 (en) * 2009-05-21 2012-04-10 Visiongate, Inc System and method for detecting poor quality in 3D reconstructions
DE102009041183A1 (de) * 2009-09-11 2011-03-24 Carl Zeiss Imaging Solutions Gmbh Verfahren zum automatischen Fokussieren eines Mikroskops auf ein vorbestimmtes Objekt sowie Mikroskop zum automatischen Fokussieren
US8412036B2 (en) 2009-12-07 2013-04-02 Panasonic Corporation Imaging apparatus and method of controlling the apparatus
JP5367094B2 (ja) 2009-12-07 2013-12-11 パナソニック株式会社 撮像装置及びその制御方法
JP2011229625A (ja) * 2010-04-26 2011-11-17 Fujifilm Corp 内視鏡装置
JP2011229603A (ja) * 2010-04-26 2011-11-17 Fujifilm Corp 内視鏡装置
JP2012055498A (ja) * 2010-09-09 2012-03-22 Olympus Corp 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法
CN102696219B (zh) 2010-11-08 2016-03-23 松下电器产业株式会社 摄像装置、摄像方法及集成电路
FR2967791B1 (fr) * 2010-11-22 2012-11-16 Ecole Polytech Procede et systeme de calibration d'un modulateur optique spatial dans un microscope optique
EP2672696B1 (de) 2011-01-31 2018-06-13 Panasonic Corporation Bildwiederherstellungsvorrichtung, abbildungsvorrichtung und bildwiederherstellungsverfahren
JP5809688B2 (ja) * 2011-03-02 2015-11-11 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
US9300855B2 (en) 2011-03-14 2016-03-29 Panasonic Corporation Imaging apparatus, imaging method, integrated circuit, and computer program
WO2012140899A1 (ja) 2011-04-15 2012-10-18 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
CN102749332B (zh) 2011-04-18 2015-08-26 通用电气公司 光学系统和光学检测装置以及检测方法
CN103038689B (zh) 2011-05-16 2016-01-20 松下电器产业株式会社 透镜单元以及摄像装置
US9068831B2 (en) * 2011-05-27 2015-06-30 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
JP6136085B2 (ja) * 2011-10-05 2017-05-31 ソニー株式会社 画像取得装置、画像取得方法、およびコンピュータプログラム
WO2013054527A1 (ja) 2011-10-12 2013-04-18 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
JP5942390B2 (ja) * 2011-11-15 2016-06-29 ソニー株式会社 画像取得装置、画像取得方法及び画像取得プログラム
EP2690862A4 (de) * 2011-12-16 2015-10-21 Olympus Medical Systems Corp Tiefenausdehnungsvorrichtung
US8890996B2 (en) 2012-05-17 2014-11-18 Panasonic Corporation Imaging device, semiconductor integrated circuit and imaging method
JP6478496B2 (ja) * 2014-07-03 2019-03-06 キヤノン株式会社 撮像装置およびその制御方法
JP6377171B2 (ja) 2014-10-30 2018-08-22 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理方法
JP6563486B2 (ja) 2015-04-16 2019-08-21 オリンパス株式会社 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム
US11069054B2 (en) 2015-12-30 2021-07-20 Visiongate, Inc. System and method for automated detection and monitoring of dysplasia and administration of immunotherapy and chemotherapy
US11448497B2 (en) * 2019-12-18 2022-09-20 The Boeing Company Systems and methods of determining image scaling

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2020618A1 (de) * 1970-04-28 1971-11-11 Bosch Gmbh Robert Fernsehmikroskop grosser Schaerfentiefe

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4161756A (en) * 1976-03-19 1979-07-17 Jos. Schneider & Co. Optische Werke Control system for varifocal objective
JPS6053943B2 (ja) * 1978-11-30 1985-11-28 キヤノン株式会社 カメラの合焦検出装置
JPS55124117A (en) * 1979-03-19 1980-09-25 Toshiba Corp Pattern inspecting apparatus
US4490849A (en) * 1982-03-04 1984-12-25 Grumman Aerospace Corporation Correlation plane recognition processor
GB8317407D0 (en) * 1983-06-27 1983-07-27 Rca Corp Image transform techniques
US4804831A (en) * 1985-10-30 1989-02-14 Canon Kabushiki Kaisha Focus detecting apparatus independent of object image contrast
US4903204A (en) * 1987-12-01 1990-02-20 Duke University Matrix inversion tomosynthesis improvements in longitudinal X-ray slice imaging
US4892408A (en) * 1988-03-03 1990-01-09 Grumman Aerospace Corporation Reference input patterns for evaluation and alignment of an optical matched filter correlator

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2020618A1 (de) * 1970-04-28 1971-11-11 Bosch Gmbh Robert Fernsehmikroskop grosser Schaerfentiefe

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Pieper R.J. and KORPEL A.: Image processing for extended depth of field in: Applied Optics, Vol. 22, No. 10, 15 may 1983, P. 1449-1453 *
SUGIMOTO S.A. and ICHIOKA Y.: Digital composition of images with increased depth of focus considering depth information in: Applied Optics, Vol. 24, No. 14, 15 July 1985, P. 2076-2080 *

Also Published As

Publication number Publication date
DE3905619A1 (de) 1989-08-31
US5148502A (en) 1992-09-15

Similar Documents

Publication Publication Date Title
DE3905619C2 (de) Bildeingabe-/Ausgabevorrichtung
DE3931934C2 (de) Bild-Ein/Ausgabevorrichtung
JP3191928B2 (ja) 画像入出力装置
US4141032A (en) Method of and apparatus for the expansion of the range of the depth of focus beyond the limit given by conventional images
DE60133160T2 (de) Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern
DE102012106584B4 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
DE4000343C2 (de) Automatische Fokussiervorrichtung
DE60320369T2 (de) Abbildungsvorrichtung für mikroscopie und bilderzeugungsverfahren
DE69909635T2 (de) Gerät und verfahren zur elektronischen bildverbesserung
DE4006592A1 (de) Automatische fokussiervorrichtung
DE102012216021B4 (de) Erzeugen mehrerer bilder mit grossem dynamikbereich von einem einzigen sensorfeld
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
DE102009049932B4 (de) Vorrichtung und Verfahren zur interferometrischen Schwingungsmessung an einem Objekt
DE3919464C2 (de) Vorrichtung zum Scharfeinstellen einer Kamera
DE112017006107T5 (de) Digitale Korrektur von optischen Systemaberrationen
DE112011102647T5 (de) Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung
DE112005000537T5 (de) Multispektrale Bildaufnahmevorrichtung und Adapterlinse hierfür
DE102010031535A1 (de) Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
DE102011006272A1 (de) Bildverarbeitungsvorrichtung und Verfahren des Steuerns von dieser
JPH06243250A (ja) 光学像の合成方法
DE112017001458T5 (de) Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung und Steuerverfahren davon
WO2016041944A1 (de) Verfahren zum erzeugen eines ergebnisbilds und optische vorrichtung
EP1929353B1 (de) Verfahren zur erzeugung von darstellungsbildern aus erfassten aufnahmebildern und mittel zur durchführung des verfahrens
DE1572678C3 (de) Verfahren zum Erzeugen von Ultraschall-Hologrammen und Apparat zu dessen Durchführung
EP1761071A1 (de) Verfahren zur Aufnahme eines Bildes und Digitalkamera

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee