DE3905619A1 - Bildeingabe-/ausgabevorrichtung - Google Patents
Bildeingabe-/ausgabevorrichtungInfo
- Publication number
- DE3905619A1 DE3905619A1 DE3905619A DE3905619A DE3905619A1 DE 3905619 A1 DE3905619 A1 DE 3905619A1 DE 3905619 A DE3905619 A DE 3905619A DE 3905619 A DE3905619 A DE 3905619A DE 3905619 A1 DE3905619 A1 DE 3905619A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- input
- focus
- recovery processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/36—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
- G02B7/38—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Description
Die Erfindung betrifft eine Bildeingabe-/Ausgabevorrichtung
zur Eingabe/Ausgabe von Bildinformationen, nach
dem Oberbegriff des Anspruches 1 bzw. 2 bzw. 14.
Ein fokussierendes optisches System mit einem optischen
Element einer großen Apertur ist nötig, um Bildinformationen
mit einer hohen Auflösung, einer hohen Vergrößerung
und einer hohen Helligkeit optisch zu lesen. Herkömmliche
optische Systeme, welche durch Linsen aufgebaut
sind, haben kleinere Brennpunktstiefen (focal
depth), wenn ihre Aperturgrößen vergrößert werden. Bei
Anwendungsfällen, bei denen Bilderzeugungsausrüstungen
verwendet werden, wie beispielsweise Mikroskope, Kameras
und Endoskope haben die sich ergebenden Bilder vorzugsweise
hohe Auflösungen und Helligkeiten, wobei sie
gleichzeitig hohe Brennpunktstiefen haben.
Eine bekannte Technik zur Erhaltung eines Bildes mit
einer hohen Brennpunktstiefe ist in "W. T. Welford,
Journal of Optical Society of America, Vol. 50,. S. 749
(1960)" beschrieben. Diese bekannte Technik beschreibt
eine Vorrichtung, die ein fokussierendes optisches
System mit einer speziellen Apertur, wie beispielsweise
einer Zonenplatte (zone plate) verwendet. Bei dieser
Vorrichtung kann vorteilhafterweise ein Bild mit einer
hohen Brennpunktstiefe erzeugt werden. Allerdings sind
Auflösungen und Lichtmenge stark verringert, was wiederum
nachteilig ist.
Weiterhin ist ein Verfahren bekannt, welches eine Bild
verarbeitungstechnik beschreibt und die durch "S. A. Sugimoto
und Y. Ichioka, Applied Optics Vol. 24, S. 2076
(1985)" oder "Takatoshi OTA, Kokichi SUGIHARA und Noburo
SUGIE, Journal of the Institute of Electronic and Communication
Engineers (D), J66-D, 1245, (1983)" bekannt
wurde. Bei diesem Verfahren werden eine Mehrzahl von
Bildern mit unterschiedlichen Brennpunkten (auf welche
als innerhalb des Brennpunkts liegenden Positionen bezogen
wird) in einem Objektabstand, um die lokale Verteilungsinformation
zu erhalten und Bereiche in dem fokussierten
Zustand synthetisiert. Hierbei kann ein Bild
mit einer hohen Brennpunktstiefe synthetisiert werden,
ohne hierbei Auflösung oder Helligkeit zu verringern.
Somit kann diese bekannte Maßnahme als effektiv betrachtet
werden. Wenn jedoch ein Objekt eine weiche
Oberfläche hat oder in unterschiedlichen Lagen unterschiedlich
starke Vorsprünge aufweist, ist es schwierig,
diese bekannte Maßnahme auf ein derartiges Objekt anzuwenden.
Zusätzlich ist eine große Hardware nötig, um
dieses Verfahren zu realisieren, wobei der Algorithmus
kompliziert ist, was in der Praxis zu Problemen führt.
Insoweit zusammenfassend haben herkömmliche Verfahren
die folgenden Nachteile:
- (1) Bei der Vorrichtung zur Erhöhung des Brennpunktabstandes unter Verwendung eines fokussierenden optischen System mit einer speziellen Apertur, wie beispielsweise einer Zonenplatte, werden Auflösung und Lichtmenge stark verringert. Obwohl es möglich ist, ein Bild zu erhalten, welches einen hohen Brennpunktabstand hat, werden Auflösung und Helligkeit des Bildes verloren. Somit kann diese bekannte Vorrichtung nicht als ein optisches System dienen, welches alle Faktoren erfüllt, nämlich Brennpunktabstand, Auflösung und Helligkeit.
- (2) Bei der Vorrichtung zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen im Brennpunkt gelagerten Positionen und Synthetisierung von Teilbildern des im Fokus befindlichen Zustandes auf der Grundlage von örtlichen Verteilungsinformationen werden die Anwendungsfälle auf bestimmte Objektzustände beschränkt, was in der Praxis zu Problemen führt.
Es ist daher Aufgabe der vorliegenden Erfindung, eine
Bildeingabe-/Ausgabevorrichtung nach dem Oberbegriff des
Anspruches 1 bzw. 2 bzw. 14 derart auszubilden, daß
Bilder mit einem hohen Brennpunktabstand ohne Verringerung
von Auflösung und Helligkeit erzeugbar sind, wobei
die Vorrichtung eine Vielzahl von praktischen Anwendungen
bei einer Vielzahl von verschiedenen Objekten
bei gleichzeitig einfacher Ausbildung erlaubt, wobei die
Vorrichtung unmittelbar und geeignet für alle Praxisfälle
anwendbar ist.
Die Lösung dieser Aufgabe erfolgt erfindungsgemäß durch
die im Anspruch 1 bzw. 2 bzw. 14 angegebenen Merkmale.
Genauer gesagt:
- (1) Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden eingegeben;
- (2) die eingegebenen Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden synthetisiert; und
- (3) eine Rückgewinnungs-Verarbeitung des synthetisierten Bildes wird durchgeführt.
Diese erwähnten Schritte bringen die folgenden Funktion
mit sich:
Wenn eine sich im Brennpunkt befindliche Position (im
folgenden mit "In-Fokus-Position" bezeichnet) auf einer
Objektebene in einem optischen System zur Bildausgabe
festgesetzt wird, wird ein Defokussierungsbetrag des
eingegebenen Bildes durch einen Abstand zwischen dem
Objekt und der In-Fokus-Ebene bestimmt. Wenn das Objekt
einen Brennpunktabstand hat, der größer ist als der des
optischen Systems in der optischen Achse des optischen
Systems zur Bildeingabe, sind die Defokussierungszustände
der erhaltenen Bilder beim Festsetzen der In-Fokus-
Position in einer gegebenen Objektebene in ihren
Lagen unterschiedlich. Wenn die In-Fokus-Position geändert
wird, wird ein Bild mit einer Defokussierungsverteilung
unterschiedlich von der des vorhergehenden eingegebenen
Bildes eingegeben. Genauer gesagt, ein Defokussierungsteil
des vorher eingegebenen Bildes kann bei
dem nächsten eingegebenen Bild zu einem In-Fokus-Teil
werden und der In-Fokus-Teil des vorher eingegebenen
Bildes kann beim nächsten Bildeingabevorgang ein defokussierter
Bereich werden. Diese Beziehungen werden
durch den Abstand zwischen der Struktur des Objektes und
der vorgewählten In-Fokus-Ebene bestimmt. Wenn die Bilder
eingegeben werden, während die In-Fokus-Position
geändert wird innerhalb eines geeigneten Bereiches, kann
eine Mehrzahl von Bildern erhalten werden, welche auf
unterschiedliche Teile des Objektes fokussiert sind.
Wenn diese Bilder sythetisiert werden, ist das synthetisierte
Bild praktisch gleichmäßig über die Gesamheit
des Bildes hinweg defokussiert. Das synthetisierte Bild
wird dann einer Rückgewinnungs-Verarbeitung (recovery
processing) unterworfen, wodurch ein Bild reproduziert
wird, welches auf die gesamten Punkte des Objektes fokussiert
ist.
Ein Bild mit einem hohen Brennpunktabstand kann reproduziert
werden, ohne Auflösung und Helligkeit zu verringern.
In diesem Fall ist die Verarbeitung sehr einfach
und eine Lokalverarbeitung des Bildes muß nicht
durchgeführt werden. Somit kann auch die Bildverarbeitungsvorrichtung
vereinfacht werden. Die Verarbeitung
kann durchgeführt werden ungeachtet unterschiedlicher
Oberflächenzustände der Objekte. Somit kann die vorliegende
Erfindung bei einer Vielzahl von Anwendungsfällen
verwendet werden.
Weiterhin können bei der vorliegenden Erfindung die
folgenden Schritte durchgeführt werden:
- (1) Eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen wird eingegeben;
- (2) die Bilder mit unterschiedlichen In-Fokus-Positionen werden einer Fourier-Transformation unterworfen;
- (3) die Bilder der Fourier-Transformation mit unterschiedlichen In-Fokus-Positionen werden in Einheiten von Ortsfrequenzen gewichtet und die gewichteten Bilder werden synthetisiert; und
- (4) das synthetisierte Fourier-Spektrumbild wird dann einer inversen Fourier-Transformation unterworfen. Genauer gesagt, die folgenden Abläufe finden statt:
- Die Bilder mit unterschiedlichen Brennpunktlagen werden diskret eingegeben und eine Synthese von Fourier transformierten Bildern wird durchgeführt. Das sich ergebende Fourier-Spektrumbild wird einer inversen Fourier-Transformation unterworfen. Somit kann ein Bild mit einem hohen Brennpunktabstand erhalten werden, ohne daß Auflösung und Helligkeit verringert werden. Zusätzlich kann die Verarbeitung ohne irgendwelche Schwierigkeiten durchgeführt werden, ungeachtet unterschiedlicher Zustände und Arten der Oberflächen der Objekte, wobei eine Anwendung bei einer Vielzahl von Anwendungsfällen möglich ist. Weiterhin müssen spezielle Vorbereitungen und spezielle Eingabevorgänge nicht durchgeführt werden, Somit kann die vorliegenden Erfindung in geeigneter Weise bei einer Vielzahl von Anwendungsfällen ohne irgendwelche Abwandlungen verwendet werden.
Vorteilhafte Weiterbildungen der Erfindung sind in den
jeweiligen Unteransprüchen angegeben.
Weitere Einzelheiten, Aspekte und Vorteile der vorliegenden
Erfindung ergeben sich aus der nachfolgenden Beschreibung
unter Bezugnahme auf die Zeichnung.
Es zeigen:
Fig. 1 bis 48 erste Ausführungsformen der vorliegenden
Erfindung; hierbei zeigt:
Fig. 1 eine schematische Darstellung einer ersten
Ausführungsform;
Fig. 2 eine schematische Darstellung einer zweiten
Ausführungsform;
Fig. 3 eine schematische Darstellung einer dritten
Ausführungsform;
Fig. 4 eine schematische Darstellung einer vierten
Ausführungsform;
Fig. 5 eine schematische Darstellung einer fünften
Ausführungsform;
Fig. 6 eine Frontansicht einer Fresnel-Zonenplatte
von Fig. 5;
Fig. 7 eine schematische Ansicht einer sechsten
Ausführungsform;
Fig. 8 und 9 Blockschaltbilder zur Veranschaulichung
unterschiedlicher Anordnungen einer Rückgewinnungs-
Einheit in der ersten bis sechsten
Ausführungsform;
Fig. 10 eine Darstellung zur Erläuterung der geometrischen
Beziehung bei einem Verfahren zur
Bestimmung eines Wiedergewinnungsfilters in
der Wiedergewinnungseinheit;
Fig. 11A bis 11D grafische Ansichten von Verfahrensprozeduren
bei einem Verfahren zur Bestimmung
des Rückgewinnungsfilters;
Fig. 12 teilweise schematisch eine siebte Ausführungsform;
Fig. 13A bis 13C teilweise schematisch eine achte Aus
führungsform;
Fig. 14 eine Draufsicht auf einen Rückgewinnungs
farbfilter gemäß Fig. 13;
Fig. 15 teilweise schematisch eine neunte Ausfüh
rungsform;
Fig. 16 teilweise schematisch eine zehnte Ausfüh
rungsform;
Fig. 17 teilweise schematisch eine elfte Ausfüh
rungsform;
Fig. 18 eine Ansicht zur Erläuterung eines optischen
Rückgewinnungs-Vorganges bei einem auf einem
Film aufgezeichneten Bild;
Fig. 19 die Netzstruktur in einem Fibroskop-Bild;
Fig. 20 eine Fourier-Spektrumbild eines Fibroskop-Bildes,
welches während des optischen Rückgewinnungsganges
erscheint;
Fig. 21 Vorderansicht eines Filters, das im optischen
Rückgewinnungsvorgang verwendet
wird;
Fig. 22 teilweise schematisch eine zwölfte Ausfüh
rungsform;
Fig. 23 teilweise schematisch eine dreizehnte Aus
führungsform;
Fig. 24 grafisch die Beziehung
Amplitude und Frequenzleistung einer speziellen
Ortsfrequenz zur Erläuterung einer
Funktion der dreizehnten Ausführungsform;
Fig. 25 schematisch eine vierzehnte Ausführungsform;
Fig. 26 die Frontansicht eines drehenden optischen
Verschlusses in der vierzehnten Ausführungs
form;
Fig. 27 eine grafische Darstellung der Charakteristik
eines logarithmischen Filters in der vierzehnten
Ausführungsform;
Fig. 28 die Anordnung einer fünfzehnten Ausführungsform
der vorliegenden Erfindung;
Fig. 29 die Anordnung einer sechszehnten Ausführungs
form;
Fig. 30 die Anordnung einer siebzehnten Ausführungs
form;
Fig. 31 schematisch eine Ansicht zur Erläuterung eines
Verfahrens zur Verarbeitung und Anzeige
eines Farbbildes in der sechzehnten und
siebzehnten Ausführungsform der vorliegenden
Erfindung;
Fig. 32 eine Ansicht eines Farbbildprozessors als
eine teilweise Abwandung der Anordnung der
siebzehnten Ausführungsform;
Fig. 33 schematisch einen Teil einer optischen
Bypass-Filteranordnung in einer achtzehnten
Ausführungsform der vorliegenden Erfindung;
Fig. 34A und 34B grafische Darstellungen zur Erläuterung
eines Verfahrens zur Auswahl eines Bildes in
der achtzehnten Ausführungsform;
Fig. 34A und 35B Ansichten einer Anordnung einer neunzehnten
Ausführungsform der vorliegenden Er
findung;
Fig. 36A und 36B Ansichten einer linken Bildebene und
einer rechten Bildebene einer Stereo-Anpassungseinrichtung
der neunzehnten Ausfüh
rungsform;
Fig. 37 die Anordnung eines Anpassungsschaltkreises
in der neunzehnten Ausführungsform;
Fig. 38 eine Ansicht einer Abwandlung eines Anpassungschaltkreises
und einer Speicheranordnung
in der neunzehnten Ausführungsform;
Fig. 39 eine Darstellung zur Erläuterung einer Rückgewinnungs-
Verarbeitungseinrichtung in der
neunzehnten Ausführungsform;
Fig. 40A und 40B Ansichten einer Anordnung der zwanzigsten
Ausführungsform der vorliegenden Erfin
dung;
Fig. 41 und 42 Darstellungen zur Erläuterung der Arbeitweise
der zwanzigsten Ausführungsform;
Fig. 43 eine Ansicht einer einundzwanzigsten Ausführungsform
der vorliegenden Erfindung;
Fig. 44 eine Darstellung zur Erläuterung der Arbeitsweise
der einundzwanzigsten Ausfüh
rungsform;
Fig. 45 die Anordnung einer zweiundzwanzigsten Aus
führungsform der vorliegenden Erfindung;
Fig. 46 und 47 Darstellungen zur Erläuterungen der Arbeitsweise
der zweiundzwanzigsten Ausfüh
rungsform; und
Fig. 48 schematisch die Anordnung eines optischen
Systems für die In-Fokus-Positionssteuerung
in der ersten Ausführungsform und der
gleichen;
Fig. 49 bis 55 weitere Ausführungsformen im Rahmen
der vorliegenden Erfindung; hierbei
zeigt:
Fig. 49 die Anordnung einer dreiundzwanzigsten Aus
führungsform;
Fig. 50 eine Darstellung zur Erläuterung der Arbeitsweise
der dreiundzwanzigsten Ausfüh
rungsform;
Fig. 51 die Ansichten einer vierundzwanzigsten Ausfüh
rungsform;
Fig. 52 eine Darstellung zur Erläuterung einer Arbeitsweise
der vierundzwanzigsten Ausfüh
rungsform;
Fig. 53 eine fünfundzwanzigste Ausführungsform;
Fig. 54A bis 50C eine sechsundzwanzigste Ausführungsform;
und
Fig. 55 die Anordnung einer siebenundzwanzigsten
Ausführungsform.
Vorzugsweise Ausführungsformen der vorliegenden Erfindung
werden nun im folgenden unter Bezugnahme auf die
Zeichnungen näher erläutert.
Fig. 1 zeigt schematisch eine erste Ausführungsform der
vorliegenden Erfindung. Eine Bildebene wird mittels einer
Linse 1 auf den lichtempfangenden Teil einer Abbildungsvorrichtung
2, gebildet aus einer ladungsträgergekoppelten
Vorrichtung (im folgenden CCD genannt), einer
Abbildungsröhre oder dergleichen fokussiert. Ein optisches
Eingabesystem weist normalerweise eine Kombination
aus einer Mehrzahl von Linsen auf. Aus Gründen der Einfachheit
der Darstellung ist nur die eine Linse in Fig. 1
dargestellt. Ein Ausgangssignal von der Abbildungsvorrichtung
2 wird mittels eines A/D-Wandlers 3 in ein
digitales Signal gewandelt. Das digitale Signal wird
mittels eines Addierers 4 zu einem Bildsignal addiert,
welches in einem Speicher 5 aufgezeichnet ist. Diese
Summe wird wiederum in dem Speicher 5 gespeichert. Die
obigen Abläufe werden unter der Annahme durchgeführt,
daß die In-Fokus-Position des optischen Systems wiederholt
durchgeführt wird, während die Linse 1 von einem
In-Fokus-Positionssteuerer 6 bewegt wird. Das heißt, daß
die obigen Abläufe derart durchgeführt werden, daß die
In-Fokus-Position des optischen Systems diskret in
geeigneten Intervallen innerhalb eines Abstandsbereiches
geändert wird. Die Eingangsbilder werden addiert und die
Summe wird in dem Speicher 5 gespeichert.
Das Summenbild wird einer geeigneten Rückgewinnungs-Verarbeitung
mittels einer Rückgewinnungs-Verarbeitungseinheit
7 unterworfen. Beispielsweise wird eine Hochpaß-
Filterung oder eine Bandpaß-Filterung an dem Summenbild
bezüglich beispielsweise einer Ortsfrequenz
durchgeführt. Das verarbeitete Ergebnis wird wieder in
dem Speicher 5 abgespeichert. Das der Rückgewinnungs-
Verarbeitung unterworfene Bildsignal, das in dem Speicher
5 gespeichert ist, wird mittels eines D/A-Wandlers
8 in ein Analogsignal umgesetzt. Das Analogsignal wird
dann auf einem Anzeigemonitor 9 dargestellt. Die zeitliche
Steuerung und die Steuerung der Signalflüsse wird
hierbei von einer zentralen Steuerung 10 übernommen.
Als eine Einrichtung zur Änderung der In-Fokus-Position
des optischen Systems kann die Abbildungsvorrichtung 2
bewegt werden, wohingegen das Linsensystem stationär
bleiben kann. Die Rückgewinnungs-Verarbeitungseinheit 7
kann ein Rückgewinnungs-Verarbeitungsergebnis direkt an
den A/D-Wandler 8 unter Verwendung eines kanalisierten
Verarbeitungsschemas (pipelined processing scheme) ausgeben.
Das Summenbild, das in dem Speicher 5 gespeichert
ist, kann auch auf einem anderen Aufzeichnungsmedium,
beispielsweise einer Floppy Disk, einem Magnetband oder
einer optischen Speichereinheit gespeichert werden und
das auf diesem externen Aufzeichnungsmedium gespeicherte
Bildsignal kann ausgelesen und der Rückgewinnungs-Ver
arbeitung unterworfen werden, wonach das rückgewonnene
Bild angezeigt werden kann. Mit anderen Worten, Bildaufzeichnungs-
und Bildwiedergabe-Einheit können off-line
über ein Aufzeichnungsmedium miteinander verbunden
sein.
Die beschriebene erste Ausführungsform mit dem obigen
Aufbau hat die folgende Wirkungsweise:
Bilder mit unterschiedlichen In-Fokus-Positionen werden
diskret eingegeben und gleichzeitig miteinander addiert.
Somit kann die Verarbeitung mit relativ einfachem Aufbau
durchgeführt werden. Zusätzlich könnnen Eingabe- und
Ausgabevorgänge der Bilder mit hoher Geschwindigkeit
durchgeführt werden.
Fig. 2 zeigt eine zweite Ausführungsform der vorliegenden
Erfindung. In dieser Ausführungsform wird die
Brennpunktlage kontinuierlich von der In-Fokus-Positionssteuerung
6 innerhalb eines festgelegten Distanzbereiches
geändert. Bilder werden auf dem lichtempfangenden
Bereich (genauer gesagt: lichtempfangende Oberfläche
eines Fotosensors oder einer Bildaufnahmevorrichtung
auf Halbleiterbasis oder dergleichen) der Abbildungsvorrichtung
2 fokussiert. Die in der Abbildungsvorrichtung
2 empfangenen Bilder werden von dem
A/D-Wandler 3 in digitale Signale gewandelt und in dem
Speicher 5 gespeichert. Von einer Rückgewinnungs-Verar
beitungseinheit 7 wird eine geeignete Rückgewinnungs-
Filterung der digitalen Signale durchgeführt. Das der
Rückgewinnungs-Verarbeitung unterworfene Signal wird in
dem Speicher 5 wieder abgespeichert. Das in dem Speicher
5 abgespeicherte Signal wird von dem A/D-Wandler 8 in
ein Analogsignal gewandelt. Das Analogsignal wird auf
dem Monitor 9 dargestellt. Zeitsteuerung und Datenflüsse
in den oben beschriebenen Vorgängen werden von der
Steuerung 10 kontrolliert.
Diese zweite Ausführungsform zeichnet sich wie folgt
aus. Der Akkumulationseffekt der Lichtenergie der Ab
bildungsvorrichtung 2 selbst wird verwendet, um kontinuierlich
Bilder mit unterschiedlichen In-Fokus-Positionen
einzugeben und gleichzeitig werden diese Bilder
gespeichert. Somit können Eingabe- und Ausgabevorgänge
der Bilder gleichzeitig von der Abbildungsvorrichtung 2
selbst durchgeführt werden. Der Aufbau der Vorrichtung
kann vereinfacht werden und eine Hochgeschwindigkeitsverarbeitung
kann durchgeführt werden. Da der Brennpunkt
kontinuierlich innerhalb einer geeigneten Distanz verändert
wird, kann die Steuerung der Brennpunktlagen
vereinfacht werden.
Fig. 3 zeigt die Anordnung einer dritten Ausführungsform
der vorliegenden Erfindung. Bei dieser Ausführungsform
wird das von der Linse 1 fokussierte Bild von der Ab
bildungsvorrichtung 2 in ein Bildsignal gewandelt. Das
Bildsignal wird dann von dem A/D-Wandler 3 in ein Digitalsignal
umgesetzt. Das digitale Signal wird in einem
festgelegten Speicher von 5-1 bis 5-m mittels
eines Selektors 11 abgespeichert. Die obigen Vorgänge
werden wiederholt durchgeführt, während die Linse 1 von
der In-Fokus-Positionssteuerung 6 bewegt wird. Genauer
gesagt, die obigen Abläufe werden diskret durchgeführt,
um die In-Fokus-Positionen in festgelegten Intervallen
innerhalb eines festgelegten Distanzbereiches zu ändern.
Die eingegebenen n (n m)-Bilder werden entsprechend
in den n-Speichern der Speicher 5-1 bis 5-m gespeichert.
Ein Adressenkompensator 12 führt eine Vergrößerungskorrektur
und eine Korrektur von Positionsfehlern der in
den Speichern 5-1 bis 5-m abgespeicherten Bilder durch.
Die Korrekturergebnisse werden in den Speichern 5-1 bis
5-m wieder abgespeichert. Die adressenkorrigierten
Bildsignale der Speicher 5-1 bis 5-m werden von einem
Selektor 13 ausgewählt. Das heißt, von den n-Bildern in
den Speichern 5-1 bis 5-m werden k (k n)-Bilder, die
eine festgelegte Bedingung erfüllen, ausgewählt. Die k
ausgewählten Bilder werden miteinander mittels eines
Addierers 14 addiert. Das Summenbildsignal von dem Addierer
14 wird in einem Speicher 15 aufgezeichnet oder
gespeichert. Das in dem Speicher 15 aufgezeichnete
Bildsignal wird dann einer geeigneten Rückgewinnungs-
Filterung durch die Rückgewinnungs-Verarbeitungseinheit
7 unterworfen. Das Rückgewinnungs-gefilterte Signal wird
dann wieder in dem Speicher 15 gespeichert. Das in dem
Speicher 15 abgespeicherte verarbeitete Signal wird
mittels des D/A-Wandlers 8 in ein Analogsignal umgesetzt
und dann auf dem Monitor 9 dargestellt. Zeitsteuerung
und Datenstromsteuerung sowie die Festsetzung der Selektoren
11 und 13 wird durch die Steuerung 10 durchge
führt.
Die ursprünglichen Bildsignale in den Speichern 5-1 bis
5-m können auch in einem anderen Aufzeichnungsmedium
gespeichert werden und können beim Lesezugriff auf das
abgespeicherte Bildsignal der Adreßkorrektur, den Additionen
und der Rückgewinnungsverarbeitung unterworfen
werden. Die sich ergebenden Bilder können dann dargestellt
werden. Das heißt, Bildaufzeichnung und Bildwiedergabeeinheiten
können off-line durch das Aufzeichnungsmedium
miteinander verbunden sein.
Diese dritte Ausführungsform hat die folgenden Wir
kungsweisen:
eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus-
Positionen wird gespeichert und von diesen Bildern
werden gewünschte Bilder selektiert und synthetisiert.
Somit hat diese dritte Ausführungsform den Vorteil, daß
ein Bild mit einem In-Fokus-Zustand eines jeden Bereiches
des Objektes wiedergegeben werden kann. Zusätzlich
korrigiert der Adressenkompensator 12 Unterschiede in
den Vergrößerungen, die durch unterschiedliche Defokussierungsbeträge
verursacht werden, Vibrationen zum
Zeitpunkt der Bildeingabe und Positionsfehler, die durch
eine mögliche Bewegung des Objektes erzeugt werden. Somit
kann die Vorrichtung in einer Vielzahl von Anwendungsfällen
verwendet werden. Der Adressenkompensator 12
führt beispielsweise eine lokale Anpassung zwischen den
Bildern durch, und führt somit die Positionierung durch.
Somit können bei dieser Ausführungsform Brennpunktabstände
und In-Fokus-Bereiche des Bildes wahlweise gesetzt
werden. Die Vorrichtung dieser Ausführungsform ist
sehr effektiv bei einer Additionsverarbeitung und bei
einer Änderung in der Vergrößerung. Zusätzlich, selbst
wenn Positionsfehler während der Bildeingaben und zwischen
den Bildern auftreten aufgrund einer Bewegung des
Objektes, wird das wiedergegebene Bild durch diese Positionsfehler
nicht nachteilig beeinflußt. Somit kann
die Vorrichtung dieser Ausführungsform bei einer Vielzahl
von Anwendungsfällen zum Einsatz gelangen.
Fig. 4 zeigt die Anordnung einer vierten Ausführungsform
der vorliegenden Erfindung. Bei dieser Ausführungsform
sind Halbspiegel 16-1 und 16-2 hinter der Linse 1 des
optischen Systems zur Bildeingabe angeordnet. Beispielsweise
sind drei Abbildungsvorrichtungen 2-1, 2-2
und 2-3 in unterschiedlichen Abständen von der Linse 1
angeordnet. Die Bildsignale von den Abbildungsvorrichtungen
2-1 bis 2-3 werden durch den A/D-Wandler 3-1, 3-2 und
3-3 in digitale Signale umgesetzt. Die weiteren Anordnungen
dieser Ausführungsformen sind gleich der in der
ersten und dritten Ausführungsform und eine detaillierte
Beschreibung erfolgt nicht.
Es sei hier festgehalten, daß die Lagen der Abbildungsvorrichtungen
2-1 bis 2-3 variabel sein können, um variable
Abstände zu dem Objekt festzusetzen.
Diese vierte Ausführungsform der vorliegenden Erfindung
arbeitet wie folgt: eine Mehrzahl von Bildern, die in
unterschiedlichen Ebenen fokussiert sind, werden eingegeben
und die Mehrzahl von Bildern mit unterschiedlichen
In-Fokus-Positionen werden gleichzeitig eingegeben. Somit
kann eine Änderung der In-Fokus-Position, d. h. eine
mechanische Betätigung vermieden werden. Weiterhin kann
der Anwendungsbereich dieser vierten Ausführungsform
noch weiter sein.
Fig. 5 zeigt die Anordnung einer fünften Ausführungsform
der vorliegenden Erfindung. Bei dieser Ausführungsform
ist eine Fresnel-Zonenplatte 17 vorgesehen, um die Fokussierung
einer Mehrzahl von In-Fokus-Positionen vorzunehmen;
eine Mehrzahl von Bildern, die auf eine Mehrzahl
von Objektebenen fokussiert sind, werden gleichzeitig
in die Abbildungsvorrichtung 2 eingegeben. Ein
tatsächliches optisches Eingabesystem weist eine Mehrzahl
von Linsen zusätzlich zu der Zonenplatte 17 auf,
aus Gründen der Übersichtlichkeit sind diese Linsen jedoch
nicht dargestellt und nur die Fresnel-Zonenplatte
17 ist dargestellt. Ein Bildsignal von der Abbildungsvorrichtung
2 wird durch den A/D-Wandler 3 in ein digitales
Signal umgesetzt, wonach dieses digitale Signal in
dem Speicher 5 gespeichert wird. Das in dem Speicher 5
abgespeicherte Bild wird durch eine Rückgewinnungs-Verarbeitungseinheit
7 einer geeigneten Rückgewinnungs-Filterung
unterworfen. Das gefilterte Bild wird dann wieder
in dem Speicher 5 abgespeichert. Das in dem Speicher 5
abgespeicherte Bild wird durch den A/D-Wandler 8 in ein
Analogsignal umgesetzt, welches dann auf dem Anzeigemonitor
9 dargestellt wird. Zeitsteuerung und Datenflußsteuerung
in dieser Ausführungsform wird durch die
Steuerung 10 durchgeführt.
Die In-Fokus-Positionssteuerung 6 kann zu der Anordnung
von Fig. 5 hinzugefügt werden, um In-Fokus-Positionen zu
kompensieren und für die eingegebenen Bilder kann die
gleiche Verarbeitung wie in den ersten bis dritten Ausführungsformen
durchgeführt werden.
Die fünfte Ausführungform mit dem obigen Aufbau arbeitet
wie folgt: Die Fresnel-Zonenplatte 17, die ausgelegt
ist, Licht auf die Mehrzahl von Brennpunktlagen zu fokussieren
wird zusammen mit den nicht dargestellten
Linsen verwendet. Eine Mehrzahl von fokussierten Bildern
wird gleichzeitig auf eine Mehrzahl von Objektebenen
ausgebildet und die fokussierten Bilder werden gleichzeitig
in die Abbildungsvorrichtung 2 eingegeben, so daß
diese Bilder äquivalent addiert werden. Fig. 6 zeigt
eine Vorderansicht der Zonenplatte 17, die geeignet ist,
Licht auf eine Mehrzahl von Brennpunktlagen zu fokussieren.
Bei der Zonenplatte 17 sind ringförmige Zonen
(Fresnel-Zonen) mit identischen Bereichen ausgebildet
und voneinander durch opake Ringe getrennt. Die Fresnel-
Zonenplatte 17 hat die gleiche Funktion wie eine
Linse mit Brennweiten von ±f₀=r²λ (wobei r der Radius
des zentralen Bereiches der Zonenplatte 17 ist und λ die
Wellenlänge des Lichtes ist. Wenn somit die Fresnel-Zonenplatte
17 mit einer Fokussierungslinse kombiniert
wird, kann eine Mehrzahl von Brennweiten erhalten werden.
Eine Mehrzahl von Bildern kann auf eine Mehrzahl
von Objektebenen mit unterschiedlichen Abständen fokussiert
werden, während die Fresnel-Zonenplatte 17 festgehalten
ist. Theoretisch hat eine Fresnel-Zonenplatte
17 Brennweiten von ±f₀/3, ±f₀/5, . . . zusätzlich zu ±f₀.
In der Praxis ist die Intensität von Licht in dem
Brennpunkt ±f₀ hoch und eine Auswirkung auf andere
Brennpunkte ist schwach. Zusätzlich wird die originale
Brennpunktweite der Linse von nichtdiffraktiertem Licht
freigehalten. Wenn eine Fresnel-Linse so ausgewählt
wird, daß die Phase des Lichtes, das hindurchläuft um π
verzögert wird anstelle der Ausbildung von anderen opaken
Ringen, bleiben die Lagen von ±f₀ ungeändert, aber
die hierauf fokussierten Lichtintensität kann erhöht
werden. Die ursprüngliche Brennpunktlage der Platte
verschwindet. Wenn eine Phasendifferenz geeignet ausgewählt
wird, können drei Brennpunkte, d. h. ±f₀ und die
Original-Brennpunktlage der Platte erhalten werden. Die
Fresnel-Zonenplatte wird streng bei einer speziellen
Wellenlänge betrieben. Wenn die Wellenlänge geeignet
ausgewählt wird, um die zentrale Wellenlänge (λ=550 nm)
des sichtbaren Lichtes zu sein, wird der Einfluß
einer chromatischen Aberration nicht sehr hoch erhöht.
Die Zonen mit einer festgelegten Phasendifferenz können
durch eine Vakuumabscheidung eines transparenten Dünnfilmes
wie beispielsweise MgF₂ ausgebildet werden.
Bei dieser Ausführungsform kann eine Mehrzahl von Bildern
auf die Mehrzahl von Objektebenen durch Verwendung
eines einzelnen optischen Elementes ohne Durchführung
einer mechanischen Betätigung zur Änderung der Brennpunktlage
fokussiert werden und somit kann eine Mehrzahl
von Bildern eingegeben und miteinander addiert
werden, um ein synthetisiertes Bild zu erhalten. Somit
kann die Anordnung dieser Vorrichtung gemäß dieser Ausführungsform
bedeutend vereinfacht werden und die Vorrichtung
ist unempfindlich gegenüber Störungen, die
durch Bewegung des Objektes oder dergleichen verursacht
werden.
Fig. 7 zeigt eine sechste Ausführungsform der vorliegenden
Erfindung. Bei dieser Ausführungsform ist ein
optisches Element, d. h. eine Linse 18 vorgesehen, um
absichtlich eine chromatische Aberration in dem optischen
System zur Bildeingabe zu erzeugen. Die Abbildungsvorrichtung
2 besteht aus einer monochromatischen Abbildungsröhre
oder einer Abbildungsvorrichtung aus Halbleiterbasis
mit einem Empfindlichkeitsbereich innerhalb
des gesamten Spektralbereiches des sichtbaren Lichtes.
Bei dieser Anordnung können die auf verschiedenen Lagen
fokussierten Bilder gleichzeitig durch Wellenlängen von
Licht ausgebildet werden und die Bilder werden durch die
Abbildungsvorrichtung 2 eingegeben und addiert. Die
weitere Anordnung dieser sechsten Ausbildungsform entspricht
der fünften Ausführungsform.
Ein Bandpaß-Farbfilter kann vor der Abbildungsvorrichtung
2 angeordnet sein, um Bilder unterschiedlicher
Wellenlängenbereiche einzugeben und aufzuzeichnen und
eine Adreßkorrektur, die Einstellung von Brennpunktabständen
und dergleichen kann mit der gleichen Anordnung
wie in der vierten Ausführungsform durchgeführt
werden.
Diese sechste Ausführungsform arbeitet im wesentlichen
wie folgt: das reflektierte Lichtspektrum eines Objektes
wird in einem weiten Bereich verteilt, der beinahe dem
gesamten Bereich des sichtbaren Lichtes entspricht.
Diese Ausführungsform verwendet die starke Korrelation
zwischen Bildern bei entsprechenden Wellenlängen. Das
heißt, das optische Element wird verwendet, um absichtlich
eine chromatische Abberation zu erzeugen und die
auf unterschiedliche Lagen in Einheiten der Wellenlängen
fokussierten Bilder werden ausgebildet. Diese Bilder
werden in die Abbildungsrichtung 2 eingegeben und die
Addition kann gleichmäßig durchgeführt werden. Somit
können die auf der Mehrzahl von Positionen fokussierten
Bilder eingegeben und addiert werden unter Verwendung
nur eines optischen Elementes mit einem großen chromatischen
Aberrationswert ohne Verwendung einer mechanischen
Betätigung zur Änderung der In-Fokus-Position. Die
Anordnung kann sehr einfach gehalten werden und die sich
ergebende Vorrichtung kann Störungen kompensieren, die
durch Bewegung eines Objektes oder dergleichen verursacht
werden.
Der genaue Aufbau der Rückgewinnungs-Verarbeitungseinheit
7 in der ersten bis sechsten Ausführungsform der
vorliegenden Erfindung wird nun im folgenden beschrieben.
Die Einheit 7 ist eine Einheit zur Durchführung
geeigneter Bypaß- oder Bandpaß-Filterungen der Summenbilder
mit unterschiedlichen In-Fokus-Positionen bezüglich
der Ortsfrequenz.
Fig. 8 zeigt ein Blockdiagramm der Rückgewinnungs-Ver
arbeitungseinheit 7. Die Summe der Bilder mit unterschiedlichen
In-Fokus-Positionen, die in dem Speicher 5
gespeichert sind, wird einer zweidimensionalen Fourier-
Transformation durch ein FFT-Arithmetikelement 20
in der Einheit 7 unterworfen. Das arithmetische Ergebnis
wird in einem Speicher 21 gespeichert. Ein Filterfaktor
oder Koeffizient, der auf einer Ortsfrequenzebene geeignet
bestimmt ist, ist in einem Speicher 22 gespeichert.
Das Ortsfrequenzspektrum in dem Speicher 21 wird durch
einen Multiplizierer 23 mit einem Filterkoeffizienten
multipliziert, der in dem Speicher 22 gespeichert ist.
Das Produkt von dem Multiplizierer 23 wird wieder in dem
Speicher 21 gespeichert. Das gefilterte Ortsfrequenzbild
in dem Speicher 21 wird dann einer zweidimensionalen
umgekehrten Fourier-Transformation durch das Arithmetikelement
20 unterworfen. Das Ergebnis wird in dem Speicher
5 gespeichert. Mit dieser Anordnung kann die Filtercharakteristikkurve
auf der Ortsfrequenzebene wahlweise
bestimmt werden.
Fig. 9 ist ein Blockdiagramm einer weiteren Ausführungsform
der Rückgewinnungs-Verarbeitungseinheit 7. Von
all den Bildersummen der Bilder mit unterschiedlichen
In-Fokus-Positionen, die in dem Speicher 5 gespeichert
sind, wird ein Pixelkomponentenwert, der durch einen
Adressengenerator 30 in der Verarbeitungseinheit 7 ausgewählt
wird einem Multiplizierer 32 eingegeben. Gleichzeitig
wird ein Koeffizient, der in einem Speicher 31
gespeichert ist und von dem Adressengenerator 30 angewählt
wird, in dem Multiplizierer 32 eingegeben. Der
Multiplizierer 32 multipliziert den Pixelkomponentenwert
mit dem Koeffizienten. Ein Produkt von dem Multiplizierer
32 wird von einem Addierer 32 mit einem Wert addiert,
der in einem Speicher 34 gespeichert ist. Diese
Summe wird wieder in dem Speicher 34 gespeichert. Mit
dieser Ausführungsform wird ein "Rollkurven-Betrieb"
(convolution operation) in einem lokalen Bereich, z. B.
3×3 Pixel oder 5×5 Pixel an dem Bild durchgeführt.
Das arithmetische Ergebnis wird dann in dem Speicher 5
wieder abgespeichert.
Bei dieser Anordnung wird somit der "Rollkurven-Betrieb"
mit einer Matrix, die auf der Bildoberfläche geeignet
ausgewählt wurde, anstelle des Filterns der Ortsfrequenzebene
durchgeführt, wodurch der Rückgewinnungs-Ver
arbeitungsvorgang erfolgt. Somit wird bei dieser Anordnung
die Verarbeitung mit einem einfachen Schaltkreisaufbau
durchgeführt. Wenn ein effektives Filter mit einer
kleinen Matrixgröße ausgewählt werden kann, kann die
Anzahl von arithmetischen Abläufen vorteilhafterweise
verringert werden.
Weiterhin kann ein Kanalprozessor (pipelined processor)
verwendet werden, um einen Hochgeschwindigkeitsbetrieb
durchzuführen, wodurch eine Maskierung möglich ist.
Ein Verfahren zur Auswahl des Rückgewinnungsfilters wird
im folgenden beschrieben. Zunächst wird ein Verfahren
zur Auswahl eines Rückgewinnungsfilters mittels Simulation
beschrieben. Im allgemeinen werden die räumlichen
Charakteristiken eines inkohärenten fokussierenden optischen
Systems durch eine optische Transferfunktion
(OTF) ausgedrückt, die durch eine Autokorrelation einer
Pupillenfunktion gegeben ist. Wenn eine Apertur als eine
kreisförmige Apertur gegeben ist, kann ein OTF auf der
Brennebene durch eine Autokorrelation (2) einer Pupillenfunktion
ausgedrückt werden, die sich durch die folgende
Gleichung (1) ergibt:
wobei (x, y) eine Koordinatenachse ist, wenn die Pupillenebene
durch ein rechtwinkeliges Koordinatensystem
ausgedrückt wird und (r, R) eine Radialkomponente und
eine Winkelkomponente ist, wenn die Pupillenebene durch
ein zylindrisches Koordinatensystem ausgedrückt wird.
wobei a₀ eine Pupillengröße ist, welche beispielsweise
als Radius einer Linsenaperatur angenommen werden kann.
Wenn die Apertur kreisförmig ist, kann R weggelassen
werden, da keine Winkelrichtung in den Berechnungen
vorkommt. Ein OTF für einen Brennpunktfehler wird durch
eine Auto-Korrektur der allgemeinen Pupillenfunktion
vertreten und ergibt sich wie die folgende Gleichung
(3):
P (x, Y ) = P (r, R ) = P (r) exp [jkW (r; z)] (3)
wobei k=2π/λ die Anzahl der Wellen ist; W (r; z) die
Wellenoberflächeaberration ist, welche sich durch eine
Differenz zwischen einer Wellenoberfläche W 1 von Licht
fokussiert auf einer gegebenen Objektebene und einer
Wellenoberfläche W 2 mit einem Defokussierungsbetrag auf
der Pupillenebene ergibt; und z Koordinaten auf der optischen
Achse anzeigt, welche einen Defokussierungsbetrag
von einer Fokallage bei einer In-Fokus-Position mit
z=0 ergibt. Die Wellenoberflächenaberration W(r; z)
kann in einem Paraxialbereich wie folgt angenähert werden:
W (r; z ) = r² · z/(2 · f²) (4)
Wenn eine Linsenapertur groß ist, kann die Wellenoberflächenaberration
wie folgt ausgedrückt werden:
W (r; z ) = r² · z/[2(f² + r²)] (5)
wobei f die Brennweite der Linse ist. In diesem Fall
wird angenommen, daß f»z ist.
Fig. 10 zeigt die geometrische Beziehung die sich aus
dem oben gesagten ergibt. Ein OTF für einen gegebenen
Defokussierungsbetrag z kann erhalten werden.
Die Fig. 11A bis 11D zeigen Verfahren zur Erhaltung eines
Rückgewinnungsfilters auf der Grundlage des erhaltenen
OTF. Der Wert z wird auf der Grundlage der festgesetzten
Bedingungen verändert, um OTFs zu erhalten,
wie in Fig. 11A dargestellt. Diese OTFs werden miteinander
addiert, um ein zusammengesetztes OTF zu erhalten,
wie in Fig. 11B dargestellt. Ein Rückgewinnungs
filter wird so ausgewählt, daß das zusammengesetzte OTF
zu einem OTF für einen korrekten Brennpunkt wird, wie in
Fig. 11C dargestellt. Wenn ein OTF für einen korrekten
Brennpunkt zu
H (u, v ) = H (µ, Φ) = H (µ)
gegeben ist und ein OTF für einen inkorrekten Brennpunkt
als H₀ (µ) gegeben ist, wird ein Rückgewinnungsfilter
V(µ) wie folgt ausgedrückt:
V (µ ) = H₀ (µ )/H (µ ) (6)
Fig. 11D zeigt das Rückgewinnungsfilter V(µ) · (u, v) sind
Ortsfrequenzkoordinaten ausgedrückt durch ein rechtwinkeliges
Koordinatensystem und (µ, R) sind Ortsfrequenzkoordinaten
ausgedrückt in einem zylindrischen Koordinatensystem.
Wenn die Apertur kreisförmig ist, wird nur
die radiale Ortsfrequenz µ verwendet, da die Berechnungen
nicht von der Winkelrichtung abhängig sind.
Wenn ein Objekt auf einen gewissen Betrag begrenzt werden
kann, kann die statistische Art des Bildes vorhergesagt
werden und die Art des Rauschens ist ebenfalls
bekannt, so daß ein Wien'sches Filter als Rückgewinnungsfilter
verwendet werden kann. Einflüsse von Rauschen
können verringert werden unter Verwendung des
folgenden Wien'schen Filters:
W (µ ) = [H₀ (µ ) · |H (µ )|²]/H (µ ){|H (µ )|²+ Snn (µ )/Sgg (µ )}] (7)
wobei Snn(µ) das Energiespektrum des Rauschens ist und
Sgg(µ) das Energiespektrum des Bildes ist. Das folgende
Filter kann als Pseudo-Wien'sches Filter definiert
werden und ein Parameter P kann geeignet gesetzt
werden:
W′ (µ ) = [H₀ (µ ) · |H (µ )|²]/[H (µ ){|H (µ )|² + P}] (8).
Ein Verfahren zur experimentellen Bestimmung eines
Rückgewinnungsfilters wird nun im folgenden beschrieben.
Ein Testbild mit einer ausreichend flachen Oberfläche
wird in einer festgelegten Position angeordnet und Bilder
werden mit vorgewählten Bedingungen eingegeben,
während die In-Fokus-Position geändert wird. Die eingegebenen
Bilder werden dann addiert. Ein auf die Oberfläche
des Testbildes fokussiertes Bild wird ebenfalls
eingegeben. Die Summe der eingegebenen Bilder während
der Änderung der In-Fokus-Position wird von einem geeigneten
Rückgewinnungsfilter ausgefiltert. Das gefilterte
Bild wird mit dem auf das Testbild fokussierte Bild
verglichen. Das Rückgewinnungsfilter wird einjustiert,
um das Summenbild und das auf das Testbild fokussierte
Bild gleich zu machen und dann werden diese Bilder wieder
miteinander verglichen. Diese Läufe werden wiederholt,
um ein geeignetes Rückgewinnungsfilter zu erhalten.
Dieses Verfahren ist sehr effektiv und in der Praxis
gut anwendbar.
Oben wurden Verfahren zur Erhaltung der Gewinnungsfilter
mittels Simulation und Experiment beschrieben. Das
Rückgewinnungsfilter muß nicht die Frequenzcharakteristiken
entsprechend dem In-Fokus-Zustand rückgewinnen.
Beispielsweise kann das Rückgewinnungsfilter so betrieben
werden, daß eine Betonung, z. B. einer Hochfrequenzkomponente
erhalten wird, um einen besseren Kontrast
zu gewinnen. Im Gegensatz hierzu kann das Rückgewinnungsfilter
so betrieben werden, daß ein Bild mit
einem guten Weichfokus-Effekt (soft focus effekt)
erhalten wird.
Fig. 12 zeigt die Anordnung einer siebten Ausführungsform
der vorliegenden Erfindung. Diese Ausführungsform
stellt beispielsweise die Anwendung der vorliegenden Erfindung
(inbesondere deren zweiter Ausführungsform) bei
einem Reflektionsmikroskop dar. Gemäß Fig. 12 wird Licht
von einer Beleuchtungsquelle 100 emittiert, von einer
Beleuchtungsanordnung 101 nach unten geführt und durch
eine Objektivlinse 102 auf die Oberfläche einer zu untersuchenden
Probe abgestrahlt. Ein von der Probe reflektiertes
Bild des Lichtes wird von der Objektivlinse
102 fokussiert und von einer TV-Kamera 104 dargestellt,
welche am oberen Ende eines Linsentubus 103 angeordnet
ist. In diesem Fall wird eine In-Fokus-Ebene für die
Probe kontinuierlich von einem Fokuspegeltreiber 105
geändert, was innerhalb einer festgelegten Zeitdauer
erfolgt. Die eingegebenen Bilder während dieser Zeitdauer
werden in einem lichtempfangenen Element der
TV-Kamera 104 akkumuliert. Die Probe wird von einem
X-Y-Kontroller 106 in X- und Y-Richtungen bewegt. Die
innerhalb der festgelegten Zeitdauer abgespeicherten
Bilder werden von einem Leser in der Kamera 104 ausgelesen
und als elektrisches Signal einem Kameratreiber
107 übertragen. Der Kameratreiber 107 steuert auch die
Energiezufuhr oder dergleichen zu der Kamera 104. Ein zu
dem Kameratreiber 107 übertragenes Bildsignal wird
weiterhin einem Prozessor 108 zugeführt. Der Prozessor
108 weist unter anderem einen A/D-Wandler, einen Bildspeicher,
eine Rückgewinnungs-Verarbeitungseinheit und
einen D/A-Wandler auf. Der Prozessor 108 führt eine
geeignete Rückgewinnungsverarbeitung des Bildsignals
durch. Das verarbeitete Ergebnis wird einem TV-Monitor
109 zugeführt und auf diesem dargestellt. Die obigen
Abläufe werden wiederholt durchgeführt für verschiedene
Bereiche zu untersuchenden Probe und der Steuerung des
X-Y-Kontrollers 106 und die verarbeiteten Ergebnisse
werden sequentiell angezeigt. Das Mikropskop bei dieser
Ausführungsform wird im wesentlichen vollständig von
einer Steuerung 110 gesteuert und Betriebsbedingungen
werden von einer Beobachtungsperson über ein Interface
111, wie beispielsweise einer Tastatur oder dergleichen
eingegeben.
Bei dieser Ausführungsform kann die Synthetisierung von
Bildern mit großen Brennpunktabständen relativ leicht
durchgeführt werden, während Auflösung und Helligkeit
des Objektes im Mikroskop aufrechterhalten werden. Wenn
mit dem Mikroskop eine sehr kleine Struktur untersucht
werden soll, muß eine Objektivlinse mit einer hohen
Vergrößerung verwendet werden. Im allgemeinen, je höher
die Vergrößerung wird, umso größer wird die numerische
Apertur und umso geringer wird der Brennpunktabstand.
In diesem Fall kann diese Ausführungsform als eine effektive
Maßnahme zur Anzeige eines Bildes mit einem geringen
Brennpunktabstand verwendet werden. Insbesondere,
wenn der Fokuspegeltreiber 105 und der Prozessor 108
mit hoher Geschwindigkeit betrieben werden, kann ein
Bild in Echtheit dargestellt werden, so daß die Vorrichtung
in der Praxis sehr effizient ist. Die Anordnung
der vorliegenden Erfindung kann in einer Mehrzahl von
Anwendungsfällen bei der Beobachtung verschiedener Arten
von Objekten verwendet werden, beispielsweise in der
Mineralogie, der Papiertechnik, der Fasertechnik, bei
lebenden Organismen oder beim Test von integrierten
Schaltkreisen oder großen integrierten Strukturen.
Die Erläuterung dieser Ausführungsform erfolgt anhand
eines Reflektionsmikroskop. Die vorliegenden Erfindung
ist jedoch auch bei einem Transmissionsmikroskop möglich,
sowie bei einem Fluoreszenzmikroskop oder dergleichen.
In dem Prozessor 108 kann ein Addierer vorgesehen
sein, um die Bilder einzugeben und zu addieren,
ähnlich wie in der ersten Ausführungsform der vorliegenden
Erfindung.
Die Fig. 13A bis 13C zeigen in ihrer Gesamtheit eine
achte Ausführungsform der vorliegenden Erfindung. Diese
Ausführungsform veranschaulicht die Anwendung der vorliegenden
Erfindung bei einem oberflächensequentiellen
elektronischen Endoskop. Gemäß Fig. 13A bis 13C
weist die Vorrichtung im wesentlichen eine Endoskopsonde
200, eine Bildeingabeeinheit 201, eine Farbfehlerausrichtung-
Korrektureinheit 202, einen Farbinformationsaufzeichner
203, eine Brennpunktabstand-Erhöhungseinheit
204, eine Bildanzeigeeinheit 205 und eine Steuerung 206
auf.
Eine monochromatische Bildaufnahmevorrichtung auf Halbleiterbasis
wie beispielsweise eine CCD ist am distalen
Ende der Endoskopsonde 200 angeordnet und nimmt ein Bild
auf, daß von einer Objektivlinse auf einen In-Fokus-Positionssteuerer
211 fokussiert wird. In diesem Falle
wird ein Illuminationslicht wie folgt emittiert: Licht
von einer weißen Beleuchtungsquelle 212, wie beispielsweise
einer Xe-Lampe in der Bildeingabeeinheit 201 läuft
durch einen drehenden Farbfilter 213 und wird durch eine
Lichtquelle 214, wie einer optischen Faser oder dergl.
durch die Endoskopsonde 200 geführt. Das Licht wird dann
vom distalen Ende der Sonde abgestrahlt.
Fig. 14 zeigt eine Draufsicht auf den Aufbau des drehenden
Farbfilters 213. Gemäß Fig. 14 sind Transmissions-
Filterelemente 213 R, 213 G und 213 B umfangsseitig
abwechselnd angeordnet und haben die Farben rot (R),
grün (G) und blau (B).
Wieder unter Bezugnahme auf die Fig. 13A bis C, wird das
drehende Farbfilter 213 von einem Motor 213 M in der
Bildeingabeeinheit 201 angetrieben, so daß das Beleuchtungslicht
sequentiell in der Reihenfolge von R, G und B
geändert wird. Aus diesem Grund erzeugt eine Abbildungsvorrichtung
210 ein monochromatisches Bild des Objektes
in der Reihenfolge der oben erwähnten Farben. Ein
Ausgangsbildsignal von der Abbildungsvorrichtung 210
wird einem A/D-Wandler 215 in der Bildeingabeeinheit
201 in ein digitales Signal umgesetzt und die digitalen
Signale werden in entsprechenden Bereichen eine Rahmenbildspeichers
217 (frame memory) mittels eines Selektors
in den einzelnen Farbkomponenten R, G und B abgespeichert.
Die beschriebenen Abläufe werden von einer
Bildeingabesteuerung 218 gesteuert. Von den Primärfarbbildern,
die sequentiell in den entsprechenden Bereichen
des Bildspeichers 217 gespeichert sind, werden die Komponenten
R und G oder die Komponenten G und B von einem
weiteren Selektor 219 ausgewählt. Die Ausgangssignale
des Selektors 219 werden der Farbfehlausrichtung-Korrektureinheit
202 zugeführt und einen Detektor 220 für
den einem Primärbild entsprechenden Bereich zugeführt.
Der Fehlausrichtungsbetrag des Bildes R oder B bezüglich
des Bildes G wird von dem Detektor 220 lokal erfaßt. Ein
Adressengenerator 221 erzeugt ein Adressensignal zur
Korrektur der Bilder R und B auf der Grundlage des Fehl
ausrichtungsbetrages, der von dem Detektor 220 berechnet
wurde. Dieses Adressensignal wird dem Rahmenbildspeicher
217 zugeführt. Der Rahmenbildspeicher 217 korrigiert die
Bilder R und B unter Verwendung des Adressensignals und
eines Pufferspeichers.
Ein Farbbild, das so erhalten wurde, wird dem Farbinformationsaufzeichner
203 über den Selektor 219 zugeführt.
Das dem Informationsaufzeichner 203 zugeführte
Farbbild wird den entsprechenden Farbkomponenten mittels
eines Addierers 222 hinzuaddiert, wodurch ein Helligkeitswert
Y=R+G+B berechnet wird. Die Farbkomponentenwerte
R, G und B werden mittels Teilern 223-1 bis
223-3 durch den Helligkeitswert Y dividiert. Die Quotienten
R/Y, G/Y und B/Y werden in entsprechenden Speichern
224-1 bis 224-3 abgespeichert.
Die in dem Speicher 217 in der Bildeingabeeinheit 201
abgespeicherten Bilder R, G und B werden der Brennpunktabstand-
Erhöhungseinheit 204 zugeführt und durch einen
Addierer 225 miteinander addiert. Die Summe wird in einem
weiteren Rahmenbildspeicher 226 gespeichert. Das in
dem Rahmenbildspeicher 226 gespeicherte Bild wird einer
Rückgewinnungs-Verarbeitung mittels einer Rückgewinnungsverarbeitungseinheit
227 unterworfen. Ein Prozeßergebnis
von der Rückgewinnungs-Verarbeitungseinheit 227
wurde wieder in den Rahmenbildspeicher 226 gespeichert.
Das in dem Speicher 226 gespeicherte Bild wird dann dem
Farbinformationsaufzeichner 203 zugeführt.
Das dem Farbinformationsaufzeichner 203 zugeführte
Bildsignal und die in den Speichern 224-1 bis 224-3 gespeicherten
Farbinformationen werden durch Multiplizierer
228-1 bis 228-3 in Farbkomponenten-Einheiten multipliziert.
Die Produkte von den Multiplizierern 228-1 bis
228-3 werden dann der Bildanzeigeeinheit 205 zugeführt.
Die von den Multiplizierern 228-1 bis 228-3 der Bildanzeigeeinheit
205 zugeführten Signale werden von A/D-Wandlern
229-1 bis 229-3 in Analogsignale umgesetzt.
Diese Analogsignale werden dann auf einem TV-Monitor 230
angezeigt. Die Bildverarbeitungs- und Anzeigeeinheiten
werden von der Steuerung 206 gesteuert.
Diese Ausführungsform verwendet die starke Korrelation
zwischen den drei Primärfarbbildern (R, G und B) und der
Bilddefokossierung, welche in den meisten Fällen abhängig
ist von der Helligkeit der Farbinformation. Wenn die
vorliegende Erfindung bei einem oberflächensequentiellen
elektronischen Endoskop angewandt wird, werden Bilder
mit verschiedenen In-Fokus-Positionen in Einheiten der
Primärfarbbilder eingegeben und addiert und das systhetisierte
Bild wird dem Rückgewinnungsprozeß unterworfen.
Die Arbeitsweise dieser Ausführungsform wird im folgenden
beschrieben. Farbbilder R, G und B werden sequentielle
von der Bildeingabeeinheit 201 eingegeben. Wenn in
diesem Falle die Endoskopsonde 200 selbst abrupt bewegt
wird, weichen die Relativlagen der entsprechenden Primärbilder
voneinander ab, so daß eine sogenannte Farb-
Fehlausrichtung entsteht. Die Farbfehlausrichtung-Korrektureinheit
202 erhält Fehlerausrichtungs-Beträge der
Bilder R und B bezüglich des Bildes G durch Berechnung
von Anpassungswerten der lokalen und partiellen Bilder.
Die Bilder R und B werden auf der Grundlage der Farb
fehlerausrichtungs-Beträge korrigiert. Ein Farbbild bei
einer vorgegebenen In-Fokus-Position wird durch das erwähnte
Verfahren eingegeben. In diesem Zustand werden
die Werte R, G und B durch den Helligkeitswert Y=R+G
+B von dem Farbinformationsaufzeichner 203 normalisiert.
Die resultierenden Daten R/Y, G/Y und B/Y werden
aufgezeichnet. Wenn eine Mehrzahl von Primärfarbbildern
mit unterschiedlichen In-Fokus-Positionen eingegeben
wird, werden diese Bilder einer Farbfehlerausrichtungs-
Korrektur unterworfen und dann miteinander addiert. Die
Summe der Bilddaten wird dann dem Rückgewinnungs-Prozeß
unterworfen, so daß ein Bild mit einer Helligkeit Y′ und
einem hohen Brennpunktabstand erhalten werden kann.
Schließlich wird das Bild Y′ mit den Farbdaten R/Y, G/Y
und B/Y multipliziert, um ein Farbbild mit einem hohen
Brennpunktabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein Bild mit
einem hohen Brennpunktabstand relativ leicht als Endoskopbild
erhalten werden kann. Eine Objektivlinse mit
einer großen numerischen Apertur kann verwendet werden,
so daß die Leistung der Beleuchtungslichtquelle verringert
werden kann. Wenn zusätzlich die erwähnte Objektivlinse
verwendet wird, kann die optische Speicherzeit
der Abbildungsvorrichtung verkürzt werden, so daß Einflüsse
hinsichtlich einer Farbfehlausrichtung minimiert
werden.
Bei der beschriebenen Ausführungsform kann die folgende
Modifikation zur Anwendung gelangen: Bilder R, G und B,
die sequentiell eingegeben werden, werden zu dem
synthetisierten Bild hinzuaddiert, das in dem Rahmenbildspeicher
226 gespeichert ist. Auf diese Weise können
Bilder mit drei oder mehr unterschiedlichen In-Fokus-Positionen
verwendet werden, um ein Bild mit einem großen
Brennpunktabstand zu erhalten. In diesem Falle wird
eine Lageabweichung zwischen dem Bild in dem Rahmenbildspeicher
226 und einem neu eingegebenen Bild G durch
die Korrektureinheit 202 korrigiert. Wenn eine Bildeingabe
mit hoher Geschwindigkeit durchgeführt werden kann
und die Farbabweichung vernachlässigbar ist, kann auf
die Farbfehlerausrichtung-Korrektureinheit 202 verzichtet
werden. Weiterhin werden die entsprechenden Primärfarbbilder
eingegeben und addiert in der gleichen Weise wie
in der ersten oder zweiten Ausführungsform, um ein Bild
mit großem Brennpunktabstand in Einheiten der Primärfarbkomponenten
zu erhalten.
Fig. 15 zeigt eine neunte Ausführungsform der vorliegenden
Erfindung. Diese Ausführungsform veranschaulicht
ein elektronisches Endoskop mit einer Farbbild-Abbildungsvorrichtung
des Single-Plate-Typs. Gemäß Fig. 15
weist eine Abbildungsvorrichtung 302 auf Halbleiterbasis
eine lichtempfindliche Oberfläche auf, welche mit einem
Farbmosaikfilter 301 bestehend aus R, G und B Filterelementen
abgedeckt ist und welche am distalen Ende einer
Endoskopsonde 300 angeordnet ist. Ein von einer Objektivlinse
in einer Brennpunktlagensteuerung 303 fokussiertes
Bild wird von der Abbildungsvorrichtung 302
dargestellt. In diesem Falle wird ein Beleuchtungslicht
wie folgt erhalten: Licht von einer Weißlichtquelle 305
in der Vorrichtung wird in die Endoskopsonde 300 mittels
eines Lichtleiters 304 geführt und vom distalen Ende der
Sonde abgestrahlt. Ein Ausgangssignal von der Abbildungsvorrichtung
302 wird in die Vorrichtung geführt und
in Signale R, G und B mittels eines Farbtrennschaltkreises
306 geteilt. In dieser Ausführungsform wird angenommen,
daß das Farbmosaikfilter 301 Filterelemente R,
G und B hat. Das Farbmosaikfilter 301 kann jedoch auch
Komplementärfarbfilterelemente (z. B. Cyan und Gelb) haben.
In jedem Fall wird das durch das Farbmosaikfilter
301 erhaltene Farbsignal von dem Farbtrennschaltkreis
306 getrennt. Die abgetrennten Signale R, G und B werden
in einem Matrixschaltkreis 307 eingegeben und in Signale
Y, R-Y und B-Y gewandelt. Die Signale Y, R-Y und B-Y
werden von A/D-Wandlern 308-1 bis 308-3 in Digitalsignale
umgesetzt. Diese digitalen Signale werden in Rahmenbildspeichern
310-1 bis 310-3 gespeichert. In diesem
Falle werden die digitalen Signale zu Signalen hinzuaddiert,
die bereits in den Speichern 310-1 bis 310-3
aufgezeichnet sind, was durch Addierer 309-1 bis 309-3
erfolgt. Mit anderen Worten, eine akkumulative Addition/
Aufzeichnung wird durchgeführt. Bei dieser Anordnung
werden die Bilder mit unterschiedlichen In-Fokus-Positionen
eingegeben und miteinander addiert, was unter
Steuerung der Brennpunktlagensteuerung 303 in der Endoskopsonde
300 erfolgt.
Das Bildsignal Y in dem Bildrahmspeicher 310-1 wird
einem Rückgewinnungsvorgang mittels einer Rückgewinnungs-
Verarbeitungseinheit 311 unterworfen. Das so zurückgewonnene
Signal wird wieder in dem Speicher 310-1
gespeichert. Darauffolgend werden die entsprechenden
Signale in den Rahmenbildspeichern 310-1 bis 310-3 durch
D/A-Wandler 312-1 bis 312-3 in Analogsignale umgesetzt.
Die Analogsignale werden in ein NTSC-Signal durch einen
NTSC-Encoder 313 gewandelt. Das NTSC-Signal wird auf
einem TV-Monitor 314 angezeigt. Die erwähnten Prozeßabläufe
werden von einer Steuerung 315 überwacht und
gesteuert.
Bei dieser Ausführungsform wird die Helligkeitskomponente
Y des endoskopischen Bildes von der Abbildungsvorrichtung
302 unter Verwendung des Farbmosaikfilters
301 extrahiert, wonach eine Prozeßverarbeitung abläuft,
um den Brennpunktabstand zu erhöhen. Danach wird die
durchschnittliche Farbinformation addiert, um ein Farbbild
zu reproduzieren und anzuzeigen. Genauer gesagt,
die Helligkeitskomponenten Y der Bilder an unterschiedlichen
Brennpunktlagen werden von der Brennpunktlagensteuerung
303 in der Endoskopsonde 300 gesteuert und
akkumulativ addiert und von dem Addierer 309-1 und
Speicher 310-1 addiert und aufgezeichnet. Die Rückgewinnungs-
Filterverarbeitung des aufgezeichneten Bildes
wird von der Verarbeitungseinheit 311 durchgeführt, so
daß der Brennpunktabstand erhöht wird. Zwischenzeitlich
wurden die Signale R-Y und B-Y als Farbkomponenten akkumuliert,
addiert und aufgezeichnet durch den Addierer
309-2 und den Speicher 310-2 bzw. den Addierer 309-3
und den Speicher 310-3, so daß Durchschnittsfarbdaten zwischen
Bildern unterschiedlicher Brennpunktlagen erhalten
wurden. Diese Daten werden addiert und als ein
NTSC-Signal ausgegeben. Daher kann ein Farbbild mit einem
hohen Brennpunktabstand erhalten werden. Eine Defokussierung
verursacht durch eine Außerbrennpunktslage
hängt zumeist von der Helligkeitskomponente ab und
leichte Defokussierung berührt das Bild nicht in einer
negativen Art und Weise. Somit kann durch Durchführung
der oben erwähnten Prozeßabläufe das vorgewählte Objekt
befriedigend dargestellt werden. Bei dieser Ausführungsform
kann der gleiche Effekt wie in der achten
Ausführungsform bei einem elektronischen Endoskop mit
einer Farbabbildungsvorrichtung erhalten werden.
Fig. 16 zeigt eine zehnte Ausführungsform der vorliegenden
Erfindung. Diese Ausführungsform verwendet ebenfalls
ein elektronisches Endoskop mit einer Farb-Bild
erzeugungsvorrichtung des Single-Plate-Typs, wie in der
neunten Ausführungsform. Gemäß Fig. 16 sind der Aufbau
der Endoskopsonde 300 und die Anordnung der Weißlichtquelle
305 gleich wie in der neunten Ausführungsform.
Ein Signal von der Abbildungsvorrichtung 302 wird durch
den Farbtrennschaltkreis 306 in Signale R, G und B getrennt.
Die farbgetrennten Signale werden durch den Matrixschaltkreis
307 in Signale Y, R-Y und B-Y konvertiert.
Die Signale Y, R-Y und B-Y werden von dem
NTSC-Encoder 313 in NTSC-Signale konvertiert. Dieses
NTSC-Signal wird dann durch den A/D-Wandler 308 in ein
digitales Signal umgesetzt. Dieses digitale Signal wird
durch einen Addierer 316 zu einem Signal hinzuaddiert,
das bereits in einem Rahmenbildspeicher 318 vorgespeichert
ist. Diese Summe wird dann in dem Rahmenbildspeicher
318 wieder über einen Selektor 317 aufgezeichnet.
Mit dieser Anordnung werden Bilder mit unterschiedlichen
Brennpunktlagen, gesetzt durch die Brennpunktlagensteuerung
303 in der Endoskopsonde 300 eingegeben und
miteinander addiert. Nur das Signal Y von dem Bildsignal,
d. h. dem digitalen NTSC-Signal entsprechend dem
synthetisierten Bild in dem Bildrahmenspeicher 318 wird
extrahiert. Das extrahierte Signal Y wird durch eine
Rückgewinnungs-Verarbeitungseinheit 320 einem geeigneten
Rückgewinnungsprozeß unterworfen, um eine räumliche
Filterung mittels eines kanalisierten Schemas (pipelined
scheme) durchzuführen. Das rückgewonnene Y-Signal wird
von einem Addierer 321 dem originalen NTSC-Signal hinzuaddiert,
wobei die zeitliche Steuerung von einem Verzögerungsschaltkreis
322 eingestellt wird, so daß ein
NTSC-Signal mit einem großen Brennpunktabstand erhalten
wird. Das NTSC-Signal wird in dem Rahmenbildspeicher 318
über den Selektor 317 gespeichert. Das verarbeitete Bild
in dem Bildrahmenspeicher 318 wird von dem D/A-Wandler
312 in ein Analogsignal umgesetzt und dieses Analogsignal
wird auf dem TV-Monitor 314 dargestellt. Die oben
beschriebenen Abläufe werden von der Steuerung 315 ge
steuert.
Die Farbsignale, die in der NTSC-Signal umgewandelt
wurden, werden eingegeben und miteinander addiert unter
Verwendung eines Rahmenbildspeichers. Der gleiche Effekt
wie in der neunten Ausführungsform kann erhalten werden,
wobei jedoch die Vorrichtungsgröße reduziert werden
kann.
Fig. 17 zeigt eine elfte Ausführungsform der vorliegenden
Erfindung. Diese Ausführungsform verwendet ein Endoskop
(Fibroskop) mit einem optischen Faserbündel. Gemäß
Fig. 17 weist eine Endoskopsonde 400 eine In-Fokus-
Positionssteuerung 401 und einen Bildleiter 402 auf.
Die Positionssteuerung 401 umfaßt eine Objektivlinse und
einen Treiber zur kontinuierlichen Änderung der In-Fokus-
Position. Der Bildleiter 402 ist aus einem optischen
Faserbündel aufgebaut. Die Endoskopsonde 400 überträgt
optisch das Bild. In diesem Falle wird ein Beleuchtungslicht
wie folgt emittiert: Weißlicht von einer Be
leuchtungseinrichtung 404 wird in die Endoskopsonde 400
mittels eines Lichtleiters 403 emittiert und vom distalen
Ende der Sonde als Ausgangslicht abgestrahlt. Eine Kamera
405 ist am oberen Ende der Endoskopsonde 400 angeordnet.
Die Kamera 405 zeichnet ein Bild auf, welches
durch den Bildleiter 402 übertragen wurde, wobei die
Aufzeichnung auf einem Silberchloridfilm erfolgt. Wenn
bei dieser Anordnung die In-Fokus-Position kontinuierlich
durch die Postionssteuerung 401 geändert wird,
werden die Bilder in der Kamera 405 auf dem Silberchloridfilm
addiert und aufgezeichnet.
Fig. 18 zeigt eine Anordnung einer Vorrichtung zum optischen
Rückgewinnen der auf dem Silberchloridfilm aufgezeichneten
Bilder. Eine Multispektrum-Beleuchtungsquelle
500 ist eine Weißlichtquelle mit einem gleichmäßigen
Spektrum in dem sichtbaren Lichtbereich oder eine
Lichtquelle zur Erzeugung eines Mischlichtes der drei
Primärfarben (R, G und B) oder von Lichtstrahlen mit
unterschiedlichen Wellenlängenbereichen in Zeitintervallen.
Licht von der Beleuchtungsquelle 500 wird auf
einen Schlitz 502 mittels einer Kollimatorlinse 501 fokussiert
und dient als annähernde Punktlichtquelle.
Licht, das durch den Schlitz 502 läuft, wird durch eine
Linse 503 zu einem parallelen Lichtbündel und fällt auf
einen Farbfilm 504, auf den die Bilder der Kamera 405
aufgezeichnet sind. Das Licht, welches durch den Farbfilm
504 hindurchtritt, wird von einer Linse 505 fokussiert.
Das fokussierte Licht wird durch ein Farb-Ortsfrequenzfilter
506 in der Brennpunktebene der Linsen 505
geeignet gefiltert. Das gefilterte Licht wird von einer
Linse 507 kollimiert und somit das Bild reproduziert.
Das reproduzierte Bild wird mittels einer Kamera 508 auf
dem Silberchloridfilm aufgezeichnet. Das reproduzierte
Bild kann auch in ein elektrisches Signal gewandelt
werden und in einem Speicher aufgezeichnet werden.
In dieser Ausführungsform werden die eingegebenen Bilder
wie in der zweiten Ausführungsform überlagert und auf
dem Silberchloridfilm aufgezeichnet. Die auf dem Farb
silberchloridfilm aufgezeichneten Bilder werden dann
einer Rückgewinnungsfilterung durch ein optisches System
unterworfen, das in Fig. 18 dargestellt ist.
Der optische Rückgewinnungsvorgang gemäß Fig. 18 wird
nun im folgenden erläutert. Ein auf dem Farbfilm 104
aufgezeichnetes endoskopisches Bild wird durch die Linse
505 optisch einer Fourier-Transformation unterworfen und
von dem Frequenzfilter 506 bei einer geeigneten Ortsfrequenz
gefiltert. Ein von dem Fibroskop erhaltenes
Bild besteht im allgemeinen aus Pixeln, welche den einzelnen
optischen Fasern entsprechen. Daher hat das Bild
eine netzartige Struktur, wie in Fig. 19 dargestellt.
Eine Rückgewinnungsfilterung des Ortsfrequenzfilters 506
und eine Elimination der Netz- oder Rasterstruktur 510
werden gleichzeitig durchgeführt. Ein Fourier-Spektrum
eines Fibroskopbildes, das in einer Brennpunktebene der
Linse 505 erscheint, ist in Fig. 20 dargestellt. Ein
Spektrum 511 nullter Ordnung des Bildes selbst erscheint
im Mittenbereich und Spektren 512 höherer Ordnung, welche
von der optischen Faseranordnung entspringen, erscheinen
im Umfangsbereich. Gemäß Fig. 21 ist ein Filter
520 mit einer Amplituden-Durchlässigkeit angeordnet, um
einen Rückgewinnungsvorgang des Spektrums 511 nullter
Ordnung in dem Mittenbereich 521 durchzuführen und um
die Spektren 512 höherer Ordnung am Umfangsbereich 522
abzuschneiden, wobei dieses Filter als Filter 506 verwendet
wird. Mit dieser Anordnung kann ein Bild mit einem
hohen Brennpunktabstand und ohne die Netz- oder
Rasterstruktur 510 wiedergegeben werden. Da das Rückgewinnungsfilter
keine maximale Amplitudendurchlässigkeit
von 1 oder mehr haben muß, kann das Rückgewinnungsfilter
so ausgelegt sein, daß die Amplitudendurchlässigkeit in
einem niederen Ortsfrequenzbereich relativ limitiert
wird. Da die Multispektrum-Beleuchtungsquelle in Fig. 18
verwendet wird, sind die Spektren der Linse 505 in der
Brennpunktebene unterschiedlich in ihren Lagen abhängig
von den Wellenlängen. Das Farb-Ortsfrequenzfilter 506
ist aus einem Farbumkehrfilm gebildet, der eine Spektralcharakteristik
hat, die es erlaubt, daß die entsprechenden
Spektren ausreichend ausgefiltert werden.
Ein Verfahren zur optischen Durchführung des Rückgewinnungsvorganges
gemäß dieser Ausführungsform ist im Detail
der JP-OS 61-2 27 454 beschrieben.
Bei dieser Ausführungsform wird ein Fibroskopbild mit
einem größeren Brennpunktabstand durch eine relativ
einfache Anordnung reproduziert. Auf gleiche Weise wie
in der achten Ausführungsform kann die Leistung der Beleuchtungslichtquelle
reduziert werden. Bei dieser Ausführungsform
wird das Bild des Fibroskopes auf einem
Silberchloridfilm durch die Kamera 405 aufgezeichnet. Es
kann jedoch anstelle der Kamera 405 auch eine TV-Kamera
verwendet werden, um ein Signal elektronisch zu verarbeiten
und das Bild aufzuzeichnen. Genauer gesagt, das
von der TV-Kamera erhaltene Bild kann durch einen A/D-Wandler
in ein Digitalsignal mit einer Abtasthöhe gewandelt
werden, die ausreichend kleiner ist als die der
Netz- oder Rasterstruktur des Fibroskops. Für das digitale
Bild können dann die gleichen Verarbeitungen wie in
der beschriebenen Ausführungsform durchgeführt werden.
Fig. 22 zeigt eine zwölfte Ausführungsform der vorliegenden
Erfindung. Diese Ausführungsform verwendet eine
elektronische Kamera, welche wiederum die vorliegende
Erfindung verwendet. Diese Ausführungsform entspricht
einer Anordnung, in welcher die Bildeingabeeinheit und
die Bildverarbeitungseinheit gemäß der dritten Ausführungsform
über ein Aufzeichnungsmedium off-line verbunden
sind. Gemäß Fig. 22 wird eine Mehrzahl von Bildern,
die durch eine elektronische Kamera erhalten werden und
in verschiedenen Brennpunkten fokussiert sind, der Kamera
600 als elektrische Signale eingegeben. Alle eingegebenen
elektrischen Signale werden in einem Aufzeichnungsmedium
601 in der Kamera 600 aufgezeichnet.
Das Aufzeichnungsmedium 601 ist eine floppy disk, ein
Magnetband, ein optischer Speicher, ein Speicher auf
Halbleiterbasis mit einem Halbleiter- IC oder einem
Dünnfilm oder dergl. Die auf dem Aufzeichnungsmedium 601
aufgezeichneten Bildsignale werden von einem Leser 602
gelesen. Die auf dem Bildaufzeichnungsmedium aufgezeichneten
Bildsignale sind Analogsignale. Ein A/D-Wandler
ist in dem Leser 602 angeordnet, um die Bildsignale
in ein digitales Signal zu wandeln. Ein Prozessor 603
enthält die Speicher 5-1 bis 5-m, den Adressenkompensator
12, den Selektor 13, den Addierer 14, den Speicher
15, die Rückgewinnungs-Verarbeitungseinheit 7, den
D/A-Wandler 8 und die Steuerung 10, die bereits unter
Bezugnahme der dritten Ausführungsform in Fig. 3 beschrieben
wurde. Die gleiche Verarbeitung wie in der
dritten Ausführungsform wird auch für ein digitales
Bildsignal durchgeführt, das von dem Leser 602 in dem
Prozessor 603 übertragen worden ist. Das verarbeitete
Bildsignal wird einem TV-Monitor 604 übertragen und dort
angezeigt. Die verschiedenen Bearbeitungszustände des
Prozessors 603 werden von einer Beobachtungsperson an
einem geeigneten Interface, wie beispielsweise einer
Tastatur 605 festgesetzt, welche mit einer Steuerung in
dem Prozessor 603 verbunden ist.
Bei dieser Ausführungsform wird die Mehrzahl von Bildern
mit unterschiedlichen In-Fokus-Positionen, die durch die
elektronische Kamera 600 abgebildet werden, erhalten, um
den gleichen Effekt wie in der dritten Ausführungsform
zu erzielen. Diese Ausführungsform verwendet die elektronische
Kamera 600, welche wiederum in der dritten
Ausführungsform verwendet wird. Es kann jedoch jede der
ersten, zweiten, vierten, fünften und sechsten Ausführungsform
mit dieser Ausführungsform kombiniert werden.
D. h., die Bilder mit unterschiedlichen In-Fokus-Positionen
in der Kamera werden eingegeben und miteinander
addiert und das synthetisierte Bild wird auf einem Auf
zeichnungsmedium abgespeichert. Nur die Rückgewinnungs-
Verarbeitung kann in einer On-Line-Verarbeitungseinheit
durchgeführt werden. In diesem Fall kann der
Aufbau der Vorrichtung noch weiter vereinfacht werden.
Wenn die vorliegenden Erfindung bei einer Kamera angewendet
wird, in der Bilder auf einem Silberchloridfilm
aufgezeichnet werden, können Bilder mit unterschiedlichen
In-Fokus-Positionen kontinuierlich aufgezeichnet
werden und der gleiche Prozeß wie in der zwölften Ausführungsform
kann durchgeführt werden. Weiterhin können,
wie in der elften Ausführungsform dargestellt, Bilder
mit unterschiedlichen Brennpunkten eingegeben und auf
dem Silberchloridfilm addiert werden und eine optische
oder elektrische Rückgewinnungs-Verarbeitung kann
durchgeführt werden.
Fig. 23 zeigt eine dreizehnte Ausführungsform der vorliegenden
Erfindung. Diese Ausführungsform verwendet ein
Reflektionsmikroskop, was die Anwendung der vorliegenden
Erfindung in der gleichen Weise möglich macht, wie in
der siebten Ausführungsform gemäß Fig. 12. Gemäß Fig. 23
wird Licht von einer Lichtquelle 700 durch eine geeignete
Vorrichtung 701 nach unten geleitet und fällt
schließlich auf eine Probenoberfläche durch eine Objektivlinse
702. Ein Bild des von der Probe reflektierten
Lichtes wird auf die Objektivlinse 702 fokussiert und
von einer Kamera 704 aufgezeichnet, die auf einem Linsentubus
703 angeordnet ist. In diesem Falle wird die
Probe von einem Oszillator 706 in Vibration versetzt,
der an einem Objektträger 705 angeordnet ist. Die Vibration
erfolgt bei einer festgelegten Frequenz in der
optischen Achse des Mikroskopes. Der Oszillator 706 wird
von einem Oszillatortreiber 707 mit einer geeigneten
Periode und Amplitude betrieben. Ein von der Kamera 704
erhaltenes Bildsignal wird einem Kameratreiber 708
übertragen. Der Kameratreiber 708 liefert auch die
Energie an die TV-Kamera 704. Das an den Kameratreiber
708 übertragene Bildsignal wird einer Steuerung 709 zugeführt.
Die Steuerung 709 beinhaltet einen A/D-Wandler,
einen Bildspeicher, eine Rückgewinnungs-Verarbeitungseinheit
und einen D/A-Wandler. Die Steuerung oder der
Prozessor 709 führt eine digitale Rückgewinnungs-Verarbeitung
durch oder versucht eine analoge Bandpaß- oder
Hochpaßfilterung für eine Rückgewinnungs-Verarbeitung.
Das Bildsignal von dem Prozessor 709 wird einem Monitor
710 übertragen und dort eingesetzt.
Die Vorrichtung zur Überwachung einer Leistung eines
speziellen Ortsfrequenzbereiches im eingehenden Bildsignal
unter Verwendung eines Bandpaßfilters ist in dem
Prozessor 709 angeordnet. Somit kann die Amplitude des
Oszillators 706 automatisch bestimmt werden. Der Oszillatortreiber
707 kann in Übereinstimmung mit den Bestimmungsergebnissen
betrieben werden.
Die dreizehnte Ausführungsform mit der obigen Anordnung
hat die folgende Wirkungsweise: Da in dieser Ausführungsform
die TV-Kamera 704 angeordnet ist, um ein Objekt
einmal oder mehrmals mit einer speziellen Amplitude
zu oszillieren, während ein Ein-Rahmenbild oder ein
Ein-Feldbild eingegeben wird, können die Bilder mit unter
schiedlichen In-Fokus-Ebenen in einer Bildebene der
TV-Kamera akkumuliert werden. Die Anfangsamplitude des
Oszillators 706 kann durch das folgende Verfahren bestimmt
werden: Bilder werden eingegeben, während die
Amplitude geändert wird. Der Prozessor 709 überwacht
dann die Leistung der speziellen Ortsfrequenzregion des
Eingangsbildes. Eine Änderung der Leistung in der speziellen
Ortsfrequenz als Funktion der Amplitude ist in
Fig. 24 dargestellt. Wenn ein Amplitudenwert erhöht wird
aufgrund einer Struktur eines Objektes in einer Richtung
der Tiefe, sind viele Defokus-Komponenten in dem Bild
enthalten. Aus diesem Grund nimmt die Leistung ab. Ein
vorherbestimmter Schwellenwert TH wird geeignet festgesetzt
und ein Amplitudenwert A entsprechend der Leistung,
die geringer ist als der Schwellenwert TH wird in
der tatsächlichen Verarbeitung dann verwendet. In diesem
Falle kann ein klares Bild mit einem ausreichenden
Brennpunktabstand bezüglich der Objektstruktur erhalten
werden. Das Verfahren zur Bestimmung des Akkumulationsbereiches
kann auch bei der siebten Ausführungsform
angewendet werden.
Diese Ausführungsform stellt einen ausreichenden Effekt
bei gleichzeitig einfachem Aufbau zur Verfügung. Wenn
die Wiedergewinnungs-Verarbeitung mit einer Videorate
durchgeführt wird, kann ein verarbeitetes Bild in Echtzeit
erhalten werden, was in der Praxis viele Vorteile
hat.
In der beschriebenen Ausführungsform wird das Objekt
oszilliert. Es kann jedoch auch eine Relaislinse oder
ein Abbildungselement in dem optischen System, z. B. die
Objektivlinse 702 oder der Linsentubus 703 oszilliert
werden. Diese Ausführungsform kann bei optischen Ausrüstungsgegenständen,
wie beispielsweise einer elektronischen
Kamera oder einem Endoskop anstelle des Mikroskopes
angewendet werden, um das optische System oder ein Abbildungselement
zu oszillieren.
Fig. 25 ist eine Darstellung einer vierzehnten Ausführungsform
der vorliegenden Erfindung in Verbindung mit
einem Reflektionsmikroskop. Aus Gründen einer einfachen
Darstellung ist nur eine Beleuchtungsquelle 800, eine
Beleuchtungseinrichtung 801, eine Objektivlinse 802 und
ein Linsentubus 803 des Reflektionsmikroskops dargestellt.
Eine Farb-Kamera 804 ist an dem Linsentubus 803
angeordnet. Ein Dynamikbereich einer Abbildungsvorrichtung
in der Farbkamera 804 sei auf 40 dB festgesetzt. Ein
drehender optischer Verschluß 805 ist in der Beleuchtungseinrichtung
801 angeordnet. Der optische Verschluß
805 läßt Licht durch bzw. schattet Licht ab von der Be
leuchtungsquelle 800 und zwar zu festgelegten Zeitpunkten.
Wie in Fig. 26 dargestellt, weist der drehende
optische Verschluß 805 Bereiche 805 A bis 805 C einer
Scheibe 805 D auf, welche gleichmäßig unterteilt ist.
Fenster (gestrichelte Bereiche) a, b und c haben ein
Flächenverhältnis von 10 000 : 100 : 1 und sind in den
Bereichen 805 A bis 805 C ausgebildet. Wenn sich die
Scheibe 805 D einmal pro 1/10 Sekunden dreht, was mittels
eines Motors 807 erfolgt, der von einem Motortreiber 806
angetrieben wird, fällt eine festgesetzte Lichtmenge auf
die Probe pro 1/30 Sekunden (d. h. einer Ein-Rahmen-Abtastzeit
der Kamera). In diesem Fall fällt das Beleuchtungslicht
auf die Probe durch einen Halbspiegel 808 und
die Objektivlinse 802. Ein Bild des von der Probe reflektierten
Lichtes wird von der Farb-Kamera 804 abgebildet,
welche von einem Kameratreiber 809 gesteuert
wird. Ein Kolher'sches Illuminationssystem (nicht dargestellt)
bestehend aus einer Mehrzahl von Linsen und einer
Apertur ist in der Beleuchtungseinrichtung 801 angeordnet.
Ein Treiber 810 für den Objektträger weist einen
Oszillator auf, (vgl. dreizehnte Ausführungsform) und
oszilliert einen Objektträger 811 wenigstens einmal pro
1/30 Sekunden mit einer festgelegten Amplitude. Die
Bilder mit unterschiedlichen In-Fokus-Ebenen können auf
der lichtempfindlichen Oberfläche der Farbkamera 804
akkumuliert werden. Auf diese Weise werden drei farbige
Rahmenbilder mit unterschiedlichen Belichtungsgraden
eingegeben. Diese Farbbilder werden einem Prozessor 820
als die drei Primärfarbsignale, d. h. als Signale R, G
und B zugeführt.
Die dem Prozessor 820 übertragenen Bildsignale werden
mittels eines A/D-Wandlers 821 in digitale Signale umgesetzt.
Von diesen umgewandelten digitalen Signalen
werden die Signale des ersten Rahmenbildes, d. h. die
Bildsignale, die durch das Fenster a des drehenden optischen
Verschlusses 805 belichtet wurden und in dem
Prozessor 820 eingegeben wurden, durch einen Addierer
822 ohne Verarbeitung übertragen und in einem Rahmenbildspeicher
823 gespeichert. Die Bildsignale des zweiten
und dritten Rahmenbildes, d. h. die durch die Fenster
b und c des Verschlusses 805 belichteten Bildsignale,
die dem Prozessor 820 eingegeben wurden, werden durch
den Addierer 822 zu den Bildsignalen hinzuaddiert, die
bereits in dem Bildrahmenspeicher 823 gespeichert
sind. Die sich ergebende Summe wird wieder in dem Bildrahmenspeicher
823 gespeichert. Somit werden die drei Primärfarben
(R, G und B) Bilddaten mit logarithmischen Charakteristiken
einer polygonalen Approximation in dem
Rahmenspeicher 823 gespeichert. Die Bilddaten log R, log G
und log B in dem Rahmenbildspeicher 823 werden in einen
Wert log Y (Y=0.3R+0.59G+0.11B) von einen log Y-
Wandlerschaltkreis 824 konvertiert. Die konvertierten
Daten werden in einem anderen Rahmenbildspeicher 825
gespeichert. Das Bildsignal in dem Rahmenbildspeicher
825 wird einem Rückgewinnungs-Verarbeitungs-Schaltkreis
826 zugeführt. Das dem Schaltkreis 826 zugeführte Bildsignal
wird einer geeigneten Filterung bezüglich einer
Ortsfrequenz unterworfen, wobei das Bildsignal logarithmische
Charakteristiken hat. Das gefilterte Bildsignal
wird einem Steuerschaltkreis 827 für Dynamikbereich
und Verstärkung zugeführt. Das dem Rückgewinnungsprozeß
unterworfene Bildsignal log Y′ wird mit dem Verstärkungssteuerungswert
log b durch diesen Schaltkreis 827
addiert und gleichzeitig mit einem Dynamikbereich-Einstellwert
a multipliziert, so daß ein Signal a log bY′
ausgegeben wird. Das 98298 00070 552 001000280000000200012000285919818700040 0002003905619 00004 98179Bildsignal a log bY′ wird von einem
Logarithmus-Konverter 828 logaritmisch komprimiert und
als log (a log bY′) ausgegeben. Dieser Ausgangswert wird
einem Subtrahierer 829 eingegeben und die Differenz
zwischen dem Signal log (a log bY′/Y′) und dem Bildsignal
log (a log bY′) und dem Bildsignal log Y wird von dem Subtrahierer
829 berechnet. Die Differenz wird als Signal
log (a log bY′/Y) ausgegeben. Das Ausgangssignal
log (a log bY′/Y) von dem Subtrahierer 829 wird durch Addierer
830 R, 830 G und 830 B zu den drei logarithmisch
komprimierten Primärfarbsignalen log R, log G und log B in
dem Speicher 823 addiert. Die sich ergebenden Summensignale
werden einem inversen Logarithmus-Konverter (Exponential-
Konverter) 831 zugeführt und die inverse logarithmische
Konversion wird hierin durchgeführt, so daß
Ausgangssignale a log bY′/Y · R, a log bY′/Y · G und a log bY′/Y · B
ausgegeben werden. Diese berechneten Werte werden in
Videosignale R, B und G mittels eines D/A-Wandler 832
umgesetzt und auf einem Monitor 833 dargestellt. Der
Prozessor 822 arbeitet hierbei auf der Basis eines Farb
logarithmus-Bildvideoprozessors gemäß der JP-OS
62-234133. Die Steuerung der Arbeitsweise dieser Vorrichtung
mit dem obigen Aufbau wird durch eine Steuerung
834 durchgeführt. Prozeßbedindungen werden an einer
Beobachtungsperson von einem Interface 835 eingegeben,
welches mit der Steuerung 834 verbunden ist.
Die vierzehnte Ausführungsform mit dem erwähnten Aufbau
hat die folgende Wirkungsweise: Da diese Ausführungsform
ein Farblogarithmus-Abbildungssystem verwendet, können
sowohl ein Arbeitsgang zur Eingabe des Bildes mit einem
Dynamikbereich oberhalb der Leistung der Abbildungsvorrichtung
der Kamera 804 und ein Arbeitsgang zur wirksamen
Durchführung eines Rückgewinnungsprozesses durch
logarithmisches Filtern gleichzeitig durchgeführt werden.
Das logarithmische Farb-Abbildungssystem wird im
folgenden beschrieben. Hierfür sei angenommen, daß der
Dynamikbereich der Abbildungsvorrichtung in der TV-Kamera
804 als 40dB gegeben ist. Wenn ein Objekt eine
Helligkeitsformation hat, welche eine Abbildung in dem
Dynamikbereich von 40dB nicht erlaubt, wird der Dynamikbereich
erheblich erweitert, wie folgt: Das Objekt
wird mit einer ausreichenden hohen Belichtungsmenge
abgebildet und ein Bild mit Dunkelinformation wird eingegeben,
In diesem Bild ist ein heller Bereich in der
Sättigung. Das Bild wird dann mit einer Belichtungsmenge
von 1/100 des vorher eingegebenen Bildes eingegeben. Von
den gesättigten Bereichen des vorher eingegebenen Bildes
können Informationen von 40dB von einem dunkleren Bereich
erhalten werden. Auf ähnliche Weise wird ein Bild
mit einer Belichtungsmenge von 1/100 des vorher eingegebenen
Bildes eingegeben und ein Bild mit einer Information
von 40dB eines helleren Bereiches kann eingegeben
werden. Diese eingegebenen Bilder werden miteinander
addiert, um ein Bildsignal zu erhalten, welches logaritmische
Charakteristiken einer polygonalen Annäherung
hat. Somit kann dieses Bildsignal als ein Bildsignal
mit einem wesentlich erweiterten Dynamikbereich
verwendet werden. Zusätzlich wird, um die verarbeiteten
Bilder auszubalancieren nur eine logarithmische Kompression
eines Helligkeitssignals Y durchgeführt. Um die
Einflüsse von Abschattungen und Sättigungen des Farbbildes
zu eliminieren, wird ein Kompressionsgrad log Y/Y
des Helligkeitssignals Y mit den Signalen R, G und B
multipliziert, um die Signale log Y/Y · R , log Y/Y · G und
log Y/Y · B zu erhalten. Diese Signale werden als die drei
Primärfarbsignale ausgegeben. In dieser Ausführungsform
werden Verstärkung und Dynamikbereiche einer Anzeige
gesteuert, um die drei Primärfarbsignale bestehend aus
a log Y/Y · R, a log Y/Y · G und a log bY/Y · B auszugeben. Diese
Steuerung von Verstärkung und Dynamikbereich kann manuell
oder automatisch durchgeführt werden. Details des
erwähnten logarithmischen Farbkompressionssystems sind
in der JP-OS-62-234133 beschrieben.
Eine Funktion zur Erhaltung einer Ortsfrequenzfilterung,
d. h. einer logarithmischen Filterung des Helligkeitssignals
log Y mit logarithmischen Charakteristiken wird
nun im folgenden beschrieben:
Eine Verteilungsfunktion des reflektierten Lichtes ist
wie folgt definiert:
Y (Γ ) = L (Γ ) · R (Γ ) , (a)
wobei
Y (Γ ): Verteilungsfunktion des reflektierten Lichtes;
L (Γ ): Verteilungsfunktion der Beleuchtungsfunktion und
R (Γ ): Reflektivitäts-Verteilungsfunktion eines Objektes.
L (Γ ): Verteilungsfunktion der Beleuchtungsfunktion und
R (Γ ): Reflektivitäts-Verteilungsfunktion eines Objektes.
Wenn die rechten und linken Seiten logarithmisch konvertiert
werden, ergibt sich die folgende Gleichung:
Log Y (Γ ) = log L (Γ ) + log R (Γ ) . (b)
Bei einer optischen Ausrüstung mit keinem Beleuchtungslicht
oder keiner Beleuchtungseinrichtung hat die Funktion
L ( Γ ) entsprechend der Verteilung von natürlichem
Licht oder externem Beleuchtungslicht hauptsächlich eine
Niederortsfrequenz-Komponente. Im Gegensatz hierzu hat
die Reflektivitäts-Verteilungsfunktion R ( Γ ) hauptsächlich
eine Komponente von niederen bis mittleren Ortsfrequenzen.
Ein Filter mit Charakteristiken gemäß Fig.
27 ist angeordnet, um Ungleichmäßigkleiten des Beleuchtungslichtes
der Niederortsfrequenz-Komponente und einen
Hochortsfrequenz-Bereich, in dem Rauschkomponenten vorherrschend
sind, abzuschneiden. Somit kann ein Bereich
entsprechend der Struktur des Objektes betont werden.
Somit wird unter Verwendung des logarithmischen Filterns
eine noch wirksamere Rückgewinnung durchgeführt. Ortsfrequenzwerte
fl und fh in Fig. 27 können von einer
Beobachtungsperson an dem Interface 835 beliebig gesetzt
werden, während die Prozeßergebnisse beobachtet werden.
Wenn alternativ die Bildtypen limitiert sind und die
Charakteristiken bekannt sind, können die Ortsfrequenzwerte
vorgewählt werden.
Gemäß dieser Ausführungsform kann, selbst wenn die Abbildungskamera
einen niederen Dynamikbereich hat, ein
Bild mit einem im wesentlichen hohen Dynamikbereich
erhalten werden. Im allgemeinen wird bei einer Kamera
mit einem geringen Dynamikbereich eine Akkumulation auf
der lichtempfindlichen Oberfläche durchgeführt und nur
eine Durchschnittsintensität (Frequenzintensität nullter
Ordnung) des Bildes wird erhöht. Daten des Hochortsfrequenz-
Bereiches werden unerwünschterweise mit Rauschen
derart gemischt, daß eine Rückgewinnung nicht möglich
wäre. Dieser Nachteil wird bei der vorliegenden Ausführungsform
eliminiert. Eine Bildkomponente des Hochortsfrequenz-
Bereiches kann mit einem gewünschten Signal-
Rauschabstand eingegeben werden, während es akkumuliert
wird. Eine wirksamere Rückgewinnungs-Verarbeitung kann
durchgeführt werden, und durch das logarithmische Filtern
kann ein klares Bild dargestellt werden.
Diese Ausführungsform veranschaulicht die Anwendung bei
einem Reflektionsmikroskop. Genauso gut ist diese Ausführungsform
jedoch bei anderen optischen Vorrichtungen
mit einer Beleuchtungseinrichtung verwendbar, beispielsweise
bei einem elektronischen Endoskop. Weiterhin
muß der Verschluß 805 kein mechanischer Verschluß wie
dargestellt sein; es ist auch ein optischer Verschluß,
z. B. in Form einer Flüssigkristallplatte möglich.
Fig. 28 zeigt eine fünfzehnte Ausführungsform der vorliegenden
Erfindung, bei der logarithmische Farbabbildung
und logarithmisches Filtern gemäß der vierzehnten
Ausführungsform bei einem optischen Gerät durchgeführt
werden, welches keine Beleuchtungsausstattung hat. Ein
Objektbild wird auf die lichtempfindliche Oberfläche
eines Bildsensors 902 auf Halterleiterbasis fokussiert,
was durch eine Linse 901 erfolgt. Der Bildsensor oder
die Abbildungsvorrichtung 902 wird von einem logarithmischen
Abbildungstreiber 903 gesteuert. Wenn beispielsweise die Abbildungsvorrichtung 902 eine CCD ist,
ist die Höhe eines overflow drain gate oder eines horizontalen
transfer gate innerhalb einer Belichtungszeit
geändert, so daß ein Ausgangssignal logarithmische Charakteristiken
hat. Details einer logarithmischen Kompression
einer Abbildungsvorrichtung auf Halbleiterbasis
sind in der JP-OS 62-2 34 133 beschrieben. Ein Ausgangssignal
von der Abbildungsvorrichtung 902 wird in drei
Primärfarbsignale log R, log G und log B mittels eines Videoprozessors
904 konvertiert. Diese Primärfarbsignale
werden mittels eines A/D-Wandlers 905 in digitale Signale
umgesetzt. Die digitalen Signale werden dann in
eine Bildverarbeitungseinheit 910 übertragen. Die Linse
901 wird oszilliert und angetrieben von einem Oszillator
907 mit einer Periode ausreichend kürzer als die Belichtungszeit
der Abbildungseinrichtung 902. Hierbei wird
der Oszillator 907 von einem Oszillationstreiber 906
angetrieben und gesteuert. Bilder mit unterschiedlichen
In-Fokus-Positionen werden akkumuliert und eingegeben
auf der lichtempfindlichen Oberfläche der Abbildungsvorrichtung
902.
Die Bildverarbeitungseinheit 910 weist einen log Y-Konverter
911, eine Rückgewinnungs-Verarbeitungseinheit
912, einen Steuerschaltkreis 913 für Dynamikbereich und
Verstärkung, einen logarithmischen Konvertierer 914,
einen Subtrahierer 915, Addierer 916 R, 916 G, 916 B und
einen inversen logarithmischen Konvertierer 917 auf. In
der Bildverarbeitungseinheit 910 wird ein Helligkeitssignal
Y logarithmisch gefiltert, wie in der vierzehnten
Ausführungsform gemäß Fig. 25. Die drei Primärfarbsignale
a log bY/Y · R, a log bY/Y · G und a log bY′/Y · B, deren
Dynamikbereiche und Verstärkungen geeignet gesteuert
werden, werden ausgegeben. Ausgangssignale von der
Bildverarbeitungseinheit 910 werden durch einen D/A-
Wandler 920 in analoge Farbsignale umgesetzt und auf
einem TV-Monitor 921 dargestellt. Die erwähnten Abläufe
werden von einer Steuerung 930 gesteuert.
Die fünfzehnte Ausführungsform mit dem erwähnten Aufbau
hat die folgende Arbeitsweise: Da die logarithmischen
Kompressions-Eingangscharakteristiken der Abbildungsvorrichtung
902 selbst zugeordnet sind, kann der Dynamikbereich
erweitert werden, und eine Rückgewinnungs-Verarbeitung
durch eine logarithmische Filterung kann durchgeführt
werden, ohne die Farbkomponenten außer Balance
zu bringen, wie in der vierzehnten Ausführungsform. Zusätzlich
hat die Vorrichtung gemäß der fünfzehnten Ausführungsform
einen einfachen Aufbau.
Bei dieser Ausführungsform kann der gleiche Effekt wie
in der vierzehnten Ausführungsform bei einer optischen
Ausstattung ohne zusätzliche Beleuchtungsvorrichtung
erzielt werden, wie beispielsweise bei einer elektronischen
Kamera. Die Bilder mit unterschiedlichen In-Fokus-
Positionen werden von der Abbildungsvorrichtung 902
selbst akkumuliert, so daß die Vorrichtung selbst vereinfacht
ist.
Anstelle der Abbildungsvorrichtung selbst die logarithmische
Eingangscharakteristik zuzuweisen, kann die
Mehrzahl von Bildern eingegeben werden, während die Belichtungszeit
geändert wird, so daß ein Bild synthetisiert
wird, welches eine logarithmische Charakteristik
von polygonaler Annäherung hat. Eine Weiterverarbeitung
kann durchgeführt werden unter Verwendung der gleichen
Anordnung wie der Prozessor 820 in der vierzehnten Ausführungsform.
Fig. 29 zeigt eine sechzehnte Ausführungsform der vorliegenden
Erfindung, welche bei einem Reflektionsmikroskop
zur Anwendung kommt, wie im Falle der vierzehnten
Ausführungsform gemäß Fig. 25. Licht von einer Beleuchtungsquelle
1001 fällt durch einen Halbspiegel 1003
und eine Objektivlinse 1004 auf eine Probenoberfläche.
Ein von der Probe reflektiertes Bild wird von der Objektivlinse
1004 vergrößert, und eine Fokussierungslinse
1006 an einem Linsentubus 1005 fokussiert das Bild auf
die lichtempfindliche Oberfläche eines räumlich-optischen
Modulators (im folgenden mit SLM bezeichnet) 1007
(spatial optical modulator) in dem Linsentubus 1005. Der
SLM 1007 wird von einem Treiber 1008 angetrieben und
gesteuert und dient als Inkohärent-zu-kohärent-Konverter.
Ein Treiber 1009 treibt einen Objektträger 1010 in
einem festgelegten Entfernungsbereich in axialer Richtung
des Mikroskops innerhalb einer Abtastzeit, welche
in Anbetracht einer Umwandlungs-Reaktionszeit des SLM
1007 festgesetzt ist. Ein Laserstrahl von einem Laser
1011 wird von einem Strahlexpander 1012 expandiert, und
ein Fortpflanzungsweg wird von einem Halbspiegel 1013
geändert. Der Laserstrahl fällt dann auf eine Oberfläche
(Reflektionsoberfläche) des SLM 1007 gegenüber der
lichtempfindlichen Oberfläche. Ein mikroskopisches Bild
wird als Gardientenindex auf der Reflexionsoberfläche
des SLM 1007 angezeigt. Somit wird ein Reflektions-
Raummuster des Laserstrahls als mikroskopisches Bild
fortgepflanzt. Dieses mikroskopische Bild, d. h. ein reflektierter
Laserstrahl, wird von einer Linse 1014
räumlich Fourier-transformiert. Eine Filterung des sich
ergebenden Strahles wird von einem Filter 1015 an der
rückwärtigen Brennebene 1014 durchgeführt. Der reflektierte
Laserstrahl wird einer inversen Fourier-Transformation
durch eine Linse 1016 unterworfen. Das sich
ergebende Bild wird einer TV-Kamera 1017 eingegeben.
Eine Amplitudendurchlässigkeit des Filters 1015 wird von
dessen Mittenbereich zu dessen Umfangsbereich erhöht und
ist so ausgelegt, daß für eine Ortsfrequenz ein Hochpaßfilter
vorliegt. Eine Energieversorgung und eine
Zeitsteuerung für die Kamera 1017 erfolgt durch einen
Kameratreiber 1018. Durch den Kameratreiber 1018 wird
das eingegebene Bild einem Prozessor 1020 übertragen.
Ein Bildsignal, das dem Prozessor 1020 eingegeben worden
ist, wird von einem A/D-Wandler 1021 in ein digitales
Signal umgesetzt, und das digitale Signal wird in einem
Rahmenbildspeicher 1022 abgespeichert. Das digitale Bild
in dem Bildrahmenspeicher 1022 wird mittels einer Rückgewinnungsverarbeitungseinheit
1023 einem geeigneten
Rückgewinnungsprozeß unterworfen. Das derart verarbeitete
Bildsignal wird von einem D/A-Wandler 1024 in ein
Analogsignal umgesetzt und auf einem TV-Monitor 1025
dargestellt. Die obenerwähnten Abläufe werden von einer
Steuerung 1026 gesteuert, und Betriebsbedingungen sind
von einer Bedienungs- oder Beobachtungsperson über ein
Interface 1027 eingebbar, welches mit der Steuerung 1026
verbunden ist.
Im folgenden erfolgt eine kurze Beschreibung des SLM
1007. Der SLM 1007 ist ein räumlicher Modulator des optischen
Eingangstyps und dient als optisches funktionales
Element, welches ein optisches Signal zweidimensional
lesen und schreiben kann. Beispiele für dieses optische
funktionale Element sind ein PROM (Pockls
Read-out Optical Modulator), der die optische Leitfähigkeit
und die elektrooptischen Effekte von Bi₁₂Sio₂₀
(BSO) verwendet und ein LCLV (Liquid Crystal Light Valve),
welches durch Kombination eines fotoleitfähigen
Materials und eines Flüssigkristalls erhalten worden
ist. Jedes dieser erwähnten optischen funktionalen Elemente
wandelt ein optisches Eingangssignal in eine
elektrische Feldverteilung und steuert einen Gradientenindex
der Reflektionsoberfläche. Ein Polarisationsstand
des Laserstrahls, der auf die Reflektionsoberfläche des
SLM 1007 fällt, wird in Abhängigkeit von dem Gradientenindex
der Reflektionsoberfläche geändert. Wenn der Laserstrahl
durch einen Detektor läuft, kann er als kohärentes
optisches Bild gelesen werden. In dieser Ausführungsform
wird ein SLM mit einem weiten Dynamikbereich
und einer kurzen Ansprechzeit verwendet.
Die sechzehnte Ausführungsform mit dem obigen Aufbau hat
die folgende Wirkungsweise: Bevor die Bilder auf der
lichtempfindlichen Oberfläche der Kamera 1017 akkumuliert
werden, wird eine optische Hochpaß-Filterung
durchgeführt. Das heißt, die durch das Mikroskop eingegangenen
Bilder pflanzen sich mit einem Laserstrahl durch den
SLM 1007 fort. Bilder mit unterschiedlichen In-Fokus-Positionen
werden auf der lichtempfangenden Oberfläche der
Kamera 1017 akkumuliert, während eine Ortsfrequenzfilterung
von dem kohärenten optischen System durchgeführt
wird. Mit dem obigen Aufbau können Einschränkungen hinsichtlich
des Akkumulationseffektes durch Begrenzungen
des Dynamikbereiches der Kamera 1017 gelöst werden. Als
Ergebnis kann die Akkumulation und der Eingabevorgang
der Ortsfrequenzkomponente mit dem gewünschten Signal/
Rausch-Abstand durchgeführt werden.
Bei dieser Ausführungsform kann der Dynamikbereich der
Kamera 1017 wirksam genutzt werden, und ein klareres Bild
kann durch den Rückgewinnungsvorgang in dem Prozessor
erhalten werden.
Fig. 30 zeigt eine siebzehnte Ausführungsform der vorliegenden
Erfindung in Verbindung mit einem Reflektionsmikroskop
wie in der sechzehnten Ausführungsform.
Bei dieser Ausführungsform wird auf den Prozessor 1020
verzichtet, und ein Bildsignal von der Kamera 1017 wird
direkt in den TV-Monitor 1025 durch den Kameratreiber
1018 eingegeben. Gleiche Bezugszeichen wie in Fig. 29
bezeichnen in Fig. 30 gleiche Teile, und eine detaillierte
Beschreibung hiervon erfolgt nicht.
Die sechzehnte Ausführungsform mit dem Aufbau gemäß Fig.
30 hat folgende Wirkungskreise: Der Objektträger 1010
wird von dem Treiber 1009 innerhalb eines festgelegten
Distanzbereiches entlang der optischen Achse des Mikroskops
bewegt. Während des Bewegens werden mikroskopische
Bilder auf der lichtempfindlichen Oberfläche des
SLM 1007 akkumuliert. Somit wird eine Mehrzahl von Bildern
mit unterschiedlichen In-Fokus-Positionen akkumuliert.
Wenn dieser Vorgang abgeschlossen ist, werden die
akkumulierten Bilder auf der Reflektionsoberfläche des
SLM 1007 angezeigt und von einem Laserstrahl gelesen, und
die gelesenen Bilder werden einem Rückgewinnungsprozeß
(Ortsfrequenzfilterung) durch ein kohärentes optisches
System unterworfen. Das Prozeßergebnis wird von der Kamera
1017 aufgenommen und auf dem Monitor 1025 dargestellt.
Das heißt, der Bildakkumulationseffekt auf der
lichtempfindlichen Oberfläche des SLM 1007 wird verwendet,
um einen Rückgewinnungsprozeß durch optisches Filtern
durchzuführen.
Da bei dieser Ausführungsform der Rückgewinnungsprozeß
perfekt in Echtzeit durchgeführt wird, kann die Gesamtprozeßzeit
vorteilhafterweise verkürzt werden.
Ein Verfahren zur Verarbeitung und Anzeige eines Farbbildes
in der sechzehnten und siebzehnten Ausführungsform
wird nun unter Bezugnahme auf Fig. 31 beschrieben.
Gemäß Fig. 31 ist ein drehendes Farbfilter 1030 in einer
Beleuchtungsanordnung 1002 angeordnet. Das Farbfilter
1030 wird erhalten durch Anordnung der drei Primärfarbfilterelemente
(R, G und B) entlang der Drehrichtung
einer Scheibe in gleicher Weise wie bei dem Drehfilter
213 von Fig. 14. Wenn das Farbfilter 1030 von einem Motor
1031 angetrieben wird, wird Licht von der Weißlichtquelle
1001 in der Reihenfolge von R, G und B eingefärbt.
Die sich ergebenden Primärbeleuchtungskomponenten
werden weitergeführt und den sequentiellen Prozeßabläufen
auf der Grundlage der Anordnungen gemäß der
sechzehnten und siebzehnten Ausführungsform unterworfen.
Fig. 32 ist ein Blockdiagramm einer Anordnung eines
Farbbildprozessors gemäß dem Prozessor 1020 in der
sechzehnten Ausführungsform von Fig. 29. Ausgangssignale
entsprechen den entsprechenden Primärbeleuchtungslichtkomponenten
und werden einem Prozessor 1100 eingegeben
und von einem A/D-Wander 1101 in digitale Signale umgesetzt.
Die digitalen Signale werden in Rahmenbildspeichern
1103 R, 1103 G und 1103 B mittels eines Selektors
1102 in Farbkomponenten-Einheiten gespeichert. Alle
Prozeßergebnisse durch Beleuchtung mit den drei Primärfarben
sind in den Speichern 1103 R bis 1103 B gespeichert,
und diese Ergebnisse werden einem (R, G, B)-zu-Y-Wandler
1104 zugeführt, und ein Helligkeitssignal Y=0.3R+
0.59G+0.11B wird hierin berechnet. Das Helligkeitssignal
Y von dem Wandler 1104 wird Teilern 1105 R, 1105 G
und 1105 B zugeführt zur Division der Farbkomponenten mit
dem Helligkeitssignal Y, so daß sich R/Y, G/Y und B/Y
ergibt. Diese Rechnungsergebnisse werden Multiplizierern
1106 R, 1106 G und 1106 B zugeführt.
Das Helligkeitssignal Y wird in einem Rückgewinnungs-
Verarbeitungsschaltkreis 1107 einer geeigneten Rückgewinnungsprozedur
unterworfen. Ein Ausgang Y′ von dem
Schaltkreis 1107 wird den Multiplizierern 1106 R, 1106 G
und 1106 B zugeführt und wird mit den Signalen R/Y, G/Y
und B/Y multipliziert. Die Produkte (R/Y)Y′, (G/Y)Y′ und
(B/Y)Y′ werden von D/A-Wandlern 1108 R bis 1108 B in analoge
Videosignale umgewandelt. Die erwähnten Abläufe
werden von einer Steuerung 1109 gesteuert.
Bei der erwähnten Anordnung wird nur die Helligkeitskomponente
eines jeden Primärfarbensignals dem Rückgewinnungsprozeß
unterworfen, so daß eine gute Farbbalance
erhalten bleibt. Die aufgrund der Rückgewinnungsverarbeitung
ermittelten Daten der drei Primärfarben werden
gleichzeitig ausgegeben, und die Ergebnisse können als
Farbbild dargestellt werden.
Wenn diese Anordnung der siebzehnten Ausführungsform
zugeordnet wird, können der Wandler 1104, die Teiler
1105 R bis 1105 B, der Schaltkreis 1107 und die Multiplizierer
1106 R bis 1106 B von der Anordnung gemäß Fig. 32
weggelassen werden. Ein Prozessor, in dem die Rahmenbildspeicher
1103 R bis 1103 B direkt mit dem D/A-Wandlern
1108 R bis 1108 B verbunden sind, wird somit erreicht.
Dieser Prozessor wird zwischen dem Kameratreiber 1018
und dem Monitor 1025 in Fig. 30 gesetzt. Mit dieser
Anordnung können die Bildsignale der drei Primärfarben,
welche bereits einer Rückgewinnungs-Verarbeitung unterworfen
wurden und sequentiell eingegeben wurden, zeitweise
in dem Rahmenbildspeicher in dem Prozessor gespeichert
werden und können als Farbbild bei einem
gleichzeitigen Lesezugriff auf die erwähnten Mehrfarbsignale
dargestellt werden.
Fig. 33 zeigt schematisch ein optisches Hochpaßfiltersystem
einer achzehnten Ausführungsform der vorliegenden
Erfindung zur Anwendung in einem Transmissionsmikroskop.
Gemäß Fig. 33 weist ein optisches Transmissions-
Beleuchtungssystem eine Kohlersche Beleuchtungsausstattung
1200 auf. Beleuchtungslicht von einer
Lichtquelle 1201 wird von einer Kollektorlinse 1202 fokussiert
und fällt auf eine Probe 1206 über eine Kondensorlinse
1205, eine Feldapertur 1203 und eine Kondensorapertur
1204. In diesem Fall ist die Größe der
Kondensorapertur 1204 ausreichend klein gehalten,und ein
praktisch paralleles Licht trifft auf die Probe 1206
auf. Licht, das die Probe 1206 durchtritt, wird zu einer
Objektivlinse 1207 geführt, und eine Ortsfrequenzfilterung
des Bildes der Probe 1206 wird durchgeführt. Das
Filter 1208 ist derart angeordnet, daß sein Mittenbereich
einen hohen Absorptionsgrad hat, wobei der Absorptionsgrad
in Richtung des Umfanges abnimmt. Mit anderen
Worten, der Absorptionsgrad nimmt graduell von der
Mitte zum Umfang hin ab. Durch Unterdrückung einer Niederortsfrequenzkomponente
wird ein Hochpaßfiltervorgang
durchgeführt. Das hochpaßgefilterte Bild wird auf ein
Bildeingangssystem mittels einer Fokussierlinse 1209
fokussiert.
Die weiteren Anordnungen entsprechen im wesentlichen der
des Transmissionsmikroskops in der siebten, dreizehnten
und siebzehnten Ausführungsform.
Die achzehnte Ausführungsform mit dem beschriebenen
Aufbau hat die folgende Wirkungsweise: Da die Probe 1206
mit parallelem Licht in dem Transmissionsmikroskop beleuchtet
wird, kann ein kohärentes optisches System
erhalten werden, und eine Hochpaßfilterung des Bildes
kann optisch durchgeführt werden.
Bei dieser Ausführungsform wird die Probe durch die
Bildeingabeeinheit, wie beispielsweise einer Kamera
dargestellt, während die Niederortsfrequenzkomponente
des Bildes auf gleiche Weise wie in der Ausführungsform
von Fig. 16 unterdrückt bleibt, so daß auf wirksame
Weise der Dynamikbereich der Bildeingabeeinheit verwendet
werden kann. Somit kann ein Bild mit einem großen
Brennpunktabstand dargestellt werden.
Ein Verfahren zur Auswahl der Anzahl von Bildern, die
miteinander addiert werden müssen sowie des Akkumulationsbereiches,
wird im folgenden beschrieben.
Die Fig. 34A und 34B sind Ansichten zur Darstellung des
Prinzips dieser Auswahlmethode. Es sei angenommen, daß
ein Objekt 1210 eine stufenweise Oberflächenstruktur
hat, wie im linken Teil von Fig. 34A dargestellt. Wenn
dieses Objekt 1210 von einem optischen System mit einem
kleinen Brennpunktabstand dargestellt wird, hat ein
Fourierspektrum eines Bildes, das auf einen Bereich des
Objektes fokussiert ist, ebenfalls relativ hohe Ortsfrequenzkomponenten.
Im Falle eines Bildes, das nicht
auf einen beliebigen Bereich des Objektes fokussiert
ist, hat das Bild nur niederfrequente Komponenten, wie
im rechten Teil von Fig. 34A dargestellt. Das heißt, ein
Fourierspektrum F(u) eines Bildes einer In-Fokus-Position
an einer Stelle, die durch die gestrichelte Linie
bezüglich des Objektes 1210 angedeutet ist, ist dargestellt.
Ein Wert F(u 1, u 2) (gestrichelte Bereiche 1220),
der durch Intgegration eines Spektrums bei einer gegebenen
Ortsfrequenz (u 1, u 2) erhalten wird, wird ebenfalls
in Betracht gezogen. Änderung in dem Wert F(u 1, u 2) bei
Änderungen der In-Fokus-Positionen sind in Fig. 34B
dargestellt. Wenn ein Bereich (z 1, z 2), in dem der Wert
F(u 1, u 2) einen gegebenen Schwellenwert übersteigt als
ein Additions- oder Akkumulationsbereich definiert ist,
können defokussierte Bilder im wesentlichen vollständig
von dem zu interessierenden Objekt ausgeschlossen werden.
Als Ergebnis kann ein klares Bild mit einem hohen
Brennpunktsabstand erhalten werden durch Addieren oder
Synthetisieren von Bildern mit unterschiedlichen In-Fokus-
Positionen. Wie unter Bezugnahme auf die dritte und
zwölfte Ausführungsform beschrieben, werden, wenn Bilder
mit unterschiedlichen In-Fokus-Positionen aufgezeichnet
werden, die aufgezeichneten Bildsignale durch ein Bandpaßfilter
gefiltert, und die sich ergebenden Werte werden
überprüft, so daß die Beziehung gemäß Fig. 34B
erhalten werden kann. Auf der Grundlage dieser Beziehungen
können Bilder, die für Additionen verwendbar
sind, bestimmt werden. Wenn dieses Verfahren bei einem
Reflektionsmikroskop (siebte, vierzehnte, sechzehnte und
siebzehnte Ausführungsform) angewendet wird, wird der
Objektträger oder die Objektivlinse in festgelegten
stufenweisen Intervallen auf- oder abwärtsbewegt. Die
eingegebenen Bildsignale an den entsprechenden Brennpunktpegeln
werden durch ein Bandpaßfilter gefiltert.
Hierdurch ist die Beziehung gemäß Fig. 34B erhaltbar, und
der Additions- oder Akkumulationsbereich wird bestimmt.
Speziell beim Testen von integrierten Bausteinen, Halbleiterstrukturen
oder dergleichen kann, da ähnliche Muster
wiederholt werden, durch die Bestimmungen des Akkumulationsbereiches
die Möglichkeit gegeben werden,
jeden Teilbereich unter identischen Bedingungen optimal
zu untersuchen. Das Bandpaßfilter kann eine Mehrzahl von
Filtern mit unterschiedlichen Frequenzbereichen haben,
und jedes dieser Filter kann verwendet werden, oder alle
Filter können verwendet werden, um den Bereich systematisch
zu bestimmen.
Die Fig. 35A und 35B zeigen eine Anordnung gemäß einer
neunzehnten Ausführungsform der vorliegenden Erfindung
in Verbindung mit einer elektronischen Kamera. Die
elektronische Kamera umfaßt im wesentlichen ein Kameragehäuse
1300, ein Aufzeichnungsmedium 1400, einen Prozessor
1500, ein Interface 1600 und einen TV-Monitor
1700. Das Kameragehäuse 1300 weist gemäß Fig. 35A eine
Linse 1301, einen Verschluß 1302, einen In-Fokus-Positions-
Kontroller 1303, eine Abbildungsvorrichtung 1304,
einen A/D-Wandler 1305, einen Speicher 1306, einen Anpassungsschaltkreis
1307, einen Speicher 1308, einen
Bereichsberechnungsschaltkreis 1309, eine Steuerung 1310
und einen Schreiber 1311 zum Schreiben eines Bildes in
das Aufzeichnungsmedium 1400 auf. Das Kameragehäuse 1300
wird wie folgt betrieben: In dem Kameragehäuse 1300 wird
Vor-Fotografieren und Haupt-Fotografieren durchgeführt.
In dem Vor-Fotografiermodus schattet der Verschluß 1302
die halbe Oberfläche der Linse 1301 ab. Die nichtabgeschattete
halbe Oberfläche wird verwendet, um ein Bild
zu fokussieren, und das fokussierte Bild wird in die
Eingabevorrichtung 1304 eingegeben. In diesem Fall wird
ein Ausgangssignal von der Bildeingabevorrichtung 1304
durch den Wandler 1305 in ein digitales Signal umgewandelt
und in dem Speicher 1306 aufgezeichnet. Der
Verschluß 1302 überdeckt dann die andere halbe Oberfläche
der Linse 1301, und das eingegebene Bild wird in dem
Speicher 1306 aufgezeichnet. Auf diese Weise werden zwei
halbe Oberflächen der Linse 1301 abwechselnd verwendet,
um zwei Bilder mit einer Parallaxe einzugeben, und die
beiden Eingangsbilder werden durch den Anpassungsschaltkreis
1307 stereoangepaßt. Somit kann eine Distanz
zu dem Objekt gemessen werden. Gemäß den Fig. 36A und
36B werden bei dem erwähnten Anpassungsvorgang beispielsweise
Erfassungspunkte 1315 in dem Bild bestimmt,
und lokale Bereiche 1316 und 1317 werden festgesetzt
unter Verwendung der Erkennungspunkte 1315 als Zentren
und dann der obenerwähnten Anpasung unterworfen. Fig.
36A zeigt ein linkes Bild oder eine Bildoberfläche,
während Fig. 36B ein rechtes Bild oder eine rechte Bildoberfläche
zeigt.
Fig. 37 zeigt eine Anordnung des Anpassungsschaltkreises
1307 zusammen mit den Speichern 1306 und 1308. Ein linker
Bildspeicher 1306 a und ein rechter Bildspeicher
1306 b zur Aufzeichnung zweier Bilder mit linken und
rechten Gesichtsfeldern sind in dem Speicher 1306 angeordnet.
Ein Adressengenerator 1320 ist in dem Anpassungsschaltkreis
1307 angeordnet. Der Adressengenerator
1320 erzeugt Adressen eines festgesetzten Bereiches 1316
mit einem Erfassungspunkt 1315 als Mittenpunkt des linken
Bildes und einen festgelegten Bereich 1317 (mit einer
Fläche gleich der Fläche des linken Bildes) des
rechten Bildes, der von dem Erfassungspunkt 1315 um einige
Pixel (Anzahl der Verschiebungspixel = S) in Richtung
der Parallaxe verschoben ist. Die linken und rechten
Bildsignale der festgelegten Bereiche 1316 und 1317
werden von dem Speicher 1306 einem Subtrahierer 1321 im
Anpassungsschaltkreis 1307 zugeführt. Die Differenz
zwischen den linken und rechten Bildsignalen werden in
dem Subtrahierer 1321 in Pixeleinheiten berechnet. Ein
Absolutwert der Differenz von dem Subtrahierer 1321 wird
von einem Absolutwert-Arithmetikelement 1322 berechnet.
Die Absolutwerte der Differenzen zwischen den linken und
rechten Pixelsignalen der linken und rechten festgesetzten
Bereiche 1316 und 1317 werden berechnet. Diese
Absolutwerte werden miteinander in einem Addierer 1323
addiert und eine Summe wird einem Kriteriensteuerer 1324
zugeführt. Der Adressengenerator 1320 erzeugt die gleiche
Adresse wie die Startadresse für das linke Bild in
dem Speicher 1306. Der Adressengenerator 1320 erzeugt
eine Adresse entsprechend einer Position (d. h. einem
Punkt erhalten durch Verschiebung des Mittenpunktes eines
neuen Bereiches von dem Erkennungspunkt durch S-1
oder S-2 in Parallaxenrichtung) erhalten durch Verschiebung
der Startadresse des rechten Bildes durch ein
oder zwei Pixel in Parallaxenrichtung. Die ähnlichen
Berechnungsergebnisse werden dem Kriterienkontroller
1324 zugeführt. Die obigen Abläufe werden für jeden Erkennungspunkt
innerhalb eines festgesetzten Bereiches
(z. B. einem Bereich in welchem der Mittenpunkt des
festgelegten Bereiches 1317 des rechten Bildes um S nach
-S bezüglich des Erfassungspunktes verschoben ist) wiederholt.
Der Kriterienkontroller 1324 vergleicht die
Berechnungsergebnisse bezüglich der Verschiebungsbeträge
und erfaßt einen minimalen Verschiebungsbetrag. Der minimale
Verschiebungsbetrag wird dem Speicher 1308 eingegeben.
Dieser Vorgang wird in Einheiten von Erfassungspunkten
durchgeführt. Die obigen Abläufe werden
durch eine Steuerung 1325 kontrolliert.
Die Arbeitsweise des Anpassungsschaltkreises 1307 wird
im folgenden beschrieben:
Es ist nötig, die entsprechenden
Punkte der linken und rechten Bilder mit Parallaxe
zu finden. Die folgenden Abläufe werden durchgeführt,
um die entsprechenden Punkte mittels des Anpassungsschaltkreises
1307 zu finden:
ρ (t ) = Σ R |r (x+t,y) - fl (x,y)| , (c)
wobei
x : Parallaxenrichtung,
t : Verschiebungsbetrag,
fr(x, y) : rechtes Bild,
fl(x, y) : linkes Bild,
Σ R : ein Operant entsprechend allen Additionen in den festgesetzten Bereichen.
t : Verschiebungsbetrag,
fr(x, y) : rechtes Bild,
fl(x, y) : linkes Bild,
Σ R : ein Operant entsprechend allen Additionen in den festgesetzten Bereichen.
Gleichung (c) wird berechnet, während t innerhalb eines
festgelegten Bereiches geändert wird (z. B. t=S bis
-S) bezüglich eines gegebenen Erfassungspunktes, so daß
hierbei ein Minimalwert von t ermittelt wird. Somit kann
ein rechter Bildpunkt entsprechend dem Erfassungspunkt
des linken Bildes erhalten werden. Anstelle von Gleichung
(c) kann der Anpassungsschaltkreis 1307 so angeordnet
sein, daß er die folgende Korrelation als Verfahren
zur Erkennung des korrespondierenden Punktes
durchführt:
Φ (t) = Σ R fr(x+t,y) · fl (x,y) . (d)
Alternativ können Vorspannung und Verstärkungskomponenten
der linken und rechten Bilder durch die folgende
normalisierende Kreuzkorrelation korrigiert werden, wodurch
eine noch präzisere Korrelation erfolgt:
wobei
r : Durchschnittswert in dem festgelegten Bereich
des rechten Bildes,
l : Durchschnittswert in dem festgelegten Bereich des linken Bildes,
σ r : Standardabweichung des festgelegten Bereiches des rechten Bildes,
σ l : Standardabweichung des festgelegten Bereiches des linken Bildes.
l : Durchschnittswert in dem festgelegten Bereich des linken Bildes,
σ r : Standardabweichung des festgelegten Bereiches des rechten Bildes,
σ l : Standardabweichung des festgelegten Bereiches des linken Bildes.
In dieser Ausführungsform ist die Lage des festgelegten
Bereiches 1316 des linken Bildes fest, und der entsprechende
Punkt wird in dem rechten Bild gefunden. Es kann
jedoch auch die Lage des festgelegten Bereiches 1317 im
rechten Bild fest sein, und ein korrespondierender oder
entsprechender Punkt kann im linken Bild gefunden werden.
Alternativ können die Erfassungspunkte beider
festgelegten Bereiche der linken und rechten Bilder relativ
bezüglich des Erfassungspunktes gelegt werden, um
die korrespondierenden Punkte zu erfassen. Zusätzlich
kann ein Korrelationstheorem in der Fourier-Transformation
angewandt werden, um den folgenden Korrelationsvorgang
unter Verwendung eines FFT-Arithmetikelementes
in dem Anpassungsschaltkreis 1307 durchzuführen:
Φ F (u,v) = F -1 [F {fr (x,y)} · F {fl (x,y)}*] (f)
F: Fourier-Transformationsoperant,
F -1: inverser Fourier-Transformationsoperant.
F -1: inverser Fourier-Transformationsoperant.
In diesem Fall muß die Relativposition t zwischen den
beiden Bildern nicht verschoben werden, um einen Korrelationswert
zu erhalten, im Gegensatz zum Fall der
Gleichungen (c) bis (e).
Ein korrespondierender Punkt wird dadurch erreicht, indem
eine Position eines Spitzenwertes eines Kreuzkorrelations-
Bildes Φ F (u, v) detektiert wird. Wenn der Rauscheinfluß
gering ist, kann ein korrekter korrespondierender
Punkt durch eine Phasenkorrelation, gegeben durch
die folgende Gleichung, detektiert werden.
Alternativ können der Speicher 1306 und der Anpassungsschaltkreis
1307 zusammen mit einem Selektor 1330 angeordnet
sein, wie in Fig. 3A dargestellt. In diesem Fall
wird ein Bild in Komponenten in Parallaxenrichtung und
in Richtung senkrecht hierzu aufgetrennt, und die aufgetrennten
Komponenten werden aufgezeichnet, um eine Parallelanpassung
der Teilbilder durchzuführen, so daß die
Gesamtverarbeitungszeit verkürzt wird.
Ein Verschiebungsbetrag zwischen den rechten und linken
Bildern an jedem Punkt in dem Speicher 1308 wird in einen
Berechnungsschaltkreis 1309 eingegeben, wie in Fig.
35A dargestellt. Der Berechnungsschaltkreis 1309 berechnet
einen Abstand zwischen dem Kameragehäuse 1300
und jedem Erfassungspunkt auf der Grundlage der Parallaxenkomponente,
die bei Bildeingabe erzeugt wurde unter
Verwendung der halben Oberflächen der Linse 1301 und des
Verschiebungsgrades.
Ein Berechnungsergebnis von dem Schaltkreis 1309 wird in
die Steuerung 1310 eingegeben. Nachdem die Vor-Fotografierung
abgeschlossen worden ist, kann die In-Fokus-Positionssteuerung
1303 automatisch unter Verwendung der
Distanzdaten am Mittenpunkt des Bildes derart gesteuert
werden, daß ein Objekt im Mittenbereich des Suchers fokussiert
wird, so daß eine Autofokus-Arbeitsweise
durchgeführt werden kann.
Im folgenden wird das Haupt-Fotografieren durch die Kamera
1300 beschrieben. Die Steuerung 1310 setzt einen
Verschiebungsbetrag der In-Fokus-Objektebenenlagen,
welche der Akkumulation unterworfen sind und von Eingangsvorgängen
auf der Grundlage der Distanzinformation
von dem Berechnungsschaltkreis 1309. Ein Verfahren zum
Festsetzen des Bereiches der In-Fokus-Position wird im
folgenden beschrieben. Eine Standardabweichung, anzeigend
den Grad der Variationen, wird auf der Grundlage der Distanzdaten
der entsprechenden Erfassungspunkte berechnet.
Ein Bereich von ±k σ (k=1 bis 2) wird von dem
durchschnittlichen Distanzwert erhalten, um einen Akkumulationsbereich
zu definieren. In diesem Fall werden
Daten, die als unendlich oder als Null berechnet wurden,
ausgeschlossen, wenn der durchschnittliche Distanzwert
und die Standardabweichung berechnet werden. Der Akkumulationsbereich
kann wahlweise und manuell von einer
Bedienungsperson festgesetzt werden. Beim Haupt-Fotografieren
ist der Verschluß 1302 voll offen, und die
In-Fokus-Positionssteuerung 1303 wird im Akkumulationsbereich
betrieben, der von der Steuerung 1310 festgesetzt
wurde, innerhalb einer Belichtungszeit bestimmt
durch den Verschluß 1302. Bilder mit unterschiedlichen
In-Fokus-Positionen werden auf der lichtempfindlichen
Oberfläche der Abbildungsvorrichtung 1304 akkumuliert.
Ein Ausgangssignal von der Abbildungsvorrichtung 1304
wird durch den A/D-Wandler 1305 in ein Digitalsignal
umgesetzt. Das digitale Signal wird in dem Speicher 1306
gespeichert. Die in dem Speicher 1306 gespeicherten akkumulierten
Bilder und Verschiebungsbeträge zwischen den
rechten und linken Bildern bezüglich der Erfassungspunkte
der Bilder in dem Speicher 1308 werden mittels
des Schreibers 1311 auf dem Aufzeichnungsmedium 1400 gespeichert.
Alternativ kann ein Addierer in dem Kameragehäuse
1300 angeordnet sein, und die Bilder mit unterschiedlichen
In-Fokus-Positionen können beim Haupt-Fotografieren
akkumuliert und addiert werden.
Das Aufzeichnungsmedium 1400 kann eine Floppydisk, ein
optischer Speicher, eine Platine mit einem Halbleiter-
IC, ein Magnetband, ein Halbleiterspeicher ohne Magnetkörper,
ein Speicher aus einem organischen Material
oder dergleichen sein. Daten, die von dem Kameragehäuse
1300 erhalten worden sind, werden off-line zu dem Prozessor
1500 über das Aufzeichnungsmedium 1400 übertragen.
Anordnung und Arbeitsweise des Prozessors 1500 gemäß
Fig. 35B werden nun beschrieben. Daten in dem Aufzeichnungsmedium
1400 werden von einem Leser 1501 ausgelesen.
Die ausgelesenen Bilddaten werden in einem Speicher 1502
gespeichert. Die Verschiebungsbeträge zwischen rechten
und linken Bildern bezüglich der Erfassungspunkte werden
in einem Speicher 1503 gespeichert. Die Bilddaten in dem
Bildspeicher 1502 werden einem Rückgewinnungs-Verarbeitungsschaltkreis
1504 zugeführt. Die Verschiebungsbetragdaten
in dem Speicher 1503 werden einem Faktorgenerator
1505 zugeführt. Der Faktorgenerator 1505 erzeugt
einen Faktor oder Koeffizientenwert entsprechend dem
Verschiebungsbetrag, und der Faktorwert wird in den
Rückgewinnungs-Verarbeitungsschaltkreis 1504 eingegeben.
Ein Bildsignal, welches geeignet einer Rückgewinnungs-
Verarbeitung durch den Schaltkreis 1504 unterworfen
wurde, wird von einem D/A-Wandler 1506 in ein analoges
Videosignal umgesetzt. Das analoge Videosignal wird auf
dem TV-Monitor 1700 dargestellt. Die Arbeitsweise des
Prozessors 1500 wird von einer Steuerung 1507 kontrolliert.
Verarbeitungsbedingungen und Bildanzeigebedingungen
können von einer Beobachtungsperson über ein Interface
1600 eingegeben werden, welches mit der Steuerung
1507 verbunden ist.
Der Ablauf der Rückgewinnungs-Verarbeitung in dem Prozessor
1500 wird nun beschrieben. Eine räumliche Filterung
wird von der Rückgewinnungs-Verarbeitungseinheit
1504 durch eine Umwandlung eines lokalen Bereiches
durchgeführt, so daß die Rückgewinnungs-Verarbeitung
abläuft.
Fig. 39 ist eine Ansicht eines Prinzips der Rückgewinnungs-
Verarbeitung. Eine Umwandlungsoperation für ein
gegebenes Pixel zwischen einer festgesetzten Maske 1510
und einem Pixelbereich von 5×5 des gegebenen Pixels
wird durchgeführt. In einem folgenden Ablauf wird ein
Ersatz des Umwandlungsergebnisses für das interessierende
Pixel sequentiell für interessierende Pixel
durchgeführt (vorausgesetzt, daß dieser Vorgang nicht
für zwei umfangseitige Linien durchgeführt wird). Mit
dem obigen Verfahren wird die Rückgewinnungs-Verarbeitung
durchgeführt, und somit können unterschiedliche
Filtervorgänge abhängig von der Lage innerhalb des Bildes
durchgeführt werden. Wenn das Bild, das durch das
Kameragehäuse 1300 synthetisiert wurde, nicht gleichmäßig
defokussiert ist, wird der Faktor der Maske 1510 in
Abhängigkeit von den Lagen des Bildes geändert. Somit
kann ein vollständig fokussiertes Bild angezeigt werden.
Um die erwähnten Abläufe durchführen zu können, werden
Distanzen zwischen dem Objekt und verschiedenen Erfassungspunkten
1315 des Bildes in dem Kameragehäuse 1300
beim Vor-Fotografieren gemessen, und die Grade der Defokussierungsbeträge
der entsprechenden Bereiche der akkumulierten
Bilder werden vorher erfaßt. Der Faktor der
Maske 1510 wird dann auf der Grundlage der Defokussierungsbetrag-
Information bestimmt.
Bei dieser neunzehnten Ausführungsform kann der Grad der
In-Fokus-Positionen, die der Akkumulation unterworfen
werden, im Vor-Fotografieren bestimmt werden. Selbst wenn
die Defokussierung von Positionen innerhalb des Bildes
abhängt, kann eine zufriedenstellende Rückgewinnungs-
Verarbeitung durchgeführt werden. Somit kann der Anwendungsfall
der vorliegenden Erfindung hinsichtlich der
elektronischen Kamera erweitert werden. Da der Faktor in
der Rückgewinnungs-Verarbeitungsmaske 1510 in dem Prozessor
1500 wahlweise abhängig von Positionen des Bildes
geändert werden kann, kann der Brennpunktabstand von
einer Bedienungsperson wie gewünscht geändert
werden.
Fig. 40A und 40B zeigen eine Anordnung einer zwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einer elektronischen Kamera wie in der neunzehnten
Ausführungsform. Die elektronische Kamera weist im wesentlichen
ein Kameragehäuse 1800, ein Aufzeichnungsmedium
1900, einen Prozessor 2000, ein Interface 2100 und
einen TV-Monitor 2200 auf. Das Kameragehäuse 1800 führt
wie in der neunzehnten Ausführungsform ein Vor-Fotografieren
und ein Haupt-Fotografieren durch. Beim Vor-Fotografieren
wird ein Objektbild von dem Mittenbereich
einer Linse 1801 eingegeben, von einem Spiegel 1802 reflektiert
und auf einen Autofokussensor 1803 (im folgenden
mit AF-Sensor bezeichnet) gelenkt. Der AF-Sensor
1803 wird auf der Grundlage eines Phasendifferenz-Autofokusschemas
ähnlich der Stereoanpassung in der neunzehnten
Ausführungsform betrieben und Daten entsprechend
einer Phasendifferenz der zwei mit Parallaxe fokussierten
Bilder werden einem Bereichs-Berechnungsschaltkreis
1804 zugeführt. Der Berechnungsschaltkreis 1804 berechnet
einen Abstand zwischen dem Kameragehäuse 1800 und
dem Objekt auf der Grundalge der Daten von dem Autofokussensor
1803. Die Distanzdaten werden in einem Speicher
1805 gespeichert. Die obigen Abläufe werden für
verschiedene Positionen des Objektes, welche von einer
Bedienungsperson festgesetzt werden, wiederholt. Die
einzelnen Ergebnisse werden in dem Speicher 1805 gespeichert.
Die Distanzmessung-Ergebnisse der Mehrzahl
von Punkten, die in dem Speicher 1805 gespeichert sind,
werden zu einer Steuerung 1806 geschickt, wonach die
Bedingungen für das Haupt-Fotografieren gesetzt werden.
Der Ablauf des Haupt-Fotografierens wird im folgenden
erläutert. Die Steuerung 1806 gewichtet in geeigneter
Weise Bilder mit unterschiedlichen In-Fokus-Positionen
und gibt diese Bilder auf der Grundlage der Distanzdaten
zwischen dem Kameragehäuse 1800 und dem Objekt (gemessen
beim Vor-Fotografieren) ein und addiert sie. Das heißt,
eine In-Fokus-Positionssteuerung 1807 ändert diskret die
In-Fokus-Position innerhalb des Bereiches, der beim
Vor-Fotografieren vorgewählt wurde. In diesem Zustand
wird ein Bild, das von der Linse 1801 fokussiert wird,
einer Bildeingabevorrichtung 1808 eingegeben. Das in die
Eingabevorrichtung 1808 eingegebene Bildsignal wird von
einem A/D-Wandler 1809 in ein Digitalsignal umgesetzt.
Das Digitalsignal wird von einem Multiplizierer 1811 mit
einem vorherbestimmten Faktor oder Koeffizient, der in
einem Speicher 1810 gespeichert ist, multipliziert. Das
Produkt von dem Multiplizierer 1811 wird durch einen
Addierer 1812 zu dem Bildsignal in einem Speicher 1813
hinzuaddiert. Diese Summe wird dann in dem Speicher 1813
wieder abgespeichert. Mit dieser Anordnung wird die
Mehrzahl von Bildern, die eingegeben wird während die
In-Fokus-Position diskret geändert wird, miteinander
addiert. In dem Speicher 1813 wird eine Summe gespeichert.
Wenn das Haupt-Fotografieren durchgeführt wird,
wird der Spiegel 1802 mechanisch aus dem optischen Weg
gebracht, oder er wird optisch derart beeinflußt, daß er
das Fotografieren nicht mehr stört. Die Distanzmeßdaten
an verschiedenen Beobachtungspunkten, die in dem Speicher
1805 aufgezeichnet sind und die Bilddaten in dem
Speicher 1813 werden mittels eines Schreibers 1814 auf
einem Aufzeichnungsmedium 1900 aufgezeichnet.
Aufbau und Arbeitsweise des Prozessors 2000 gemäß Fig.
40B werden nun beschrieben. Die in dem Aufzeichnungsmedium
1900 aufgezeichneten Daten werden von einem Leser
2001 ausgelesen. Die Bilddaten werden dann in einem
Speicher 2002 gespeichert, und die Distanzmeßdaten werden
einer Steuerung 2003 eingegeben. Eine geeignete Rückgewinnungs-
Verarbeitung wird unter Verwendung der Distanzmeßdaten
in Abhängigkeit mit Bedingungen durchgeführt,
die von der Steuerung 2003 gesetzt wurden. Ein
Bildsignal, das Rückgewinnungs-verarbeitet worden ist,
wird durch einen D/A-Wandler 2005 in ein Analogsignal
gewandelt, und das analoge Videosignal wird auf einem
TV-Monitor 2200 dargestellt. Der Rückgewinnungs-Vorgang
durch den Prozessor 2000 und die verschiedenen Bildausgangsvorgänge
werden von dem Interface 2100, das mit der
Steuerung 2003 verbunden ist, vorgewählt.
Die zwanzigste Ausführung mit dem erwähnten Aufbau hat
die folgende Arbeitsweise: Eine Bedienungsperson setzt
verschiedene Objektteile in einen Mittenbereich des
Rahmenbildes fest und drückt einen Bereichsberechnungs-
Knopf. Die Distanz zwischen dem Kameragehäuse 1800
und den verschiedenen Objektbereichen werden in dem
Speicher 1805 in dem Kameragehäuse 1800 aufgezeichnet.
Die Steuerung 1806 setzt die Eingangsbedingungen für das
von der Bedienungsperson ausgewählte Objekt auf beinahe
defokussiert. In diesem Zustand wird das Haupt-Fotografieren
durchgeführt. Der Prozessor 2000 führt eine
geeignete Rückgewinnungs-Verarbeitung auf der Grundlage
der Distanzmessungsdaten durch, welche beim Vor-Fotografieren
erhalten worden sind.
Ein Verfahren von Festsetzen von Additions- und Eingabebedingungen
der Bilder auf der Grundlage einer Mehrzahl
von Distanzmessungsdaten wird im folgenden beschrieben.
Aus Gründen der Einfachheit der Erläuterung
sei angenommen, daß zwei Objekte mit unterschiedlichen
Abständen von dem Kameragehäuse 1800 vorhanden sind.
Erfindungsgemäß wird, um ein Bild mit einem großen
Brennpunktabstand durch Durchführen einer raum-invarianten
Rückgewinnungs-Filterung der eingegebenen Bilder,
die miteinander addiert wurden, während die In-Fokus-
Position geändert wurde, anzuzeigen, der Grad der
Defokussierung des synthetisierten Bildes raum-invariant
sein muß. Ein Defokussierungsbetrag um "außerhalb der
Fokussierung" wird durch eine geometrische Annäherung
gegeben.
Fig. 41 zeigt diese geometrische Beziehung. Es sei angenommen,
daß ein Objektpunkt A 1 von einer Fotografierebene
1820 des Kameragehäuses 1800 um eine Distanz l 1
entfernt ist und daß ein Objektpunkt A 2 hiervon um einen
Abstand l 2 entfernt ist. Weiterhin sei angenommen, daß
eine Distanz zwischen den Objektpunkten A 1 und A 2 gleich
d ist. Die obere Hälfte von Fig. 41 zeigt eine geometrische
Beziehung, wenn der Objektpunkt A 1 fokussiert
ist. In diesem Fall wird ein Defokussierungsbetrag σ 2
des Objektpunktes A 2 von einem Strahlenbündel vertreten,
das von dem Objektpunkt A 2 in der Fotografierebene 1820
entspringt. Die untere Hälfte von Fig. 41 zeigt die
geometrische Beziehung, wenn der Objektpunkt A 2 fokussiert
ist. In diesem Falle wird ein Defokussierungsbetrag σ 1 des Objektpunktes A 1 von einem Strahlenbündel
vertreten, welches von dem Objektpunkt A 1 in der Fotografierebene
1820 vorspringt. Wenn eine Brennweite der
Linse 1801 zu f definiert ist und die Bedingung f«l 1
angenommen wird, können die Defokussierungsbeträge σ 2
und σ 1 wie folgt angenähert werden:
wobei F eine f-Nummer der Kamera ist und F=f/D (D =
Durchmesser einer Austrittspupille einer Linse). Wenn
die Näherungsgleichungen (h) und (i) verglichen werden,
ergibt sich die Beziehung zwischen dem Defokussierungsbetrag
σ 2 des Objektpunktes A 2 bei Fokussierung auf den
Objektpunkt A 1 und der Defokussierungsbetrag σ 1 des Objektpunktes
A 1 bei Fokussierung auf den Objektpunkt A 2
zu σ 2<σ 1. Wenn die Differenz zwischen diesen beiden
Defokussierungsbeträgen klein ist, ist die Distanz l 1
klein. Mit anderen Worten, es zeigt sich, daß ein typischer
Effekt erhalten wird, wenn das Objekt A 1, das näher
an der Kamera ist, sich hieran noch annähert. In
diesem Fall können die Defokussierungsbeträge der Objekte
an den Objektpunkten A 1 und A 2 in den addierten
und eingegebenen Bildern während sich die In-Fokus-Position
äquidistant im Bereich zwischen den Objektpunkten
A 1 und A 2 ändert, nicht gleich erhalten werden. Dies
bedeutet, daß der Defokussierungsbetrag des Objektes am
Objektpunkt A 2 größer ist als der am Objektpunkt A 1. In
dieser Ausführungsform wird der Defokussierungsbetrag
des synthetisierten Bildes durch eine Gewichtungsaddierung
auf raum-invariant gesetzt, d. h. durch eine Addierung
mit einer Gewichtung. Ein Verfahren zur Bestimmung
eines Gewichtungsfaktors wird im folgenden beschrieben.
Es sei angenommen, daß m In-Fokus-Positionen äquidistant
innerhalb des Bereiches zwischen A 1 und A 2 festgesetzt
sind, wie in Fig. 42 dargestellt. Gewichtungskoeffizienten
oder -faktoren ω i (i=1, 2, . . . m) werden mit
den entsprechenden In-Fokus-Positionen multipliziert, und
die Produkte werden miteinander addiert. Defokussierungsbeträge
σ 2(i) und σ 1(i) (i=1, 2, . . . m) an den
Punkten A 2 und A 1 an den In-Fokus-Positionen werden
durch die folgenden Gleichungen ausgedrückt:
Die Defokussierungsbeträge der Objekte an den Objektpunkten
A 2 und A 1 der gewichteten und addierten Bilder
werden durch
repräsentiert.
Um ein Minimum ω i (i=1, 2, . . . m) unter der Bedingung
dieser Punkte zu erhalten, die durch
beschränkt sind, wird ein Lagrangesches Unbestimmtheits-
Multiplizierverfahren wie folgt verwendet:
Ein gleichzeitiges System (p) wird für eine unbestimmte
Anzahl ω i (i=1, 2, . . . m) auf der Basis der Gleichungen
(o) und (m) errichtet. Das System (p) ergibt sich
in Form der folgenden Matrix:
Durch Auflösung der Matrix (p) kann ein optimales i (i=
1, 2, . . . m) erhalten werden.
Wenn die Distanz (l 1 und d) zwischen dem Kameragehäuse
1800 und dem Objekt erfaßt wurde, wird zuvor der Weg des
Festsetzens des Gewichtungsfaktors überprüft. Geeignete
Gewichtungsadditions- und Eingabeabläufe werden in der
Praxis auf der Grundlage der Distanz zu jedem Objekt
durchgeführt, welche beim Vor-Fotografieren berechnet
wird. Wenn die Linse 1801 eine austauschbare Linse ist,
kann der Gewichtungsfaktor bzw. die Gewichtungsfaktordaten
in einem Speicher mit wahlfreiem Zugriff (ROM) für
die Linse 1801 gespeichert werden, und die Daten werden
der Steuerung 1806 in dem Kameragehäuse 1800 übertragen,
so daß eine vorbestimmte Verarbeitung durchgeführt werden
kann.
Bei dieser zwanzigsten Ausführungsform kann der Brennpunktabstand
beliebig geregelt werden, um auf alle Objekte
zu fokussieren, die wahlweise von einer Bedienungsperson
ausgewählt werden. Additionen mit Gewichtung
werden durchgeführt, um den Defokussierungszustand des
Bildes so zu setzen, daß dieser praktisch raum-invariant
ist, so daß der Rückgewinnungs-Verarbeitungsvorgang vereinfacht
ist.
Fig. 43 zeigt die Anordnung einer einundzwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einer elektronischen Kamera wie in der neunzehnten
und zwanzigsten Ausführungsform. Die Anordnung dieser
einundzwanzigsten Ausführungsform entspricht der Anordnung,
die erhalten wird, wenn in der zwanzigsten Ausführungsform
gemäß Fig. 40A auf den Speicher 1810 und
den Multiplizierer 1811 des Kameragehäuses 1800 verzichtet
wird. Ein Kameragehäuse 2300 in der einundzwanzigsten
Ausführungsform führt ein Vor-Fotografieren und
ein Haupt-Fotografieren durch. Beim Vor-Fotografieren
passiert das gleiche wie im Falle der zwanzigsten Ausführungsform
und eine detaillierte Beschreibung hiervon
erfolgt nicht mehr. Im folgenden wird der Vorgang beim
Haupt-Fotografieren in der einundzwanzigsten Ausführungsform
beschrieben. Eine Steuerung 2306 steuert einen
In-Fokus-Positionskontroller 2307, um Bilder in Abhängigkeit
von Bedingungen bestimmt durch das Vor-Fotografieren
einzugeben und zu addieren. Der Kontroller 2307
ändert diskret die In-Fokus-Position in Abhängigkeit der
erwähnten Bedingungen. In jedem Zustand wird ein Bild,
das durch eine Linse 2301 fokussiert ist, einer Bildeingabevorrichtung
2308 zugeführt. Ein Bildsignal der Vorrichtung
2308 wird von einem A/D-Wandler 2309 in ein
digitales Signal umgesetzt. Das digitale Signal wird von
einem Addierer 2312 zu dem Bildsignal in einem Speicher
2313 hinzuaddiert. Die sich ergebende Summe wird wieder
in dem Speicher 2313 gespeichert. Mit dieser Anordnung
wird die Mehrzahl von gegebenen Bildern, während die
In-Fokus-Position diskret geändert wird, akkumuliert und
addiert. Das Ergebnis wird dann in dem Speicher 2313
gespeichert. Distanzmeßdaten von verschiedenen Beobachtungspunkten
in dem Speicher 2305 und die Bilddaten in
dem Speicher 2313 werden auf im Aufzeichnungsmedium 1900
mittels eines Schreibers 2314 aufgezeichnet. Das synthetisierte
Bild auf dem Aufzeichnungsmedium 1900 wird
von einem Prozessor in gleicher Weise wie in der zwanzigsten
Ausführungsform ausgelesen und einer geeigneten
Rückgewinnungs-Verarbeitung auf der Grundlage der Distanzmeßdaten,
ausgelesen von dem Aufzeichnungsmedium
1900 unterworfen. Die entsprechend verarbeiteten Daten
werden auf einem TV-Monitor dargestellt. Anordnungen von
Prozessor, Monitor und Interface dieser Ausführungsform
entsprechen der der zwanzigsten Ausführungsform.
Die einundzwanzigste Ausführungsform mit dem erwähnten
Aufbau hat die folgende Arbeitsweise: Wie bereits unter
Bezugnahme auf die zwanzigste Ausführungsform erläutert,
ist die Defokussierung der Bilder, die eingegeben werden,
während die Distanz zwischen den Punkten A 1 und A 2
äquidistant in In-Fokus-Positionen unterteilt ist, nicht
raum-invariant. Diese Ausführungsform verwendet die
folgende Einrichtung, um die Bilder einzugeben und zu
addieren, so daß die Defokussierung praktisch völlig
raum-invariant wird. In-Fokus-Punkte werden von dem Objektpunkt
A 1 zu dem Objektpunkt A 2 gesetzt, wie in Fig.
44 dargestellt. Das heißt, die Distanz zwischen den
In-Fokus-Positionen ist groß nahe dem Objektpunkt A 1,
aber die Distanz zwischen den In-Fokus-Positionen wird
kleiner nahe dem Objektpunkt A 2. Ein Objekt an dem entfernten
Objektpunkt A 2 vom Kameragehäuse 2300 beim Setzen
der In-Fokus-Positionen wie beschrieben wird nun in
Betracht gezogen. Die Anzahl von Bildern mit großen Defokussierungsbeträgen
an einem Brennpunkt des Kameragehäuses
2300 an einem näheren Punkt ist geringer als die,
die erhalten wird bei äquidistanten In-Fokus-Positionen.
Der Defokussierungsbetrag des Objektes an dem Objektpunkt
A 2 kann in dem synthetisierten Bild reduziert
werden. Der Defokussierungsbetrag des Objektes am Objektpunkt
A 1 ist im Vergleich mit dem Fall in dem
synthetisierten Bild erhöht, indem die In-Fokus-Positionen
äquidistant gesetzt sind. Somit ist die Defokussierung
des synthetisierten Bildes praktisch raum-invariant.
Die Distanzen zwischen den In-Fokus-Positionen in
dieser Ausführungsform können leicht durch den Faktor ω i
(i=1, 2, . . . m) berechnet werden durch das Verfahren,
das bereits unter Bezug auf die zwanzigste Ausführungsform
beschrieben wurde. In der einundzwanzigsten Ausführungsform
können die Bilder geeignet eingegeben und
addiert werden auf der Grundlage der Distanzen zu den
entsprechenden Objekten, welche beim Vor-Fotografieren
gemessen wurden.
Der gleiche Effekt wie in der zwanzigsten Ausführungsform
kann auch bei der einundzwanzigsten Ausführungsform
mit einer einfachen Anordnung erhalten werden.
Fig. 45 zeigt die Anordnung einer zweiundzwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einer elektronischen Kamera, wie in der neunzehnten,
zwanzigsten und einundzwanzigsten Ausführungsform. Die
Anordnung bzw. Ausgestaltung des Kameragehäuses 2400 in
der zweiundzwanzigsten Ausführungsform ist gleich der
Anordnung, die erhalten wird, indem der Addierer 2312 in
der einundzwanzigsten Ausführungsform weggelassen wird.
Das Kameragehäuse 2300 dieser Ausführungsform führt ein
Vor-Fotografieren und ein Haupt-Fotografieren durch. Der
Ablauf des Vor-Fotografierens in dieser Ausführungsform
entspricht dem in der zwanzigsten Ausführungsform, und
eine detaillierte Beschreibung hiervon erfolgt nicht.
Beim Haupt-Fotografieren steuert eine Steuerung 2406
einen In-Fokus-Positionskontroller 2407 derart, daß
Bilder auf der Grundlage der beim Vor-Fotografieren bestimmten
Bedingungen eingegeben und addiert werden. Die
Bilder, die auf eine Linse 2401 fokussiert werden, während
die In-Fokus-Position mit einer festgelegten Geschwindigkeit
innerhalb einer Belichtungszeit geändert
wird, werden auf einer lichtempfindlichen Oberfläche
einer Abbildungsvorrichtung 2408 akkumuliert. Das akkumulierte
Bild wird von einem Konverter 2409 in ein digitales
Signal umgesetzt, und das digitale Signal wird in
einem Speicher 2413 gespeichert. Die gespeicherten
Bilddaten zusammen mit den Distanzmeßdaten in einem
Speicher 2405 werden auf einem Aufzeichnungsmedium 1900
mittels eines Schreibers 2414 gespeichert. Das synthetisierte
oder akkumulierte Bild auf dem Aufzeichnungsmedium
1900 wird in einem Prozessor ähnlich dem der
zwanzigsten Ausführungsform übertragen. Die ausgelesenen
Daten werden einer geeigneten Rückgewinnungs-Verarbeitung
auf der Grundlage der Distanzmeßdaten von dem Aufzeichnungsmedium
1900 unterworfen. Das entsprechend verarbeitete
Bild wird dann auf einem TV-Monitor dargestellt.
Anordnung von Prozessor, Monitor und Interface,
mit dem eine Bedienungsperson Manipulationen vornehmen
kann, entsprechen der der zwanzigsten Ausführungsform.
Die zweiundzwanzigste Ausführungsform mit der beschriebenen
Anordnung arbeitet wie folgt: Die In-Fokus-Punkte
werden gesteuert, um raum-invariant zu sein unter Verwendung
der Distanzmeßdaten von verschiedenen Objekten,
die beliebig von einer Bedienungsperson in gleicher
Weise wie in der zwanzigsten und einundzwanzigsten Ausführungsform
ausgewählt werden können. Um den geometrischen
Beziehungen gemäß Fig. 41 gerecht zu werden, werden
die In-Fokus-Positionen innerhalb der Belichtungszeit
in dieser Ausführungsform mit den Charakteristiken
gesteuert, die wie in Fig. 46 dargestellt, geändert
sind. Genauer gesagt, die In-Fokus-Position wird schnell
bewegt, um die Bilder nahe dem Objektpunkt A 1 näher an
dem Kameragehäuse 2400 nur sparsam zu akkumulieren, wohingegen
die In-Fokus-Position langsam bewegt wird, um
die Bilder nahe dem Objektpunkt A 2 entfernt von dem Kameragehäuse
2400 dicht zu akkumulieren. Hierdurch ist
das synthetisierte Bild praktisch raum-invariant, wodurch
die Defokussierung nicht von Örtlichkeiten abhängt,
also so wie in der einundzwanzigsten Ausführungsform.
Eine Kurve f(x) in Fig. 46 ist so gegeben,
daß der Faktor ω i (i=1, 2, . . . m) aus der zwanzigsten
Ausführungsform als Differentialkoeffizient entlang einer
Koordinatenachse x dient, welche die In-Fokus-Positionen
angibt. Das heißt,
gilt.
Wie in Fig. 47 dargestellt, können Bilder akkumuliert
und eingegeben werden, während die In-Fokus-Position
schrittweise geändert wird. In diesem Fall wird die Belichtungszeit
in der In-Fokus-Position vorzugsweise so
gesetzt, daß sich ein Verhältnis der Faktoren i (i=1,
2, . . . m) ergibt, wie in der zwanzigsten Ausführungsform
erhalten.
Die gleichen Effekte wie in der zwanzigsten und einundzwanzigsten
Ausführungsform können in der zweiundzwanzigsten
Ausführungsform mit einer noch einfacheren
Anordnung erreicht werden.
Eine Anordnung für ein optisches System zur Eingabe von
Bildern mit unterschiedlichen In-Fokus-Positionen der
ersten, zweiten, dritten, fünfzehnten, neunzehnten,
zwanzigsten, einundzwanzigsten und zweiundzwanzigsten
Ausführungsform wird im folgenden beschrieben.
Fig. 48 zeigt die Anordnung einer Zoom-Linse. Das Linsensystem
weist ein Fokussierungssystem 2501, ein variables
System 2502, ein Kompensatorsystem 2503 und ein
Relaislinsensystem 2504 auf. Jedes Linsensystem kann aus
einer Mehrzahl von Linsen bestehen, wobei jedoch in Fig.
48 diese Mehrzahl von Linsen nicht dargestellt ist. Von
den obigen Linsensystemen wird das Relaislinsensystem
2504 beim Zoomen nicht mechanisch bewegt und fokussiert
ein Bild, das von dem Kompensatorsystem 2503 geführt wird,
auf eine Abbildungsvorrichtung 2506. Wenn somit das Relaislinsensystem
2504 von einem entsprechenden Treiber
2505 in der optischen Achse angetrieben wird, können
Bilder mit In-Fokus-Positionen eingegeben werden, unabhängig
von den Brennweiten der Linsen. Der Relaislinsentreiber
2505 wird von einem Stellglied realisiert
unter Verwendung eines elektromagnetischen Motors, eines
Ultraschallmotors, eines piezoelektrischen Elements oder
dergleichen.
Fig. 49 zeigt eine dreiundzwanzigste Ausführungsform der
vorliegenden Erfindung. Die dreiundzwanzigste Ausführungsform
entspricht teilweise der dritten Ausführungsform
gemäß Fig. 3. Ein Objektbild wird auf einen lichtempfangenden
Teil einer Abbildungsvorrichtung 52, gebildet
durch ein CCD oder eine Abbildungsröhre durch
eine Linse 51, dargestellt im oberen rechten Abschnitt
von Fig. 49, fokussiert. Ein optisches Eingabesystem
weist normalerweise eine Mehrzahl von Linsen auf, jedoch
ist aus Gründen der Übersichtlichkeit nur eine Linse
dargestellt. Ein Ausgangssignal, d. h., ein Bildsignal
von der Abbildungsvorrichtung 52 wird von einem A/D-
Wandler 53 in ein digitales Signal umgesetzt. Das digitale
Signal wird in einem festgelegten von Speichern
55-1 bis 55-m abgespeichert, der von einem Selektor 54
ausgewählt wird. Diese Abläufe werden so durchgeführt,
daß die In-Fokus-Position diskret von einer Steuerung 56
in festgelegten Intervallen innerhalb eines festgelegten
Abstandsbereiches geändert wird. Die n (n m) eingegebenen
Bilder werden entsprechend in n-Speichern der
Speicher 55-1 bis 55-m gespeichert. Die in den Speichern
55-1 bis 55-m gespeicherten Bilder werden einer Fourier-
Transformation unterworfen, und die Ergebnisse werden
wieder in den Speichern 55-1 bis 55-m gespeichert.
Die in den Speichern 55-1 bis 55-m gespeicherten Fourier-
transformierten Bildsignale werden einem Komparator
58 zugeführt. Der Komparator 58 vergleicht Spektralintensitäten
der Fourier-transformierten Bilder in Einheiten
von Ortsfrequenzen. Die Fourier-transformierten
Bilder werden von höher- zu niederintensiven Bildern neu
geordnet. Diese Bildsignale werden Multiplizierern 60-1
bis 60-P (P m) zugeführt. Faktoren oder Koeffizienten
in einem Speicher 59 werden den Multiplizierern 60-1 bis
60-P als Multiplikanten zugeführt. Die Multiplizierer
60-1 bis 60-P multipliziert die Koeffizienten mit den
Fourier-transformierten Bildsignalen von dem Komparator
58. Die Ausgangssignale von den Multipliziern 60-1 bis
60-P werden einem Addierer 61 zugeführt und hier addiert.
Ein synthetisiertes Signal von dem Addierer 61
wird in einem Speicher 62 gespeichert. Die Fourier-
transformierten Bilder, die in Einheiten von Ortsfrequenzen
gewichtet und addiert und in dem Speicher 62
aufgezeichnet sind, werden dann mittels einem FFT-
Arithmetikelement 57 einer inversen Fourier-Transformation
unterworfen. Das Ergebnis von dem Arithmetikelement
57 wird wieder in dem Speicher 62 gespeichert. Das verarbeitete
Bildsignal in dem Speicher 62 wird durch einen
D/A-Wandler 63 in ein Analogsignal umgesetzt. Das Analogsignal
wird auf einem Anzeigemonitor 64 dargestellt.
Die Zeitsteuerung und die Signalflüsse in den obigen
Abläufen werden durch eine Steuerung 65 gesteuert.
Anstelle des Faktor-Festsetzungsspeichers 59 und der
Multiplizierer 60-1 bis 60-P kann eine Datentabelle
(lookup table) verwendet werden, und vorher bestimmte
Faktoren können durch eine Tabellenkonversion multipliziert
werden. Die originalen Bildsignale in den Speichern
55-1 bis 55-m können auf einem anderen Aufzeichnungsmedium,
beispielsweise einer Floppydisk, einem Magnetband,
einem optischen Speicher oder dergleichen
aufgezeichnet werden. Die Bildeingabe, Aufzeichnungs-
und Wiedergabeeinheiten können off-line derart miteinander
sein, daß das aus diesem externen Aufzeichnungsmedium
ausgelesene Bildsignal der Fourier-Transformation
Additionen mit Gewichtung und inverser Fourier-Transformation
während der Bildwiedergabe unterworfen werden
kann. Die Gewichtungsfaktoren oder -Koeffizienten, die
während der Addition mit den gewichteten Einheiten von
Ortsfrequenzen verwendet werden, können von Anfang an
fest sein, oder einer aus der Mehrzahl von Faktoren vorgespeichert
in dem Speicher 59 kann durch eine Bedienungsperson
ausgewählt werden. Alternativ hierzu kann
der Inhalt des Speichers 59 erneuert werden.
Die dreiundzwanzigste Ausführungsform mit dem erwähnten
Aufbau hat die folgende Arbeitsweise: Es sei angenommen,
daß ein Objekt 70 eine stufenweise Struktur hat wie in
Fig. 50 dargestellt. Die entsprechenden Oberflächen der
stufenartigen Abschnitte des Objektes 70 haben natürliche
Frequenzen. Wenn das Objekt 70 mit Vorsprüngen in
Tiefenrichtung mit einem optischen System beobachtet
wird, das einen relativ kleinen Brennpunktabstand hat,
kann eine fokussierte Oberfläche klar beobachtet werden,
aber die anderen Oberflächen sind außerhalb des Fokussierungsbereiches.
Wenn eine gegebene Oberfläche fokussiert
ist, hat sein Eingangsbild eine Frequenz, die
einzig zu seiner Oberfläche ist. Somit haben die Fourier-
Spektren FS 1, FS 2, FS 3, . . . dieser Eingangsbilder,
die auf die entsprechenden Oberflächen fokussiert sind,
natürliche Ortsfrequenzdaten der entpsrechenden Oberflächen.
Wenn die Fourier-Spektren FS 1, FS 2, FS 3, . . . der
Mehrzahl von eingegangenen Bildern gewichtet und addiert
werden in Einheiten der Ortsfrequenzen, während die
Brennpunktlage geändert wird, kann hierdurch ein synthetisiertes
Fourier-Spektrum eines Bildes erhalten
werden einschließlich der Ortsfrequenzdaten aller Oberflächen.
In diesem Fall wird die folgende Gewichtungstechnik
verwendet: Eine gegebene Ortsfrequenz wird in Betracht
gezogen, und Spektralintensitäten der Frequenzen werden
zwischen den Bildern mit unterschiedlichen In-Fokus-Positionen
verglichen. "10" wird mit dem Bild mit der
höchsten Spektralintensität multipliziert, und "0" wird
mit den verbleibenden Bildern multipliziert, oder "4",
"3", "2" und "1" werden den Bildern von den höheren
Spektralintensitäten der Frequenz zugewichtet. Alternativ
hierzu kann die Gewichtung proportional zu den Spektralintensitäten
erfolgen. Wenn praktisch nur noch Rauschen
in einer Hochortsfrequenz-Region auftritt, werden
identische Gewichtungsfaktoren oder -Koeffizienten verwendet,
und "0" wird jeweils mit den Bildern multipliziert,
wodurch das Rauschen verringert wird. Die Gewichtungstechnik
kann geeignet ausgewählt werden in Abhängigkeit
von den Eigenschaften des Objektes oder des
optischen Systems.
Das sich ergebende Fourier-Spektrum-Bild wird einer inversen
Fourier-Transformation unterworfen, um ein Bild
zu erhalten mit einem im wesentlichen hohen Brennpunktabstand.
Aus Gründen der Einfachheit der Erläuterung
wird eine eindimensionale Fourier-Transformation verwendet,
es kann jedoch auch eine zweidimensionale Fourier-
Transformation in der Praxis verwendet werden.
Vierundzwanzigste Ausführungsform
Fig. 51 zeigt die Anordnung einer vierundzwanzigsten
Ausführungsform der vorliegendewn Erfindung. In dieser
Ausführungsform wird ein optisches Element, z. B. eine
Linse 66 so ausgelegt, daß absichtlich eine chromatische
Aberration in dem optischen System zur Bildeingabe
auftritt. Zusätzlich sind dichroitische Spiegel 67-1 und
67-2 innerhalb der Linse 66 angeordnet. Bilder mit unterschiedlichen
Wellenlängen-Bereichen werden von Abbildungsvorrichtungen
52-1 bis 52-3 ausgebildet. Die
Spiegel 67-1 und 67-2 können Spiegel mit Filtercharakteristiken
gemäß Fig. 52 sein.
Wie in Fig. 52 dargestellt, kann der Spiegel 67-1 Licht
des blauen Bereiches reflektieren und Licht mit einer
Wellenlänge größer als der von grün hindurchlassen. Der
Spiegel 67-2 kann Licht mit einer Wellenlänge kleiner
als der von grün reflektieren und ist durchlässig für
rotes Licht. Mit dieser Anordnung wird ein Bild eines
blauen Bereiches der Abbildungsvorrichtung 52-1 eingegeben,
ein grünes Bild der Abbildungsvorrichtung 52-2
und ein rotes Bild der Abbildungsvorrichtung 52-3.
Gemäß Fig. 51 werden die Bildsignale von den Abbildungsvorrichtungen
52-1 bis 52-3 von A/D-Wandlern 53-1
bis 53-3 in digitale Signale umgesetzt. Die digitalen
Signale werden in Speichern 55-1 bis 55-m abgespeichert.
Die verbleibenden Punkte dieser Ausführungsform sind
gleich der dreiundzwanzigsten Ausführungsform, und eine
detaillierte Beschreibung erfolgt nicht.
Gemäß dieser Ausführungsform wird das Bild in drei Komponenten,
d. h. in die Komponenten blau, grün und rot
aufgeteilt. Jedoch ist die vorliegende Erfindung nicht
auf diesen Sachverhalt beschränkt. Beispielsweise kann
die Anzahl der Bänder auf vier oder mehr erhöht werden
oder auch auf zwei beschränkt werden. Zusätzlich kann
ein Interferenzfilter verwendet werden, um ein Bild
einzugeben mit einem engen speziellen Wellenlängenbereich.
Eine Mehrzahl von durchschnittlichen Bandpaß-
oder Farbfiltern kann anstelle der dichroitischen Spiegel
67-1 und 67-2 verwendet werden, und diese Filter
können schaltbar sein, um eine Abbildungsvorrichtung zu
veranlassen, Bilder mit einem Mehrfachband auszugeben.
Die vierundzwanzigste Ausführungsform mit dem erwähnten
Aufbau hat die folgende Arbeitsweise: Die spektrale Reflektionscharakteristik
eines allgemeinen Objektes ist
über einen weiten Bereich im wesentlichen entsprechend
dem gesamten Bereich von sichtbaren Licht verteilt.
Bilder an den entsprechenden Wellenlängen haben eine
starke Korrelation. Das heißt, durch Verwendung eines
optischen Elementes, welches absichtlich eine chromatische
Aberration verursacht, werden Bilder mit unterschiedlichen
Brennpunktlagen entsprechend den Wellenlängen
fokussiert, und Bilder mit im wesentlichen unterschiedlichen
In-Fokus-Positionen können gleichzeitig
eingegeben werden. Da Bilder eingegeben werden können,
die an einer Mehrzahl von Positionen fokussiert sind,
ohne irgendeinen mechanischen Vorgang zur Änderung der
In-Fokus-Position zu erzeugen, kann eine Vorrichtung
frei von Verzerrungen oder dergleichen geschaffen werden,
die bisweilen bei mechanischen Vorrichtungen der
Fall sein können.
Fig. 53 zeigt die Anordnung einer fünfundzwanzigsten
Ausführungsform der vorliegenden Erfindung. Diese Ausführungsform
entspricht teilweise der vierten Ausführungsform
gemäß Fig. 4. In der fünfundzwanzigsten Ausführungsform
sind Halbspiegel 68-1 und 68-2 hinter einer
Linse 51 eines optischen Systems zur Bildeingabe angeordnet
und Distanzen zwischen der Linse 51 und den
Abbildungsvorrichtungen 52-1 bis 52-3 sind zueinander
unterschiedlich festgesetzt. Die weiteren Anordnungen
sind gleich der in der vierundzwanzigsten und dreiundzwanzigsten
Ausführungsform, und eine nochmalige detaillierte
Beschreibung erfolgt nicht.
Die Abbildungsvorrichtungen 52-1 bis 52-3 können bewegbar
sein, um ihre Lage in Abhängigkeit mit den verschiedenen
Objekttypen geeignet festsetzen zu können.
Die fünfundzwanzigste Ausführungsform mit der erwähnten
Anordnung hat die folgende Arbeitsweise: In dieser Ausführungsform
werden die Bilder, die auf die Mehrzahl von
unterschiedlichen Ebenen fokussiert sind, eingegeben, und
die Mehrzahl von Bildern mit unterschiedlichen In-Fokus-
Positionen kann gleichzeitig eingegeben werden. Somit
kann eine einfache Anordnung erhalten werden, bei
der die mechanischen Operationen zur Änderung der In-Fokus-
Positionen nicht durchgeführt werden müssen, und die
Anwendungsmöglichkeiten für diese Vorrichtungen können
erweitert werden.
Die Fig. 54A bis 54C zeigen eine Anordnung gemäß einer
sechsundzwanzigsten Ausführungsform der vorliegenden
Erfindung in Verbindung mit einem oberflächensequentiellen
elektronischen Endoskop ähnlich der achten Ausführungsform
gemäß den Fig. 13A bis 13C. Das elektronische
Endoskop faßt hauptsächlich eine Endoskopsonde
3300, eine Bildeingabeeinheit 3301, eine Farbfehlausrichtungs-
Korrektureinheit 3302, einen Farbinformationsaufzeichner
3303, eine Brennpunktabstands-Erhöhungseinheit
3304, eine Bildanzeigeeinheit 3305 und eine Steuerung
3306. Eine Abbildungsvorrichtung 3310, die monochromatisch
und auf Halbleiterbasis ist, beispielsweise eine
CCD, ist am distalen Ende der Endoskopsonde 3300 angeordnet.
Ein Bild, das von einer Objektivlinse in einer
In-Fokus-Lagesteuerung 3311 fokussiert wird, wird abgebildet.
In diesem Falle wird Beleuchtungslicht wie folgt
erhalten: Licht von einer Weißlichtquelle 3313, wie
beispielsweise einer Xe-Lampe, welches ein Drehfarbenfilter
3312 in der Bildeingabeeinheit 3301 durchtritt,
wird mittels eine Lichtleiters 3314, bestehend aus einer
optischen Faser oder dergleichen, in die Endoskopsonde
3300 geführt. Das Licht wird dann vom distalen Ende der
Sonde abgestrahlt.
Der drehende Farbfilter 3312 weist den gleichen Aufbau
auf wie der gemäß Fig. 14.
Gemäß Fig. 54B, wird der Farbfilter 3312 von einem Motor
3314 in der Bildeingabeeinheit 3301 angetrieben, und die
Farben des Beleuchtungslichtes ändern sich in der Reihenfolge
von R nach G und nach B. Aus diesem Grund wird
ein mit diesen Lichtkomponenten beleuchtetes Objekt mit
diesen Farben von der Bildabtastvorrichtung 3310 als
monochromatisches Bild aufgenommen. Ein Ausgangsbildsignal
von der Bildaufnahmevorrichtung 3310 wird mittels
eines A/D-Wandlers 3315 in ein digitales Signal umgesetzt,
und das digitale Signal wird in einem entsprechenden
vorbestimmten Farbbereich von Rahmenbildspeichern
3317-1 bis 3317-3 gespeichert. Die obigen Abläufe
werden von einer Bildeingabesteuerung 3318 gesteuert.
Die Komponenten R und G oder die Komponenten G und B der
Primärfarbbilder, d. h. der Komponenten R, G und B, die
sequentiell in dem Rahmenbildspeicher 3317 gespeichert
sind, werden von einem Selektor 3319 ausgewählt. Die
ausgewählten Bildsignale werden einem Bereichsdetektor
3320 in der Farbfehlausrichtungs-Korrektureinheit 3302
zugeführt, und Fehlausrichtungsbeträge der Bilder R oder
B bezüglich des Bildes G werden lokal detektiert. Ein
Adressengenerator 3321 erzeugt Adressen zur Korrektur
der Fehlausrichtungsbeträge, die durch den Detektor 3320
berechnet wurden, und diese Adressensignale werden dem
Rahmenbildspeicher 3317-1 bis 3317-3 zugeführt. Die
Rahmenbildspeicher 3317-1 bis 3317-3 korrigieren die
Bilder R und B unter Verwendung der Adressensignale und
eines Pufferspeichers 3317-4.
Das sich ergebende einzelne Farbbild wird der Farbinformations-
Aufzeichnungseinheit 3303 über den Selektor
3319 zugeführt. In der Aufzeichnungseinheit 3303 werden
die entsprechenden Farbkomponenten durch einen Addierer
3322 miteinander addiert, um einen Helligkeitswert Y=R
+G+B zu erhalten. Gleichzeitig werden die Farbkomponenten
R, G und B durch Teiler 3323-1 bis 3323-3 durch Y
dividiert. Die Quotienten R/Y, G/Y und B/Y von den Teilern
3323-1 bis 3323-3 werden in entsprechenden Speichern
3324-1 bis 3324-3 gespeichert.
Die Bilder R, G und B, die eingegeben wurden, während die
Brennpunktslage durch Steuerung 3311 in der Endoskopsonde
3300 geändert wurde, d. h., die Bilder R, G und B
in den Rahmenbildspeichern 3317-1 bis 3317-3 in der
Bildeingabeeinheit 3301 werden in Rahmenbildspeichern
3325-1 bis 3325-3 in einer Brennpunktabstands-Erhöhungseinheit
3304 aufgezeichnet. Zusätzlich zu den Speichern
3325-1 bis 3325-3 weist die Brennpunktabstands-Erhöhungseinheit
3304 ein FFT-Arithmetikelement 3326, einen
Komparator 3327, Multiplizierer 3328-1 bis 3328-3, einen
Speicher 3329, einen Addierer 3330 und einen Rahmenbildspeicher
3331 auf. Die Erhöhungseinheit 3304 wird in
gleicher Weise wie in der dreiundzwanzigsten Ausführungsform
betrieben, und das Verarbeitungsergebnis wird
in dem Speicher 3331 als Helligkeit Y=R+G+B gespeichert.
Die Farbinformation in den Speichern 3324-1 bis 3324-3
und das Bildsignal im Speicher 3331 werden durch Multiplizierer
3332-1 bis 3332-3 in Einheiten von Farbkomponenten
multipliziert. Die Produkte der Multiplizierer
3332-1 bis 3332-3 werden der Bildanzeigeeinheit 3305
zugeführt.
Die der Anzeigeeinheit 3305 von den Multiplizierern
3332-1 bis 3332-3 zugeführten Signale werden von D/A-
Wandlern 3333-1 bis 3333-3 in Analogsignale umgesetzt.
Diese Analogsignale werden dann auf einen TV-Monitor
3334 dargestellt. Bildverarbeitung und Anzeige werden
von der Steuerung 3306 kontrolliert.
Diese Ausführungsform verwendet die starke Korrelation
zwischen den drei primären (R, G und B) endoskopischen
Bildern und die Abhängigkeit einer Bilddefokussierung
bereits von der Helligkeit der Farbbildkomponenten.
Bilder mit unterschiedlichen Brennpunktlagen in Einheiten
der drei Primärgruppen werden in das oberflächensequentielle
elektronische Endoskop eingegeben, und
die weitere Verarbeitung erfolgt durch die vorliegende
Erfindung.
Eine Arbeitsweise dieser Ausführungsform wird nun im
folgenden beschrieben. Komponentenbilder R, G und B
werden sequentiell durch die Bildeingabeeinheit 3301
eingegeben. Wenn in diesem Falle das Objekt oder die
Endoskopsonde 3300 abrupt bewegt wird, weichen die Relativlagen
der drei Primärbilder von den richtigen Positionen
ab, so daß eine sogenannte Farbfehlausrichtung
verursacht wird. Die Farbfehlausrichtungs-Korrektureinheit
3302 berechnet die Fehlausrichtungsbeträge der
Bilder R und B bezüglich des Bildes B durch Anspassung
zwischen örtlichen Teilbildern. Die Bilder R und B werden
auf der Grundlage der berechneten Fehlfarbausrichtungsbeträge
korrigiert. Ein Farbbild mit einer festgesetzten
In-Fokus-Position wird durch das obige Verfahren
eingegeben. Daten R/Y, G/Y und B/Y, die durch Normalisierung
der Werte R, G und B durch die Helligkeit Y=R
+G+B erhalten wurden, werden in der Aufzeichnungseinheit
3203 aufgezeichnet. Die primären Farbbilder
werden eingegeben während die Brennpunktlage geändert
wird, und die Eingangsbilddaten werden der Farbfehlausrichtungs-
Korrektur unterworfen. Die korrigierten Daten
werden durch die Brennpunktabstands-Erhöhungseinheit
3304 unter Verwendung der Bilder R, G und B synthetisiert,
so daß ein Bild mit einem hohen Brennpunktabstand
erhalten werden kann.
Das sich ergebende Bild wird als neues Helligkeitsbild
Y′ definiert. Schließlich wird das Bild Y′ mit den Daten
R/Y, G/Y und B/Y multipliziert, um ein Farbbild mit einem
hohen Brennpunktabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein endoskopisches
Bild mit einem hohen Brennpunktabstand synthetisiert
werden kann. Da weiterhin eine Objektivlinse mit
einer großen Aperturgröße verwendet werden kann, kann
die Leistung der Beleuchtungsquelle verringert werden.
Zusätzlich kann die Lichtspeicherzeit der Abbildungsvorrichtung
verkürzt werden, und ein Einfluß auf Farbfehlausrichtung
kann minimiert werden.
Fig. 55 zeigt die Anordnung einer siebenundzwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einem elektronischen Endoskop unter Verwendung einer
single-plate-Farbabbildungsvorrichtung. Gemäß Fig. 55
ist eine Abbildungsvorrichtung 3402 auf Halbleiterbasis
mit einem Farbmosaikfilter 3401 abgedeckt, dessen lichtempfangende
Oberfläche aus Filterelementen in R, G und B
besteht, wobei diese Anordnung am distalen Ende einer
Endoskopsonde 3400 angeordnet ist. Ein von einer Objektivlinse
in einer In-Fokus-Lagesteuerung 3403 fokussiertes
Bild wird abgebildet. In diesem Falle wird Beleuchtungslicht
wie folgt erzeugt: Licht von einer
Weißlichtquelle 3405 wird über einen Lichtleiter 3404 in
die Endoskopsonde 3400 geführt und vom distalen Ende der
Sonde abgestrahlt. Ein Ausgangssignal von der Abbildungsvorrichtung
3402 wird in Farbsignale R, G und B
durch einen Farbtrennschaltkreis 3406 geteilt. In dieser
Ausführungsform besteht das Farbmosaikfilter 3401 aus
Filterelementen R, G und B. Das Filter 3401 kann jedoch
auch komplementäre Farbfilterelemente, wie Cyan und Gelb
enthalten. In jedem Fall trennt der Farbtrennschaltkreis
3406 die Farbsignale entsprechend den Farbkomponenten
gebildet durch das Farbmosaikfilter 3401. Die Komponentensignale
R, G und B werden in Signale Y, R-Y und B-Y
durch einen Matrixschaltkreis 3407 konvertiert. Die Signale
Y, R-Y und B-Y werden durch einen NTSC-Enkoder
3408 in ein NTSC-Signal konvertiert. Das NTSC-Signal
wird durch einen A/D-Wandler 3409 in ein digitales Signal
umgesetzt, und dieses Signal wird in einem
von Rahmenbildspeichern 3411-1 bis 3411-m durch einen
Selektor 3410 gespeichert.
Die n (n m) Bilder, die eingegeben werden, während die
In-Fokus-Position geeignet geändert wird, werden in
n-Speichern der Speicher 3411-1 bis 3411-m gespeichert.
Die Vorrichtung weist weiterhin ein FFT-Arithmetikelement
3411, einen Komparator 3413, Multiplizierer 3414-1
bis 3414-P, einen Speicher 3415, einen Addierer 3416,
einen Rahmenbildspeicher 3417, einen D/A-Wandler 3418,
einen TV-Monitor 3419 und eine Steuerung 3420 auf. In
dieser siebenundzwanzigsten Ausführungsform erfolgt die
gleiche Prozeßverarbeitung wie in der dreiundzwanzigsten
Ausführungsform.
In dieser Ausführungsform wird das Endoskopbild, erhalten
durch die Farbabbildung 3402 unter Verwendung des
Farbmosaikfilters 3401 in das NTSC-Signal konvertiert.
Das konvertierte Farbbildsignal wird im Rahmen der vorliegenden
Erfindung verarbeitet. Bei dieser Ausführungsform
kann daher die Vorrichtungsgröße selbst verringert
werden und der gleiche Effekt für das Endoskopbild
wie in der sechsundzwanzigsten Ausführungsform der
vorliegenden Erfindung erhalten werden.
Weitere Ausführungformen sind im Rahmen der vorliegenden
Erfindung denkbar, so beispielsweise die Anwendung
auf ein Reflektionsmikroskop wie in der siebten Ausführungsform
gemäß Fig. 12 und die Anwendung auf eine
elektronische Kamera wie in der zwölften Ausführungsform
gemäß Fig. 22.
Claims (15)
1. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe
von Bildinformationen, mit
einer Fokussierungseinrichtung (6) zur Durchführung von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
Einrichtungen (2, 3) zur Eingabe einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
Einrichtungen (4) zum Addieren der durch die Eingabeeinrichtung (2, 3) eingegebenen Bilder und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung eines Bildes, das durch Addieren der Bilder mittels der Addiereinrichtung (4) erhalten wurde.
einer Fokussierungseinrichtung (6) zur Durchführung von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
Einrichtungen (2, 3) zur Eingabe einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
Einrichtungen (4) zum Addieren der durch die Eingabeeinrichtung (2, 3) eingegebenen Bilder und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung eines Bildes, das durch Addieren der Bilder mittels der Addiereinrichtung (4) erhalten wurde.
2. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe
einer Bildinformation, mit
einer Fokussiereinrichtung (6) zum Durchführen von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
Einrichtungen (2, 3) zur Eingabe und Addierung einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind, und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung mittels Ortsfrequenzfilterung eines Bildes, das durch Addieren der durch die Eingabe- und Addiervorrichtungen (2, 6) addierten Bilder erhalten wurde.
einer Fokussiereinrichtung (6) zum Durchführen von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
Einrichtungen (2, 3) zur Eingabe und Addierung einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind, und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung mittels Ortsfrequenzfilterung eines Bildes, das durch Addieren der durch die Eingabe- und Addiervorrichtungen (2, 6) addierten Bilder erhalten wurde.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Fokussiereinrichtung aufweist: eine Einrichtung
(6) zur Änderung einer In-Fokus-Objektebenenposition
und eine Einrichtung (18) zur Änderung
eines Wellenlängenbereiches von Licht.
4. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet,
daß die Fokussiereinrichtung eine Einrichtung
(105) zur periodischen Änderung einer In-
Fokus-Objektebenenposition aufweist.
5. Vorrichtung nach Anspruch 1 oder 4, dadurch gekennzeichnet,
daß die Eingabeeinrichtung eine Einrichtung
(709) zur Durchführung einer Bandpaßfilterung
aufweist und daß die Fokussiereinrichtung eine Einrichtung
(707) zur Auswahl eines Bereiches, innerhalb
dem die In-Fokus-Objektebenenposition geändert
wird auf der Grundlage eines Ausganges von der Einrichtung
(709) zur Durchführung des Bandpaßfilters
aufweist.
6. Vorrichtung nach Anspruch 1, 4 oder 5, dadurch gekennzeichnet,
daß die Fokussiereinrichtung eine
Einrichtung (1309) zur Messung einer Distanz von
einem Abbildungsbereich zu einem zu fotografierenden
Objekt und eine Einrichtung (1309) zur Auswahl eines
Bereiches aufweist, innerhalb dem die In-Fokus-Objektebenenposition
auf der Grundlage der Distanzmeßdaten
von der Distanzmeßeinrichtung (1310) geändert
wird, wobei die Rückgewinnungs-Verarbeitungseinrichtung
(7) eine Einrichtung (1504) zur Durchführung
einer Rückgewinnungs-Verarbeitung auf der
Grundlage der Distanzmeßdaten aufweist.
7. Vorrichtung nach Anspruch 1 oder 5, dadurch gekennzeichnet,
daß die Fokussiereinrichtung aufweist:
eine Einrichtung (2306) zur Auswahl eines Bereiches, innerhalb dem die In-Fokus-Objektebenenposition geändert wird; und eine Einrichtung (2307) zur Festsetzung nicht-äquidistanter Objektebenenpositionen innerhalb des durch die Auswahleinrichtung (2306) ausgewählten Bereiches.
eine Einrichtung (2306) zur Auswahl eines Bereiches, innerhalb dem die In-Fokus-Objektebenenposition geändert wird; und eine Einrichtung (2307) zur Festsetzung nicht-äquidistanter Objektebenenpositionen innerhalb des durch die Auswahleinrichtung (2306) ausgewählten Bereiches.
8. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Eingabeeinrichtungen derart ausgebildet
sind, daß eine Mehrzahl von Abbildungsvorrichtungen
(2-1 bis 2-3) in einer Anzahl von unterschiedlichen
Bildebenen angeordnet ist, um gleichzeitig eine
Mehrzahl von Bildern einzulesen, welche auf die
Mehrzahl von unterschiedlichen Objektebenen fokussiert
sind.
9. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet,
daß die Eingabe- und Addiereinrichtungen aufweisen:
eine Abbildungsvorrichtung (902) zum elektrischen Konvertieren eines Lichtbildes;
eine Farbtrenneinrichtung (904) zum Separieren eines Ausganges von der Abbildungsvorrichtung (902) in Einheiten von drei Pirmär- oder Komplementärfarben hiervon und
einen ersten logarithmischen Kompressionsschaltkreis (902, 903) zum logarithmischen Komprimieren eines Ausgangs von der Farbtrenneinrichtung in Einheiten der drei Primär- oder Komplementärfarben hiervon; und wobei die Rückgewinnungs-Verarbeitungseinrichtung (910) aufweist:
einen inversen logarithmischen Wandelschaltkreis (911) zur Durchführung einer inversen logarithmischen Wandlung eines Signals von dem ersten logarithmischen Kompressionsschaltkreis (902, 903);
einen Matrizen-Konversionsschaltkreis (911) zur Durchführung einer linearen Matrizen-Konversion eines Ausgangs von dem inversen logarithmischen Wandelschaltkreis (911);
einen zweiten logarithmischen Kompressionsschaltkreis (911) zur logarithmischen Komprimierung eines Ausgangssignals von dem Matrizen-Wandelschaltkreis (911) und
Farbsignal-Synthetisiereinrichtungen (916, 917) zur Synthetisierung eines Farbsignals unter Verwendung eines Ausgangssignals von dem zweiten logarithmischen Kompressionsschaltkreis (911) und des Ausgangssignals von dem ersten logarithmischen Kompressionsschaltkreis (902, 903).
eine Abbildungsvorrichtung (902) zum elektrischen Konvertieren eines Lichtbildes;
eine Farbtrenneinrichtung (904) zum Separieren eines Ausganges von der Abbildungsvorrichtung (902) in Einheiten von drei Pirmär- oder Komplementärfarben hiervon und
einen ersten logarithmischen Kompressionsschaltkreis (902, 903) zum logarithmischen Komprimieren eines Ausgangs von der Farbtrenneinrichtung in Einheiten der drei Primär- oder Komplementärfarben hiervon; und wobei die Rückgewinnungs-Verarbeitungseinrichtung (910) aufweist:
einen inversen logarithmischen Wandelschaltkreis (911) zur Durchführung einer inversen logarithmischen Wandlung eines Signals von dem ersten logarithmischen Kompressionsschaltkreis (902, 903);
einen Matrizen-Konversionsschaltkreis (911) zur Durchführung einer linearen Matrizen-Konversion eines Ausgangs von dem inversen logarithmischen Wandelschaltkreis (911);
einen zweiten logarithmischen Kompressionsschaltkreis (911) zur logarithmischen Komprimierung eines Ausgangssignals von dem Matrizen-Wandelschaltkreis (911) und
Farbsignal-Synthetisiereinrichtungen (916, 917) zur Synthetisierung eines Farbsignals unter Verwendung eines Ausgangssignals von dem zweiten logarithmischen Kompressionsschaltkreis (911) und des Ausgangssignals von dem ersten logarithmischen Kompressionsschaltkreis (902, 903).
10. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Addiereinrichtung eine Addition (1807, 1812,
1813) mit Gewichtung durchführt.
11. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet,
daß die Rückgewinnungs-Verarbeitungsvorrichtung
eine Einrichtung (22) zum Vorspeichern eines
Bild-Ortsfrequenzfilters unter Berücksichtigung
einer Ortsfrequenzcharakteristik der Eingabeeinrichtung
aufweist.
12. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Eingabeeinrichtung Einrichtungen (1001 bis 1005 und 1030 bis 1031) aufweist zur Eingabe einer Mehrzahl von Bildern in Einheiten von unterschiedlichen Wellenlängenbereichen;
daß die Addiereinrichtung Einrichtungen (1017, 1018) zur Addierung der Mehrzahl von durch die Eingabevorrichtung eingegebenen Bildern in Einheiten von unterschiedlichen Wellenlängenbereichen aufweist und
daß die Rückgewinnungs-Verarbeitungseinrichtung eine Einrichtung (1104) zur Extraktion eines Helligkeitssignals von einem Bild, synthetisiert durch die Addiereinrichtung, eine Einrichtung (1107) zur Durchführung einer Rückgewinnungs-Verarbeitung des extrahierten Helligkeitssignals und eine Einrichtung aufweist zur Synthetisierung des Helligkeitssignals, das durch die Verarbeitungseinrichtung (1107) einer Rückgewinnungs-Verarbeitung unterworfen wurde, sowie der Bilder, die in Einheiten von Wellenlängen addiert worden sind, um ein einzelnes Bild zu erhalten.
daß die Eingabeeinrichtung Einrichtungen (1001 bis 1005 und 1030 bis 1031) aufweist zur Eingabe einer Mehrzahl von Bildern in Einheiten von unterschiedlichen Wellenlängenbereichen;
daß die Addiereinrichtung Einrichtungen (1017, 1018) zur Addierung der Mehrzahl von durch die Eingabevorrichtung eingegebenen Bildern in Einheiten von unterschiedlichen Wellenlängenbereichen aufweist und
daß die Rückgewinnungs-Verarbeitungseinrichtung eine Einrichtung (1104) zur Extraktion eines Helligkeitssignals von einem Bild, synthetisiert durch die Addiereinrichtung, eine Einrichtung (1107) zur Durchführung einer Rückgewinnungs-Verarbeitung des extrahierten Helligkeitssignals und eine Einrichtung aufweist zur Synthetisierung des Helligkeitssignals, das durch die Verarbeitungseinrichtung (1107) einer Rückgewinnungs-Verarbeitung unterworfen wurde, sowie der Bilder, die in Einheiten von Wellenlängen addiert worden sind, um ein einzelnes Bild zu erhalten.
13. Vorrichtung nach Anspruch 1 oder 3, weiterhin gekennzeichnet
durch:
eine weitere Fokussiereinrichtung zur Durchführung von In-Fokus-Vorgängen an der Mehrzahl von Objektebenen, wobei die weitere Fokussiereinrichtung mit einer Einrichtung ausgestattet ist zur Änderung der In-Fokus-Objektebenenposition und mit einer Einrichtung zur Änderung des Wellenlängenbereiches von Licht;
eine weitere Eingabevorrichtung (200) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen;
eine weitere Addiervorrichtung (225) zur Addierung der durch die Eingabevorrichtung eingegebenen Bilder;
eine weitere Rückgewinnungs-Verarbeitungseinheit (227) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung einer Summe, die durch die weitere Addiereinrichtung (225) erhalten wurde, und
eine Synthetisiereinrichtung (203) zur Multiplizierung eines rückgewonnenen Bildes von der weiteren Rückgewinnungs-Verarbeitungsvorrichtung mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addieren der Mehrzahl von Eingangsbildern erhalten wurde zur Synthetisierung der sich ergebenden Bildern in ein Einzelbild.
eine weitere Fokussiereinrichtung zur Durchführung von In-Fokus-Vorgängen an der Mehrzahl von Objektebenen, wobei die weitere Fokussiereinrichtung mit einer Einrichtung ausgestattet ist zur Änderung der In-Fokus-Objektebenenposition und mit einer Einrichtung zur Änderung des Wellenlängenbereiches von Licht;
eine weitere Eingabevorrichtung (200) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen;
eine weitere Addiervorrichtung (225) zur Addierung der durch die Eingabevorrichtung eingegebenen Bilder;
eine weitere Rückgewinnungs-Verarbeitungseinheit (227) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung einer Summe, die durch die weitere Addiereinrichtung (225) erhalten wurde, und
eine Synthetisiereinrichtung (203) zur Multiplizierung eines rückgewonnenen Bildes von der weiteren Rückgewinnungs-Verarbeitungsvorrichtung mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addieren der Mehrzahl von Eingangsbildern erhalten wurde zur Synthetisierung der sich ergebenden Bildern in ein Einzelbild.
14. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe
von Bildinformationen, mit:
einer Fokussiereinrichtung (6) zur Durchführung von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Eingabeeinrichtung (52) zur Eingabe einer Mehrzahl von Bildern, welche durch die Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (57) zur Fourier-Transformation der Mehrzahl von eingegebenen Bildern;
einer Einrichtung (61) zur Gewichtung und Addierung der durch die Fourier-Transformationseinrichtung (57) Fourier-transformierten Bilder und
einer Einrichtung (57) zur Durchführung einer inversen Fourier-Transformation der Fourier-transformierten Bilder.
einer Fokussiereinrichtung (6) zur Durchführung von In-Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Eingabeeinrichtung (52) zur Eingabe einer Mehrzahl von Bildern, welche durch die Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (57) zur Fourier-Transformation der Mehrzahl von eingegebenen Bildern;
einer Einrichtung (61) zur Gewichtung und Addierung der durch die Fourier-Transformationseinrichtung (57) Fourier-transformierten Bilder und
einer Einrichtung (57) zur Durchführung einer inversen Fourier-Transformation der Fourier-transformierten Bilder.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet,
daß die Fokussiereinrichtung aufweist
eine weitere Eingabe-Vorrichtung (3300) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen, wobei die weitere Eingabevorrichtung mit einer Einrichtung (6) zur Änderung der In-Fokus-Objektebenenpositionen und einer Einrichtung (18) zur Änderung des Wellenlängenbereiches von Licht ausgestattet ist;
eine weitere Fourier-Transformationseinrichtung (3326) zur Fourier-Transformation der Mehrzahl von durch die weitere Eingabevorrichtung (3300) eingegebenen Bilder;
eine weitere Gewichtungs- und Addiereinrichtung (3304) zur Gewichtung und Addierung der durch die weitere Fourier-Transformationseinrichtung Fourier- transformierten Bilder;
eine weitere inverse Fourier-Transformationseinrichtung (3331, 3326) zur Durchführung einer inversen Fourier-Transformation der Bilder, die durch die weitere Gewichtungs- und Addiereinrichtung (3304) gewichtet und addiert wurden, und
eine weitere Synthetisierungseinrichtung (3303) zur Multiplizierung der durch die weitere inverse Fourier- Transformationseinrichtung invers Fourier- transformierten Bilder mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addierung der eingegebenen Bilder erhalten wurde und zur Synthetisierung der sich ergebenden Bilder in ein Einzelbild.
eine weitere Eingabe-Vorrichtung (3300) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen, wobei die weitere Eingabevorrichtung mit einer Einrichtung (6) zur Änderung der In-Fokus-Objektebenenpositionen und einer Einrichtung (18) zur Änderung des Wellenlängenbereiches von Licht ausgestattet ist;
eine weitere Fourier-Transformationseinrichtung (3326) zur Fourier-Transformation der Mehrzahl von durch die weitere Eingabevorrichtung (3300) eingegebenen Bilder;
eine weitere Gewichtungs- und Addiereinrichtung (3304) zur Gewichtung und Addierung der durch die weitere Fourier-Transformationseinrichtung Fourier- transformierten Bilder;
eine weitere inverse Fourier-Transformationseinrichtung (3331, 3326) zur Durchführung einer inversen Fourier-Transformation der Bilder, die durch die weitere Gewichtungs- und Addiereinrichtung (3304) gewichtet und addiert wurden, und
eine weitere Synthetisierungseinrichtung (3303) zur Multiplizierung der durch die weitere inverse Fourier- Transformationseinrichtung invers Fourier- transformierten Bilder mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addierung der eingegebenen Bilder erhalten wurde und zur Synthetisierung der sich ergebenden Bilder in ein Einzelbild.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3993688 | 1988-02-23 | ||
JP24943188 | 1988-10-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3905619A1 true DE3905619A1 (de) | 1989-08-31 |
DE3905619C2 DE3905619C2 (de) | 2000-04-13 |
Family
ID=26379338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3905619A Expired - Fee Related DE3905619C2 (de) | 1988-02-23 | 1989-02-23 | Bildeingabe-/Ausgabevorrichtung |
Country Status (2)
Country | Link |
---|---|
US (1) | US5148502A (de) |
DE (1) | DE3905619C2 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3931934A1 (de) * | 1988-10-03 | 1990-04-05 | Olympus Optical Co | Bild-ein-/ausgabevorrichtung |
EP0484076A2 (de) * | 1990-10-29 | 1992-05-06 | Kabushiki Kaisha Toshiba | Videokamera mit Zoom- und Bildverarbeitungsfunktion |
EP0571895A2 (de) * | 1992-05-23 | 1993-12-01 | Yozan Inc. | Bildverarbeitungssystem |
EP0623209A1 (de) * | 1992-01-14 | 1994-11-09 | ZACKS, Shelemyahu | Optisches multifokales gerät |
US7336430B2 (en) | 2004-09-03 | 2008-02-26 | Micron Technology, Inc. | Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture |
Families Citing this family (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4304276A1 (en) * | 1992-02-17 | 1993-08-19 | Galram Technology Ind Ltd | Forming high resolution image of planar or three=dimensional object - combining sharp image data provided by detector matrix for successive scanning of object via optical imaging system. |
JP3327948B2 (ja) * | 1992-06-09 | 2002-09-24 | オリンパス光学工業株式会社 | 光学像再構成装置 |
US5850479A (en) * | 1992-11-13 | 1998-12-15 | The Johns Hopkins University | Optical feature extraction apparatus and encoding method for detection of DNA sequences |
IL110771A (en) * | 1994-08-25 | 1998-02-08 | Holon Holon Hanni | A priori and adaptive filtering for detection of signals corrupted by noise |
US5581631A (en) * | 1994-09-20 | 1996-12-03 | Neopath, Inc. | Cytological system image collection integrity checking apparatus |
JPH08122662A (ja) * | 1994-10-20 | 1996-05-17 | Fuji Photo Optical Co Ltd | 内視鏡照明系 |
US5577181A (en) * | 1995-06-07 | 1996-11-19 | E-Systems, Inc. | Method for autonomous determination of tie points in imagery |
SE512350C2 (sv) | 1996-01-09 | 2000-03-06 | Kjell Olsson | Ökat skärpedjup i fotografisk bild |
JP3206420B2 (ja) * | 1996-02-22 | 2001-09-10 | 株式会社デンソー | カメラ装置 |
JP4136011B2 (ja) * | 1996-04-30 | 2008-08-20 | オリンパス株式会社 | 焦点深度伸長装置 |
WO1998037691A1 (de) * | 1997-02-21 | 1998-08-27 | Rolf Eckmiller | Lernfähiges aktives kamerasystem |
JP4069545B2 (ja) | 1999-05-19 | 2008-04-02 | 株式会社日立製作所 | 電子顕微方法及びそれを用いた電子顕微鏡並び生体試料検査方法及び生体検査装置 |
DE19927129C1 (de) | 1999-06-15 | 2001-01-04 | Wolf Gmbh Richard | Fokussier- und Brennweiteneinstellvorrichtung für eine Videokamera |
US7233351B1 (en) * | 2001-02-23 | 2007-06-19 | Nextengine, Inc. | Method for high resolution incremental imaging |
US20060023219A1 (en) * | 2001-03-28 | 2006-02-02 | Meyer Michael G | Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification |
US6944322B2 (en) | 2001-03-28 | 2005-09-13 | Visiongate, Inc. | Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification |
US7907765B2 (en) * | 2001-03-28 | 2011-03-15 | University Of Washington | Focal plane tracking for optical microtomography |
CN1203622C (zh) * | 2001-06-25 | 2005-05-25 | 索尼株式会社 | 扩频信号解调方法和装置 |
US6741730B2 (en) | 2001-08-10 | 2004-05-25 | Visiongate, Inc. | Method and apparatus for three-dimensional imaging in the fourier domain |
US6980227B2 (en) * | 2001-10-01 | 2005-12-27 | Pentax Corporation | Electronic endoscope with light-amount adjustment apparatus |
AU2002357321A1 (en) * | 2001-12-18 | 2003-06-30 | University Of Rochester | Multifocal aspheric lens obtaining extended field depth |
US7260253B2 (en) * | 2002-04-19 | 2007-08-21 | Visiongate, Inc. | Method for correction of relative object-detector motion between successive views |
US7738945B2 (en) * | 2002-04-19 | 2010-06-15 | University Of Washington | Method and apparatus for pseudo-projection formation for optical tomography |
US20050085708A1 (en) * | 2002-04-19 | 2005-04-21 | University Of Washington | System and method for preparation of cells for 3D image acquisition |
US7811825B2 (en) * | 2002-04-19 | 2010-10-12 | University Of Washington | System and method for processing specimens and images for optical tomography |
US6697508B2 (en) | 2002-05-10 | 2004-02-24 | Visiongate, Inc. | Tomographic reconstruction of small objects using a priori knowledge |
US6770893B2 (en) * | 2002-05-13 | 2004-08-03 | Visiongate, Inc. | Method and apparatus for emission computed tomography using temporal signatures |
JP2004174771A (ja) * | 2002-11-25 | 2004-06-24 | Kyocera Corp | 画像形成装置 |
JP3867143B2 (ja) * | 2003-06-25 | 2007-01-10 | 独立行政法人産業技術総合研究所 | 三次元顕微鏡システムおよび画像表示方法 |
US7756357B2 (en) * | 2003-07-01 | 2010-07-13 | Olympus Corporation | Microscope system for obtaining high and low magnification images |
US7687167B2 (en) * | 2003-07-18 | 2010-03-30 | Panasonic Corporation | Power supply unit |
US7439484B2 (en) * | 2004-02-09 | 2008-10-21 | Koninklijke Philips Electronics, N.V. | Laser measurement apparatus using self-mixing effect |
WO2005103610A1 (ja) * | 2004-04-22 | 2005-11-03 | The University Of Electro-Communications | 微小変位計測法及び装置 |
JP2005354610A (ja) * | 2004-06-14 | 2005-12-22 | Canon Inc | 画像処理装置、画像処理方法および画像処理プログラム |
US6991738B1 (en) | 2004-10-13 | 2006-01-31 | University Of Washington | Flow-through drum centrifuge |
US20060096358A1 (en) * | 2004-10-28 | 2006-05-11 | University Of Washington | Optical projection tomography microscope |
US7494809B2 (en) | 2004-11-09 | 2009-02-24 | Visiongate, Inc. | Automated cell sample enrichment preparation method |
KR100725895B1 (ko) * | 2005-09-15 | 2007-06-08 | 주식회사 아이캔텍 | 광섬유를 이용하는 광학 데이터 입력 장치 |
CN101322418B (zh) | 2005-12-02 | 2010-09-01 | 皇家飞利浦电子股份有限公司 | 图像信号的深度相关的滤波 |
US7835561B2 (en) | 2007-05-18 | 2010-11-16 | Visiongate, Inc. | Method for image processing and reconstruction of images for optical tomography |
US7787112B2 (en) * | 2007-10-22 | 2010-08-31 | Visiongate, Inc. | Depth of field extension for optical tomography |
JP5090188B2 (ja) * | 2008-01-10 | 2012-12-05 | オリンパス株式会社 | 顕微鏡装置 |
US8090183B2 (en) * | 2009-03-12 | 2012-01-03 | Visiongate, Inc. | Pattern noise correction for pseudo projections |
US8254023B2 (en) * | 2009-02-23 | 2012-08-28 | Visiongate, Inc. | Optical tomography system with high-speed scanner |
US8155420B2 (en) * | 2009-05-21 | 2012-04-10 | Visiongate, Inc | System and method for detecting poor quality in 3D reconstructions |
DE102009041183A1 (de) * | 2009-09-11 | 2011-03-24 | Carl Zeiss Imaging Solutions Gmbh | Verfahren zum automatischen Fokussieren eines Mikroskops auf ein vorbestimmtes Objekt sowie Mikroskop zum automatischen Fokussieren |
EP2512117B1 (de) | 2009-12-07 | 2015-08-05 | Panasonic Corporation | Abbildungsvorrichtung und steuerverfahren dafür |
US8412036B2 (en) | 2009-12-07 | 2013-04-02 | Panasonic Corporation | Imaging apparatus and method of controlling the apparatus |
JP2011229603A (ja) * | 2010-04-26 | 2011-11-17 | Fujifilm Corp | 内視鏡装置 |
JP2011229625A (ja) * | 2010-04-26 | 2011-11-17 | Fujifilm Corp | 内視鏡装置 |
JP2012055498A (ja) * | 2010-09-09 | 2012-03-22 | Olympus Corp | 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法 |
EP2640056A4 (de) | 2010-11-08 | 2015-07-15 | Panasonic Ip Man Co Ltd | Bildgebungsvorrichtung, bildgebungsverfahren sowie programm und integrierter schaltkreis dafür |
FR2967791B1 (fr) * | 2010-11-22 | 2012-11-16 | Ecole Polytech | Procede et systeme de calibration d'un modulateur optique spatial dans un microscope optique |
WO2012105222A1 (ja) | 2011-01-31 | 2012-08-09 | パナソニック株式会社 | 画像復元装置、撮像装置及び画像復元方法 |
CN103348276B (zh) * | 2011-03-02 | 2016-04-06 | 松下电器产业株式会社 | 摄像装置、半导体集成电路以及摄像方法 |
JP5882898B2 (ja) | 2011-03-14 | 2016-03-09 | パナソニック株式会社 | 撮像装置、撮像方法、集積回路、コンピュータプログラム |
US8890995B2 (en) | 2011-04-15 | 2014-11-18 | Panasonic Corporation | Image pickup apparatus, semiconductor integrated circuit and image pickup method |
CN102749332B (zh) | 2011-04-18 | 2015-08-26 | 通用电气公司 | 光学系统和光学检测装置以及检测方法 |
WO2012157250A1 (ja) | 2011-05-16 | 2012-11-22 | パナソニック株式会社 | レンズユニット及び撮像装置 |
WO2012164881A1 (ja) * | 2011-05-27 | 2012-12-06 | パナソニック株式会社 | 画像処理装置および画像処理方法 |
JP6136085B2 (ja) * | 2011-10-05 | 2017-05-31 | ソニー株式会社 | 画像取得装置、画像取得方法、およびコンピュータプログラム |
CN103168271B (zh) | 2011-10-12 | 2017-03-08 | 松下知识产权经营株式会社 | 摄像装置、半导体集成电路以及摄像方法 |
JP5942390B2 (ja) * | 2011-11-15 | 2016-06-29 | ソニー株式会社 | 画像取得装置、画像取得方法及び画像取得プログラム |
JP5341286B1 (ja) * | 2011-12-16 | 2013-11-13 | オリンパスメディカルシステムズ株式会社 | 深度拡大装置 |
JP5934940B2 (ja) | 2012-05-17 | 2016-06-15 | パナソニックIpマネジメント株式会社 | 撮像装置、半導体集積回路および撮像方法 |
JP6478496B2 (ja) * | 2014-07-03 | 2019-03-06 | キヤノン株式会社 | 撮像装置およびその制御方法 |
WO2016067425A1 (ja) | 2014-10-30 | 2016-05-06 | オリンパス株式会社 | 画像処理装置、内視鏡装置及び画像処理方法 |
WO2016166871A1 (ja) | 2015-04-16 | 2016-10-20 | オリンパス株式会社 | 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム |
US11069054B2 (en) | 2015-12-30 | 2021-07-20 | Visiongate, Inc. | System and method for automated detection and monitoring of dysplasia and administration of immunotherapy and chemotherapy |
US11448497B2 (en) * | 2019-12-18 | 2022-09-20 | The Boeing Company | Systems and methods of determining image scaling |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2020618A1 (de) * | 1970-04-28 | 1971-11-11 | Bosch Gmbh Robert | Fernsehmikroskop grosser Schaerfentiefe |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4161756A (en) * | 1976-03-19 | 1979-07-17 | Jos. Schneider & Co. Optische Werke | Control system for varifocal objective |
JPS6053943B2 (ja) * | 1978-11-30 | 1985-11-28 | キヤノン株式会社 | カメラの合焦検出装置 |
JPS55124117A (en) * | 1979-03-19 | 1980-09-25 | Toshiba Corp | Pattern inspecting apparatus |
US4490849A (en) * | 1982-03-04 | 1984-12-25 | Grumman Aerospace Corporation | Correlation plane recognition processor |
GB8317407D0 (en) * | 1983-06-27 | 1983-07-27 | Rca Corp | Image transform techniques |
US4804831A (en) * | 1985-10-30 | 1989-02-14 | Canon Kabushiki Kaisha | Focus detecting apparatus independent of object image contrast |
US4903204A (en) * | 1987-12-01 | 1990-02-20 | Duke University | Matrix inversion tomosynthesis improvements in longitudinal X-ray slice imaging |
US4892408A (en) * | 1988-03-03 | 1990-01-09 | Grumman Aerospace Corporation | Reference input patterns for evaluation and alignment of an optical matched filter correlator |
-
1989
- 1989-02-23 DE DE3905619A patent/DE3905619C2/de not_active Expired - Fee Related
-
1991
- 1991-10-09 US US07/776,705 patent/US5148502A/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2020618A1 (de) * | 1970-04-28 | 1971-11-11 | Bosch Gmbh Robert | Fernsehmikroskop grosser Schaerfentiefe |
Non-Patent Citations (2)
Title |
---|
Pieper R.J. and KORPEL A.: Image processing for extended depth of field in: Applied Optics, Vol. 22, No. 10, 15 may 1983, P. 1449-1453 * |
SUGIMOTO S.A. and ICHIOKA Y.: Digital composition of images with increased depth of focus considering depth information in: Applied Optics, Vol. 24, No. 14, 15 July 1985, P. 2076-2080 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3931934A1 (de) * | 1988-10-03 | 1990-04-05 | Olympus Optical Co | Bild-ein-/ausgabevorrichtung |
US5124842A (en) * | 1988-10-03 | 1992-06-23 | Olympus Optical Co., Ltd. | Image input/output apparatus |
EP0484076A2 (de) * | 1990-10-29 | 1992-05-06 | Kabushiki Kaisha Toshiba | Videokamera mit Zoom- und Bildverarbeitungsfunktion |
EP0484076A3 (en) * | 1990-10-29 | 1993-06-30 | Kabushiki Kaisha Toshiba | Video camera having focusing and image-processing function |
US5307170A (en) * | 1990-10-29 | 1994-04-26 | Kabushiki Kaisha Toshiba | Video camera having a vibrating image-processing operation |
EP0623209A1 (de) * | 1992-01-14 | 1994-11-09 | ZACKS, Shelemyahu | Optisches multifokales gerät |
EP0623209A4 (en) * | 1992-01-14 | 1994-11-17 | Shelemyahu Zacks | Multifocal optical apparatus. |
EP0571895A2 (de) * | 1992-05-23 | 1993-12-01 | Yozan Inc. | Bildverarbeitungssystem |
EP0571895A3 (de) * | 1992-05-23 | 1994-03-30 | Yozan Inc | |
US5432621A (en) * | 1992-05-23 | 1995-07-11 | Yozan Inc. | Image processing system for enlarging an reducing and image |
US7336430B2 (en) | 2004-09-03 | 2008-02-26 | Micron Technology, Inc. | Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture |
US8086058B2 (en) | 2004-09-03 | 2011-12-27 | Aptina Imaging Corporation | Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture |
Also Published As
Publication number | Publication date |
---|---|
DE3905619C2 (de) | 2000-04-13 |
US5148502A (en) | 1992-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3905619C2 (de) | Bildeingabe-/Ausgabevorrichtung | |
DE3931934C2 (de) | Bild-Ein/Ausgabevorrichtung | |
US4141032A (en) | Method of and apparatus for the expansion of the range of the depth of focus beyond the limit given by conventional images | |
DE3738667C2 (de) | ||
DE69511903T2 (de) | System zur kontinnierlichen räumlichen Abbildung für Abtastmikroskopie | |
DE60320369T2 (de) | Abbildungsvorrichtung für mikroscopie und bilderzeugungsverfahren | |
DE112017006107T5 (de) | Digitale Korrektur von optischen Systemaberrationen | |
DE102012106584B4 (de) | Verfahren und Vorrichtung zur Bildrekonstruktion | |
DE69125146T2 (de) | Vorrichtung und verfahren zur verarbeitung von endoskopischen bildsignalen | |
JPH01309478A (ja) | 画像入出力装置 | |
DE4006592A1 (de) | Automatische fokussiervorrichtung | |
DE102010031535A1 (de) | Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes | |
EP0353495B1 (de) | Anordnung zur Erzeugung eines optischen Bildkontrastes | |
DE4000343A1 (de) | Automatische fokussiervorrichtung | |
DE69633589T2 (de) | Verfahren und Gerät zur Verarbeitung von visuellen Informationen | |
DE69628654T2 (de) | Messsystem zur bestimmung der globalen modulationsübertragungsfunktion | |
DE4416314A1 (de) | Verfahren und Vorrichtung zur Aufnahme einer Bildszene | |
DE3406578A1 (de) | Automatische brennpunktermittlungsvorrichtung | |
EP1929353B1 (de) | Verfahren zur erzeugung von darstellungsbildern aus erfassten aufnahmebildern und mittel zur durchführung des verfahrens | |
DE102008015979A1 (de) | Bewegt-Bild-Verarbeitungssystem und Bewegt-Bild-Verarbeitungsverfahren | |
DE3417385A1 (de) | Scharfeinstellungs-messeinrichtung | |
DE1572678C3 (de) | Verfahren zum Erzeugen von Ultraschall-Hologrammen und Apparat zu dessen Durchführung | |
DE602004000471T2 (de) | Ophthalmologische Bildverarbeitungsvorrichtung | |
DE3623394A1 (de) | Operationsmikroskop mit im abbildungsstrahlengang vorgesehenen strahlenteiler | |
DE102021119417A1 (de) | 3MOS-Kamera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |