DE3905619C2 - Bildeingabe-/Ausgabevorrichtung - Google Patents
Bildeingabe-/AusgabevorrichtungInfo
- Publication number
- DE3905619C2 DE3905619C2 DE3905619A DE3905619A DE3905619C2 DE 3905619 C2 DE3905619 C2 DE 3905619C2 DE 3905619 A DE3905619 A DE 3905619A DE 3905619 A DE3905619 A DE 3905619A DE 3905619 C2 DE3905619 C2 DE 3905619C2
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- input
- focus
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/36—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
- G02B7/38—Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
Description
Die Erfindung betrifft eine Bildeingabe-/Ausgabevor
richtung zur Eingabe/Ausgabe von Bildinformationen, nach
dem Oberbegriff des Anspruches 1 bzw. 2 bzw. 14.
Ein fokussierendes optisches System mit einem optischen
Element einer großen Apertur ist nötig, um Bildinforma
tionen mit einer hohen Auflösung, einer hohen Vergröße
rung und einer hohen Helligkeit optisch zu lesen. Her
kömmliche optische Systeme, welche durch Linsen aufge
baut sind, haben kleinere Brennpunktstiefen (focal
depth), wenn ihre Aperturgrößen vergrößert werden. Bei
Anwendungsfällen, bei denen Bilderzeugungsausrüstungen
verwendet werden, wie beispielweise Mikroskope, Kameras
und Endoskope haben die sich ergebenden Bilder vorzugs
weise hohe Auflösungen und Helligkeiten, wobei sie
gleichzeitig hohe Brennpunktstiefen haben.
Eine bekannte Technik zur Erhaltung eines Bildes mit
einer hohen Brennpunktstiefe ist in "W. T. Welford,
Journal of Optical Society of America, Vol 50, S. 749
(1960)" beschrieben. Diese bekannte Technik beschreibt
eine Vorrichtung, die ein fokussierendes optisches
System mit einer speziellen Apertur, wie beispielsweise
einer Zonenplatte (zone plate) verwendet. Bei dieser
Vorrichtung kann vorteilhafterweise ein Bild mit einer
hohen Brennpunktstiefe erzeugt werden. Allerdings sind
Auflösung und Lichtmenge stark verringert, was wiederum
nachteilig ist.
Weiterhin ist ein Verfahren bekannt, welches eine Bild
verarbeitungstechnik beschreibt und die durch "S. A. Su
gimoto und Y. Ichioka, Applied Optics Vol. 24, S. 2076
(1985)" oder "Takatoshi OTA, Kokichi SUGIHARA und Noburo
SUGIE, Journal of the Institute of Electronic and Com
munication Engineers (D), J66-D, 1245, (1983)" bekannt
wurde. Bei diesem Verfahren werden eine Mehrzahl von
Bildern mit unterschiedlichen Brennpunkten (auf welche
als innerhalb des Brennpunkts liegenden Positionen be
zogen wird) in einem Objektabstand, um die lokale Ver
teilungsinformation zu erhalten und Bereiche in dem fo
kussierten Zustand synthetisiert. Hierbei kann ein Bild
mit einer hohen Brennpunktstiefe synthetisiert werden,
ohne hierbei Auflösung oder Helligkeit zu verringern.
Somit kann diese bekannte Maßnahme als effektiv be
trachtet werden. Wenn jedoch ein Objekt eine weiche
Oberfläche hat oder in unterschiedlichen Lagen unter
schiedlich starke Vorsprünge aufweist, ist es schwierig,
diese bekannte Maßnahme auf ein derartiges Objekt anzu
wenden. Zusätzlich ist eine große Hardware nötig, um
dieses Verfahren zu realisieren, wobei der Algorithmus
kompliziert ist, was in der Praxis zu Problemen führt.
Insoweit zusammenfassend haben herkömmliche Verfahren
die folgenden Nachteile:
- 1. Bei der Vorrichtung zur Erhöhung des Brennpunktab standes unter Verwendung eines fokussierenden optischen Systems mit einer speziellen Apertur, wie beispielsweise einer Zonenplatte, werden Auflösung und Lichtmenge stark verringert. Obwohl es möglich ist, ein Bild zu erhalten, welches einen hohen Brennpunktsabstand hat, werden Auf lösung und Helligkeit des Bildes verloren. Somit kann diese bekannte Vorrichtung nicht als ein optisches System dienen, welches alle Faktoren erfüllt, nämlich Brennpunktsabstand, Auflösung und Helligkeit.
- 2. Bei der Vorrichtung zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen im Brennpunkt gelagerten Positionen und Synthetisierung von Teilbildern des im Fokus befindlichen Zustandes auf der Grundlage von ört lichen Verteilungsinformationen werden die Anwendungs fälle auf bestimmte Objektzustände beschränkt, was in der Praxis zu Problemen führt.
Es ist daher Aufgabe der vorliegenden Erfindung, eine
Bildeingabe-/Ausgabevorrichtung nach dem Oberbegriff des
Anspruches 1 bzw. 2 bzw. 14 derart auszubilden, daß
Bilder mit einem hohen Brennpunktsabstand ohne Verrin
gerung von Auflösung und Helligkeit erzeugbar sind, wo
bei die Vorrichtung eine Vielzahl von praktischen An
wendungen bei einer Vielzahl von verschiedenen Objekten
bei gleichzeitig einfacher Ausbildung erlaubt, wobei die
Vorrichtung unmittelbar und geeignet für alle Praxis
fälle anwendbar ist.
Die Lösung dieser Aufgabe erfolgt erfindungsgemäß durch
die im Anspruch 1 bzw. 2 bzw. 14 angegebenen Merkmale.
Genauer gesagt:
- 1. Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden eingegeben;
- 2. die eingegebenen Bilder mit unterschiedlichen im Brennpunkt liegenden Positionen werden synthetisiert; und
- 3. eine Rückgewinnungs-Verarbeitung des synthetisierten Bildes wird durchgeführt.
Diese erwähnten Schritte bringen die folgende Funktion
mit sich:
Wenn eine sich im Brennpunkt befindliche Position (im
folgenden mit "In-Fokus-Position" bezeichnet) auf einer
Objektebene in einem optischen System zur Bildausgabe
festgesetzt wird, wird ein Defokussierungsbetrag des
eingegebenen Bildes durch einen Abstand zwischen dem
Objekt und der In-Fokus-Ebene bestimmt. Wenn das Objekt
einen Brennpunktsabstand hat, der größer ist als der des
optischen Systems in der optischen Achse des optischen
Systems zur Bildeingabe, sind die Defokussierungszu
stände der erhaltenen Bilder beim Festsetzen der In-Fo
kus-Position in einer gegebenen Objektebene in ihren
Lagen unterschiedlich. Wenn die In-Fokus-Position geän
dert wird, wird ein Bild mit einer Defokussierungsver
teilung unterschiedlich von der des vorhergehenden ein
gegebenen Bildes eingegeben. Genauer gesagt, ein Defo
kussierungsteil des vorher eingegebenen Bildes kann bei
dem nächsten eingegebenen Bild zu einem In-Fokus-Teil
werden und der In-Fokus-Teil des vorher eingegebenen
Bildes kann beim nächsten Bildeingabevorgang ein defo
kussierter Bereich werden. Diese Beziehungen werden
durch den Abstand zwischen der Struktur des Objektes und
der vorgewählten In-Fokus-Ebene bestimmt. Wenn die Bil
der eingegeben werden, während die In-Fokus-Position
geändert wird innerhalb eines geeigneten Bereiches, kann
eine Mehrzahl von Bildern erhalten werden, welche auf
unterschiedliche Teile des Objektes fokussiert sind.
Wenn diese Bilder synthetisiert werden, ist das synthe
tisierte Bild praktisch gleichmäßig über die Gesamtheit
des Bildes hinweg defokussiert. Das synthetisierte Bild
wird dann einer Rückgewinnungs-Verarbeitung (recovery
processing) unterworfen, wodurch ein Bild reproduziert
wird, welches auf die gesamten Punkte des Objektes fo
kussiert ist.
Ein Bild mit einem hohen Brennpunktsabstand kann repro
duziert werden, ohne Auflösung und Helligkeit zu ver
ringern. In diesem Fall ist die Verarbeitung sehr ein
fach und ein Lokalverarbeitung des Bildes muß nicht
durchgeführt werden. Somit kann auch die Bildverarbei
tungsvorrichtung vereinfacht werden. Die Verarbeitung
kann durchgeführt werden ungeachtet unterschiedlicher
Oberflächenzustände der Objekte. Somit kann die vorlie
gende Erfindung bei einer Vielzahl von Anwendungsfällen
verwendet werden.
Weiterhin können bei der vorliegenden Erfindung die
folgenden Schritte durchgeführt werden:
- 1. Eine Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Positionen wird eingegeben;
- 2. die Bilder mit unterschiedlichen In-Fokus-Positionen werden einer Fourier-Transformation unterworfen;
- 3. die Bilder der Fourier-Transformation mit unter schiedlichen In-Fokus-Positionen werden in Einheiten von Ortsfrequenzen gewichtet und die gewichteten Bilder werden synthetisiert; und
- 4. das synthetisierte Fourier-Spektrumbild wird dann einer inversen Fourier-Transformation unterworfen.
Genauer gesagt, die folgenden Abläufe finden statt:
Die Bilder mit unterschiedlichen Brennpunktslagen werden
diskret eingegeben und eine Synthese von Fourier trans
formierten Bildern wird durchgeführt. Das sich ergebende
Fourier-Spektrumbild wird einer inversen Fourier-Trans
formation unterworfen. Somit kann ein Bild mit einem
hohen Brennpunktsabstand erhalten werden, ohne daß Auf
lösung und Helligkeit verringert werden. Zusätzlich kann
die Verarbeitung ohne irgendwelche Schwierigkeiten
durchgeführt werden, ungeachtet unterschiedlicher Zu
stände und Arten der Oberflächen der Objekte, wobei eine
Anwendung bei einer Vielzahl von Anwendungsfällen mög
lich ist. Weiterhin müssen spezielle Vorbereitungen und
spezielle Eingabevorgänge nicht durchgeführt werden.
Somit kann die vorliegende Erfindung in geeigneter Weise
bei einer Vielzahl von Anwendungsfällen ohne irgendwel
che Abwandlungen verwendet werden.
Vorteilhafte Weiterbildungen der Erfindung sind in den
jeweiligen Unteransprüchen angegeben.
Weitere Einzelheiten, Aspekte und Vorteile der vorlie
genden Erfindung ergeben sich aus der nachfolgenden Be
schreibung unter Bezugnahme auf die Zeichnung.
Es zeigt:
Fig. 1 bis 48 erste Ausführungsformen der vorliegenden
Erfindung; hierbei zeigt:
Fig. 1 eine schematische Darstellung einer ersten
Ausführungsform;
Fig. 2 eine schematische Darstellung einer zweiten
Ausführungsform;
Fig. 3 eine schematische Darstellung einer dritten
Ausführungsform;
Fig. 4 eine schematische Darstellung einer vierten
Ausführungsform;
Fig. 5 eine schematische Darstellung einer fünften
Ausführungsform;
Fig. 6 eine Frontansicht einer Fresnel-Zonenplatte
von Fig. 5;
Fig. 7 eine schematische Ansicht einer sechsten
Ausführungsform;
Fig. 8 und 9 Blockschaltbilder zur Veranschaulichung
unterschiedlicher Anordnungen einer Rückge
winnungs-Einheit in der ersten bis sechsten
Ausführungsform;
Fig. 10 eine Darstellung zur Erläuterung der geome
trischen Beziehung bei einem Verfahren zur
Bestimmung eines Wiedergewinnungsfilters in
der Wiedergewinnungseinheit;
Fig. 11A bis 11D grafische Ansichten von Verfahrenspro
zeduren bei einem Verfahren zur Bestimmung
des Rückgewinnungsfilters;
Fig. 12 teilweise schematisch eine siebte Ausfüh
rungsform;
Fig. 13A bis 13C teilweise schematisch eine achte Aus
führungsform;
Fig. 14 eine Draufsicht auf einen Rückgewinnungs
farbfilter gemäß Fig. 13;
Fig. 15 teilweise schematisch eine neunte Ausfüh
rungsform;
Fig. 16 teilweise schematisch eine zehnte Ausfüh
rungsform;
Fig. 17 teilweise schematisch eine elfte Ausfüh
rungsform;
Fig. 18 eine Ansicht zur Erläuterung eines optischen
Rückgewinnungs-Vorganges bei einem auf einem
Film aufgezeichneten Bild;
Fig. 19 die Netzstruktur in einem Fibroskop-Bild;
Fig. 20 ein Fourier-Spektrumbild eines Fibroskop-Bil
des, welches während des optischen Rückge
winnungsvorganges erscheint;
Fig. 21 die Vorderansicht eines Filters, das im op
tischen Rückgewinnungsvorgang verwendet
wird;
Fig. 22 teilweise schematisch eine zwölfte Ausfüh
rungsform;
Fig. 23 teilweise schematisch eine dreizehnte Aus
führungsform;
Fig. 24 grafisch die Beziehung
Amplitude und Frequenzleistung einer spe
ziellen Ortsfrequenz zur Erläuterung einer
Funktion der dreizehnten Ausführungsform;
Fig. 25 schematisch eine vierzehnte Ausführungsform;
Fig. 26 die Frontansicht eines drehenden optischen
Verschlusses in der vierzehnten Ausführungs
form;
Fig. 27 eine grafische Darstellung der Charakteristik
eines logarithmischen Filters in der vier
zehnten Ausführungsform;
Fig. 28 die Anordnung einer fünfzehnten Ausführungs
form der vorliegenden Erfindung;
Fig. 29 die Anordnung einer sechzehnten Ausführungs
form;
Fig. 30 die Anordnung einer siebzehnten Ausführungs
form;
Fig. 31 schematisch eine Ansicht zur Erläuterung ei
ner Verfahrens zur Verarbeitung und Anzeige
eines Farbbildes in der sechzehnten und
siebzehnten Ausführungsform der vorliegenden
Erfindung;
Fig. 32 eine Ansicht eines Farbbildprozessors als
eine teilweise Abwandlung der Anordnung der
siebzehnten Ausführungsform;
Fig. 33 schematisch einen Teil einer optischen
Bypass-Filteranordnung in einer achtzehnten
Ausführungsform der vorliegenden Erfindung;
Fig. 34A und 34B grafische Darstellungen zur Erläuterung
eines Verfahrens zur Auswahl eines Bildes in
der achtzehnten Ausführungsform;
Fig. 35A und 35B Ansichten einer Anordnung einer neun
zehnten Ausführungsform der vorliegenden Er
findung;
Fig. 36A und 36B Ansichten einer linken Bildebene und
einer rechten Bildebene einer Stereo-Anpas
sungseinrichtung der neunzehnten Ausfüh
rungsform;
Fig. 37 die Anordnung eines Anpassungsschaltkreises
in der neunzehnten Ausführungsform;
Fig. 38 eine Ansicht einer Abwandlung eines Anpas
sungsschaltkreises und einer Speicheranord
nung in der neunzehnten Ausführungsform;
Fig. 39 eine Darstellung zur Erläuterung einer Rück
gewinnungs-Verarbeitungseinrichtung in der
neunzehnten Ausführungsform;
Fig. 40A und 40B Ansichten einer Anordnung der zwanzig
sten Ausführungsform der vorliegenden Erfin
dung;
Fig. 41 und 42 Darstellungen zur Erläuterung der Ar
beitsweise der zwanzigsten Ausführungsform;
Fig. 43 eine Ansicht einer einundzwanzigsten Ausfüh
rungsform der vorliegenden Erfindung;
Fig. 44 eine Darstellung zur Erläuterung der Ar
beitsweise der einundzwanzigsten Ausfüh
rungsform;
Fig. 45 die Anordnung einer zweiundzwanzigsten Aus
führungsform der vorliegenden Erfindung;
Fig. 46 und 47 Darstellungen zur Erläuterung der Ar
beitsweise der zweiundzwanzigsten Ausfüh
rungsform; und
Fig. 48 schematisch die Anordnung eines optischen
Systems für die In-Fokus-Positionssteuerung
in der ersten Ausführungsform und derglei
chen;
Fig. 49 bis 55 zeigen weitere Ausführungsformen im Rah
men der vorliegenden Erfindung; hierbei
zeigt:
Fig. 49 die Anordnung einer dreiundzwanzigsten Aus
führungsform;
Fig. 50 eine Darstellung zur Erläuterung der Ar
beitsweise der dreiundzwanzigsten Ausfüh
rungsform;
Fig. 51 die Ansicht einer vierundzwanzigsten Ausfüh
rungsform;
Fig. 52 eine Darstellung zur Erläuterung einer Ar
beitsweise der vierundzwanzigsten Ausfüh
rungsform;
Fig. 53 eine fünfundzwanzigste Ausführungsform;
Fig. 54A bis 50C eine sechsundzwanzigste Ausführungs
form; und
Fig. 55 die Anordnung einer siebenundzwanzigsten
Ausführungsform.
Vorzugsweise Ausführungsformen der vorliegenden Erfin
dung werden nun im folgenden unter Bezugnahme auf die
Zeichnungen näher erläutert.
Fig. 1 zeigt schematisch eine erste Ausführungsform der
vorliegenden Erfindung. Eine Bildebene wird mittels ei
ner Linse 1 auf den lichtempfangenden Teil einer Abbil
dungsvorrichtung 2, gebildet aus einer ladungsträgerge
koppelten Vorrichtung (im folgenden CCD genannt), einer
Abbildungsröhre oder dergleichen fokussiert. Ein opti
sches Eingabesystem weist normalerweise eine Kombination
aus einer Mehrzahl von Linsen auf. Aus Gründen der Ein
fachkeit der Darstellung ist nur die eine Linse in Fig.
1 dargestellt. Ein Ausgangssignal von der Abbildungs
vorrichtung 2 wird mittels eines A/D-Wandlers 3 in ein
digitales Signal gewandelt. Das digitale Signal wird
mittels eines Addierers 4 zu einem Bildsignal addiert,
welches in einem Speicher 5 aufgezeichnet ist. Diese
Summe wird wiederum in dem Speicher 5 gespeichert. Die
obigen Abläufe werden unter der Annahme durchgeführt,
daß die In-Fokus-Position des optischen Systems wieder
holt durchgeführt wird, während die Linse 1 von einem
In-Fokus-Positionssteuerer 6 bewegt wird. Das heißt, daß
die obigen Abläufe derart durchgeführt werden, daß die
In-Fokus-Position des optischen Systems diskret in
geeigneten Intervallen innerhalb eines Abstandsbereiches
geändert wird. Die Eingangsbilder werden addiert und die
Summe wird in dem Speicher 5 gespeichert.
Das Summenbild wird einer geeigneten Rückgewinnungs-Ver
arbeitung mittels einer Rückgewinnungs-Verarbeitungs
einheit 7 unterworfen. Beispielsweise wird eine Hoch
paß-Filterung oder eine Bandpaß-Filterung an dem Sum
menbild bezüglich beispielsweise einer Ortsfrequenz
durchgeführt. Das verarbeitete Ergebnis wird wieder in
dem Speicher 5 abgespeichert. Das der Rückgewinnungs-
Verarbeitung unterworfene Bildsignal, das in dem Spei
cher 5 gespeichert ist, wird mittels eines D/A-Wandlers
8 in ein Analogsignal umgesetzt. Das Analogsignal wird
dann auf einem Anzeigemonitor 9 dargestellt. Die zeit
liche Steuerung und die Steuerung der Signalflüsse wird
hierbei von einer zentralen Steuerung 10 übernommen.
Als eine Einrichtung zur Änderung der In-Fokus-Position
des optischen Systems kann die Abbildungsvorrichtung 2
bewegt werden, wohingegen das Linsensystem stationär
bleiben kann. Die Rückgewinnungs-Verarbeitungseinheit 7
kann ein Rückgewinnungs-Verarbeitungsergebnis direkt an
den A/D-Wandler 8 unter Verwendung eines kanalisierten
Verarbeitungsschemas (pipelined processing scheme) aus
geben. Das Summenbild, das in dem Speicher 5 gespeichert
ist, kann auch auf einem anderen Aufzeichnungsmedium,
beispielsweise einer Floppy Disk, einem Magnetband oder
einer optischen Speichereinheit gespeichert werden und
das auf diesem externen Aufzeichnungsmedium gespeicherte
Bildsignal kann ausgelesen und der Rückgewinnungs-Ver
arbeitung unterworfen werden, wonach das rückgewonnene
Bild angezeigt werden kann. Mit anderen Worten, Bild
aufzeichnungs- und Bildwiedergabe-Einheit können off-
line über ein Aufzeichnungsmedium miteinander verbunden
sein.
Die beschriebene erste Ausführungsform mit dem obigen
Aufbau hat die folgende Wirkungsweise:
Bilder mit unterschiedlichen In-Fokus-Positionen werden
diskret eingegeben und gleichzeitig miteinander addiert.
Somit kann die Verarbeitung mit relativ einfachem Aufbau
durchgeführt werden. Zusätzlich können Eingabe- und
Ausgabevorgänge der Bilder mit hoher Geschwindigkeit
durchgeführt werden.
Fig. 2 zeigt eine zweite Ausführungsform der vorliegen
den Erfindung. In dieser Ausführungsform wird die
Brennpunktlage kontinuierlich von der In-Fokus-Posi
tionssteuerung 6 innerhalb eines festgelegten Distanz
bereiches geändert. Bilder werden auf dem lichtempfan
genden Bereich (genauer gesagt: lichtempfangende Ober
fläche eines Fotosensors oder einer Bildaufnahmevor
richtung auf Halbleiterbasis oder dergleichen) der Ab
bildungsvorrichtung 2 fokussiert. Die in der Abbil
dungsvorrichtung 2 empfangenen Bilder werden von dem
A/D-Wandler 3 in digitale Signale gewandelt und in dem
Speicher 5 gespeichert. Von einer Rückgewinnungs-Verar
beitungseinheit 7 wird eine geeignete Rückgewinnungs-
Filterung der digitalen Signale durchgeführt. Das der
Rückgewinnungs-Verarbeitung unterworfene Signal wird in
dem Speicher 5 wieder abgespeichert. Das in dem Speicher
5 abgespeicherte Signal wird von dem D/A-Wandler 8 in
ein Analogsignal gewandelt. Das Analogsignal wird auf
dem Monitor 9 dargestellt. Zeitsteuerung und Datenflüsse
in den oben beschriebenen Vorgängen werden von der
Steuerung 10 kontrolliert.
Diese zweite Ausführungsform zeichnet sich wie folgt
aus. Der Akkumulationseffekt der Lichtenergie der Ab
bildungsvorrichtung 2 selbst wird verwendet, um konti
nuierlich Bilder mit unterschiedlichen In-Fokus-Posi
tionen einzugeben und gleichzeitig werden diese Bilder
gespeichert. Somit können Eingabe- und Ausgabevorgänge
der Bilder gleichzeitig von der Abbildungsvorrichtung 2
selbst durchgeführt werden. Der Aufbau der Vorrichtung
kann vereinfacht werden und eine Hochgeschwindigkeits
verarbeitung kann durchgeführt werden. Da der Brennpunkt
kontinuierlich innerhalb einer geeigneten Distanz ver
ändert wird, kann die Steuerung der Brennpunktslagen
vereinfacht werden.
Fig. 3 zeigt die Anordnung einer dritten Ausführungsform
der vorliegenden Erfindung. Bei dieser Ausführungsform
wird das von der Linse 1 fokussierte Bild von der Ab
bildungsvorrichtung 2 in ein Bildsignal gewandelt. Das
Bildsignal wird dann von dem A/D-Wandler 3 in ein Digi
talsignal umgesetzt. Das digitale Signal wird in einem
festgelegten Speicher von Speichern 5-1 bis 5-m mittels
eines Selektors 11 abgespeichert. Die obigen Vorgänge
werden wiederholt durchgeführt, während die Linse 1 von
der In-Fokus-Positionssteuerung 6 bewegt wird. Genauer
gesagt, die obigen Abläufe werden diskret durchgeführt,
um die In-Fokus-Positionen in festgelegten Intervallen
innerhalb eines festgelegten Distanzbereiches zu ändern.
Die eingegebenen n (n ≦ m)-Bilder werden entsprechend
in den n-Speichern der Speicher 5-1 bis 5-m gespeichert.
Ein Adressenkompensator 12 führt eine Vergrößerungskor
rektur und eine Korrektur von Positionsfehlern der in
den Speichern 5-1 bis 5-m abgespeicherten Bilder durch.
Die Korrekturergebnisse werden in den Speichern 5-1 bis
5-m wieder abgespeichert. Die adressenkorrigierten
Bildsignale der Speicher 5-1 bis 5-m werden von einem
Selektor 13 ausgewählt. Das heißt, von den n-Bildern in
den Speichern 5-1 bis 5-m werden k (k ≦ n)-Bilder, die
eine festgelegte Bedingung erfüllen, ausgewählt. Die k
ausgewählten Bilder werden miteinander mittels eines
Addierers 14 addiert. Das Summenbildsignal von dem Ad
dierer 14 wird in einem Speicher 15 aufgezeichnet oder
gespeichert. Das in dem Speicher 15 aufgezeichnete
Bildsignal wird dann einer geeigneten Rückgewinnungs-
Filterung durch die Rückgewinnungs-Verarbeitungseinheit
7 unterworfen. Das Rückgewinnungs-gefilterte Signal wird
dann wieder in dem Speicher 15 gespeichert. Das in dem
Speicher 15 abgespeicherte verarbeitete Signal wird
mittels des D/A-Wandlers 8 in ein Analogsignal umgesetzt
und dann auf dem Monitor 9 dargestellt. Zeitsteuerung
und Datenstromsteuerung sowie die Festsetzung der Se
lektoren 11 und 13 wird durch die Steuerung 10 durchge
führt.
Die ursprünglichen Bildsignale in den Speichern 5-1 bis
5-m können auch in einem anderen Aufzeichnungsmedium
gespeichert werden und können beim Lesezugriff auf das
abgespeicherte Bildsignal der Adresskorrektur, den Ad
ditionen und der Rückgewinnungsverarbeitung unterworfen
werden. Die sich ergebenden Bilder können dann darge
stellt werden. Das heißt, Bildaufzeichnung und Bildwie
dergabeeinheiten können off-line durch das Aufzeich
nungsmedium miteinander verbunden sein.
Diese dritte Ausführungsform hat die folgenden Wir
kungsweisen:
eine Mehrzahl von Bildern mit unterschiedlichen In-Fo kus-Positionen wird gespeichert und von diesen Bildern werden gewünschte Bilder selektiert und synthetisiert. Somit hat diese dritte Ausführungsform den Vorteil, daß ein Bild mit einem In-Fokus-Zustand eines jeden Berei ches des Objektes wiedergegeben werden kann. Zusätzlich korrigiert der Adressenkompensator 12 Unterschiede in den Vergrößerungen, die durch unterschiedliche Defokus sierungsbeträge verursacht werden, Vibrationen zum Zeitpunkt der Bildeingabe und Positionsfehler, die durch eine mögliche Bewegung des Objektes erzeugt werden. So mit kann die Vorrichtung in einer Vielzahl von Anwen dungsfällen verwendet werden. Der Adressenkompensator 12 führt beispielsweise eine lokale Anpassung zwischen den Bildern durch, und führt somit die Positionierung durch. Somit können bei dieser Ausführungsform Brennpunktab stände und In-Fokus-Bereiche des Bildes wahlweise ge setzt werden. Die Vorrichtung dieser Ausführungsform ist sehr effektiv bei einer Additionsverarbeitung und bei einer Änderung in der Vergrößerung. Zusätzlich, selbst wenn Positionsfehler während der Bildeingaben und zwi schen den Bildern auftreten aufgrund einer Bewegung des Objektes, wird das wiedergegebene Bild durch diese Po sitionsfehler nicht nachteilig beeinflußt. Somit kann die Vorrichtung dieser Ausführungsform bei einer Viel zahl von Anwendungsfällen zum Einsatz gelangen.
eine Mehrzahl von Bildern mit unterschiedlichen In-Fo kus-Positionen wird gespeichert und von diesen Bildern werden gewünschte Bilder selektiert und synthetisiert. Somit hat diese dritte Ausführungsform den Vorteil, daß ein Bild mit einem In-Fokus-Zustand eines jeden Berei ches des Objektes wiedergegeben werden kann. Zusätzlich korrigiert der Adressenkompensator 12 Unterschiede in den Vergrößerungen, die durch unterschiedliche Defokus sierungsbeträge verursacht werden, Vibrationen zum Zeitpunkt der Bildeingabe und Positionsfehler, die durch eine mögliche Bewegung des Objektes erzeugt werden. So mit kann die Vorrichtung in einer Vielzahl von Anwen dungsfällen verwendet werden. Der Adressenkompensator 12 führt beispielsweise eine lokale Anpassung zwischen den Bildern durch, und führt somit die Positionierung durch. Somit können bei dieser Ausführungsform Brennpunktab stände und In-Fokus-Bereiche des Bildes wahlweise ge setzt werden. Die Vorrichtung dieser Ausführungsform ist sehr effektiv bei einer Additionsverarbeitung und bei einer Änderung in der Vergrößerung. Zusätzlich, selbst wenn Positionsfehler während der Bildeingaben und zwi schen den Bildern auftreten aufgrund einer Bewegung des Objektes, wird das wiedergegebene Bild durch diese Po sitionsfehler nicht nachteilig beeinflußt. Somit kann die Vorrichtung dieser Ausführungsform bei einer Viel zahl von Anwendungsfällen zum Einsatz gelangen.
Fig. 4 zeigt die Anordnung einer vierten Ausführungsform
der vorliegenden Erfindung. Bei dieser Ausführungsform
sind Halbspiegel 16-1 und 16-2 hinter der Linse 1 des
optischen Systems zur Bildeingabe angeordnet. Bei
spielsweise sind drei Abbildungsvorrichtungen 2-1, 2-2
und 2-3 in unterschiedlichen Abständen von der Linse 1
angeordnet. Die Bildsignale von den Abbildungsvorrich
tungen 2-1 bis 2-3 werden durch A/D-Wandler 3-1, 3-2 und
3-3 in digitale Signale umgesetzt. Die weiteren Anord
nungen dieser Ausführungsform sind gleich der in der
ersten und dritten Ausführungsform und eine detaillierte
Beschreibung erfolgt nicht.
Es sei hier festgehalten, daß die Lagen der Abbildungs
vorrichtungen 2-1 bis 2-3 variabel sein können, um va
riable Abstände zu dem Objekt festzusetzen.
Diese vierte Ausführungsform der vorliegenden Erfindung
arbeitet wie folgt: eine Mehrzahl von Bildern, die in
unterschiedlichen Ebenen fokussiert sind, werden einge
geben und die Mehrzahl von Bildern mit unterschiedlichen
In-Fokus-Positionen werden gleichzeitig eingegeben. So
mit kann eine Änderung der In-Fokus-Position, d. h. eine
mechanische Betätigung vermieden werden. Weiterhin kann
der Anwendungsbereich dieser vierten Ausführungsform
noch weiter sein.
Fig. 5 zeigt die Anordnung einer fünften Ausführungsform
der vorliegenden Erfindung. Bei dieser Ausführungsform
ist eine Fresnel-Zonenplatte 17 vorgesehen, um die Fo
kussierung einer Mehrzahl von In-Fokus-Positionen vor
zunehmen; eine Mehrzahl von Bildern, die auf eine Mehr
zahl von Objektebenen fokussiert sind, werden gleich
zeitig in die Abbildungsvorrichtung 2 eingegeben. Ein
tatsächliches optisches Eingabesystem weist eine Mehr
zahl von Linsen zusätzlich zu der Zonenplatte 17 auf,
aus Gründen der Übersichtlichkeit sind diese Linsen je
doch nicht dargestellt und nur die Fresnel-Zonenplatte
17 ist dargestellt. Ein Bildsignal von der Abbildungs
vorrichtung 2 wird durch den A/D-Wandler 3 in ein digi
tales Signal umgesetzt, wonach dieses digitale Signal in
dem Speicher 5 gespeichert wird. Das in dem Speicher 5
abgespeicherte Bild wird durch die Rückgewinnungs-Ver
arbeitungseinheit 7 einer geeigneten Rückgewinnungs-Fil
terung unterworfen. Das gefilterte Bild wird dann wieder
in dem Speicher 5 abgespeichert. Das in dem Speicher 5
abgespeicherte Bild wird durch den D/A-Wandler 8 in ein
Analogsignal umgesetzt, welches dann auf dem Anzeigemo
nitor 9 dargestellt wird. Zeitsteuerung und Datenfluß
steuerung in dieser Ausführungsform wird durch die
Steuerung 10 durchgeführt.
Die In-Fokus-Positionssteuerung 6 kann zu der Anordnung
von Fig. 5 hinzugefügt werden, um In-Fokus-Positionen zu
kompensieren und für die eingegebenen Bilder kann die
gleiche Verarbeitung wie in den ersten bis dritten Aus
führungsformen durchgeführt werden.
Die fünfte Ausführungsform mit dem obigen Aufbau arbei
tet wie folgt: Die Fresnel-Zonenplatte 17, die ausgelegt
ist, Licht auf die Mehrzahl von Brennpunktslagen zu fo
kussieren wird zusammen mit den nicht dargestellten
Linsen verwendet. Eine Mehrzahl von fokussierten Bildern
wird gleichzeitig auf eine Mehrzahl von Objektebenen
ausgebildet und die fokussierten Bilder werden gleich
zeitig in die Abbildungsvorrichtung 2 eingegeben, so daß
diese Bilder äquivalent addiert werden. Fig. 6 zeigt
eine Vorderansicht der Zonenplatte 17, die geeignet ist,
Licht auf eine Mehrzahl von Brennpunktslagen zu fokus
sieren. Bei der Zonenplatte 17 sind ringförmige Zonen
(Fresnel-Zonen) mit identischen Bereichen ausgebildet
und voneinander durch opake Ringe getrennt. Die Fres
nel-Zonenplatte 17 hat die gleiche Funktion wie eine
Linse mit Brennweiten von ±f0 = r2λ (wobei r der Radius
des zentralen Bereiches der Zonenplatte 17 ist und λ die
Wellenlänge des Lichtes ist. Wenn somit die Fresnel-Zo
nenplatte 17 mit einer Fokussierungslinse kombiniert
wird, kann eine Mehrzahl von Brennweiten erhalten wer
den. Eine Mehrzahl von Bildern kann auf eine Mehrzahl
von Objektebenen mit unterschiedlichen Abständen fokus
siert werden, während die Fresnel-Zonenplatte 17 fest
gehalten ist. Theoretisch hat eine Fresnel-Zonenplatte
17 Brennweiten von ±f0/3, ±f0/5, . . . zusätzlich zu ±f0.
In der Praxis ist die Intensität von Licht in dem
Brennpunkt ±f0 hoch und eine Auswirkung auf andere
Brennpunkte ist schwach. Zusätzlich wird die originale
Brennpunktsweite der Linse von nichtdiffraktiertem Licht
freigehalten. Wenn eine Fresnel-Linse so ausgewählt
wird, daß die Phase des Lichtes, das hindurchläuft um π
verzögert wird anstelle der Ausbildung von anderen opa
ken Ringen, bleiben die Lagen von ±f0 ungeändert, aber
die hierauf fokussierte Lichtintensität kann erhöht
werden. Die ursprüngliche Brennpunktslage der Platte
verschwindet. Wenn ein Phasendifferenz geeignet ausge
wählt wird, können drei Brennpunkte, d. h. ±f0 und die
Original-Brennpunktslage der Platte erhalten werden. Die
Fresnel-Zonenplatte wird streng bei einer speziellen
Wellenlänge betrieben. Wenn die Wellenlänge geeignet
ausgewählt wird, um um die zentrale Wellenlänge (λ = 550
nm) des sichtbaren Lichtes zu sein, wird der Einfluß
einer chromatischen Aberration nicht sehr hoch erhöht.
Die Zonen mit einer festgelegten Phasendifferenz können
durch eine Vakuumabscheidung eines transparenten Dünn
filmes wie beispielsweise MgF2 ausgebildet werden.
Bei dieser Ausführungsform kann eine Mehrzahl von Bil
dern auf die Mehrzahl von Objektebenen durch Verwendung
eines einzelnen optischen Elementes ohne Durchführung
einer mechanischen Betätigung zur Änderung der Brenn
punktslage fokussiert werden und somit kann eine Mehr
zahl von Bildern eingegeben und miteinander addiert
werden, um ein synthetisiertes Bild zu erhalten. Somit
kann die Anordnung dieser Vorrichtung gemäß dieser Aus
führungsform bedeutend vereinfacht werden und die Vor
richtung ist unempfindlich gegenüber Störungen, die
durch Bewegung des Objektes oder dergleichen verursacht
werden.
Fig. 7 zeigt eine sechste Ausführungsform der vorlie
genden Erfindung. Bei dieser Ausführungsform ist ein
optisches Element, d. h. eine Linse 18 vorgesehen, um
absichtlich ein chromatische Aberration in dem optischen
System zur Bildeingabe zu erzeugen. Die Abbildungsvor
richtung 2 besteht aus einer monochromatischen Abbil
dungsröhre oder einer Abbildungsvorrichtung auf Halb
leiterbasis mit einem Empfindlichkeitsbereich innerhalb
des gesamten Spektralbereiches des sichtbaren Lichtes.
Bei dieser Anordnung können die auf verschiedenen Lagen
fokussierten Bilder gleichzeitig durch Wellenlängen von
Licht ausgebildet werden und die Bilder werden durch die
Abbildungsvorrichtung 2 eingegeben und addiert. Die
weitere Anordnung dieser sechsten Ausbildungsform ent
spricht der fünften Ausführungsform.
Ein Bandpaß-Farbfilter kann vor der Abbildungsvorrich
tung 2 angeordnet sein, um Bilder unterschiedlicher
Wellenlängenbereiche einzugeben und aufzuzeichnen und
eine Adresskorrektur, die Einstellung von Brennpunkts
abständen und dergleichen kann mit der gleichen Anord
nung wie in der vierten Ausführungsform durchgeführt
werden.
Diese sechste Ausführungsform arbeitet im wesentlichen
wie folgt: das reflektierte Lichtspektrum eines Objektes
wird in einem weiten Bereich verteilt, der beinahe dem
gesamten Bereich des sichtbaren Lichtes entspricht.
Diese Ausführungsform verwendet die starke Korrelation
zwischen Bildern bei entsprechenden Wellenlängen. Das
heißt, das optische Element wird verwendet, um absicht
lich eine chromatische Aberration zu erzeugen und die
auf unterschiedliche Lagen in Einheiten der Wellenlängen
fokussierten Bilder werden ausgebildet. Diese Bilder
werden in die Abbildungsrichtung 2 eingegeben und die
Addition kann gleichmäßig durchgeführt werden. Somit
können die auf der Mehrzahl von Positionen fokussierten
Bilder eingegeben und addiert werden unter Verwendung
nur eines optischen Elementes mit einem großen chroma
tischen Aberrationswert ohne Verwendung einer mechani
schen Betätigung zur Änderung der In-Fokus-Position. Die
Anordnung kann sehr einfach gehalten werden und die sich
ergebende Vorrichtung kann Störungen kompensieren, die
durch Bewegung eines Objektes oder dergleichen verur
sacht werden.
Der genaue Aufbau der Rückgewinnungs-Verarbeitungsein
heit 7 in der ersten bis sechsten Ausführungsform der
vorliegenden Erfindung wird nun im folgenden beschrie
ben. Die Einheit 7 ist eine Einheit zur Durchführung
geeigneter Bypass- oder Bandpaß-Filterungen der Summen
bilder mit unterschiedlichen In-Fokus-Positionen bezüg
lich der Ortsfrequenz.
Fig. 8 zeigt ein Blockdiagramm der Rückgewinnungs-Ver
arbeitungseinheit 7. Die Summe der Bilder mit unter
schiedlichen In-Fokus-Positionen, die in dem Speicher 5
gespeichert sind, wird einer zweidimensionalen Fou
rier-Transformation durch ein FFT-Arithmetikelement 20
in der Einheit 7 unterworfen. Das arithmetische Ergebnis
wird in einem Speicher 21 gespeichert. Ein Filterfaktor
oder Koeffizient, der auf einer Ortsfrequenzebene geeig
net bestimmt ist, ist in einem Speicher 22 gespeichert.
Das Ortsfrequenzspektrum in dem Speicher 21 wird durch
einen Multiplizierer 23 mit einem Filterkoeffizienten
multipliziert, der in dem Speicher 22 gespeichert ist.
Das Produkt von dem Multiplizierer 23 wird wieder in dem
Speicher 21 gespeichert. Das gefilterte Ortsfrequenzbild
in dem Speicher 21 wird dann einer zweidimensionalen
umgekehrten Fourier-Transformation durch das Arithmetik
element 20 unterworfen. Das Ergebnis wird in dem Spei
cher 5 gespeichert. Mit dieser Anordnung kann die Fil
tercharakteristikkurve auf der Ortsfrequenzebene wahl
weise bestimmt werden.
Fig. 9 ist ein Blockdiagramm einer weiteren Ausfüh
rungsform der Rückgewinnungs-Verarbeitungseinheit 7. Von
all den Bildersummen der Bilder mit unterschiedlichen
In-Fokus-Positionen, die in dem Speicher 5 gespeichert
sind, wird ein Pixelkomponentenwert, der durch einen
Adressengenerator 30 in der Verarbeitungseinheit 7 aus
gewählt wird einem Multiplizierer 32 eingegeben. Gleich
zeitig wird ein Koeffizient, der in einem Speicher 31
gespeichert ist und von dem Adressengenerator 30 ange
wählt wird, in dem Multiplizierer 32 eingegeben. Der
Multiplizierer 32 multipliziert den Pixelkomponentenwert
mit dem Koeffizienten. Ein Produkt von dem Multiplizie
rer 32 wird von einem Addierer 32 mit einem Wert ad
diert, der in einem Speicher 34 gespeichert ist. Diese
Summe wird wieder in dem Speicher 34 gespeichert. Mit
dieser Ausführungsform wird ein "Rollkurven-Betrieb"
(convolution operation) in einem lokalen Bereich, z. B.
3 × 3 Pixel oder 5 × 5 Pixel an dem Bild durchgeführt.
Das arithmetische Ergebnis wird dann in dem Speicher 5
wieder abgespeichert.
Bei dieser Anordnung wird somit der "Rollkurven-Betrieb"
mit einer Matrix, die auf der Bildoberfläche geeignet
ausgewählt wurde, anstelle des Filterns der Ortsfre
quenzebene durchgeführt, wodurch der Rückgewinnungs-Ver
arbeitungsvorgang erfolgt. Somit wird bei dieser Anord
nung die Verarbeitung mit einem einfachen Schaltkreis
aufbau durchgeführt. Wenn ein effektives Filter mit ei
ner kleinen Matrixgröße ausgewählt werden kann, kann die
Anzahl von arithmetischen Abläufen vorteilhafterweise
verringert werden.
Weiterhin kann ein Kanalprozessor (pipelined processor)
verwendet werden, um einen Hochgeschwindigkeitsbetrieb
durchzuführen, wodurch eine Maskierung möglich ist.
Ein Verfahren zur Auswahl des Rückgewinnungsfilters wird
im folgenden beschrieben. Zunächst wird ein Verfahren
zur Auswahl eines Rückgewinnungsfilters mittels Simula
tion beschrieben. Im allgemeinen werden die räumlichen
Charakteristiken eines inkohärenten fokussierenden op
tischen Systems durch eine optische Transferfunktion
(OTF) ausgedrückt, die durch eine Autokorrelation einer
Pupillenfunktion gegeben ist. Wenn eine Apertur als eine
kreisförmige Apertur gegeben ist, kann ein OTF auf der
Brennebene durch eine Autokorrelation (2) einer Pupil
lenfunktion ausgedrückt werden, die sich durch die fol
gende Gleichung (1) ergibt:
wobei (x, y) eine Koordinatenachse ist, wenn die Pupil
lenebene durch ein rechtwinkeliges Koordinatensystem
ausgedrückt wird und (r, θ) eine Radialkomponente und
eine Winkelkomponente ist, wenn die Pupillenebene durch
ein zylindrisches Koordinatensystem ausgedrückt wird.
wobei a0 eine Pupillengröße ist, welche beispielsweise
als Radius einer Linsenapertur angenommen werden kann.
Wenn die Apertur kreisförmig ist, kann θ weggelassen
werden, da keine Winkelrichtung in den Berechnungen
vorkommt. Ein OTF für einen Brennpunktsfehler wird durch
eine Auto-Korrektur der allgemeinen Pupillenfunktion
vertreten und ergibt sich wie die folgende Gleichung
(3):
P(x, y) = P(r, θ)
= P(r)exp[jkW(r; z)] (3)
= P(r)exp[jkW(r; z)] (3)
wobei k = 2π/λ die Anzahl der Wellen ist; W(r; z) die
Wellenoberflächeaberration ist, welche sich durch eine
Differenz zwischen einer Wellenoberfläche W1 von Licht
fokussiert auf einer gegebenen Objektebene und einer
Wellenoberfläche W2 mit einem Defokussierungsbetrag auf
der Pupillenebene ergibt; und z Koordinaten auf der op
tischen Achse anzeigt, welche einen Defokussierungsbe
trag von einer Fokallage bei einer In-Fokus-Position mit
z = 0 ergibt. Die Wellenoberflächenaberration W(r; z)
kann in einem Paraxialbereich wie folgt angenähert wer
den:
W(r; z) = r2.z/(2.f2) (4)
Wenn eine Linsenapertur groß ist, kann die Wellenober
flächenaberration wie folgt ausgedrückt werden:
W(r; z) = r2.z/[2(f2 + r2)] (5)
wobei f die Brennweite der Linse ist. In diesem Fall
wird angenommen, daß f << z ist.
Fig. 10 zeigt die geometrische Beziehung die sich aus
dem oben gesagten ergibt. Ein OTF für einen gegebenen
Defokussierungsbetrag z kann erhalten werden.
Die Fig. 11A bis 11D zeigen Verfahren zur Erhaltung ei
nes Rückgewinnungsfilters auf der Grundlage des erhal
tenen OTF. Der Wert z wird auf der Grundlage der fest
gesetzten Bedingungen verändert, um OTFs zu erhalten,
wie in Fig. 11A dargestellt. Diese OTFs werden mitei
nander addiert, um ein zusammengesetztes OTF zu erhal
ten, wie in Fig. 11B dargestellt. Ein Rückgewinnungs
filter wird so ausgewählt, daß das zusammengesetzte OTF
zu einem OTF für einen korrekten Brennpunkt wird, wie in
Fig. 11C dargestellt. Wenn ein OTF für einen korrekten
Brennpunkt zu
H(u, v) = H(µ, ϕ) = H(µ)
gegeben ist und ein OTF für einen inkorrekten Brennpunkt
als H0(µ) gegeben ist, wird ein Rückgewinnungsfilter
V(µ) wie folgt ausgedrückt:
V(µ) = H0(µ)/H(µ) (6)
Fig. 11D zeigt das Rückgewinnungsfilter V(µ). (u, v) sind
Ortsfrequenzkoordinaten ausgedrückt durch ein rechtwin
keliges Koordinatensystem und (µ, ϕ) sind Ortsfrequenz
koordinaten ausgedrückt in einem zylindrischen Koordi
natensystem. Wenn die Apertur kreisförmig ist, wird nur
die radiale Ortsfrequenz µ verwendet, da die Berechnun
gen nicht von der Winkelrichtung abhängig sind.
Wenn ein Objekt auf einen gewissen Betrag begrenzt wer
den kann, kann die statistische Art des Bildes vorher
gesagt werden und die Art des Rauschens ist ebenfalls
bekannt, so daß ein Wien'sches Filter als Rückgewin
nungsfilter verwendet werden kann. Einflüsse von Rau
schen können verringert werden unter Verwendung des
folgenden Wien'schen Filters:
W(µ) = [H0(µ).|H(µ)2]/H(µ){|H(µ)|2
+ Snn(µ)/Sgg(µ)}] (7)
wobei Snn(µ) das Energiespektrum des Rauschens ist und
Sgg(µ) das Energiespektrum des Bildes ist. Das folgende
Filter kann als ein Pseudo-Wien'sches Filter definiert
werden und ein Parameter P kann geeignet gesetzt wer
den:
W'(µ) = [H0(µ).|H(µ)|2]/[H(µ){|H(µ)|2 + P}] (8)
Ein Verfahren zur experimentellen Bestimmung eines
Rückgewinnungsfilters wird nun im folgenden beschrieben.
Ein Testbild mit einer ausreichend flachen Oberfläche
wird in einer festgelegten Position angeordnet und Bil
der werden mit vorgewählten Bedingungen eingegeben,
während die In-Fokus-Position geändert wird. Die einge
gebenen Bilder werden dann addiert. Ein auf die Ober
fläche des Testbildes fokussiertes Bild wird ebenfalls
eingegeben. Die Summe der eingegebenen Bilder während
der Änderung der In-Fokus-Position wird von einem geeig
neten Rückgewinnungsfilter ausgefiltert. Das gefilterte
Bild wird mit dem auf das Testbild fokussierte Bild
verglichen. Das Rückgewinnungsfilter wird einjustiert,
um das Summenbild und das auf das Testbild fokussierte
Bild gleich zu machen und dann werden diese Bilder wie
der miteinander verglichen. Diese Läufe werden wieder
holt, um ein geeignetes Rückgewinnungsfilter zu erhal
ten. Dieses Verfahren ist sehr effektiv und in der Pra
xis gut anwendbar.
Oben wurden Verfahren zur Erhaltung der Gewinnungsfilter
mittels Simulation und Experiment beschrieben. Das
Rückgewinnungsfilter muß nicht die Frequenzcharakteri
stiken entsprechend dem In-Fokus-Zustand rückgewinnen.
Beispielsweise kann das Rückgewinnungsfilter so betrie
ben werden, daß eine Betonung, z. B. einer Hochfre
quenzkomponente erhalten wird, um einen besseren Kon
trast zu gewinnen. Im Gegensatz hierzu kann das Rückge
winnungsfilter so betrieben werden, daß ein Bild mit
einem guten Weichfokus-Effekt (soft focus effekt)
erhalten wird.
Fig. 12 zeigt die Anordnung einer siebten Ausführungs
form der vorliegenden Erfindung. Diese Ausführungsform
stellt beispielshaft die Anwendung der vorliegenden Er
findung (insbesondere deren zweiter Ausführungsform) bei
einem Reflektionsmikroskop dar. Gemäß Fig. 12 wird Licht
von einer Beleuchtungsquelle 100 emittiert, von einer
Beleuchtungsanordnung 101 nach unten geführt und durch
eine Objektivlinse 102 auf die Oberfläche einer zu un
tersuchenden Probe abgestrahlt. Ein von der Probe re
flektiertes Bild des Lichtes wird von der Objektivlinse
102 fokussiert und von einer TV-Kamera 104 dargestellt,
welche am oberen Ende eines Linsentubus 103 angeordnet
ist. In diesem Falle wird eine In-Fokus-Ebene für die
Probe kontinuierlich von einem Fokuspegeltreiber 105
geändert, was innerhalb einer festgelegten Zeitdauer
erfolgt. Die eingegebenen Bilder während dieser Zeit
dauer werden in einem lichtempfangenen Element der
TV-Kamera 104 akkumuliert. Die Probe wird von einem
X-Y-Kontroller 106 in X und Y-Richtungen bewegt. Die
innerhalb der festgelegten Zeitdauer abgespeicherten
Bilder werden von einem Leser in der Kamera 104 ausge
lesen und als elektrisches Signal einem Kameratreiber
107 übertragen. Der Kameratreiber 107 steuert auch die
Energiezufuhr oder dergleichen zu der Kamera 104. Ein zu
dem Kameratreiber 107 übertragenes Bildsignal wird
weiterhin einem Prozessor 108 zugeführt. Der Prozessor
108 weist unter anderem einen A/D-Wandler, einen Bild
speicher, eine Rückgewinnungs-Verarbeitungseinheit und
einen D/A-Wandler auf. Der Prozessor 108 führt eine
geeignete Rückgewinnungsverarbeitung des Bildsignals
durch. Das verarbeitete Ergebnis wird einem TV-Monitor
109 zugeführt und auf diesem dargestellt. Die obigen
Abläufe werden wiederholt durchgeführt für verschiedene
Bereiche zu untersuchenden Probe und der Steuerung des
X-Y-Kontrollers 106 und die verarbeiteten Ergebnisse
werden sequentiell angezeigt. Das Mikroskop bei dieser
Ausführungsform wird im wesentlichen vollständig von
einer Steuerung 110 gesteuert und Betriebsbedingungen
werden von einer Beobachtungsperson über ein Interface
111, wie beispielsweise einer Tastatur oder dergleichen
eingegeben.
Bei dieser Ausführungsform kann die Synthetisierung von
Bildern mit großen Brennpunktsabständen relativ leicht
durchgeführt werden, während Auflösung und Helligkeit
des Objektes im Mikroskop aufrechterhalten werden. Wenn
mit dem Mikroskop eine sehr kleine Struktur untersucht
werden soll, muß eine Objektivlinse mit einer hohen
Vergrößerung verwendet werden. Im allgemeinen, je hoher
die Vergrößerung wird, umso größer wird die numerische
Apertur und umso geringer wird der Brennpunktsabstand.
In diesem Fall kann diese Ausführungsform als eine ef
fektive Maßnahme zur Anzeige eines Bildes mit einem ge
ringen Brennpunktsabstand verwendet werden. Insbesonde
re, wenn der Fokuspegeltreiber 105 und der Prozessor 108
mit hoher Geschwindigkeit betrieben werden, kann ein
Bild in Echtzeit dargestellt werden, so daß die Vor
richtung in der Praxis sehr effizient ist. Die Anordnung
der vorliegenden Erfindung kann in einer Mehrzahl von
Anwendungsfällen bei der Beobachtung verschiedener Arten
von Objekten verwendet werden, beispielsweise in der
Mineralogie, der Papiertechnik, der Fasertechnik, bei
lebenden Organismen oder beim Test von integrierten
Schaltkreisen oder großen integrierten Strukturen.
Die Erläuterung dieser Ausführungsform erfolgt anhand
eines Reflektionsmikroskopes. Die vorliegende Erfindung
ist jedoch auch bei einem Transmissionsmikroskop mög
lich, sowie bei einem Fluoreszenzmikroskop oder der
gleichen. In dem Prozessor 108 kann ein Addierer vorge
sehen sein, um die Bilder einzugeben und zu addieren,
ähnlich wie in der ersten Ausführungsform der vorlie
genden Erfindung.
Die Fig. 13A bis 13C zeigen in ihrer Gesamtheit eine
achte Ausführungsform der vorliegenden Erfindung. Diese
Ausführungsform veranschaulicht die Anwendung der vor
liegenden Erfindung bei einem oberflächensequentiellen
elektronischen Endoskop. Gemäß den Fig. 13A bis 13C
weist die Vorrichtung im wesentlichen eine Endoskopsonde
200, eine Bildeingabeeinheit 201, eine Farbfehlausrich
tung-Korrektureinheit 202, einen Farbinformationsauf
zeichner 203, eine Brennpunktsabstand-Erhöhungseinheit
204, eine Bildanzeigeeinheit 205 und eine Steuerung 206
auf.
Eine monochromatische Bildaufnahmevorrichtung auf Halb
leiterbasis, wie beispielsweise eine CCD ist am distalen
Ende der Endoskopsonde 200 angeordnet und nimmt ein Bild
auf, das von einer Objektivlinse auf einen In-Fokus-Po
sitionssteuerer 211 fokussiert wird. In diesem Falle
wird ein Illuminationslicht wie folgt emittiert: Licht
von einer weißen Beleuchtungsquelle 212, wie beispiels
weise einer Xe-Lampe in der Bildeingabeeinheit 201 läuft
durch einen drehenden Farbfilter 213 und wird durch eine
Lichtquelle 214, wie einer optischen Faser oder dergl.
durch die Endoskopsonde 200 geführt. Das Licht wird dann
vom distalen Ende der Sonde abgestrahlt.
Fig. 14 zeigt eine Draufsicht auf den Aufbau des dre
henden Farbfilters 213. Gemäß Fig. 14 sind Transmis
sions-Filterelemente 213R, 213G und 213B umfangsseitig
abwechselnd angeordnet und haben die Farben rot (R),
grün (G) und blau (B).
Wieder unter Bezugnahme auf die Fig. 13A bis C, wird das
drehende Farbfilter 213 von einem Motor 213M in der
Bildeingabeeinheit 201 angetrieben, so daß das Beleuch
tungslicht sequentiell in der Reihenfolge von R, G und B
geändert wird. Aus diesem Grund erzeugt eine Abbil
dungsvorrichtung 210 ein monochromatisches Bild des Ob
jektes in der Reihenfolge der oben erwähnten Farben. Ein
Ausgangsbildsignal von der Abbildungsvorrichtung 210
wird von einem A/D-Wandler 215 in der Bildeingabeeinheit
201 in ein digitales Signal umgesetzt und die digitalen
Signale werden in entsprechenden Bereichen eines Rah
menbildspeichers 217 (frame memory) mittels eines Se
lektors in den einzelnen Farbkomponenten R, G und B ab
gespeichert. Die beschriebenen Abläufe werden von einer
Bildeingabesteuerung 218 gesteuert. Von den Primärfarb
bildern, die sequentiell in den entsprechenden Bereichen
des Bildspeichers 217 gespeichert sind, werden die Kom
ponenten R und G oder die Komponenten G und B von einem
weiteren Selektor 219 ausgewählt. Die Ausgangssignale
des Selektors 219 werden der Farbfehlausrichtung-Kor
rektureinheit 202 zugeführt und einem Detektor 220 für
den einem Primärbild entsprechenden Bereich zugeführt.
Der Fehlausrichtungsbetrag des Bildes R oder B bezüglich
des Bildes G wird von dem Detektor 220 lokal erfaßt. Ein
Adressengenerator 221 erzeugt ein Adressensignal zur
Korrektur der Bilder R und B auf der Grundlage des Fehl
ausrichtungsbetrages, der von dem Detektor 220 berechnet
wurde. Dieses Adressensignal wird dem Rahmenbildspeicher
217 zugeführt. Der Rahmenbildspeicher 217 korrigiert die
Bilder R und B unter Verwendung des Adressensignales und
eines Pufferspeichers.
Ein Farbbild, das so erhalten wurde, wird dem Farbin
formationsaufzeichner 203 über den Selektor 219 zuge
führt. Das dem Informationsaufzeichner 203 zugeführte
Farbbild wird den entsprechenden Farbkomponenten mittels
eines Addierers 222 hinzuaddiert, wodurch ein Hellig
keitswert Y = R + G + B berechnet wird. Die Farbkompo
nentenwerte R, G und B werden mittels Teilern 223-1 bis
223-3 durch den Helligkeitswert Y dividiert. Die Quo
tienten R/Y, G/Y und B/Y werden in entsprechenden Spei
chern 224-1 bis 224-3 abgespeichert.
Die in dem Speicher 217 in der Bildeingabeeinheit 201
abgespeicherten Bilder R, G und B werden der Brennpunkt
abstands-Erhöhungseinheit 204 zugeführt und durch einen
Addierer 225 miteinander addiert. Die Summe wird in ei
nem weiteren Rahmenbildspeicher 226 gespeichert. Das in
dem Rahmenbildspeicher 226 gespeicherte Bild wird einer
Rückgewinnungs-Verarbeitung mittels einer Rückgewin
nungsverarbeitungseinheit 227 unterworfen. Ein Prozeßer
gebnis von der Rückgewinnungs-Verarbeitungseinheit 227
wird wieder in dem Rahmenbildspeicher 226 gespeichert.
Das in dem Speicher 226 gespeichert Bild wird dann dem
Farbinformationsaufzeichner 203 zugeführt.
Das dem Farbinformationsaufzeichner 203 zugeführte
Bildsignal und die in den Speichern 224-1 bis 224-3 ge
speicherten Farbinformationen werden durch Multiplizie
rer 228-1 bis 228-3 in Farbkomponenten-Einheiten multi
pliziert. Die Produkte von den Multiplizierern 228-1 bis
228-3 werden dann der Bildanzeigeeinheit 205 zugeführt.
Die von den Multiplizierern 228-1 bis 228-3 der Bildan
zeigeeinheit 205 zugeführten Signale werden von D/A-
Wandlern 229-1 bis 229-3 in Analogsignale umgesetzt.
Diese Analogsignale werden dann auf einem TV-Monitor 230
angezeigt. Die Bildverarbeitungs- und Anzeigeeinheiten
werden von der Steuerung 206 gesteuert.
Diese Ausführungsform verwendet die starke Korrelation
zwischen den drei Primärfarbbildern (R, G und B) und der
Bilddefokussierung, welche in den meisten Fällen abhän
gig ist von der Helligkeit der Farbinformation. Wenn die
vorliegende Erfindung bei einem oberflächensequentiellen
elektronischen Endoskop angewandt wird, werden Bilder
mit verschiedenen In-Fokus-Positionen in Einheiten der
Primärfarbbilder eingegeben und addiert und das synthe
tisierte Bild wird dem Rückgewinnungsprozeß unterworfen.
Die Arbeitsweise dieser Ausführungsform wird im folgen
den beschrieben. Farbbilder R, G und B werden sequen
tiell von der Bildeingabeeinheit 201 eingegeben. Wenn in
diesem Falle die Endoskopsonde 200 selbst abrupt bewegt
wird, weichen die Relativlagen der entsprechenden Pri
märbilder voneinander ab, so daß eine sogenannte Farb-
Fehlausrichtung entsteht. Die Farbfehlausrichtung-Kor
rektureinheit 202 erhält Fehlausrichtungs-Beträge der
Bilder R und B bezüglich des Bildes G durch Berechnung
von Anpassungswerten der lokalen und partiellen Bilder.
Die Bilder R und B werden auf der Grundlage der Farb
fehlausrichtungs-Beträge korrigiert. Ein Farbbild bei
einer vorgegebenen In-Fokus-Position wird durch das er
wähnte Verfahren eingegeben. In diesem Zustand werden
die Werte R, G und B durch den Helligkeitswert Y = R + G
+ B von dem Farbinformationsaufzeichner 203 normali
siert. Die resultierenden Daten R/Y, G/Y und B/Y werden
aufgezeichnet. Wenn eine Mehrzahl von Primärfarbbildern
mit unterschiedlichen In-Fokus-Positionen eingegeben
wird, werden diese Bilder einer Farbfehlausrichtungs-
Korrektur unterworfen und dann miteinander addiert. Die
Summe der Bilddaten wird dann dem Rückgewinnungs-Prozeß
unterworfen, so daß ein Bild mit einer Helligkeit Y' und
einem hohen Brennpunktsabstand erhalten werden kann.
Schließlich wird das Bild Y' mit den Farbdaten R/Y, G/Y
und B/Y multipliziert, um ein Farbbild mit einem hohen
Brennpunktsabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein Bild mit
einem hohen Brennpunktsabstand relativ leicht als En
doskopbild erhalten werden kann. Eine Objektivlinse mit
einer großen numerischen Apertur kann verwendet werden,
so daß die Leistung der Beleuchtungslichtquelle verrin
gert werden kann. Wenn zusätzlich die erwähnte Objek
tivlinse verwendet wird, kann die optische Speicherzeit
der Abbildungsvorrichtung verkürzt werden, so daß Ein
flüsse hinsichtlich einer Farbfehlausrichtung minimiert
werden.
Bei der beschriebenen Ausführungsform kann die folgende
Modifikation zur Anwendung gelangen: Bilder R, G und B,
die sequentiell eingegeben werden, werden zu dem
synthetisierten Bild hinzuaddiert, das in dem Rahmen
bildspeicher 226 gespeichert ist. Auf diese Weise können
Bilder mit drei oder mehr unterschiedlichen In-Fokus-Po
sitionen verwendet werden, um ein Bild mit einem großen
Brennpunktsabstand zu erhalten. In diesem Falle wird
eine Lageabweichung zwischen dem Bild in dem Rahmen
bildspeicher 226 und einem neu eingegebenen Bild G durch
die Korrektureinheit 202 korrigiert. Wenn eine Bildein
gabe mit hoher Geschwindigkeit durchgeführt werden kann
und die Farbabweichung vernachlässigbar ist, kann auf
die Farbfehlausrichtung-Korrektureinheit 202 verzichtet
werden. Weiterhin werden die entsprechenden Primärfarb
bilder eingegeben und addiert in der gleichen Weise wie
in der ersten oder zweiten Ausführungsform, um ein Bild
mit großem Brennpunktabstand in Einheiten der Primär
farbkomponenten zu erhalten.
Fig. 15 zeigt eine neunte Ausführungsform der vorlie
genden Erfindung. Diese Ausführungsform veranschaulicht
ein elektronisches Endoskop mit einer Farbbild-Abbil
dungsvorrichtung des Single-Plate-Typs. Gemäß Fig. 15
weist eine Abbildungsvorrichtung 302 auf Halbleiterbasis
eine lichtempfindliche Oberfläche auf, welche mit einem
Farbmosaikfilter 301 bestehend aus R, G und B Filterele
menten abgedeckt ist und welche am distalen Ende einer
Endoskopsonde 300 angeordnet ist. Ein von einer Objek
tivlinse in einer Brennpunktlagensteuerung 303 fokus
siertes Bild wird von der Abbildungsvorrichtung 302
dargestellt. In diesem Falle wird ein Beleuchtungslicht
wie folgt erhalten: Licht von einer Weißlichtquelle 305
in der Vorrichtung wird in die Endoskopsonde 300 mittels
eines Lichtleiters 304 geführt und vom distalen Ende der
Sonde abgestrahlt. Ein Ausgangssignal von der Abbil
dungsvorrichtung 302 wird in die Vorrichtung geführt und
in Signale R, G und B mittels eines Farbtrennschalt
kreises 306 geteilt. In dieser Ausführungsform wird an
genommen, daß das Farbmosaikfilter 301 Filterelemente R,
G und B hat. Das Farbmosaikfilter 301 kann jedoch auch
Komplementärfarbfilterelemente (z. B. Cyan und Gelb) ha
ben. In jedem Fall wird das durch das Farbmosaikfilter
301 erhaltene Farbsignal von dem Farbtrennschaltkreis
306 getrennt. Die abgetrennten Signale R, G und B werden
in einen Matrixschaltkreis 307 eingegeben und in Signale
Y, R-Y und B-Y gewandelt. Die Signale Y, R-Y und B-Y
werden von A/D-Wandlern 308-1 bis 308-3 in Digitalsi
gnale umgesetzt. Diese digitalen Signale werden in Rah
menbildspeichern 310-1 bis 310-3 gespeichert. In diesem
Falle werden die digitalen Signale zu Signalen hinzuad
diert, die bereits in den Speichern 310-1 bis 310-3
aufgezeichnet sind, was durch Addierer 309-1 bis 309-3
erfolgt. Mit anderen Worten, eine akkumulative Addi
tion/Aufzeichnung wird durchgeführt. Bei dieser Anord
nung werden die Bilder mit unterschiedlichen In-Fokus-
Positionen eingegeben und miteinander addiert, was unter
Steuerung der Brennpunktlagensteuerung 303 in der En
doskopsonde 300 erfolgt.
Das Bildsignal Y in dem Bildrahmenspeicher 310-1 wird
einem Rückgewinnungsvorgang mittels einer Rückgewin
nungs-Verarbeitungseinheit 311 unterworfen. Das so zu
rückgewonnene Signal wird wieder in dem Speicher 310-1
gespeichert. Darauffolgend werden die entsprechenden
Signale in den Rahmenbildspeichern 310-1 bis 310-3 durch
D/A-Wandler 312-1 bis 312-3 in Analogsignale umgesetzt.
Die Analogsignale werden in ein NTSC-Signal durch einen
NTSC-Encoder 313 gewandelt. Das NTSC-Signal wird auf
einem TV-Monitor 314 angezeigt. Die erwähnten Prozeßab
läufe werden von einer Steuerung 315 überwacht und ge
steuert.
Bei dieser Ausführungsform wird die Helligkeitskompo
nente Y des endoskopischen Bildes von der Abbildungs
vorrichtung 302 unter Verwendung des Farbmosaikfilters
301 extrahiert, wonach eine Prozeßverarbeitung abläuft,
um den Brennpunktsabstand zu erhöhen. Danach wird die
durchschnittliche Farbinformation addiert, um ein Farb
bild zu reproduzieren und anzuzeigen. Genauer gesagt,
die Helligkeitskomponenten Y der Bilder an unterschied
lichen Brennpunktslagen werden von der Brennpunktsla
gensteuerung 303 in der Endoskopsonde 300 gesteuert und
akkumulativ addiert und von dem Addierer 309-1 und
Speicher 310-1 addiert und aufgezeichnet. Die Rückge
winnungs-Filterverarbeitung des aufgezeichneten Bildes
wird von der Verarbeitungseinheit 311 durchgeführt, so
daß der Brennpunktsabstand erhöht wird. Zwischenzeitlich
wurden die Signale R-Y und B-Y als Farbkomponenten ak
kumuliert, addiert und aufgezeichnet durch den Addierer
309-2 und den Speicher 310-2 bzw. den Addierer 309-3 und
den Speicher 310-3, so daß Durchschnittsfarbdaten zwi
schen Bildern unterschiedlicher Brennpunktslagen erhal
ten wurden. Diese Daten werden addiert und als ein
NTSC-Signal ausgegeben. Daher kann ein Farbbild mit ei
nem hohen Brennpunktsabstand erhalten werden. Eine De
fokussierung verursacht durch eine Außerbrennpunktslage
hängt zumeist von der Helligkeitskomponente ab und
leichte Defokussierung berührt das Bild nicht in einer
negativen Art und Weise. Somit kann durch Durchführung
der oben erwähnten Prozeßabläufe das vorgewählte Objekt
befriedigend dargestellt werden. Bei dieser Ausfüh
rungsform kann der gleiche Effekt wie in der achten
Ausführungsform bei einem elektronischen Endoskop mit
eine Farbabbildungsvorrichtung erhalten werden.
Fig. 16 zeigt eine zehnte Ausführungsform der vorlie
genden Erfindung. Diese Ausführungsform verwendet eben
falls ein elektronisches Endoskop mit einer Farb-Bild
erzeugungsvorrichtung des Single-Plate-Typs, wie in der
neunten Ausführungsform. Gemäß Fig. 16 sind der Aufbau
der Endoskopsonde 300 und die Anordnung der Weißlicht
quelle 305 gleich wie in der neunten Ausführungsform.
Ein Signal von der Abbildungsvorrichtung 302 wird durch
den Farbtrennschaltkreis 306 in Signale R, G und B ge
trennt. Die farbgetrennten Signale werden durch den Ma
trixschaltkreis 307 in Signale Y, R-Y und B-Y konver
tiert. Die Signale Y, R-Y und B-Y werden von dem
NTSC-Encoder 313 in NTSC-Signale konvertiert. Dieses
NTSC-Signal wird dann durch den A/D-Wandler 308 in ein
digitales Signal umgesetzt. Dieses digitale Signal wird
durch einen Addierer 316 zu einem Signal hinzuaddiert,
das bereits in einem Rahmenbildspeicher 318 vorgespei
chert ist. Diese Summe wird dann in dem Rahmenbildspei
cher 318 wieder über einen Selektor 317 aufgezeichnet.
Mit dieser Anordnung werden Bilder mit unterschiedlichen
Brennpunktlagen, gesetzt durch die Brennpunktlagen
steuerung 303 in der Endoskopsonde 300 eingegeben und
miteinander addiert. Nur das Signal Y von dem Bildsi
gnal, d. h. dem digitalen NTSC-Signal entsprechend dem
synthetisierten Bild in dem Bildrahmenspeicher 318 wird
extrahiert. Das extrahierte Signal Y wird durch eine
RückgewinnungsVerarbeitungseinheit 320 einem geeigneten
Rückgewinnungsprozeß unterworfen, um eine räumliche
Filterung mittels eines kanalisierten Schemas (pipelined
scheme) durchzuführen. Das rückgewonnene Y-Signal wird
von einem Addierer 321 dem originalen NTSC-Signal hin
zuaddiert, wobei die zeitliche Steuerung von einem Ver
zögerungsschaltkreis 322 eingestellt wird, so daß ein
NTSC-Signal mit einem großen Brennpunktsabstand erhalten
wird. Das NTSC-Signal wird in dem Rahmenbildspeicher 318
über den Selektor 317 gespeichert. Das verarbeitete Bild
in dem Bildrahmenspeicher 318 wird von dem D/A-Wandler
312 in ein Analogsignal umgesetzt und dieses Analogsi
gnal wird auf dem TV-Monitor 314 dargestellt. Die oben
beschriebenen Abläufe werden von der Steuerung 315 ge
steuert.
Die Farbbildsignale, die in der NTSC-Signal umgewandelt
wurden, werden eingegeben und miteinander addiert unter
Verwendung eines Rahmenbildspeichers. Der gleiche Effekt
wie in der neunten Ausführungsform kann erhalten werden,
wobei jedoch die Vorrichtungsgröße reduziert werden
kann.
Fig. 17 zeigt eine elfte Ausführungsform der vorliegen
den Erfindung. Diese Ausführungsform verwendet ein En
doskop (Fibroskop) mit einem optischen Faserbündel. Ge
mäß Fig. 17 weist eine Endoskopsonde 400 eine In-Fo
kus-Positionssteuerung 401 und einen Bildleiter 402 auf.
Die Positionssteuerung 401 umfaßt eine Objektivlinse und
einen Treiber zur kontinuierlichen Änderung der In-Fo
kus-Position. Der Bildleiter 402 ist aus einem optischen
Faserbündel aufgebaut. Die Endoskopsonde 400 überträgt
optisch das Bild. In diesem Falle wird ein Beleuch
tungslicht wie folgt emittiert: Weißlicht von einer Be
leuchtungseinrichtung 404 wird in die Endoskopsonde 400
mittels eines Lichtleiter 403 emittiert und vom distalen
Ende der Sonde als Ausgangslicht abgestrahlt. Eine Ka
mera 405 ist am oberen Ende der Endoskopsonde 400 an
geordnet. Die Kamera 405 zeichnet ein Bild auf, welches
durch den Bildleiter 402 übertragen wurde, wobei die
Aufzeichnung auf einem Silberchloridfilm erfolgt. Wenn
bei dieser Anordnung die In-Fokus-Position kontinuier
lich durch die Positionssteuerung 401 geändert wird,
werden die Bilder in der Kamera 405 auf dem Silberchlo
ridfilm addiert und aufgezeichnet.
Fig. 18 zeigt eine Anordnung einer Vorrichtung zum op
tischen Rückgewinnen der auf dem Silberchloridfilm auf
gezeichneten Bilder. Eine Multispektrum-Beleuchtungs
quelle 500 ist eine Weißlichtquelle mit einem gleichmä
ßigen Spektrum in dem sichtbaren Lichtbereich oder eine
Lichtquelle zur Erzeugung eines Mischlichtes der drei
Primärfarben (R, G und B) oder von Lichtstrahlen mit
unterschiedlichen Wellenlängenbereichen in Zeitinter
vallen. Licht von der Beleuchtungsquelle 500 wird auf
einen Schlitz 502 mittels einer Kollimatorlinse 501 fo
kussiert und dient als annähernde Punktlichtquelle.
Licht, das durch den Schlitz 502 läuft, wird durch eine
Linse 503 zu einem parallelen Lichtbündel und fällt auf
einen Farbfilm 504, auf den die Bilder der Kamera 405
aufgezeichnet sind. Das Licht, welches durch den Farb
film 504 hindurchtritt, wird von einer Linse 505 fokus
siert. Das fokussierte Licht wird durch ein Farb-Orts
frequenzfilter 506 in der Brennpunktebene der Linse 505
geeignet gefiltert. Das gefilterte Licht wird von einer
Linse 507 kollimiert und somit das Bild reproduziert.
Das reproduzierte Bild wird mittels einer Kamera 508 auf
dem Silberchloridfilm aufgezeichnet. Das reproduzierte
Bild kann auch in ein elektrisches Signal gewandelt
werden und in einem Speicher aufgezeichnet werden.
In dieser Ausführungsform werden die eingegebenen Bilder
wie in der zweiten Ausführungsform überlagert und auf
dem Silberchloridfilm aufgezeichnet. Die auf dem Farb
silberchloridfilm aufgezeichneten Bilder werden dann
einer Rückgewinnungsfilterung durch ein optisches System
unterworfen, das in Fig. 18 dargestellt ist.
Der optische Rückgewinnungsvorgang gemäß Fig. 18 wird
nun im folgenden erläutert. Ein auf dem Farbfilm 104
aufgezeichnetes endoskopisches Bild wird durch die Linse
505 optisch einer Fourier-Transformation unterworfen und
von dem Frequenzfilter 506 bei einer geeigneten Orts
frequenz gefiltert. Ein von dem Fibroskop erhaltenes
Bild besteht im allgemeinen aus Pixeln, welche den ein
zelnen optischen Fasern entsprechen. Daher hat das Bild
eine netzartige Struktur, wie in Fig. 19 dargestellt.
Eine Rückgewinnungsfilterung des Ortsfrequenzfilters 506
und eine Elimination der Netz- oder Rasterstruktur 510
werden gleichzeitig durchgeführt. Ein Fourier-Spektrum
eines Fibroskopbildes, das in einer Brennpunktsebene der
Linse 505 erscheint, ist in Fig. 20 dargestellt. Ein
Spektrum 511 nullter Ordnung des Bildes selbst erscheint
im Mittenbereich und Spektren 512 höherer Ordnung, wel
che von der optischen Faseranordnung entspringen, er
scheinen im Umfangsbereich. Gemäß Fig. 21 ist ein Filter
520 mit einer Amplituden-Durchlässigkeit angeordnet, um
einen Rückgewinnungsvorgang des Spektrums 511 nullter
Ordnung in dem Mittenbereich 521 durchzuführen und um
die Spektren 512 höherer Ordnung am Umfangsbereich 522
abzuschneiden, wobei dieses Filter als Filter 506 ver
wendet wird. Mit dieser Anordnung kann ein Bild mit ei
nem hohen Brennpunktsabstand und ohne die Netz- oder
Rasterstruktur 510 wiedergegeben werden. Da das Rückge
winnungsfilter keine maximale Amplitudendurchlässigkeit
von 1 oder mehr haben muß, kann das Rückgewinnungsfilter
so ausgelegt sein, daß die Amplitudendurchlässigkeit in
einem niederen Ortsfrequenzbereich relativ limitiert
wird. Da die Multispektrum-Beleuchtungsquelle in Fig. 18
verwendet wird, sind die Spektren der Linse 505 in der
Brennpunktebene unterschiedlich in ihren Lagen abhängig
von den Wellenlängen. Das Farb-Ortsfrequenzfilter 506
ist aus einem Farbumkehrfilm gebildet, der eine Spek
tralcharakteristik hat, die es erlaubt, daß die entspre
chenden Spektren ausreichend ausgefiltert werden.
Ein Verfahren zu optischen Durchführung des Rückgewin
nungsvorganges gemäß dieser Ausführungsform ist im De
tail in der JP-OS 61-227454 beschrieben.
Bei dieser Ausführungsform wird ein Fibroskopbild mit
einem größeren Brennpunktsabstand durch eine relativ
einfache Anordnung reproduziert. Auf gleiche Weise wie
in der achten Ausführungsform kann die Leistung der Be
leuchtungslichtquelle reduziert werden. Bei dieser Aus
führungsform wird das Bild des Fibroskopes auf einem
Silberchloridfilm durch die Kamera 405 aufgezeichnet. Es
kann jedoch anstelle der Kamera 405 auch eine TV-Kamera
verwendet werden, um ein Signal elektronisch zu verar
beiten und das Bild aufzuzeichnen. Genauer gesagt, das
von der TV-Kamera erhaltene Bild kann durch einen A/D-
Wandler in ein Digitalsignal mit einer Abtasthöhe ge
wandelt werden, die ausreichend kleiner ist als die der
Netz- oder Rasterstruktur des Fibroskops. Für das digi
tale Bild können dann die gleichen Verarbeitungen wie in
der beschriebenen Ausführungsform durchgeführt werden.
Fig. 22 zeigt eine zwölfte Ausführungsform der vorlie
genden Erfindung. Diese Ausführungsform verwendet eine
elektronische Kamera, welche wiederum die vorliegende
Erfindung verwendet. Diese Ausführungsform entspricht
einer Anordnung, in welcher die Bildeingabeeinheit und
die Bildverarbeitungseinheit gemäß der dritten Ausfüh
rungsform über ein Aufzeichnungsmedium off-line verbun
den sind. Gemäß Fig. 22 wird eine Mehrzahl von Bildern,
die durch eine elektronische Kamera erhalten werden und
in verschiedenen Brennpunkten fokussiert sind, der Ka
mera 600 als elektrische Signale eingegeben. Alle ein
gegebenen elektrischen Signale werden in einem Auf
zeichnungsmedium 601 in der Kamera 600 aufgezeichnet.
Das Aufzeichnungsmedium 601 ist eine floppy disk, ein
Magnetband, ein optischer Speicher, ein Speicher auf
Halbleiterbasis mit einem Halbleiter-IC oder einem
Dünnfilm oder dergl. Die auf dem Aufzeichnungsmedium 601
aufgezeichneten Bildsignale werden von einem Leser 602
gelesen. Die auf dem Bildaufzeichnungsmedium aufge
zeichneten Bildsignale sind Analogsignale. Ein A/D-Wand
ler ist in dem Leser 602 angeordnet, um die Bildsignale
in ein digitales Signal zu wandeln. Ein Prozessor 603
enthält die Speicher 5-1 bis 5-m, den Adressenkompensa
tor 12, den Selektor 13, den Addierer 14, den Speicher
15, die Rückgewinnungs-Verarbeitungseinheit 7, den
D/A-Wandler 8 und die Steuerung 10, die bereits unter
Bezugnahme der dritten Ausführungsform in Fig. 3 be
schrieben wurden. Die gleiche Verarbeitung wie in der
dritten Ausführungsform wird auch für ein digitales
Bildsignal durchgeführt, das von dem Leser 602 in dem
Prozessor 603 übertragen worden ist. Das verarbeitete
Bildsignal wird einem TV-Monitor 604 übertragen und dort
angezeigt. Die verschiedenen Bearbeitungszustände des
Prozessors 603 werden von einer Beobachtungsperson an
einem geeigneten Interface, wie beispielsweise einer
Tastatur 605 festgesetzt, welche mit einer Steuerung in
dem Prozessor 603 verbunden ist.
Bei dieser Ausführungsform wird die Mehrzahl von Bildern
mit unterschiedlichen In-Fokus-Positionen, die durch die
elektronische Kamera 600 abgebildet werden, erhalten, um
den gleichen Effekt wie in der dritten Ausführungsform
zu erzielen. Diese Ausführungsform verwendet die elek
tronische Kamera 600, welche wiederum in der dritten
Ausführungsform verwendet wird. Es kann jedoch jede der
ersten, zweiten, vierten, fünften und sechsten Ausfüh
rungsformen mit dieser Ausführungsform kombiniert wer
den. D. h., die Bilder mit unterschiedlichen In-Fokus-Po
sitionen in der Kamera werden eingegeben und miteinander
addiert und das synthetisierte Bild wird auf einem Auf
zeichnungsmedium abgespeichert. Nur die Rückgewin
nungs-Verarbeitung kann in einer On-Line-Verarbeitungs
einheit durchgeführt werden. In diesem Fall kann der
Aufbau der Vorrichtung noch weiter vereinfacht werden.
Wenn die vorliegende Erfindung bei einer Kamera ange
wendet wird, in der Bilder auf einem Silberchloridfilm
aufgezeichnet werden, können Bilder mit unterschiedli
chen In-Fokus-Positionen kontinuierlich aufgezeichnet
werden und der gleiche Prozeß wie in der zwölften Aus
führungsform kann durchgeführt werden. Weiterhin können,
wie in der elften Ausführungsform dargestellt, Bilder
mit unterschiedlichen Brennpunkten eingegeben und auf
dem Silberchloridfilm addiert werden und eine optische
oder elektrische Rückgewinnungs-Verarbeitung kann
durchgeführt werden.
Fig. 23 zeigt eine dreizehnte Ausführungsform der vor
liegenden Erfindung. Diese Ausführungsform verwendet ein
Reflektionsmikroskop, was die Anwendung der vorliegenden
Erfindung in der gleichen Weise möglich macht, wie in
der siebten Ausführungsform gemäß Fig. 12. Gemäß Fig. 23
wird Licht von einer Lichtquelle 700 durch eine geei
gnete Vorrichtung 701 nach unten geleitet und fällt
schließlich auf eine Probenoberfläche durch eine Objek
tivlinse 702. Ein Bild des von der Probe reflektierten
Lichtes wird auf die Objektivlinse 702 fokussiert und
von einer Kamera 704 aufgezeichnet, die auf einem Lin
sentubus 703 angeordnet ist. In diesem Falle wird die
Probe von einem Oszillator 706 in Vibration versetzt,
der an einem Objektträger 705 angeordnet ist. Die Vi
bration erfolgt bei einer festgelegten Frequenz in der
optischen Achse des Mikroskopes. Der Oszillator 706 wird
von einem Oszillatortreiber 707 mit einer geeigneten
Periode und Amplitude betrieben. Ein von der Kamera 704
erhaltenes Bildsignal wird einem Kameratreiber 708
übertragen. Der Kameratreiber 708 liefert auch die
Energie an die TV-Kamera 704. Das an den Kameratreiber
708 übertragene Bildsignal wird einer Steuerung 709 zu
geführt. Die Steuerung 709 beinhaltet einen A/D-Wandler,
einen Bildspeicher, eine Rückgewinnungs-Verarbeitungs
einheit und einen D/A-Wandler. Die Steuerung oder der
Prozessor 709 führt eine digitale Rückgewinnungs-Verar
beitung durch oder verursacht eine analoge Bandpaß- oder
Hochpaßfilterung für eine Rückgewinnungs-Verarbeitung.
Das Bildsignal von dem Prozessor 709 wird einem Monitor
710 übertragen und dort angezeigt.
Die Vorrichtung zur Überwachung einer Leistung eines
speziellen Ortsfrequenzbereiches im eingehenden Bildsi
gnal unter Verwendung eines Bandpaßfilters ist in dem
Prozessor 709 angeordnet. Somit kann die Amplitude des
Oszillators 706 automatisch bestimmt werden. Der Oszil
latortreiber 707 kann in Übereinstimmung mit den Be
stimmungsergebnissen betrieben werden.
Die dreizehnte Ausführungsform mit der obigen Anordnung
hat die folgende Wirkungsweise: Da in dieser Ausfüh
rungsform die TV-Kamera 704 angeordnet ist, um ein Ob
jekt einmal oder mehrmals mit einer speziellen Amplitude
zu oszillieren, während ein Ein-Rahmenbild oder ein
Ein-Feldbild eingegeben wird, können die Bilder mit un
terschiedlichen In-Fokus-Ebenen in einer Bildebene der
TV-Kamera akkumuliert werden. Die Anfangsamplitude des
Oszillators 706 kann durch das folgende Verfahren be
stimmt werden: Bilder werden eingegeben, während die
Amplitude geändert wird. Der Prozessor 709 überwacht
dann die Leistung der speziellen Ortsfrequenzregion des
Eingangsbildes. Eine Änderung der Leistung in der spe
ziellen Ortsfrequenz als Funktion der Amplitude ist in
Fig. 24 dargestellt. Wenn ein Amplitudenwert erhöht wird
aufgrund einer Struktur eines Objektes in einer Richtung
der Tiefe, sind viele Defokus-Komponenten in dem Bild
enthalten. Aus diesem Grund nimmt die Leistung ab. Ein
vorherbestimmter Schwellenwert TH wird geeignet festge
setzt und ein Amplitudenwert A entsprechend der Lei
stung, die geringer ist als der Schwellenwert TH wird in
der tatsächlichen Verarbeitung dann verwendet. In diesem
Falle kann ein klares Bild mit einem ausreichenden
Brennpunktsabstand bezüglich der Objektstruktur erhalten
werden. Das Verfahren zur Bestimmung des Akkumulations
bereiches kann auch bei der siebsten Ausführungsform
angewendet werden.
Diese Ausführungsform stellt einen ausreichenden Effekt
bei gleichzeitig einfachem Aufbau zur Verfügung. Wenn
die Wiedergewinnungs-Verarbeitung mit einer Videorate
durchgeführt wird, kann ein verarbeitetes Bild in Echt
zeit erhalten werden, was in der Praxis viele Vorteile
hat.
In der beschriebenen Ausführungsform wird das Objekt
oszilliert. Es kann jedoch auch eine Relaislinse oder
ein Abbildungselement in dem optischen System, z. B. die
Objektivlinse 702 oder der Linsentubus 703 oszilliert
werden. Diese Ausführungsform kann bei optischen Ausrü
stungsgegenständen, wie beispielsweise einer elektroni
schen Kamera oder einem Endoskop anstelle des Mikroskopes
angewendet werden, um das optische System oder ein Ab
bildungselement zu oszillieren.
Fig. 25 ist eine Darstellung einer vierzehnten Ausfüh
rungsform der vorliegenden Erfindung in Verbindung mit
einem Reflektionsmikroskop. Aus Gründen einer einfachen
Darstellung ist nur eine Beleuchtungsquelle 800, eine
Beleuchtungseinrichtung 801, eine Objektivlinse 802 und
ein Linsentubus 803 des Refektionsmikroskops darge
stellt. Eine Farb-Kamera 804 ist an dem Linsentubus 803
angeordnet. Ein Dynamikbereich einer Abbildungsvorrich
tung in der Farbkamera 804 sei auf 40 dB festgesetzt. Ein
drehender optischer Verschluß 805 ist in der Beleuch
tungseinrichtung 801 angeordnet. Der optische Verschluß
805 läßt Licht durch bzw. schattet Licht ab von der Be
leuchtungsquelle 800 und zwar zu festgelegten Zeit
punkten. Wie in Fig. 26 dargestellt, weist der drehende
optische Verschluß 805 Bereiche 805A bis 805C einer
Scheibe 805D auf, welche gleichmäßig unterteilt ist.
Fenster (gestrichelte Bereiche) a, b und c haben ein
Flächenverhältnis von 10.000 : 100 : 1 und sind in den
Bereichen 805A bis 805C ausgebildet. Wenn sich die
Scheibe 805D einmal pro 1/10 Sekunden dreht, was mittels
eines Motors 807 erfolgt, der von einem Motortreiber 806
angetrieben wird, fällt eine festgesetzte Lichtmenge auf
die Probe pro 1/30 Sekunden (d. h. einer Ein-Rahmen-Ab
tastzeit der Kamera). In diesem Fall fällt das Beleuch
tungslicht auf die Probe durch einen Halbspiegel 808 und
die Objektivlinse 802. Ein Bild des von der Probe re
flektierten Lichtes wird von der Farb-Kamera 804 abge
bildet, welche von einem Kameratreiber 809 gesteuert
wird. Ein Kolher'sches Illuminationssystem (nicht darge
stellt) bestehend aus einer Mehrzahl von Linsen und ei
ner Apertur ist in der Beleuchtungseinrichtung 801 ange
ordnet. Ein Treiber 810 für den Objektträger weist einen
Oszillator auf, (vgl. dreizehnte Ausführungsform) und
oszilliert einen Objektträer 811 wenigstens einmal pro
1/30 Sekunden mit einer festgelegten Amplitude. Die
Bilder mit unterschiedlichen In-Fokus-Ebenen können auf
der lichtempfindlichen Oberfläche der Farbkamera 804
akkumuliert werden. Auf diese Weise werden drei farbige
Rahmenbilder mit unterschiedlichen Belichtungsgraden
eingegeben. Diese Farbbilder werden einem Prozessor 820
als die drei Primärfarbsignale, d. h. als Signale R, G
und B zugeführt.
Die dem Prozessor 820 übertragenen Bildsignale werden
mittels eines A/D-Wandlers 821 in digitale Signale um
gesetzt. Von diesen umgewandelten digitalen Signalen
werden die Signale des ersten Rahmenbildes, d. h. die
Bildsignale, die durch das Fenster a des drehenden op
tischen Verschlusses 805 belichtet wurden und in dem
Prozessor 820 eingegeben wurden, durch einen Addierer
822 ohne Verarbeitung übertragen und in einem Rahmen
bildspeicher 823 gespeichert. Die Bildsignale des zwei
ten und dritten Rahmenbildes, d. h. die durch die Fenster
b und c des Verschlusses 805 belichteten Bildsignale,
die dem Prozessor 820 eingegeben wurden, werden durch
den Addierer 822 zu den Bildsignalen hinzuaddiert, die
bereits in dem Bildrahmenspeicher 823 gespeichert sind.
Die sich ergebende Summe wird wieder in dem Bildrahmen
speicher 823 gespeichert. Somit werden die drei Primär
farben (R, G und B) Bilddaten mit logarithmischen Cha
rakteristiken einer polygonalen Approximation in dem
Rahmenspeicher 823 gespeichert. Die Bilddaten logR, logG
und logB in dem Rahmenbildspeicher 823 werden in einen
Wert logY (Y = 0.3R + 0.59G + 0.11B) von einem logY-
Wandlerschaltkreis 824 konvertiert. Die konvertierten
Daten werden in einem anderen Rahmenbildspeicher 825
gespeichert. Das Bildsignal in dem Rahmenbildspeicher
825 wird einem Rückgewinnungs-Verarbeitungs-Schaltkreis
826 zugeführt. Das dem Schaltkreis 826 zugeführte Bild
signal wird einer geeigneten Filterung bezüglich einer
Ortsfrequenz unterworfen, wobei das Bildsignal loga
rithmische Charakteristiken hat. Das gefilterte Bildsi
gnal wird einem Steuerschaltkreis 827 für Dynamikbereich
und Verstärkung zugeführt. Das dem Rückgewinnungsprozeß
unterworfene Bildsignal logY' wird mit dem Verstär
kungssteuerungswert logb durch diesen Schaltkreis 827
addiert und gleichzeitig mit einem Dynamikbereich-Ein
stellwert a multipliziert, so daß ein Signal alogbY'
ausgegeben wird. Das Bildsignal alogbY' wird von einem
Logarithmus-Konverter 828 logarithmisch komprimiert und
als log(alogbY') ausgegeben. Dieser Ausgangswert wird
einem Subtrahierer 829 eingegeben und die Differenz
zwischen dem Signal log(alogbY'/Y) und dem Bildsignal
log(alogby') und dem Bildsignal logY wird von dem Sub
trahierer 829 berechnet. Die Differenz wird als Signal
log(alogY'/Y) ausgegeben. Das Ausgangssignal
log(alogbY'/Y) von dem Subtrahierer 829 wird durch Ad
dierer 830R, 830G und 830B zu den drei logarthmisch
komprimierten Primärfarbsignalen logR, logG und logB in
dem Speicher 823 addiert. Die sich ergebenden Summensi
gnale werden einem inversen Logarithmus-Konverter (Ex
ponential-Konverter) 831 zugeführt und die inverse lo
garithmische Konversion wird hierin durchgeführt, so daß
Ausgangssignale alogbY'/Y.R, alogbY'/Y.G und alogbY'/Y.B
ausgegeben werden. Diese berechneten Werte werden in
Videosignale R, B und G mittels eines D/A-Wandlers 832
umgesetzt und auf einem Monitor 833 dargestellt. Der
Prozessor 822 arbeitet hierbei auf der Basis eines Farb
logarithmus-Bildvideoprozessors gemäß der JP-OS
62-234133. Die Steuerung der Arbeitsweise dieser Vor
richtung mit dem obigen Aufbau wird durch eine Steuerung
834 durchgeführt. Prozeßbedingungen werden an einer
Beobachtungsperson von einem Interface 835 eingegeben,
welches mit der Steuerung 834 verbunden ist.
Die vier 92836 00070 552 001000280000000200012000285919272500040 0002003905619 00004 92717zehnte Ausführungsform mit dem erwähnten Aufbau
hat die folgende Wirkungsweise: Da diese Ausführungsform
ein Farblogarithmus-Abbildungssystem verwendet, können
sowohl ein Arbeitsgang zur Eingabe des Bildes mit einem
Dynamikbereich oberhalb der Leistung der Abbildungsvor
richtung der Kamera 804 und ein Arbeitsgang zur wirksa
men Durchführung eines Rückgewinnungsprozesses durch
logarithmisches Filtern gleichzeitig durchgeführt wer
den. Das logarithmische Farb-Abbildungssystem wird im
folgenden beschrieben. Hierfür sei angenommen, daß der
Dynamikbereich der Abbildungsvorrichtung in der TV-Ka
mera 804 als 40 dB gegeben ist. Wenn ein Objekt eine
Helligkeitsinformation hat, welche eine Abbildung in dem
Dynamikbereich von 40 dB nicht erlaubt, wird der Dyna
mikbereich erheblich erweitert, wie folgt: Das Objekt
wird mit einer ausreichendend hohen Belichtungsmenge
abgebildet und ein Bild mit Dunkelinformation wird ein
gegeben. In diesem Bild ist ein heller Bereich in der
Sättigung. Das Bild wird dann mit einer Belichtungsmenge
von 1/100 des vorher eingegebenen Bildes eingegeben. Von
den gesättigten Bereichen des vorher eingegebenen Bildes
können Informationen von 40 dB von einem dunkleren Be
reich erhalten werden. Auf ähnliche Weise wird ein Bild
mit einer Belichtungsmenge von 1/100 des vorher einge
gebenen Bildes eingegeben und ein Bild mit einer Infor
mation von 40 dB eines helleren Bereiches kann eingegeben
werden. Diese eingegebenen Bilder werden miteinander
addiert, um ein Bildsignal zu erhalten, welches lo
garithmische Charakteristiken einer polygonalen Annähe
rung hat. Somit kann dieses Bildsignal als ein Bildsi
gnal mit einem wesentlich erweiterten Dynamikbereich
verwendet werden. Zusätzlich wird, um die verarbeiteten
Bilder auszubalancieren nur eine logarithmische Kom
pression eines Helligkeitssignals Y durchgeführt. Um die
Einflüsse von Abschattungen und Sättigungen des Farb
bildes zu eliminieren, wird ein Kompressionsgrad logY/Y
des Helligkeitssignals Y mit den Signalen R, G und B
multipliziert, um die Signale logY/Y.R, logY/Y.G und
logY/Y.B zu erhalten. Diese Signale werden als die drei
Primärfarbsignale ausgegeben. In dieser Ausführungsform
werden Verstärkung und Dynamikbereiche einer Anzeige
gesteuert, um die drei Primärfarbsignale bestehend aus
alogY/Y.R, alogY/Y.G und alogbY/Y.B auszugeben. Diese
Steuerung von Verstärkung und Dynamikbereich kann ma
nuell oder automatisch durchgeführt werden. Details des
erwähnten logarithmischen Farbkompressionssystems sind
in der JP-OS 62-234133 beschrieben.
Eine Funktion zur Erhaltung einer Ortsfrequenzfilterung,
d. h. einer logarithmischen Filterung des Helligkeitssi
gnales logY mit logarithmischen Charakteristiken wird
nun im folgenden beschrieben:
Eine Verteilungsfunktion des reflektierten Lichtes ist
wie folgt definiert:
Y(Γ) = L(Γ).R(Γ) (a)
wobei Y(Γ): Verteilungsfunktion des reflektierten Lich
tes;
L(Γ): Verteilungsfunktion der Beleuchtungsfunk tion; und
R(Γ): Reflektivitäts-Verteilungsfunktion eines Objektes.
L(Γ): Verteilungsfunktion der Beleuchtungsfunk tion; und
R(Γ): Reflektivitäts-Verteilungsfunktion eines Objektes.
Wenn die rechten und linken Seiten logarithmisch kon
vertiert werden, ergibt sich die folgende Gleichung:
LogY(Γ) = logL(Γ) + logR(Γ) (b)
Bei einer optischen Ausrüstung mit keinem Beleuchtungs
licht oder keiner Beleuchtungseinrichtung hat die Funk
tion L(Γ) entsprechend der Verteilung von natürlichem
Licht oder externem Beleuchtungslicht hauptsächlich eine
Niederortsfrequenz-Komponente. Im Gegensatz hierzu hat
die Reflektivitäts-Verteilungsfunktion R(Γ) hauptsäch
lich eine Komponente von niederen bis mittleren Orts
frequenzen. Ein Filter mit Charakteristiken gemäß Fig.
27 ist angeordnet, um Ungleichmäßigkeiten des Beleuch
tungslichtes der Niederortsfrequenz-Komponente und einen
Hochortsfrequenz-Bereich, in dem Rauschkomponenten vor
herrschend sind, abzuschneiden. Somit kann ein Bereich
entsprechend der Struktur des Objektes betont werden.
Somit wird unter Verwendung des logarithmischen Filterns
eine noch wirksamere Rückgewinnung durchgeführt. Orts
frequenzwerte fl und fh in Fig. 27 können von einer
Beobachtungsperson an dem Interface 835 beliebig gesetzt
werden, während die Prozeßergebnisse beobachtet werden.
Wenn alternativ die Bildtypen limitiert sind und die
Charakteristiken bekannt sind, können die Ortsfrequenz
werte vorgewählt werden.
Gemäß dieser Ausführungsform kann, selbst wenn die Ab
bildungskamera einen niederen Dynamikbereich hat, ein
Bild mit einem im wesentlichen hohen Dynamikbereich
erhalten werden. Im allgemeinen wird bei einer Kamera
mit einem geringen Dynamikbereich eine Akkumulation auf
der lichtempfindlichen Oberfläche durchgeführt und nur
eine Durchschnittsintensität (Frequenzintensität nullter
Ordnung) des Bildes wird erhöht. Daten des Hochortsfre
quenz-Bereiches werden unerwünschterweise mit Rauschen
derart gemischt, daß eine Rückgewinnung nicht möglich
wäre. Dieser Nachteil wird bei der vorliegenden Ausfüh
rungsform eliminiert. Eine Bildkomponente des Hochorts
frequenz-Bereiches kann mit einem gewünschten Signal-
Rauschabstand eingegeben werden, während es akkumuliert
wird. Eine wirksamere Rückgewinnungs-Verarbeitung kann
durchgeführt werden und durch das logarithmische Filtern
kann ein klares Bild dargestellt werden.
Diese Ausführungsform veranschaulicht die Anwendung bei
einem Reflektionsmikroskop. Genauso gut ist diese Aus
führungsform jedoch bei anderen optischen Vorrichtungen
mit einer Beleuchtungseinrichtung verwendbar, bei
spielsweise bei einem elektronischen Endoskop. Weiterhin
muß der Verschluß 805 kein mechanischer Verschluß wie
dargestellt sein; es ist auch ein optischer Verschluß,
z. B. in Form einer Flüssigkristallplatte möglich.
Fig. 28 zeigt eine fünfzehnte Ausführungsform der vor
liegenden Erfindung, bei der logarithmische Farbabbil
dung und logarithmisches Filtern gemäß der vierzehnten
Ausführungsform bei einem optischen Gerät durchgeführt
werden, welches keine Beleuchtungsausstattung hat. Ein
Objektbild wird auf die lichtempfindliche Oberfläche
eines Bildsensors 902 auf Halbleiterbasis fokussiert,
was durch eine Linse 901 erfolgt. Der Bildsensor oder
die Abbildungsvorrichtung 902 wird von einem logarith
mischen Abbildungstreiber 903 gesteuert. Wenn bei
spielsweise die Abbildungsvorrichtung 902 eine CCD ist,
ist die Höhe eines overflow drain gate oder eines hori
zontalen transfer gate innerhalb einer Belichtungszeit
geändert, so daß ein Ausgangssignal logarithmische Cha
rakteristiken hat. Details einer logarithmischen Kom
pression einer Abbildungsvorrichtung auf Halbleiterbasis
sind in der JP-OS 62-234133 beschrieben. Ein Ausgangs
signal von der Abbildungsvorrichtung 902 wird in drei
Primärfarbsignale logR, logG und logB mittels eines Vi
deoprozessors 904 konvertiert. Diese Primärfarbsignale
werden mittels eines A/D-Wandlers 905 in digitale Si
gnale umgesetzt. Die digitalen Signale werden dann in
eine Bildverarbeitungseinheit 910 übertragen. Die Linse
901 wird oszilliert und angetrieben von einem Oszillator
907 mit eine Periode ausreichend kürzer als die Belich
tungszeit der Abbildungseinrichtung 902. Hierbei wird
der Oszillator 907 von einem Oszillationstreiber 906
angetrieben und gesteuert. Bilder mit unterschiedlichen
In-Fokus-Positionen werden akkumuliert und eingegeben
auf der lichtempfindlichen Oberfläche der Abbildungs
vorrichtung 902.
Die Bildverarbeitungseinheit 910 weist einen logY-Kon
verter 911, eine Rückgewinnungs-Verarbeitungseinheit
912, einen Steuerschaltkreis 913 für Dynamikbereich und
Verstärkung, einen logarithmischen Konvertierer 914,
einen Subtrahierer 915, Addierer 916R, 916G, 916B und
einen inversen logarithmischen Konvertierer 917 auf. In
der Bildverarbeitungseinheit 910 wird ein Helligkeits
signal Y logarithmisch gefiltert, wie in der vierzehnten
Ausführungsform gemäß Fig. 25. Die drei Primärfarbsi
gnale alogbY/Y.R, alogbY/Y.G und alogbY'/Y.B, deren
Dynamikbereiche und Verstärkungen geeignet gesteuert
werden, werden ausgegeben. Ausgangssignale von der
Bildverarbeitungseinheit 910 werden durch einen D/A-
Wandler 920 in analoge Farbsignale umgesetzt und auf
einem TV-Monitor 921 dargestellt. Die erwähnten Abläufe
werden von einer Steuerung 930 gesteuert.
Die fünfzehnte Ausführungsform mit dem erwähnten Aufbau
hat die folgende Arbeitsweise: Da die logarithmischen
Kompressions-Eingangcharakteristiken der Abbildungsvor
richtung 902 selbst zugeordnet sind, kann der Dynamik
bereich erweitert werden und eine Rückgewinnungs-Verar
beitung durch eine logarithmische Filterung kann durch
geführt werden, ohne die Farbkomponenten außer Balance
zu bringen, wie in der vierzehnten Ausführungsform. Zu
sätzlich hat die Vorrichtung gemäß der fünfzehnten Aus
führungsform einen einfachen Aufbau.
Bei dieser Ausführungsform kann der gleiche Effekt wie
in der vierzehnten Ausführungsform bei einer optischen
Ausstattung ohne zusätzliche Beleuchtungsvorrichtung
erzielt werden, wie beispielsweise bei einer elektroni
schen Kamera. Die Bilder mit unterschiedlichen In-Fo
kus-Positionen werden von der Abbildungsvorrichtung 902
selbst akkumuliert, so daß die Vorrichtung selbst ver
einfacht ist.
Anstelle der Abbildungsvorrichtung selbst die logarith
mische Eingangscharakteristik zuzuweisen, kann die
Mehrzahl von Bildern eingegeben werden, während die Be
lichtungszeit geändert wird, so daß ein Bild syntheti
siert wird, welches eine logarithmische Charakteristik
von polygonaler Annäherung hat. Eine Weiterverarbeitung
kann durchgeführt werden unter Verwendung der gleichen
Anordnung wie der Prozessor 820 in der vierzehnten Aus
führungsform.
Fig. 29 zeigt eine sechzehnte Ausführungsform der vor
liegenden Erfindung, welche bei einem Reflektionsmi
kroskop zur Anwendung kommt, wie im Falle der vierzehn
ten Ausführungsform gemäß Fig. 25. Licht von einer Be
leuchtungsquelle 1001 fällt durch einen Halbspiegel 1003
und eine Objektivlinse 1004 auf eine Probenoberfläche.
Ein von der Probe reflektiertes Bild wird von der Ob
jektivlinse 1004 vergrößert und eine Fokussierungslinse
1006 an einem Linsentubus 1005 fokussiert das Bild auf
die lichtempfindliche Oberfläche eines räumlich-opti
schen Modulators (im folgenden mit SLM bezeichnet) 1007
(spatial optical modulator) in dem Linsentubus 1005. Der
SLM 1007 wird von einem Treiber 1008 angetrieben und
gesteuert und dient als inkohärent-zu-kohärent Konver
ter. Ein Treiber 1009 treibt einen Objektträger 1010 in
einem festgelegten Entfernungsbereich in axialer Rich
tung des Mikroskopes innerhalb einer Abtastzeit, welche
in Anbetracht einer Umwandlungs-Reaktionszeit des SLM
1007 festgesetzt ist. Ein Laserstrahl von einem Laser
1011 wird von einem Strahlexpander 1012 expandiert und
ein Fortpflanzungsweg wird von einem Halbspiegel 1013
geändert. Der Laserstrahl fällt dann auf eine Oberfläche
(Reflektionsoberfläche) des SLM 1007 gegenüber der
lichtempfinglichen Oberfläche. Ein mikroskopisches Bild
wird als Gradientenindex auf der Reflektionsoberfläche
des SLM 1007 angezeigt. Somit wird ein Reflektions-
Raummuster des Laserstrahls als mikroskopisches Bild
fortgepflanzt. Dieses mikroskopische Bild, d. h. ein re
flektierter Laserstrahl, wird von einer Linse 1014
räumlich Fourier-transformiert. Eine Filterung des sich
ergebenden Strahles wird von einem Filter 1015 an der
rückwärtigen Brennebene 1014 durchgeführt. Der reflek
tierte Laserstrahl wird einer inversen Fourier-Trans
formation durch eine Linse 1016 unterworfen. Das sich
ergebende Bild wird einer TV-Kamera 1017 eingegeben.
Eine Amplitudendurchlässigkeit des Filters 1015 wird von
dessen Mittenbereich zu dessen Umfangsbereich erhöht und
ist so ausgelegt, daß für eine Ortsfrequenz ein Hoch
paßfilter vorliegt. Eine Energieversorgung und eine
Zeitsteuerung für die Kamera 1017 erfolgt durch einen
Kameratreiber 1018. Durch den Kameratreiber 1018 wird
das eingegebene Bild einem Prozessor 1020 übertragen.
Ein Bildsignal, das dem Prozessor 1020 eingegeben worden
ist, wird von einem A/D-Wandler 1021 in ein digitales
Signal umgesetzt und das digitale Signal wird in einem
Rahmenbildspeicher 1022 abgespeichert. Das digitale Bild
in dem Bildrahmenspeicher 1022 wird mittels einer Rück
gewinnungsverarbeitungseinheit 1023 einem geeigneten
Rückgewinnungsprozeß unterworfen. Das derart verarbei
tete Bildsignal wird von einem D/A-Wandler 1024 in ein
Analogsignal umgesetzt und auf einem TV-Monitor 1025
dargestellt. Die oben erwähnten Abläufe werden von einer
Steuerung 1026 gesteuert und Betriebsbedingungen sind
von einer Bedienungs- oder Beobachtungsperson über ein
Interface 1027 eingebbar, welches mit der Steuerung 1026
verbunden ist.
Im folgenden erfolgt eine kurze Beschreibung des SLM
1007. Der SLM 1007 ist ein räumlicher Modulator des op
tischen Eingangstyps und dient als optisches funktiona
les Element, welches ein optisches Signal zweidimensio
nal lesen und schreiben kann. Beispiele für dieses op
tische funktionale Element sind ein PROM (Pockls
Read-out Optical Modulator), der die optische Leitfä
higkeit und die elektrooptischen Effekte von Bi12Sio20
(BSO) verwendet und ein LCLV (Liquid Crystal Light Val
ve), welches durch Kombination eines fotoleitfähigen
Materials und eines Flüssigkristalls erhalten worden
ist. Jedes dieser erwähnten optischen funktionalen Ele
mente wandelt ein optisches Eingangssignal in eine
elektrische Feldverteilung und steuert einen Gradienten
index der Reflektionsoberfläche. Ein Polarisationsstand
des Laserstrahls, der auf die Reflektionsoberfläche des
SLM 1007 fällt, wird in Abhängigkeit von dem Gradienten
index der Reflektionsoberfläche geändert. Wenn der La
serstrahl durch einen Detektor läuft, kann er als kohä
rentes optisches Bild gelesen werden. In dieser Ausfüh
rungsform wird ein SLM mit einem weiten Dynamikbereich
und einer kurzen Ansprechzeit verwendet.
Die sechzehnte Ausführungsform mit dem obigen Aufbau hat
die folgende Wirkungsweise: Bevor die Bilder auf der
lichtempfindlichen Oberfläche der Kamera 1017 akkumu
liert werden, wird eine optische Hochpaß-Filterung
durchgeführt. D. h., die durch das Mikroskop eingegange
nen Bilder pflanzen sich mit einem Laserstrahl durch den
SLM 1007 fort. Bilder mit unterschiedlichen In-Fokus-Po
sitionen werden auf der lichtempfangenden Oberfläche der
Kamera 1017 akkumuliert, während eine Ortsfrequenzfil
terung von dem kohärenten optischen System durchgeführt
wird. Mit dem obigen Aufbau können Einschränkungen hin
sichtlich des Akkumulationseffektes durch Begrenzungen
des Dynamikbereiches der Kamera 1017 gelöst werden. Als
Ergebnis kann die Akkumulation und der Eingabevorgang
der Ortsfrequenzkomponenten mit dem gewünschten Si
gnal/Rausch-Abstand durchgeführt werden.
Bei dieser Ausführungsform kann der Dynamikbereich der
Kamera 1017 wirksam genutzt werden und ein klareres Bild
kann durch den Rückgewinnungsvorgang in dem Prozessor
erhalten werden.
Fig. 30 zeigt eine siebzehnte Ausführungsform der vor
liegenden Erfindung in Verbindung mit einem Reflek
tionsmikroskop wie in der sechzehnten Ausführungsform.
Bei dieser Ausführungsform wird auf den Prozessor 1020
verzichtet und ein Bildsignal von der Kamera 1017 wird
direkt in den TV-Monitor 1025 durch den Kameratreiber
1018 eingegeben. Gleiche Bezugszeichen wir in Fig. 29
bezeichnen in Fig. 30 gleiche Teile und eine detail
lierte Beschreibung hiervon erfolgt nicht.
Die sechzehnte Ausführungsform mit dem Aufbau gemäß Fig.
30 hat folgende Wirkungskreise: Der Objektträger 1010
wird von dem Treiber 1009 innerhalb eines festgelegten
Distanzbereiches entlang der optischen Achse des Mi
kroskopes bewegt. Während des Bewegens werden mikrosko
pische Bilder auf der lichtempfindlichen Oberfläche des
SLM 1007 akkumuliert. Somit wird eine Mehrzahl von Bil
dern mit unterschiedlichen In-Fokus-Positionen akkumu
liert. Wenn dieser Vorgang abgeschlossen ist, werden die
akkumulierten Bilder auf der Reflektionsoberfläche des
SLM 1007 angezeigt und von einem Laserstrahl gelesen und
die gelesenen Bilder werden einem Rückgewinnungsprozeß
(Ortsfrequenzfilterung) durch ein kohärentes optisches
System unterworfen. Das Prozeßergebnis wird von der Ka
mera 1017 aufgenommen und auf dem Monitor 1025 darge
stellt. Das heißt, der Bildakkumulationseffekt auf der
lichtempfindlichen Oberfläche des SLM 1007 wird verwen
det, um einen Rückgewinnungsprozeß durch optisches Fil
tern durchzuführen.
Da bei dieser Ausführungsform der Rückgewinnungsprozeß
perfekt in Echtzeit durchgeführt wird, kann die Gesamt
prozeßzeit vorteilhafterweise verkürzt werden.
Ein Verfahren zur Verarbeitung und Anzeige eines Farb
bildes in der sechzehnten und siebzehnten Ausführungs
form wird nun unter Bezugnahme auf Fig. 31 beschrieben.
Gemäß Fig. 31 ist ein drehendes Farbfilter 1030 in einer
Beleuchtungsanordnung 1002 angeordnet. Das Farbfilter
1030 wird erhalten durch Anordnung der drei Primärfarb
filterelemente (R, G und B) entlang der Drehrichtung
einer Scheibe in gleicher Weise wie bei dem Drehfilter
213 von Fig. 14. Wenn das Farbfilter 1030 von einem Mo
tor 1031 angetrieben wird, wird Licht von der Weiß
lichtquelle 1001 in der Reihenfolge von R, G und B ein
gefärbt. Die sich ergebenden Primärbeleuchtungskompo
nenten werden weitergeführt und den sequentiellen Pro
zeßabläufen auf der Grundlage der Anordnungen gemäß der
sechzehnten und siebzehnten Ausführungsform unterwor
fen.
Fig. 32 ist ein Blockdiagramm einer Anordnung eines
Farbbildprozessors gemäß dem Prozessor 1020 in der
sechzehnten Ausführungsform von Fig. 29. Ausgangssignale
entsprechen den entsprechenden Primärbeleuchtungslicht
komponenten und werden einem Prozessor 1100 eingegeben
und von einem A/D-Wandler 1101 in digitale Signale um
gesetzt. Die digitalen Signale werden in Rahmenbild
speichern 1103R, 1103G und 1103B mittels eines Selektors
1102 in Farbkomponenten-Einheiten gespeichert. Alle
Prozeßergebnisse durch Beleuchtung mit den drei Primär
farben sind in den Speichern 1103R bis 1103B gespeichert
und diese Ergebnisse werden einem (R, G, B) -zu-Y-Wandler
1104 zugeführt und ein Helligkeitssignal Y = 0.3R +
0.59G + 0.11B wird hierin berechnet. Das Helligkeitssi
gnal Y von dem Wandler 1104 wird Teilern 1105R, 1105G
und 1105B zugeführt zur Division der Farbkomponenten mit
dem Helligkeitssignal Y, so daß sich R/Y, G/Y und B/Y
ergibt. Diese Rechnungsergebnisse werden Multiplizierern
1106R, 1106G und 1106B zugeführt.
Das Helligkeitssignal Y wird in einem Rückgewinnungs-
Verarbeitungsschaltkreis 1107 einer geeigneten Rückge
winnungsprozedur unterworfen. Ein Ausgang Y' von dem
Schaltkreis 1107 wird den Multiplizierern 1106R, 1106G
und 1106B zugeführt und wird mit den Signalen R/Y, G/Y
und B/Y multipliziert. Die Produkte (R/Y)Y', (G/Y)Y' und
(B/Y)Y' werden von D/A-Wandlern 1108R bis 1108B in ana
loge Videosignale umgewandelt. Die erwähnten Abläufe
werden von einer Steuerung 1109 gesteuert.
Bei der erwähnten Anordnung wird nur die Helligkeits
komponente eines jeden Primärfarbensignales dem Rückge
winnungsprozeß unterworfen, so daß eine gute Farbbalance
erhalten bleibt. Die aufgrund der Rückgewinnungsverar
beitung ermittelten Daten der drei Primärfarben werden
gleichzeitig ausgegeben und die Ergebnisse können als
Farbbild dargestellt werden.
Wenn diese Anordnung der siebzehnten Ausführungsform
zugeordnet wird, können der Wandler 1104, die Teiler
1105R bis 1105B, der Schaltkreis 1107 und die Multipli
zierer 1106R bis 1106B von der Anordnung gemäß Fig. 32
weggelassen werden. Ein Prozessor, in dem die Rahmen
bildspeicher 1103R bis 1103B direkt mit dem D/A-Wandlern
1108R bis 1108B verbunden sind, wird somit erreicht.
Dieser Prozessor wird zwischen dem Kameratreiber 1018
und dem Monitor 1025 in Fig. 30 gesetzt. Mit dieser
Anordnung können die Bildsignale der drei Primärfarben,
welche bereits einer Rückgewinnungs-Verarbeitung unter
worfen wurden und sequentiell eingegeben wurden, zeit
weise in dem Rahmenbildspeicher in dem Prozessor ge
speichert werden und können als Farbbild bei einem
gleichzeitigen Lesezugriff auf die erwähnten Mehrfarb
signale dargestellt werden.
Fig. 33 zeigt schematisch ein optisches Hochpaßfil
tersystem einer achzehnten Ausführungsform der vorlie
genden Erfindung zur Anwendung in einem Transmissions
mikroskop. Gemäß Fig. 33 weist ein optisches Transmis
sions-Beleuchtungssystem eine Kohler'sche Beleuchtungs
ausstattung 1200 auf. Beleuchtungslicht von einer
Lichtquelle 1201 wird von einer Kollektorlinse 1202 fo
kussiert und fällt auf eine Probe 1206 über eine Kon
densorlinse 1205, eine Feldapertur 1203 und eine Kon
densorapertur 1204. In diesem Fall ist die Größe der
Kondensorapertur 1204 ausreichend klein gehalten und ein
praktisch paralleles Licht trifft auf die Probe 1206
auf. Licht, das die Probe 1206 durchtritt, wird zu einer
Objektivlinse 1207 geführt und eine Ortsfrequenzfilte
rung des Bildes der Probe 1206 wird durchgeführt. Das
Filter 1208 ist derart angeordnet, daß sein Mittenbe
reich einen hohen Absorptionsgrad hat, wobei der Ab
sorptionsgrad in Richtung des Umfanges abnimmt. Mit an
deren Worten, der Absorptionsgrad nimmt graduell von der
Mitte zum Umfang hin ab. Durch Unterdrückung einer Nie
derortsfrequenzkomponente wird ein Hochpaßfiltervorgang
durchgeführt. Das hochpaßgefilterte Bild wird auf ein
Bildeingangssystem mittels einer Fokussierlinse 1209
fokussiert.
Die weiteren Anordnungen entsprechen im wesentlichen der
des Transmissionsmikroskopes in der siebten, dreizehnten
und siebzehnten Ausführungsform.
Die achzehnte Ausführungsform mit dem beschriebenen
Aufbau hat die folgende Wirkungsweise: Da die Probe 1206
mit parallelem Licht in dem Transmissionsmikroskop be
leuchtet wird, kann ein kohärentes optisches System
erhalten werden und eine Hochpaßfilterung des Bildes
kann optisch durchgeführt werden.
Bei dieser Ausführungsform wird die Probe durch die
Bildeingabeeinheit, wie beispielsweise einer Kamera
dargestellt, während die Niederortsfrequenzkomponente
des Bildes auf gleicher Weise wie in der Ausführungsform
von Fig. 16 unterdrückt bleibt, so daß auf wirksame
Weise der Dynamikbereich der Bildeingabeeinheit verwen
det werden kann. Somit kann ein Bild mit einem großen
Brennpunktsabstand klarer dargestellt werden.
Ein Verfahren zur Auswahl der Anzahl von Bildern die
miteinander addiert werden müssen, sowie des Akkumula
tionsbereiches wird im folgenden beschrieben.
Die Fig. 34A und 34B sind Ansichten zur Darstellung des
Prinzips dieser Auswahlmethode. Es sei angenommen, daß
ein Objekt 1210 eine stufenweise Oberflächenstruktur
hat, wie im linken Teil von Fig. 34A dargestellt. Wenn
dieses Objekt 1210 von einem optischen System mit einem
kleinen Brennpunktsabstand dargestellt wird, hat ein
Fourierspektrum eines Bildes das auf einen Bereich des
Objektes fokussiert ist, ebenfalls relativ hohe Orts
frequenzkomponenten. Im Falle eines Bildes, das nicht
auf einen beliebigen Bereich des Objektes fokussiert
ist, hat das Bild nur niederfrequente Komponenten, wie
im rechten Teil von Fig. 34A dargestellt. Das heißt, ein
Fourierspektrum F(u) eines Bildes einer In-Fokus-Posi
tion an einer Stelle, die durch die gestrichelte Linie
bezüglich des Objektes 1210 angedeutet ist, ist darge
stellt. Ein Wert F(u1, u2) (gestrichelte Bereiche 1220),
der durch Integration eines Spektrums bei einer gegebe
nen Ortsfrequenz (u1, u2) erhalten wird, wird ebenfalls
in Betracht gezogen. Änderung in dem Wert F(u1, u2) bei
Änderungen der In-Fokus-Positionen sind in Fig. 34B
dargestellt. Wenn ein Bereich (z1, z2), in dem der Wert
F(u1, u2) einen gegebenen Schwellenwert übersteigt als
ein Additions- oder Akkumulationsbereich definiert ist,
können defokussierte Bilder im wesentlichen vollständig
von dem zu interessierenden Objekt ausgeschlossen wer
den. Als Ergebnis kann ein klares Bild mit einem hohen
Brennpunktsabstand erhalten werden durch Addieren oder
Synthetisieren von Bildern mit unterschiedlichen In-Fo
kus-Positionen. Wie unter Bezugnahme auf die dritte und
zwölfte Ausführungsform beschrieben, werden, wenn Bilder
mit unterschiedlichen In-Fokus-Positionen aufgezeichnet
werden, die aufgezeichneten Bildsignale durch ein Band
paßfilter gefiltert, und die sich ergebenden Werte wer
den überprüft, so daß die Beziehung gemäß Fig. 34B
erhalten werden kann. Auf der Grundlage dieser Bezie
hungen können Bilder, die für Additionen verwendbar
sind, bestimmt werden. Wenn dieses Verfahren bei einem
Reflektionsmikroskop (siebte, vierzehnte, sechzehnte und
siebzehnte Ausführungsform) angewendet wird, wird der
Objektträger oder die Objektivlinse in festgelegten
stufenweisen Intervallen auf- oder abwärtsbewegt. Die
eingegebenen Bildsignale an den entsprechenden Brenn
punktpegeln werden durch ein Bandpaßfilter gefiltert.
Hierdurch ist die Beziehung gemäß Fig. 34B erhaltbar und
der Additions- oder Akkumulationsbereich wird bestimmt.
Speziell beim Testen von integrierten Bausteinen, Halb
leiterstrukturen oder dergleichen kann, da ähnliche Mu
ster wiederholt werden, durch die Bestimmungen des Ak
kumulationsbereiches die Möglichkeit gegeben werden,
jeden Teilbereich unter identischen Bedingungen optimal
zu untersuchen. Das Bandpaßfilter kann eine Mehrzahl von
Filtern mit unterschiedlichen Frequenzbereichen haben
und jedes dieser Filter kann verwendet werden oder alle
Filter können verwendet werden, um den Bereich systema
tisch zu bestimmen.
Die Fig. 35A und 35B zeigen eine Anordnung gemäß einer
neunzehnten Ausführungsform der vorliegenden Erfindung
in Verbindung mit einer elektronischen Kamera. Die
elektronische Kamera umfaßt im wesentlichen ein Kamera
gehäuse 1300, ein Aufzeichnungsmedium 1400, einen Pro
zessor 1500, ein Interface 1600 und einen TV-Monitor
1700. Das Kameragehäuse 1300 weist gemäß Fig. 35A eine
Linse 1301, einen Verschluß 1302, einen In-Fokus-Posi
tions-Kontroller 1303, eine Abbildungsvorrichtung 1304,
einen A/D-Wandler 1305, einen Speicher 1306, einen An
passungsschaltkreis 1307, einen Speicher 1308, einen
Bereichsberechnungsschaltkreis 1309, eine Steuerung 1310
und einen Schreiber 1311 zum Schreiben eines Bildes in
das Aufzeichnungsmedium 1400 auf. Das Kameragehäuse 1300
wird wie folgt betrieben: In dem Kameragehäuse 1300 wird
Vor-Fotografieren und Haupt-Fotografieren durchgeführt.
In dem Vor-Fotografiermodus schattet der Verschluß 1302
die halbe Oberfläche der Linse 1301 ab. Die nichtabge
schattete halbe Oberfläche wird verwendet, um ein Bild
zu fokussieren und das fokussierte Bild wird in die
Eingabevorrichtung 1304 eingegeben. In diesem Fall wird
ein Ausgangssignal von der Bildeingabevorrichtung 1304
durch den Wandler 1305 in ein digitales Signal umgewan
delt und in dem Speicher 1306 aufgezeichnet. Der
Verschluß 1302 überdeckt dann die andere halbe Oberflä
che der Linse 1301 und das eingegebene Bild wird in dem
Speicher 1306 aufgezeichnet. Auf diese Weise werden zwei
halbe Oberflächen der Linse 1301 abwechselnd verwendet,
um zwei Bilder mit einer Parallaxe einzugeben und die
beiden Eingangsbilder werden durch den Anpassungs
schaltkreis 1307 stereoangepaßt. Somit kann eine Distanz
zu dem Objekt gemessen werden. Gemäß den Fig. 36A und
36B werden bei dem erwähnten Anpassungsvorgang bei
spielsweise Erfassungspunkte 1315 in dem Bild bestimmt
und lokale Bereiche 1316 und 1317 werden festgesetzt
unter Verwendung der Erkennungspunkte 1315 als Zentren
und dann der oben erwähnten Anpassung unterworfen. Fig.
36A zeigt ein linkes Bild oder eine Bildoberfläche,
während Fig. 36B ein rechtes Bild oder eine rechte Bild
oberfläche zeigt.
Fig. 37 zeigt eine Anordnung des Anpassungsschaltkreises
1307 zusammen mit den Speichern 1306 und 1308. Ein lin
ker Bildspeicher 1306a und ein rechter Bildspeicher
1306b zur Aufzeichnung zweier Bilder mit linken und
rechten Gesichtsfeldern sind in dem Speicher 1306 ange
ordnet. Ein Adressengenerator 1320 ist in dem Anpas
sungsschaltkreis 1307 angeordnet. Der Adressengenerator
1320 erzeugt Adressen eines festgesetzten Bereiches 1316
mit einem Erfassungspunkt 1315 als Mittenpunkt des lin
ken Bildes und einen festgelegten Bereich 1317 (mit ei
ner Fläche gleich der Fläche des linken Bildes) des
rechten Bildes, der von dem Erfassungspunkt 1315 um ei
nige Pixel (Anzahl der Verschiebungspixel = S) in Rich
tung der Parallaxe verschoben ist. Die linken und rech
ten Bildsignale der festgelegten Bereiche 1316 und 1317
werden von dem Speicher 1306 einem Subtrahierer 1321 im
Anpassungsschaltkreis 1307 zugeführt. Die Differenz
zwischen den linken und rechten Bildsignalen werden in
dem Subtrahierer 1321 in Pixeleinheiten berechnet. Ein
Absolutwert der Differenz von dem Subtrahierer 1321 wird
von einem Absolutwert-Arithmetikelement 1322 berechnet.
Die Absolutwerte der Differenzen zwischen den linken und
rechten Pixelsignalen der linken und rechten festge
setzten Bereiche 1316 und 1317 werden berechnet. Diese
Absolutwerte werden miteinander in einem Addierer 1323
addiert und eine Summe wird einem Kriteriensteuerer 1324
zugeführt. Der Adressengenerator 1320 erzeugt die glei
che Adresse wie die Startadresse für das linke Bild in
dem Speicher 1306. Der Adressengenerator 1320 erzeugt
eine Adresse entsprechend einer Position (d. h. einem
Punkt erhalten durch Verschiebung des Mittenpunktes ei
nes neuen Bereiches von dem Erkennungspunkt durch S-1
oder S-2 in Parallaxenrichtung) erhalten durch Ver
schiebung der Startadresse des rechten Bildes durch ein
oder zwei Pixel in Parallaxenrichtung. Die ähnlichen
Berechnungsergebnisse werden dem Kriterienkontroller
1324 zugeführt. Die obigen Abläufe werden für jeden Er
kennungspunkt innerhalb eines festgesetzten Bereiches
(z. B. einem Bereich in welchem der Mittenpunkt des
festgelegten Bereiches 1317 des rechten Bildes um S nach
-S bezüglich des Erfassungspunktes verschoben ist) wie
derholt. Der Kriterienkontroller 1324 vergleicht die
Berechnungsergebnisse bezüglich der Verschiebungsbeträge
und erfaßt einen minimalen Verschiebungsbetrag. Der mi
nimale Verschiebungsbetrag wird dem Speicher 1308 ein
gegeben. Dieser Vorgang wird in Einheiten von Erfas
sungspunkten durchgeführt. Die obigen Abläufe werden
durch eine Steuerung 1325 kontrolliert.
Die Arbeitsweise des Anpassungsschaltkreises 1307 wird
im folgenden beschrieben: Es ist nötig, die entspre
chende Punkte der linken und rechten Bilder mit Paral
laxe zu finden. Die folgenden Abläufe werden durchge
führt, um die entsprechenden Punkte mittels des Anpas
sungsschaltkreises 1307 zu finden:
ρ(t) = ΣR|r(x + t, y) - fl(x, y)| (c)
wobei x: Parallaxenrichtung,
t: Verschiebungsbetrag
fr(x, y): rechtes Bild
fl(x, y): linkes Bild
ΣR: ein Operant entsprechend allen Additionen in den festgesetzten Bereichen.
t: Verschiebungsbetrag
fr(x, y): rechtes Bild
fl(x, y): linkes Bild
ΣR: ein Operant entsprechend allen Additionen in den festgesetzten Bereichen.
Gleichung (c) wird berechnet während t innerhalb eines
festgelegten Bereiches geändert wird (z. B. t = S bis
-S) bezüglich eines gegebenen Erfassungspunktes, so daß
hierbei ein Minimalwert von t ermittelt wird. Somit kann
ein rechter Bildpunkt entsprechend dem Erfassungspunkt
des linken Bildes erhalten werden. Anstelle von Glei
chung (c) kann der Anpassungsschaltkreis 1307 so ange
ordnet sein, daß er die folgende Korrelation als Ver
fahren zur Erkennung des korrespondierenden Punktes
durchführt:
ϕ(t) = ΣRfr(x + t, y).fl(x, y) (d)
Alternativ können Vorspannung und Verstärkungskomponen
ten der linken und rechten Bilder durch die folgende
normalisierende Kreuzkorrelation korrigiert werden, wo
durch eine noch präzisere Korrelation erfolgt:
wobei fr: Durchschnittswert in dem festgelegten Bereich
des rechten Bildes
fl: Durchschnittswert in dem festgelegten Bereich des linken Bildes
σr: Standardabweichung des festgelegten Bereiches des rechten Bildes
σl: Standardabweichung des festgelegten Bereiches des linken Bildes.
fl: Durchschnittswert in dem festgelegten Bereich des linken Bildes
σr: Standardabweichung des festgelegten Bereiches des rechten Bildes
σl: Standardabweichung des festgelegten Bereiches des linken Bildes.
In dieser Ausführungsform ist die Lage des festgelegten
Bereiches 1316 des linken Bildes fest und der entspre
chende Punkt wird in dem rechten Bild gefunden. Es kann
jedoch auch die Lage des festgelegten Bereiches 1317 im
rechten Bild fest sein und ein korrespondierender oder
entsprechender Punkt kann im linken Bild gefunden wer
den. Alternativ können die Erfassungspunkte beider
festgelegten Bereiche der linken und rechten Bilder re
lativ bezüglich des Erfassungspunktes gelegt werden, um
die korrespondierenden Punkte zu erfassen. Zusätzlich
kann ein Korrelationstheorem in der Fourier-Transforma
tion angewandt werden, um den folgenden Korrelations
vorgang unter Verwendung eines FFT-Arithmetikelementes
in dem Anpassungsschaltkreis 1307 durchzuführen:
ϕF(u, v) = F-1[F{fr(x, y).F{fl(x, y)}*] (f)
F: Fourier-Transformationsoperant
F-1: inverser Fourier-Transformationsoperant
F-1: inverser Fourier-Transformationsoperant
In diesem Fall muß die Relativposition t zwischen den
beiden Bildern nicht verschoben werden, um einen Korre
lationswert zu erhalten, im Gegensatz zum Fall der
Gleichungen (c) bis (e).
Ein korrespondierender Punkt wird dadurch erhalten, in
dem eine Position eines Spitzenwertes eines Kreuzkorre
lations-Bildes ϕF(u, v) detektiert wird. Wenn der Rausch
einfluß gering ist, kann ein korrekter korrespondieren
der Punkt durch eine Phasenkorrelation, gegeben durch
die folgende Gleichung, detektiert werden.
Alternativ können der Speicher 1306 und der Anpassungs
schaltkreis 1307 zusammen mit einem Selektor 1330 ange
ordnet sein, wie in Fig. 38 dargestellt. In diesem Fall
wird ein Bild in Komponenten in Parallaxenrichtung und
in Richtung senkrecht hierzu aufgetrennt und die aufge
trennten Komponenten werden aufgezeichnet, um eine Pa
rallelanpassung der Teilbilder durchzuführen, so daß die
Gesamtverarbeitungszeit verkürzt wird.
Ein Verschiebungsbetrag zwischen den rechten und linken
Bildern an jedem Punkt in dem Speicher 1308 wird in ei
nen Berechnungsschaltkreis 1309 eingegeben, wie in Fig.
35A dargestellt. Der Berechnungsschaltkreis 1309 be
rechnet einen Abstand zwischen dem Kameragehäuse 1300
und jedem Erfassungspunkt auf der Grundlage der Paral
laxenkomponente, die bei Bildeingabe erzeugt wurde unter
Verwendung der halben Oberflächen der Linse 1301 und des
Verschiebungsgrades.
Ein Berechnungsergebnis von dem Schaltkreis 1309 wird in
die Steuerung 1310 eingegeben. Nachdem die Vor-Fotogra
fierung abgeschlossen worden ist, kann die In-Fokus-Po
sitionssteuerung 1303 automatisch unter Verwendung der
Distanzdaten am Mittenpunkt des Bildes derart gesteuert
werden, daß ein Objekt im Mittenbereich des Suchers fo
kussiert wird, so daß eine Autofokus-Arbeitsweise
durchgeführt werden kann.
Im folgenden wird das Haupt-Fotografieren durch die Ka
mera 1300 beschrieben. Die Steuerung 1310 setzt einen
Verschiebungsbetrag der In-Fokus-Objektebenenlagen,
welche der Akkumulation unterworfen sind und von Ein
gangsvorgängen auf der Grundlage der Distanzinformation
von dem Berechnungsschaltkreis 1309. Ein Verfahren zum
Festsetzen des Bereiches der In-Fokus-Positionen wird im
folgenden beschrieben. Eine Standardabweichung anzeigend
den Grad der Variationen wird auf der Grundlage der Di
stanzdaten der entsprechenden Erfassungspunkte berech
net. Ein Bereich von ±kσ (k = 1 bis 2) wird von dem
durchschnittlichen Distanzwert erhalten, um einen Akku
mulationsbereich zu definieren. In diesem Fall werden
Daten die als unendlich oder als Null berechnet wurden
ausgeschlossen, wenn der durchschnittliche Distanzwert
und die Standardabweichung berechnet werden. Der Akku
mulationsbereich kann wahlweise und manuell von einer
Bedienungsperson festgesetzt werden. Beim Haupt-Foto
grafieren ist der Verschluß 1302 voll offen und die
In-Fokus-Positionssteuerung 1303 wird im Akkumulations
bereich betrieben, der von der Steuerung 1310 festge
setzt wurde, innerhalb einer Belichtungszeit bestimmt
durch den Verschluß 1302. Bilder mit unterschiedlichen
In-Fokus-Positionen werden auf der lichtempfindlichen
Oberfläche der Abbildungsvorrichtung 1304 akkumuliert.
Ein Ausgangssignal von der Abbildungsvorrichtung 1304
wird durch den A/D-Wandler 1305 in ein Digitalsignal
umgesetzt. Das digitale Signal wird in dem Speicher 1306
gespeichert. Die in dem Speicher 1306 gespeicherten ak
kumulierten Bilder und Verschiebungsbeträge zwischen den
rechten und linken Bildern bezüglich der Erfassungs
punkte der Bilder in dem Speicher 1308 werden mittels
des Schreiber 1311 auf dem Aufzeichnungsmedium 1400 ge
speichert. Alternativ kann ein Addierer in dem Kamera
gehäuse 1300 angeordnet sein und die Bilder mit unter
schiedlichen In-Fokus-Positionen können beim Haupt-Fo
tografieren akkumuliert und addiert werden.
Das Aufzeichnungsmedium 1400 kann eine Floppydisk, ein
optischer Speicher, eine Platine mit einem Halbleiter-
IC, ein Magnetband, einen Halbleiterspeicher ohne Ma
gnetkörper, ein Speicher aus einem organischen Material
oder dergleichen sein. Daten, die von dem Kameragehäuse
1300 erhalten worden sind, werden off-line zu dem Pro
zessor 1500 über das Aufzeichnungsmedium 1400 übertra
gen.
Anordnung und Arbeitsweise des Prozessors 1500 gemäß
Fig. 35B werden nun beschrieben. Daten in dem Aufzeich
nungsmedium 1400 werden von einem Leser 1501 ausgelesen.
Die ausgelesenen Bilddaten werden in einem Speicher 1502
gespeichert. Die Verschiebungsbeträge zwischen rechten
und linken Bildern bezüglich der Erfassungspunkte werden
in einem Speicher 1503 gespeichert. Die Bilddaten in dem
Bildspeicher 1502 werden einem Rückgewinnungs-Verarbei
tungsschaltkreis 1504 zugeführt. Die Verschiebungsbe
tragdaten in dem Speicher 1503 werden einem Faktorgene
rator 1505 zugeführt. Der Faktorgenerator 1505 erzeugt
einen Faktor oder Koeffizientenwert entsprechend dem
Verschiebungsbetrag und der Faktorwert wird in den
Rückgewinnungs-Verarbeitungsschaltkreis 1504 eingegeben.
Ein Bildsignal, welches geeignet einer Rückgewinnungs-
Verarbeitung durch den Schaltkreis 1504 unterworfen
wurde, wird von einem D/A-Wandler 1506 in ein analoges
Videosignal umgesetzt. Das analoge Videosignal wird auf
dem TV-Monitor 1700 dargestellt. Die Arbeitsweise des
Prozessors 1500 wird von einer Steuerung 1507 kontrol
liert. Verarbeitungsbedingungen und Bildanzeigebedin
gungen können von einer Beobachtungsperson über ein In
terface 1600 eingegeben werden, welches mit der Steue
rung 1507 verbunden ist.
Der Ablauf der Rückgewinnungs-Verarbeitung in dem Pro
zessor 1500 wird nun beschrieben. Eine räumliche Filte
rung wird von der Rückgewinnungs-Verarbeitungseinheit
1504 durch eine Umwandlung eines lokalen Bereiches
durchgeführt, so daß die Rückgewinnungs-Verarbeitung
abläuft.
Fig. 39 ist eine Ansicht eines Prinzips der Rückgewin
nungs-Verarbeitung. Eine Umwandlungsoperation für ein
gegebenes Pixel zwischen einer festgesetzten Maske 1510
und einem Pixelbereich von 5 × 5 des gegebenen Pixels
wird durchgeführt. In einem folgenden Ablauf wird ein
Ersatz des Umwandlungsergebnisses für das interessie
rende Pixel sequentiell für interessierende Pixel
durchgeführt (vorausgesetzt, daß dieser Vorgang nicht
für zwei umfangseitige Linien durchgeführt wird). Mit
dem obigen Verfahren wird die Rückgewinnungs-Verarbei
tung durchgeführt und somit können unterschiedliche
Filtervorgänge abhängig von der Lage innerhalb des Bil
des durchgeführt werden. Wenn das Bild, das durch das
Kameragehäuse 1300 synthetisiert wurde, nicht gleichmä
ßig defokussiert ist, wird der Faktor der Maske 1510 in
Abhängigkeit von den Lagen des Bildes geändert. Somit
kann ein vollständig fokussiertes Bild angezeigt werden.
Um die erwähnten Abläufe durchführen zu können, werden
Distanzen zwischen dem Objekt und verschiedenen Erfas
sungspunkten 1315 des Bildes in dem Kameragehäuse 1300
beim Vor-Fotografieren gemessen und die Grade der Defo
kussierungsbeträge der entsprechenden Bereiche der ak
kumulierten Bilder werden vorher erfaßt. Der Faktor der
Maske 1510 wird dann auf der Grundlage der Defokussie
rungsbetrag-Information bestimmt.
Bei dieser neunzehnten Ausführungsform kann der Grad der
In-Fokus-Positionen, die der Akkumulation unterworfen
werden im Vor-Fotografieren bestimmt werden. Selbst wenn
die Defokussierung von Positionen innerhalb des Bildes
abhängt, kann eine zufriedenstellende Rückgewinnungs-
Verarbeitung durchgeführt werden. Somit kann der Anwen
dungsfall der vorliegenden Erfindung hinsichtlich der
elektronischen Kamera erweitert werden. Da der Faktor in
der Rückgewinnungs-Verarbeitungsmaske 1510 in dem Pro
zessor 1500 wahlweise abhängig von Positionen des Bildes
geändert werden kann, kann der Brennpunktabstand von
einer Bedienungsperson wie gewünscht wahlweise geändert
werden.
Fig. 40A und 40B zeigen eine Anordnung einer zwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einer elektronischen Kamera wie in der neunzehnten
Ausführungsform. Die elektronische Kamera weist im we
sentlichen ein Kameragehäuse 1800, ein Aufzeichnungsme
dium 1900, einen Prozessor 2000, ein Interface 2100 und
einen TV-Monitor 2200 auf. Das Kameragehäuse 1800 führt
wie in der neunzehnten Ausführungsform ein Vor-Fotogra
fieren und ein Haupt-Fotografieren durch. Beim Vor-Fo
tografieren wird ein Objektbild von dem Mittenbereich
einer Linse 1801 eingegeben, von einem Spiegel 1802 re
flektiert und auf einen Autofokussensor 1803 (im fol
genden mit AF-Sensor bezeichnet) gelenkt. Der AF-Sensor
1803 wird auf der Grundlage eines Phasendifferenz-Auto
fokusschemas ähnlich der Stereoanpassung in der neun
zehnten Ausführungsform betrieben und Daten entsprechend
einer Phasendifferenz der zwei mit Parallaxe fokussier
ten Bilder werden einem Bereichs-Berechnungsschaltkreis
1804 zugeführt. Der Berechnungsschaltkreis 1804 berech
net einen Abstand zwischen dem Kameragehäuse 1800 und
dem Objekt auf der Grundlage der Daten von dem Autofo
kussensor 1803. Die Distanzdaten werden in einem Spei
cher 1805 gespeichert. Die obigen Abläufe werden für
verschiedene Positionen des Objektes, welche von einer
Bedienungsperson festgesetzt werden, wiederholt. Die
einzelnen Ergebnisse werden in dem Speicher 1805 ge
speichert. Die Distanzmessung-Ergebnisse der Mehrzahl
von Punkten, die in dem Speicher 1805 gespeichert sind,
werden zu einer Steuerung 1806 geschickt, wonach die
Bedingungen für das Haupt-Fotografieren gesetzt werden.
Der Ablauf des Haupt-Fotografierens wird im folgenden
erläutert. Die Steuerung 1806 gewichtet in geeigneter
Weise Bilder mit unterschiedlichen In-Fokus-Positionen
und gibt diese Bilder auf der Grundlage der Distanzdaten
zwischen dem Kameragehäuse 1800 und dem Objekt (gemessen
beim Vor-Fotografieren) ein und addiert sie. Das heißt,
eine In-Fokus-Positionssteuerung 1807 ändert diskret die
In-Fokus-Position innerhalb des Bereiches, der beim
Vor-Fotografieren vorgewählt wurde. In diesem Zustand
wird ein Bild, das von der Linse 1801 fokussiert wird,
einer Bildeingabevorrichtung 1808 eingegeben. Das in die
Eingabevorrichtung 1808 eingegebene Bildsignal wird von
einem A/D-Wandler 1809 in ein Digitalsignal umgesetzt.
Das Digitalsignal wird von einem Multiplizierer 1811 mit
einem vorherbestimmten Faktor oder Koeffizient, der in
einem Speicher 1810 gespeichert ist, multipliziert. Das
Produkt von dem Multiplizierer 1811 wird durch einen
Addierer 1812 zu dem Bildsignal in einem Speicher 1813
hinzuaddiert. Diese Summe wird dann in dem Speicher 1813
wieder abgespeichert. Mit dieser Anordnung wird die
Mehrzahl von Bildern, die eingegeben wird während die
In-Fokus-Position diskret geändert wird, miteinander
addiert. In dem Speicher 1813 wird eine Summe gespei
chert. Wenn das Haupt-Fotografiern durchgeführt wird,
wird der Spiegel 1802 mechanisch aus dem optischen Weg
gebracht oder er wird optisch derart beeinflußt, daß er
das Fotografieren nicht mehr stört. Die Distanzmeßdaten
an verschiedenen Beobachtungspunkten, die in dem Spei
cher 1805 aufgezeichnet sind und die Bilddaten in dem
Speicher 1813 werden mittels eines Schreibers 1814 auf
einem Aufzeichnungsmedium 1900 aufgezeichnet.
Aufbau und Arbeitsweise des Prozessors 2000 gemäß Fig.
40B werden nun beschrieben. Die in dem Aufzeichnungsme
dium 1900 aufgezeichneten Daten werden von einem Leser
2001 ausgelesen. Die Bilddaten werden dann in einem
Speicher 2002 gespeichert und die Distanzmeßdaten werden
einer Steuerung 2003 eingegeben. Eine geeignete Rückge
winnungs-Verarbeitung wird unter Verwendung der Di
stanzmeßdaten in Abhängigkeit mit Bedingungen durchge
führt, die von der Steuerung 2003 gesetzt wurden. Ein
Bildsignal, das Rückgewinnungs-verarbeitet worden ist,
wird durch einen D/A-Wandler 2005 in ein Analogsignal
gewandelt und das analoge Videosignal wird auf einem
TV-Monitor 2200 dargestellt. Der Rückgewinnungs-Vorgang
durch den Prozessor 2000 und die verschiedenen Bildaus
gangsvorgänge werden von dem Interface 2100, das mit der
Steuerung 2003 verbunden ist, vorgewählt.
Die zwanzigste Ausführung mit dem erwähnten Aufbau hat
die folgende Arbeitsweise: Eine Bedienungsperson setzt
verschiedene Objektteile in einen Mittenbereich des
Rahmenbildes fest und drückt einen Bereichsberech
nungs-Knopf. Die Distanz zwischen dem Kameragehäuse 1800
und den verschiedenen Objektbereichen werden in dem
Speicher 1805 in dem Kameragehäuse 1800 aufgezeichnet.
Die Steuerung 1806 setzt die Eingangsbedingungen für das
von der Bedienungsperson ausgewählte Objekt auf beinahe
defokusiert. In diesem Zustand wird das Haupt-Fotogra
fieren durchgeführt. Der Prozessor 2000 führt eine
geeignete Rückgewinnungs-Verarbeitung auf der Grundlage
der Distanzmessungsdaten durch, welche beim Vor-Foto
grafieren erhalten worden sind.
Ein Verfahren von Festsetzen von Additions- und Einga
bebedingungen der Bilder auf der Grundlage einer Mehr
zahl von Distanzmessungsdaten wird im folgenden be
schrieben. Aus Gründen der Einfachheit der Erläuterung
sei angenommen, daß zwei Objekte mit unterschiedlichen
Abständen von dem Kameragehäuse 1800 vorhanden sind.
Erfindungsgemäß wird, um ein Bild mit einem großen
Brennpunktsabstand durch Durchführen einer raum-inva
rianten Rückgewinnungs-Filterung der eingegebenen Bil
der, die miteinander addiert wurden, während die In-Fo
kus-Position geändert wurde, anzuzeigen, der Grad der
Defokussierung des synthetisierten Bildes raum-invariant
sein muß. Ein Defokussierungsbetrag um "außerhalb der
Fokussierung" wird durch eine geometrische Annäherung
gegeben.
Fig. 41 zeigt diese geometrische Beziehung. Es sei ange
nommen, daß ein Objektpunkt A1 von einer Fotografier
ebene 1820 des Kameragehäuses 1800 um eine Distanz l1
entfernt ist und daß ein Objektpunkt A2 hiervon um einen
Abstand l2 entfernt ist. Weiterhin sei angenommen, daß
eine Distanz zwischen den Objektpunkten A1 und A2 gleich
d ist. Die obere Hälfte von Fig. 41 zeigt eine geome
trische Beziehung, wenn der Objektpunkt A1 fokussiert
ist. In diesem Fall wird ein Defokussierungsbetrag σ2
des Objektpunktes A2 von einem Strahlenbündel vertreten,
das von dem Objektpunkt A2 in der Fotografierebene 1820
entspringt. Die untere Hälfte von Fig. 41 zeigt die
geometrische Beziehung, wenn der Objektpunkt A2 fokus
siert ist. In diesem Falle wird ein Defokussierungsbe
trag σ1 des Objektpunktes A1 von einem Strahlenbündel
vertreten, welches von dem Objektpunkt A1 in der Foto
grafierebene 1820 vorspringt. Wenn eine Brennweite der
Linse 1801 zu f definiert ist und die Bedingung f << l1
angenommen wird, können die Defokussierungsbeträge σ2
und σ1 wie folgt angenähert werden:
wobei F eine f-Nummer der Kamera ist und F = f/D (D =
Durchmesser einer Austrittspupille einer Linse). Wenn
die Näherungsgleichungen (h) und (i) verglichen werden,
ergibt sich die Beziehung zwischen dem Defokussierungs
betrag σ2 des Objektpunktes A2 bei Fokussierung auf den
Objektpunkt A1 und der Defokussierungsbetrag σ1 des Ob
jektpunktes A1 bei Fokussierung auf den Objektpunkt A2
zu σ2 < σ1. Wenn die Differenz zwischen diesen beiden
Defokussierungsbeträgen klein ist, ist die Distanz l1
klein. Mit anderen Worten, es zeigt sich, daß ein typi
scher Effekt erhalten wird, wenn das Objekt A1, das nä
her an der Kamera ist, sich hieran noch annähert. In
diesem Fall können die Defokussierungsbeträge der Ob
jekte an den Objektpunkten A1 und A2 in den addierten
und eingegebenen Bildern während sich die In-Fokus-Po
sition äquidistant im Bereich zwischen den Objektpunkten
A1 und A2 ändert, nicht gleich erhalten werden. Dies
bedeutet, daß der Defokussierungsbetrag des Objektes am
Objektpunkt A2 größer ist als der am Objektpunkt A1. In
dieser Ausführungsform wird der Defokussierungsbetrag
des synthetisierten Bildes durch eine Gewichtungsaddie
rung auf raum-invariant gesetzt, d. h. durch eine Ad
dierung mit einer Gewichtung. Ein Verfahren zur Bestim
mung eines Gewichtungsfaktors wird im folgenden be
schrieben.
Es sei angenommen, daß m In-Fokus-Positionen äquidistant
innerhalb des Bereiches zwischen A1 und A2 festgesetzt
sind, wie in Fig. 42 dargestellt. Gewichtungskoeff
izienten oder -faktoren ωi (i = 1, 2, .... m) werden mit
den entsprechenden In-Fokus-Positionen multipliziert und
die Produkte werden miteinander addiert. Defokussie
rungsbeträge σ2(i) und σ1(i) (i = 1, 2, ... m) an den
Punkten A2 und A1 an den In-Fokus-Positionen werden
durch die folgenden Gleichungen ausgedrückt:
Die Defokussierungbeträge der Objekte an den Objekt
punkten A2 und A1 der gewichteten und addierten Bilder
werden durch
repräsen
tiert. Um ein Minimum ωi (i = 1, 2, ... m) unter der Be
dingung dieser Punkte zu erhalten, die durch
beschränkt sind, wird ein Lagrange'sches Unbestimmt
heits-Multiplizierverfahren wie folgt verwendet:
Ein gleichzeitiges System (p) wird für eine unbestimmte
Anzahl ωi (i = 1, 2, . . . m) auf der Basis der Gleichun
gen (o) und (m) errichtet. Das System (p) ergibt sich
in Form der folgenden Matrix:
Durch Auflösung der Matrix (p) kann ein optimales i (i =
1, 2, . . . m) erhalten werden.
Wenn die Distanz (l1 und d) zwischen dem Kameragehäuse
1800 und dem Objekt erfaßt wurde, wird zuvor der Weg des
Festsetzens des Gewichtungsfaktors überprüft. Geeignete
Gewichtungsadditions- und Eingabeabläufe werden in der
Praxis auf der Grundlage der Distanz zu jedem Objekt
durchgeführt, welche beim Vor-Fotografieren berechnet
wird. Wenn die Linse 1801 eine austauschbare Linse ist,
kann der Gewichtungsfaktor bzw. die Gewichtungsfaktor
daten in einem Speicher mit wahlfreiem Zugriff (ROM) für
die Linse 1801 gespeichert werden und die Daten werden
der Steuerung 1806 in dem Kameragehäuse 1800 übertragen,
so daß eine vorbestimmte Verarbeitung durchgeführt wer
den kann.
Bei dieser zwanzigsten Ausführungsform kann der Brenn
punktsabstand beliebig geregelt werden, um auf alle Ob
jekte zu fokussieren, die wahlweise von einer Bedie
nungsperson ausgewählt werden. Additionen mit Gewichtung
werden durchgeführt, um den Defokussierungszustand des
Bildes so zu setzen, daß dieser praktisch raum-invariant
ist, so daß der Rückgewinnungs-Verarbeitungsvorgang ver
einfacht ist.
Fig. 43 zeigt die Anordnung einer einundzwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einer elektronischen Kamera wie in der neunzehnten
und zwanzigsten Ausführungsform. Die Anordnung dieser
einundzwanzigsten Ausführungsform entspricht der Anord
nung, die erhalten wird, wenn in der zwanzigsten Aus
führungsform gemäß Fig. 40A auf den Speicher 1810 und
den Multiplizierer 1811 des Kameragehäuses 1800 ver
zichtet wird. Ein Kameragehäuse 2300 in der einundzwan
zigsten Ausführungsform führt ein Vor-Fotografieren und
ein Haupt-Fotografieren durch. Beim Vor-Fotografieren
passiert das gleiche wie im Falle der zwanzigsten Aus
führungsform und eine detaillierte Beschreibung hiervon
erfolgt nicht mehr. Im folgenden wird der Vorgang beim
Haupt-Fotografieren in der einundzwanzigsten Ausfüh
rungsform beschrieben. Eine Steuerung 2306 steuert einen
In-Fokus-Positionskontroller 2307 um Bilder in Abhän
gigkeit von Bedingungen bestimmt durch das Vor-Fotogra
fieren einzugeben und zu addieren. Der Kontroller 2307
ändert diskret die In-Fokus-Position in Abhängigkeit der
erwähnten Bedingungen. In jedem Zustand wird ein Bild,
das durch eine Linse 2301 fokussiert ist einer Bildein
gabevorrichtung 2308 zugeführt. Ein Bildsignal der Vor
richtung 2308 wird von einem A/D-Wandler 2309 in ein
digitales Signal umgesetzt. Das digitale Signal wird von
einem Addierer 2312 zu dem Bildsignal in einem Speicher
2313 hinzuaddiert. Die sich ergebende Summe wird wieder
in dem Speicher 2313 gespeichert. Mit dieser Anordnung
wird die Mehrzahl von gegebenen Bildern, während die
In-Fokus-Position diskret geändert wird, akkumuliert und
addiert. Das Ergebnis wird dann in dem Speicher 2313
gespeichert. Distanzmeßdaten von verschiedenen Beobach
tungspunkten in dem Speicher 2305 und die Bilddaten in
dem Speicher 2313 werden auf im Aufzeichnungsmedium 1900
mittels eines Schreibers 2314 aufgezeichnet. Das syn
thetisierte Bild auf dem Aufzeichnungsmedium 1900 wird
von einem Prozessor in gleicher Weise wie in der zwan
zigsten Ausführungsform ausgelesen und einer geeigneten
Rückgewinnungs-Verarbeitung auf der Grundlage der Dis
tanzmeßdaten, ausgelesen von dem Aufzeichnungsmedium
1900 unterworfen. Die entsprechend verarbeiteten Daten
werden auf einem TV-Monitor dargestellt. Anordnungen von
Prozessor, Monitor und Interface dieser Ausführungsform
entsprechen der der zwanzigsten Ausführungsform.
Die einundzwanzigste Ausführungsform mit dem erwähnten
Aufbau hat die folgende Arbeitsweise: Wie bereits unter
Bezugnahme auf die zwanzigste Ausführungsform erläutert,
ist die Defokussierung der Bilder die eingegeben werden,
während die Distanz zwischen den Punkten A1 und A2
äquidistant in In-Fokus-Positionen unterteilt ist, nicht
raum-invariant. Diese Ausführungsform verwendet die
folgende Einrichtung um die Bilder einzugeben und zu
addieren, so daß die Defokussierung praktisch völlig
raum-invariant wird. In-Fokus-Punkte werden von dem Ob
jektpunkt A1 zu dem Objektpunkt A2 gesetzt, wie in Fig.
44 dargestellt. Das heißt, die Distanz zwischen den
In-Fokus-Positionen ist groß nahe dem Objektpunkt A1
aber die Distanz zwischen den In-Fokus-Positionen wird
kleiner nahe dem Objektpunkt A2. Ein Objekt an dem ent
fernten Objektpunkt A2 vom Kameragehäuse 2300 beim Set
zen der In-Fokus-Positionen wie beschrieben wird nun in
Betracht gezogen. Die Anzahl von Bildern mit großen De
fokussierungsbeträgen an einem Brennpunkt des Kamerage
häuses 2300 an einem näheren Punkt ist geringer als die,
die erhalten wird bei äquidistanten In-Fokus-Positionen.
Der Defokussierungsbetrag des Objektes an dem Objekt
punkt A2 kann in dem synthetisierten Bild reduziert
werden. Der Defokussierungsbetrag des Objektes am Ob
jektpunkt A1 ist im Vergleich mit dem Fall in dem
synthetisierten Bild erhöht, indem die In-Fokus-Posi
tionen äquidistant gesetzt sind. Somit ist die Defokus
sierung des synthetisierten Bildes praktisch raum-inva
riant. Die Distanzen zwischen den In-Fokus-Positionen in
dieser Ausführungsform können leicht durch den Faktor ωi
(i = 1, 2, . . . m) berechnet werden durch das Verfahren,
das bereits unter Bezug auf die zwanzigste Ausführungs
form beschrieben wurde. In der einundzwanzigsten Aus
führungsform können die Bilder geeignet eingegeben und
addiert werden auf der Grundlage der Distanzen zu den
entsprechenden Objekten, welche beim Vor-Fotografieren
gemessen wurden.
Der gleiche Effekt wie in der zwanzigsten Ausführungs
form kann auch bei der einundzwanzigsten Ausführungsform
mit einer einfachen Anordnung erhalten werden.
Fig. 45 zeigt die Anordnung einer zweiundzwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einer elektronischen Kamera, wie in der neunzehnten,
zwanzigsten und einundzwanzigsten Ausführungsform. Die
Anordnung bzw. Ausgestaltung des Kameragehäuses 2400 in
der zweiundzwanzigsten Ausführungsform ist gleich der
Anordnung die erhalten wird, indem der Addierer 2312 in
der einundzwanzigsten Ausführungsform weggelassen wird.
Das Kameragehäuse 2300 dieser Ausführungsform führt ein
Vor-Fotografieren und ein Haupt-Fotografieren durch. Der
Ablauf des Vor-Fotografierens in dieser Ausführungsform
entspricht dem in der zwanzigsten Ausführungsform und
eine detaillierte Beschreibung hiervon erfolgt nicht.
Beim Haupt-Fotografieren steuert eine Steuerung 2406
einen In-Fokus-Positionskontroller 2407 derart, daß
Bilder auf der Grundlage der beim Vor-Fotografieren be
stimmten Bedingungen eingegeben und addiert werden. Die
Bilder, die auf eine Linse 2401 fokussiert werden, wäh
rend die In-Fokus-Position mit einer festgelegten Ge
schwindigkeit innerhalb einer Belichtungszeit geändert
wird, werden auf einer lichtempfindlichen Oberfläche
einer Abbildungsvorrichtung 2408 akkumuliert. Das akku
mulierte Bild wird von einem Konverter 2409 in ein di
gitales Signal umgesetzt und das digitale Signal wird in
einem Speicher 2413 gespeichert. Die gespeicherten
Bilddaten zusammen mit den Distanzmeßdaten in einem
Speicher 2405 werden auf einem Aufzeichnungsmedium 1900
mittels eines Schreibers 2414 gespeichert. Das synthe
tisierte oder akkumulierte Bild auf dem Aufzeichnungs
medium 1900 wird in einem Prozessor ähnlich dem der
zwanzigsten Ausführungsform übertragen. Die ausgelesenen
Daten werden einer geeigneten Rückgewinnungs-Verarbei
tung auf der Grundlage der Distanzmeßdaten von dem Auf
zeichnungsmedium 1900 unterworfen. Das entsprechend ver
arbeitete Bild wird dann auf einem TV-Monitor darge
stellt. Anordnung von Prozessor, Monitor und Interface,
mit dem eine Bedienungsperson Manipulationen vornehmen
kann, entsprechen der der zwanzigsten Ausführungsform.
Die zweiundzwanzigste Ausführungsform mit der beschrie
benen Anordnung arbeitet wie folgt: Die In-Fokus-Punkte
werden gesteuert um raum-invariant zu sein unter Ver
wendung der Distanzmeßdaten von verschiedenen Objekten,
die beliebig von einer Bedienungsperson in gleicher
Weise wie in der zwanzigsten und einundzwanzigsten Aus
führungsform ausgewählt werden können. Um den geometri
schen Beziehungen gemäß Fig. 41 gerecht zu werden, wer
den die In-Fokus-Positionen innerhalb der Belichtungs
zeit in diser Ausführungsform mit den Charakteristiken
gesteuert, die wie in Fig. 46 dargestellt, geändert
sind. Genauer gesagt, die In-Fokus-Position wird schnell
bewegt, um die Bilder nahe dem Objektpunkt A1 näher an
dem Kameragehäuse 2400 nur sparsam zu akkumulieren, wo
hingegen die In-Fokus-Position langsam bewegt wird, um
die Bilder nahe dem Objektpunkt A2 entfernt von dem Ka
meragehäuse 2400 dicht zu akkumulieren. Hierdurch ist
das synthetisierte Bild praktisch raum-invariant, wo
durch die Defokussierung nicht von örtlichkeiten ab
hängt, also so wie in der einundzwanzigsten Ausfüh
rungsform. Eine Kurve f(x) in Fig. 46 ist so gegeben,
daß der Faktor ωi (i = 1, 2, . . . m) aus der zwanzigsten
Ausführungsform als Differentialkoeffizient entlang ei
ner Koordinatenachse x dient, welche die In-Fokus-Posi
tionen angibt. Das heißt,
gilt.
Wie in Fig. 47 dargestellt, können Bilder akkumuliert
und eingegeben werden, während die In-Fokus-Position
schrittweise geändert wird. In diesem Fall wird die Be
lichtungszeit in der In-Fokus-Position vorzugsweise so
gesetzt, daß sich ein Verhältnis der Faktoren i (i = 1,
2, . . . m) ergibt, wie in der zwanzigsten Ausführungsform
erhalten.
Die gleichen Effekte wie in der zwanzigsten und ein
undzwanzigsten Ausführungsform können in der zweiund
zwanzigsten Ausführungsform mit einer noch einfacheren
Anordnung erreicht werden.
Eine Anordnung für ein optisches System zur Eingabe von
Bildern mit unterschiedlichen In-Fokus-Positionen der
ersten, zweiten, dritten, fünfzehnten, neunzehnten,
zwanzigsten, einundzwanzigsten und zweiundzwanzigsten
Ausführungsform wird im folgenden beschrieben.
Fig. 48 zeigt die Anordnung einer Zoom-Linse. Das Lin
sensystem weist ein Fokussierungssystem 2501, ein va
riables System 2502, ein Kompensatorsystem 2503 und ein
Relaislinsensystem 2504 auf. Jedes Linsensystem kann aus
einer Mehrzahl von Linsen bestehen, wobei jedoch in Fig.
48 diese Mehrzahl von Linsen nicht dargestellt ist. Von
den obigen Linsensystemen wird das Relaislinsensystem
2504 beim Zoomen nicht mechanisch bewegt und fokussiert
ein Bild das von dem Kompensatorsystem 2503 geführt wird
auf eine Abbildungsvorrichtung 2506. Wenn somit das Re
laislinsensystem 2504 von einem entsprechenden Treiber
2505 in der optischen Achse angetrieben wird, können
Bilder mit In-Fokus-Positionen eingegeben werden, unab
hängig von den Brennweiten der Linsen. Der Relaislin
sentreiber 2505 wird von einem Stellglied realisiert
unter Verwendung eines elektromagnetischen Motors, eines
Ultraschallmotors, eines piezoelektrischen Elements oder
dergleichen.
Fig. 49 zeigt eine dreiundzwanzigste Ausführungsform der
vorliegenden Erfindung. Die dreiundzwanzigste Ausfüh
rungsform entspricht teilweise der dritten Ausführungs
form gemäß Fig. 3. Ein Objektbild wird auf einen licht
empfangenden Teil einer Abbildungsvorrichtung 52, ge
bildet durch ein CCD oder eine Abbildungsröhre durch
eine Linse 51, dargestellt im oberen rechten Abschnitt
von Fig. 49, fokussiert. Ein optisches Eingabesystem
weist normalerweise eine Mehrzahl von Linsen auf, jedoch
ist aus Gründen der Übersichtlichkeit nur eine Linse
dargestellt. Ein Ausgangssignal, d. h. ein Bildsignal
von der Abbildungsvorrichtung 52 wird von einem A/D-
Wandler 53 in ein digitales Signal umgesetzt. Das digi
tale Signal wird in einem festgelegten von Speichern
55-1 bis 55-m abgespeichert, der von einem Selektor 54
ausgewählt wird. Diese Abläufe werden so durchgeführt,
daß die In-Fokus-Position diskret von einer Steuerung 56
in festgelegten Intervallen innerhalb eines festgelegten
Abstandsbereiches geändert wird. Die n (n ≦ m) eingege
benen Bilder werden entsprechend in n-Speichern der
Speicher 55-1 bis 55-m gespeichert. Die in den Speichern
55-1 bis 55-m gespeicherten Bilder werden einer Fou
rier-Transformation unterworfen und die Ergebnisse wer
den wieder in den Speichern 55-1 bis 55-m gespeichert.
Die in den Speichern 55-1 bis 55-m gespeicherten Fou
rier-transformierten Bildsignale werden einem Komparator
58 zugeführt. Der Komparator 58 vergleicht Spektralin
tensitäten der Fourier transformierten Bilder in Ein
heiten von Ortsfrequenzen. Die Fourier transformierten
Bilder werden von höher- zu niederintensiven Bilder neu
geordnet. Diese Bildsignale werden Multiplizierern 60-1
bis 60-P (P ≦ m) zugeführt. Faktoren oder Koeffizienten
in einem Speicher 59 werden den Multiplizierern 60-1 bis
60-P als Multiplikanten zugeführt. Die Multiplizierer
60-1 bis 60-P multiplizieren die Koeffizienten mit den
Fourier transformierten Bildsignalen von dem Komparator
58. Die Ausgangssignale von den Multiplizierern 60-1 bis
60-P werden einem Addierer 61 zugeführt und hier ad
diert. Ein synthetisiertes Signal von dem Addierer 61
wird in einem Speicher 62 gespeichert. Die Fourier
transformierten Bilder, die in Einheiten von Ortsfre
quenzen gewichtet und addiert und in dem Speicher 62
aufgezeichnet sind, werden dann mittels einem FFT-
Arithmetikelement 57 einer inversen Fourier-Transforma
tion unterworfen. Das Ergebnis von dem Arithmetikelement
57 wird wieder in dem Speicher 62 gespeichert. Das ver
arbeitete Bildsignal in dem Speicher 62 wird durch einen
D/A-Wandler 63 in ein Analogsignal umgesetzt. Das Ana
logsignal wird auf einem Anzeigemonitor 64 dargestellt.
Die Zeitsteuerung und die Signalflüsse in den obigen
Abläufen werden durch eine Steuerung 65 gesteuert.
Anstelle des Faktor-Festsetzungsspeichers 59 und der
Multiplizierer 60-1 bis 60-P kann eine Datentabelle
(lookup table) verwendet werden und vorher bestimmte
Faktoren können durch eine Tabellenkonversion multipli
ziert werden. Die originalen Bildsignale in den Spei
chern 55-1 bis 55-m können auf einem anderen Aufzeich
nungsmedium, beispielsweise einer Floppydisk, einem Ma
gnetband, einem optischen Speicher oder dergleichen
aufgezeichnet werden. Die Bildeingabe, Aufzeichnungs-
und Wiedergabeeinheiten können off-line derart mitei
nander sein, daß das aus diesem externen Aufzeichnungs
medium ausgelesene Bildsignal der Fourier-Transformation
Additionen mit Gewichtung und inverser Fourier-Trans
formation während der Bildwiedergabe unterworfen werden
kann. Die Gewichtungsfaktoren oder -Koeffizienten, die
während der Addition mit den gewichteten Einheiten von
Ortsfrequenzen verwendet werden, können von Anfang an
fest sein oder einer aus der Mehrzahl von Faktoren vor
gespeichert in dem Speicher 59 kann durch eine Bedie
nungsperson ausgewählt werden. Alternativ hierzu kann
der Inhalt des Speichers 59 erneuert werden.
Die dreiundzwanzigste Ausführungsform mit dem erwähnten
Aufbau hat die folgende Arbeitsweise: Es sei angenommen,
daß ein Objekt 70 eine stufenweise Struktur hat wie in
Fig. 50 dargestellt. Die entsprechenden Oberflächen der
stufenartigen Abschnitte des Objektes 70 haben natürli
che Frequenzen. Wenn das Objekt 70 mit Vorsprüngen in
Tiefenrichtung mit einem optischen System beobachtet
wird, das einen relativ kleinen Brennpunktsabstand hat,
kann eine fokussierte Oberfläche klar beobachtet werden,
aber die anderen Oberflächen sind außerhalb des Fokus
sierungsbereiches. Wenn eine gegebene Oberfläche fokus
siert ist, hat sein Eingangsbild eine Frequenz, die
einzig zu seiner Oberfläche ist. Somit haben die Fou
rier-Spektren FS1, FS2, FS3, . . . dieser Eingangsbilder,
die auf die entsprechenden Oberflächen fokussiert sind,
natürliche Ortsfrquenzdaten der entsprechenden Oberflä
chen. Wenn die Fourier-Spektren FS1, FS2, FS3, . . . der
Mehrzahl von eingegangenen Bildern gewichtet und addiert
werden in Einheiten der Ortsfrequenzen, während die
Brennpunktslage geändert wird, kann hierdurch ein syn
thetisiertes Fourier-Spektrum eines Bildes erhalten
werden einschließlich der Ortsfrequenzdaten aller Ober
flächen.
In diesem Fall wird die folgende Gewichtungstechnik
verwendet: Eine gegebene Ortsfrequenz wird in Betracht
gezogen und Spektralintensitäten der Frequenzen werden
zwischen den Bildern mit unterschiedlichen In-Fokus-Po
sitionen verglichen. "10" wird mit dem Bild mit der
höchsten Spektralintensität multipliziert und "0" wird
mit den verbleibenden Bildern multipliziert oder "4",
"3", "2" und "1" werden den Bildern von den höheren
Spektralintensitäten der Frequenz zugewichtet. Alternat
iv hierzu kann die Gewichtung proportional zu den Spek
tralintensitäten erfolgen. Wenn praktisch nur noch Rau
schen in einer Hochortsfrequenz-Region auftritt, werden
identische Gewichtungsfaktoren oder -Koeffizienten ver
wendet und "0" wird jeweils mit den Bildern multipli
ziert, wodurch das Rauschen verringert wird. Die Ge
wichtungstechnik kann geeignet ausgewählt werden in Ab
hängigkeit von den Eigenschaften des Objektes oder des
optischen Systems.
Das sich ergebende Fourier-Spektrum-Bild wird einer in
versen Fourier-Transformation unterworfen, um ein Bild
zu erhalten mit einem im wesentlichen hohen Brennpunkts
abstand. Aus Gründen der Einfachkeit der Erläuterung
wird eine eindimensionale Fourier-Transformation ver
wendet, es kann jedoch auch eine zweidimensionale Fou
rier-Transformation in der Praxis verwendet werden.
Fig. 51 zeigt die Anordnung einer vierundzwanzigsten
Ausführungsform der vorliegenden Erfindung. In dieser
Ausführungsform wird ein optisches Element, z. B. eine
Linse 66 so ausgelegt, daß absichtlich eine chromatische
Aberration in dem optischen System zur Bildeingabe
auftritt. Zusätzlich sind dichroitische Spiegel 67-1 und
67-2 hinterhalb der Linse 66 angeordnet. Bilder mit un
terschiedlichen Wellenlängen-Bereichen werden von Ab
bildungsvorrichtungen 52-1 bis 52-3 ausgebildet. Die
Spiegel 67-1 und 67-2 können Spiegel mit Filtercharak
teristiken gemäß Fig. 52 sein.
Wie in Fig. 52 dargestellt, kann der Spiegel 67-1 Licht
des blauen Bereiches reflektieren und Licht mit einer
Wellenlänge größer als der von grün hindurchlassen. Der
Spiegel 67-2 kann Licht mit einer Wellenlänge kleiner
als der von grün reflektieren und ist durchlässig für
rotes Licht. Mit dieser Anordnung wird ein Bild eines
blauen Bereiches der Abbildungsvorrichtung 52-1 einge
geben, ein grünes Bild der Abbildungsvorrichtung 52-2
und ein rotes Bild der Abbildungsvorrichtung 52-3.
Gemäß Fig. 51 werden die Bildsignale von den Abbil
dungsvorrichtungen 52-1 bis 52-3 von A/D-Wandlern 53-1
bis 53-3 in digitale Signale umgesetzt. Die digitalen
Signale werden in Speichern 55-1 bis 55-m abgespeichert.
Die verbleibenden Punkte dieser Ausführungsform sind
gleich der dreiundzwanzigsten Ausführungsform und eine
detaillierte Beschreibung erfolgt nicht.
Gemäß dieser Ausführungsform wird das Bild in drei Kom
ponenten, d. h. in die Komponenten blau, grün und rot
aufgeteilt. Jedoch ist die vorliegende Erfindung nicht
auf diesen Sachverhalt beschränkt. Beispielsweise kann
die Anzahl der Bänder auf vier oder mehr erhöht werden
oder auch auf zwei beschränkt werden. Zusätzlich kann
ein Interferenzfilter verwendet werden, um ein Bild
einzugeben mit einem engen speziellen Wellenlängenbe
reich. Eine Mehrzahl von durchschnittlichen Bandpaß-
oder Farbfiltern kann anstelle der dichroitischen Spie
gel 67-1 und 67-2 verwendet werden und diese Filter
können schaltbar sein um eine Abbildungsvorrichtung zu
veranlassen, Bilder mit einem Mehrfachband auszugeben.
Die vierundzwanzigste Ausführungsform mit dem erwähnten
Aufbau hat die folgende Arbeitsweise: Die spektrale Re
flektionscharakteristik eines allgemeinen Objektes ist
über einen weiten Bereich im wesentlichen entsprechend
dem gesamten Bereich von sichtbaren Licht verteilt.
Bilder an den entsprechenden Wellenlängen haben eine
starke Korrelation. Das heißt, durch Verwendung eines
optischen Elementes, welches absichtlich eine chromati
sche Aberration verursacht, werden Bilder mit unter
schiedlichen Brennpunktslagen entsprechend den Wellen
längen fokussiert und Bilder mit im wesentlichen unter
schiedlichen In-Fokus-Positionen können gleichzeitig
eingegeben werden. Da Bilder eingegeben werden können,
die an einer Mehrzahl von Positionen fokussiert sind,
ohne irgendeinen mechanischen Vorgang zur Änderung der
In-Fokus-Position zu erzeugen, kann eine Vorrichtung
frei von Verzerrungen oder dergleichen geschaffen wer
den, die bisweilen bei mechanischen Vorrichtungen der
Fall sein können.
Fig. 53 zeigt die Anordnung einer fünfundzwanzigsten
Ausführungsform der vorliegenden Erfindung. Diese Aus
führungsform entspricht teilweise der vierten Ausfüh
rungsform gemäß Fig. 4. In der fünfundzwanzigsten Aus
führungsform sind Halbspiegel 68-1 und 68-2 hinter einer
Linse 51 eines optischen Systems zur Bildeingabe an
geordnet und Distanzen zwischen der Linse 51 und den
Abbildungsvorrichtungen 52-1 bis 52-3 sind zueinander
unterschiedlich festgesetzt. Die weiteren Anordnungen
sind gleich der in der vierundzwanzigsten und dreiund
zwanzigsten Ausführungsform und eine nochmalige detail
lierte Beschreibung erfolgt nicht.
Die Abbildungsvorrichtungen 52-1 bis 52-3 können beweg
bar sein, um ihre Lage in Abhängigkeit mit den ver
schiedenen Objekttypen geeignet festsetzen zu können.
Die fünfundzwanzigste Ausführungsform mit der erwähnten
Anordnung hat die folgende Arbeitsweise: in dieser Aus
führungsform werden die Bilder, die auf die Mehrzahl von
unterschiedlichen Ebenen fokussiert sind, eingegeben und
die Mehrzahl von Bildern mit unterschiedlichen In-Fo
kus-Positionen kann gleichzeitig eingegeben werden. So
mit kann eine einfache Anordnung erhalten werden, bei
der die mechanischen Operationen zur Änderung der In-Fo
kus-Positionen nicht durchgeführt werden müssen und die
Anwendungsmöglichkeiten für diese Vorrichtung können
erweitert werden.
Die Fig. 54A bis 54C zeigen eine Anordnung gemäß einer
sechsundzwanzigsten Ausführungsform der vorliegenden
Erfindung in Verbindung mit einem oberflächensequen
tiellen elektronischen Endoskop ähnlich der achten Aus
führungsform gemäß den Fig. 13A bis 13C. Das elektroni
sche Endoskop faßt hauptsächlich eine Endoskopsonde
3300, eine Bildeingabeeinheit 3301, eine Farbfehlaus
richtungs-Korrektureinheit 3302, einen Farbinformations
aufzeichner 3303, eine Brennpunktabstands-Erhöhungsein
heit 3304, eine Bildanzeigeeinheit 3305 und eine Steue
rung 3306. Eine Abbildungsvorrichtung 3310 die monochro
matisch und auf Halbleiterbasis ist, beispielsweise eine
CCD, ist am distalen Ende der Endoskopsonde 3300 ange
ordnet. Ein Bild, das von einer Objektivlinse in einer
In-Fokus-Lagesteuerung 3311 fokussiert wird, wird abge
bildet. In diesem Falle wird Beleuchtungslicht wie folgt
erhalten: Licht von einer Weißlichtquelle 3313, wie
beispielsweise einer Xe-Lampe, welches ein Drehfarben
filter 3312 in der Bildeingabeeinheit 3301 durchtritt,
wird mittels eines Lichtleiters 3314 bestehend aus einer
optischen Faser oder dergleichen in die Endoskopsonde
3300 geführt. Das Licht wird dann vom distalen Ende der
Sonde abgestrahlt.
Der drehende Farbfilter 3312 weist den gleichen Aufbau
auf wie der gemäß Fig. 14.
Gemäß Fig. 54B, wird der Farbfilter 3312 von einem Motor
3314 in der Bildeingabeeinheit 3301 angetrieben und die
Farben des Beleuchtungslichtes ändern sich in der Rei
henfolge von R nach G und nach B. Aus diesem Grund wird
ein mit diesem Lichtkomponenten beleuchtetes Objekt mit
diesen Farben von der Bildabtastvorrichtung 3310 als
monochromatisches Bild aufgenommen. Ein Ausgangsbildsi
gnal von der Bildaufnahmevorrichtung 3310 wird mittels
eines A/D-Wandlers 3315 in ein digitales Signal umge
setzt und das digitale Signal wird in einem entspre
chenden vorbestimmten Farbbereich von Rahmenbildspei
chern 3317-1 bis 3317-3 gespeichert. Die obigen Abläufe
werden von einer Bildeingabesteuerung 3318 gesteuert.
Die Komponenten R und G oder die Komponenten G und B der
Primärfarbbilder, d. h. der Komponenten R, G und B, die
sequentiell in dem Rahmenbildspeicher 3317 gespeichert
sind, werden von einem Selektor 3319 ausgewählt. Die
ausgewählten Bildsignale werden einem Bereichsdetektor
3320 in der Farbfehlausrichtungs-Korrektureinheit 3302
zugeführt und Fehlausrichtungsbeträge der Bilder R oder
B bezüglich des Bildes G werden lokal detektiert. Ein
Adressengenerator 3321 erzeugt Adressen zur Korrektur
der Fehlausrichtungsbeträge, die durch den Detektor 3320
berechnet wurden und diese Adressensignale werden dem
Rahmenbildspeicher 3317-1 bis 3317-3 zugeführt. Die
Rahmenbildspeicher 3317-1 bis 3317-3 korrigieren die
Bilder R und B unter Verwendung der Adressensignale und
eines Pufferspeichers 3317-4.
Das sich ergebende einzelne Farbbild wird der Farbin
formations-Aufzeichnungseinheit 3303 über den Selektor
3319 zugeführt. In der Aufzeichnungseinheit 3303 werden
die entsprechenden Farbkomponenten durch einen Addierer
3322 miteinander addiert, um einen Helligkeitswert Y = R
+ G + B zu erhalten. Gleichzeitig werden die Farbkompo
nenten R, G und B durch Teiler 3323-1 bis 3323-3 durch Y
dividiert. Die Quotienten R/Y, G/Y und B/Y von den Tei
lern 3323-1 bis 3323-3 werden in entsprechenden Spei
chern 3324-1 bis 3324-3 gespeichert.
Die Bilder R, G und B die eingegeben wurden, während die
Brennpunktslage durch Steuerung 3311 in der Endoskop
sonde 3300 geändert wurde, d. h. die Bilder R, G und B
in den Rahmenbildspeichern 3317-1 bis 3317-3 in der
Bildeingabeeinheit 3301 werden in Rahmenbildspeichern
3325-1 bis 3325-3 in einer Brennpunktabstands-Erhöhungs
einheit 3304 aufgezeichnet. Zusätzlich zu den Speichern
3325-1 bis 3325-3 weist die Brennpunktabstands-Erhö
hungseinheit 3304 ein FFT-Arithmetikelement 3326, einen
Komparator 3327, Multiplizierer 3328-1 bis 3328-3, einen
Speicher 3329, einen Addierer 3330 und einen Rahmen
bildspeicher 3331 auf. Die Erhöhungseinheit 3304 wird in
gleicher Weise wie in der dreiundzwanzigsten Ausfüh
rungsform betrieben und das Verarbeitungsergebnis wird
in dem Speicher 3331 als Helligkeit Y = R + G + B ge
speichert.
Die Farbinformation in den Speichern 3324-1 bis 3324-3
und das Bildsignal im Speicher 3331 werden durch Multi
plizierer 3332-1 bis 3332-3 in Einheiten von Farbkompo
nenten multipliziert. Die Produkte der Multiplizierer
3332-1 bis 3332-3 werden der Bildanzeigeeinheit 3305
zugeführt.
Die der Anzeigeeinheit 3305 von den Multiplizierern
3332-1 bis 3332-3 zugeführten Signale werden von D/A-
Wandlern 3333-1 bis 3333-3 in Analogsignale umgesetzt.
Diese Analogsignale werden dann auf einem TV-Monitor
3334 dargestellt. Bildverarbeitung und Anzeige werden
von der Steuerung 3306 kontrolliert.
Diese Ausführungsform verwendet die starke Korrelation
zwischen den drei primären (R, G und B) endoskopischen
Bildern und die Abhängigkeit einer Bilddefokussierung
bereits von der Helligkeit der Farbbildkomponenten.
Bilder mit unterschiedlichen Brennpunktslagen in Ein
heiten der drei Primärgruppen werden in das oberflä
chensequentielle elektronische Endoskop eingegeben und
die weitere Verarbeitung erfolgt durch die vorliegende
Erfindung.
Eine Arbeitsweise dieser Ausführungsform wird nun im
folgenden beschrieben. Komponentenbilder R, G und B
werden sequentiell durch die Bildeingabeeinheit 3301
eingegeben. Wenn in diesem Falle das Objekt oder die
Endoskopsonde 3300 abrupt bewegt wird, weichen die Re
lativlagen der drei Primärbilder von den richtigen Po
sitionen ab, so daß eine sogenannte Farbfehlausrichtung
verursacht wird. Die Farbfehlausrichtungs-Korrekturein
heit 3302 berechnet die Fehlausrichtungsbeträge der
Bilder R und B bezüglich des Bildes B durch Anpassung
zwischen örtlichen Teilbildern. Die Bilder R und B wer
den auf der Grundlage der berechneten Fehlfarbausrich
tungsbeträge korrigiert. Ein Farbbild mit einer festge
setzten In-Fokus-Position wird durch das obige Verfahren
eingegeben. Daten R/Y, G/Y und B/Y, die durch Normali
sierung der Werte R, G und B durch die Helligkeit Y = R
+ G + B erhalten wurden, werden in der Aufzeichnungs
einheit 3203 aufgezeichnet. Die primären Farbbilder
werden eingegeben während die Brennpunktslage geändert
wird und die Eingangsbilddaten werden der Farbfehlaus
richtungs-Korrektur unterworfen. Die korrigierten Daten
werden durch die Brennpunktabstands-Erhöhungseinheit
3304 unter Verwendung der Bilder R, G und B syntheti
siert, so daß ein Bild mit einem hohen Brennpunktsab
stand erhalten werden kann.
Das sich ergebende Bild wird als neues Helligkeitsbild
Y' definiert. Schließlich wird das Bild Y' mit den Daten
R/Y, G/Y und B/Y multipliziert, um ein Farbbild mit ei
nem hohen Brennpunktsabstand zu erhalten.
Diese Ausführungsform hat den Vorteil, daß ein endosko
pisches Bild mit einem hohen Brennpunktsabstand synthe
tisiert werden kann. Da weiterhin eine Objektivlinse mit
einer großen Aperturgröße verwendet werden kann, kann
die Leistung der Beleuchtungsquelle verringert werden.
Zusätzlich kann die Lichtspeicherzeit der Abbildungs
vorrichtung verkürzt werden und ein Einfluß auf Farb
fehlausrichtung kann minimiert werden.
Fig. 55 zeigt die Anordnung einer siebenundzwanzigsten
Ausführungsform der vorliegenden Erfindung in Verbindung
mit einem elektronischen Endoskop unter Verwendung einer
single-plate Farbabbildungsvorrichtung. Gemäß Fig. 55
ist eine Abbildungsvorrichtung 3402 auf Halbleiterbasis
mit einem Farbmosaikfilter 3401 abgedeckt, dessen licht
empfangende Oberfläche aus Filterelementen in R, G und B
besteht, wobei diese Anordnung am distalen Ende einer
Endoskopsonde 3400 angeordnet ist. Ein von einer Objek
tivlinse in einer In-Fokus-Lagesteuerung 3403 fokus
siertes Bild wird abgebildet. In diesem Falle wird Be
leuchtungslicht wie folgt erzeugt: Licht von einer
Weißlichtquelle 3405 wird über einen Lichtleiter 3404 in
die Endoskopsonde 3400 geführt und vom distalen Ende der
Sonde abgestrahlt. Ein Ausgangssignal von der Abbil
dungsvorrichtung 3402 wird in Farbsignale R, G und B
durch einen Farbtrennschaltkreis 3406 geteilt. In dieser
Ausführungsform besteht das Farbmosaikfilter 3401 aus
Filterelementen R, G und B. Das Filter 3401 kann jedoch
auch komplementäre Farbfilterelemente, wie Cyan und Gelb
enthalten. In jedem Fall trennt der Farbtrennschaltkreis
3406 die Farbsignale entsprechend den Farbkomponenten
gebildet durch das Farbmosaikfilter 3401. Die Komponen
tensignale R, G und B werden in Signale Y, R-Y und B-Y
durch einen Matrixschaltkreis 3407 konvertiert. Die Si
gnale Y, R-Y und B-Y werden durch einen NTSC-Enkoder
3408 in ein NTSC-Signal konvertiert. Das NTSC-Signal
wird durch einen A/D-Wandler 3409 in ein digitales Si
gnal umgesetzt und dieses digitale Signal wird in einem
von Rahmenbildspeichern 3411-1 bis 3411-m durch einen
Selektor 3410 gespeichert.
Die n (n ≦ m) Bilder, die eingegeben werden, während die
In-Fokus-Position geeignet geändert wird, werden in
n-Speichern der Speicher 3411-1 bis 3411-m gespeichert.
Die Vorrichtung weist weiterhin ein FFT-Arithmetikele
ment 3411, einen Komparator 3413, Multiplizierer 3414-1
bis 3414-P, einen Speicher 3415, einen Addierer 3416,
einen Rahmenbildspeicher 3417, einen D/A-Wandler 3418,
einen TV-Monitor 3419 und eine Steuerung 3420 auf. In
dieser siebenundzwanzigsten Ausführungsform erfolgt die
gleiche Prozeßverarbeitung wie in der dreiundzwanzigsten
Ausführungsform.
In dieser Ausführungsform wird das Endoskopbild, erhal
ten durch die Farbabbildung 3402 unter Verwendung des
Farbmosaikfilters 3401 in das NTSC-Signal konvertiert.
Das konvertierte Farbbildsignal wird im Rahmen der vor
liegenden Erfindung verarbeitet. Bei dieser Ausfüh
rungsform kann daher die Vorrichtungsgröße selbst ver
ringert werden und der gleiche Effekt für das Endoskop
bild wie in der sechsundzwanzigsten Ausführungsform der
vorliegenden Erfindung erhalten werden.
Weitere Ausführungsformen sind im Rahmen der vorliegen
den Erfindung denkbar, so beispielsweise die Anwendung
auf ein Reflektionsmikroskop wie in der siebten Ausfüh
rungsform gemäß Fig. 12 und die Anwendung auf eine
elektronische Kamera wie in der zwölften Ausführungsform
gemäß Fig. 22.
Claims (15)
1. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von
Bildinformationen, mit
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Einrichtung (2, 3) zur Eingabe einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (4) zum Bereitstellen eines defokussierten Summenbildes durch Addieren der durch die Eingabeeinrichtung (2, 3) eingegebenen Mehrzahl von Bildern, und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung des defokussierten Summenbildes, das durch Addieren der Mehrzahl von Bildern mittels der Addiereinrichtung (4) erhalten wurde.
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Einrichtung (2, 3) zur Eingabe einer Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (4) zum Bereitstellen eines defokussierten Summenbildes durch Addieren der durch die Eingabeeinrichtung (2, 3) eingegebenen Mehrzahl von Bildern, und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung des defokussierten Summenbildes, das durch Addieren der Mehrzahl von Bildern mittels der Addiereinrichtung (4) erhalten wurde.
2. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe
einer Bildinformation, mit
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Einrichtung (2, 3) zum Bereitstellen eines defokussierten Summenbildes durch kontinuierliche Eingabe und Addition der Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind; und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung des defokussierten Summenbildes, das durch Addieren der Bilder mittels der Eingabe- und Addiervorrichtung (2, 3) erhalten wurde.
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Einrichtung (2, 3) zum Bereitstellen eines defokussierten Summenbildes durch kontinuierliche Eingabe und Addition der Mehrzahl von Bildern, die mittels der Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind; und
einer Rückgewinnungs-Verarbeitungseinrichtung (7) zur Durchführung einer Rückgewinnungs-Verarbeitung durch Ortsfrequenzfilterung des defokussierten Summenbildes, das durch Addieren der Bilder mittels der Eingabe- und Addiervorrichtung (2, 3) erhalten wurde.
3. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Fokussiereinrichtung aufweist: eine Ein
richtung (6) zur Änderung einer In-Fokus-Objektebe
nenposition; und eine Einrichtung (18) zur Änderung
eines Wellenlängenbereiches von Licht.
4. Vorrichtung nach Anspruch 1 oder 2, dadurch gekenn
zeichnet, daß die Fokussiereinrichtung eine Ein
richtung (105) zur periodischen Änderung einer In-
Fokus-Objektebenenposition aufweist.
5. Vorrichtung nach Anspruch 1 oder 4, dadurch gekenn
zeichnet, daß die Eingabeeinrichtung eine Einrich
tung (709) zur Durchführung einer Bandpaßfilterung
aufweist und daß die Fokussiereinrichtung eine Ein
richtung (707) zur Auswahl eines Bereiches, inner
halb dem die In-Fokus-Objektebenenposition geändert
wird auf der Grundlage eines Ausganges von der Ein
richtung (709) zur Durchführung des Bandpaßfilters
aufweist.
6. Vorrichtung nach Anspruch 1, 4 oder 5, dadurch ge
kennzeichnet, daß die Fokussiereinrichtung eine
Einrichtung (1309) zur Messung einer Distanz von
einem Abbildungsbereich zu einem zu fotografierenden
Objekt und eine Einrichtung (1309) zur Auswahl eines
Bereiches aufweist, innerhalb dem die In-Fokus-Ob
jektebenenposition auf der Grundlage der Distanz
meßdaten von der Distanzmeßeinrichtung (1310) geän
dert wird, wobei die Rückgewinnungs-Verarbeitungs
einrichtung (7) eine Einrichtung (1504) zur Durch
führung einer Rückgewinnungs-Verarbeitung auf der
Grundlage der Distanzmeßdaten aufweist.
7. Vorrichtung nach Anspruch 1 oder 5, dadurch gekenn
zeichnet, daß die Fokussiereinrichtung aufweist:
eine Einrichtung (2306) zur Auswahl eines Bereiches,
innerhalb dem die In-Fokus-Objektebenenposition
geändert wird; und eine Einrichtung (2307) zur
Festsetzung nicht-äquidistanter Objektebenenposi
tionen innerhalb des durch die Auswahleinrichtung
(2306) ausgewählten Bereiches.
8. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Eingabeeinrichtungen derart ausgebildet
sind, daß eine Mehrzahl von Abbildungsvorrichtungen
(2-1 bis 2-3) in einer Mehrzahl von unterschiedli
chen Bildebenen angeordnet ist, um gleichzeitig eine
Mehrzahl von Bildern einzulesen, welche auf die
Mehrzahl von unterschiedlichen Objektebenen fokus
siert sind.
9. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet,
daß die Eingabe- und Addiereinrichtungen aufweisen:
eine Abbildungsvorrichtung (902) zum elektrischen Konvertieren eines Lichtbildes;
eine Farbtrenneinrichtung (904) zum Separieren eines Ausganges von der Abbildungsvorrichtung (902) in Einheiten von drei Primär- oder Komplementärfarben hiervon; und
einen ersten logarithmischen Kompressionsschaltkreis (902, 903) zum logarithmischen Komprimieren eines Ausgangs von der Farbtrenneinrichtung in Einheiten der drei Primär- oder Komplementärfarben hiervon;
und wobei die Rückgewinnungs-Verarberarbeitungseinrich tung (910) aufweist:
einen inversen logarithmischen Wandelschaltkreis (911) zur Durchführung einer inversen logarithmi schen Wandlung eines Signales von dem ersten loga rithmischen Kompressionsschaltkreis (902, 903);
einen Matrizen-Konversionsschaltkreis (911) zur Durchführung einer linearen Matrizen-Konversion ei nes Ausgangs vor dem inversen logarithmischen Wan delschaltkreis (911);
einen zweiten logarithmischen Kompressionsschalt kreis (911) zur logarithmischen Komprimierung eines Ausgangssignals von dem Matrizen-Wandelschaltkreis (911); und
Farbsignal-Synthetisiereinrichtungen (916, 917) zur Synthetisierung eines Farbsignals unter Verwendung eines Ausgangssignals von dem zweiten logarithmi schen Kompressionsschaltkreis (911) und des Aus gangssignals von dem ersten logarithmischen Kom pressionsschaltkreis (902, 903).
eine Abbildungsvorrichtung (902) zum elektrischen Konvertieren eines Lichtbildes;
eine Farbtrenneinrichtung (904) zum Separieren eines Ausganges von der Abbildungsvorrichtung (902) in Einheiten von drei Primär- oder Komplementärfarben hiervon; und
einen ersten logarithmischen Kompressionsschaltkreis (902, 903) zum logarithmischen Komprimieren eines Ausgangs von der Farbtrenneinrichtung in Einheiten der drei Primär- oder Komplementärfarben hiervon;
und wobei die Rückgewinnungs-Verarberarbeitungseinrich tung (910) aufweist:
einen inversen logarithmischen Wandelschaltkreis (911) zur Durchführung einer inversen logarithmi schen Wandlung eines Signales von dem ersten loga rithmischen Kompressionsschaltkreis (902, 903);
einen Matrizen-Konversionsschaltkreis (911) zur Durchführung einer linearen Matrizen-Konversion ei nes Ausgangs vor dem inversen logarithmischen Wan delschaltkreis (911);
einen zweiten logarithmischen Kompressionsschalt kreis (911) zur logarithmischen Komprimierung eines Ausgangssignals von dem Matrizen-Wandelschaltkreis (911); und
Farbsignal-Synthetisiereinrichtungen (916, 917) zur Synthetisierung eines Farbsignals unter Verwendung eines Ausgangssignals von dem zweiten logarithmi schen Kompressionsschaltkreis (911) und des Aus gangssignals von dem ersten logarithmischen Kom pressionsschaltkreis (902, 903).
10. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Addiereinrichtung eine Addition (1807, 1812,
1813) mit Gewichtung durchführt.
11. Vorrichtung nach Anspruch 1 oder 2, dadurch gekenn
zeichnet, daß die Rückgewinnungs-Verarbeitungsvor
richtung eine Einrichtung (22) zum Vorspeichern ei
nes Bild-Ortsfrequenzfilters unter Berücksichtigung
einer Ortsfrequenzcharakteristik der Eingabeein
richtung aufweist.
12. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Eingabeeinrichtung Einrichtungen (1001 bis
1005 und 1030 bis 1031) aufweist zur Eingabe einer
Mehrzahl von Bildern in Einheiten von unterschied
lichen Wellenlängenbereichen;
daß die Addiereinrichtung Einrichtungen (1017, 1018) zur Addierung der Mehrzahl von durch die Eingabevor richtung eingegebenen Bildern in Einheiten von un terschiedlichen Wellenlängenbereichen aufweist; und
daß die Rückgewinnungs-Verarbeitungseinrichtung eine Einrichtung (1104) zur Extraktion eines Hellig keitssignals von einem Bild, synthetisiert durch die Addiereinrichtung, eine Einrichtung (1107) zur Durchführung einer Rückgewinnungs-Verarbeitung des extrahierten Helligkeitssignals und eine Einrichtung aufweist zur Synthetisierung des Helligkeitssignals, das durch die Verarbeitungseinrichtung (1107) einer Rückgewinnungs-Verarbeitung unterworfen wurde, sowie der Bilder, die in Einheiten von Wellenlängen ad diert worden sind, um ein einzelnes Bild zu erhal ten.
daß die Addiereinrichtung Einrichtungen (1017, 1018) zur Addierung der Mehrzahl von durch die Eingabevor richtung eingegebenen Bildern in Einheiten von un terschiedlichen Wellenlängenbereichen aufweist; und
daß die Rückgewinnungs-Verarbeitungseinrichtung eine Einrichtung (1104) zur Extraktion eines Hellig keitssignals von einem Bild, synthetisiert durch die Addiereinrichtung, eine Einrichtung (1107) zur Durchführung einer Rückgewinnungs-Verarbeitung des extrahierten Helligkeitssignals und eine Einrichtung aufweist zur Synthetisierung des Helligkeitssignals, das durch die Verarbeitungseinrichtung (1107) einer Rückgewinnungs-Verarbeitung unterworfen wurde, sowie der Bilder, die in Einheiten von Wellenlängen ad diert worden sind, um ein einzelnes Bild zu erhal ten.
13. Vorrichtung nach Anspruch 1 oder 3, weiterhin ge
kennzeichnet durch:
eine weitere Fokussiereinrichtung zur Durchführung von In-Fokus-Vorgängen an der Mehrzahl von Objekt ebenen, wobei die weitere Fokussiereinrichtung mit einer Einrichtung ausgestattet ist zur Änderung der In-Fokus-Objektebenenposition und mit einer Ein richtung zur Änderung des Wellenlängenbereiches von Licht;
eine weitere Eingabevorrichtung (200) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedli chen Wellenlängenbereichen;
eine weitere Addiervorrichtung (225) zur Addierung der durch die Eingabevorrichtung eingegebenen Bil der;
eine weitere Rückgewinnungs-Verarbeitungseinheit (227) zur Durchführung einer Rückgewinnungs-Verar beitung durch Ortsfrequenzfilterung einer Summe, die durch die weitere Addiereinrichtung (225) erhalten wurde; und
eine Synthetisiereinrichtung (203) zur Multiplizie rung eines rückgewonnenen Bildes von der weiteren Rückgewinnungs-Verarbeitungsvorrichtung mit jedem Bild, welches einer Division durch ein Bild unter worfen wurde, welches durch Addieren der Mehrzahl von Eingangsbildern erhalten wurde zur Synthetisie rung der sich ergebenden Bildern in ein Einzelbild.
eine weitere Fokussiereinrichtung zur Durchführung von In-Fokus-Vorgängen an der Mehrzahl von Objekt ebenen, wobei die weitere Fokussiereinrichtung mit einer Einrichtung ausgestattet ist zur Änderung der In-Fokus-Objektebenenposition und mit einer Ein richtung zur Änderung des Wellenlängenbereiches von Licht;
eine weitere Eingabevorrichtung (200) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In-Fokus-Objektebenenpositionen und unterschiedli chen Wellenlängenbereichen;
eine weitere Addiervorrichtung (225) zur Addierung der durch die Eingabevorrichtung eingegebenen Bil der;
eine weitere Rückgewinnungs-Verarbeitungseinheit (227) zur Durchführung einer Rückgewinnungs-Verar beitung durch Ortsfrequenzfilterung einer Summe, die durch die weitere Addiereinrichtung (225) erhalten wurde; und
eine Synthetisiereinrichtung (203) zur Multiplizie rung eines rückgewonnenen Bildes von der weiteren Rückgewinnungs-Verarbeitungsvorrichtung mit jedem Bild, welches einer Division durch ein Bild unter worfen wurde, welches durch Addieren der Mehrzahl von Eingangsbildern erhalten wurde zur Synthetisie rung der sich ergebenden Bildern in ein Einzelbild.
14. Bildeingabe-/Ausgabevorrichtung zur Eingabe/Ausgabe von
Bildinformationen, mit:
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Eingabeeinrichtung (52) zur Eingabe einer Mehrzahl von Bildern, welche durch die Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (57) zur Fourier-Transformation der Mehrzahl von eingegebenen Bildern;
einer Einrichtung (61) zum Erzeugen eines Fourier- Spektrum-Bildes durch Gewichtung und Addition der durch die Fourier-Transformationseinrichtung (57) Fourier transformierten Bilder; und
einer Einrichtung (57) zur Durchführung einer inversen Fourier-Transformation des durch die Einrichtung (61) erzeugten Fourier-Spektrum-Bildes.
einer Fokussiereinrichtung (6) zur Durchführung von In- Fokus-Vorgängen an einer Mehrzahl von unterschiedlichen Objektebenen;
einer Eingabeeinrichtung (52) zur Eingabe einer Mehrzahl von Bildern, welche durch die Fokussiereinrichtung (6) auf die unterschiedlichen Objektebenen fokussiert sind;
einer Einrichtung (57) zur Fourier-Transformation der Mehrzahl von eingegebenen Bildern;
einer Einrichtung (61) zum Erzeugen eines Fourier- Spektrum-Bildes durch Gewichtung und Addition der durch die Fourier-Transformationseinrichtung (57) Fourier transformierten Bilder; und
einer Einrichtung (57) zur Durchführung einer inversen Fourier-Transformation des durch die Einrichtung (61) erzeugten Fourier-Spektrum-Bildes.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet,
daß die Fokussiereinrichtung aufweist:
eine weitere Eingabe-Vorrichtung (3300) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In- Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen, wobei die weitere Eingabevorrichtung mit einer Einrichtung (6) zur Änderung der In-Fokus-Objektebenenpositionen und einer Einrichtung (18) zur Änderung des Wellenlängenbereiches von Licht ausgestattet ist;
eine weitere Fourier-Transformationseinrichtung (3326) zur Fourier-Transformation der Mehrzahl von durch die weitere Eingabevorrichtung (3300) eingegebenen Bilder;
eine weitere Gewichtungs- und Addiereinrichtung (3304) zur Gewichtung und Addierung der durch die weitere Fourier-Transformationseinrichtung Fourier transformierten Bilder;
eine weitere inverse Fourier-Transformationseinrichtung (3331, 3326) zur Durchführung einer inversen Fourier- Transformation der Bilder, die durch die weitere Gewichtungs- und Addiereinrichtung (3304) gewichtet und addiert wurden; und
eine Synthetisierungseinrichtung (3303) zur Multiplizierung der durch die weitere inverse Fourier- Transformationseinrichtung invers Fourier transformierten Bilder mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addierung der eingegebenen Bilder erhalten wurde und zur Synthetisierung der sich ergebenden Bilder in ein Einzelbild.
eine weitere Eingabe-Vorrichtung (3300) zur Eingabe einer Mehrzahl von Bildern mit unterschiedlichen In- Fokus-Objektebenenpositionen und unterschiedlichen Wellenlängenbereichen, wobei die weitere Eingabevorrichtung mit einer Einrichtung (6) zur Änderung der In-Fokus-Objektebenenpositionen und einer Einrichtung (18) zur Änderung des Wellenlängenbereiches von Licht ausgestattet ist;
eine weitere Fourier-Transformationseinrichtung (3326) zur Fourier-Transformation der Mehrzahl von durch die weitere Eingabevorrichtung (3300) eingegebenen Bilder;
eine weitere Gewichtungs- und Addiereinrichtung (3304) zur Gewichtung und Addierung der durch die weitere Fourier-Transformationseinrichtung Fourier transformierten Bilder;
eine weitere inverse Fourier-Transformationseinrichtung (3331, 3326) zur Durchführung einer inversen Fourier- Transformation der Bilder, die durch die weitere Gewichtungs- und Addiereinrichtung (3304) gewichtet und addiert wurden; und
eine Synthetisierungseinrichtung (3303) zur Multiplizierung der durch die weitere inverse Fourier- Transformationseinrichtung invers Fourier transformierten Bilder mit jedem Bild, welches einer Division durch ein Bild unterworfen wurde, welches durch Addierung der eingegebenen Bilder erhalten wurde und zur Synthetisierung der sich ergebenden Bilder in ein Einzelbild.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3993688 | 1988-02-23 | ||
JP24943188 | 1988-10-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3905619A1 DE3905619A1 (de) | 1989-08-31 |
DE3905619C2 true DE3905619C2 (de) | 2000-04-13 |
Family
ID=26379338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE3905619A Expired - Fee Related DE3905619C2 (de) | 1988-02-23 | 1989-02-23 | Bildeingabe-/Ausgabevorrichtung |
Country Status (2)
Country | Link |
---|---|
US (1) | US5148502A (de) |
DE (1) | DE3905619C2 (de) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3931934C2 (de) * | 1988-10-03 | 1994-11-10 | Olympus Optical Co | Bild-Ein/Ausgabevorrichtung |
CA2054344C (en) * | 1990-10-29 | 1997-04-15 | Kazuhiro Itsumi | Video camera having focusing and image-processing function |
IL100657A0 (en) * | 1992-01-14 | 1992-09-06 | Ziv Soferman | Multifocal optical apparatus |
DE4304276A1 (en) * | 1992-02-17 | 1993-08-19 | Galram Technology Ind Ltd | Forming high resolution image of planar or three=dimensional object - combining sharp image data provided by detector matrix for successive scanning of object via optical imaging system. |
JPH0630245A (ja) * | 1992-05-23 | 1994-02-04 | Takayama:Kk | 画像処理装置 |
JP3327948B2 (ja) * | 1992-06-09 | 2002-09-24 | オリンパス光学工業株式会社 | 光学像再構成装置 |
US5850479A (en) * | 1992-11-13 | 1998-12-15 | The Johns Hopkins University | Optical feature extraction apparatus and encoding method for detection of DNA sequences |
IL110771A (en) * | 1994-08-25 | 1998-02-08 | Holon Holon Hanni | A priori and adaptive filtering for detection of signals corrupted by noise |
US5581631A (en) * | 1994-09-20 | 1996-12-03 | Neopath, Inc. | Cytological system image collection integrity checking apparatus |
JPH08122662A (ja) * | 1994-10-20 | 1996-05-17 | Fuji Photo Optical Co Ltd | 内視鏡照明系 |
US5577181A (en) * | 1995-06-07 | 1996-11-19 | E-Systems, Inc. | Method for autonomous determination of tie points in imagery |
SE512350C2 (sv) | 1996-01-09 | 2000-03-06 | Kjell Olsson | Ökat skärpedjup i fotografisk bild |
JP3206420B2 (ja) * | 1996-02-22 | 2001-09-10 | 株式会社デンソー | カメラ装置 |
JP4136011B2 (ja) * | 1996-04-30 | 2008-08-20 | オリンパス株式会社 | 焦点深度伸長装置 |
AU6499098A (en) * | 1997-02-21 | 1998-09-09 | Rolf Eckmiller | Adaptive active camera system |
JP4069545B2 (ja) * | 1999-05-19 | 2008-04-02 | 株式会社日立製作所 | 電子顕微方法及びそれを用いた電子顕微鏡並び生体試料検査方法及び生体検査装置 |
DE19927129C1 (de) | 1999-06-15 | 2001-01-04 | Wolf Gmbh Richard | Fokussier- und Brennweiteneinstellvorrichtung für eine Videokamera |
US7233351B1 (en) * | 2001-02-23 | 2007-06-19 | Nextengine, Inc. | Method for high resolution incremental imaging |
US20060023219A1 (en) * | 2001-03-28 | 2006-02-02 | Meyer Michael G | Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification |
US6944322B2 (en) | 2001-03-28 | 2005-09-13 | Visiongate, Inc. | Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification |
US7907765B2 (en) * | 2001-03-28 | 2011-03-15 | University Of Washington | Focal plane tracking for optical microtomography |
WO2003001698A1 (fr) * | 2001-06-25 | 2003-01-03 | Sony Corporation | Procede de demodulation de signaux d'etalement du spectre et appareil correspondant |
US6741730B2 (en) | 2001-08-10 | 2004-05-25 | Visiongate, Inc. | Method and apparatus for three-dimensional imaging in the fourier domain |
US6980227B2 (en) * | 2001-10-01 | 2005-12-27 | Pentax Corporation | Electronic endoscope with light-amount adjustment apparatus |
WO2003052465A2 (en) * | 2001-12-18 | 2003-06-26 | University Of Rochester | Multifocal aspheric lens obtaining extended field depth |
US7811825B2 (en) * | 2002-04-19 | 2010-10-12 | University Of Washington | System and method for processing specimens and images for optical tomography |
US7260253B2 (en) * | 2002-04-19 | 2007-08-21 | Visiongate, Inc. | Method for correction of relative object-detector motion between successive views |
US7738945B2 (en) * | 2002-04-19 | 2010-06-15 | University Of Washington | Method and apparatus for pseudo-projection formation for optical tomography |
US20050085708A1 (en) * | 2002-04-19 | 2005-04-21 | University Of Washington | System and method for preparation of cells for 3D image acquisition |
US6697508B2 (en) | 2002-05-10 | 2004-02-24 | Visiongate, Inc. | Tomographic reconstruction of small objects using a priori knowledge |
US6770893B2 (en) * | 2002-05-13 | 2004-08-03 | Visiongate, Inc. | Method and apparatus for emission computed tomography using temporal signatures |
JP2004174771A (ja) * | 2002-11-25 | 2004-06-24 | Kyocera Corp | 画像形成装置 |
JP3867143B2 (ja) * | 2003-06-25 | 2007-01-10 | 独立行政法人産業技術総合研究所 | 三次元顕微鏡システムおよび画像表示方法 |
US7756357B2 (en) * | 2003-07-01 | 2010-07-13 | Olympus Corporation | Microscope system for obtaining high and low magnification images |
US7687167B2 (en) * | 2003-07-18 | 2010-03-30 | Panasonic Corporation | Power supply unit |
JP4705047B2 (ja) * | 2004-02-09 | 2011-06-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ドップラシフト及びレーザ自己混合に基づく光入力装置 |
JP4644819B2 (ja) * | 2004-04-22 | 2011-03-09 | 国立大学法人電気通信大学 | 微小変位計測法及び装置 |
JP2005354610A (ja) * | 2004-06-14 | 2005-12-22 | Canon Inc | 画像処理装置、画像処理方法および画像処理プログラム |
US7336430B2 (en) | 2004-09-03 | 2008-02-26 | Micron Technology, Inc. | Extended depth of field using a multi-focal length lens with a controlled range of spherical aberration and a centrally obscured aperture |
US6991738B1 (en) | 2004-10-13 | 2006-01-31 | University Of Washington | Flow-through drum centrifuge |
US20060096358A1 (en) * | 2004-10-28 | 2006-05-11 | University Of Washington | Optical projection tomography microscope |
US7494809B2 (en) | 2004-11-09 | 2009-02-24 | Visiongate, Inc. | Automated cell sample enrichment preparation method |
KR100725895B1 (ko) * | 2005-09-15 | 2007-06-08 | 주식회사 아이캔텍 | 광섬유를 이용하는 광학 데이터 입력 장치 |
JP2009519625A (ja) * | 2005-12-02 | 2009-05-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 画像信号の深度依存性フィルタリング |
US7835561B2 (en) | 2007-05-18 | 2010-11-16 | Visiongate, Inc. | Method for image processing and reconstruction of images for optical tomography |
US7787112B2 (en) * | 2007-10-22 | 2010-08-31 | Visiongate, Inc. | Depth of field extension for optical tomography |
JP5090188B2 (ja) * | 2008-01-10 | 2012-12-05 | オリンパス株式会社 | 顕微鏡装置 |
US8090183B2 (en) * | 2009-03-12 | 2012-01-03 | Visiongate, Inc. | Pattern noise correction for pseudo projections |
US8254023B2 (en) * | 2009-02-23 | 2012-08-28 | Visiongate, Inc. | Optical tomography system with high-speed scanner |
US8155420B2 (en) * | 2009-05-21 | 2012-04-10 | Visiongate, Inc | System and method for detecting poor quality in 3D reconstructions |
DE102009041183A1 (de) * | 2009-09-11 | 2011-03-24 | Carl Zeiss Imaging Solutions Gmbh | Verfahren zum automatischen Fokussieren eines Mikroskops auf ein vorbestimmtes Objekt sowie Mikroskop zum automatischen Fokussieren |
US8412036B2 (en) | 2009-12-07 | 2013-04-02 | Panasonic Corporation | Imaging apparatus and method of controlling the apparatus |
JP5367094B2 (ja) | 2009-12-07 | 2013-12-11 | パナソニック株式会社 | 撮像装置及びその制御方法 |
JP2011229625A (ja) * | 2010-04-26 | 2011-11-17 | Fujifilm Corp | 内視鏡装置 |
JP2011229603A (ja) * | 2010-04-26 | 2011-11-17 | Fujifilm Corp | 内視鏡装置 |
JP2012055498A (ja) * | 2010-09-09 | 2012-03-22 | Olympus Corp | 画像処理装置、内視鏡装置、画像処理プログラム及び画像処理方法 |
CN102696219B (zh) | 2010-11-08 | 2016-03-23 | 松下电器产业株式会社 | 摄像装置、摄像方法及集成电路 |
FR2967791B1 (fr) * | 2010-11-22 | 2012-11-16 | Ecole Polytech | Procede et systeme de calibration d'un modulateur optique spatial dans un microscope optique |
EP2672696B1 (de) | 2011-01-31 | 2018-06-13 | Panasonic Corporation | Bildwiederherstellungsvorrichtung, abbildungsvorrichtung und bildwiederherstellungsverfahren |
JP5809688B2 (ja) * | 2011-03-02 | 2015-11-11 | パナソニック株式会社 | 撮像装置、半導体集積回路および撮像方法 |
US9300855B2 (en) | 2011-03-14 | 2016-03-29 | Panasonic Corporation | Imaging apparatus, imaging method, integrated circuit, and computer program |
WO2012140899A1 (ja) | 2011-04-15 | 2012-10-18 | パナソニック株式会社 | 撮像装置、半導体集積回路および撮像方法 |
CN102749332B (zh) | 2011-04-18 | 2015-08-26 | 通用电气公司 | 光学系统和光学检测装置以及检测方法 |
CN103038689B (zh) | 2011-05-16 | 2016-01-20 | 松下电器产业株式会社 | 透镜单元以及摄像装置 |
US9068831B2 (en) * | 2011-05-27 | 2015-06-30 | Panasonic Intellectual Property Management Co., Ltd. | Image processing apparatus and image processing method |
JP6136085B2 (ja) * | 2011-10-05 | 2017-05-31 | ソニー株式会社 | 画像取得装置、画像取得方法、およびコンピュータプログラム |
WO2013054527A1 (ja) | 2011-10-12 | 2013-04-18 | パナソニック株式会社 | 撮像装置、半導体集積回路および撮像方法 |
JP5942390B2 (ja) * | 2011-11-15 | 2016-06-29 | ソニー株式会社 | 画像取得装置、画像取得方法及び画像取得プログラム |
EP2690862A4 (de) * | 2011-12-16 | 2015-10-21 | Olympus Medical Systems Corp | Tiefenausdehnungsvorrichtung |
US8890996B2 (en) | 2012-05-17 | 2014-11-18 | Panasonic Corporation | Imaging device, semiconductor integrated circuit and imaging method |
JP6478496B2 (ja) * | 2014-07-03 | 2019-03-06 | キヤノン株式会社 | 撮像装置およびその制御方法 |
JP6377171B2 (ja) | 2014-10-30 | 2018-08-22 | オリンパス株式会社 | 画像処理装置、内視鏡装置及び画像処理方法 |
JP6563486B2 (ja) | 2015-04-16 | 2019-08-21 | オリンパス株式会社 | 顕微鏡観察システム、顕微鏡観察方法、及び顕微鏡観察プログラム |
US11069054B2 (en) | 2015-12-30 | 2021-07-20 | Visiongate, Inc. | System and method for automated detection and monitoring of dysplasia and administration of immunotherapy and chemotherapy |
US11448497B2 (en) * | 2019-12-18 | 2022-09-20 | The Boeing Company | Systems and methods of determining image scaling |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2020618A1 (de) * | 1970-04-28 | 1971-11-11 | Bosch Gmbh Robert | Fernsehmikroskop grosser Schaerfentiefe |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4161756A (en) * | 1976-03-19 | 1979-07-17 | Jos. Schneider & Co. Optische Werke | Control system for varifocal objective |
JPS6053943B2 (ja) * | 1978-11-30 | 1985-11-28 | キヤノン株式会社 | カメラの合焦検出装置 |
JPS55124117A (en) * | 1979-03-19 | 1980-09-25 | Toshiba Corp | Pattern inspecting apparatus |
US4490849A (en) * | 1982-03-04 | 1984-12-25 | Grumman Aerospace Corporation | Correlation plane recognition processor |
GB8317407D0 (en) * | 1983-06-27 | 1983-07-27 | Rca Corp | Image transform techniques |
US4804831A (en) * | 1985-10-30 | 1989-02-14 | Canon Kabushiki Kaisha | Focus detecting apparatus independent of object image contrast |
US4903204A (en) * | 1987-12-01 | 1990-02-20 | Duke University | Matrix inversion tomosynthesis improvements in longitudinal X-ray slice imaging |
US4892408A (en) * | 1988-03-03 | 1990-01-09 | Grumman Aerospace Corporation | Reference input patterns for evaluation and alignment of an optical matched filter correlator |
-
1989
- 1989-02-23 DE DE3905619A patent/DE3905619C2/de not_active Expired - Fee Related
-
1991
- 1991-10-09 US US07/776,705 patent/US5148502A/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2020618A1 (de) * | 1970-04-28 | 1971-11-11 | Bosch Gmbh Robert | Fernsehmikroskop grosser Schaerfentiefe |
Non-Patent Citations (2)
Title |
---|
Pieper R.J. and KORPEL A.: Image processing for extended depth of field in: Applied Optics, Vol. 22, No. 10, 15 may 1983, P. 1449-1453 * |
SUGIMOTO S.A. and ICHIOKA Y.: Digital composition of images with increased depth of focus considering depth information in: Applied Optics, Vol. 24, No. 14, 15 July 1985, P. 2076-2080 * |
Also Published As
Publication number | Publication date |
---|---|
DE3905619A1 (de) | 1989-08-31 |
US5148502A (en) | 1992-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3905619C2 (de) | Bildeingabe-/Ausgabevorrichtung | |
DE3931934C2 (de) | Bild-Ein/Ausgabevorrichtung | |
JP3191928B2 (ja) | 画像入出力装置 | |
US4141032A (en) | Method of and apparatus for the expansion of the range of the depth of focus beyond the limit given by conventional images | |
DE60133160T2 (de) | Digitalbild-Verarbeitungsverfahren und Vorrichtung zur Helligkeitseinstellung von Digitalbildern | |
DE102012106584B4 (de) | Verfahren und Vorrichtung zur Bildrekonstruktion | |
DE4000343C2 (de) | Automatische Fokussiervorrichtung | |
DE60320369T2 (de) | Abbildungsvorrichtung für mikroscopie und bilderzeugungsverfahren | |
DE69909635T2 (de) | Gerät und verfahren zur elektronischen bildverbesserung | |
DE4006592A1 (de) | Automatische fokussiervorrichtung | |
DE102012216021B4 (de) | Erzeugen mehrerer bilder mit grossem dynamikbereich von einem einzigen sensorfeld | |
DE4329839A1 (de) | Abbildungseinrichtung mit zwei Bildsensoren | |
DE102009049932B4 (de) | Vorrichtung und Verfahren zur interferometrischen Schwingungsmessung an einem Objekt | |
DE3919464C2 (de) | Vorrichtung zum Scharfeinstellen einer Kamera | |
DE112017006107T5 (de) | Digitale Korrektur von optischen Systemaberrationen | |
DE112011102647T5 (de) | Verfahren zur Herstellung von super-auflösenden Bildern und nicht-linearer Filter zu dessen Implementierung | |
DE112005000537T5 (de) | Multispektrale Bildaufnahmevorrichtung und Adapterlinse hierfür | |
DE102010031535A1 (de) | Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes | |
DE102011006272A1 (de) | Bildverarbeitungsvorrichtung und Verfahren des Steuerns von dieser | |
JPH06243250A (ja) | 光学像の合成方法 | |
DE112017001458T5 (de) | Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung und Steuerverfahren davon | |
WO2016041944A1 (de) | Verfahren zum erzeugen eines ergebnisbilds und optische vorrichtung | |
EP1929353B1 (de) | Verfahren zur erzeugung von darstellungsbildern aus erfassten aufnahmebildern und mittel zur durchführung des verfahrens | |
DE1572678C3 (de) | Verfahren zum Erzeugen von Ultraschall-Hologrammen und Apparat zu dessen Durchführung | |
EP1761071A1 (de) | Verfahren zur Aufnahme eines Bildes und Digitalkamera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |