DE69822958T2 - Bildaufnahmevorrichtung mit Mitteln zur Erweiterung des Dynamikbereichs - Google Patents

Bildaufnahmevorrichtung mit Mitteln zur Erweiterung des Dynamikbereichs Download PDF

Info

Publication number
DE69822958T2
DE69822958T2 DE69822958T DE69822958T DE69822958T2 DE 69822958 T2 DE69822958 T2 DE 69822958T2 DE 69822958 T DE69822958 T DE 69822958T DE 69822958 T DE69822958 T DE 69822958T DE 69822958 T2 DE69822958 T2 DE 69822958T2
Authority
DE
Germany
Prior art keywords
signal
imaging
light
image
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69822958T
Other languages
English (en)
Other versions
DE69822958D1 (de
Inventor
Kanichi Matsumoto
Katsuyuki Saito
Kotaro Ogasawara
Kuniaki Kami
Shinji Yamashita
Noboru Kusamura
Akihiko Mochida
Wataru Ohno
Makoto Tsunakawa
Hideki Tashiro
Manabu Yajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP9310775A external-priority patent/JPH11137514A/ja
Priority claimed from JP9310774A external-priority patent/JPH11137513A/ja
Priority claimed from JP9317401A external-priority patent/JPH11150687A/ja
Priority claimed from JP9326545A external-priority patent/JPH11155808A/ja
Priority claimed from JP9330439A external-priority patent/JPH11164195A/ja
Priority claimed from JP29868798A external-priority patent/JP3519002B2/ja
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE69822958D1 publication Critical patent/DE69822958D1/de
Application granted granted Critical
Publication of DE69822958T2 publication Critical patent/DE69822958T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Endoscopes (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Abbildungsvorrichtung, die einen dynamischen Bereich bietet, der durch Gewichten einer Vielzahl von Abbildungssignalen, welche während verschiedener Belichtungszeiten oder dergleichen erzeugt werden, mit einer Vielzahl von Koeffizienten, deren Summe 1 ist, und Addieren derselben erweiterbar ist.
  • 2. Beschreibung des Standes der Technik
  • Im Allgemeinen wird ein Bereich von Leuchtdichtepegeln, in dem eine Abbildung durch eine Abbildungsvorrichtung wie z. B. eine TV-Kamera zugelassen wird, bedingungslos mit der photoelektrischen Umwandlungskennlinie eines Abbildungsmittels, beispielsweise eines Halbleiter-Abbildungsbauelements, festgelegt.
  • Insbesondere ist eine untere Grenze von Ausgangspegeln eines Halbleiter-Abbildungsbauelements durch einen Rauschpegel festgelegt. Eine obere Grenze davon ist durch einen Sättigungswert festgelegt. Ein Betriebsbereich, in dem das Halbleiter-Abbildungsbauelement nützlich ist, wird somit festgelegt. Die Steigung einer Kennlinie, die die Ausgangspegel des Halbleiter-Abbildungsbauelements ausdrückt, ist auf einen bestimmten Wert festgelegt. Schließlich wird der Bereich von Leuchtdichtepegeln, in dem die Abbildung durch das Halbleiter-Abbildungsbauelement zugelassen wird, bedingungslos festgelegt.
  • Die japanische ungeprüfte Patentveröffentlichung Nr. 57-39673 hat beispielsweise eine Abbildungsvorrichtung offenbart, die einen dynamischen Bereich bietet, der durch Synthetisieren von Abbildungssignalen, die mit zwei verschiedenen Leuchtdichtepegeln erzeugt werden, für ein Abbildungssignal, das durch ein Halbleiter-Abbildungsbauelement erzeugt wird, erweiterbar ist.
  • Gemäß dem Stand der Technik wird jedoch der dynamische Bereich, der von der Abbildungsvorrichtung geboten wird, nur durch Addieren von zwei Abbildungssignalen oder Subtrahieren von einem Abbildungssignal von einem anderen erweitert. Ein Rauschabstand einer Komponente eines resultierenden Signals, der auf einen niedrigen Leuchtdichtepegel hinweist, verschlechtert sich. Ein synthetisches Bildsignal, das durch Synthetisieren von zwei Abbildungssignalen relativ zu Leuchtdichtepegeln erzeugt wird, wird als verbundene gerade Linien oder ein Graph von unterbrochenen Linien aufgetragen. Dies bedeutet, dass das synthetische Abbildungssignal gemäß dem Graphen von unterbrochenen Linien variiert. Da ein Ausgangspegel eines Halbleiter-Abbildungsbauelements mit einem Leuchtdichtepegel variiert, bei dem die geraden Linien verbunden sind, stellt ein konstruiertes Farbbild keine glatte Farbänderung dar, sondern ergibt eine Empfindung von Inkongruenz.
  • Gemäß der japanischen ungeprüften Patentveröffentlichung Nr. 6-141229 werden überdies zwei oder mehr Abbildungssignale, die während verschiedener Ladungssammelzeiten erzeugt werden, auf der Basis der Signalpegel gewichtet und durch ein Komprimierungsmittel komprimiert. Somit kann ein Bildsignal, dessen Komponenten, die von einer Komponente, die ein dunkles Bild darstellt, bis zu einer Komponente, die ein helles Bild darstellt, reichen, keinen Sättigungswert aufweisen, mit wenig Rauschen konstruiert werden.
  • Im Stand der Technik, wie in 4 und 9 in der Patentveröffentlichung gezeigt, werden eine Vielzahl von Abbildungssignalen, die während verschiedener Ladungssammelzeiten erzeugt werden, durch Verändern eines Gewichts unter einer Grenzbedingung gewichtet, unter der eines der Abbildungssignale einen Sättigungswert aufweist, oder irgendwo dort. Die resultierenden Abbildungssignale werden dann durch Addieren derselben synthetisiert. Die Abbildungssignale werden dann durch ein Komprimierungsmittel gemäß einem Frequenzband komprimiert. Schließlich wird ein synthetisches Bildsignal, das eine gewünschte Eingabe/Ausgabe-Kennlinie aufweist, konstruiert.
  • Gemäß dem Stand der Technik werden jedoch beispielsweise zwei Abbildungssignale verwendet, um ein synthetisches Bildsignal zu erzeugen. Zu diesem Zeitpunkt wird das synthetische Bildsignal unter Verwendung von nur einem ersten Abbildungssignal unter Bedingungen konstruiert, die niedriger sind als die Grenzbedingung, unter der das erste Abbildungssignal, das während einer längeren Ladungssammelzeit erzeugt wird, einen Sättigungswert aufweist.
  • Das synthetische Bildsignal wird in einer anschließenden Stufe komprimiert. Da ein synthetisches Bildsignal, das sich aus einer Addition ergibt, komprimiert wird, kann die vorangehende Kennlinie nicht verändert werden. Wenn ein Abbildungssignal beispielsweise eine Bewegung darstellt, kann ein rekonstruiertes Bild unter Inkonsistenz zwischen Konturen leiden, die durch eine Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, und eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, dargestellt werden. Daneben weist das Bild einen Teil auf, in dem sich Farben unnatürlich ändern.
  • US 5 517 242 offenbart eine Abbildungsvorrichtung, die zwei Abbildungssignale eines Objekts unter Verwendung von verschiedenen Belichtungszeiten speichert. Für eine Erweiterung des dynamischen Bereichs werden beide Abbildungssignale mit Gewichtsfunktionen multipliziert und addiert. Die Summe der Gewichtsfunktionen addiert sich zu Eins. Das resultierende Signal wird dann als Abbildungsdaten ausgegeben.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Eine Aufgabe der vorliegenden Erfindung ist die Bereitstellung einer Abbildungsvorrichtung und einer Endoskopabbildungsvorrichtung, die die Abbildungsvorrichtung verwendet, welche in der Lage ist, einen erweiterbaren dynamischen Bereich ohne irgendeine Verschlechterung eines Rauschabstands einer Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, zu bieten und ein gleichmäßiges Bild zu konstruieren, das keine Empfindung von Inkongruenz ergibt.
  • Die Erfindung ist in den Ansprüchen 1 bzw. 17 definiert.
  • Spezielle Ausführungsbeispiele der Erfindung sind in den abhängigen Ansprüchen dargelegt.
  • Eine erfindungsgemäße Abbildungsvorrichtung besteht aus:
    einem Abbildungsmittel zum sukzessiven Ausgeben eines ersten Abbildungssignals, das durch Abbilden eines Objekts während einer ersten Belichtungszeit erzeugt wird, und eines zweiten Abbildungssignals, das durch Abbilden eines Objekts während einer Zeit, die kürzer ist als die erste Belichtungszeit, erzeugt wird; einem Bildsignal-Erzeugungsmittel, bestehend aus einer ersten und einer zweiten Gewichtungsschaltung zum Anwenden eines ersten Gewichts, das mit einer Zunahme des Lichtpegels monoton abnimmt, und eines zweiten Gewichts, das mit diesem monoton zunimmt, auf das erste und das zweite Abbildungssignal innerhalb des Bereichs von Lichtpegeln bis zu Lichtpegeln, bei denen das erste und das zweite Abbildungssignal einen Sättigungswert aufweisen, unter der Bedingung, dass die Summe des ersten und des zweiten Gewichts 1 ist, und einer Addierschaltung zum Addieren des ersten und des zweiten Bildsignals, die durch Anwenden des ersten und des zweiten Gewichts auf das erste und das zweite Abbildungssignal mittels der ersten und der zweiten Gewichtungsschaltung erzeugt werden; und einem Signalverarbeitungsmittel zum Verarbeiten eines Bildsignals, das aus der Addierschaltung ausgegeben wird, um ein Videosignal zu erzeugen, auf dessen Basis ein Bild auf einem Anzeigemittel angezeigt werden kann.
  • Infolge der obigen Komponenten kann das Verhältnis des ersten Abbildungssignals zum zweiten Abbildungssignal modifiziert werden und die Abbildungssignale werden miteinander synthetisiert. Folglich wird der dynamische Bereich für ein Bildsignal erweitert und die Verschlechterung eines Rauschabstands einer Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, wird verhindert. Dies führt zu einem natürlichen gleichmäßigen Bild, das keine Empfindung von Inkongruenz ergibt.
  • Wenn die vorliegende Erfindung an eine Endoskopabbildungsvorrichtung angepasst wird, kann überdies ein zur Diagnose hilfreiches Bild bereitgestellt werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 bis 7 betreffen das erste Ausführungsbeispiel der vorliegenden Erfindung;
  • 1 ist ein Diagramm, das eine Anordnung einer Abbildungsvorrichtung des ersten Ausführungsbeispiels zeigt;
  • 2 ist ein Diagramm, das eine Anordnung einer Schaltung zum Erweitern des roten dynamischen Bereichs, die in 1 gezeigt ist, zeigt;
  • 3A ist ein Diagramm, das Speicherbelegungspläne einer ersten und einer zweiten Nachschlagetabelle, die in 2 gezeigt sind, zeigt;
  • 3B ist ein erläuterndes Diagramm, das graphisch Gewichtskoeffizienten zeigt, die aus der ersten und der zweiten Nachschlagetabelle in bezug auf ein Eingangssignal ausgegeben werden;
  • 4A bis 4I sind Ablaufdiagramme, die den Zeitablauf jedes Signals angeben, das von der in 2 gezeigten Schaltung zum Erweitern des roten dynamischen Bereichs erzeugt wird;
  • 5 ist ein erläuterndes Diagramm zum Erläutern der Operation der in 2 gezeigten Schaltung zum Erweitern des roten dynamischen Bereichs;
  • 6 ist ein Diagramm, das die Anordnung einer Schaltung zum Erweitern des roten dynamischen Bereichs einer Variante zeigt;
  • 7 ist ein Diagramm, das eine Anordnung einer Schaltung zum Erweitern des roten dynamischen Bereichs in der Variante zeigt;
  • 8A bis 10 betreffen das zweite Ausführungsbeispiel der vorliegenden Erfindung;
  • 8A ist ein Diagramm, das eine Anordnung einer Schaltung zum Erweitern des roten dynamischen Bereichs im zweiten Ausführungsbeispiel zeigt;
  • 8B ist ein Diagramm, das einen Speicherbelegungsplan einer ersten und einer zweiten Nachschlagetabelle, die in 8A gezeigt sind, zeigt;
  • 9A bis 9I sind Ablaufdiagramme, die den Zeitablauf von jedem Signal angeben, das durch die in 8A gezeigte Schaltung zum Erweitern des roten dynamischen Bereichs erzeugt wird;
  • 10 ist ein Graph, der eine Kennlinie hinsichtlich der Helligkeit eines Ausgangssignals zeigt, das ein gemäß einer Variante erzeugtes synthetisches Bildsignal ist;
  • 11 bis 17 betreffen das dritte Ausführungsbeispiel der vorliegenden Erfindung;
  • 11 ist ein Blockdiagramm, das eine Anordnung einer Abbildungsvorrichtung des dritten Ausführungsbeispiels zeigt;
  • 12 ist ein Blockdiagramm, das eine Anordnung einer Schaltung zum Erweitern des dynamischen Bereichs zeigt;
  • 13 ist ein Graph, der eine Eingangs/Ausgangs-Kennlinie relativ zu einer Blende mit niedriger Blendengeschwindigkeit und einer hohen Blendengeschwindigkeit und eine Eingangs/Ausgangs-Kennlinie, die durch Auswählen einer Mischfunktion erreicht wird, um einen dynamischen Bereich zu erweitern, angibt;
  • 14 ist ein Diagramm, das die Existenz einer Vielzahl von Funktionen in jeder der Nachschlagetabellen zeigt;
  • 15A bis 15K sind Ablaufdiagramme zum Erläutern von Aktionen;
  • 16 ist ein Blockdiagramm, das eine Anordnung einer Schaltung zum Erweitern des dynamischen Bereichs in einer Variante des ersten Ausführungsbeispiels zeigt;
  • 17 ist ein Graph, der eine Kennlinie zeigt, die ausgewählt werden kann, um einen dynamischen Bereich gemäß der Variante zu erweitern;
  • 18 bis 22 betreffen das vierte Ausführungsbeispiel der vorliegenden Erfindung;
  • 18 ist ein Blockdiagramm, das eine Anordnung einer Abbildungsvorrichtung des vierten Ausführungsbeispiels zeigt;
  • 19 ist ein Diagramm, das eine Struktur eines progressiven ladungsgekoppelten Bauelements zeigt;
  • 20 ist ein Ablaufdiagramm, das Ausgangssignale in einer Betriebsart mit breitem dynamischen Bereich anzeigt;
  • 21 ist ein Ablaufdiagramm, das ein Ausgangssignal in einer normalen Betriebsart anzeigt;
  • 22 ist ein Graph, der eine Eingangs/Ausgangs-Kennlinie anzeigt, die durch Verarbeiten von Ausgangssignalen erreicht wird, die mit einer Blende mit hoher Blendengeschwindigkeit und einer niedrigen Blendengeschwindigkeit erzeugt werden, um einen dynamischen Bereich zu erweitern;
  • 23 bis 25 betreffen das fünfte Ausführungsbeispiel der vorliegenden Erfindung;
  • 23 ist ein Diagramm, das eine Anordnung einer Endoskopabbildungsvorrichtung des fünften Ausführungsbeispiels zeigt;
  • 24 ist ein Ablaufdiagramm, das eine Operation, die von der Endoskopabbildungsvorrichtung angewendet wird, angibt;
  • 25 ist eine Kennlinie, die die Ausgangspegel von Abbildungssignalen, die durch ein erstes und ein zweites ladungsgekoppeltes Bauelement erzeugt werden, und den Ausgangspegel eines synthetischen Bildsignals, das durch eine Addierschaltung erzeugt wird, in bezug auf eine Menge an einfallendem Licht angibt;
  • 26 und 27 betreffen das sechste Ausführungsbeispiel der vorliegenden Erfindung;
  • 26 ist ein Blockdiagramm, das eine Anordnung einer Abbildungsvorrichtung des sechsten Ausführungsbeispiels zeigt;
  • 27 ist ein Ablaufdiagramm, das Halbbild für Halbbild die Beziehungen unter einem Ausgangssignal eines ladungsgekoppelten Bauelements, einem Ausgangssignal einer Wellenformerfassungsschaltung und Daten, die durch eine Blende des ladungsgekoppelten Bauelements erzeugt werden, angibt;
  • 28 und 29 betreffen das siebte Ausführungsbeispiel der vorliegenden Erfindung;
  • 28 ist ein Blockdiagramm, das eine Anordnung einer Abbildungsvorrichtung des siebten Ausführungsbeispiels zeigt;
  • 29 ist ein Ablaufdiagramm, das Halbbild für Halbbild die Beziehungen unter einem Ausgangssignal eines ladungsgekoppelten Bauelements, einem Ausgangssignal einer Wellenformerfassungsschaltung und Daten, die durch eine Blende des ladungsgekoppelten Bauelements erzeugt werden, angibt;
  • 30 und 31 betreffen das achte Ausführungsbeispiel der vorliegenden Erfindung;
  • 30 ist ein Blockdiagramm, das eine Anordnung einer Abbildungsvorrichtung des achten Ausführungsbeispiels zeigt;
  • 31 ist ein Ablaufdiagramm, das Halbbild für Halbbild die Beziehungen unter einem Ausgangssignal eines ladungsgekoppelten Bauelements, einem Ausgangssignal einer Wellenformerfassungsschaltung und Daten, die durch eine Blende des ladungsgekoppelten Bauelements erzeugt werden, angibt;
  • 32 ist ein Ablaufdiagramm, das ein Ausgangssignal eines ladungsgekoppelten Bauelements für jedes Halbbild in einer Variante des achten Ausführungsbeispiels angibt;
  • 33 bis 40G betreffen das neunte Ausführungsbeispiel der vorliegenden Erfindung;
  • 33 ist ein Diagramm, das schematisch eine Endoskopabbildungsvorrichtung des neunten Ausführungsbeispiels zeigt;
  • 34 ist ein Diagramm, das eine praktische Anordnung einer Endoskopabbildungseinheit zeigt;
  • 35A und 35B sind Diagramme, die ein Filterelement zeigen;
  • 36 ist ein Graph, der Kennlinien angibt, die erreicht werden, wenn zwei Filter zur Abbildung verwendet werden;
  • 37A bis 37C sind erläuternde Diagramme zum Erläutern der Wirkung eines Filters oder dergleichen, das sich auf einem optischen Weg befindet, gemäß einem Halbbildbeurteilungssignal;
  • 38 ist ein Blockdiagramm, das eine Anordnung eines Videoprozessors zeigt, der als Bildverarbeitungseinheit dient;
  • 39 ist ein Blockdiagramm, das eine Anordnung einer Einheit zum Erweitern des dynamischen Bereichs zeigt;
  • 40A bis 40G sind Ablaufdiagramme zum Erläutern der Wirkungen der Einheit zum Erweitern des dynamischen Bereichs;
  • 41 bis 52 betreffen das zehnte Ausführungsbeispiel der vorliegenden Erfindung;
  • 41 ist ein Diagramm, das eine praktische Anordnung einer Endoskopabbildungseinheit mit Zeitfolgeverfahren des zehnten Ausführungsbeispiels zeigt;
  • 42 ist ein Diagramm, das ein RGB-Drehfilter zeigt;
  • 43 ist ein Diagramm, das ein Filterelement zeigt;
  • 44 ist ein Blockdiagramm, das eine Anordnung eines Videoprozessors zeigt, der als Bildverarbeitungseinheit dient;
  • 45A bis 45F sind erläuternde Diagramme, die die Aktionen einer Endoskopabbildungseinheit anzeigen;
  • 46 ist ein Blockdiagramm, das eine Anordnung einer Einheit zum Erweitern des dynamischen Bereichs zeigt;
  • 47A bis 47I sind erläuternde Diagramme, die die Wirkungen eines Signalselektor-Interpolators anzeigen;
  • 48A und 48E sind erläuternde Diagramme, die die Wirkungen einer Abbildungseinheit in der ersten Variante anzeigen;
  • 49 ist ein Diagramm, das ein Filterelement in der zweiten Variante zeigt;
  • 50A bis 50I sind erläuternde Diagramme, die die Wirkungen einer Abbildungseinheit anzeigen;
  • 51A bis 51I sind erläuternde Diagramme, die die Wirkungen eines Signalselektor-Interpolators anzeigen;
  • 52 ist ein Blockdiagramm, das schematisch eine Anordnung eines Signalselektors und Interpolators zeigt;
  • 53 bis 55C betreffen das elfte Ausführungsbeispiel der vorliegenden Erfindung;
  • 53 ist ein Diagramm, das einen Teil einer Abbildungseinheit im elften Ausführungsbeispiel zeigt;
  • 54A bis 54C sind erläuternde Diagramme, die die Wirkungen der Abbildungseinheit anzeigen;
  • 55A bis 55C sind erläuternde Diagramme zum Erläutern der Wirkungen einer Abbildungseinheit in einer Variante des elften Ausführungsbeispiels;
  • 56 bis 59 betreffen das zwölfte Ausführungsbeispiel der vorliegenden Erfindung;
  • 56 ist ein Diagramm, das schematisch eine Anordnung einer Endoskopabbildungsvorrichtung des zwölften Ausführungsbeispiels zeigt;
  • 57A und 57B sind Diagramme, die eine Anordnung einer Lichtquelleneinheit und eines Filterelements zeigen;
  • 58A bis 58C sind erläuternde Diagramme, die die Wirkungen einer Einheit zum Steuern einer Menge an emittiertem Licht anzeigen;
  • 59 ist ein Diagramm, das eine Anordnung einer Lichtquelleneinheit in einer Variante des zwölften Ausführungsbeispiels zeigt;
  • 60 bis 61D betreffen das dreizehnte Ausführungsbeispiel der vorliegenden Erfindung;
  • 60 ist ein Diagramm, das schematisch eine Anordnung einer Endoskopabbildungsvorrichtung des dreizehnten Ausführungsbeispiels zeigt; und
  • 61A bis 61D sind erläuternde Diagramme, die die Wirkungen einer Einheit zum Steuern einer Menge an emittiertem Licht anzeigen.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Mit Bezug auf die Zeichnungen werden nachstehend Ausführungsbeispiele der vorliegenden Erfindung beschrieben.
  • Erstes Ausführungsbeispiel
  • Wie in 1 gezeigt, besteht eine Abbildungsvorrichtung 1 dieses Ausführungsbeispiels aus einem ladungsgekoppelten Bauelement (CCD) 2, einer Synchronisierungs-(nachstehend Synchronisations-)Signalerzeugungsschaltung (SSG) 3, einem Taktgenerator 4 und einem CCD-Treiber 5. Das CCD 2 ist ein Einplatten-Farbabbildungsbauelement zum Abbilden eines Objekts. Die SSG erzeugt ein Bezugssignal. Der Taktgenerator 4 gibt das von der SSG 3 gesandte Bezugssignal ein und erzeugt ein Ansteuersignal oder dergleichen, das zum Ansteuern des CCD 2 verwendet wird. Der CCD-Treiber steuert das CCD 2 als Reaktion auf das vom Taktgenerator 4 gesandte Ansteuersignal an.
  • Die Abbildungsvorrichtung 1 umfasst ferner einen Vorverstärker 6, eine CDS-Schaltung 7 und einen A/D-Wandler 8. Der Vorverstärker 6 verstärkt ein vom CCD 2 gesandtes Abbildungssignal. Die CDS-Schaltung 7 führt eine korrelative Doppelabtastung (CDS) gemäß einem vom Taktgenerator 4 gesandten Abtastimpuls aus. Der A/D-Wandler 8 wandelt ein aus der CDS-Schaltung 7 ausgegebenes analoges Signal in ein digitales Signal um. Nachdem ein aus dem CCD 2 ausgegebenes Abbildungssignal durch den Vorverstärker 6 verstärkt wurde, wird die Frequenz des Abbildungssignals durch die CDS-Schaltung 7 auf das Basisband gesenkt. Das resultierende Signal wird durch den A/D-Wandler 8 in ein digitales Signal umgewandelt. Der A/D-Wandler 8 wandelt ein analoges Signal in ein 8 Bits langes digitales Signal um.
  • Ferner umfasst die Abbildungsvorrichtung 1 eine Farbtrennschaltung 9, eine Weißausgleichsschaltung 10, eine Schaltung zur automatischen Verstärkungsregelung (nachstehend AGC-Schaltung) 11, eine Knick- und Gammaschaltung 12 und eine Schaltung 15R zum Erweitern des roten dynamischen Bereichs, eine Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und eine Schaltung 15G zum Erweitern des blauen dynamischen Bereichs, eine Verstärkungsschaltung 16 und einen D/A-Wandler 18. Insbesondere trennt die Farbtrennschaltung 9 drei Farbsignalkomponenten, die Rot, Grün und Blau darstellen, von einem digitalen Signal, das vom A/D-Wandler 8 erzeugt wird. Die Weißausgleichsschaltung 10 stellt einen Weißausgleich ein, der durch jedes der digitalen Signale angegeben wird, die die von der Farbtrennschaltung 9 getrennten Farbsignalkomponenten sind. Die AGC-Schaltung 11 stellt eine Verstärkung ein, die jedem der digitalen Signale verliehen werden soll, deren Weißausgleich durch die Weißausgleichsschaltung eingestellt wurde. Die Knick- und Gammaschaltung 12 behandelt einen Knick einer Kurve, die auf der Basis von jedem der digitalen Signale, deren Verstärkung durch die AGC-Schaltung 11 eingestellt wurde, aufgetragen wird, und korrigiert einen durch das digitale Signal angegebenen Gammawert. Die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs erweitern die dynamischen Bereiche für die roten, grünen und blauen digitalen Signale, die verarbeitet wurden, um einen Knick zu behandeln und einen Gammawert zu korrigieren. Die Verstärkungsschaltung 16 verstärkt die roten, grünen und blauen digitalen Signale, für die die dynamischen Bereiche durch die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs bzw. die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs erweitert wurden. Der D/A-Wandler 18 wandelt die digitalen Signale, die durch die Verstärkungsschaltung 16 verstärkt wurden, in analoge Signale um und gibt die analogen Signale über einen Treiber 17 von 75 Ω an einen Monitor 19 aus.
  • Die Schaltung 15R zum Erweitern des roten dynamischen Bereichs umfasst, wie in 2 gezeigt, einen Halbbildspeicher 21 und einen ersten Selektor 22 und einen zweiten Selektor 23. Insbesondere speichert der Halbbildspeicher 21 ein digitales Signal eines roten Signals, das ein Halbbild wiedergibt und verarbeitet wird, um durch die Knick- und Gammaschaltung 12 einen Knick zu behandeln und einen Gammawert zu korrigieren. Der erste Selektor 22 und der zweite Selektor 23 wählen und geben eines von einem roten Signal, das ein vorheriges Halbbild wiedergibt, und einem roten Signal, das ein aktuelles Halbbild wiedergibt, die im Halbbildspeicher 21 gespeichert sind, gemäß einem Halbbildbeurteilungssignal, das vom Taktgenerator 4 gesandt wird, aus. Der zweite Selektor 23 ist mit dem ersten Selektor 22 über einen Inverter 24 verbunden. Der zweite Selektor 23 gibt daher ein rotes Signal aus, das ein Halbbild wiedergibt, das vom vorherigen Halbbild oder aktuellen Halbbild, das durch ein aus dem ersten Selektor 22 ausgegebenes rotes Signal dargestellt wird, verschieden ist.
  • Die Schaltung 15R zum Erweitern des roten dynamischen Bereichs besteht aus einer ersten Nachschlagetabelle (nachstehend erste LUT) 25 und einer zweiten LUT 26, einem ersten Multiplizierer 27, einem zweiten Multiplizierer 28 und einem Addierer 29. Insbesondere wird eine gegebene Funktion, die später beschrieben wird und die durch den Pegel eines Teils eines Ausgangssignals, das heißt einer roten Signalkomponente, des zweiten Selektors 23 festgelegt wird, aus der ersten LUT 25 und der zweiten LUT 26 gelesen.
  • Hierbei gibt die rote Signalkomponente ein Pixel wieder. Der erste Multiplizierer 27 multipliziert die rote Signalkomponente, die er vom ersten Selektor 22 empfängt und ein Pixel wiedergibt, mit einem Ausgangssignal der ersten LUT 25. Der zweite Multiplizierer 28 multipliziert die rote Signalkomponente, die er vom zweiten Selektor 23 empfängt und ein Pixel wiedergibt, mit einem Ausgangssignal der zweiten LUT 25. Der Addierer 29 addiert ein Ausgangssignal des ersten Multiplizierers 27 und ein Ausgangssignal des zweiten Multiplizierers 28 und gibt ein Ergebnis an die Verstärkungsschaltung 16 aus.
  • Die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs weisen dieselbe Schaltungsanordnung auf wie die Schaltung 15R zum Erweitern des roten dynamischen Bereichs. Auf die Beschreibung ihrer Anordnungen wird daher verzichtet.
  • Die erste LUT 25 und die zweite LUT 26 sind Speicherbelegungspläne wie die in 3A gezeigten.
  • In der ersten LUT 25 und der zweiten LUT 26 sind ein Gewichtskoeffizient f = cos2, der monoton abnimmt, und ein Gewichtskoeffizient g = sin2, der monoton zunimmt, an den Adressen 00 bis FF gespeichert. Die Adressen sind beispielsweise jeweils 8 Bits lang. Die Daten der Gewichtskoeffizienten oder Funktionen f und g werden so festgelegt, dass deren Summe 1 ist.
  • Nun werden die Adressen 00 bis FF jeweils mit einer Länge von 8 Bits Leuchtdichtewerten zugeordnet, die durch ein digitales 8-Bit-Eingangssignal angegeben werden. Insbesondere nehme man an, dass ein durch das CCD 2 erzeugtes Abbildungssignal einen Leuchtdichtepegel 0 angibt und das Abbildungssignal durch den A/D-Wandler 8 in ein digitales Signal umgewandelt wird. In diesem Fall wird auf eine Adresse 00h in der ersten LUT 25 und der zweiten LUT 26 Bezug genommen.
  • Wie in 1 gezeigt, wird ein Ausgangssignal des CCD 2, das heißt ein Abbildungssignal, durch die AGC-Schaltung 11 und andere verstärkt und hinsichtlich eines Gammawerts korrigiert. Der Signalpegel wird gemäß dem dynamischen Bereich eingestellt, der durch den Anzeigebildschirm des Monitors 19 zugelassen wird.
  • Mit anderen Worten, wenn ein Ausgangssignal des CCD 2 einen Leuchtdichtepegel 0 angibt, ist der Pegel eines in den Monitor 19 eingegebenen Signals auch 0. Wenn das CCD 2 gesättigt ist, wird der Pegel eines an den Monitor ausgegebenen Abbildungssignals so eingestellt, dass er einen Sättigungswert aufweist (Vuse in 5).
  • Wenn ein Abbildungssignal, das ein Ausgangssignal des CCD 2 ist, einen Sättigungswert aufweist (beispielsweise Vuse in 5), wird das Abbildungssignal überdies zum A/D-Wandler 8 und anderen gesandt. Dann wird auf eine Adresse FFh in der ersten LUT 25 und der zweiten LUT 26 Bezug genommen. Im übrigen bedeutet beispielsweise 00h 00 in der Hexadezimalschreibweise.
  • Ein Signal x, auf dessen Basis auf die erste LUT 25 und die zweite LUT 26 Bezug genommen wird, kann normiert werden, um einen Wert im Bereich von 0 bis 1 darzustellen (ein digitaler Wert 00h ist nämlich 0 zugeordnet und ein digitaler Wert FFh ist 1 zugeordnet. In diesem Fall wird cos2(px) aus der ersten LUT 25 gelesen und sin2(px) wird aus der zweiten LUT 26 gelesen.
  • Auf der Basis eines Signals x, auf dessen Basis auf die erste LUT 25 und die zweite LUT 26 Bezug genommen wird, werden Daten von einer zugehörigen Adresse gelesen. Das Lesen ist in 3B dargestellt.
  • In 3B bedeutet p einen Korrekturkoeffizienten. Man nehme an, dass ein Helligkeitspegel, auf dem ein Abbildungssignal, das durch Abbilden eines Objekts während einer kurzen Belichtungszeit erzeugt wird, einen Sättigungswert aufweist, ys2 ist. Der Korrekturkoeffizient p wird auf einen Wert gesetzt, der bewirkt, dass die Gewichtsfunktion g, das heißt sin2(px), relativ zum Helligkeitspegel von ys2 1 aufweist, beispielsweise p = (π·ys2/2).
  • Als nächstes werden die Operationen der Abbildungsvorrichtung 1 dieses Ausführungsbeispiels mit den vorangehenden Komponenten beschrieben.
  • Ein Ansteuersignal wird durch den Taktgenerator 4 gemäß einem von der SSG 3 gesandten Bezugssignal erzeugt. Mit dem Ansteuersignal steuert der CCD-Treiber 5 das CCD 2 an. Ein photoelektrisch umgewandeltes Signal eines Objekts, das durch das CCD 2 erzeugt wird, wird durch den Vorverstärker 6 verstärkt. Die Frequenz des Signals wird dann durch die CDS-Schaltung 7 so abgesenkt, dass sie in das Basisband fällt. Das resultierende Signal wird dann durch den A/D-Wandler 8 in ein digitales Signal umgewandelt.
  • Mit dem vom Taktgenerator 4 erzeugten Ansteuersignal steuert der CCD-Treiber 5 das CCD 2 an. Wenn es angesteuert wird, bildet das CCD 2 ein Objekt mit einer Blendengeschwindigkeit ab, die von Halbbild zu Halbbild verschieden ist, beispielsweise einer ersten Blendengeschwindigkeit von 1/60 s. Ansonsten bildet das CCD 2 das Objekt unter Verwendung einer Bauelementblende mit hoher Geschwindigkeit mit einer zweiten Blendengeschwindigkeit ab, die beispielsweise ein Vierfaches der ersten Blendengeschwindigkeit ist (das heißt 1/240 s).
  • Mit anderen Worten, ein ein Objektbild wiedergebendes Halbbild A wird mit der ersten Blendengeschwindigkeit erzeugt. Ein ein Objektbild wiedergebendes Halbbild B wird mit der zweiten Blendengeschwindigkeit erzeugt. Für das Halbbild B wird ein Bildsignal, das durch Belichten eines Objekts für einen anderen Zeitraum als 1/240 s während der Periode eines Halbbildes (1/60 s) erzeugt wird, schnell weggebracht.
  • Wie später beschrieben, werden die durch Abbilden eines Objekts mit verschiedenen Blendengeschwindigkeiten erzeugten Abbildungssignale durch die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs verarbeitet. Somit werden die dynamischen Bereiche für die roten, grünen und blauen Signale erweitert.
  • Anschließend werden drei Farbsignalkomponenten von Rot, Grün und Blau durch die Farbtrennschaltung 9 von einem digitalen Signal getrennt, das von einem analogen Signal umgewandelt wurde. An den drei resultierenden digitalen Signalen werden eine Weißausgleichseinstellung, eine Verstärkungsregelung, eine Knickbehandlung und eine Gammakorrektur durch die Weißausgleichsschaltung 10, die AGC-Schaltung 11 bzw. die Knick- und Gammaschaltung 12 durchgeführt. Anschließend erweitern die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs die dynamischen Bereiche für die roten, grünen und blauen digitalen Signale. Die Verstärkungsschaltung 16 verstärkt die digitalen Signale. Der D/A-Wandler 18 wandelt die digitalen Signale in analoge Signale um. Die analogen Signale werden über den Treiber 17 von 75 Ω an den Monitor 19 ausgegeben.
  • Als nächstes wird die Verarbeitung zur Erweiterung des dynamischen Bereichs, die durch die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs durchgeführt werden soll, detailliert dargestellt. Mit Bezug auf das Ablaufdiagramm von 4A bis 4I wird die Verarbeitung zur Erweiterung des dynamischen Bereichs beschrieben, indem die Schaltung 15R zum Erweitern des roten dynamischen Bereichs als Beispiel genommen wird.
  • Ein Halbbildbeurteilungssignal (4B) ist mit einem vertikalen Synchronisationssignal VD (4A), das in einem Videosignal enthalten ist, synchron. Das Halbbildbeurteilungssignal wird aus dem Taktgenerator 4 an den zweiten Selektor 23 über den ersten Selektor 22 und den Inverter 24 in der Schaltung 15R zum Erweitern des roten dynamischen Bereichs ausgegeben.
  • Überdies wird ein rotes Ausgangssignal der Knick- und Gammaschaltung 12 an die einen Eingangsanschlüsse des ersten Selektors 22 und des zweiten Selektors 23 in der Schaltung 15R zum Erweitern des roten dynamischen Bereichs angelegt. Ein Ausgangssignal des Halbbildspeichers 21 (4D) wird an die anderen Eingangsanschlüsse des ersten Selektors 22 und des zweiten Selektors 23 angelegt.
  • Auf der Basis des Halbbildbeurteilungssignals wird ein digitales Signal, das mit der ersten Blendengeschwindigkeit (1/60 s) erzeugt wird, um das Halbbild A wiederzugeben, aus dem ersten Selektor 22 ausgegeben. Ein digitales Signal, das mit der zweiten Blendengeschwindigkeit (1/240 s) erzeugt wird, um das Halbbild B wiederzugeben, wird aus dem zweiten Selektor 23 ausgegeben.
  • Das das Halbbild A wiedergebende digitale Signal, das vom ersten Selektor 22 eingegeben wird, wird an den ersten Multiplizierer 27 ausgegeben. Das das Halbbild B wiedergebende digitale Signal, das vom zweiten Selektor 23 eingegeben wird, wird an den zweiten Multiplizierer 28, die erste LUT 24 (4E) und die zweite LUT 26 (4F) ausgegeben.
  • Zu diesem Zeitpunkt werden auf der Basis eines Signals x, das eine digitale Abbildungssignalkomponente ist, die ein Pixel des Halbbildes B wiedergibt, cos2(px) und sin2(px) aus der ersten LUT 25 und der zweiten LUT 26 ausgegeben.
  • In diesem Fall wird ein das Halbbild A wiedergebendes Abbildungssignal durch Abbilden eines Objekts während einer Belichtungszeit (Abbildungszeit), die viermal länger ist als die Belichtungszeit, während der ein das Halbbild B wiedergebendes Abbildungssignal erzeugt wird, erzeugt. Wie in 5 gezeigt, weist das Abbildungssignal eine Kennlinie x1 = y relativ zu einem Helligkeitspegel y des Objekts auf. Im Gegensatz dazu weist ein das Halbbild B wiedergebendes Abbildungssignal eine Kennlinie x2 = y/4 auf.
  • Das das Halbbild A wiedergebende Abbildungssignal x1 weist einen Sättigungswert Vuse relativ zu einem Helligkeitspegel ys1 auf. Das das Halbbild B wiedergebende Abbildungssignal x2 weist den Sättigungswert Vuse relativ zu einem Helligkeitspegel ys2 (= 4ys1) auf.
  • In diesem Ausführungsbeispiel nehme man an, dass ein Abbildungssignal x1, das mit einem Helligkeitspegel ya erzeugt wird, um das Halbbild A wiederzugeben, beispielsweise einen Wert x1a in 5 aufweist. In diesem Fall weist ein das Halbbild B wiedergebendes Abbildungssignal einen Wert x2a auf.
  • Wie in 3B gezeigt, wird auf die erste LUT 25 und die zweite LUT 26 auf der Basis des das Halbbild B wiedergebenden Abbildungssignals x2 Bezug genommen. Die Gewichtsfunktionen f = cos2(px) und g = sin2(px) werden dann ausgelesen.
  • Die Funktionen cos2(px) und sin2(px) werden an den ersten Multiplizierer 27 und den zweiten Multiplizierer 28 ausgegeben. Der erste Multiplizierer 27 multipliziert eine digitale Abbildungssignalkomponente, die ein Pixel des Halbbildes A wiedergibt, mit cos2(px) (4G). Der zweite Multiplizierer 28 multipliziert eine digitale Abbildungssignalkomponente, die ein Pixel des Halbbildes B wiedergibt, mit sin2(px) (4H).
  • Der Addierer 29 addiert ein Ausgangssignal des ersten Multiplizierers 27 und ein Ausgangssignal des zweiten Multiplizierers (4I).
  • In 4A bis 4I ist der Kürze halber ein Ausgangssignal, das jedes Pixel des Halbbildes An wiedergibt, mit An bezeichnet, und ein Ausgangssignal, das jedes Pixel des Halbbildes B wiedergibt, ist mit Bn bezeichnet. Die Verarbeitung zur Erweiterung des dynamischen Bereichs in diesem Ausführungsbeispiel wird, wie vorstehend erwähnt, in Einheiten eines Pixels ausgeführt. Man nehme an, dass ein Ausgangswert, der eine digitale Abbildungssignalkomponente ist, die jedes Pixel des Halbbildes B wiedergibt, x ist und ein Ausgangswert, der eine digitale Abbildungssignalkomponente ist, die jedes Pixel des Halbbildes B wiedergibt, u ist. Ein Ausgangssignal M des Addierers wird folgendermaßen ausgedrückt: M = xcos2(px) + usin2(px)
  • Die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs wirken ähnlich der Schaltung 15R zum Erweitern des roten dynamischen Bereichs. Auf die Beschreibung der Erweiterungsschaltungen wird daher verzichtet.
  • Gemäß diesem Ausführungsbeispiel, wie in 5 gezeigt, wird das digitale Abbildungssignal x1 mit der ersten Blendengeschwindigkeit (1/60 s) erzeugt, um das Halbbild A wiederzugeben. Das digitale Abbildungssignal x2 (= u) wird mit der zweiten Blendengeschwindigkeit (1/240 s) erzeugt, um das Halbbild B wiederzugeben. Wenn ein Leuchtdichtepegel niedrig ist, wird das Ausgangssignal M der Schaltung 15R zum Erweitern des roten dynamischen Bereichs durch das digitale Abbildungssignal x1, das mit cos2(px) gewichtet wird, beherrscht. Wenn ein Leuchtdichtepegel hoch ist, wird das Ausgangssignal M durch das digitale Abbildungssignal x2, das mit sin2(px) gewichtet wird, beherrscht. Somit kann ein dynamischer Bereich ohne irgendeine Verschlechterung eines Rauschabstandes einer Bildsignalkomponente, die einen niedrigen Leuchtdichtepegel angibt, erweitert werden.
  • Für mehr Einzelheiten wird das Ausgangssignal M, das einem synthetischen Bildsignal entspricht, das durch Gewichten von zwei Bildsignalen und Addieren derselben erzeugt wird, mit Bezug auf 5 untersucht. Wenn ein Helligkeitspegel beispielsweise höher ist als 0 und viel niedriger als ys1, ist das Gewicht f für das das Halbbild A wiedergebende Bildsignal größer. Das Gewicht g für das das Halbbild B wiedergebende Bildsignal ist kleiner. Das heißt, f > g > 0 wird festgelegt. Das synthetische Bildsignal ist ein synthetisches Bildsignal, das durch geringfügiges Mischen des das Halbbild B wiedergebenden Bildsignals in das das Halbbild A wiedergebende Bildsignal erzeugt wird, wobei die Pixelstellen abgeglichen sind.
  • Wenn ein Helligkeitspegel höher ist als ys1, weist das das Halbbild A wiedergebende Bildsignal überdies einen Sättigungswert auf. Das Gewicht f für das Bildsignal mit dem Sättigungswert ist kleiner. Im Gegensatz dazu ist das Gewicht g für das das Halbbild B wiedergebende Bildsignal größer. Es wird nämlich g > f > 0 festgelegt. Das synthetische Bildsignal wird daher durch geringfügiges Mischen des Sättigungswerts des das Halbbild A wiedergebenden Bildsignals in das das Halbbild B wiedergebende Bildsignal erzeugt. Das synthetische Bildsignal weist eine Eigenschaft auf, dass es einen Leuchtdichtepegel angibt, der mit einer Zunahme des Helligkeitspegels eines Objekts sanft zunimmt.
  • Mit anderen Worten, gemäß dem ersten Ausführungsbeispiel wird ein erstes Abbildungssignal, das einen Sättigungswert relativ zu einem ersten Helligkeitspegel ys1 aufweist, mit einem Gewichtskoeffizienten f gewichtet, der monoton abnimmt. Ein zweites Abbildungssignal, das einen Sättigungswert relativ zu einem zweiten Helligkeitspegel ys2 aufweist, der höher ist als der erste Helligkeitspegel ys1 (viermal höher als ys1 in 5), wird mit einem Gewichtskoeffizienten g gewichtet, der monoton zunimmt. Die resultierenden Bildsignale werden durch einen Addierer addiert. Somit wird ein synthetisches Bildsignal erzeugt.
  • In diesem Ausführungsbeispiel wird die Summe der Gewichtskoeffizienten f und g auf 1 gehalten. Es wird somit verhindert, dass der Pegel eines synthetischen Bildsignals, das sich aus der Addition ergibt, nach dem Durchlaufen einer Schaltung zum Erweitern des dynamischen Bereichs größer wird und somit den Pegel eines an den Monitor 19 auszugebenden Bildsignals übersteigt, welcher ein Sättigungswert ist. Mit anderen Worten, wenn die Summe 1 übersteigt, muss eine Komprimierungsschaltung in einer der Schaltung zum Erweitern des dynamischen Bereichs folgenden Stufe installiert werden. Dieses Ausführungsbeispiel vermeidet die Notwendigkeit für die Komprimierungsschaltung.
  • Mit Bezug auf 5 wird das Ausgangssignal Ma, das einem synthetischen Bildsignal entspricht, durch Gewichten des Abbildungssignals x1a und des Abbildungssignals x2a mit den Gewichtskoeffizienten f und g und Addieren derselben erzeugt. Hierbei wird das Abbildungssignal xa1 mit einem Helligkeitspegel ya erzeugt, um das Halbbild A wiederzugeben. Das Abbildungssignal x2a gibt das Halbbild B wieder. Der Pegel des Ausgangssignals Ma wird durch Übernehmen der Pegel der Signale x1a und x2a gemäß einem Verhältnis, das zum Verhältnis des inversen Werts des Gewichtskoeffizienten f, 1/f, und zum inversen Wert des Gewichtskoeffizienten g, 1/g, proportional ist, festgelegt.
  • Wie aus 5 zu sehen ist, kann das Ausgangssignal M überdies als Funktion eines Helligkeitspegels betrachtet werden, der eine Variable ist. Die hergeleitete Funktion der Funktion ist positiv und nimmt monoton ab. Das heißt, der Gradient der hergeleiteten Funktion ist relativ zu niedrigen Helligkeitspegeln erhöht. Der Gradient wird mit einem Anstieg des Helligkeitspegels kontinuierlich verringert. Dies führt zu einem breiteren dynamischen Bereich.
  • Ein so erzeugtes synthetisches Bildsignal kann als Funktion ausgedrückt werden, die kontinuierlich gleichmäßig und monoton zunimmt, indem der Koeffizient p relativ zum Abbildungssignal x zweckmäßig festgelegt wird. Zu diesem Zeitpunkt nimmt die Funktion innerhalb des Bereichs von Helligkeitspegeln bis zu einem Helligkeitspegel, bei dem ein Signal, das mit einer zweiten Blendengeschwindigkeit erzeugt wird, einen Sättigungswert aufweist, zu. Folglich kann ein natürliches Bild, das keine Empfindung von Inkongruenz ergibt, betrachtet werden. Mit anderen Worten, gemäß diesem Ausführungsbeispiel wird das synthetische Bildsignal M durch Gewichten von zwei ganzen Abbildungssignalen (ein Abbildungssignal weist einen Sättigungswert auf) und Addieren derselben erzeugt. Dieses Ausführungsbeispiel kann daher einen breiten dynamischen Bereich bieten, der breit genug ist, um ein synthetisches Bildsignal ähnlich einem Bildsignal, das durch Durchführen einer einmaligen Abbildung erzeugt wird, zu erzeugen. Überdies kann ein Bildsignal, das eine Eigenschaft aufweist, dass es einen Helligkeitspegel angibt, der sich mit einer Zunahme der Helligkeit eines Objekts gleichmäßig ändert, erzeugt werden, um ein natürliches Bild mit guter Qualität anzuzeigen. Selbst wenn ein Objekt eine Bewegung durchführt, wird überdies eine Inkonsistenz zwischen einer Kontur, die durch eine Bildsignalkomponente dargestellt wird, die einen niedrigen Leuchtdichtepegel anzeigt, und einer Kontur, die durch eine andere Komponente dargestellt wird, die einen hohen Leuchtdichtepegel anzeigt, minimiert.
  • Überdies werden in diesem Ausführungsbeispiel zwei Abbildungssignale mit Gewichtskoeffizienten gewichtet und dann addiert. Die Summe der Gewichtskoeffizienten f und g wird auch auf 1 festgelegt. Ein Bildsignal, das sich aus der Addition ergibt, hat einen breiten dynamischen Bereich, der mit dem Signalpegel eines das Halbbild B wiedergebenden Abbildungssignals endet, welcher ein Sättigungswert ist. Überdies kommt es nicht vor, dass der Signalpegel angehoben wird, bevor und nachdem das Abbildungssignal die Schaltung 15R zum Erweitern des dynamischen Bereichs oder dergleichen durchläuft.
  • Im Gegensatz dazu wird gemäß dem Stand der Technik, der in der japanischen ungeprüften Patentveröffentlichung Nr. 6-141229 offenbart ist, ein anderes Gewicht unter einer Bedingung nahe einer Grenzbedingung angewendet, unter der eines von zwei Abbildungssignalen einen Sättigungswert aufweist. Die gewichteten Abbildungssignale werden dann addiert. Der Signalpegel eines resultierenden Bildsignals relativ zu einer von der Grenzbedingung entfernten Bedingung wird zu einem verschiedenen Vielfachen von dessen Signalpegel, der unter der Grenzbedingung erreicht wird. Eine Komprimierungsschaltung zum Komprimieren eines synthetischen Bildsignals muss daher in einer nachfolgenden Stufe installiert werden.
  • Überdies wird die Komprimierungsschaltung verwendet, um ein synthetisches Bildsignal zu komprimieren, so dass das Signal eine Eigenschaft aufweist, dass sich der Signalpegel kontinuierlich mit einer Zunahme der Helligkeit ändert. In diesem Fall muss sich die Komprimierungsschaltung einer großen Belastung aussetzen.
  • In diesem Ausführungsbeispiel wird der Korrekturkoeffizient p als p = (π·ys2/2) festgelegt. Abgesehen davon kann der Korrekturkoeffizient p auf einen beliebigen Wert gesetzt werden, der bewirkt, dass das Ausgangssignal M mit einer Zunahme der Helligkeit gemäß den Kennlinien des CCD monoton zunimmt. Überdies ist das Ausgangssignal M nicht auf die Funktion xcos2(px) + usin2(px) begrenzt. Alternativ kann das Ausgangssignal M eine Funktion sein, die ein synthetisches Bildsignal, welches durch ein Abbildungssignal dominiert wird, das mit einer niedrigen Blendengeschwindigkeit erzeugt wird, relativ zu einem niedrigen Leuchtdichtepegel konstruiert. Relativ zu einem hohen Leuchtdichtepegel konstruiert die Funktion ein synthetisches Bildsignal, das durch ein Abbildungssignal beherrscht wird, welches mit einer hohen Blendengeschwindigkeit erzeugt wird.
  • In 5 variieren die Signale x1 und x2 der Kürze halber linear relativ zu einem Helligkeitspegel y. Dieses Ausführungsbeispiel kann auch an eine Abbildungsvorrichtung angepasst werden, in der die Signale nicht-linear variieren.
  • In diesem Ausführungsbeispiel trennt die Farbtrennschaltung 9 rote, grüne und blaue Farbsignalkomponenten. Die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs erweitern die dynamischen Bereiche für die roten, grünen und blauen Signale. Die vorliegende Erfindung ist nicht auf diese Betriebsart begrenzt. Alternativ kann die Farbtrennschaltung ein Leuchtdichtesignal und ein Farbwertsignal trennen. Die dynamischen Bereiche für sowohl das Leuchtdichtesignal als auch das Farbwertsignal oder der dynamische Bereich für nur das Leuchtdichtesignal können erweitert werden.
  • Nachdem die Farbsignalkomponenten getrennt wurden, werden in diesem Ausführungsbeispiel die dynamischen Bereiche für die Signale erweitert. Die vorliegende Erfindung ist auf diese Betriebsart nicht beschränkt. Alternativ, wie in 6 gezeigt, können die Schaltung 15R zum Erweitern des roten dynamischen Bereichs, die Schaltung 15G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs ungenutzt sein. Statt dessen kann eine Schaltung 40 zum Erweitern des dynamischen Bereichs in der Stufe installiert sein, die dem A/D-Wandler 8 zum Umwandeln eines analogen Signals in ein digitales Signal folgt. Der dynamische Bereich für ein Signal, das gerade digitalisiert wurde, kann erweitert werden. In diesem Fall sind die anderen Komponenten zu jenen dieses Ausführungsbeispiels identisch.
  • Im ersten Ausführungsbeispiel werden die Gewichtskoeffizienten f und g mit einem das Halbbild B wiedergebenden Abbildungssignal festgelegt. Sie können alternativ mit beiden Abbildungssignalen, die die Halbbilder A und B wiedergeben, festgelegt werden. In diesem Fall weist die Schaltung 15R zum Erweitern des roten dynamischen Bereichs die in 7 gezeigte Anordnung auf.
  • In 2 wird ein Ausgangssignal des zweiten Selektors 23 in die erste und die zweite LUT 25 und 26 eingegeben. In 7 wird ein Ausgangssignal des ersten Selektors 22 in die erste LUT 25 eingegeben und ein Ausgangssignal des zweiten Selektors 23 wird in die zweite LUT 26 eingegeben.
  • Die anderen Verbindungen sind zu den in 2 gezeigten identisch.
  • In 7 wird ein Gewichtskoeffizient f aus der ersten LUT 25 gemäß einem das Halbbild A wiedergebenden Abbildungssignal gelesen. Ein Gewichtskoeffizient g wird aus der zweiten LUT 26 gemäß einem das Halbbild B wiedergebenden Abbildungssignal gelesen.
  • Auch bei dieser Variante sind die Gewichtskoeffizienten f und g f = cos2(px) und g = sin2(px). Hierbei ist px innerhalb eines Bereichs von Helligkeitspegeln ys2 festgelegt, die einem Bereich von einem Pegel 0 des zweiten Abbildungssignals x2 zu einem Pegel eines Sättigungswerts desselben zugeordnet sind.
  • Wenn eine Abbildungsbedingung zwischen den Halbbildern A und B unterschiedlich wird (beispielsweise ein Helligkeitspegel eines Objekts zwischen den Halbbildern A und B unterschiedlich wird), kann in dieser Variante die Summe der Gewichtskoeffizienten f und g nicht 1 sein. Hierbei wird der Gewichtskoeffizient f auf der Basis des Pegels des ersten Abbildungssignals x1, das das Halbbild A wiedergibt, gelesen. Der Gewichtskoeffizient g wird auf der Basis des Pegels des zweiten Abbildungssignals x2, das das Halbbild B wiedergibt, gelesen. In diesem Fall wird daher f + g = 1 festgelegt. Im Gegensatz dazu werden im ersten Ausführungsbeispiel die zwei Gewichtskoeffizienten f und g auf der Basis des Pegels eines Abbildungssignals festgelegt. f + g = 1 kann erfüllt werden.
  • Zweites Ausführungsbeispiel
  • Das zweite Ausführungsbeispiel ist zum ersten Ausführungsbeispiel im Wesentlichen identisch. Nur ein Unterschied wird beschrieben. Dieselben Bezugsziffern werden denselben Komponenten zugewiesen. Auf die Beschreibung der Komponenten wird verzichtet.
  • Die Schaltung 15R zum Erweitern des roten dynamischen Bereichs umfasst in diesem Ausführungsbeispiel, wie in 8A gezeigt, den Halbbildspeicher 21, einen Selektor 41, eine erste LUT 42 und eine zweite LUT 44. Insbesondere speichert der Halbbildspeicher 21 ein digitales rotes Signal, das ein Halbbild wiedergibt und durch die Knick- und Gammaschaltung 12 verarbeitet wurde, um einen Knick zu behandeln und einen Gammawert zu korrigieren. Der Selektor 41 wählt und gibt eines von einem roten Signal, das ein vorheriges Halbbild wiedergibt, und einem roten Signal, das ein aktuelles Halbbild wiedergibt, die im Halbbildspeicher 21 gespeichert sind, gemäß einem Halbbildbeurteilungssignal, das vom Taktgenerator 4 gesandt wird, aus. Das Halbbildbeurteilungssignal wird als Adressenbit hoher Ordnung in die erste LUT 42 eingegeben. Eine gegebene Funktion, die später beschrieben wird, wird aus der ersten LUT 42 gemäß dem Pegel eines ein Pixel wiedergebenden Ausgangssignals ausgegeben. Das Halbbildbeurteilungssignal wird als Adressenbit hoher Ordnung in die zweite LUT 44 über einen Inverter 43 eingegeben. Eine gegebene Funktion, die später beschrieben wird, wird aus der zweiten LUT 44 gemäß dem Pegel eines ein Pixel wiedergebenden Ausgangssignals ausgegeben. Der erste Multiplizierer 27 multipliziert das aus dem Halbbildspeicher 21 ausgegebene rote Signal mit dem ein Pixel wiedergebenden Ausgangssignal und einem Ausgangssignal der ersten LUT 42. Der zweite Multiplizierer 28 multipliziert das aus der Knick- und Gammaschaltung 12 ausgegebene rote Signal mit dem ein Pixel wiedergebenden Ausgangssignal und einem Ausgangssignal der zweiten LUT 52. Der Addierer 29 addiert die Ausgangssignale des ersten Multiplizierers 27 und des zweiten Multiplizierers 28 und gibt ein resultierendes Signal an die Verstärkungsschaltung 16 aus.
  • Wenn ein Abbildungssignal, das mit der ersten Blendengeschwindigkeit (1/60 s) erzeugt wird, um das Halbbild A wiederzugeben, aus dem Halbbildspeicher 21 ausgegeben wird, wählt der Selektor 41 ein das Halbbild B wiedergebendes Abbildungssignal aus, das aus der Knick- und Gammaschaltung 12 ausgegeben wird. Das Halbbildbeurteilungssignal wird als Adressenbit "0" hoher Ordnung in die erste LUT 42 eingegeben. Das Halbbildbeurteilungssignal wird als Adressenbit "1" hoher Ordnung über den Inverter 43 in die zweite LUT 44 eingegeben.
  • Wenn ein Abbildungssignal, das mit der zweiten Blendengeschwindigkeit (1/240 s) erzeugt wird, um das Halbbild B wiederzugeben, aus dem Halbbildspeicher 21 ausgegeben wird, wählt der Selektor 41 das das Halbbild B wiedergebende Abbildungssignal aus. Das Halbbildbeurteilungssignal wird als Adressenbit "1" hoher Ordnung in die erste LUT 42 eingegeben. Das Halbbildbeurteilungssignal wird als Adressenbit "0" hoher Ordnung über den Inverter 43 in die zweite LUT 44 eingegeben.
  • Die Schaltung 5G zum Erweitern des grünen dynamischen Bereichs und die Schaltung 15B zum Erweitern des blauen dynamischen Bereichs weisen dieselbe Schaltungsanordnung auf wie die Schaltung 15R zum Erweitern des roten dynamischen Bereichs dieses Ausführungsbeispiels. Auf die Beschreibung der Schaltungen wird verzichtet.
  • Die vorangehende erste LUT 42 und die zweite LUT 44 sind, wie in 8B gezeigt, in einem gemeinsamen Speicherbelegungsplan festgelegt. Wenn das Adressenbit "0" hoher Ordnung eingegeben wird, wird cos2(px), wobei x den Pegel des ein Pixel wiedergebenden Ausgangssignals bedeutet, ausgegeben. Wenn das Adressenbit "1" hoher Ordnung eingegeben wird, wird sin2(px), wobei x den Pegel des ein Pixel wiedergebenden Ausgangssignals bedeutet, ausgegeben.
  • Die anderen Komponenten sind zu jenen des ersten Ausführungsbeispiels identisch.
  • Als nächstes werden die Operationen dieses Ausführungsbeispiels mit Bezug auf die Ablaufpläne von 9A bis 9I beschrieben.
  • Ein Halbbildbeurteilungssignal (9B), das mit einem Videosignal VD (9A) synchron ist, wird aus dem Taktgenerator 4 an den Selektor 41 und die erste LUT 42 in der Schaltung 15R zum Erweitern des roten dynamischen Bereichs ausgegeben. Das Halbbildbeurteilungssignal wird auch über den Inverter 24 in dieser an die zweite LUT 44 ausgegeben.
  • Ein rotes Ausgangssignal der Knick- und Gammaschaltung 12 wird in den Halbbildspeicher 21 (9C), den Selektor 41 und den zweiten Multiplizierer 28 in der Schaltung 15R zum Erweitern des roten dynamischen Bereichs eingegeben. Ein Ausgangssignal des Halbbildspeichers (9D) wird in den Selektor 41 und den ersten Multiplizierer 27 eingegeben.
  • Man nehme an, dass ein das Halbbild A wiedergebendes digitales Abbildungssignal im Halbbildspeicher 21 gespeichert wird. In diesem Fall wird ein das Halbbild B wiedergebendes digitales Abbildungssignal aus der Knick- und Gammaschaltung 12 an die erste LUT 42 und die zweite LUT 44 über den Selektor 41 als Reaktion auf das Halbbildbeurteilungssignal ausgegeben. Zu diesem Zeitpunkt wird ein Adressenbit "0" hoher Ordnung in die erste LUT 42 eingegeben. Cos2(px), wobei x den Pegel eines ein Pixel wiedergebenden Ausgangssignals bedeutet, wird ausgegeben (9E). Ein Adressenbit "1" hoher Ordnung wird in die zweite LUT 44 eingegeben. Sin2(px), wobei x den Pegel eines ein Pixel wiedergebenden Ausgangssignals bedeutet, wird ausgegeben (9F).
  • Der erste Multiplizierer 27 multipliziert das ein Pixel des Halbbildes A wiedergebende digitale Abbildungssignal mit cos2(px) (9G). Der zweite Multiplizierer 28 multipliziert das ein Pixel des Halbbildes B wiedergebende digitale Abbildungssignal mit sin2(px) (9H).
  • Man nehme an, dass ein das Halbbild B wiedergebendes digitales Abbildungssignal im Halbbildspeicher 21 gespeichert ist. In diesem Fall wird das das Halbbild B wiedergebende digitale Abbildungssignal aus dem Halbbildspeicher 21 an die erste LUT 42 und die zweite LUT 44 über den Selektor 44 als Reaktion auf ein Halbbildbeurteilungssignal ausgegeben. Zu diesem Zeitpunkt wird ein Adressenbit "1" hoher Ordnung in die erste LUT 42 eingegeben. Sin2(px), wobei x den Pegel eines ein Pixel wiedergebenden Ausgangssignals bedeutet, wird ausgegeben (9E). Ein Adressenbit "0" hoher Ordnung wird in die zweite LUT 44 eingegeben. Cos2(px), wobei x den Pegel eines ein Pixel wiedergebenden Ausgangssignals bedeutet, wird ausgegeben (9F).
  • Der Multiplizierer 28 multipliziert das ein Pixel des Halbbildes B wiedergebende digitale Abbildungssignal mit sin2(px) (9G). Der zweite Multiplizierer 29 multipliziert das ein Pixel des Halbbildes A wiedergebende digitale Abbildungssignal mit cos2(px) (9H).
  • Der Addierer 29 addiert ein Ausgangssignal des ersten Multiplizierers 27 und ein Ausgangssignal des zweiten Multiplizierers 28 (9I).
  • Die anderen Komponenten sind zu jenen des ersten Ausführungsbeispiels identisch.
  • Auch in diesem Ausführungsbeispiel können dieselben Vorteile wie die vom ersten Ausführungsbeispiel bereitgestellten bereitgestellt werden.
  • Gemäß dem ersten und dem zweiten Ausführungsbeispiel und der Variante ändert ein Bildsignal-Erzeugungsmittel, wie vorstehend erwähnt, das Verhältnis eines ersten Abbildungssignals zu einem zweiten Abbildungssignal gemäß einem auf ein Abbildungsmittel einfallenden Lichtpegel. Das Bildsignal-Erzeugungsmittel synthetisiert dann ein erstes Bildsignal auf der Basis des ersten Abbildungssignals mit einem zweiten Bildsignal auf der Basis des zweiten Abbildungssignals. Der dynamische Bereich für ein Abbildungssignal kann erweitert werden und es kann verhindert werden, dass sich der Rauschabstand einer Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, verschlechtert. Überdies kann ein Bildsignal, dessen Eingangs/Ausgangs-Kennlinie sich sanft ändert und das ein natürliches Bild wiedergibt, das keine Empfindung von Inkongruenz ergibt, erzeugt werden.
  • In den vorstehend genannten Ausführungsbeispielen stellt ein erstes Abbildungssignal eine erste Abbildung dar, die während einer langen Belichtungszeit projiziert wird, und ein zweites Abbildungssignal stellt eine zweite Abbildung dar, die während einer kurzen Belichtungszeit projiziert wird. Das erste Abbildungssignal und das zweite Abbildungssignal werden mit zwei Gewichtskoeffizienten f und g gewichtet, die relativ zu Helligkeitspegeln festgelegt werden, die bis zu einem Helligkeitspegel reichen, bei dem das zweite Abbildungssignal einen Sättigungswert aufweist. Die resultierenden Abbildungssignale werden addiert, wobei somit ein synthetisches Bildsignal erzeugt wird, das ein synthetisches Bild darstellt.
  • Wenn ein Helligkeitspegel höher ist als der Helligkeitspegel, bei dem das erste Abbildungssignal einen Sättigungswert aufweist, kann alternativ ein Gewichtskoeffizient G, der mit dem Pegel des zweiten Abbildungssignals festgelegt wird, verwendet werden, um das Ausgangssignal M mit der Kennlinie wie der mit der Kurve in 5 ausgedrückten zu erzeugen.
  • Selbst in diesem Fall wird dieselbe Anordnung wie das erste Ausführungsbeispiel übernommen. In der ersten LUT 25 und der zweiten LUT 26 gespeicherte Daten sind jedoch von den in 2 gezeigten verschieden.
  • Solange ein Helligkeitspegel im Bereich von 0 bis ys1 liegt, ist ein Ausgangssignal M1 beispielsweise identisch zu dem im ersten Ausführungsbeispiel. Das Ausgangssignal M1, das einem synthetischen Bildsignal entspricht, wird folgendermaßen ausgedrückt: M1 = x1cos2(px) + x2sin2(px) (0 ≤ y < ys1)
  • Wenn der Helligkeitspegel y gleich oder größer als ys1 ist, wird ein Ausgangssignal M2 folgendermaßen geliefert: M2 = x2·G(x2(y))
  • In diesem Fall ist eine Grenzbedingung für das Ausgangssignal M2 folgendermaßen definiert: M2(ys1) = M1(ys1) dM1/dy = dM2/dybei y = ys1
  • Die hergeleiteten Funktionen von M1 und M2 relativ zum Helligkeitspegel y, das heißt ys1, sind nämlich einander gleich.
  • Somit verbindet sich das Ausgangssignal M1 sanft mit dem Ausgangssignal M2 beim Helligkeitspegel ys1. Überdies ist das Ausgangssignal M2 relativ zum Helligkeitspegel ys2 folgendermaßen definiert: M2(ys2) = x2(ys2) (= M(ys2))
  • Das Ausgangssignal M2 ist, wie in 10 gezeigt, so charakterisiert, dass es sich relativ zu Helligkeitspegeln, die im Bereich von ys1 bis ys2 liegen, sanft ändert.
  • In diesem Fall wird aus der ersten LUT 25 ein Gewichtskoeffizient cos2(px2) auf der Basis des Abbildungssignals x2 relativ zu Helligkeitspegeln im Bereich von 0 bis ys1 gelesen. Ein Gewichtskoeffizient 0 wird relativ zu einem Helligkeitspegel, der ys1 übersteigt, gelesen.
  • Aus der zweiten LUT 26 wird überdies ein Gewichtskoeffizient sin2(px2) auf der Basis des Abbildungssignals x2 relativ zu Helligkeitspegeln im Bereich von 0 bis ys1 gelesen. Wenn der Helligkeitspegel ys1 übersteigt, wird der Gewichtskoeffizient auf einen Wert gesetzt, der die vorstehend genannte Bedingung erfüllt.
  • 10 zeigt graphisch eine Kennlinie eines Ausgangssignals M', das in diesem Fall ein synthetisches Bildsignal ist, relativ zu einem Helligkeitspegel y. Die Kennlinie ist grundsätzlich zu der in 5 gezeigten identisch. Das heißt, wie vorstehend beschrieben, wenn der Helligkeitspegel eines Objekts gleich einem oder höher als ein Helligkeitspegel ist, bei dem das erste Abbildungssignal einen Sättigungswert aufweist, wird ein synthetisches Bildsignal durch den Gewichtskoeffizienten G charakterisiert, der durch das zweite Abbildungssignal festgelegt wird.
  • In dem in 10 gezeigten Beispiel nimmt der Gewichtskoeffizient G relativ zum Helligkeitspegel y monoton ab. Der dem Helligkeitspegel ys1 zugeordnete Gewichtskoeffizient G ist als G(ys1) > 1 gegeben. Der dem Helligkeitspegel ys2 zugeordnete Gewichtskoeffizient G ist als G(ys2) = 1 gegeben.
  • Auch in dieser Variante werden fast dieselben Vorteile wie jene des ersten Ausführungsbeispiels bereitgestellt.
  • Wie vorstehend mit Bezug auf beispielsweise 1 beschrieben, sind die Schaltungen 15R, 15G und 15B zum Erweitern des dynamischen Bereichs an der Ausgangsstufe der Knick- und Gammaschaltung 12 angeordnet. Die Schaltungen 15R, 15G und 15B zum Erweitern des dynamischen Bereichs können so ausgelegt sein, dass sie die Fähigkeit der Knick- und Gammaschaltung 12 aufweisen.
  • Überdies kann die Schaltung 40 zum Erweitern des dynamischen Bereichs in 6 so ausgelegt sein, dass sie die Fähigkeit eines Verstärkers zum Verstärken eines Ausgangssignals des CCD 2 aufweist. Hierbei wird das Ausgangssignal so verstärkt, dass der Sättigungswert des Ausgangspegels gleich jenem eines an den Monitor 19 ausgegebenen Bildsignals ist. In diesem Fall kann die Summe der Gewichtskoeffizienten f und g auf einen gegebenen Wert gesetzt werden, der größer ist als 1. Der Sättigungswert eines Ausgangspegels der Schaltung 40 zum Erweitern des dynamischen Bereichs wird dann an jenen eines an den Monitor 19 ausgegebenen Bildsignals angeglichen.
  • Drittes Ausführungsbeispiel
  • Das dritte Ausführungsbeispiel, das das vorstehend genannte erste und zweite Ausführungsbeispiel (einschließlich der Variante) aufgreift, wird nachstehend beschrieben. Kurz umfasst das dritte Ausführungsbeispiel ein Helligkeitserfassungsmittel. Ein Gewichtskoeffizient, der ein synthetisches Bildsignal charakterisiert, wird auf der Basis eines aus dem Helligkeitserfassungsmittel ausgegebenen Signals ausgewählt. Ansonsten kann der Gewichtskoeffizient manuell ausgewählt werden.
  • Das vierte Ausführungsbeispiel greift ein progressives CCD mit zwei Horizontalübertragungs-Ausgabeschaltungen als Abbildungsbauelement auf.
  • Das fünfte Ausführungsbeispiel ist an eine Endoskopabbildungsvorrichtung angepasst. In diesem Ausführungsbeispiel ist eine Austrittspupille in zwei Teile aufgeteilt. Zwei Abbildungsvorrichtungen werden verwendet. Ein breiter dynamischer Bereich wird geboten und ein zur Endoskopdiagnose geeignetes Bild kann konstruiert werden.
  • Gemäß dem sechsten, siebten und achten Ausführungsbeispiel wird die Wellenform eines Ausgangssignals eines Abbildungsbauelements erfasst. Auf der Basis der Wellenform wird eine von zwei verschiedenen Belichtungszeiten oder die andere davon oder beide davon ausgewählt.
  • Das neunte bis dreizehnte Ausführungsbeispiel sind Endoskopabbildungsvorrichtungen. Ein Filterelement befindet sich vor einem Abbildungsbauelement. Eine Menge an Licht, das auf das Abbildungsbauelement einfällt, wird somit gesteuert, um zwei Abbildungen ähnlich zu Abbildungen, die während verschiedenen Belichtungszeiten projiziert werden, zu erzeugen. Ansonsten kann eine Farbabbildung mit Zeitfolgeverfahren unter Beleuchtung mit Zeitfolgeverfahren ausgeführt werden. Eine Menge an Beleuchtungslicht, das zum Beleuchten eines Objekts verwendet wird, kann unter Verwendung eines Beleuchtungsmittels gesteuert werden, wodurch zwei Abbildungen ähnlich zu jenen, die während verschiedener Belichtungszeiten projiziert werden, konstruiert werden.
  • Als nächstes wird das dritte Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 11 bis 17 beschrieben. Eine Abbildungsvorrichtung 51, die in 11 gezeigt ist, umfasst eine Abbildungseinheit 52, eine Signalverarbeitungseinheit 53 und einen Monitor 54. Insbesondere ist die Abbildungseinheit 52 für die Abbildung verantwortlich. Die Signalverarbeitungseinheit 53 verarbeitet ein aus der Abbildungseinheit 52 ausgegebenes Signal. Der Monitor 54 zeigt ein Bild gemäß einem von der Signalverarbeitungseinheit 53 erzeugten Videosignal an.
  • Die Abbildungseinheit 52 umfasst eine Abbildungslinse 55 zum Erzeugen einer Objektabbildung und ein CCD 56, das als Halbleiterabbildungsvorrichtung dient, die sich in der Bildebene der Abbildungslinse 55 befindet. Das CCD 56 ist ein CCD mit beispielsweise einem photoelektrischen Wandler und einer Übertragungsvorrichtung. Ein Mosaikfilter zum optischen Trennen von Farbsignalkomponenten befindet sich vor dem photoelektrischen Wandler.
  • Die Signalverarbeitungseinheit 53 umfasst eine Bezugssignal-Erzeugungsschaltung (als SSG abgekürzt) 57 zum Erzeugen eines Bezugssignals. Das von der SSG 57 erzeugte Bezugssignal wird an eine erste Taktsignal-Erzeugungsschaltung 58 und eine zweite Taktsignal-Erzeugungsschaltung 59 ausgegeben. Ein von der ersten Taktsignal-Erzeugungsschaltung 58 erzeugtes Taktsignal wird an einen CCD-Treiber 60 angelegt. Der CCD-Treiber 60 legt ein CCD-Ansteuersignal an das CCD 56 synchron mit dem Taktsignal an.
  • Der CCD-Treiber 60 gibt zwei CCD-Ansteuersignale während einer Vollbildperiode (beispielsweise 1/30 s) aus. Mit den CCD-Ansteuersignalen werden zwei Abbildungssignale, die während verschiedener Belichtungszeiten erzeugt werden, ausgegeben. Eines der zwei Abbildungssignale, die während einer Vollbildperiode erzeugt werden, welches ein Halbbild wiedergibt (jedoch ein Vollbild), wird mit einer hohen Blendengeschwindigkeit äquivalent zu einer kurzen Belichtungszeit (beispielsweise 1/150 s) erzeugt. Das andere Abbildungssignal, das das andere Halbbild wiedergibt, wird mit einer niedrigen Blendengeschwindigkeit äquivalent zu einer langen Belichtungszeit (beispielsweise viermal länger als die zur hohen Blendengeschwindigkeit äquivalente Belichtungszeit, das heißt 1/37,5 s) erzeugt. Die Summe der zwei Belichtungszeiten ist 1/30 s entsprechend einer gewöhnlichen Vollbildperiode, während der ein Standardvideosignal abgetastet wird.
  • Das Abbildungssignal (Ladung), das mit der hohen Blendengeschwindigkeit erzeugt wird, und das Abbildungssignal (Ladung), das mit der niedrigen Blendengeschwindigkeit erzeugt wird, werden abwechselnd aus dem CCD synchron mit einem vertikalen Synchronisationssignal (als VD abgekürzt) während einer Halbbildperiode gelesen.
  • Ein Abbildungssignal wird durch das CCD 56 photoelektrisch umgewandelt und dann aus dem (Übertragungsvorrichtung) CCD 56 an einen Vorverstärker 61 ausgegeben. Nachdem es verstärkt wurde, wird das Abbildungssignal in eine korrelative Doppelabtast-(CDS)Schaltung 62 eingegeben. Ein Rücksetzrauschen und andere werden entfernt und die Signalkomponenten werden gewonnen. Das resultierende Signal wird in eine A/D-Umwandlungsschaltung 63 und eine Helligkeitsfeststellschaltung 64 eingegeben.
  • Die A/D-Umwandlungsschaltung 63 wandelt ein analoges Signal in ein digitales Signal um. Das digitale Signal wird in eine Schaltung zum Erweitern des dynamischen Bereichs (D-Bereichs-Erweiterungsschaltung in 11) zum Erweitern eines dynamischen Bereichs eingegeben. Ein Ansteuersignal, das aus der Helligkeitsfeststellschaltung 64 ausgegeben wird, wird auch in die Schaltung 65 zum Erweitern des dynamischen Bereichs eingegeben.
  • Die Helligkeitsfeststellschaltung 64 erfasst einen maximalen Leuchtdichtepegel, der durch das Abbildungssignal angegeben wird, das mit der hohen Blendengeschwindigkeit erzeugt wird. Auf der Basis des maximalen Leuchtdichtepegels erzeugt die Helligkeitsfeststellschaltung 64 ein Ansteuersignal, das die Auswahl einer Funktion unterstützt, die zum Erweitern eines dynamischen Bereichs durch die Schaltung 65 zum Erweitern des dynamischen Bereichs verwendet wird.
  • In Abhängigkeit davon, ob der maximale Leuchtdichtepegel einen Bezugswert übersteigt, wird beispielsweise ein Ansteuersignal, das eine von Betriebsarten zum Erweitern des dynamischen Bereichs angibt, ausgegeben. In einer der Betriebsarten wird der dynamische Bereich für ein Abbildungssignal so erweitert, dass das Abbildungssignal eine Kennlinie aufweist, dass auch eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, keinen Sättigungswert aufweist. In der anderen Betriebsart wird der dynamische Bereich für ein Abbildungssignal so erweitert, dass das Abbildungssignal eine Kennlinie aufweist, dass eine Signalkomponente, die einen niedrigeren Leuchtdichtepegel anzeigt, nicht den Sättigungswert aufweist.
  • Die Helligkeitsfeststellschaltung 64 besteht aus einer Spitzenwert-Erfassungsschaltung 64A zum Erfassen eines Spitzenwerts und einer Vergleichsschaltung 64B. Der maximale Leuchtdichtepegel kann daher durch die Spitzenwert-Erfassungsschaltung 64A erfasst werden. Ein Ausgangssignal der Spitzenwert-Erfassungsschaltung 64A wird mit einem Bezugswert Vref durch die Vergleichsschaltung 64B verglichen. Ein Ausgangssignal der Vergleichsschaltung 64B wird als Ansteuersignal in die Schaltung 65 zum Erweitern des dynamischen Bereichs eingegeben.
  • Ein Signal, für das der dynamische Bereich durch die Schaltung 65 zum Erweitern des dynamischen Bereichs erweitert wurde, wird in eine Verarbeitungsschaltung 66 eingegeben. Farbsignalkomponenten werden dann getrennt und in rote, grüne und blaue Signale umgewandelt. Der in jedem der roten, grünen und blauen Signale erfasste Weißausgleich wird eingestellt. Die resultierenden Signale werden dann in eine Konturverstärkungsschaltung 67 eingegeben.
  • Die Konturverstärkungsschaltung 67 verstärkt die roten, grünen und blauen Signale hinsichtlich der Kontur einer Abbildung. Die resultierenden roten, grünen und blauen Signale werden in einen Speicher 68 eingegeben und vorübergehend in diesem gespeichert. Die aus dem Speicher 68 gelesenen Signale werden in eine D/A-Umwandlungsschaltung 69 eingegeben und dann in analoge rote, grüne und blaue Signale umgewandelt. Die roten, grünen und blauen Signale werden in einen Monitor 54 eingegeben. Eine Objektbild wird in Farben auf einem Monitorbildschirm angezeigt.
  • Ein Ausgangssignal der zweiten Takterzeugungsschaltung 59 wird in die Schaltung 65 zum Erweitern des dynamischen Bereichs, die Verarbeitungsschaltung 66, die Konturverstärkungsschaltung 67 und den Speicher 68 eingegeben.
  • 12 zeigt eine Anordnung der Schaltung 65 zum Erweitern des dynamischen Bereichs. Ein von der A/D-Umwandlungsschaltung 64 gesandtes digitales Abbildungssignal wird vorübergehend in einem Speicher 71 mit einer Speicherkapazität entsprechend der Anzahl aller Pixel, die durch die CCD 56 zugelassen wird, gespeichert. Das Abbildungssignal wird dann in eine erste Nachschlagetabelle (LUT) 73A und eine zweite LUT 73B über Selektoren 72A und 72B eingegeben, die gemäß einem Halbbildbeurteilungssignal, das von der zweiten Taktsignal-Erzeugungsschaltung 59 gesandt wird, geschaltet werden.
  • Überdies wird ein aus dem Speicher 71 gelesenes Signal in die erste LUT 73A und die zweite LUT 73B über die Selektoren 72A und 72B eingegeben. Ein Ansteuersignal, das durch Feststellen eines Helligkeitspegels durch die Helligkeitsfeststellschaltung 65 erzeugt wird, wird in die erste LUT 73A und die zweite LUT 73B eingegeben. Auf der Basis des Ansteuersignals wird eine tatsächlich verwendete Synthesefunktion unter einer Vielzahl von Synthesefunktionen ausgewählt, die in der ersten LUT 73A und der zweiten LUT 73B gespeichert sind und zum Erweitern eines dynamischen Bereichs verwendet werden.
  • Aus der ersten LUT 73A und der zweiten LUT 73B gelesene Signale werden in eine Addierschaltung 74 und dann in eine Interpolationsschaltung 75 eingegeben. Nachdem sie interpoliert wurden, wird ein resultierendes Signal als Ausgangssignal der Schaltung 65 zum Erweitern des dynamischen Bereichs geliefert und in die Verarbeitungsschaltung 66 in der nachfolgenden Stufe eingegeben. Farbsignalkomponenten werden dann getrennt.
  • 13 ist ein Graph, der Kurven zeigt, die verschiedene Eingangs/Ausgangs-Kennlinien ausdrücken, die durch Synthesefunktionen dargestellt sind, von denen eine mit einem Ansteuersignal ausgewählt wird, das aus der Helligkeitsfeststellschaltung 64 ausgegeben wird, um einen dynamischen Bereich zu erweitern.
  • Wenn ein Objekt mit einer niedrigen Blendengeschwindigkeit abgebildet wird, weist ein Ausgangssignal des CCD eine Kennlinie S1 mit Zunahme entlang einer geraden Linie, die eine große Steigung aufweist, relativ zu einer Menge an einfallendem Licht auf. Sobald das Ausgangssignal einen Pegel mit einem Sättigungswert Csat aufweist, bleibt das Ausgangssignal konstant. Wenn im Gegensatz dazu ein Objekt mit einer hohen Blendengeschwindigkeit abgebildet wird, weist das CCD-Ausgangssignal eine Kennlinie Ss mit Zunahme entlang einer geraden Linie, die eine kleine Steigung aufweist, relativ zu einer Menge an einfallendem Licht auf.
  • Bilddatenelemente, die so erzeugt werden, dass sie die Kennlinien S1 und Ss aufweisen, werden durch die erste LUT 73A und die zweite LUT 73B gewichtet, wodurch ein dynamischer Bereich erweitert werden kann. In diesem Ausführungsbeispiel wird ein Ansteuersignal verwendet, um eine zum Erweitern eines dynamischen Bereichs verwendete Funktion auszuwählen. Zwei Kennlinienfunktionen S1 und Ss werden synthetisiert, indem sie der ausgewählten Funktion zugewiesen werden. Folglich kann der dynamische Bereich für ein Signal so erweitert werden, dass das Signal eine der Eingang/Ausgangs-Kennlinien A und B aufweist, die mit einer Strich-Punkt-Linie bzw. einer Linie mit abwechselndem langen und zwei kurzen Strichen gezeichnet sind.
  • Wenn ein maximaler Leuchtdichtepegel, der in einem Signal erfasst wird, beispielsweise hoch ist, wird der dynamische Bereich für das Signal so erweitert, dass das Signal die Kennlinie B aufweist. Insbesondere wird eine Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, unterdrückt. Eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, weist keinen Sättigungswert auf und eine Veränderung der Signalkomponente wird in einem angezeigten Bild widergespiegelt. Wenn der in einem Signal erfasste maximale Leuchtdichtepegel niedrig ist, wird der dynamische Bereich für das Signal so erweitert, dass das Signal die Kennlinie A aufweist. Insbesondere wird eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, unterdrückt und eine Veränderung einer Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, wird in einem angezeigten Bild widergespiegelt.
  • In diesem Ausführungsbeispiel speichern die erste LUT 73A und die zweite LUT 73B eine Vielzahl von Synthesefunktionen, die zum Erweitern eines dynamischen Bereichs verwendet werden. 14 zeigt Daten der in der ersten LUT 73A bzw. der zweiten LUT 73B gespeicherten Funktionen.
  • Die erste LUT 73A und die zweite LUT 73B weisen Adressen mit jeweils einer Länge von beispielsweise 9 Bits auf. Die Funktionen F0 und G0 sind den unteren 8-Bit-Adressen 000 bis 0FF zugeordnet und die Funktionen F1 und G1 sind den oberen 8-Bit-Adressen 100 bis 1FF zugeordnet.
  • Ein durch die A/D-Umwandlungsschaltung 63 weitergeleitetes Signal oder ein aus dem Speicher 71 gelesenes Signal wird an die Anschlüsse der unteren 8-Bit-Adressen angelegt. Ein Ansteuersignal, das von der Helligkeitsfeststellschaltung 64 gesandt wird, wird an den obersten Adressenanschluss angelegt. Auf der Basis des Ansteuersignals wird eine beliebige einer Vielzahl von Funktionen, die zum Erweitern eines dynamischen Bereichs verwendet werden, ausgewählt.
  • Wenn das Ansteuersignal beispielsweise niedrig oder 0 ist, werden Daten der Funktion F0 oder G0 ausgelesen. In diesem Fall weist ein resultierendes Signal die in 3 gezeigte Kennlinie A auf. Wenn das Ansteuersignal hoch oder 1 ist, werden Daten der Funktion F1 oder G1 ausgelesen. In diesem Fall weist das resultierende Signal die in 13 gezeigte Kennlinie B auf.
  • Als nächstes werden die Wirkungen dieses Ausführungsbeispiels mit Bezug auf die Ablaufpläne von 15A bis 15K beschrieben.
  • Wie in 15A gezeigt, legt der CCD-Treiber 60 Signalausleseimpulse RSI und RLI, die in 15B gezeigt sind, an das CCD 56 am Beginn einer kurzen Belichtungszeit SI und einer langen Belichtungszeit LI (I = 1, 2 usw.) = an. Die Ladung eines Signals, die durch den photoelektrischen Wandler des CCD 56 photoelektrisch umgewandelt wird und dann gespeichert wird, wird zur Übertragungsvorrichtung des CCD 56 übertragen.
  • Wenn die zur Übertragungsvorrichtung übertragene Signalladung während der kurzen Belichtungszeit SI erzeugt wurde, wird das gelesene übertragene Signal synchron mit einem in 15D gezeigten vertikalen Synchronisationssignal VD während einer Halbbildperiode angelegt. Das Signal wird als CCD-Ausgangssignal CSI, das in 15C gezeigt ist, im Speicher 71 gespeichert, wie in 15F gezeigt, und an die zweite LUT 73A über den Selektor 72A angelegt.
  • Wenn die zur Übertragungsvorrichtung übertragene Signalladung während der langen Belichtungszeit LI erzeugt wurde, wird das gelesene übertragene Signal synchron mit dem vertikalen Synchronisationssignal VD unmittelbar nach dem Signalleseimpuls RL1 während einer Halbbildperiode angelegt. Das Signal wird als CCD-Ausgangssignal CLI, das in 15C gezeigt ist, im Speicher 71 gespeichert, wie in 15F gezeigt, und an die zweite LUT 73B über den Selektor 73B angelegt.
  • Die Selektoren 72A und 72B werden mit einem Halbbildbeurteilungssignal, das in 15E gezeigt ist und aus der zweiten Taktsignal-Erzeugungsschaltung 59 ausgegeben wird, geschaltet. Wenn das Halbbildbeurteilungssignal beispielsweise hoch ist, wird ein in 12 gezeigter Knoten a ausgewählt. Das CCD-Ausgangssignal CSI wird in die erste LUT 73A eingegeben. Ein während der vorherigen Vollbildperiode erzeugtes und im Speicher 71 gespeichertes Signal, das heißt ein CCD-Ausgangssignal CLI-1, wird in die zweite LUT 73B eingegeben.
  • Wenn das Halbbildbeurteilungssignal niedrig ist, wird überdies ein Knoten b ausgewählt. Das aus dem Speicher 71 gelesene CCD-Ausgangssignal CSI wird in die erste LUT 73A eingegeben und das CCD-Ausgangssignal CLI wird in die zweite LUT 73B eingegeben.
  • Der Kürze halber sind die Ausgangssignale der Selektoren 72A und 72B als in die erste LUT 73A bzw. die zweite LUT 73B eingegeben dargestellt, wie mit durchgezogenen Linien angegeben. Alternativ können sie in die erste LUT 73A und die zweite LUT 73B eingegeben werden, wie mit gestrichelten Linien in 12 angegeben.
  • In diesem Fall sind die Funktionen F0 und G0 F0(SI, LI) und G0(SI, LI), die folglich die Kennlinien von Abbildungssignalen ausdrücken, die während der kurzen Belichtungszeit SI und der langen Belichtungszeit LI erzeugt werden.
  • Wenn zwei Signale in jede der ersten LUT 73A und der zweiten LUT 73B eingegeben werden, kann die Synthese feiner erzielt werden.
  • Zum Eingeben von zwei Signalen können, da die Anzahl von Bits sehr groß ist, einige Bits hoher Ordnung der Signale eingegeben werden. In diesem Fall kann ein ROM, dessen Speicherkapazität nicht sehr groß ist, als erste LUT 73 und zweite LUT 73B verwendet werden.
  • Wenn das Ansteuersignal beispielsweise, wie in 15K gezeigt, niedrig ist, wird die Funktion F0 aus der ersten LUT 73A ausgewählt, wie in 15H gezeigt. Überdies wird die Funktion G0 aus der zweiten LUT 73B ausgewählt, wie in 15I gezeigt. In diesem Fall werden die Funktionen durch die Addierschaltung 74 addiert. Ein additives Ausgangssignal H, das in 15J gezeigt ist, das heißt eine Mischfunktion H, ist daher F0 + G0. Der dynamische Bereich für ein Signal wird so erweitert, dass das Signal die in 13 gezeigte Kennlinie A aufweist.
  • Wenn das Ansteuersignal hoch ist, wird die Funktion F1 in der ersten LUT 73A zur Verwendung ausgewählt. Die Funktion G1 in der zweiten LUT 73B wird zur Verwendung ausgewählt. In diesem Fall werden die Funktionen durch die Addierschaltung 74 addiert. Die Mischfunktion H wird zu F1 + G1. Der dynamische Bereich für ein Signal wird so erweitert, dass das Signal die in 13 gezeigte Kennlinie B aufweist.
  • Wie vorstehend erwähnt, wird, wenn der maximale Helligkeitspegel eines Objekts hoch ist, oder mit anderen Worten, wenn der in einem Abbildungssignal erfasste maximale Leuchtdichtepegel hoch ist, der dynamische Bereich für ein Abbildungssignal so erweitert, dass das Signal durch eine Signalkomponente charakterisiert ist, die einen hohen Leuchtdichtepegel anzeigt. Insbesondere spiegelt die Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, eine Änderung der Helligkeit des Objekts wider. Wenn der maximale Leuchtdichtepegel niedrig ist, wird der dynamische Bereich für ein Signal so erweitert, dass das Signal durch eine Signalkomponente charakterisiert ist, die einen niedrigen Leuchtdichtepegel anzeigt. Insbesondere spiegelt die Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, eine Änderung der Helligkeit des Objekts wider.
  • Gemäß diesem Ausführungsbeispiel kann der dynamische Bereich für ein Signal so erweitert werden, dass das Signal eine Kennlinie aufweist, die sich für eine tatsächliche Verwendungsumgebung (oder Abbildungsumgebung) eignet.
  • 16 zeigt eine Anordnung einer Schaltung 65' zum Erweitern des dynamischen Bereichs in einer Variante des dritten Ausführungsbeispiels.
  • Gemäß dieser Variante werden ein Ansteuersignal und ein Ansteuerbefehlssignal in die erste LUT 73A und die zweite LUT 73B, die in der in 12 gezeigten Schaltung 65 zum Erweitern des dynamischen Bereichs enthalten sind, über einen Selektor 78 eingegeben. Hierbei wird das Ansteuersignal von der Helligkeitsfeststellschaltung 64 gesandt und das Ansteuerbefehlssignal wird von einem Auswahlschalter 77 gesandt, der von einem Benutzer manuell betätigt wird.
  • Der Selektor 78 kann manuell betätigt werden. Der Selektor 78 kann auf einen Zustand gesetzt werden, in dem das von der Helligkeitsfeststellschaltung 64 gesandte Ansteuersignal ausgewählt wird. Alternativ kann der Selektor 78 auf einen Zustand gesetzt werden, in dem das Ansteuerbefehlssignal, das vom Auswahlschalter 77, der von einem Benutzer betätigt werden kann, gesandt wird, ausgewählt wird.
  • In dieser Variante enthalten eine erste LUT 73A' und eine zweite LUT 73B' zahlreiche Funktionen F0, F1, F2 usw. und G0, G1, G2 usw. Eine tatsächlich verwendete Funktion wird unter den zahlreichen Funktionen F0, F1, F2 usw. und G0, G1, G2 usw. ausgewählt.
  • Durch Auswählen von irgendeiner der Funktionen kann der dynamische Bereich für ein Signal so erweitert werden, dass das Signal irgendeine der verschiedenen Kennlinien A, B, C und D, die in 17 gezeigt sind, aufweist.
  • In dieser Variante können drei oder mehr Funktionen (oder drei oder mehr Sätze von Funktionen) ausgewählt werden. Das Ansteuersignal ist daher ein zwei oder mehr Bits langes digitales Signal. In diesem Fall erfasst die Helligkeitsfeststellschaltung 64 einen maximalen Leuchtdichtepegel und einen minimalen Leuchtdichtepegel in einem mit einer hohen Blendengeschwindigkeit erzeugten Abbildungssignal. Das zu erzeugende Ansteuersignal gibt an, ob der maximale Leuchtdichtepegel und der minimale Leuchtdichtepegel gleich oder höher als Bezugswerte sind.
  • Eine Funktion wird wie nachstehend beschrieben ausgewählt. Wenn der maximale Leuchtdichtepegel beispielsweise hoch ist, wird der dynamische Bereich für ein Signal erweitert, indem eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, betont wird. Wenn der maximale Leuchtdichtepegel niedrig ist, wird der dynamische Bereich für ein Signal erweitert, indem eine Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, betont wird. Wenn der minimale Leuchtdichtepegel hoch ist, wird die Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, unterdrückt. Wenn im Gegenteil der minimale Leuchtdichtepegel niedrig ist, wird der dynamische Bereich für ein Signal so erweitert, dass eine Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, nicht unterdrückt wird.
  • Um genauer zu sein, nehme man an, dass der in einem Signal erfasste maximale Leuchtdichtepegel hoch ist und der in diesem erfasste minimale Leuchtdichtepegel niedrig ist. In diesem Fall wird der dynamische Bereich für das Signal durch Betonen von Signalkomponenten, die hohe und niedrige Leuchtdichtepegel anzeigen, erweitert. Mit anderen Worten, der dynamische Bereich für das Signal wird so erweitert, dass das Signal die in 17 gezeigte Kennlinie D aufweist. Eine Signalkomponente, die einen Zwischenleuchtdichtepegel anzeigt, wird nämlich unterdrückt und die Signalkomponenten, die hohe und niedrige Leuchtdichtepegel anzeigen, werden betont.
  • Überdies nehme man an, dass der in einem Signal erfasste maximale Leuchtdichtepegel niedrig ist und der in diesem erfasste minimale Leuchtdichtepegel niedrig ist. In diesem Fall wird der dynamische Bereich für das Signal so erweitert, dass eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, unterdrückt wird und eine Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, betont wird. Mit anderen Worten, der dynamische Bereich für das Signal wird so erweitert, dass das Signal die in 17 gezeigte Kennlinie A aufweist. Die Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, wird nämlich unterdrückt und die Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, wird betont.
  • Die anderen Komponenten sind zu jenen des ersten Ausführungsbeispiels identisch. Gemäß dieser Variante kann der dynamische Bereich für ein Signal unter Verwendung einer Mischfunktion, die sich für einen Helligkeitspegel eines Objekts, der durch die Helligkeitsfeststellschaltung 64 festgestellt wird, eignet, erweitert werden.
  • Überdies kann ein Benutzer den dynamischen Bereich für ein Signal so erweitern, dass das Signal eine Kennlinie aufweist, die von einer Kennlinie verschieden ist, die durch Feststellen eines Helligkeitspegels ausgewählt wird. Das heißt, eine Signalkomponente, die aus einem anderen Blickpunkt gewonnen wird, kann betont werden.
  • Man nehme beispielsweise an, dass eine Änderung der Leuchtdichte in einer normalen Abbildung beobachtet werden muss, indem insbesondere ein dunkler Teil betont wird. In diesem Fall wird die in 17 gezeigte Kennlinienfunktion C ausgewählt. Folglich wird der dynamische Bereich für ein Signal so erweitert, dass eine Änderung der Leuchtdichte, die durch eine Signalkomponente angezeigt wird, die einen niedrigen Leuchtdichtepegel anzeigt, widergespiegelt wird, und eine Signalkomponente, die einen hohen Leuchtdichtepegel anzeigt, unterdrückt wird.
  • Viertes Ausführungsbeispiel
  • Als nächstes wird das vierte Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 18 bis 22 beschrieben.
  • Eine Abbildungsvorrichtung 80, die in 18 gezeigt ist, besteht aus einem Kamerakopf 81, einer Kamerasteuereinheit (nachstehend CCU) 82 und einem TV-Monitor 83. Insbesondere steuert die CCU 82 den Kamerakopf 81 und verarbeitet ein Ausgangssignal des Kamerakopfs. Der TV-Monitor 83 ist eine Anzeige mit Zeilensprungverfahren zum Anzeigen eines Bildes, dessen Daten durch die CCU 82 verarbeitet wurden. Der Kamerakopf 81 ist an einer Okulareinheit beispielsweise eines starren Endoskops montiert.
  • Der Kamerakopf 81 umfasst ein CCD 85, das ein progressives Abbildungsbauelement vom Abtasttyp (nachstehend progressives CCD) ist. Das progressive CCD 85 wandelt eine Objektabbildung, die in der Bildebene einer Bilderzeugungslinse, die nicht dargestellt ist, erzeugt wird, photoelektrisch um und gibt ein analoges Abbildungssignal aus. Das progressive CCD 85 weist zwei Ausgabesysteme aus; das heißt ein erstes Ausgabesystem zum Liefern eines ersten CCD-Ausgangssignals 85a und ein zweites Ausgabesystem zum Liefern eines zweiten CCD-Ausgangssignals 85b.
  • Ein Ausgangssignal des Kamerakopfs 81, das heißt das erste CCD-Ausgangssignal 85a und das zweite CCD-Ausgangssignal 85b werden über Signalkabel, die nicht dargestellt sind, zur CCU 82 geleitet.
  • Die CCU 82 umfasst CDS/AGC-Schaltungen 86a und 86b, A/D-Umwandlungsschaltungen 87a und 87b, LUTs 88a und 88b, einen Addierer 89, ein Schaltmittel 90, eine Digitalsignalverarbeitungs-(DSP)Schaltung 91, eine D/A-Umwandlungsschaltung 92, einen Taktgenerator (TG) 93 und eine Synchronisationssignal-Erzeugungsschaltung (SSG) 94. Insbesondere verstärken die CDS/AGC-Schaltungen 86a und 86b das erste CCD-Ausgangssignal 85a und das zweite CCD-Ausgangssignal 85 (regeln die Verstärkungen autonom) und führen eine korrelative Doppelabtastung und andere aus. Die A/D-Umwandlungsschaltungen 87a und 87b wandeln die Ausgangssignale der CDS/AGC-Schaltungen 86a und 86b in digitale Signale um. Auf die LUT 88a und 88b wird Bezug genommen, um Daten nicht-linear gemäß den Ausgangssignalen der A/D-Umwandlungsschaltungen 87a und 87b umzuwandeln und resultierende Daten auszugeben. Der Addierer 89 addiert die Ausgangssignale der LUTs 88a und 88b. Das Schaltmittel 90 wählt ein Ausgangssignal des Addierers 89 in einer Betriebsart mit breitem dynamischen Bereich aus. In einer normalen Betriebsart wählt das Schaltmittel 90 ein Ausgangssignal der A/D-Umwandlungsschaltung 87a aus. Die DSP-Schaltung 91 verarbeitet ein Ausgangssignal des Schaltmittels 90 digital. Die D/A-Umwandlungsschaltung 92 wandelt ein digitalisiertes Signal in ein analoges Signal um. Der TG 93 liefert ein Ansteuerimpulssignal zum progressiven CCD 85 und zu den CDS/AGC-Schaltungen 86a und 86b. Die SSG 94 liefert ein Bezugssignal zum TG 93, zu den A/D-Umwandlungsschaltungen 87a und 87b und zum DSP 91.
  • Die LUTs 88a und 88b und der Addierer 89 bilden ein Mittel zum Erweitern des dynamischen Bereichs.
  • Ein Ausgangssignal der D/A-Umwandlungsschaltung 92 wird an den TV-Monitor 83 ausgegeben, der über ein Signalkabel angeschlossen ist, das nicht dargestellt ist. Eine Bedienperson handhabt das starre Endoskop in verschiedenen Weisen, während sie den TV-Monitor 83 betrachtet.
  • Als nächstes wird eine Anordnung des progressiven CCD 85 mit Bezug auf 19 beschrieben. Der Kürze halber sind in 19 nur eine kleine Anzahl von Pixeln gezeigt. In der Realität umfasst das progressive CCD eine größere Anzahl von Pixelstellen.
  • Das progressive CCD 85 besteht aus einer Vielzahl von Photodioden 96, vertikalen Schieberegistern 97 und zwei Systemen von horizontalen Schieberegistern 98a und 98b. Insbesondere ist die Vielzahl von Photodioden 96 zweidimensional angeordnet. Die vertikalen Schieberegister 97 übertragen Ladungen, die in den Photodioden 96 in einer vertikalen Richtung angesammelt werden. Die zwei Systeme von horizontalen Schieberegistern 98a und 98b übertragen Ladungen, die von den vertikalen Schieberegistern 97 gesandt werden, in einer horizontalen Richtung. Die Ausgangssignale der horizontalen Schieberegister 98a und 98b sind das erste CCD-Ausgangssignal 85a und das zweite CCD-Ausgangssignal 85b.
  • Das Auslesen durch das progressive CCD 85 wird mit Bezug auf 19, 20 und 21 beschrieben.
  • Anfänglich wird ein Auslesen in einer Betriebsart mit breitem dynamischen Bereich beschrieben.
  • Ladung wird in den Photodioden 96 gesammelt. Zu diesem Zeitpunkt wird die Steuerung so vorgegeben, dass eine Ladungssammelzeit zwischen ungeraden Zeilen ODD1, ODD2, ODD3 usw. und geraden Zeilen EVEN1, EVEN2 usw. unterschiedlich ist. Mit anderen Worten, eine hohe Blendengeschwindigkeit von 1/240 s wird beispielsweise als Ladungssammelzeit für die ungeraden Zeilen festgelegt. Eine niedrige Blendengeschwindigkeit von 1/60 s (= 4/240 s) wird als Ladungssammelzeit für die geraden Zeilen festgelegt. Die Ladung wird während 3/240 s innerhalb der Ladungssammelzeit von 1/60 s, in der die Ladung in den geraden Zeilen gesammelt wird, von den ungeraden Zeilen weggebracht. Die Ladung wird in den ungeraden Zeilen während der restlichen 1/240 s gesammelt.
  • Die so in den Photodioden 96 angesammelten Ladungen werden alle zusammen zu den vertikalen Schieberegistern 97 übertragen. Anschließend verschieben die vertikalen Schieberegister 97 die Ladungen, die zwei Zeilen bilden, in der vertikalen Richtung. Folglich werden die Ladungen in der geraden Zeile EVEN1 zum horizontalen Schieberegister 98b übertragen. Die Ladungen in der ungeraden Zeile ODD1 werden zum zweiten horizontalen Schieberegister 98b übertragen. Dies bewirkt, dass die horizontalen Schieberegister 98a und 98b Datenelemente, die eine Zeile bilden, schnell in der horizontalen Richtung verschieben.
  • Anschließend verschieben die vertikalen Schieberegister 97 Ladungen, die zwei Zeilen bilden, in der vertikalen Richtung. Die Ladungen in der geraden Zeile EVEN2 werden dann zum ersten horizontalen Schieberegister 98a übertragen. Die Ladungen in der ungeraden Zeile ODD2 werden zum zweiten horizontalen Schieberegister 98b übertragen. Ebenso verschieben die horizontalen Schieberegister 98a und 98b Ladungen in der horizontalen Richtung. Diese Operationen werden wiederholt.
  • Wenn die Ladungen in allen Photodioden 96 übertragen wurden, ist die Ladungsübertragung für ein Halbbild beendet. Für dieses Halbbild gibt das erste horizontale Schieberegister 98a ein Abbildungssignal aus, das mit der niedrigen Blendengeschwindigkeit erzeugt wird, um die geraden Zeilen darzustellen. Das zweite horizontale Schieberegister 98b gibt ein Abbildungssignal aus, das mit der hohen Blendengeschwindigkeit erzeugt wird, um die ungeraden Zeilen darzustellen. Ob das Halbbild als gerades Halbbild oder ungerades Halbbild betrachtet wird, kann dementsprechend festgelegt werden. Da das Ausgangssignal des ersten Schieberegisters 98a die geraden Zeilen darstellt, soll das Halbbild als gerades Halbbild betrachtet werden.
  • Zum Lesen von Daten, die ein ungerades Halbbild wiedergeben, wird anschließend eine Kombination von Zeilen, aus denen Ladungen zu den horizontalen Schieberegistern 98a und 98b übertragen werden, geändert.
  • Zuerst wird Ladung während einer Zeit gesammelt, die zwischen den ungeraden Zeilen und den geraden Zeilen unterschiedlich ist. Zu diesem Zeitpunkt sind die Blendengeschwindigkeiten, mit denen die ungeraden Zeilen und geraden Zeilen erzeugt werden, zu jenen zum Wiedergeben des geraden Halbbildes entgegengesetzt. Die ungeraden Zeilen werden beispielsweise mit der niedrigen Blendengeschwindigkeit von 1/60 s erzeugt und die geraden Zeilen werden mit der hohen Blendengeschwindigkeit von 1/240 s erzeugt.
  • Die so in den Photodioden 96 gesammelten Ladungen werden gleichzeitig zu den vertikalen Schieberegistern 97 übertragen. Anschließend verschieben die vertikalen Schieberegister 97 die Ladungen, die eine Zeile bilden, in der vertikalen Richtung. Die Ladungen, die die ungerade Zeile ODD1 bilden, werden dann zum ersten horizontalen Schieberegister 98a übertragen. Das erste horizontale Schieberegister 98a verschiebt die Ladungen schnell in der horizontalen Richtung.
  • Anschließend übertragen die vertikalen Schieberegister 97 Ladungen, die zwei Zeilen bilden, in der vertikalen Richtung. Ladungen, die die ungerade Zeile ODD2 bilden, werden daher zum ersten horizontalen Schieberegister 98a übertragen. Ladungen, die die gerade Zeile EVEN1 bilden, werden zum zweiten horizontalen Schieberegister 98b übertragen. Die horizontalen Schieberegister 98a und 98b übertragen Datenelemente, die eine Zeile bilden, schnell in der horizontalen Richtung. Anschließend übertragen die vertikalen Schieberegister 97 Ladungen, die zwei Zeilen bilden, nacheinander. Die horizontalen Schieberegister 98a und 98b geben die Ladungen auf dem direkten Weg aus.
  • Wenn die Ladungen in allen Photodioden 96 übertragen wurden, ist die Übertragung von Ladungen zum Wiedergeben des ungeraden Halbbildes beendet. Für das ungerade Halbbild wird ein Abbildungssignal, das mit der niedrigen Blendengeschwindigkeit erzeugt wird, um die ungeraden Zeilen darzustellen, aus dem ersten horizontalen Schieberegister 98a ausgegeben. Ein mit der hohen Blendengeschwindigkeit erzeugtes Abbildungssignal, um die geraden Zeilen darzustellen, wird aus dem zweiten horizontalen Schieberegister 98b ausgegeben.
  • Das Ausgangssignal des ersten horizontalen Schieberegisters 98a, das heißt ein mit der niedrigen Blendengeschwindigkeit erzeugtes Abbildungssignal ist das erste CCD-Ausgangssignal 85a. Das Ausgangssignal des zweiten horizontalen Schieberegisters 98b, das heißt ein mit der hohen Blendengeschwindigkeit erzeugtes Abbildungssignal ist das zweite CCD-Ausgangssignal 85b.
  • Wie in 20 gezeigt, werden während einer ungeraden Halbbildperiode innerhalb einer Vollbildperiode von 1/30 s die Daten, die die ungeraden Zeilen (ODD) darstellen, als erstes CCD-Ausgangssignal 85a ausgegeben. Die Daten, die die geraden Zeilen (EVEN) darstellen, werden auch als zweites CCD-Ausgangssignal 85b ausgegeben. Während einer anschließenden geraden Halbbildperiode werden die Daten, die die geraden Zeilen (EVEN) darstellen, als erstes CCD-Ausgangssignal 85a ausgegeben und die Daten, die die ungeraden Zeilen (ODD) darstellen, werden als zweites CCD-Ausgangssignal 85b ausgegeben. Eine auf der Basis der Datenelemente durchzuführende Verarbeitung für einen großen dynamischen Bereich wird später beschrieben.
  • Als nächstes wird das Auslesen in der normalen Betriebsart beschrieben.
  • In der normalen Betriebsart ist die Ladungssammelzeit, während der Ladung in den Photodioden 96 gesammelt wird, zwischen den geraden Zeilen und den ungeraden Zeilen gleich.
  • Die so gesammelten Ladungen werden gleichzeitig von den Photodioden 96 zu den vertikalen Schieberegistern 97 übertragen. Anschließend verschieben die vertikalen Schieberegister 97 die Ladungen, die eine Zeile bilden, in der vertikalen Richtung. Ladungen, die die ungerade Zeile ODD1 bilden, werden daher zum ersten horizontalen Schieberegister 98a übertragen. Anschließend verschieben die vertikalen Schieberegister 97 die Ladungen, die eine Zeile bilden, in der vertikalen Richtung. Zu diesem Zeitpunkt ist das Potential am zweiten horizontalen Schieberegister 98b beispielsweise hoch, um zu verhindern, dass die Ladungen zum zweiten horizontalen Schieberegister 98b übertragen werden. Die Daten, die die ungerade Zeile ODD1 darstellen, und die Daten, die die gerade Zeile EVEN1 darstellen, werden im ersten horizontalen Schieberegister 98a addiert. Das horizontale Schieberegister 98a verschiebt dann die resultierenden Daten schnell in der horizontalen Richtung.
  • Ebenso verschieben die vertikalen Schieberegister 97 Ladungen, die zwei Zeilen bilden, in der vertikalen Richtung. Die Daten, die die ungerade Zeile ODD2 darstellen, und die Daten, die die gerade Zeile EVEN2 darstellen, werden im horizontalen Schieberegister 98a addiert. Die ähnlichen Operationen werden dann wiederholt.
  • Zum Lesen von Daten, die ein anschließendes Halbbild wiedergeben, wird eine Kombination von Zeilen, deren Datenelemente addiert werden sollen, geändert.
  • Insbesondere wird, wie vorstehend erwähnt, Ladung während einer Zeit gesammelt, die zwischen den ungeraden Zeilen und den geraden Zeilen gleich ist. In den Photodioden 96 gesammelte Ladungen werden dann gleichzeitig zu den vertikalen Schieberegistern 97 übertragen. Anschließend übertragen die vertikalen Schieberegister 97 Ladungen, die eine Zeile bilden (Daten der ungeraden Zeile ODD1), in der vertikalen Richtung. Das erste horizontale Schieberegister 98a verschiebt die Ladungen schnell in der horizontalen Richtung.
  • Anschließend verschieben die vertikalen Schieberegister 97 Ladungen, die zwei Zeilen bilden, in der vertikalen Richtung. Die Daten der geraden Zeile EVEN1 und die Daten der ungeraden Zeile ODD2 werden im horizontalen Schieberegister 98a addiert. Das horizontale Schieberegister 98a verschiebt dann die resultierenden Daten in der horizontalen Richtung und gibt sie folglich aus. Die Addition und Ausgabe werden anschließend in derselben Weise ausgeführt.
  • Wie vorstehend erwähnt, werden die vorangehenden Datenelemente, die zwei Halbbilder wiedergeben, wie in 21 gezeigt, nacheinander als Daten des ungeraden Halbbildes (ODD) und Daten des geraden Halbbildes (EVEN) aus der ersten CCD-Ausgabeeinheit 85a ausgegeben.
  • Nun wird nachstehend beschrieben, wie die Abbildungsdatenausgabe aus dem progressiven CCD durch die CCU 82 verarbeitet wird.
  • Anfangs wird die Verarbeitung in der Betriebsart des breiten dynamischen Bereichs beschrieben. In dieser Betriebsart wird das Schaltmittel 90 zum Addierer 89 umgestellt.
  • Das erste CCD-Ausgangssignal 85a und das zweite CCD-Ausgangssignal 85b werden durch die CDS/AGC-Schaltungen 86a bzw. 86b verstärkt. Eine korrelative Doppelabtastung und andere werden ausgeführt. Die Ausgangssignale der CDS/AGC-Schaltungen 86a und 86b werden durch die A/D-Umwandlungsschaltungen 87a und 87b in digitale Signale umgewandelt. Die Ausgangssignale werden dann durch Bezugnahme auf die LUTs 88a und 88b umgewandelt. Die umgewandelten Ausgangssignale werden dann durch den Addierer 89 in der nachfolgenden Stufe addiert und dann in gegebene Datenelemente als Ausgangssignale, die einer Verarbeitung für einen breiten dynamischen Bereich unterzogen wurden, umgewandelt.
  • Die Verarbeitung für den breiten dynamischen Bereich wird mit Bezug auf 22 beschrieben.
  • 22 zeigt Beziehungen zwischen dem Helligkeitspegel eines Objekts und den Pegeln von Abbildungssignalen, die mit verschiedenen Blendengeschwindigkeiten (Ladungssammelzeiten) erzeugt werden.
  • Wenn ein Objekt mit einer niedrigen Blendengeschwindigkeit (LS) abgebildet wird, bedeutet dies, dass eine Ladungssammelzeit lang ist. Ein dunkler Teil des Objekts kann genauer abgebildet werden. Ein Teil des Objekts, dessen Helligkeitspegel so hoch ist, dass er Bs in 22 übersteigt, kann jedoch nicht korrekt abgebildet werden. Dies liegt daran, dass eine aus einem Abbildungsbauelement ausgegebene entsprechende Signalkomponente einen Sättigungswert als Pegel Vs aufweist.
  • Wenn andererseits ein Objekt mit einer hohen Blendengeschwindigkeit (HS) abgebildet wird, wird eine Menge an Licht, das in den Photodioden 96 im progressiven CCD 85 gesammelt wird, verringert. Das CCD-Ausgangssignal wird daher als gerade Linie HS, die sanft geneigt ist, in 22 aufgetragen. Selbst wenn ein Objekt, dessen Helligkeitspegel Bs übersteigt, abgebildet wird, weist ein erzeugtes Abbildungssignal nicht den Sättigungswert auf.
  • Wenn ein Objekt mit einer niedrigen Blendengeschwindigkeit abgebildet wird, kann folglich ein Teil des Objekts, dessen Helligkeitspegel so hoch sein kann, dass das CCD gesättigt ist. In diesem Fall wird der entsprechende Teil der Objektabbildung unter Verwendung einer mit einer hohen Blendengeschwindigkeit erzeugten Abbildung kompensiert. Dies führt zu einer Abbildung, in der ein dunkler Teil des Objekts nicht geschwärzt zu sehen ist und der Teil mit hohem Helligkeitspegel nicht verschmiert weiß zu sehen ist. Mit anderen Worten, ein Bildsignal (dessen Daten als Kurve HD in 22 aufgetragen sind), das einen breiten dynamischen Bereich bereitstellt, kann erzeugt werden.
  • Man nehme an, dass die Daten des ersten CCD-Ausgangssignals 85a, das mit der niedrigen Blendengeschwindigkeit erzeugt wird, x sind und die Daten des zweiten CCD-Ausgangssignals 85b, das mit der hohen Blendengeschwindigkeit erzeugt wird, y sind. Daten, die zum Erweitern eines dynamischen Bereichs verarbeitet werden, z, werden durch die folgende Gleichung 1 ausgedrückt: z = f(x, y) + g(x, y)wobei die Funktionen f und g in Anbetracht der Ausgangskennlinie des progressiven CCD 85 festgelegt werden.
  • Die Verarbeitung zum Erweitern des dynamischen Bereichs ist im Allgemeinen eine nicht-lineare Verarbeitung. Wenn eine Rechenoperation an jeder Abbildung ausgeführt werden würde, würde die Last der Rechenoperation zunehmen und die Verarbeitungszeit würde sich verlängern.
  • An der Rechenoperation der obigen Gleichung zu beteiligende Daten werden daher im voraus in Tabellen, das heißt den LUTs 88a und 88b, gespeichert. In der Praxis wird auf die LUTs Bezug genommen, um ein Ergebnis zu entnehmen.
  • Daten von ungeraden (geraden) Zeilen und Daten von geraden (ungeraden) Zeilen, die dasselbe Halbbild wiedergeben, werden durch Bezugnahme auf die LUTs 88a und 88b in relevante Datenelemente umgewandelt. Hierbei sind die Daten der ungeraden Zeilen das erste CCD-Ausgangssignal 85a, das mit der niedrigen Blendengeschwindigkeit erzeugt wird, und die Daten der geraden Zeilen sind das zweite CCD-Ausgangssignal 85b, das mit der hohen Blendengeschwindigkeit erzeugt wird. Die Datenelemente werden durch den Addierer 89 addiert. Somit wird ein dynamischer Bereich optimiert.
  • Ein Videoausgangssignal, das verarbeitet wird, um einen dynamischen Bereich zu optimieren, wird aufgetragen, wie in der obersten Zeile in 20 gezeigt. OE bedeutet Daten, die ein ungerades Halbbild wiedergeben, wobei Daten, die gerade Zeilen darstellen, zu den Daten addiert werden. EO bedeutet Daten, die ein gerades Halbbild wiedergeben, wobei Daten, die ungerade Zeilen darstellen, zu den Daten addiert werden.
  • Wie dargestellt, sind Daten, die zum Optimieren eines dynamischen Bereichs verarbeitet werden, ein gewöhnliches Videoausgangssignal im Zeilensprungverfahren. Ein über den SDP 91 und die D/A-Umwandlungsschaltung 92 ausgegebenes Signal kann daher so, wie es ist, an den gewöhnlichen TV-Monitor 83 ausgegeben werden.
  • Als nächstes wird die normale Betriebsart beschrieben. In dieser Betriebsart wird das Schaltmittel 90 zur A/D-Umwandlungsschaltung 87a umgestellt.
  • Wie vorstehend erwähnt, wird das in 21 gezeigte Signal im Zeilensprungverfahren auf der Basis des ersten CCD-Ausgangssignals 85a allein erzeugt. Das Signal wird über die CDS/AGC-Schaltung 86a, die A/D-Umwandlungsschaltung 87a, das Schaltmittel 90, den DSP 91 und die D/A-Umwandlungsschaltung 92, wie es ist, an den gewöhnlichen TV-Monitor 83 ausgegeben.
  • Gemäß diesem Ausführungsbeispiel wird ein progressives CCD verwendet. Ein erstes CCD-Ausgangssignal und ein zweites CCD-Ausgangssignal, die mit verschiedenen Blendengeschwindigkeiten erzeugt werden, werden nicht-linear verarbeitet und addiert. Somit können Daten, die zum Realisieren eines breiten dynamischen Bereichs verarbeitet werden, während einer Halbbildperiode (1/60 s) erzeugt werden. Eine vertikale Auflösung verschlechtert sich daher nicht.
  • Überdies kann dasselbe progressive CCD in verschiedenen Betriebsarten gelesen werden. Ein Videoausgangssignal für eine Betriebsart mit breitem dynamischen Bereich oder ein Videoausgangssignal für eine normale Betriebsart kann lediglich durch Umschalten eines Schalters erzeugt werden.
  • Ferner ist ein durch Realisieren eines breiten dynamischen Bereichs erzeugtes Videoausgangssignal an das Zeilensprungverfahren anpassbar. Ein TV-Monitor kann zur Anzeige gemeinsam zwischen der Betriebsart mit breitem dynamischen Bereich und der normalen Betriebsart verwendet werden. Es besteht der Vorteil, dass die Notwendigkeit, irgendeinen speziellen Monitor bereitzustellen, vermieden wird.
  • Die vorliegende Erfindung ist nicht auf die von diesem Ausführungsbeispiel dargestellte Betriebsart begrenzt. Natürlich können verschiedene Veränderungen und Anwendungen ohne Abweichung vom Hauptpunkt des Ausführungsbeispiels konstruiert werden.
  • Wie bisher beschrieben, kann gemäß diesem Ausführungsbeispiel eine Abbildungsvorrichtung, deren vertikale Auflösung nicht verschlechtert wird, realisiert werden.
  • Fünftes Ausführungsbeispiel
  • Als nächstes wird das fünfte Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 23 bis 25 beschrieben. Wie in 23 gezeigt, besteht eine Endoskopabbildungsvorrichtung 101 dieses Ausführungsbeispiels aus einem Kamerakopf 102, einem Endoskop 103, einer Lichtquelleneinheit 104, einer CCU 105 und einem TV-Monitor 106. Insbesondere weist der Kamerakopf 102 ein in diesen integriertes Abbildungsmittel auf. Das Endoskop 103 ist mit dem Kamerakopf 102 verbunden. Die Lichtquelleneinheit 104 liefert Beleuchtungslicht zum Endoskop 103. Die CCU 105 verarbeitet ein Signal, das von dem in den Kamerakopf 102 integrierten Abbildungsmittel gesandt wird. Der TV-Monitor 106 zeigt ein Bild gemäß einem Standardvideosignal an, das von der CCU 105 verarbeitet wird.
  • Ein Objektiv 110 befindet sich an der Spitze des Endoskops 103. Ein einzelnes System von Übertragungslinsen 111, die sich von der Rückseite des Objektivs 110 zum Kamerakopf 102 erstrecken, ist in das Endoskop 103 eingebaut. Eine durch das Objektiv 110 erzeugte Objektabbildung wird durch das System von Übertragungslinsen 111 übertragen und in das Abbildungsmittel im Kamerakopf 102 eingegeben. Überdies verläuft ein Beleuchtungslichtleiter 107, der zum Beleuchten eines Objekts mit Beleuchtungslicht verwendet wird, durch das Endoskop 103.
  • Wenn die Endoskopabbildungsvorrichtung 101 in Gebrauch ist, ist der durch das Endoskop 103 verlaufende Lichtleiter 103, wie in 23 gezeigt, mit der Lichtquelleneinheit 104 gekoppelt. Beleuchtungslicht, das aus einer Lampe 104 in der Lichtquelleneinheit 104 austritt, tritt dann durch eine Öffnungsblende 104b. Das Beleuchtungslicht wird dann durch eine Linse 104c gebündelt und zur Stirnfläche des Lichtleiters 107, die der Linse 104c gegenüberliegt, geleitet.
  • Das Beleuchtungslicht wird durch den Lichtleiter 107 zum Endoskop 103 übertragen, durch das Endoskop 103 geleitet und durch die distale Seite des Endoskops 103 nach vorn emittiert. Ein Objekt wie z. B. eine Körperhöhle eines Patienten wird somit beleuchtet. Vom beleuchteten Objekt reflektiertes Licht wird durch das Endoskop 103 gebündelt. Eine Objektabbildung wird dann durch das Objektiv 110 und das System von Übertragungslinsen 111 im Endoskop 103 übertragen und durch das Abbildungsmittel im Kamerakopf 102 projiziert.
  • Im Kamerakopf 102 befindet sich ein Pupillenteiler 112 hinter dem einzigen System von Übertragungslinsen 111. Die durch das System von Übertragungslinsen 111 übertragene Objektabbildung wird in eine Vielzahl von Abbildungen oder in diesem Ausführungsbeispiel zwei Abbildungen aufgeteilt. Ein optisches Bilderzeugungssystem 113 befindet sich hinter dem Pupillenteiler 112, das somit zwei Bildern zugewandt ist, die vom Pupillenteiler 112 geliefert werden. Ein erstes und ein zweites Halbleiter-Abbildungsbauelement 114 und 115, die den zwei Bildern gegenüberliegen sollen, befinden sich hinter dem optischen Bilderzeugungssystem 113.
  • In diesem Ausführungsbeispiel wird ein CCD als Halbleiter-Abbildungsbauelement aufgegriffen. Das erste und das zweite Halbleiter-Abbildungsbauelement 114 und 115 werden daher als erstes und zweites CCD 114 und 115 bezeichnet. Objektabbildungen, die durch Halbieren der Objektabbildung durch den Pupillenteiler 112 erzeugt werden, werden in den Bildebenen des ersten CCD 114 bzw. des zweiten CCD 115 erzeugt. Die Objektabbildungen werden dann photoelektrisch umgewandelt.
  • CCD-Ansteuersignale zum Ansteuern des ersten CCD 114 und des zweiten CCD 115 werden über zwei Systeme von CCD-Ansteuersignal-Übertragungsleitungen übertragen. Die CCD-Ausgangssignale, die aus den CCDs ausgegeben werden, werden über zwei Systeme von CCD-Ausgangssignal-Übertragungsleitungen übertragen. Die Übertragungsleitungen sind in einem Kamerakabel 108 enthalten und mit der CCU 105 über einen Kameraverbindungsstecker 109 gekoppelt. Die Ausgangssignale der CCDs 114 und 115 werden zur CCU 105 gesandt und verschiedenen Arten von Signalverarbeitung unterzogen. Ein Videosignal, das aus der CCU 105 ausgegeben wird, wird zum TV-Monitor 106 gesandt. Ein Ansichtsbild eines Objekts wird dann auf dem TV-Monitor 106 angezeigt.
  • In der CCU 106 sind eine erste CCD-Ansteuerschaltung 121 und eine zweite CCD-Ansteuerschaltung 129 als Schaltungen zum Ansteuern des ersten CCD 114 bzw. des zweiten CCD 115 integriert. Die CCD-Ansteuerschaltungen 121 und 129 liefern CCD-Ansteuersignale zu den CCDs 114 bzw. 115 über die CCD-Ansteuersignal-Übertragungsleitungen im Kamerakabel 108. Ladungen von Signalen, die in den CCDs 114 und 115 gesammelt werden, werden dann ausgelesen.
  • Überdies sind zwei Signalverarbeitungssysteme in der CCU 105 installiert, um die Ausgangssignale des ersten CCD 114 bzw. des zweiten CCD 115 zu verarbeiten. Anfangs wird ein Verarbeitungssystem zum Verarbeiten des Ausgangssignals des ersten CCD 114 beschrieben.
  • Ein Vorverstärker 124 ist in einer Anfangsstufe des CCU 105 installiert. Die Übertragungsleitung, über die das Ausgangssignal des ersten CCD 114 übertragen wird, ist mit dem Vorverstärker 124 gekoppelt. Ein CCD-Ausgangssignal, das aus dem CCD 114 gelesen wird, wird über die CCD-Ausgangssignal-Übertragungsleitung im Kamerakabel 108 zur CCU 105 übertragen. Ein Verlust, der während der Kabelübertragung auftritt, wird durch den Vorverstärker 124 verstärkt, wodurch eine gegebene Verarbeitung ausgeführt wird.
  • In der dem Vorverstärker 124 folgenden Stufe sind eine CDS-Schaltung und eine Abtast- und Halteschaltung, die nicht dargestellt sind, installiert. Das CCD-Ausgangssignal, das durch den Vorverstärker 124 verstärkt wird, wird durch die CDS-(korrelative Doppelabtastung)Schaltung und die Abtast- und Halteschaltung vorverarbeitet.
  • In der diesen Schaltungen folgenden Stufe befindet sich eine A/D-Umwandlungsschaltung 125 und eine Digitalsignalverarbeitungs-Schaltung (DSP) (126). Nachdem das CCD-Ausgangssignal der vorstehend gegebenen Vorverarbeitung unterzogen wurde, wird es in die A/D-Umwandlungsschaltung 125 eingegeben und dann in ein digitales Signal umgewandelt. Eine gegebene Digitalsignalverarbeitung wird dann an dem digitalen Signal durch die Digitalsignalverarbeitungs-Schaltung 126 durchgeführt.
  • Die Digitalsignalverarbeitungs-Schaltung 126 weist die Fähigkeiten einer Farbtrennschaltung, einer Weißausgleichsschaltung und einer Schaltung zur automatischen Verstärkungsregelung auf. Hierbei trennt die Farbtrennschaltung drei Farbsignalkomponenten von roten, grünen und blauen Signalen von einem digitalisierten Signal. Die Weißausgleichsschaltung stellt einen Weißausgleich in jedem der digitalen Farbsignale ein, die von der Farbtrennschaltung geliefert werden. Die Schaltung zur automatischen Verstärkungsregelung regelt eine Verstärkung, die einem digitalen Signal verliehen werden soll, dessen Weißausgleich durch die Weißausgleichsschaltung eingestellt wurde. Die Digitalsignalverarbeitungs-Schaltung 126 führt eine gegebene Digitalsignalverarbeitung aus.
  • Überdies befindet sich in der der Digitalsignalverarbeitungs-Schaltung 126 folgenden Stufe eine Knick- und Gammaschaltung 127 für die Behandlung eines Knicks, der durch Auftragen von jedem von verarbeiteten digitalen Signalen erfasst wird, und zum Korrigieren eines durch jedes von diesen angegebenen Gammawerts. Der Knick- und Gammaschaltung 127 folgt eine erste Rechenschaltung 128. Die erste Rechenschaltung 128 erweitert die dynamischen Bereiche für die roten, grünen und blauen digitalen Signale, die jeweils von der Knick- und Gammaschaltung 127 verarbeitet wurden, um einen Knick zu behandeln und einen Gammawert zu korrigieren. Die erste Rechenschaltung 128 verstärkt dann die resultierenden roten, grünen und blauen digitalen Signale.
  • Andererseits ist eine Wellenformerfassungsschaltung 123 zum Festlegen einer Blendengeschwindigkeit für das erste CCD 114 unter der Steuerung der Digitalsignalverarbeitungs-Schaltung 126 mit der Digitalsignalverarbeitungs-Schaltung 126 verbunden. Ein Taktgenerator (TG in der Zeichnung) 122 ist mit der Wellenformerfassungsschaltung 123 verbunden. Die erste CCD-Ansteuerschaltung 121 und die zweite CCD-Ansteuerschaltung 129 zum Ansteuern des ersten CCD 114 bzw. des zweiten CCD 115 sind mit dem Taktgenerator 122 verbunden.
  • Die Wellenformerfassungsschaltung 123 ist mit einer Digitalsignalverarbeitungs-Schaltung 132 verbunden, die später beschrieben wird, und wird daher durch die Digitalsignalverarbeitungs-Schaltung 132 gesteuert.
  • Die Wellenformerfassungsschaltung 123 erfasst die Wellenformen von digitalen Signalen, die durch die Digitalsignalverarbeitungs-Schaltungen 126 und 132 erzeugt werden, und legt folglich die Blendengeschwindigkeiten fest, die für das erste CCD 114 und das zweite CCD 115 festgelegt werden sollen. Der Taktgenerator 122 erzeugt Ansteuersignale zur Verwendung beim Ansteuern des ersten CCD 114 und des zweiten CCD 115 gemäß einem Ausgangssignal der Wellenformerfassungsschaltung 123.
  • Überdies übertragen die erste CCD-Ansteuerschaltung 121 und die zweite CCD-Ansteuerschaltung 129 CCD-Ansteuersignale, die zum Ansteuern des ersten CCD 114 und des zweiten CCD 115 verwendet werden, als Reaktion auf ein vom Taktgenerator 122 gesandtes Ansteuersignal. Zu diesem Zeitpunkt steuern die erste CCD-Ansteuerschaltung 121 und die zweite CCD-Ansteuerschaltung 129 das erste CCD 114 und das zweite CCD 115 so an, dass das erste und das zweite CCD ein Objekt mit voneinander verschiedenen Blendengeschwindigkeiten abbilden. Insbesondere wird das erste CCD 114 angesteuert, um ein Objekt mit einer relativ niedrigen Blendengeschwindigkeit abzubilden, während das zweite CCD 115 angesteuert wird, um das Objekt mit einer relativ hohen Blendengeschwindigkeit abzubilden. Die Ansteuersteuerung wird später beschrieben.
  • Die CCU 105 weist einen Vorverstärker 130, eine A/D-Umwandlungsschaltung 131, eine Digitalsignalverarbeitungs-Schaltung 132, eine Knick- und Gammaschaltung 133 und eine zweite Rechenschaltung 134 auf. Diese Schaltungen erfüllen dieselben Rollen wie der Vorverstärker 124, die A/D-Umwandlungsschaltung 125, die Digitalsignalverarbeitungs- Schaltung 126, die Knick- und Gammaschaltung 127 und die erste Rechenschaltung 128. Dieses Verarbeitungssystem gibt ein Ausgangssignal des zweiten CCD 115 ein und führt dieselbe Verarbeitung wie die vorstehend erwähnte aus.
  • Überdies folgt der ersten Rechenschaltung 128 und der zweiten Rechenschaltung 134 ein Addierer 135, eine D/A-Umwandlungsschaltung, die nicht dargestellt ist, und eine Nachverarbeitungsschaltung 136.
  • Die erste Rechenschaltung 128 und die zweite Rechenschaltung 134 führen eine gegebene Verarbeitung an Abbildungssignalen aus, die mit voneinander verschiedenen Blendengeschwindigkeiten durch das erste CCD 114 bzw. das zweite CCD 115 erzeugt werden. Die gegebene Verarbeitung wird später detailliert dargestellt.
  • Ausgangssignale der ersten Rechenschaltung 128 und der zweiten Rechenschaltung 134 werden addiert, damit sie somit durch den Addierer 135 synthetisiert werden. Ein resultierendes Signal wird durch die D/A-Umwandlungsschaltung in ein analoges Signal umgewandelt und dann in die Nachverarbeitungsschaltung 136 eingegeben. Die Nachverarbeitungsschaltung 136 wandelt das resultierende Signal in ein Standardvideosignal um. Das Videosignal wird dann an den TV-Monitor 106 ausgegeben.
  • Als nächstes werden die Operationen der Endoskopabbildungsvorrichtung 101 dieses Ausführungsbeispiels mit den vorangehenden Komponenten beschrieben.
  • In diesem Ausführungsbeispiel wird eine Objektabbildung durch das System von Übertragungslinsen 111, welches ein einziges optisches System ist, durch das Endoskop 103 hindurch übertragen. Die Objektabbildung wird dann durch den Pupillenteiler 112 im Kamerakopf 102 halbiert. Auf der Basis eines Ansteuersignals, das vom Taktgenerator 122 erzeugt wird, projizieren das erste CCD 114 und das zweite CCD 115 die zwei gleichen Objektabbildungen, die vom Pupillenteiler 112 geliefert werden, mit voneinander verschiedenen Blendengeschwindigkeiten. Zu diesem Zeitpunkt werden die Blendengeschwindigkeiten durch die Wellenformerfassungsschaltung 123 unter der Steuerung der Digitalsignalverarbeitungs-Schaltung 125 und der Digitalsignalverarbeitungs-Schaltung 132 festgelegt. Das erste CCD 114 projiziert die Abbildung nämlich mit einer relativ niedrigen Blendengeschwindigkeit, während das zweite CCD 115 die Abbildung mit einer relativ hohen Blendengeschwindigkeit projiziert.
  • Insbesondere wird das erste CCD 114 angesteuert, um die Objektabbildung mit einer relativ niedrigen Blendengeschwindigkeit von beispielsweise 1/60 s (erste Belichtungszeit) zu projizieren. Das zweite CCD 115 wird angesteuert, um die Objektabbildung mit einer relativ hohen Blendengeschwindigkeit von 1/240 s (zweite Belichtungszeit) zu projizieren.
  • Wie vorstehend erwähnt, projizieren das erste CCD 114 und das zweite CCD 115 die zwei gleichen Objektabbildungen, die vom Pupillenteiler 112 geliefert werden, mit voneinander verschiedenen Blendengeschwindigkeiten. Das erste CCD 114 und das zweite CCD 115 übertragen dann entgegengesetzte photoelektrisch umgewandelte Signale zu den Vorverstärkern 124 und 130. CCD-Ausgangssignale, die durch die Vorverstärker 124 und 130 verstärkt werden, werden einer gegebenen Verarbeitung durch die vorstehend genannten zwei Systeme von Schaltungen unterzogen. Die erste Rechenschaltung 128 und die zweite Rechenschaltung 135 wenden gegebene Gewichte auf Abbildungssignale an, die durch das erste CCD 114 bzw. das zweite CCD 114 erzeugt werden.
  • Die durch das erste CCD 114 und das zweite CCD 115 erzeugten Abbildungssignale werden somit durch die erste Rechenschaltung 128 und die zweite Rechenschaltung 135 zweckmäßig verarbeitet. Anschließend werden die Abbildungssignale durch die Addierschaltung 135 addiert und dann an die nachfolgende Stufe ausgegeben.
  • Die Gewichtung der Abbildungssignale durch die erste Rechenschaltung 128 und die zweite Rechenschaltung 134 und deren Synthese durch die Addierschaltung 135 wird mit Bezug auf 24 und 25 beschrieben.
  • 24 ist ein Ablaufdiagramm, das die Beziehungen unter einem vertikalen Synchronisationssignal, Abbildungssignalen und einem synthetischen Bildsignal zeigt. Hierbei wird das vertikale Synchronisationssignal aus dem Taktgenerator 122 ausgegeben. Die Abbildungssignale werden tatsächlich vom ersten CCD 114 (mit einer niedrigen Blendengeschwindigkeit angesteuert) und vom zweiten CCD 115 (mit einer hohen Blendengeschwindigkeit angesteuert) erzeugt. Das synthetische Bildsignal wird durch die Addierschaltung 135 erzeugt. 25 zeigt graphisch die Ausgangspegel von Abbildungssignalen und den Ausgangspegel eines synthetischen Bildsignals in bezug auf eine Menge an einfallendem Licht. Hierbei wurden die Abbildungssignale aus dem ersten CCD 114 (mit der niedrigen Blendengeschwindigkeit angesteuert) und dem zweiten CCD 115 (mit der hohen Blendengeschwindigkeit angesteuert) ausgegeben und wurden mit verschiedenen Gewichten gewichtet. Das synthetische Bildsignal wird durch die Addierschaltung 135 erzeugt.
  • Wie in 24 gezeigt, soll das durch das erste CCD 114 während einer ersten Belichtungszeit äquivalent zur niedrigen Blendengeschwindigkeit (1/60 s) erzeugte Abbildungssignal x sein. Überdies soll das durch das zweite CCD 115 während einer zweiten Belichtungszeit äquivalent zur hohen Blendengeschwindigkeit (1/240 s) erzeugte Abbildungssignal u sein. Das von der Addierschaltung 135 erzeugte synthetische Bildsignal soll M sein.
  • In diesem Ausführungsbeispiel wird das durch das erste CCD 114 erzeugte Abbildungssignal mit cos2(px) durch die erste Rechenschaltung 128 gewichtet. Mit anderen Worten, wenn ein Leuchtdichtepegel niedrig ist, wird das Abbildungssignal, das vom ersten CCD 114 während der ersten Belichtungszeit (1/60 s) erzeugt wird, gewichtet. Im übrigen bedeutet p einen Korrekturkoeffizienten. Unter der Annahme, dass ein Helligkeitspegel, bei dem das Abbildungssignal, das vom zweiten CCD 115 während der zweiten Belichtungszeit (1/240 s) erzeugt wird, einen Sättigungswert aufweist, s ist, ist der Korrekturkoeffizient p ungefähr p = (s·π/2). Beispielsweise gilt p = π/8.
  • Überdies wendet die zweite Rechenschaltung 134 ein Gewicht von sin2(px) auf das vom zweiten CCD 115 erzeugte Abbildungssignal an. Mit anderen Worten, wenn ein Leuchtdichtepegel hoch ist, wird das Abbildungssignal, das während der zweiten Belichtungszeit (1/240 s) durch das zweite CCD 115 erzeugt wird, gewichtet.
  • Andererseits addiert die Addierschaltung 135 die vom ersten CCD 114 und vom zweiten CCD 115 erzeugten und, wie vorstehend erwähnt, von der ersten Rechenschaltung 128 und der zweiten Rechenschaltung 134 verarbeiteten Abbildungssignale. Ein so erzeugtes synthetisches Bildsignal M wird folgendermaßen ausgedrückt: M = xcos2(px) + usin2(px)
  • Das synthetische Bildsignal M weist die in 25 graphisch dargestellte Kennlinie auf. Somit kann ein dynamischer Bereich ohne irgendeine Verschlechterung eines Rauschabstands einer Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, erweitert werden.
  • Überdies sollte der Korrekturkoeffizient p nur relativ zu x zweckmäßig festgelegt werden. Das synthetische Bildsignal M variiert als Funktion, die innerhalb eines Bereichs von Helligkeitspegeln bis zu einem Helligkeitspegel, bei dem das während der zweiten Belichtungszeit erzeugte Signal den Sättigungswert aufweist, monoton zunimmt. Folglich erscheint ein konstruiertes Bild gleichmäßig, aber ergibt keine Empfindung von Inkongruenz.
  • In diesem Ausführungsbeispiel ist der Korrekturkoeffizient p ungefähr π/8. Abgesehen davon kann der Korrekturkoeffizient p auf einen beliebigen Wert gemäß den Kennlinien des ersten CCD 114 und des zweiten CCD 115 festgelegt werden. In diesem Fall variiert das synthetische Bildsignal M mit x als Funktion, die monoton zunimmt.
  • Überdies muss das synthetische Bildsignal M nicht wie die obige Funktion variieren, das heißt: xcos2(px) + usin2(px)
  • Alternativ kann das synthetische Bildsignal M als Funktion variieren, die einen Wert, der durch ein Signal beherrscht wird, welches mit der niedrigen Blendengeschwindigkeit erzeugt wird, relativ zu einem niedrigen Leuchtdichtepegel aufweist, und die einen Wert, der durch das Signal beherrscht wird, welches mit der hohen Blendengeschwindigkeit erzeugt wird, relativ zu einem hohen Leuchtdichtepegel aufweist.
  • Wie vorstehend beschrieben, wird gemäß diesem Ausführungsbeispiel eine Endoskopabbildungsvorrichtung bereitgestellt, die einen erweiterbaren dynamischen Bereich für ein Abbildungssignal ohne irgendeine Verschlechterung eines Rauschabstandes einer Signalkomponente, die einen niedrigen Leuchtdichtepegel anzeigt, bietet. Überdies kann die Endoskopabbildungsvorrichtung ein gleichmäßiges Bild erzeugen, das keine Empfindung von Inkongruenz ergibt.
  • Sechstes Ausführungsbeispiel
  • Das sechste Ausführungsbeispiel der vorliegenden Erfindung wird mit Bezug auf 26 und 27 beschrieben. Wie in 26 gezeigt, besteht eine Abbildungsvorrichtung 150 des sechsten Ausführungsbeispiels aus einem CCD 151, einer Synchronisationssignal-Erzeugungsschaltung (nachstehend SSG) 157, einem Taktgenerator (T/G in der Zeichnung) 156 und einem CCD-Treiber (CCD DRV in der Zeichnung) 155. Das CCD 151 ist ein Einplatten-Farbabbildungsbauelement zum Abbilden eines Objekts. Die Synchronisationssignal-Erzeugungsschaltung 157 erzeugt ein Bezugssignal. Der Taktgenerator 156 gibt das Bezugssignal von der SSG 157 ein und erzeugt ein Ansteuersignal zur Verwendung beim Ansteuern des CCD 151. Der CCD-Treiber 155 steuert das CCD 151 als Reaktion auf das vom Taktgenerator 156 gesandte Ansteuersignal an.
  • Die Abbildungsvorrichtung 150 besteht ferner aus einem Vorverstärker 152, einer korrelativen Doppelabtast-(als CDS abgekürzt)Schaltung 153 und einem A/D-Wandler 154. Insbesondere verstärkt der Vorverstärker 512 ein durch das CCD 151 erzeugtes Abbildungssignal. Die CDS-Schaltung 153 führt eine korrelative Doppelabtastung gemäß Abtastimpulsen aus, die vom Taktgenerator 156 gesandt werden. Der A/D-Wandler 154 digitalisiert ein Ausgangssignal der CDS-Schaltung 153. Ein aus dem CCD 151 ausgegebenes Abbildungssignal wird durch den Vorverstärker 152 verstärkt. Anschließend wird die Frequenz des resultierenden Signals durch die CDS-Schaltung 153 so abgesenkt, dass sie in das Basisband fällt. Das Signal wird dann durch den A/D-Wandler 154 digitalisiert.
  • Überdies umfasst die Abbildungsvorrichtung 150 eine Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit und eine Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit. Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legt die Blendengeschwindigkeit für das CCD 151 auf eine niedrige Blendengeschwindigkeit, beispielsweise etwa 1/60 s, fest. Die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit legt die Blendengeschwindigkeit für das CCD 151 auf eine Blendengeschwindigkeit äquivalent einem Teilvielfachen von n der durch die Einheit 161 zum Festlegen der niedrigen Blendengeschwindigkeit festgelegten Blendengeschwindigkeit fest. Man beachte, dass die Blendengeschwindigkeit zu einer Belichtungszeit äquivalent ist.
  • Somit werden die Daten der Blendengeschwindigkeiten aus der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit und der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit ausgegeben. Eine der Blendengeschwindigkeiten wird durch einen Blendengeschwindigkeits-Auswahlschalter 159 ausgewählt, der für jede Halbbildperiode gemäß einem von der SSG 157 gesandten Bezugssignal zu einer anderen Schaltung umgestellt wird.
  • Andererseits wird ein Ausgangssignal des A/D-Wandlers 154 zu einer Videosignal-Verarbeitungseinheit gesandt, die nicht dargestellt ist. Eine Wellenformerfassungsschaltung 158 ist mit dem Ausgangsanschluss des A/D-Wandlers 154 verbunden. Die Wellenformerfassungsschaltung 158 erfasst die Wellenform von nur einem Abbildungssignal, das durch das CCD 151 mit der niedrigen Blendengeschwindigkeit gemäß einem Halbbildbeurteilungssignal erzeugt wird, welches vom Taktgenerator 156 gesandt wird. Das Ergebnis der Wellenformerfassung wird an die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit ausgegeben.
  • Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legt eine Blendengeschwindigkeit gemäß dem Ergebnis der Wellenformerfassung, die von der Wellenformerfassungsschaltung 158 durchgeführt wird, fest, wobei somit der Pegel des durch das CCD 151 erzeugten Abbildungssignals optimiert wird.
  • Als nächstes werden die Operationen der Abbildungsvorrichtung dieses Ausführungsbeispiels mit den vorangehenden Komponenten mit Bezug auf 27 beschrieben.
  • Mit einem Ansteuersignal, das vom Taktgenerator 156 gemäß dem Bezugssignal VD erzeugt wird, welches von der SSG 157 gesandt wird, steuert der CCD-Treiber 155 das CCD 151 an. Zu diesem Zeitpunkt wird eine Steuerung vorgegeben, um eine Blendengeschwindigkeit für das CCD 151 festzulegen. Die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegte niedrige Blendengeschwindigkeit und die von der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegte hohe Blendengeschwindigkeit werden nämlich für jede Halbbildperiode umgeschaltet.
  • Die Wellenformerfassungsschaltung 158 erfasst überdies die Wellenform von nur einem Abbildungssignal, das mit der niedrigen Blendengeschwindigkeit erzeugt wird, die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird. Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legt eine Blendengeschwindigkeit gemäß einem Ergebnis fest, das von der Wellenformerfassungsschaltung 158 geliefert wird, wobei somit der Pegel eines vom CCD 151 erzeugten Abbildungssignals optimiert wird.
  • Andererseits ist eine hohe Blendengeschwindigkeit, die von der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt werden soll, ein Teilvielfaches von n der Blendengeschwindigkeit, die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird. Ein Viertel der Blendengeschwindigkeit wird beispielsweise übernommen.
  • Ein photoelektrisch umgewandeltes Signal, das eine Objektabbildung darstellt, die durch das CCD 151 projiziert wird, wird durch den Vorverstärker 152 verstärkt. Die Frequenz des resultierenden Signals wird dann durch die CDS-Schaltung 153 so abgesenkt, dass sie in das Basisband fällt. Das Signal wird dann durch den A/D-Wandler 154 in ein digitales Signal umgewandelt und an die Videosignal-Verarbeitungseinheit ausgegeben, die nicht dargestellt ist.
  • Wie vorstehend erwähnt, weist die Abbildungsvorrichtung 150 gemäß diesem Ausführungsbeispiel die Wellenformerfassungsschaltung 158 auf, die die Wellenform von nur einem Abbildungssignal erfasst, das mit der niedrigen Blendengeschwindigkeit erzeugt wird, die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird. Auf der Basis des Ergebnisses der Wellenformerfassung, die von der Wellenformerfassungsschaltung 158 durchgeführt wird, steuert die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit die Blendengeschwindigkeit für das CCD 151. Zu diesem Zeitpunkt wird die Blendengeschwindigkeit für das CCD 151 gesteuert, um den Pegel eines vom CCD 151 erzeugten Abbildungssignals zu optimieren. Die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit legt autonom eine höhere Blendengeschwindigkeit fest als die Blendengeschwindigkeit, die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird. Folglich kann eine Irisblende für das CCD realisiert werden. Trotz der relativ einfachen Schaltungsanordnung kann die Abbildungsvorrichtung einen breiten dynamischen Bereich für ein Abbildungssignal bieten.
  • In diesem Ausführungsbeispiel wird eine Blendengeschwindigkeit, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird, automatisch auf ein Viertel einer Blendengeschwindigkeit festgelegt, die durch die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird. Natürlich ist das Teilvielfache von n der Blendengeschwindigkeit, die durch die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird, nicht auf das Viertel davon begrenzt.
  • Siebtes Ausführungsbeispiel
  • Als nächstes wird das siebte Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 28 und 29 beschrieben.
  • Die Grundanordnung einer Abbildungsvorrichtung 150' des siebten Ausführungsbeispiels ist zu jener des sechsten Ausführungsbeispiels identisch.
  • Gemäß dem sechsten Ausführungsbeispiel erfasst jedoch die Wellenformerfassungsschaltung 158 die Wellenform von nur einem Abbildungssignal, das mit einer niedrigen Blendengeschwindigkeit erzeugt wird. Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit steuert eine Blendengeschwindigkeit gemäß dem Ergebnis der Wellenformerfassung, die von der Wellenformerfassungsschaltung 158 durchgeführt wird. Die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit legt autonom eine Blendengeschwindigkeit gemäß der Blendengeschwindigkeit fest, die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird. Gemäß diesem Ausführungsbeispiel erfasst die Wellenformerfassungsschaltung 158 im Gegensatz zum sechsten Ausführungsbeispiel die Wellenform von nur einem Abbildungssignal, das mit einer hohen Blendengeschwindigkeit erzeugt wird, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird. Auf der Basis des Ergebnisses der von der Wellenformerfassungsschaltung 158 durchgeführten Wellenformerfassung steuert die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit eine Blendengeschwindigkeit, um den Pegel eines durch das CCD 151 erzeugten Abbildungssignals zu optimieren. Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legt eine Blendengeschwindigkeit gemäß der Blendengeschwindigkeit fest, die von der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird.
  • Hierbei wird daher nur ein Unterschied zum sechsten Ausführungsbeispiel erwähnt. Auf die Beschreibung eines doppelten Teils wird verzichtet.
  • Eine Abbildungsvorrichtung 150' dieses Ausführungsbeispiels, die in 28 gezeigt ist, besteht aus einer Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit und einer Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit. Insbesondere legt die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit die Blendengeschwindigkeit für das CCD 151 auf eine hohe Blendengeschwindigkeit, beispielsweise etwa 1/240 s, fest. Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legt die Blendengeschwindigkeit für das CCD 151 auf ein Teilvielfaches von n der Blendengeschwindigkeit fest, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird. Man beachte, dass die Blendengeschwindigkeit zu einer Belichtungszeit äquivalent ist.
  • Somit werden die Daten der Blendengeschwindigkeiten aus der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit und der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit ausgegeben. Eine der Blendengeschwindigkeiten wird von einem Blendengeschwindigkeits-Auswahlschalter 159 ausgewählt, der für jede Halbbildperiode gemäß einem von der SSG 157 gesandten Bezugssignal zu einer anderen Schaltung umgestellt wird. Eine ausgewählte Blendengeschwindigkeit wird an den Taktgenerator 156 ausgegeben.
  • Im übrigen erfasst die Wellenformerfassungsschaltung 158 dieses Ausführungsbeispiels die Wellenform von nur einem Abbildungssignal, das mit einer hohen Blendengeschwindigkeit vom CCD 151 gemäß einem Halbbildbeurteilungssignal, das vom Taktgenerator 156 gesandt wird, erzeugt wird. Das Ergebnis der Wellenformerfassung wird an die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit ausgegeben.
  • Auf der Basis der von der Wellenformerfassungsschaltung 158 durchgeführten Wellenformerfassung legt die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit eine Blendengeschwindigkeit fest, um den Pegel eines vom CCD 151 erzeugten Abbildungssignals zu optimieren.
  • Als nächstes werden die Operationen der Abbildungsvorrichtung dieses Ausführungsbeispiels mit den vorangehenden Komponenten mit Bezug auf 29 beschrieben.
  • Der Taktgenerator 156 erzeugt ein Ansteuersignal gemäß einem Bezugssignal VD, das von der SSG 157 erzeugt wird.
  • Mit dem Ansteuersignal steuert der CCD-Treiber 155 das CCD 151 an. Die Blendengeschwindigkeit für das CCD 151 wird durch Umschalten einer hohen Blendengeschwindigkeit, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird, und einer niedrigen Blendengeschwindigkeit, die durch die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird, für jede Halbbildperiode gesteuert.
  • Die Wellenformerfassungsschaltung 158 erfasst die Wellenform von nur einem Abbildungssignal, das mit der hohen Blendengeschwindigkeit erzeugt wird, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird. Auf der Basis des Ergebnisses der durch die Wellenformerfassungsschaltung 158 durchgeführten Wellenformerfassung legt die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit eine Blendengeschwindigkeit fest, um den Pegel eines durch das CCD 151 erzeugten Abbildungssignals zu optimieren.
  • Die von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegte niedrige Blendengeschwindigkeit wird automatisch auf ein Vielfaches von n einer Blendengeschwindigkeit festgelegt, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird, beispielsweise ein Vierfaches davon.
  • Ein photoelektrisch umgewandeltes Signal, das eine Objektabbildung darstellt, die vom CCD 151 erzeugt wird, wird durch einen Vorverstärker 152 verstärkt. Anschließend wird die Frequenz des resultierenden Signals durch eine CDS-Schaltung 153 so abgesenkt, dass sie in das Basisband fällt. Das Signal wird dann durch einen A/D-Wandler 154 in ein digitales Signal umgewandelt und dann an eine Videosignal-Verarbeitungseinheit ausgegeben, die nicht dargestellt ist.
  • Wie vorstehend erwähnt, kann auch in der Abbildungsvorrichtung 150' dieses Ausführungsbeispiels wie jenem des sechsten Ausführungsbeispiels eine Irisblende für das CCD realisiert werden. Trotz der relativ einfachen Schaltungsanordnung kann die Abbildungsvorrichtung einen breiten dynamischen Bereich für ein Abbildungssignal bieten.
  • Selbst in diesem Ausführungsbeispiel ist eine von der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegte Blendengeschwindigkeit ein Vierfaches einer Blendengeschwindigkeit, die von der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird. Das Vielfache der Blendengeschwindigkeit, die von der Einheit zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird, ist natürlich nicht auf das Vierfache derselben begrenzt.
  • Achtes Ausführungsbeispiel
  • Als nächstes wird das achte Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 30 und 31 beschrieben.
  • Dieselben Bezugsziffern werden Komponenten zugewiesen, die zu jenen des sechsten und siebten Ausführungsbeispiels identisch sind. Auf die Beschreibung der Komponenten wird verzichtet.
  • In den Abbildungsvorrichtungen 150 und 150' des sechsten und siebten Ausführungsbeispiels wird die Wellenform von entweder einem mit einer niedrigen Blendengeschwindigkeit erzeugten Abbildungssignal oder einem mit einer hohen Blendengeschwindigkeit erzeugten Abbildungssignal erfasst. Entweder die niedrige Blendengeschwindigkeit oder die hohe Blendengeschwindigkeit wird auf der Basis des Ergebnisses der Wellenformerfassung festgelegt. Die andere Blendengeschwindigkeit wird auf ein bestimmtes Verhältnis der festgelegten Blendengeschwindigkeit festgelegt.
  • Im Gegensatz zu den Abbildungsvorrichtungen der Ausführungsbeispiele erfasst eine Abbildungsvorrichtung 150'' dieses Ausführungsbeispiels die Wellenform eines Abbildungssignals, das mit einer niedrigen Blendengeschwindigkeit erzeugt wird, und jene eines Abbildungssignals, das mit einer hohen Blendengeschwindigkeit erzeugt wird. Die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit und die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legen jeweils eine Blendengeschwindigkeit fest.
  • Wie in 30 gezeigt, umfasst die Abbildungsvorrichtung 150'' dieses Ausführungsbeispiels eine Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit und eine Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit. Die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit legt die Blendengeschwindigkeit für das CCD 151 auf eine hohe Blendengeschwindigkeit fest, beispielsweise etwa 1/240 s. Die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit legt die Blendengeschwindigkeit für das CCD 151 auf eine niedrige Blendengeschwindigkeit fest, beispielsweise etwa 1/60 s.
  • Somit werden die Daten der Blendengeschwindigkeiten aus der Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit und der Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit ausgegeben. Eine der Blendengeschwindigkeiten wird wie jene im sechsten und siebten Ausführungsbeispiel von einem Blendengeschwindigkeits-Auswahlschalter 162 ausgewählt, der für jede Halbbildperiode gemäß einem von der SSG 157 gesandten Bezugssignal umgestellt wird. Die Daten der ausgewählten Blendengeschwindigkeit werden dann an den Taktgenerator ausgegeben.
  • Andererseits erfasst die Wellenformerfassungsschaltung 158 dieses Ausführungsbeispiels die Wellenformen von Abbildungssignalen, die vom CCD 151 gemäß einem Halbbildbeurteilungssignal erzeugt werden, welches vom Taktgenerator 156 gesandt wird. Hierbei wurde eines der Abbildungssignale mit einer hohen Blendengeschwindigkeit erzeugt und das andere Abbildungssignal wurde mit einer niedrigen Blendengeschwindigkeit erzeugt. Die Ergebnisse der Wellenformerfassung werden entweder an die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit oder an die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit ausgegeben. Entweder die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit oder die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit wird von einem Blendenfestlegungseinheits-Auswahlschalter 163 ausgewählt, der für jede Halbbildperiode gemäß dem von der SSG 157 gesandten Bezugssignal umgestellt wird.
  • Die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit oder die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit wird durch den Blendenfestlegungseinheits-Auswahlschalter 163 ausgewählt. Zu diesem Zeitpunkt wird auf der Basis der Ergebnisse der von der Wellenformerfassungsschaltung 158 durchgeführten Wellenformerfassung eine Blendengeschwindigkeit festgelegt, um den Pegel eines durch das CCD 151 erzeugten Abbildungssignals zu optimieren.
  • Als nächstes werden die Operationen der Abbildungsvorrichtung 150'' dieses Ausführungsbeispiels mit den vorangehenden Komponenten mit Bezug auf 32 beschrieben.
  • Der Taktgenerator 156 erzeugt ein Ansteuersignal gemäß einem Bezugssignal VD, das von der SSG 157 gesandt wird. Mit dem Ansteuersignal steuert der CCD-Treiber 155 das CCD 151 an. Zu diesem Zeitpunkt wird die Blendengeschwindigkeit für das CCD 151 so gesteuert, dass eine hohe Blendengeschwindigkeit, die durch die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit festgelegt wird, und eine niedrige Blendengeschwindigkeit, die durch die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit festgelegt wird, für jede Halbbildperiode umgeschaltet werden.
  • Überdies erfasst die Wellenformerfassungsschaltung 158 die Wellenformen sowohl eines Abbildungssignals, das mit der hohen Blendengeschwindigkeit erzeugt wird, als auch eines Abbildungssignals, das mit der niedrigen Blendengeschwindigkeit erzeugt wird. Die Ergebnisse der Wellenformerfassung werden entweder an die Einheit 160 zum Festlegen einer hohen Blendengeschwindigkeit oder an die Einheit 161 zum Festlegen einer niedrigen Blendengeschwindigkeit ausgegeben, welche durch den Blendenfestlegungseinheits-Auswahlschalter 163 ausgewählt wird.
  • Eine Blendenfestlegungseinheit, die durch den Blendenfestlegungseinheits-Auswahlschalter 163 ausgewählt wird, legt eine Blendengeschwindigkeit gemäß Ergebnissen fest, die von der Wellenformerfassungsschaltung 158 geliefert werden. Mit anderen Worten, eine Blendengeschwindigkeit wird festgelegt, um den Pegel eines vom CCD 151 erzeugten Abbildungssignals zu optimieren.
  • Ein photoelektrisch umgewandeltes Signal, das eine Objektabbildung darstellt, die vom CCD 151 erzeugt wird, wird durch den Vorverstärker 152 verstärkt. Anschließend wird die Frequenz des Signals durch die CDS-Schaltung 153 so abgesenkt, dass sie in das Basisband fällt. Das resultierende Signal wird durch den A/D-Wandler 154 in ein digitales Signal umgewandelt. Das digitale Signal wird dann an die Videosignal-Verarbeitungseinheit ausgegeben, die nicht dargestellt ist.
  • Wie vorstehend erwähnt, kann die Abbildungsvorrichtung 150'' gemäß diesem Ausführungsbeispiel einen optimalen dynamischen Bereich für ein Abbildungssignal gemäß den Helligkeitspegeln eines Objekts bieten. Selbst ein Objekt, das mit einem ziemlich hellen Teil und einem ziemlich dunklen Teil desselben, die auf demselben Bildschirm gleichzeitig existieren, visualisiert werden kann, kann ohne Auftreten irgendeines Nachteils wie z. B. verschmierter Weißung oder Schwärzung abgebildet werden.
  • Im sechsten bis achten Ausführungsbeispiel werden die Abbildung mit einer niedrigen Blendengeschwindigkeit und die Abbildung mit einer hohen Blendengeschwindigkeit für jede Halbbildperiode umgeschaltet, die durch den Taktgenerator 156 festgelegt wird. Die vorliegende Erfindung ist nicht auf diese Betriebsart begrenzt. Alternativ, wie in 32 gezeigt, kann die Abbildung mit der niedrigen Blendengeschwindigkeit über eine Vielzahl von Halbbildperioden wiederholt werden.
  • Wenn die Abbildung mit der niedrigen Blendengeschwindigkeit in einer Betriebsart mit langer Belichtung ausgeführt wird, kann ein zweckmäßiger dynamischer Bereich sogar für ein sehr dunkles Objekt geboten werden. In diesem Beispiel kann die Wellenformerfassungsschaltung 158 ausgeschlossen werden.
  • Wie vorstehend erwähnt, wird gemäß dem sechsten bis achten Ausführungsbeispiel eine Endoskopabbildungsvorrichtung bereitgestellt, die in der Lage ist, ein geeignetes Bild zu konstruieren, selbst wenn der Helligkeitspegel eines Objekts umfangreich variiert.
  • Neuntes Ausführungsbeispiel
  • Als nächstes wird das neunte Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf 33 bis 40 beschrieben. Eine Endoskopabbildungsvorrichtung 201 des neunten Ausführungsbeispiels der vorliegenden Erfindung wird in Verbindung mit einer in 33 gezeigten schematischen Anordnung beschrieben.
  • In der Endoskopabbildungsvorrichtung 201 fällt von einem Beobachtungsobjekt 202 reflektiertes Licht über einen optischen Weg 203 auf eine Abbildungseinheit 204. Ein Belichtungswert-Steuermittel 205 in der Abbildungseinheit 202 steuert eine Menge an einfallendem Licht, das vom Beobachtungsobjekt 202 reflektiert wird. Zum Konstruieren eines Vollbildes wird die Menge an einfallendem Licht so gesteuert, dass ein Belichtungswert zwischen zwei Halbbildperioden unterschiedlich ist. Somit wird ein Belichtungswert für die Abbildungsfläche eines Abbildungsbauelements 206 gesteuert.
  • Das Belichtungswert-Steuermittel 205 legt den Belichtungswert für die Abbildungsfläche so fest, dass eine Abbildung, die für eine verschmierte Weißung (Hofbildung) anfällig ist, während eines ersten Halbbildes erzeugt wird, und eine Abbildung, die für eine geringfügige Schwärzung (Verdunkelung) anfällig ist, während einer zweiten Halbbildperiode erzeugt wird.
  • Eine Bildverarbeitungseinheit 207 umfasst einen Signalgenerator 298 zum Erzeugen eines Taktsignals, das zum Schalten der Wirkungen des Belichtungswert-Steuermittels 205 gemäß einer gegebenen Zeitsteuerung verwendet wird. Hierbei wird ein Taktsignal, das zum Ändern von Belichtungswerten für jedes Halbbild verwendet wird, welches von einem Videosignal wiedergegeben wird, zum Belichtungswert-Steuermittel 205 gesandt.
  • In der Bildverarbeitungseinheit 207 verstärkt ein Verstärker 209 ein Abbildungssignal, das durch das Abbildungsbauelement 206 photoelektrisch umgewandelt wurde und in die Bildverarbeitungseinheit eingegeben wurde. Anschließend synthetisiert eine Bildverarbeitungsschaltung 210 Signale, die ein erstes Halbbild und ein zweites Halbbild wiedergeben, gemäß einem gegebenen Algorithmus, wobei somit ein Videosignal erzeugt wird.
  • Bei der Synthese zum Erzeugen eines Videosignals wird ein vom Signalgenerator 208 gesandtes Taktsignal verwendet, um die Zeitsteuerung eines Abbildungssignals, das vom Abbildungsbauelement 206 erzeugt wird, mit der Zeitsteuerung eines Bezugssignals zu synchronisieren. Ein erzeugtes Videosignal wird an eine Bildanzeige 212 wie z. B. einen CRT-Monitor über eine Videoausgabeschaltung 211 ausgegeben. Ein Bild des Beobachtungsobjekts 202 wird dann angezeigt.
  • Infolge der vorangehenden Komponenten wird ein relativ dunkler Teil eines Ansichtsbildes auf der Basis eines Abbildungssignals angezeigt, das ein erstes Halbbild wiedergibt und für eine verschmierte Weißung anfällig ist. Überdies wird ein relativ heller Teil desselben auf der Basis eines Abbildungssignals angezeigt, das ein zweites Halbbild wiedergibt und für Schwärzung anfällig ist. Folglich ist zu sehen, dass das Ansichtsbild deutlich einen breiten dynamischen Bereich unter Beweise stellt. Mit anderen Worten, es kommt nicht vor, dass eine Schwärzung von einer unzureichenden Menge an Licht stammt und eine verschmierte Weißung von einer übermäßigen Menge an Licht stammt.
  • 34 zeigt eine Anordnung einer Endoskopabbildungseinheit 204A als praktisches Beispiel der Abbildungseinheit 204. Die Endoskopabbildungseinheit 204A besteht aus einem optischen Endoskop 215 und einem Kamerakopf 216 oder einer TV-Kamera, die am optischen Endoskop 215 montiert ist. Das optische Endoskop 215 weist eine langgestreckte Einführungseinheit 217 auf, die in eine Körperhöhle oder dergleichen eingeführt wird.
  • Ein Lichtleiter 218 zum Übertragen von Beleuchtungslicht verläuft durch die Einführungseinheit 217. Das proximale Ende des Lichtleiters 218 ist mit einer Lichtquelleneinheit 220 über ein Lichtleiterkabel 219 gekoppelt. Somit wird Beleuchtungslicht, das aus einer Lampe 222 austritt, die mit von einer Lampen-Stromversorgungsschaltung 221 gelieferter Leistung leuchtet, durch eine Linse gebündelt und dann geliefert. Das Beleuchtungslicht wird übertragen und durch das distale Ende des Lichtleiters emittiert. Folglich wird ein Objekt 223, das das Beobachtungsobjekt 202 ist, beleuchtet.
  • Licht, das vom Objekt 223 reflektiert wird, welches mit dem Beleuchtungslicht beleuchtet wird, wird durch ein optisches Objektivsystem 224 geleitet, das sich am distalen Ende der Einführungseinheit 217 befindet. Eine optische Abbildung des Objekts wird auf der distalen Oberfläche eines Bildleiters 225 erzeugt und zur Rückfläche des Lichtleiters 225 durch den Bildleiter 225 übertragen. Die zur Rückfläche übertragene optische Abbildung wird auf ein CCD 228 projiziert, das als Abbildungsbauelement 206 in der Bildebene einer Bilderzeugungslinse 227 angeordnet ist.
  • Ein Mosaikfilter 229 zum Trennen von Farbkomponenten ist an der Abbildungsfläche des CCD 228 befestigt. Wenn ein CCD-Ansteuersignal, das vom Signalgenerator 208 erzeugt wird, an das CCD 228 angelegt wird, wird ein photoelektrisch umgewandeltes Bildsignal ausgegeben.
  • Gemäß diesem Ausführungsbeispiel ist ein scheibenartiges Filterelement 231 als Belichtungswert-Steuermittel 205 im optischen Weg angeordnet, der die Bilderzeugungslinse 227 und das CCD 228 verbindet. Das Filterelement 231 wird mittels eines Motors 232, der sich mit einem Ansteuersignal dreht, das von einer Motorsteuerschaltung 233 gesandt wird, so angetrieben, dass es sich dreht. Ein Halbbildbeurteilungssignal, dessen Pegel sich zwischen einem ersten Halbbild und einem zweiten Halbbild unterscheidet, wird in die Motorsteuerschaltung 233 eingegeben. Die Motorsteuerschaltung 233 steuert die Drehung des Motors, so dass zwei Filter 234a und 234b des Filterelements 231, die in 35A gezeigt sind, abwechselnd für jedes Halbbild im optischen Weg angeordnet werden. Somit wird eine Menge an Beleuchtungslicht, das auf das CCD 228 projiziert werden soll, Halbbild für Halbbild gesteuert.
  • Mit anderen Worten, wie in 35A und 35B gezeigt, besteht das Filterelement 231 aus zwei Arten von Filtern Fa und Fb, die halbkreisförmig geformt sind und in der Durchlässigkeit voneinander verschieden sind. Ein axiales Element ist von der Mitte des Filterelements 213 in einer senkrechten Richtung ausgestreckt. Das andere Ende des axialen Elements ist in den Motor 232 eingesetzt. Das Filterelement 231 wird daher zusammen mit der Drehung des Motors 232 gedreht.
  • Eine Beschreibung geht mit der Annahme weiter, dass eine der zwei Arten von Filtern Fa und Fb des Filterelements 231 unterschiedliche Eigenschaften aufweist, das heißt das Filter Fa eine höhere Durchlässigkeit bietet als das Filter Fb.
  • In diesem Fall wird ein Abbildungssignal, das ein erstes Halbbild wiedergibt, wie vorstehend erwähnt, so erzeugt, dass es für eine verschmierte Weißung anfällig ist. Ein Abbildungssignal, das ein zweites Halbbild wiedergibt, wird so erzeugt, dass es für Schwärzung anfällig ist. Der Motor 232 wird so angetrieben, dass das Filter Fa der Abbildungsfläche des CCD 228 während einer ersten Halbbildperiode zugewandt ist und das Filter Fb dieser während einer zweiten Halbbildperiode zugewandt ist.
  • Mit anderen Worten, der Motor 232 führt während einer Halbbildperiode eine Drehung durch. Das Filter Fa ist der Abbildungsfläche während einer ersten Hälfte der Vollbildperiode, das heißt einer ersten Halbbildperiode, zugewandt. Das Filter Fb ist der Abbildungsfläche während einer zweiten Halbbildperiode zugewandt.
  • Die Durchlässigkeitseigenschaften der zwei Arten von Filtern Fa und Fb variieren in Abhängigkeit von dem Zustand eines abzubildenden Objekts. Man nehme an, dass eine Menge an Licht, das von einem Beobachtungsobjekt reflektiert wird, konstant bleibt. In diesem Fall wird die Menge an Licht, das vom Beobachtungsobjekt reflektiert wird, insgesamt auf einen Teil der Abbildungsfläche des CCD 228 projiziert, der zum Wiedergeben eines ersten Halbbildes verwendet wird. Ein verschiedenes Teilvielfaches des vom Beobachtungsobjekt reflektierten Lichts oder mehrere zehn Teilvielfache von diesem werden beispielsweise auf den anderen Teil desselben projiziert, der zum Wiedergeben eines zweiten Halbbildes verwendet wird. Für dasselbe Objekt 23 werden zwei Abbildungen, die das erste Halbbild und das zweite Halbbild wiedergeben, mit verschiedenen Mengen an Licht projiziert.
  • In diesem Ausführungsbeispiel werden normalerweise übernommene Bedingungen für die Abbildung (beispielsweise ist eine Vollbildabbildungsperiode 1/30 s und jede Halbbildperiode ist 1/60 s) erfüllt. Die relativen Durchlässigkeitseigenschaften der Filter Fa und Fb sind voneinander verschieden. Trotzdem können Abbildungen mit einem Belichtungswert projiziert werden, der zwischen ihnen deutlich unterschiedlich gemacht ist. Zum Projizieren von Bildern mit einem Belichtungswert, der zwischen ihnen deutlich unterschiedlich gemacht ist, sollten die Durchlässigkeitseigenschaften der Filter Fa und Fb nur voneinander verschieden sein.
  • Die Abbildung wird somit gesteuert. Wenn das Filter Fa im optischen Weg vorhanden ist, variiert folglich eine Menge an Licht, das durch das Filterelement 31 hindurchtritt (das heißt eine Menge an auf das CCD 228 einfallendem Licht) gemäß einer Kennlinie A in 36. wenn das Filter Fb im optischen Weg vorhanden ist, variiert eine Menge an Licht, das durch das Filterelement 231 hindurchtritt, gemäß einer Kennlinie B in 36.
  • Da die Abbildung somit gesteuert wird, wird ein Halbbildbeurteilungssignal (siehe 37A), das aus dem Signalgenerator 208 ausgegeben wird, welcher in die Bildverarbeitungseinheit 7 integriert ist, an die Motorsteuerschaltung 233 ausgegeben. Wie in 37B gezeigt, wird eine Steuerung vorgegeben, so dass das Filter A während einer ersten Halbbildperiode im optischen Weg liegt und das Filter Fb während einer zweiten Halbbildperiode in diesem liegt. Wie in 37C gezeigt, ist, wenn das Filter Fa im optischen Weg liegt, eine Menge an einfallendem Licht groß. Wenn das Filter Fb im optischen Weg liegt, ist eine Menge an einfallendem Licht kleiner.
  • Folglich werden verschiedene Bilder mit verschiedenen Mengen an Licht während der ersten und der zweiten Halbbildperiode projiziert.
  • Ein Signalverarbeitungssystem zum Anzeigen eines konstruierten Bildes auf der Bildanzeige 212 wie z. B. einem typischen TV-Monitor wird nachstehend beschrieben.
  • Abbildungssignale, die wie vorstehend erwähnt erzeugt werden, um Halbbilder wiederzugeben, werden von der Bildverarbeitungseinheit 207 verarbeitet. 38 zeigt eine Anordnung eines Videoprozessors 237A als praktisches Beispiel der Bildverarbeitungseinheit 207.
  • Ein CCD-Treiber 241 arbeitet synchron mit einem Taktsignal, das vom Taktgenerator 240 erzeugt wird. Der CCD-Treiber 241 legt ein CCD-Ansteuersignal an das CCD 228 am Beginn jeder Halbbildperiode an. Eine optische Abbildung, die auf die Abbildungsfläche des CCD 228 während jeder Halbbildperiode projiziert wird, wird photoelektrisch umgewandelt. Ladungen, die während einer Halbbildperiode gesammelt werden, um als Signal zu dienen, werden vom CCD 228 gelesen. Ein Ausgangssignal wird durch einen Vorverstärker 242 verstärkt und dann durch einen Prozessor-A/D-Wandler 243 geleitet. Eine Vorverarbeitung wie z. B. korrelative Doppelabtastung wird ausgeführt, um Signalkomponenten zu gewinnen. Das resultierende Signal wird dann digitalisiert.
  • Anschließend wird das Signal in eine Erweiterungseinheit 244 für den dynamischen Bereich eingegeben, die eine Verarbeitung für einen breiten dynamischen Bereich ausführt. Nachdem die Verarbeitung für den breiten dynamischen Bereich beendet ist, führt eine Farbtrenn- und Weißausgleichs- und AGC-Einheit 245 eine Farbtrennung, eine Weißausgleichseinstellung und eine AGC aus. Anschließend wird ein resultierendes Signal an einen externen Monitor oder dergleichen über einen D/A-Wandler-Nachprozessor 246 ausgegeben.
  • Die Farbtrenn- und Weißausgleichs- und AGC-Schaltung 245 weist einen Vollbildspeicher auf. Ein Halbbildsignal wird aus dem Vollbildspeicher beispielsweise gemäß dem Zeilensprungverfahren gelesen. In einer der Einheit 245 folgenden Stufe wird das Signal in ein analoges Signal umgewandelt und als zusammengesetztes Videosignal, das an das NTSC anpassbar ist, ausgegeben. Alternativ kann das Signal nicht als zusammengesetztes Videosignal, das an das NTSC anpassbar ist, ausgegeben werden, sondern kann als rote, grüne und blaue Signale ausgegeben werden.
  • 39 zeigt ein praktisches Beispiel der Erweiterungseinheit 244 für den dynamischen Bereich, die in 38 gezeigt ist. 40A bis 40G sind Ablaufdiagramme zum Erläutern der Wirkungen der in 39 gezeigten Erweiterungseinheit 244 für den dynamischen Bereich. Im übrigen bedeutet VD in 40 ein vertikales Synchronisationssignal.
  • Ein digitalisiertes Videosignal, das in die in 39 gezeigte Erweiterungseinheit 244 für den dynamischen Bereich eingegeben wird, wird in einen Vollbildspeicher 247 eingegeben. (In 40C und 40D bedeuten An und Bn Signale, die während einer ersten und einer zweiten Halbbildperiode der n-ten Vollbildperiode erzeugt werden.) Das Videosignal wird auch in einen ersten und einen zweiten Selektor 248a und 248b eingegeben.
  • Das in den Vollbildspeicher 247 eingegebene Videosignal wird in den ersten und den zweiten Selektor 248a und 248b auf einer Durchlauf-(FIFO)Basis eingegeben. Die Eingabe des Signals in den zweiten Selektor eilt nämlich um eine Halbbildperiode nach (siehe 40C und 40D). Mit anderen Worten, die Ausgabe des Signals aus dem zweiten Selektor eilt um eine Halbbildperiode nach. Das Signal wird daher synchron mit einem Signal, das ein anschließendes Halbbild wiedergibt ausgegeben.
  • Ein in 40B gezeigtes Halbbildbeurteilungssignal wird direkt in den ersten Selektor 248a eingegeben, aber in den zweiten Selektor 248b über eine Umkehrschaltung 249 eingegeben. Mit dem Halbbildbeurteilungssignal als Referenz wird eines von Signalen, die ein erstes und ein zweites Halbbild wiedergeben und in den Selektoren vorhanden sind, abgerufen.
  • Ein in den ersten Selektor 248a eingegebenes Signal wird an einen ersten Multiplizierer 250a ausgegeben. Auf eine erste und eine zweite Nachschlagetabelle (LUTs) 251a und 251b wird dann auf der Basis des Signals Bezug genommen. Das Signal wird dann mit geeigneten Funktionen gewichtet.
  • Die Funktionen sind beispielsweise wie in 40E und 40F gezeigt, wobei sich cos2(pB) in der ersten LUT 251a befindet und sin2(pB) in der zweiten LUT 251b befindet. Die Variable pB in der Funktion cos oder sin variiert mit einem Helligkeitspegel B eines Objekts im Bereich von 0 bis π/2, obwohl sie vom Parameter p zum Umwandeln eines Maßstabs in einen anderen abhängt. Hierin ist der Helligkeitspegel B zu einem Leuchtdichtepegel eines mit einer begrenzten Menge an einfallendem Licht zu erzeugenden Pixels äquivalent. Ein unter der Bedingung, dass eine Menge an einfallendem Licht begrenzt ist, erzeugtes Abbildungssignal wird verwendet. Dies liegt daran, dass, wenn ein Abbildungssignal, das unter irgendeiner anderen Bedingung erzeugt wird, verwendet wird, das Abbildungssignal einen Sättigungswert aufweisen kann. Somit wird das mit einer begrenzten Menge an einfallendem Licht erzeugte Abbildungssignal verwendet, um die Verwendung eines solchen Abbildungssignals mit einem Sättigungswert zu vermeiden.
  • cos(pB) ist eine Funktion, die relativ zu einem Helligkeitspegel eines Objekts monoton abnimmt. sin(pB) ist eine Funktion, die monoton zunimmt. Die Quadrate der Funktionen weisen die ähnlichen Eigenschaften auf. In diesem Fall ist die Summe der quadrierten Funktionen 1.
  • Signale, die durch Bezugnahme auf die erste und die zweite LUT 251a und 251b gewichtet werden, werden an den ersten und den zweiten Multiplizierer 250a und 250b ausgegeben. Die Signale werden dann mit Ausgangssignalen des ersten und des zweiten Selektors 248a und 248b multipliziert. Anschließend werden die Ausgangssignale des ersten und des zweiten Multiplizierers 250a und 250b durch einen Addierer 252 addiert. Ein resultierendes Signal wird aus der Erweiterungseinheit 244 für den dynamischen Bereich ausgegeben, wie in 40G gezeigt.
  • Wie vorstehend erwähnt, werden zwei Abbildungen, die ein Vollbild bilden und mit verschiedenen Mengen an Licht während zwei Halbbildperioden projiziert werden, miteinander synthetisiert, um eine Abbildung zu konstruieren, die das eine Vollbild wiedergibt. Ein Signal, das einen breiten dynamischen Bereich unter Beweis stellt, wird folglich erzeugt und an einen externen Monitor oder dergleichen über ein Verarbeitungssystem in einer nachfolgenden Stufe ausgegeben.
  • Wie vorstehend erwähnt, werden zwei Bilder auf die Abbildungsflächen des CCD 228 mit verschiedenen Mengen an Licht, die durch die Filter Fa und Fb festgelegt werden, während zwei Halbbildperioden projiziert, die zueinander identische Abbildungsperioden sind. Signale, die die Abbildungen darstellen, die mit den verschiedenen Mengen an Licht erzeugt werden, werden gewichtet und zu einem Bildsignal, das einen breiten dynamischen Bereich unter Beweis stellt, mittels eines Signalverarbeitungssystems mit dem Videoprozessor 327A synthetisiert. Das Bildsignal wird dann wieder zu einem Standardvideosignal zusammengesetzt. Schließlich wird ein Bild auf dem Bildanzeigemittel angezeigt.
  • Gemäß diesem Ausführungsbeispiel wird ein Abbildungsmittel mit einem Filtermittel in Kombination mit einer Bildverarbeitungseinheit verwendet. Folglich kann eine Endoskopabbildungsvorrichtung zum Konstruieren eines Bildes mit guter Qualität, das einen breiten dynamischen Bereich unter Beweis stellt, trotz der einfachen Anordnung realisiert werden.
  • Mit anderen Worten, gemäß einem Stand der Technik müssen zum Konstruieren eines synthetischen Bildsignals, das einen breiten dynamischen Bereich unter Beweis stellt, zwei Abbildungsperioden erheblich voneinander verschieden sein. Gemäß diesem Ausführungsbeispiel weisen die zwei Abbildungsperioden dieselbe Länge auf. Trotz des einfachen Signalverarbeitungssystems kann das synthetische Bildsignal so erzeugt werden, dass es für Rauschen oder eine Bewegung eines Objekts unanfällig ist. Mit anderen Worten, ein Ansichtsbild mit guter Qualität kann gemäß dem synthetischen Bildsignal, das einen breiten dynamischen Bereich unter Beweis stellt, angezeigt werden.
  • Gemäß diesem Ausführungsbeispiel stellt ein synthetisches Bildsignal einen breiten dynamischen Bereich unter Beweis. Daneben weist das synthetische Bildsignal eine Kennlinie auf, dass sich ein Leuchtdichtepegel oder eine Tönung, die in diesem erfasst werden, sanft ändert, während eine Änderung der Helligkeit eines Objekts widergespiegelt wird. Ein Bild, das eine feine Farbänderung eines Objekts widerspiegelt, ist daher zu sehen. Folglich kann ein Bild, das beim Auffinden einer Läsion in einer anfänglichen Stufe oder der korrekten Diagnose der Läsion hilfreich ist, dargestellt werden.
  • Zehntes Ausführungsbeispiel
  • Im neunten Ausführungsbeispiel werden ein Beleuchtungsmittel und ein Abbildungsmittel vom simultanen Typ bei der Farbabbildung unter Beleuchtung mit weißem Licht verwendet. Die Abbildung unter Verwendung eines Beleuchtungsmittels und Abbildungsmittels mit Zeitfolgeverfahren wird nachstehend beschrieben.
  • Eine Endoskopabbildungseinheit 240B, die in 41 gezeigt ist, ist von der in 34 gezeigten in einem nachstehend beschriebenen Punkt verschieden. Eine Lichtquelleneinheit 220', die in 41 gezeigt ist, ist nämlich durch Anordnen eines RGB-Drehfilters 234b, der durch einen Motor 234a gedreht werden soll, in einem optischen Weg des Beleuchtungslichts in der in 34 gezeigten Lichtquelleneinheit 220 konfiguriert.
  • Wie in 42 gezeigt, weist der RGB-Drehfilter 234b drei Sektorfenster auf, die in eine Scheibe gebohrt sind. Die Fenster sind mit roten, grünen und blauen Filtern 200R, 200G und 200B bedeckt, die Strahlen mit den Wellenlängen von Rot, Grün und Blau durchlassen. Das RGB-Drehfilter 234b wird durch den Motor 234a gedreht. Die Beleuchtungslichtstrahlen von Rot, Grün und Blau werden nacheinander zum Lichtleiter 218 geliefert und dann durch den Lichtleiter übertragen. Folglich wird das Objekt 223 mit den Lichtstrahlen von Rot, Grün und Blau im Zeitfolgeverfahren beleuchtet.
  • Überdies verwendet ein Kamerakopf 216', der in 41 gezeigt ist, ein monochromes CCD 228. Das monochrome CCD 228 weist nicht das Mosaikfilter 229 zum Trennen der Farbsignalkomponenten auf, das an der Abbildungsfläche des CCD 228 in dem in 34 gezeigten Kamerakopf 216 befestigt ist. Das Filterelement 231 ist gegen ein Filterelement 235, das in 43 gezeigt ist, ausgetauscht.
  • Insbesondere ist das radförmige Filterelement 235 an der Vorderfläche des CCD 228 angebracht. Das Filterelement 235 besteht aus insgesamt sechs Filtern Ra, Ga, Ba, Rb, Gb, und Bb oder drei Paaren von zwei Arten von Filtern, die für die drei Farben Rot, Grün und Blau vorgesehen sind.
  • 44 zeigt eine Anordnung eines Videoprozessors 237, der das vorangehende Zeitfolgeverfahren übernimmt. Die Verarbeitung, die in den Stufen, die der Erweiterungseinheit 244' für den dynamischen Bereich vorangehen, ausgeführt werden soll, ist zur Verarbeitung, die in den in 38 gezeigten Stufen ausgeführt werden soll, fast identisch. Ein Ausgangssignal der Erweiterungseinheit 244' für den dynamischen Bereich wird als rote, grüne und blaue Farbsignale über die D/A-Umwandlungsschaltungen 255R, 255G und 255B ausgegeben. Folglich werden die Signale Y/C und VBS über einen Codierer 256 ausgegeben.
  • In diesem Fall sind, wie in 43 gezeigt, das rote Filter Ra, das grüne Filter Ga, das blaue Filter Ba, das rote Filter Rb, das grüne Filter Gb und das blaue Filter Bb in dieser Reihenfolge angeordnet. Hierbei bieten das rote Filter Ra, das grüne Filter Ga und das blaue Filter Ba hohe Durchlässigkeiten. Das rote Filter Rb, das grüne Filter Gb, und das blaue Filter Bb bieten niedrige Durchlässigkeiten.
  • Mit anderen Worten, wie in 43 gezeigt, ist die Ra-Durchlässigkeit höher als die Rb-Durchlässigkeit, die Ga-Durchlässigkeit ist höher als die Gb-Durchlässigkeit und die Ba-Durchlässigkeit ist höher als die Bb-Durchlässigkeit.
  • 45a bis 45F sind erläuternde Diagramme, die die Wirkungen des Abbildungsmittels angeben. In diesem Fall werden Strahlen von Rot, Grün und Blau im Zeitfolgeverfahren nacheinander abgerufen. Rote, grüne und blaue Beurteilungssignale, die in 45A, 45B und 45C gezeigt sind, werden daher bei der Abbildung verwendet. Ein Halbbildbeurteilungssignal im Zeitfolgeverfahren, das in 45D gezeigt ist, wird auch verwendet.
  • Wie in 45E gezeigt, werden die Filter Ra, Ga und Ba nacheinander im optischen Weg während einer ersten Halbbildperiode angeordnet, während welcher das Halbbildbeurteilungssignal im Zeitfolgeverfahren hoch ist. Die Filter Rb, Gb und Bb werden nacheinander im optischen Weg während eines zweiten Halbbildes angeordnet, während dessen das Halbbildbeurteilungssignal im Zeitfolgeverfahren niedrig ist. Ein Belichtungswert wird so gesteuert, dass eine Menge an einfallendem Licht, wie in 45F gezeigt, zwischen der ersten und der zweiten Halbbildperiode verschieden ist.
  • Zum Abrufen eines roten Signals wird beispielsweise das rote Beurteilungssignal auf einen hohen Pegel gebracht und das Halbbildbeurteilungssignal im Zeitfolgeverfahren (nachstehend Halbbildsignal) wird auf einen hohen Pegel gebracht. Zu diesem Zeitpunkt wird das Filter Ra vor dem CCD 228 angeordnet. Wenn das rote Beurteilungssignal auf einen hohen Pegel gebracht wird und das Halbbildsignal auf einen niedrigen Pegel gebracht wird, wird das Filter Rb vor dem CCD 228 angeordnet.
  • Während der ersten Halbbildperiode kann eine größere Menge an Licht zum CCD 228 geleitet werden als während der zweiten Halbbildperiode.
  • Abbildungssignale, die während der ersten und der zweiten Halbbildperiode erzeugt werden, werden in den Videoprozessor 237B eingegeben, der als Bildverarbeitungseinheit dient. Eine gegebene Bildverarbeitung zum Erweitern eines dynamischen Bereichs wird dann an den Signalen durchgeführt. Diese führt zu einem roten Signal, das einen breiten dynamischen Bereich unter Beweis stellt. Überdies hängt das Verhältnis der Durchlässigkeit, die vom Filter Ra geboten wird, zu jener, die vom Filter Rb geboten wird, von einem Verwendungszweck ab. Ein beliebiges Verhältnis ist im Bereich von beispielsweise einem Verhältnis von 3 zu 1 bis zu einem Verhältnis von mehreren zehn zu 1 denkbar.
  • Dasselbe gilt für die grünen und blauen Signale. Grüne und blaue Signale, die einen breiten dynamischen Bereich unter Beweis stellen, können konstruiert werden. Wenn die roten, grünen und blauen Signale gemäß einem bekannten Verfahren codiert werden, kann ein Videosignal, das einen breiten dynamischen Bereich unter Beweis stellt, erzeugt werden.
  • Wie aus 45A bis 45F ersichtlich ist, wird das Filterelement 235 während einer Halbbildperiode eine Drehung durchführen.
  • Selbst in diesem Ausführungsbeispiel wird das Filterelement 235 zur Abbildung verwendet. Im Prinzip können Abbildungssignale mit einem Belichtungswert erzeugt werden, der zwischen ihnen ohne irgendeine Änderung zwischen den Abbildungsperioden verschieden ist.
  • In diesem Ausführungsbeispiel sind die Anordnung und die Wirkungen der Erweiterungseinheit 244' für den dynamischen Bereich, die in 44 gezeigt ist, von denjenigen, die in 38 gezeigt sind, verschieden. Dies liegt daran, dass ein Eingangssignal der Erweiterungseinheit 244' für den dynamischen Bereich in rote, grüne und blaue Signalkomponenten unterteilt ist. 46 zeigt die Anordnung der Erweiterungseinheit 244' für den dynamischen Bereich.
  • Ein digitales Videosignal, das in die Erweiterungseinheit 244' für den dynamischen Bereich eingegeben wird, enthält Signalkomponenten von roten, grünen und blauen Signalen, die ein erstes Halbbild wiedergeben, und jenen, die ein zweites Halbbild wiedergeben. Die roten, grünen und blauen Signale werden während einer Periode eingegeben, die mit einem Zyklus des Halbbildbeurteilungssignals im Zeitfolgeverfahren zusammenfällt.
  • Man nehme an, dass der Zyklus des Halbbildbeurteilungssignals im Zeitfolgeverfahren mit jenem des in 40B gezeigten Halbbildbeurteilungssignals übereinstimmt. In diesem Fall wird zum Trennen der roten, grünen und blauen Signalkomponenten vom Eingangssignal der Erweiterungseinheit 244' für den dynamischen Bereich nur ein Drittel einer Halbbildperiode zum Trennen jeder Signalkomponente verwendet.
  • Ein digitales Videosignal, das in die Erweiterungseinheit 244' für den dynamischen Bereich eingegeben wird, wird zuerst in einen Signalselektor-Interpolator 261 in der Erweiterungseinheit 244' für den dynamischen Bereich eingegeben. Jede Farbsignalkomponente des Videosignals wird decodiert und interpoliert, um den Zyklus jeder Farbsignalkomponente auf ein Dreifaches zu dehnen. Die resultierenden Farbsignale werden aus dem Signalselektor-Interpolator 261 ausgegeben.
  • Anschließend wird die in 39 und 40A bis 40G angegebene Signalverarbeitung ausgeführt, um rote, grüne und blaue digitale Signale zu erzeugen. 46 zeigt eine praktische Anordnung der Erweiterungseinheit 244' für den dynamischen Bereich zum Ausführen der Verarbeitung. 47A bis 47I sind erläuternde Diagramme, die schematisch Eingangssignale und Ausgangssignale des Signalselektor-Interpolators 261 zeigen.
  • Mit Bezug auf 46 wird beispielsweise ein rotes Signal, das aus dem Signalselektor-Interpolator 261 ausgegeben wird, in einen roten Vollbildspeicher 247R eingegeben. Das rote Signal wird auch in einen ersten und einen zweiten Selektor für Rot (roter erster SEL und roter zweiter SEL in 46) 248Ra und 248Rb eingegeben. Überdies wird ein Ausgangssignal des roten Vollbildspeichers 247R in den ersten und den zweiten Selektor für Rot 248Ra und 248Rb eingegeben.
  • Ein Halbbildbeurteilungssignal wird in den ersten und den zweiten Selektor für Rot 248Ra und 248Rb direkt und über eine Umkehrschaltung 249R eingegeben. Die Ausgangssignale des ersten und des zweiten Selektors für Rot 248Ra und 247Rb werden in Multiplizierer 250Ra und 250Rb eingegeben.
  • Überdies wird ein Ausgangssignal des ersten Selektors für Rot 248Ra in die erste und die zweite LUT 251Ra und 251Rb eingegeben. Die Ausgangssignale der ersten und der zweiten LUT 251Ra und 251Rb werden mit Ausgangssignalen des ersten und des zweiten Selektors für Rot 248Ra und 248Rb mittels der Multiplizierer 250Ra und 250Rb multipliziert. Die resultierenden Signale werden durch einen Addierer 252R addiert. Folglich wird ein digitales rotes Signal an eine nachfolgende Stufe ausgegeben.
  • Dieselben Schaltungselemente wie die vorstehend erwähnten sind für die anderen Farbsignale von Grün und Blau vorgesehen. Der Buchstabe R, der an die Bezugsziffern angehängt ist, die die Schaltungselemente bezeichnen, sollte nur gegen G oder B ausgetauscht werden. Auf die Beschreibung der Schaltungselemente, die die Buchstaben G und B tragen, wird verzichtet.
  • Die Schaltungselemente, die dem Signalselektor-Interpolator 261 in der Erweiterungseinheit 244 für den dynamischen Bereich folgen, werden durch Verdreifachen der Erweiterungseinheit 244 für den dynamischen Bereich in 39 in bezug auf die Farbsignalkomponenten realisiert.
  • Überdies trennt der Signalselektor-Interpolator die Farbsignalkomponenten, die nacheinander während der drei Teilperioden innerhalb jeder Periode, in der das Halbbildbeurteilungssignal im Zeitfolgeverfahren hoch oder niedrig ist, eingegeben werden. Der Signalselektor-Interpolator 261 dehnt dann die Zyklen der Farbsignalkomponenten in Dreifache und gibt dann resultierende Signale an den roten, den grünen und den blauen Vollbildspeicher über dessen rote, grüne und blaue Ausgangsanschlüsse aus.
  • Der dynamische Bereich für jedes Farbsignal wird dann erweitert, wie in 40A bis 40G angegeben, in derselben Weise wie jener, die durch die in 39 gezeigte Anordnung durchgeführt wird. (In diesem Fall wird zum Erzeugen eines roten Farbsignals das Vollbildspeicher-Eingangssignal, das in 40C gezeigt ist, als Eingangssignal des roten Vollbildspeichers betrachtet.)
  • In diesem Ausführungsbeispiel werden, wie in 45A bis 45C gezeigt, unabhängige Beurteilungssignale für die roten, grünen und blauen Signale verwendet. Die Verwendung der drei Farbsignale allein macht es jedoch möglich, unter den roten, grünen und blauen Signalen oder zwischen dem ersten und dem zweiten Halbbild zu unterscheiden. 48A bis 48E sind Ablaufdiagramme, die die Unterscheidung angeben.
  • In diesem Fall werden zwei Arten von Farbbeurteilungssignalen und ein Halbbildbeurteilungssignal im Zeitfolgeverfahren in Kombination verwendet, um eine Menge an Licht zu beurteilen, das auf ein Abbildungsbauelement einfällt, und unter roten, grünen und blauen Signalen zu unterscheiden.
  • Insbesondere wird mit Bezug auf 48A bis 48E, wenn das erste und das zweite Farbbeurteilungssignal C1 und C2 hoch bzw, niedrig sind, ein rotes Signal identifiziert. Wenn das erste und das zweite Farbbeurteilungssignal C1 und C2 niedrig bzw. hoch sind, wird ein grünes Signal identifiziert. Wenn das erste und das zweite Farbbeurteilungssignal C1 und C2 beide hoch sind, wird ein blaues Signal identifiziert. Das erste und das zweite Farbbeurteilungssignal werden in Kombination mit dem Halbbildbeurteilungssignal im Zeitfolgeverfahren verwendet, wobei folglich dieselbe Wirkung bereitgestellt wird wie das in Verbindung mit 45A bis 45F beschriebene praktische Beispiel.
  • Überdies können die zwei Farbbeurteilungssignale gegen die in 46 gezeigten roten, grünen und blauen Beurteilungssignale ausgetauscht werden. Trotzdem kann der Signalselektor-Interpolator 261 die Farbsignalkomponenten trennen und die Zyklen der Farbsignalkomponenten dehnen. Die dynamischen Bereiche für die Farbsignale können in einer nachfolgenden Stufe erweitert werden.
  • In diesem Fall ist ein verwendetes radförmiges Filterelement identisch zu dem in 43 gezeigten Filterelement 235. Überdies ist eine zweite Variante dieses Ausführungsbeispiels denkbar. In der zweiten Variante sind die Filter nicht in der Reihenfolge der Filter Ra, Ga, Ba, Rb, Gb und Bb angeordnet, sondern können in der Reihenfolge der Filter Ra, Rb, Ga, Gb, Ba und Bb angeordnet sein. Ein radförmiges Filterelement mit den so angeordneten Filtern wird nachstehend beschrieben.
  • 49 zeigt ein radförmiges Filterelement 235'.
  • 50A bis 50F sind Ablaufdiagramme, die die Wirkungen eines Abbildungsmittels mit dem Filterelement angeben. Da das Filterelement 235' Filter aufweist, die wie in 49 gezeigt angeordnet sind, werden im Gegensatz zu den Ablaufdiagrammen von 45A bis 45F zwei Farbsignale von Rot, Grün oder Blau, die ein erstes und ein zweites Halbbild wiedergeben, nacheinander erzeugt. Zwei Farbsignale werden in der Reihenfolge von Rot, Grün und Blau erzeugt. Danach wird ein Farbsignal von Rot, das ein erstes Halbbild wiedergibt, erzeugt. Diese Sequenz wird wiederholt.
  • Abgesehen von der Anordnung der Filter und der Zeitsteuerung der Signale ist die Abbildungssteuerung grundsätzlich zu der in 45A bis 45F angegebenen identisch. Die Einzelheiten der Abbildungssteuerung werden daher ausgelassen. Die Grundidee besteht darin, eine Abbildung, die ein erstes Halbbild wiedergibt, mit einer großen Menge an Licht, das auf die Abbildungsfläche einfällt, zu erzeugen, und eine Abbildung, die ein zweites Halbbild wiedergibt, mit einer kleinen Menge an einfallendem Licht zu erzeugen. Eine Abbildung, die einen breiten dynamischen Bereich unter Beweis stellt, wird folglich konstruiert.
  • Für ein besseres Verständnis der zweiten Variante stellen 50G und 50I, die Ablaufdiagramme sind, ein Beispiel der Abbildungssteuerung dar, die dieselbe Wirkung wie die Abbildungssteuerung ausübt, die von 45A bis 45D dargestellt wird. In diesem Beispiel werden die drei Beurteilungssignale, die in 48A bis 48C gezeigt sind, verwendet und das Filterelement 235', das in 49 gezeigt ist, wird verwendet.
  • Ein Blockdiagramm, das eine Grundanordnung zum Verarbeiten eines Signals unter Verwendung des Filterelements 235' zeigt, ist fast identisch zu jenem von 44 oder 46. Nur ein Unterschied in der Signalverarbeitung liegt darin, dass Abbildungen, die ein erstes Halbbild und ein zweites Halbbild wiedergeben, nacheinander auf die Abbildungsfläche in einer einzelnen Farbe projiziert werden. 51A bis 51I sind Ablaufdiagramme, die die Zeitsteuerung für die Abbildungssignale angeben.
  • In 51A bis 51I bedeutet Ron (wobei o für ungerade steht und n 0, 1, 2, 3 usw. ist) eine Komponente von jedem von roten, grünen und blauen Signalen, die ein erstes Halbbild (ungerades Halbbild) wiedergibt. Ren (wobei e für gerade steht und n 0, 1, 2, 3 usw. ist) bedeutet eine Komponente derselben, die ein zweites Halbbild (gerades Halbbild) wiedergibt.
  • In diesem Fall weist eine Erweiterungseinheit für den dynamischen Bereich eine Anordnung mit einem Signalselektor-Interpolator 261', der in 52 gezeigt ist, anstelle des Signalselektor-Interpolators 261, der in 46 gezeigt ist, auf.
  • Ein Videosignal wird in einen Decodierer 263 über einen Puffer 262 eingegeben. Ein Ausgangssignal des Decodierers 263 wird in Dehnschaltungen 264R, 264G und 264B für rote, grüne und blaue Signale eingegeben. Auf der Basis eines extern eingegebenen Steuersignals legt eine Decodierer-Dehnsteuerschaltung 265 ein Steuersignal zum Steuern des Codierers 263 und der roten, grünen und blauen Dehnschaltungen an.
  • Als Reaktion auf das Steuersignal wird das eingegebene Videosignal durch den Decodierer 263 decodiert. Nachdem es decodiert wurde, wird jedes der roten, grünen und blauen Farbsignale durch Interpolieren von Signalkomponenten, die während einer durch ein Halbbildsignal festgelegten Periode auftreten, gedehnt. Die resultierenden roten, grünen und blauen Signale, deren Zyklen gedehnt wurden, werden vorübergehend in den Vollbildspeichern 266R, 266G und 266B gespeichert und an eine nachfolgende Stufe nacheinander auf einer FIFO-Basis ausgegeben. Der Signalselektor-Interpolator 261' wird verwendet, um die dynamischen Bereiche zu erweitern, wie in 46 gezeigt.
  • Insbesondere werden die roten, grünen und blauen Signalkomponenten, wie vorstehend erwähnt, aus einem digitalen Videosignal gewonnen, das in den Signalselektor- Interpolator 261 eingegeben wird. Anschließend werden die Zyklen der roten, grünen und blauen Signale aufs Dreifache gedehnt, wie in 51A bis 51I angegeben. Die resultierenden Signale werden dann im roten, grünen und blauen Vollbildspeicher 247R, 247G und 247B gespeichert.
  • Die roten, grünen und blauen Signale, die aus den Vollbildspeichern ausgegeben werden, werden verarbeitet, um die dynamischen Bereiche zu erweitern, und dann an einen externen Monitor oder dergleichen über einen D/A-Wandler ausgegeben.
  • Gemäß diesem Ausführungsbeispiel und seinen Varianten wird ein Abbildungsbauelement, dessen Betriebsgeschwindigkeit niedrig ist, verwendet, um einen dynamischen Bereich in im Wesentlichen derselben Weise zu erweitern, als wenn ein Abbildungsbauelement vom simultanen Typ verwendet wird. Ein Abbildungsbauelement, dessen Betriebsgeschwindigkeit hoch ist, muss nicht beschafft werden.
  • Elftes Ausführungsbeispiel
  • Als nächstes wird das elfte Ausführungsbeispiel der vorliegenden Erfindung beschrieben. Dieses Ausführungsbeispiel verwendet eine Flüssigkristallvorrichtung als Belichtungswert-Steuervorrichtung. Die Flüssigkristallvorrichtung dieses Ausführungsbeispiels ist keine Vorrichtung mit der Fähigkeit einer Blende zum Umschalten der Durchlässigkeit und Nicht-Durchlässigkeit durch Ein- oder Ausschalten eines Steuersignals. Eine verwendete Vorrichtung ist durch Einschränken einer Menge an Licht, das auf ein Abbildungsbauelement einfällt, durch Streuen des einfallenden Lichts, wenn das Steuersignal eingeschaltet ist, gekennzeichnet.
  • 53 zeigt eine Anordnung eines Hauptteils einer Abbildungseinheit. Ein Kamerakopf 216B weist eine Flüssigkristallvorrichtung (LCD) 271 auf, die zwischen die Linse 227 und das CCD 228, das in 34 gezeigt ist, eingefügt ist. Die LCD 271 wird durch eine Flüssigkristallvorrichtungs-Ansteuereinheit (LCD-Ansteuerung) 272 gesteuert.
  • Ein Halbbildbeurteilungssignal wird in die LCD-Ansteuereinheit 272 eingegeben. Wie in 54A gezeigt, ist das Halbbildbeurteilungssignal beispielsweise während einer ersten Halbbildperiode (ungeraden Halbbildperiode) hoch. Zu diesem Zeitpunkt ist ein LCD-Ansteuersignal niedrig, wie in 54B gezeigt. Während einer zweiten Halbbildperiode (geraden Halbbildperiode), während der das Halbbildbeurteilungssignal niedrig ist, wird das LCD-Ansteuersignal auf einen hohen Pegel gebacht.
  • Wenn das LCD-Ansteuersignal auf einen hohen Pegel gebracht wird, wird die Durchlässigkeit der LCD gesenkt, wie in 54C gezeigt. Einfallendes Licht wird zum CCD 228 geleitet. Eine Abbildung wird mit einem gesenkten Belichtungswert erzeugt. Wenn das LCD-Ansteuersignal auf einen niedrigen Pegel gebracht wird, wird die Durchlässigkeit erhöht. Einfallendes Licht wird folglich zum CCD 228 geleitet. Eine Abbildung wird mit dem erhöhten Belichtungswert erzeugt.
  • Die LCD-Ansteuereinheit 272 ist im Kamerakopf 216B in 53 integriert. Zum kompakten Konstruieren des Kamerakopfs 216B, der eine Abbildungseinheit ist, kann die LCD-Ansteuereinheit in die Bildverarbeitungseinheit 207 integriert werden. In beiden Fällen weist die LCD-Ansteuereinheit 272 die Fähigkeit auf, die Wirkungen der LCD 271 zu steuern.
  • Auf der Basis eines eingegebenen Halbbildbeurteilungssignals erzeugt die LCD-Ansteuereinheit 272 ein LCD-Ansteuersignal mit einer zweckmäßigen Spannung zum Ansteuern eines Flüssigkristalls in der LCD 271. Das Signal wird an den Flüssigkristall angelegt, um die Orientierung von Flüssigkristallmolekülen zu steuern, wodurch eine Menge an Licht, das durch die LCD 271 durchgelassen wird, gesteuert wird.
  • Insbesondere wird zum Erzeugen einer Abbildung, die für verschmierte Weißung anfällig ist, eine niedrige Spannung an die LCD 271 angelegt, so dass die Flüssigkristallmoleküle in einer Richtung ausgerichtet werden, in der sich das einfallende Licht ausbreitet. Zum Erzeugen einer Abbildung, die für Schwärzung anfällig ist, wird eine hohe Spannung an die LCD 271 angelegt, so dass die Flüssigkristallmoleküle zur Richtung, in der sich das einfallende Licht ausbreitet, senkrecht sind.
  • In dieser Anordnung kann ein Signalverarbeitungssystem, das zu jenem des neunten Ausführungsbeispiels identisch ist, verwendet werden.
  • Wie vorstehend erwähnt, können beide Abbildungen, die für verschmierte Weißung und Schwärzung anfällig sind, erzeugt werden. Folglich kann eine Abbildung mit guter Qualität, die einen breiten dynamischen Bereich unter Beweis stellt, durch Festlegen von geeigneten Algorithmen in der Bildverarbeitungseinheit 7 konstruiert werden.
  • Gemäß diesem Ausführungsbeispiel ist das mechanisch bewegliche Merkmal, das im neunten Ausführungsbeispiel verwendet wird, unnötig. Trotzdem können im Wesentlichen dieselben Operationen und Vorteile wie jene des neunten Ausführungsbeispiels bereitgestellt werden.
  • Überdies kann eine Flüssigkristallvorrichtung (LCD) als fast perfekte Blende gemäß dem Ein- oder Auszustand eines Eingangssteuersignals funktionieren.
  • Eine Variante, die eine LCD verwendet, die als Blende funktioniert, wird beschrieben. In dieser Variante ist die Anordnung der LCD 271 und anderer in einer Abbildungseinheit zu der in 53 gezeigten identisch.
  • Wenn Signale angesteuert werden, wie in den Ablaufdiagrammen von 54A bis 54C angegeben, fällt während einer geraden Halbbildperiode kein Licht auf das CCD 228. Eine vollständig geschwärzte Abbildung allein wird erzeugt.
  • Während nur einer zweckmäßigen Teilperiode innerhalb der geraden Halbbildperiode wird die LCD 271 unterbrochen. Während der anderen Zeit wird die LCD 271 hergestellt. In dieser Weise wird beispielsweise anders als während einer geraden Halbbildperiode eine Menge an Licht, das auf die Abbildungsfläche des CCD 228 einfällt, während der geraden Halbbildperiode begrenzt. Folglich können dieselben Vorteile wie die von der Abbildungseinheit bereitgestellten, die in 53 gezeigt ist und deren Wirkungen in 54A bis 54C angegeben sind, bereitgestellt werden.
  • 55A bis 55C sind Ablaufdiagramme gemäß der Variante. In dieser Variante wird eine Menge an Licht, das auf das CCD 228 während einer geraden Halbbildperiode einfällt, auf eine Hälfte einer Menge an Licht festgelegt, das auf dieses während einer ungeraden Halbbildperiode einfällt. Eine Nicht-Durchlässigkeits-Periode (während der die Blende geschlossen ist) ist eine Hälfte ta der geraden Halbbildperiode tb. Alternativ kann die Nicht-Durchlässigkeits-Periode willkürlich gemäß dem Zustand eines abzubildenden Objekts oder einem Verwendungszweck festgelegt werden. Die Nicht-Durchlässigkeits-Periode kann beispielsweise auf ein verschiedenes Teilvielfaches der geraden Halbbildperiode oder mehrere Hunderte Teilvielfache davon festgelegt werden.
  • Selbst in dieser Variante wird das CCD-Ansteuersignal zum Ansteuern des CCD 228 einmal während jeder Halbbildperiode angesteuert, das heißt zweimal während einer Vollbildperiode, wie im ersten Ausführungsbeispiel.
  • Diese Variante stellt fast dieselben Vorteile bereit wie das zehnte Ausführungsbeispiel. Die Teilperiode innerhalb der geraden Halbbildperiode, während der das LCD-Ansteuersignal auf einen hohen Pegel gebracht wird, kann beispielsweise variabel sein. In diesem Fall kann das CCD-Ansteuersignal nicht verändert werden. Trotzdem können Abbildungen durch willkürliches Ändern des Verhältnisses eines Belichtungswerts für eine Abbildung zu jenem für eine andere Abbildung erzeugt werden.
  • Ein Helligkeitspegel eines Objekts wird beispielsweise erfasst. Wenn der Helligkeitspegel hoch ist, wird die Teilperiode innerhalb der geraden Halbbildperiode, während der das LCD-Ansteuersignal auf einen hohen Pegel gebracht wird, verkürzt, um eine Abbildung mit einem verringerten Belichtungswert zu erzeugen.
  • Die mit dem verringerten Belichtungswert erzeugte Abbildung und eine andere Abbildung werden miteinander synthetisiert. Eine resultierende Abbildung wird verarbeitet, um einen dynamischen Bereich zu erweitern. Selbst wenn ein Objekt einen hohen Helligkeitspegel aufweist, kann folglich ein Ansichtsbild, dessen Teil mit hohem Leuchtdichtepegel keinen Sättigungswert aufweist, konstruiert werden.
  • Zwölftes Ausführungsbeispiel
  • Als nächstes wird eine Endoskopabbildungsvorrichtung des zwölften Ausführungsbeispiels der vorliegenden Erfindung beschrieben.
  • Wie im neunten bis elften Ausführungsbeispiel dargestellt, wird zum Konstruieren einer Abbildung, die einen breiten dynamischen Bereich unter Beweis stellt, eine Menge an Licht, das auf das Abbildungsbauelement 206 einfällt, gesteuert. Somit werden eine Abbildung, die für verschmierte Weißung anfällig ist, und eine Abbildung, die für Schwärzung anfällig ist, erzeugt, um zwei Halbbilder wiederzugeben.
  • Wenn externes natürliches Licht unzureichend ist und wenn eine Abbildungsvorrichtung in Kombination mit beispielsweise einem Endoskop verwendet wird, muss im Allgemeinen eine Lichtquelleneinheit zusätzlich bereitgestellt werden, um eine erforderliche Menge an Licht sicherzustellen. In diesem Fall wird eine Menge an Licht, das an einem Beobachtungsobjekt reflektiert wird, durch eine Menge an Licht, das aus der Lichtquelleneinheit austritt, begrenzt. Wenn die Menge an Licht, das aus der Lichtquelleneinheit austritt, gesteuert werden kann, kann ein Belichtungswert (eine Menge an einfallendem Licht) gemäß einem Verfahren gesteuert werden, das von demjenigen, das im neunten Ausführungsbeispiel bis dreizehnten Ausführungsbeispiel aufgegriffen wird, verschieden ist. Durch zweckmäßiges Steuern der Zeitsteuerung können eine Abbildung, die für verschmierte Weißung anfällig ist, und eine Abbildung, die für Schwärzung anfällig ist, erzeugt werden. Dieses Ausführungsbeispiel greift diese Idee auf.
  • Das neunte Ausführungsbeispiel bis elfte Ausführungsbeispiel können an eine Abbildungsvorrichtung angepasst werden, die keine Lichtquelleneinheit umfasst. Mit anderen Worten, das neunte bis elfte Ausführungsbeispiel können an eine Abbildungsvorrichtung angepasst werden, die nicht immer eine Lichtquelleneinheit erfordert, wie z. B. eine Videokamera.
  • 56 zeigt schematisch eine Anordnung einer Endoskopabbildungsvorrichtung 274 des zwölften Ausführungsbeispiels. Die Endoskopabbildungsvorrichtung 274 weist eine Abbildungseinheit 204' auf, die nicht das Belichtungswert-Steuermittel 205 umfasst, das in der Abbildungseinheit 204 enthalten ist, die in 33 gezeigt ist. Statt dessen ist ein Mittel 277 zum Steuern einer Menge an emittiertem Licht in einer Lichtquelleneinheit 276 mit einem Lichtemissionsmittel 275, das in diese integriert ist, enthalten. Eine Menge an emittiertem Licht, das über den optischen Weg 203 durch einen Lichtleiter 278 übertragen wird, um das Beobachtungsobjekt 202 zu beleuchten, wird dann gesteuert.
  • Überdies weist eine Bildverarbeitungseinheit 207' eine Lichteinstellschaltung 279 auf, die zwischen die Bildverarbeitungsschaltung 210 und den Signalgenerator 208 eingefügt ist, die in der Bildverarbeitungseinheit 207 enthalten sind, die in 33 gezeigt ist. Ein Signal, das von der Bildverarbeitungsschaltung 210 gesandt wird, welche ein aus dem Abbildungsbauelement 206 ausgegebenes Abbildungssignal verarbeitet, wird in die Lichteinstellschaltung 279 eingegeben. Ein Steuersignal wird dann erzeugt, um das Lichtemissionsmittel 275 zu steuern. Überdies wird gemäß diesem Ausführungsbeispiel ein Halbbildbeurteilungssignal, das vom Signalgenerator 208 erzeugt wird, in das Mittel 277 zum Steuern der Menge an emittiertem Licht eingegeben.
  • 57A zeigt eine Anordnung der Lichtquelleneinheit 276. Eine Lampe 281 ist mit einer Stromversorgung 282 und einer Lichtemissions-Steuerschaltung 283 verbunden. Die Lampe 281 wird folglich gesteuert, um eine gegebene Menge an Licht zu emittieren. Ein scheibenartiges Filterelement 284 befindet sich in einem optischen Weg des Beleuchtungslichts vor der Lampe 281. Das Filterelement 284 weist ein axiales Element auf, das an dessen Mitte befestigt ist. Das axiale Element ist mit einer Drehachse eines Motors 286 gekoppelt, der sich mit einem Motorantriebssignal dreht, welches von einer Motorantriebs-Steuerschaltung 285 gesandt wird. Das Filterelement 284 wird daher angetrieben, um sich zusammen mit dem Motor 286 zu drehen.
  • Die Motorantriebs-Steuerschaltung 285 wird durch die Stromversorgung 282 gespeist. Ein Halbbildbeurteilungssignal wird von der Bildverarbeitungseinheit 207' gesandt und dann in die Motorantriebs-Steuerschaltung 285 eingegeben. Die Motorantriebs-Steuerschaltung 285 treibt den Motor 286 zu einer Drehung synchron mit dem Signal an. Überdies ist die Stromversorgung 282 in das öffentliche Netz oder eine externe Stromquelle eingesteckt. Überdies wird ein Steuersignal, das von der Lichteinstellschaltung 279 in der Bildverarbeitungseinheit 207' gesandt wird, in die Lichtemissions-Steuerschaltung 283 eingegeben.
  • Das Filterelement 284 besteht, wie in 57B gezeigt, aus Filtern Fa und Fb, die verschiedene Durchlässigkeiten bieten. Die Durchlässigkeit des Filters Fb ist beispielsweise auf ein Drittel der Durchlässigkeit des Filters Fa festgelegt.
  • Die anderen Komponenten sind fast identisch zu jenen des neunten Ausführungsbeispiels.
  • In diesem Ausführungsbeispiel wird der Motor 286 synchron mit einem in 58A gezeigten Halbbildbeurteilungssignal gedreht. Die Filter Fa und Fb werden, wie in 58B gezeigt, abwechselnd in den optischen Weg des Beleuchtungslichts vor der Lampe 281 während jeweiliger Halbbildperioden eingefügt.
  • Wenn das Filter Fa im optischen Weg angeordnet ist, nimmt eine Menge an Licht, das von der Lampe 281 in der Lichtquelleneinheit 276 emittiert wird, zu, wie in 58C gezeigt (die Menge an emittiertem Licht ist groß). Wenn das Filter Fb im optischen Weg angeordnet ist, nimmt die Menge an Licht, das von der Lampe 281 in der Lichtquelleneinheit 276 emittiert wird, ab (die Menge an emittiertem Licht ist klein).
  • Die Menge an emittiertem Licht wird somit so festgelegt, dass sie zwischen zwei Halbbildperioden unterschiedlich ist. Das Beobachtungsobjekt 202 wird daher mit einer Menge an Licht beleuchtet, die zwischen den zwei Halbbildperioden unterschiedlich ist. Eine Menge an Licht, das an dem Beobachtungsobjekt 202 reflektiert und auf das Abbildungsbauelement 206 fällt, wird zwischen den zwei Halbbildperioden unterschiedlich.
  • Gemäß diesem Ausführungsbeispiel wird eine Menge an Beleuchtungslicht gesteuert, um eine Menge an Licht zu steuern, die auf das Abbildungsbauelement 206 einfällt.
  • Gemäß diesem Ausführungsbeispiel integriert die Lichteinstellschaltung 279 überdies Komponenten eines Leuchtdichtesignals, die von der Bildverarbeitungseinheit 210 gesandt werden, beispielsweise während einer Vollbildperiode, und erfasst somit einen mittleren Leuchtdichtepegel. Der mittlere Leuchtdichtepegel wird mit einem Standard-Leuchtdichtepegel verglichen. Ein Fehlersignal, das auf einen Fehler vom Standard-Leuchtdichtepegel hinweist, wird als Steuersignal, welches zum Einstellen des Lichts verwendet wird, an die Lichtemissions-Steuerschaltung 283 ausgegeben. Die Lichtemissions-Steuerschaltung 283 steuert dann beispielsweise eine Menge an Licht, das aus der Lampe 281 emittiert wird.
  • Der mittlere Leuchtdichtepegel, der durch Integrieren der Komponenten des gesandten Leuchtdichtesignals während einer Vollbildperiode berechnet wird, kann niedriger sein als der Standard-Leuchtdichtepegel. In diesem Fall wird ein Steuersignal, das zu einem Fehler vom Standard-Leuchtdichtepegel proportional ist, in die Lichtemissions-Steuerschaltung 83 eingegeben. Eine Steuerung wird folglich gegeben, um einen Glimmstrom zu erhöhen, der von der Lichtemissions-Steuerschaltung 283 zur Lampe 281 geliefert werden soll.
  • Infolge der Steuerung wird der mittlere Leuchtdichtepegel an den Standardwert angenähert. Folglich kann ein Ansichtsbild, das sich zur Beobachtung eignet, konstruiert werden.
  • Die Lichteinstellschaltung 279 steuert überdies eine AGC-Schaltung in der Bildverarbeitungsschaltung 210 hinsichtlich einer Verstärkungsregelung. Die AGC-Schaltung kann beispielsweise eine Verstärkung regeln, um einen Leuchtdichtepegel zu erreichen, der sich zur vorübergehenden Beobachtung (schnell) eignet. Anschließend wird eine Steuerung gegeben, um Licht langsam zu emittieren, um eine Lichtmenge zu erreichen, die sich zur Beobachtung eignet. Folglich bringt die AGC-Schaltung eine Verstärkung auf einen stationären Wert zurück.
  • 59 zeigt eine Anordnung einer Lichtquelleneinheit 287' einer Variante. Die Lichtquelleneinheit 276' weist eine Flüssigkristallvorrichtung (LCD) 288 auf, die vor der Lampe 281, die in 57A gezeigt ist, stationiert ist. Die LCD 288 wird durch eine LCD-Ansteuereinheit 289 gesteuert. Die anderen Komponenten sind zu den in 57A gezeigten identisch. Die LCD 288 wird gemäß der Zeitsteuerung angesteuert, die in 54A bis 54C oder 55A bis 55C angegeben ist.
  • Überdies sind die Operationen und Vorteile dieser Variante fast dieselben wie jene des zwölften Ausführungsbeispiels.
  • Dreizehntes Ausführungsbeispiel
  • Als nächstes wird das dreizehnte Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
  • Im zwölften Ausführungsbeispiel befindet sich das Mittel 277 zum Steuern der Menge an emittiertem Licht vor dem Lichtemissionsmittel in der Lichtquelleneinheit 276. Als weiteres Verfahren zum Steuern einer Menge an emittiertem Licht ist ein Verfahren zum Steuern einer Menge an emittiertem Licht durch Steuern einer Menge an Licht, das aus dem Lichtemissionsmittel austritt, denkbar.
  • Bei diesem Verfahren wird eine Menge an Licht, das aus einem Lichtemitter austritt, gemäß einer willkürlichen Zeitsteuerung gesteuert. Zum Erzeugen einer Abbildung, die für verschmierte Weißung anfällig ist, läßt man den Lichtemitter vollständig leuchten. Zum Erzeugen einer Abbildung, die für Schwärzung anfällig ist, wird der Lichtemitter gesteuert, damit er minimal leuchtet. Die Zeitsteuerung des Schaltens von Mengen von emittiertem Licht wird mit der Zeitsteuerung des Schaltens von Halbbildern, die ein Anzeigebild bilden, synchronisiert. Folglich können eine Abbildung, die für verschmierte Weißung anfällig ist, und eine Abbildung, die für Schwärzung anfällig ist, erzeugt werden, um die Halbbilder wiederzugeben. Wenn ein Algorithmus, der in der Bildverarbeitungseinheit festgelegt ist, optimiert wird, kann ein Bild, das einen breiten dynamischen Bereich unter Beweis stellt, bereitgestellt werden.
  • Ein Bewegungsbild ist überdies nicht immer zur Bildbeobachtung erforderlich. Wenn beispielsweise eine Photographie ausgeführt wird, kann ein Standbild erforderlich sein. Im Fall des Standbildes ist ein Bild, das einen breiten dynamischen Bereich unter Beweis stellt, häufig nicht erforderlich. Ein zu photographierender Bereich sollte nur beleuchtet werden, um einen zur Photographie geeigneten Helligkeitspegel zu erreichen. Selbst wenn der andere Bereich kaum zu sehen wird, tritt kein Problem auf. Bei einer solchen Gelegenheit genügt ein Bild, das keinen breiten dynamischen Bereich unter Beweis stellt. Eine weitere Betriebsart wird daher festgelegt, so dass ein Bild in der Betriebsart (innerhalb weiterlaufender normaler Bildschirmpegel) anstelle einer Betriebsart mit breitem dynamischen Bereich angezeigt werden kann. Wenn die Betriebsarten so umgeschaltet werden können, kann einem Betrachter ein beliebiges, welches auch immer eines Bewegungsbildes und eines Standbildes, das zur Beobachtung geeignet ist, präsentiert werden.
  • Gemäß diesem Ausführungsbeispiel wird verursacht, dass das Lichtemissionsmittel 275 in der Lichtquelleneinheit 276 im zwölften Ausführungsbeispiel gepulstes Licht emittiert. Eine Menge an Licht wird somit in Abhängigkeit von einem Halbbild verändert. Die Abbildung wird in diesem Zustand ausgeführt. 60 zeigt eine Anordnung einer Endoskopabbildungsvorrichtung 290 des dreizehnten Ausführungsbeispiels.
  • Ein Kamerakopf 293, der als Abbildungseinheit dient, ist an einem optischen Endoskop 292 mit einem optischen Beobachtungssystem 291 montiert. Ein Ausgangssignal des Abbildungsbauelements 206 im Kamerakopf 293 wird in eine Bildverarbeitungseinheit 207'' eingegeben. Die Bildverarbeitungseinheit 207'' weist eine Lichteinstell- und Lichtemissions-Signalkorrekturschaltung 279' auf, die die Lichteinstellschaltung 279 in der Bildverarbeitungseinheit 207', die in 56 gezeigt ist, ersetzt.
  • Die Lichteinstell- und Lichtemissions-Signalkorrekturschaltung 279' weist nicht nur die Fähigkeit der Lichteinstellschaltung 279, sondern auch die Fähigkeit auf, ein Leuchtsignal zu korrigieren, wie später erwähnt.
  • Ein Lichtleiter 294 im optischen Endoskop 292 ist mit einer Lichtquelleneinheit 295 durch ein Lichtleiterkabel 278 gekoppelt. Eine Lampe 296 dient als Lichtemissionsmittel und ist in der Lichtquelleneinheit 295 enthalten. Die Lampe 296 wird durch eine Lichtemissions-Ansteuereinheit 297 zum Leuchten angesteuert. Die Lichtemissions-Ansteuereinheit 297 wird durch eine Lichtemissions-Steuerschaltung 298 gesteuert.
  • Die Lichtemissions-Steuerschaltung 298 verwendet die Lichtemissions-Ansteuereinheit 297 zum Steuern der Lichtemission der Lampe 296 gemäß einem Halbbildbeurteilungssignal, das vom Signalgenerator 208 gesandt wird, und einem Lichtemissions-Zeitsteuersignal. Die anderen Komponenten sind zu den in 22 gezeigten identisch. Auf die Beschreibung der Komponenten wird verzichtet.
  • Als nächstes werden die Wirkungen dieses Ausführungsbeispiels mit Bezug auf die Ablaufdiagramme von 61A bis 61D beschrieben. Die Lampe, die in diesem Ausführungsbeispiel als Lichtemissionsmittel dient, leuchtet, um eine Art gepulstes Licht zu emittieren.
  • Ein praktisches Beispiel dieses Ausführungsbeispiels wird unter der Annahme beschrieben, dass die Frequenz, mit der bewirkt wird, dass die Lampe 296 während einer Halbbildperiode leuchtet, verändert wird.
  • Der Signalgenerator 208 in der Bildverarbeitungseinheit 207' erzeugt ein pulsierendes Lichtemissions-Zeitsteuersignal, das in 61B gezeigt ist, gemäß einem in 61A gezeigten Halbbildbeurteilungssignal. Das Lichtemissions-Zeitsteuersignal, das vom Signalgenerator 208 erzeugt wird, wird an die Lichtemissions-Steuerschaltung 298 in der Lichtquelleneinheit 295 ausgegeben.
  • Die Lichtemissions-Steuerschaltung 298 in der Lichtquelleneinheit 295 gibt ein Lichtemitter-Steuersignal aus. Das Lichtemittier-Steuersignal bewirkt, dass die Lampe, die eine Lichtquelle ist, sofort an der Vorderflanke des Lichtemissions-Zeitsteuersignals leuchtet. Mit dem Lichtemittier-Steuersignal wird die Lampe 296 mittels der Lichtemissions-Ansteuereinheit 297 zum Leuchten angesteuert.
  • In dem in 61C gezeigten praktischen Beispiel werden drei Impulse des Lichtemissions-Zeitsteuersignals während einer ersten Halbbildperiode (ungeraden Halbbildperiode) erzeugt. Ein Impuls davon wird während einer zweiten Halbbildperiode erzeugt.
  • Wenn die Leuchteigenschaft der Lampe 296 verwendet wird, variiert eine Menge an emittiertem Licht, wie in 61C gezeigt. Wenn die Menge an emittiertem Licht, die von Halbbild zu Halbbild variiert, gemittelt wird, variiert sie, wie in 61D gezeigt. Eine Menge an Beleuchtungslicht, mit dem das Beobachtungsobjekt 202 bestrahlt werden soll, unterscheidet sich in der mittleren Menge an Licht von Halbbild zu Halbbild. In diesem Zustand wird eine Objektabbildung durch das Abbildungsbauelement während jeder Halbbildperiode erzeugt. Folglich wird eine Abbildung, die für verschmierte Weißung anfällig ist, während einer ersten Halbbildperiode erzeugt und eine Abbildung, die für Schwärzung anfällig ist, wird während einer zweiten Halbbildperiode erzeugt.
  • Zwei so erzeugte Abbildungen werden durch die Erweiterungseinheit 244 für den dynamischen Bereich, die in 7 gezeigt ist, miteinander synthetisiert. Dies führt zu einer Abbildung, die einen breiten dynamischen Bereich unter Beweis stellt. In Abhängigkeit von den Eigenschaften einer Lampe kann eine Zeitverzögerung bestehen, nachdem ein Signal, das die Lampe auffordert zu leuchten, aus der Lichtemissions-Steuerschaltung ausgegeben wird, bis die Lampe zum vollen Leuchten kommt. In diesem Fall wird keine zweckmäßige Menge an Licht auf ein Beobachtungsobjekt während des Zeitintervalls, bis die Lampe zum vollen Leuchten kommt, abgestrahlt.
  • In dem praktischen Beispiel kann keine zweckmäßige Menge an Licht auf ein Beobachtungsobjekt für eine gewisse Zeit abgestrahlt werden, nachdem eine horizontale Abtastung zum Wiedergeben eines ersten Halbbildes begonnen wird. Während des Zeitintervalls wird ein oberer Teil eines Anzeigebereichs auf einem typischen TV-Monitor über ein oberes Viertel des Anzeigebereichs auf diesem hinaus abgetastet, um 31 bis 71 horizontale Abtastzeilen zu zeichnen. Eine korrekte Menge an Licht kann jedoch nicht auf ein Beobachtungsobjekt während des Zeitintervalls abgestrahlt werden. Eine Abbildung, die einen breiten dynamischen Bereich unter Beweis stellt, kann daher nicht in dem Teil des Anzeigebereichs auf dem typischen TV-Monitor angezeigt werden.
  • Um mit dem vorangehenden Nachteil fertig zu werden, werden ein Halbbildbeurteilungssignal und ein Abbildungssignal in die Lichteinstell- und Lichtemissions-Signalkorrekturschaltung 279' in der Bildverarbeitungseinheit 207'' eingegeben. Für jede horizontale Abtastzeile wird ein Leuchtdichtepegel mit einem Leuchtdichtepegel verglichen, der durch eine Signalkomponente angegeben wird, die die vorherige horizontale Abtastzeile wiedergibt. Wenn ein deutlicher Unterschied zwischen den Leuchtdichtepegeln besteht, wird ein Lichtemissions-Zeitsteuersignal, das dem Halbbildbeurteilungssignal geringfügig voreilt, erzeugt, um die vorangehende Zeitverzögerung zu absorbieren. Die Zeitverzögerung tritt nämlich aufgrund der Eigenschaft einer Lampe, wenn die Lampe angesteuert wird, auf.
  • Wenn ein Mittel zum Steuern der Menge an emittiertem Licht in der Lichtquelleneinheit 295 nur gemäß einem Halbbildbeurteilungssignal angesteuert wird, kann überdies eine zweckmäßige Menge an Licht nicht vollständig auf ein Beobachtungsobjekt abgestrahlt werden. In Abhängigkeit von der Eigenschaft eines Lichtemissionsmittels kann es zu viel Zeit brauchen, bis das Lichtemissionsmittel, beispielsweise eine Lampe, zum vollständigen Leuchten kommt, nachdem es angesteuert wird. Bei einer solchen Gelegenheit kann eine ausreichende Menge an Licht, die zur Beobachtung erforderlich ist, nicht erhalten werden.
  • Eine Menge an Licht, das von der Lichtquelleneinheit 295 emittiert wird, muss zur Beobachtung ausreichend und zweckmäßig sein. Für diesen Zweck ist eine Glimmsignal-Korrekturschaltung in der Bildverarbeitungseinheit 107'' enthalten. Die Glimmsignal-Korrekturschaltung korrigiert ein Steuersignal, das aus der Bildverarbeitungseinheit 207'' an die Lichtquelleneinheit 295 ausgegeben wird, gemäß einer Abbildungsinformation, die aus dem Abbildungsbauelement 206 ausgegeben wird. Die Abbildung kann folglich durch das Abbildungsbauelement 206 so durchgeführt werden, dass die Zeitsteuerung der Abbildung immer an eine Menge an Licht, das von der Lichtquelleneinheit 295 emittiert wird, angeglichen wird.
  • Ein Verfahren zum Erzeugen eines Bildsignals, das an einen TV-Monitor oder dergleichen ausgegeben werden soll, ist zu dem im neunten Ausführungsbeispiel verwendeten identisch.
  • Gemäß diesem Ausführungsbeispiel kann überdies ein Einfrierschalter, der nicht dargestellt ist, enthalten sein. Der Einfrierschalter wird verwendet, um ein Schreibsperrsignal zu einem Vollbildspeicher in der Farbtrenn- und Weißausgleichs- und AGC-Schaltung 245, die beispielsweise in 38 gezeigt ist, zu senden. Eine Abbildung, deren Daten unmittelbar vorher geschrieben wurden, werden wiederholt ausgegeben. Die Abbildung wird dann auf einem Bildanzeigemittel wie z. B. einem TV-Monitor angezeigt.
  • Überdies wurde bei diesem Ausführungsbeispiel beschrieben, dass die Lichtemissions-Steuerschaltung 298 ermöglicht, dass die Lampe als Reaktion auf ein Lichtemissions-Zeitsteuersignal, das vom Signalgenerator 208 erzeugt wird, leuchtet. Alternativ kann die Anzahl von gepulsten Lichtstrahlen, die emittiert werden sollen, manuell festgelegt werden können. In diesem Fall sollte die Anzahl von zu emittierenden gepulsten Lichtstrahlen für jede der zwei Halbbildperioden festgelegt werden können. In einem speziellen Beispiel oder einer speziellen Betriebsart kann die Anzahl von gepulsten Lichtstrahlen, die während der zwei Halbbildperioden emittiert werden sollen, auf denselben Wert gesetzt werden. Mit anderen Worten, die Mengen an Licht, das während der zwei Halbbildperioden emittiert werden soll, können auf denselben Wert gesetzt werden. Ein dynamischer Bereich wird in dieser Betriebsart nicht erweitert.
  • Ein DIP-Schalter, der aus einer Vielzahl von Schaltelementen besteht, kann beispielsweise verwendet werden, um eine Vielzahl von digitalen Signalen als gepulstes Lichtbefehlssignal in den Signalgenerator 208 einzugeben. Der Signalgenerator 208 gibt dann ein Lichtemissions-Zeitsteuersignal an die Lichtemissions-Steuerschaltung 298 gemäß der Zeitsteuerung aus, die durch die Anzahl von Impulsen des gepulsten Lichtbefehlssignals festgelegt wird.
  • Wenn beispielsweise ein erwähnenswerter Teil eines zu beobachtenden Objekts in einem Standbild auf einen Helligkeitswert gesetzt werden muss, der eine leichte Beobachtung ermöglicht, kann er in einer Betriebsart mit breitem dynamischen Bereich beobachtet werden. Wenn jedoch eine Änderung des Helligkeitspegels des Teils in der Betriebsart mit breitem dynamischen Bereich unterdrückt wird, kann ein Betrachter eine Menge an emittiertem Licht, die sich zur Beobachtung eignet, manuell festlegen. Ein zweckmäßiges Ansichtsbild kann folglich konstruiert werden.
  • Das Verfahren zum manuellen Befehlen der Anzahl von zu emittierenden gepulsten Lichtstrahlen kann nicht übernommen werden. Statt dessen kann ein Befehlssignal, das eine Zunahme oder Abnahme einer aktuellen Anzahl von gepulsten Lichtstrahlen befiehlt, manuell in den Signalgenerator 208 eingegeben werden. Ein Lichtemissions-Zeitsteuersignal kann dann an die Lichtemissions-Steuerschaltung 298 gemäß dem Befehlssignal ausgegeben werden.
  • Gemäß diesem Ausführungsbeispiel können dieselben Vorteile wie jene des zwölften Ausführungsbeispiels bereitgestellt werden. Ob ein Bewegungsbild oder ein Standbild erforderlich ist, kann überdies ein mit dem zweckmäßigen Belichtungswert erzeugtes Bild für einen Betrachter bereitgestellt werden.
  • Gemäß dem in diesem Ausführungsbeispiel verwendeten Abbildungsverfahren kann ähnlich zu dem im zehnten Ausführungsbeispiel verwendeten ein radförmiges (scheibenförmiges) Farbfilter an der Vorderfläche des Abbildungsbauelements angebracht sein.
  • Ein Belichtungswert wird gemäß einem Verfahren zum Unterscheiden unter den Durchlässigkeiten von Filtern von drei Primärfarben, die das radförmige Farbfilter bilden, gesteuert. Ansonsten kann ein Verfahren zum Unterscheiden der Durchlässigkeit von einem Filter von den Durchlässigkeiten der anderen zwei Filter zum Steuern eines Belichtungswerts übernommen werden. Somit kann ein Bild, das einen breiten dynamischen Bereich unter Beweis stellt, bereitgestellt werden.
  • Die Anzahl von Farbfiltern, die ein Filter bilden, ist überdies drei. Alternativ können zwei Arten von Farbfiltern, die verschiedene Durchlässigkeiten bieten, für jede Farbe von drei Primärfarben bereitgestellt werden. Rote, grüne und blaue Farbfilter, die hohe Durchlässigkeiten bieten, und rote, grüne und blaue Farbfilter, die niedrige Durchlässigkeiten bieten, können dann in gleichen Abständen auf einem radförmigen Element angeordnet werden. Eine Abbildung, die für verschmierte Weißung anfällig ist, und eine Abbildung, die für Schwärzung anfällig ist, werden für jede der drei Primärfarben durch das Abbildungsbauelement erzeugt. Anschließend wird dem vorstehend genannten Verfahren gefolgt und eine Abbildung, die einen breiten dynamischen Bereich unter Beweis stellt, wird konstruiert.
  • Infolge der vorstehend genannten Anordnung kann für einen Benutzer ein Bild, das einen breiten dynamischen Bereich unter Beweis stellt, bereitgestellt werden. Dies bedeutet, dass ein Bild, das beim Beobachten eines Objekts hilfreich ist, über einen ganzen Bildschirm angezeigt werden kann. Schließlich kann eine Behandlung oder dergleichen dementsprechend ausgeführt werden.
  • Abbildungsbetriebsarten können gemäß einem auf einer Bildanzeige anzuzeigenden Bild überdies verändert werden.
  • Somit kann ein Bild, das beim Beobachten eines Objekts hilfreich ist, für einen Betrachter bereitgestellt werden.
  • Wie vorstehend beschrieben, wird gemäß dem neunten bis dreizehnten Ausführungsbeispiel eine Endoskopabbildungsvorrichtung bereitgestellt, die aus folgendem besteht: einer Abbildungseinheit mit einem Abbildungsbauelement, das Licht empfängt, das von einem Beobachtungsobjekt empfangen wird, und eine Abbildung des Beobachtungsobjekts während einer ersten und einer zweiten Abbildungsperiode erzeugt, und die in ein Endoskop integriert ist; einer Bildverarbeitungseinheit zum Verarbeiten von Signalen, die eine erste und eine zweite Abbildung darstellen, die während der ersten und der zweiten Abbildungsperiode erzeugt werden, und zum Konstruieren von einer synthetischen Abbildung, die einen erweiterten dynamischen Bereich unter Beweis stellt, durch Synthetisieren der ersten und der zweiten Abbildung; und einem Anzeigemittel zum Anzeigen der synthetischen Abbildung.
  • Ein Mittel zum Steuern der Menge an einfallendem Licht ist zum Steuern einer Menge an Licht, das auf das Abbildungsbauelement während zumindest einer der ersten und der zweiten Abbildungsperiode einfällt, enthalten. Die Menge an einfallendem Licht wird so gesteuert, dass sie von einer Abbildungsperiode zur anderen unterschiedlich ist. Die Abbildungsperioden müssen daher nicht auf voneinander erheblich verschiedene Längen festgelegt werden. Nur durch Steuern der Menge an Licht, das auf das Abbildungsbauelement einfällt, kann eine Abbildung, die einen breiten dynamischen Bereich unter Beweis stellt, unter Verwendung von Abbildungen konstruiert werden, die mit verschiedenen Lichtmengen erzeugt werden. Überdies ist das Betrachtungsbild gegen Rauschen unanfällig und weist eine gute Bildqualität auf.
  • Im übrigen können die vorstehend genannten Ausführungsbeispiele teilweise kombiniert werden, um Ausführungsbeispiele zu konstruieren, die auch zur vorliegenden Erfindung gehören.

Claims (29)

  1. Abbildungsvorrichtung mit: einem Abbildungsmittel zum zukzessiven Ausgeben eines ersten Abbildungssignals, das durch Abbilden eines Objekts während einer ersten Belichtungszeit erzeugt wird, und eines zweiten Abbildungssignals, das bei einem Lichtpegel sättigt, der höher ist als derjenige, bei dem das erste Abbildungssignal sättigt; einem Abbildungssignal-Erzeugungsmittel (15R, 15G, 15B), das aus einer ersten und einer zweiten Gewichtungsschaltung (25, 27; 26, 28) zum Anwenden einer ersten Gewichtsfunktion (f), die mit einer Zunahme des Lichtpegels bis zu einem Lichtpegel, der verursacht, dass das erste und das zweite Abbildungssignal jeweils sättigen, abnimmt, und einer zweiten Gewichtsfunktion (g), die mit diesem zunimmt, auf das erste und das zweite Abbildungssignal unter der Bedingung, dass die Summe der ersten und der zweiten Gewichtsfunktion (f, g) etwa 1 ist, besteht; einer Addierschaltung (29) zum Addieren eines ersten und eines zweiten Bildsignals, die durch Anwenden der ersten und der zweiten Gewichtsfunktion auf das erste und das zweite Abbildungssignal durch die erste bzw. die zweite Gewichtungsschaltung (25, 27; 26, 28) erzeugt werden; und einem Signalverarbeitungsmittel (1618) zum Verarbeiten eines aus der Addierschaltung (29) ausgegebenen Bildsignals und zum Erzeugen eines Videosignals, gemäß dem ein Bild auf einem Anzeigemittel (19) angezeigt werden kann, dadurch gekennzeichnet, dass die erste Gewichtsfunktion (f) entlang einer Kurve mit einer Zunahme des Lichtpegels monoton abnimmt, die zweite Gewichtsfunktion (g) entlang einer Kurve mit einer Zunahme des Lichtpegels monoton zunimmt, und die zweite Gewichtungsschaltung (26, 28) die zweite Gewichtsfunktion auf das zweite Abbildungssignal anwendet, während ein Empfindlichkeitsverhältnis des ersten Abbildungssignals bezüglich jenes des zweiten Abbildungssignals aufrechterhalten wird.
  2. Abbildungsvorrichtung nach Anspruch 1, wobei das Abbildungsmittel (1) ein Objekt während einer zweiten Belichtungszeit abbildet, die kürzer ist als die erste Belichtungszeit, und somit das zweite Abbildungssignal ausgibt, das bei einem Lichtpegel sättigt, der höher ist als derjenige, bei dem das erste Abbildungssignal sättigt.
  3. Abbildungsvorrichtung nach Anspruch 2, welche ferner ein Belichtungszeit-Festlegungsmittel (4) zum Verändern von mindestens einer der ersten und der zweiten Belichtungszeit umfasst.
  4. Abbildungsvorrichtung nach Anspruch 3, wobei das Belichtungszeit-Festlegungsmittel (4) ein hinsichtlich der Wellenform erfasstes Signal verwendet, das durch Erfassen der Wellenform des ersten oder des zweiten Abbildungssignals erzeugt wird.
  5. Abbildungsvorrichtung nach Anspruch 1, wobei während einer zweiten Belichtungszeit, während der das zweite Abbildungssignal erzeugt wird, eine Menge an Licht, das vom Objekt stammt und durch ein Abbildungsfenster auf das Abbildungsmittel (1) fällt, durch ein Lichtmengen-Einschränkungsmittel (205, 231, 234b) eingeschränkt wird, und das Abbildungsmittel das zweite Abbildungssignal ausgibt, das bei einem Lichtpegel sättigt, der höher ist als derjenige, bei dem das erste Abbildungssignal sättigt.
  6. Abbildungsvorrichtung nach Anspruch 1, wobei die Gewichtsfunktionen (f, g), die durch das Abbildungssignal-Erzeugungsmittel (15R, 15G, 15B) angewendet werden, derart sind, dass: wenn ein Lichtpegel viel niedriger ist als der Lichtpegel, der verursacht, dass das erste Abbildungssignal sättigt, das erste Gewicht größer ist als das zweite Gewicht; und wenn der Lichtpegel höher ist als der Lichtpegel, der verursacht, dass das erste Abbildungssignal sättigt, das zweite Gewicht größer ist als das erste Gewicht.
  7. Abbildungsvorrichtung nach Anspruch 1, wobei die erste Gewichtsfunktion (f) cos2(px) ist, wobei x der Abbildungssignalpegel ist und p ein Koeffizient ist, und die zweite Gewichtsfunktion (g) sin2(px) ist.
  8. Abbildungsvorrichtung nach Anspruch 7, wobei der Koeffizient p erfüllt: p ≈ π/(2s), wobei s ein Lichtpegel von Licht ist, das auf das Abbildungsfenster einfällt, wenn das zweite Abbildungssignal sättigt.
  9. Abbildungsvorrichtung nach Anspruch 1, wobei das Abbildungsmittel (1) eine progressive Abbildungsvorrichtung mit zwei Systemen von Horizontalübertragungs-Ausgabeschaltungen umfasst.
  10. Abbildungsvorrichtung nach Anspruch 9, wobei das Signalverarbeitungsmittel (1618) ein Videosignal erzeugt, das an das Zeilensprungverfahren anpassbar ist.
  11. Abbildungsvorrichtung nach Anspruch 1, wobei das Abbildungssignal-Erzeugungsmittel (15R, 15G, 15B) ein Gewichtsdaten-Speichermittel (25, 26) umfasst, das Daten der ersten Gewichtsfunktion (f), die auf das erste Abbildungssignal angewendet werden soll, und Daten der zweiten Gewichtsfunktion (g), die auf das zweite Abbildungssignal angewendet werden soll, speichert.
  12. Abbildungsvorrichtung nach Anspruch 11, wobei das Gewichtsdaten-Speichermittel (25, 26) Daten einer Gewichtsfunktion, die auf das erste Abbildungssignal angewendet werden soll, und Daten einer Gewichtsfunktion, die auf das zweite Abbildungssignal angewendet werden soll, speichert und die Gewichtsfunktionen verschiedene Eigenschaften aufweisen.
  13. Abbildungsvorrichtung nach Anspruch 12, welche ferner ein Helligkeitserfassungsmittel zum Erfassen einer Helligkeitsinformation eines Objekts in einem Ausgangssignal des Abbildungsmittels (1) umfasst, wobei eine auf das erste Abbildungssignal anzuwendende Gewichtsfunktion und eine auf das zweite Abbildungssignal anzuwendende Gewichtsfunktion auf der Basis der Helligkeitsinformation eines Objekts ausgewählt werden und folglich aus dem Gewichtsdaten-Speichermittel (25, 26) gelesen werden.
  14. Abbildungsvorrichtung nach Anspruch 2, wobei das Abbildungsmittel (1) das Objekt während der ersten Belichtungszeit abbildet und das erste Abbildungssignal und das zweite Abbildungssignal erzeugt.
  15. Abbildungsvorrichtung nach Anspruch 1, wobei das Abbildungssignal-Erzeugungsmittel (15R, 15G, 15B) ein synthetisches Abbildungssignal erzeugt, das eine solche Eigenschaft aufweist, dass ein Differenzkoeffizient desselben relativ zu einem Lichtpegel sich mit einer Zunahme des Lichtpegels bis zu einem Lichtpegel, der verursacht, dass die zweite Abbildung sättigt, kontinuierlich ändert.
  16. Abbildungsvorrichtung nach Anspruch 15, wobei der Differenzkoeffizient mit einer Zunahme des Lichtpegels monoton abnimmt.
  17. Endoskopabbildungsvorrichtung mit: einem Endoskop (215) mit einer langgestreckten Einführungseinheit (217), die Beleuchtungslicht auf ein Objekt durch ein Beleuchtungsfenster abstrahlt, das sich am distalen Ende der Einführungseinheit befindet, und alle Mittel (1) der Abbildungsvorrichtung nach einem der vorangehenden Ansprüche umfasst.
  18. Endoskopabbildungsvorrichtung nach Anspruch 17, welche ferner eine Lichtquelleneinheit (220') zum Liefern von Beleuchtungslicht zu einem Lichtleiter umfasst, der durch die Einführungseinheit (217) des Endoskops (215) verläuft, Beleuchtungslicht überträgt und das Beleuchtungslicht durch das Beleuchtungsfenster hindurch emittiert.
  19. Endoskopabbildungsvorrichtung nach Anspruch 18, wobei während einer zweiten Belichtungszeit, während der das Abbildungsmittel (1) das zweite Abbildungssignal erzeugt, die Lichtquelleneinheit (220') ermöglicht, dass ein Lichtmengen-Einschränkungsmittel (205, 231, 234b) das zum Lichtleiter zu liefernde Beleuchtungslicht einschränkt, und folglich das Abbildungsmittel das zweite Abbildungssignal ausgibt, das bei einem Lichtpegel sättigt, der höher ist als derjenige, bei dem das erste Abbildungssignal sättigt.
  20. Endoskopabbildungsvorrichtung nach Anspruch 19, wobei das Lichtmengen-Einschränkungsmittel ein Lichteinschränkungsfilter (234b) zum Einschränken des von einer Lampe erzeugten Beleuchtungslichts und zum Liefern des resultierenden Lichts zum Lichtleiter ist.
  21. Endoskopabbildungsvorrichtung nach Anspruch 19, wobei das Lichtmengen-Einschränkungsmittel eine Menge an von einer Lampe erzeugtem Beleuchtungslicht einschränkt.
  22. Endoskopabbildungsvorrichtung nach Anspruch 17, wobei das Endoskop (215) ein elektronisches Endoskop mit einem Abbildungsbauelement ist, das im Abbildungsmittel (1) enthalten ist und mit der Fähigkeit versehen ist, ein Signal photoelektrisch umzuwandeln, und in der Bildebene eines optischen Objektivsystems angeordnet ist, welches sich am distalen Ende der langgestreckten Einführungseinheit befindet.
  23. Endoskopabbildungsvorrichtung nach Anspruch 17, wobei das Endoskop (215) ein an einer TV-Kamera montiertes Endoskop ist, das aus einem optischen Endoskop mit einem Bildübertragungsmittel zum Übertragen eines Objektbildes, das durch ein optisches Objektivsystem erzeugt wird, das sich am distalen Ende der langgestreckten Einführungseinheit befindet, zu einem optischen Okularsystem, und einer TV-Kamera, die an einem Okularteil des optischen Endoskops montiert ist und eine Abbildungsvorrichtung aufweist, die im Abbildungsmittel enthalten ist und mit der Fähigkeit versehen ist, ein Signal photoelektrisch umzuwandeln, und in dieses integriert ist, besteht.
  24. Endoskopabbildungsvorrichtung nach Anspruch 17, wobei das Endoskop (215) ein übliches optisches Bilderzeugungssystem umfasst und das Abbildungsmittel aus einer Vielzahl von Abbildungsvorrichtungen besteht, die sich jeweils in Positionen befinden, in denen eine Vielzahl von Bildern durch eine Vielzahl von Blenden durch das optische Bilderzeugungssystem erzeugt werden.
  25. Endoskopabbildungsvorrichtung nach Anspruch 17, wobei die Abbildungsvorrichtung, die im Abbildungsmittel enthalten ist, ein Farbtrennfilter aufweist, das verwendet wird, um unter weißem Beleuchtungslicht eine Farbabbildung zu erzielen.
  26. Endoskopabbildungsvorrichtung nach Anspruch 17, wobei das Abbildungsmittel ein Abbildungsmittel mit Zeitfolgeverfahren ist, das eine monochrome Abbildungsvorrichtung umfasst, die kein Farbtrennfilter aufweist, und das unter Beleuchtung von feldsequentiellem Licht mit einer Vielzahl von Wellenlängen eine Farbabbildung ausführt.
  27. Abbildungsvorrichtung nach Anspruch 1, wobei die erste Gewichtungsschaltung (25, 27) und die zweite Gewichtungsschaltung (26, 28) eine erste Gewichtsfunktion, die monoton abnimmt, und eine zweite Gewichtsfunktion, die monoton zunimmt, jeweils zumindest bis zu einem Lichtpegel, der verursacht, dass das erste Abbildungssignal sättigt, anwenden.
  28. Abbildungsvorrichtung nach Anspruch 27, wobei, wenn ein Lichtpegel höher ist als der Lichtpegel, der verursacht, dass das erste Abbildungssignal sättigt, die erste Gewichtungsschaltung einen Gewichtskoeffizienten von 0 ausgibt.
  29. Abbildungsvorrichtung nach Anspruch 27, wobei, wenn ein Lichtpegel höher ist als der Lichtpegel, der verursacht, dass das erste Abbildungssignal sättigt, das Bildsignal im Wesentlichen mit einem Gewichtkoeffizienten festgelegt wird, der durch die zweite Gewichtungsschaltung auf das zweite Abbildungssignal angewendet wird.
DE69822958T 1997-10-23 1998-10-22 Bildaufnahmevorrichtung mit Mitteln zur Erweiterung des Dynamikbereichs Expired - Lifetime DE69822958T2 (de)

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
JP29132497 1997-10-23
JP29132497 1997-10-23
JP9310775A JPH11137514A (ja) 1997-11-12 1997-11-12 内視鏡撮像装置
JP9310774A JPH11137513A (ja) 1997-11-12 1997-11-12 内視鏡撮像装置
JP31077497 1997-11-12
JP31077597 1997-11-12
JP9317401A JPH11150687A (ja) 1997-11-18 1997-11-18 撮像装置
JP31740197 1997-11-18
JP32654597 1997-11-27
JP9326545A JPH11155808A (ja) 1997-11-27 1997-11-27 内視鏡撮像装置
JP9330439A JPH11164195A (ja) 1997-12-01 1997-12-01 撮像装置
JP33043997 1997-12-01
JP29868798A JP3519002B2 (ja) 1997-10-23 1998-10-20 撮像装置
JP29868798 1998-10-20

Publications (2)

Publication Number Publication Date
DE69822958D1 DE69822958D1 (de) 2004-05-13
DE69822958T2 true DE69822958T2 (de) 2005-03-10

Family

ID=27566842

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69822958T Expired - Lifetime DE69822958T2 (de) 1997-10-23 1998-10-22 Bildaufnahmevorrichtung mit Mitteln zur Erweiterung des Dynamikbereichs

Country Status (3)

Country Link
US (1) US6677992B1 (de)
EP (1) EP0912047B1 (de)
DE (1) DE69822958T2 (de)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69833998T2 (de) * 1998-11-18 2007-04-05 C.S.E.M. Centre Suisse D'electronique Et De Microtechnique S.A. Bilderzeugungsverfahren und -vorrichtung
JP3458741B2 (ja) * 1998-12-21 2003-10-20 ソニー株式会社 撮像方法及び撮像装置、画像処理方法及び画像処理装置
JP3642245B2 (ja) 2000-01-14 2005-04-27 松下電器産業株式会社 固体撮像装置
US7084905B1 (en) 2000-02-23 2006-08-01 The Trustees Of Columbia University In The City Of New York Method and apparatus for obtaining high dynamic range images
CA2306290A1 (en) * 2000-04-20 2001-10-20 Applied Physics Specialties Limited Variable optical filter
WO2002052839A2 (en) 2000-12-22 2002-07-04 Hewlett-Packard Company Image composition evaluation
GB2370438A (en) 2000-12-22 2002-06-26 Hewlett Packard Co Automated image cropping using selected compositional rules.
GB2375676A (en) * 2001-05-17 2002-11-20 Hewlett Packard Co Reducing the effects of specular reflections appearing in an image
GB0116113D0 (en) 2001-06-30 2001-08-22 Hewlett Packard Co Tilt correction of electronic images
GB2378340A (en) 2001-07-31 2003-02-05 Hewlett Packard Co Generation of an image bounded by a frame or of overlapping images
US6980227B2 (en) * 2001-10-01 2005-12-27 Pentax Corporation Electronic endoscope with light-amount adjustment apparatus
US7725348B1 (en) * 2001-10-17 2010-05-25 United Toll Systems, Inc. Multilane vehicle information capture system
US7734500B1 (en) * 2001-10-17 2010-06-08 United Toll Systems, Inc. Multiple RF read zone system
US8331621B1 (en) * 2001-10-17 2012-12-11 United Toll Systems, Inc. Vehicle image capture system
US7064740B2 (en) 2001-11-09 2006-06-20 Sharp Laboratories Of America, Inc. Backlit display with improved dynamic range
FR2838016B1 (fr) * 2002-03-29 2004-09-17 Valeo Vision Procede de traitement en temps reel d'un signal representatif d'une image
US7317559B2 (en) * 2002-04-05 2008-01-08 Canon Kabushiki Kaisha Imaging device and imaging method for use in such device
JP4350936B2 (ja) * 2002-09-30 2009-10-28 富士フイルム株式会社 固体撮像素子の信号読み出し方法
JP4307862B2 (ja) * 2003-02-05 2009-08-05 富士フイルム株式会社 信号処理方法、信号処理回路、及び撮像装置
JP4271978B2 (ja) * 2003-04-18 2009-06-03 株式会社日立製作所 映像表示装置
JP4328125B2 (ja) 2003-04-25 2009-09-09 オリンパス株式会社 カプセル型内視鏡装置およびカプセル型内視鏡システム
US7379104B2 (en) * 2003-05-02 2008-05-27 Canon Kabushiki Kaisha Correction apparatus
US7315656B2 (en) * 2003-05-22 2008-01-01 The Boeing Company Methods and apparatus for enhanced viewing of aerial refueling operations
US7623105B2 (en) 2003-11-21 2009-11-24 Sharp Laboratories Of America, Inc. Liquid crystal display with adaptive color
US7872631B2 (en) 2004-05-04 2011-01-18 Sharp Laboratories Of America, Inc. Liquid crystal display with temporal black point
US7602369B2 (en) 2004-05-04 2009-10-13 Sharp Laboratories Of America, Inc. Liquid crystal display with colored backlight
US7505018B2 (en) 2004-05-04 2009-03-17 Sharp Laboratories Of America, Inc. Liquid crystal display with reduced black level insertion
US7532192B2 (en) 2004-05-04 2009-05-12 Sharp Laboratories Of America, Inc. Liquid crystal display with filtered black point
US7612757B2 (en) 2004-05-04 2009-11-03 Sharp Laboratories Of America, Inc. Liquid crystal display with modulated black point
US7777714B2 (en) 2004-05-04 2010-08-17 Sharp Laboratories Of America, Inc. Liquid crystal display with adaptive width
US8395577B2 (en) 2004-05-04 2013-03-12 Sharp Laboratories Of America, Inc. Liquid crystal display with illumination control
US7023451B2 (en) 2004-06-14 2006-04-04 Sharp Laboratories Of America, Inc. System for reducing crosstalk
US7556836B2 (en) 2004-09-03 2009-07-07 Solae, Llc High protein snack product
US7898519B2 (en) 2005-02-17 2011-03-01 Sharp Laboratories Of America, Inc. Method for overdriving a backlit display
EP1814315B1 (de) * 2004-10-26 2017-12-20 Nikon Corporation Digitalkamera und bild-kombination vorrichtung
US7574059B2 (en) * 2004-10-29 2009-08-11 Broadcom Corporation System, method, and apparatus for providing massively scaled down video using iconification
US7525528B2 (en) 2004-11-16 2009-04-28 Sharp Laboratories Of America, Inc. Technique that preserves specular highlights
US8050512B2 (en) 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US8050511B2 (en) 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US7760956B2 (en) 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
JP4873949B2 (ja) * 2005-12-26 2012-02-08 Hoya株式会社 電子内視鏡装置
US8121401B2 (en) 2006-01-24 2012-02-21 Sharp Labortories of America, Inc. Method for reducing enhancement of artifacts and noise in image color enhancement
US9143657B2 (en) 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection
JP5019543B2 (ja) * 2006-05-09 2012-09-05 シャープ株式会社 撮像装置
JP2008043742A (ja) * 2006-07-20 2008-02-28 Pentax Corp 電子内視鏡システム
US8941580B2 (en) 2006-11-30 2015-01-27 Sharp Laboratories Of America, Inc. Liquid crystal display with area adaptive backlight
KR20080076004A (ko) * 2007-02-14 2008-08-20 삼성전자주식회사 촬상장치 및 그 다이나믹 레인지 확장방법
US7952021B2 (en) 2007-05-03 2011-05-31 United Toll Systems, Inc. System and method for loop detector installation
JP2009049547A (ja) * 2007-08-15 2009-03-05 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理プログラム
US20090278014A1 (en) * 2008-05-06 2009-11-12 Jim Allen Overhead track system for roadways
JP5091796B2 (ja) * 2008-08-05 2012-12-05 株式会社東芝 画像処理装置
EP2200277A1 (de) 2008-12-22 2010-06-23 Thomson Licensing Verfahren und Vorrichtung zum Erfassen von Bildern durch Emulieren einer mechanischen Blende
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
WO2012077117A1 (en) 2010-12-09 2012-06-14 Peermedical Ltd. Flexible electronic circuit board multi-camera endoscope
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US10165929B2 (en) 2009-06-18 2019-01-01 Endochoice, Inc. Compact multi-viewing element endoscope system
US12137873B2 (en) 2009-06-18 2024-11-12 Endochoice, Inc. Compact multi-viewing element endoscope system
US8926502B2 (en) 2011-03-07 2015-01-06 Endochoice, Inc. Multi camera endoscope having a side service channel
EP2442706B1 (de) 2009-06-18 2014-11-12 EndoChoice Innovation Center Ltd. Mehrkamera-endoskop
US11864734B2 (en) 2009-06-18 2024-01-09 Endochoice, Inc. Multi-camera endoscope
US11278190B2 (en) 2009-06-18 2022-03-22 Endochoice, Inc. Multi-viewing element endoscope
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9101268B2 (en) 2009-06-18 2015-08-11 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US11547275B2 (en) 2009-06-18 2023-01-10 Endochoice, Inc. Compact multi-viewing element endoscope system
US9101287B2 (en) 2011-03-07 2015-08-11 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US12220105B2 (en) 2010-06-16 2025-02-11 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US8625013B2 (en) 2010-08-23 2014-01-07 Red.Com, Inc. Multi-exposure imaging
EP3718466B1 (de) 2010-09-20 2023-06-07 EndoChoice, Inc. Distaler endoskopabschnitt umfassend eine einheitliche flüssigkeitskanal-komponente
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US12204087B2 (en) 2010-10-28 2025-01-21 Endochoice, Inc. Optical systems for multi-sensor endoscopes
US20130296649A1 (en) 2010-10-28 2013-11-07 Peer Medical Ltd. Optical Systems for Multi-Sensor Endoscopes
CN107361721B (zh) 2010-12-09 2019-06-18 恩多巧爱思创新中心有限公司 用于多摄像头内窥镜的柔性电子电路板
US11889986B2 (en) 2010-12-09 2024-02-06 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope
EP2672878B1 (de) 2011-02-07 2017-11-22 Endochoice Innovation Center Ltd. Mehrteilige abdeckung für ein mehrkamera-endoskop
EP3659491A1 (de) 2011-12-13 2020-06-03 EndoChoice Innovation Center Ltd. Endoskop mit entfernbarer spitze
EP2604172B1 (de) 2011-12-13 2015-08-12 EndoChoice Innovation Center Ltd. Drehbarer Steckverbinder für ein Endoskop
CN104335569B (zh) * 2012-06-11 2017-08-25 索尼电脑娱乐公司 图像生成设备以及图像生成方法
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
IN2015MN00018A (de) 2012-07-26 2015-10-16 Olive Medical Corp
KR102118310B1 (ko) 2012-07-26 2020-06-04 디퍼이 신테스 프로덕츠, 인코포레이티드 단색 센서를 사용한 넓은 동적범위
MX346174B (es) * 2012-07-26 2017-03-10 Depuy Synthes Products Inc Esquema de iluminacion pulsada ycbcr en un entorno deficiente de luz.
KR101871945B1 (ko) * 2013-01-17 2018-08-02 한화에어로스페이스 주식회사 영상 처리 장치 및 방법
US9113097B2 (en) * 2013-02-06 2015-08-18 Canon Kabushiki Kaisha Image capturing apparatus that controls performing of short-term and long-term exposures and corresponding read operations, and control method thereof
EP3459431A1 (de) 2013-03-15 2019-03-27 DePuy Synthes Products, Inc. Steuerung der integrierten lichtenergie eines laserpulses
JP2016519591A (ja) 2013-03-15 2016-07-07 オリーブ・メディカル・コーポレイションOlive Medical Corporation パルスカラー撮像システムにおける超解像度及び色運動アーチファクト補正
US10251530B2 (en) 2013-03-15 2019-04-09 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US10499794B2 (en) 2013-05-09 2019-12-10 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US9955084B1 (en) 2013-05-23 2018-04-24 Oliver Markus Haynold HDR video camera
CN114191114A (zh) 2014-03-21 2022-03-18 德普伊新特斯产品公司 用于成像传感器的卡缘连接器
US10277771B1 (en) 2014-08-21 2019-04-30 Oliver Markus Haynold Floating-point camera
EP3190785A4 (de) * 2014-09-05 2018-03-28 Olympus Corporation Bildgebungsvorrichtung und verarbeitungsvorrichtung
EP3204812B1 (de) * 2014-10-06 2023-12-06 Leica Microsystems (Schweiz) AG Mikroskop und verfahren zum erhalten eines synthetisierten bildes eines objekts mit hohem dynamikbereich
US10225485B1 (en) 2014-10-12 2019-03-05 Oliver Markus Haynold Method and apparatus for accelerated tonemapping
CN107529961A (zh) * 2015-04-21 2018-01-02 奥林巴斯株式会社 内窥镜装置
WO2018088005A1 (ja) * 2016-11-14 2018-05-17 オリンパス株式会社 撮像素子および内視鏡
JP6873688B2 (ja) * 2016-12-27 2021-05-19 キヤノン株式会社 画像処理装置および画像処理方法、撮像装置、プログラム
JP6463573B1 (ja) * 2017-06-07 2019-02-06 オリンパス株式会社 内視鏡撮像システム
RU2670419C1 (ru) * 2017-12-01 2018-10-23 Вячеслав Михайлович Смелков Способ управления чувствительностью телевизионной камеры на матрице ПЗС в условиях сложной освещённости и/или сложной яркости объектов

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5739673A (en) 1980-08-21 1982-03-04 Minolta Camera Co Ltd Image sensor
DE3641186A1 (de) * 1985-12-04 1987-07-02 Olympus Optical Co Bildsignalkorrekturschaltung
JPH0797841B2 (ja) 1987-06-09 1995-10-18 キヤノン株式会社 撮像装置
JP2522015B2 (ja) 1987-08-31 1996-08-07 キヤノン株式会社 撮像装置
JP2749849B2 (ja) 1988-12-27 1998-05-13 キヤノン株式会社 撮像装置
US5638119A (en) 1990-02-16 1997-06-10 Scanera S.C. Device for increasing the dynamic range of a camera
US5430475A (en) * 1990-06-29 1995-07-04 Olympus Optical Co., Ltd. Electronic endoscope apparatus having micro array on photoelectric conversion surface
JPH04196776A (ja) 1990-11-27 1992-07-16 Matsushita Electric Ind Co Ltd 撮像装置
JP3041099B2 (ja) * 1991-02-01 2000-05-15 オリンパス光学工業株式会社 電子内視鏡装置
JPH0530424A (ja) 1991-07-22 1993-02-05 Nippon Telegr & Teleph Corp <Ntt> 画像入力装置
JPH05153473A (ja) 1991-11-29 1993-06-18 Scala Kk 画像の処理方法
JP3074967B2 (ja) 1992-10-27 2000-08-07 松下電器産業株式会社 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
US5517242A (en) * 1993-06-29 1996-05-14 Kabushiki Kaisha Toyota Chuo Kenkyusho Image sensing device having expanded dynamic range
US6248133B1 (en) * 1994-06-17 2001-06-19 Matsushita Electric Industrial Co., Ltd. Solid state imaging device and a method of driving the same
US6219097B1 (en) * 1996-05-08 2001-04-17 Olympus Optical Co., Ltd. Image pickup with expanded dynamic range where the first exposure is adjustable and second exposure is predetermined
US6278490B1 (en) * 1996-05-23 2001-08-21 Olympus Optical Co., Ltd. Exposure control for an image pickup apparatus that uses an electronic flash

Also Published As

Publication number Publication date
US6677992B1 (en) 2004-01-13
EP0912047A3 (de) 2000-07-05
EP0912047A2 (de) 1999-04-28
EP0912047B1 (de) 2004-04-07
DE69822958D1 (de) 2004-05-13

Similar Documents

Publication Publication Date Title
DE69822958T2 (de) Bildaufnahmevorrichtung mit Mitteln zur Erweiterung des Dynamikbereichs
DE3246239C2 (de)
US6900829B1 (en) Electronic endoscope system for reducing random noise of a video signal
DE60021679T2 (de) Endoskop
DE102006042670B4 (de) Elektronisches Endoskopsystem
DE4136034C2 (de)
DE3806190C2 (de)
US4393402A (en) Subtraction fluoroscopy method and apparatus
KR100667444B1 (ko) 개선된 동적범위 비디오카메라와 레코딩 시스템 및 레코딩방법
DE69419006T2 (de) Videobilderzeugungssystem und verfahren mit einem einzelnen sensor für progressive zwischenzeilenabtastung und farbsequentieller objektbeleuchtung
DE69313888T2 (de) Elektronisches Endoskopsystem
DE68928773T2 (de) Verfahren zum senkrechten Filtern bei rasterabgetasteten Anzeigevorrichtungen
DE3734957A1 (de) Logarithmische farbabbildungsvorrichtung
DE69333389T2 (de) Videosignalprozessor für Farbbildanzeigesystem
DE3641186C2 (de)
JPH02119382A (ja) X線像の組合せによる像を表わすデータを発生する方法
DE3432391A1 (de) Endoskopanordnung
DE69618266T2 (de) Bildaufnahme-Anlage und Bildwiedergabe-Anlage
DE3738464A1 (de) Stereo-roentgenschirmbildgeraet
DE112015006338T5 (de) Endoskopvorrichtung
JPS6382619A (ja) 電子内視鏡装置
DE3344082C2 (de)
DE112015006176T5 (de) Endoskopvorrichtung
JPH11155808A (ja) 内視鏡撮像装置
DE69222967T2 (de) Vorrichtung zur Umwandlung eines Videoeingangssignals in ein kinematographisches Filmbild

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: OLYMPUS CORP., TOKIO/TOKYO, JP

8364 No opposition during term of opposition