DE60308242T2 - Bildaufnahmevorrichtung - Google Patents

Bildaufnahmevorrichtung Download PDF

Info

Publication number
DE60308242T2
DE60308242T2 DE60308242T DE60308242T DE60308242T2 DE 60308242 T2 DE60308242 T2 DE 60308242T2 DE 60308242 T DE60308242 T DE 60308242T DE 60308242 T DE60308242 T DE 60308242T DE 60308242 T2 DE60308242 T2 DE 60308242T2
Authority
DE
Germany
Prior art keywords
image
brightness
speed
signal
shutter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60308242T
Other languages
English (en)
Other versions
DE60308242D1 (de
Inventor
Yasuo Takemura
Akio Nishimaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE60308242D1 publication Critical patent/DE60308242D1/de
Application granted granted Critical
Publication of DE60308242T2 publication Critical patent/DE60308242T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Description

  • Hintergrund der Erfindung
  • Technisches Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Bildaufnahmevorrichtung, insbesondere eine Bildaufnahmevorrichtung, die in der Lage ist, ein Bild eines Subjekts, das einen breiten Helligkeitsbereich aufweist, aufzunehmen und eine Verarbeitung eines Bildsignals, das aufgenommen wurde, durchzuführen.
  • Stand der Technik
  • Bei einer herkömmlichen Kamera, die eine Bildaufnahmevorrichtung verwendet, bestehend aus einem CCD Sensor, erfolgt die Bildaufnahme derart, dass eine einfallende Lichtmenge der Kamera in einem bestimmten Bereich begrenzt ist, aufgrund einer Grenze der Speicherkapazität der elektrischen Ladung und ihrer Eigenschaften. Wenn draußen ein Bild aufgenommen wird, kann ein derartiger dynamischer Bereich mit dem ein Bild über den Helligkeitsbereich des Subjekts aufnehmen werden kann, nicht erhalten werden, was einen Fehler liefert in dem aufgenommenen Bild. Aus diesem Grund wird der dynamische Bereich erweitert, indem eine elektronische Blendenfunktion der Bildaufnahmevorrichtung verwendet wird, bei der ein Bild mit unterschiedlichen Blendenfrequenzen der Zeit aufgenommen wird, wie eine Hochgeschwindigkeitsblende und eine Niedergeschwindigkeitsblende, also mit zwei unterschiedlichen Belichtungszeitfrequenzen, und indem eine Signalverarbeitung der resultierenden Bildsignale durchgeführt wird.
  • Ein Betriebsprinzip einer herkömmlichen Kamera 1 mit einem breiten dynamischen Bereich wird jetzt unter Bezugnahme auf 22 beschrieben. 22 zeigt ein Diagramm der Bildsignalverarbeitung in der herkömmlichen Kamera 1 mit weitem dynamischen Bereich. 22A zeigt eine Signalausgabe eines CCD Sensors (Bildaufnahmevorrichtung). 22B zeigt eine Signalausgabe eines Kamerabilds mit hochdynamischem Bereich.
  • In 22 sind „A" Felder den Niedergeschwindigkeitsblendenbildern zugeordnet, und „B" Felder sind den Hochgeschwindigkeitsblendenbildern zugeordnet. Das Niedergeschwindig keitsblendenbild ist beispielsweise ein Bild, das mit einer Blendengeschwindigkeit von 1/60 Sekunden aufgenommen wurde und das Hochgeschwindigkeitsblendenbild ist beispielsweise ein Bild, das mit einer Blendengeschwindigkeit von 1/200 Sekunden aufgenommen worden ist. Diese Bildsignale sind beispielsweise Bildsignale, die gewonnen werden durch eine elektronische Blende zum direkten Liefern eines Blendenimpulses an die Bildaufnahmevorrichtung, die den CCD Sensor enthält, und zum Steuern der Blendengeschwindigkeit, also der Belichtungszeit.
  • Die Kamera mit dem breiten dynamischen Bereichbild nimmt ein Bild mit wenig hellem Bereich eines Subjekts mit einer kleinen Blendengeschwindigkeit (ein Bereich mit hoher Helligkeit ist gesättigt), und nimmt ein Bild mit einem großen Helligkeitsbereich des Subjekts mit einer Hochgeschwindigkeitsblende auf (ein Bild des wenig hellen Bereichs kann nicht aufgenommen werden). Durch Kombinieren beider Bilder kann ein Bild, das von einem schwachen Helligkeitsbereich zu einem hohen Helligkeitsbereich reicht, in einem Foto aufgenommen werden.
  • Beispielsweise können ein A1-Feld Bild (Niedergeschwindigkeitsblendenbild) und ein B0-Feld Bild (Hochgeschwindigkeitsblendenbild) kombiniert werden. Anschließend können das A1-Feld Bild (Niedergeschwindigkeitsblendenbild) und ein B1-Feld Bild (Hochgeschwindigkeitsblendenbild) kombiniert werden. Anschließend wird der gleiche Vorgang wiederholt durchgeführt. In diesem Fall sind die Geschwindigkeiten und die Kombinationsrate der Niedergeschwindigkeitsblende und der Hochgeschwindigkeitsblende fest.
  • Die Rate der Blendengeschwindigkeiten ist ein Expansionsverhältnis des dynamischen Bereichs. Hier ist die Niedergeschwindigkeitsblendengeschwindigkeit fixier auf 1/60 Sekunden und die Hochgeschwindigkeitsblendengeschwindigkeit ist fixiert auf 1/2000 Sekunden. Folglich hat die Kamera mit breitem dynamischen Bereich eine Expansionsrate von ungefähr 33. Selbst wenn eine Auto-Iris-Linse zum automatischen Einstellen der einfallenden Lichtmenge auf der Kamera mit weitem dynamischen Bereich montiert ist, wird der dynamische Bereich nicht erweitert.
  • 23 zeigt ein Blockdiagramm der herkömmlichen Kamera 1 mit weitem dynamischen Bereich. Die Kamera 1 mit weitem dynamischen Bereich gewinnt ein Bildsignal von einem Subjektbild mit einer Bildaufnahmevorrichtung 2 unter Verwendung einer fotoelektrischen Vorrichtung, wie einem CCD Sensor. Das Bildsignal, das folglich erhalten wird, wird in ein digitales Signal umgewandelt (im Folgenden als A/D-Umwandlung bezeichnet) durch einen A/D-Umwandler 3. Das resultierende digitale Signal wird an das Digitalsignalverarbeitungsmittel 4 gesendet.
  • Das Digitalsignalverarbeitungsmittel 4 enthält Rahmenspeicher 6 und 7, eine Kombinationsverarbeitungsschaltung 8 und eine Prozessschaltung 9. Das Bildsignal, das an das Digitalsignalverarbeitungsmittel 4 gesendet wird, wird zuerst in die Rahmenspeicher 6 und 7 eingegeben, und dann darin geschrieben. Das Bildsignal, das aus den Rahmenspeichern 6 und 7 ausgelesen wird, wird an die Kombinationsverarbeitungsschaltung 8 gesendet, in der Verarbeitungsschaltung 8 verarbeitet und von einem Bildsignalausgabeanschluss 10 ausgegeben.
  • Andererseits steuert die Kamera 1 mit weitem dynamischen Bereich das Digitalsignalverarbeitungsmittel 4 und die Bildaufnahmevorrichtung 2 durch Verwendung eines Steuerungsabschnitts 11, der in der Kamera 1 mit weitem dynamischen Bereich enthalten ist. Der Steuerungsabschnitt 1 enthält eine CPU (zentrale Verarbeitungseinheit) 13 und einen Belichtungssteuerungsabschnitt 14. Die CPU 13 führt eine Berechnung(Operations-)Verarbeitung für die gemessenen Lichtdaten durch, die von dem Digitalsignalverarbeitungsmittel 4 geliefert werden. Ein Ergebnis dieser Berechnungsverarbeitung wird an das Digitalsignalverarbeitungsmittel 4 und den Belichtungssteuerungsabschnitt 14 gesendet. Steuerungssignale werden durch das Digitalsignalverarbeitungsmittel 4 und den Belichtungssteuerungsabschnitt 14 erzeugt, um das Digitalsignalverarbeitungsmittel 4 und die Bildaufnahmevorrichtung 2 jeweils zu steuern.
  • Die Kamera 1 mit weitem dynamischen Bereich, wie oben beschrieben, ist beispielsweise in der Veröffentlichung der japanischen Patentanmeldung mit der Nummer 61-255984 gezeigt.
  • Mit der herkömmlichen Kamera 1 mit weitem dynamischen Bereich werden jedoch Bilder mit unterschiedlichen elektronischen Blendenfrequenzen der Zeit mehrmals aufgenommen und kombiniert. Folglich ist die herkömmliche Kamera 1 mit weitem dynamischen Bereich für sta tionäre Bilder effektiv. Die herkömmliche Kamera 1 mit weitem dynamischen Bereich ist jedoch ungeeignet für eine Vorrichtung, die ein Bild eines sich bewegenden Subjekts aufnimmt, beispielsweise eine Überwachungskamera oder eine fahrzeugmontierte Kamera.
  • Andererseits werden in der herkömmlichen Kamera 1 mit weitem dynamischen Bereich, die einen CCD Sensor enthält als Bildaufnahmevorrichtung 2, elektrische Ladungen, die in dem CCD Sensor gespeichert sind, sequenziell ausgelesen. Folglich ist eine Zeit, die erforderlich ist, von dem Bildaufnahmezeitpunkt bis zur Beendigung der Bildverarbeitung, also eine Bildsignalverarbeitungszeit groß. In dem Fall, bei dem ein Bild eines sich schnell bewegenden Subjekts aufgenommen wird durch die Kamera 1 mit dem weiten dynamischen Bereich, kann folglich die Bildsignalverarbeitung nicht der Bewegung des Subjekts folgen.
  • Speziell in dem Fall, bei dem ein Bild durch die herkömmliche Kamera 1 mit weitem dynamischen Bereich aufgenommen wird von einem sich bewegenden Körper, auf dem die herkömmliche Kamera 1 mit weitem dynamischen Bereich installiert worden ist für den Zweck der Steuerung des sich bewegenden Körpers, gibt es ein Problem dahingehend, dass der Steuerungsbetrieb mithalten kann, aufgrund der Länge der Bildsignalverarbeitungszeit in der Kamera 1 mit weitem dynamischen Bereich, selbst wenn die Steuerungsoperation basierend auf dem Bildsignal durchgeführt wird, das durch die Bildaufnahme erzeugt worden ist.
  • Der Leser wird verwiesen auf die US 2001/030708 A1, EP-A-1148713 (PIXIM INC), und US-B-62853981.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung ist ausgehend von den oben beschriebenen Umständen gemacht worden.
  • Gemäß der Erfindung erfolgt die Bereitstellung einer Bildaufnahmevorrichtung, die ein Bildaufnahmegerät aufweist zum Gewinnen eines ersten Bilds, das für eine erste Periode belichtet wird und eines zweiten Bilds, das für eine zweite Periode belichtet wird, die kürzer als die erste Periode ist, eine Steuerung zum Steuern der ersten Periode und der zweiten Periode ge mäß der Helligkeit der Bilder, und einen Prozessor zum Kombinieren des ersten Bilds und des zweiten Bilds in ein drittes Bild, gekennzeichnet durch
    ein Teilungsmittel zum Teilen des ersten und des zweiten Bilds von dem CMOS Sensor in eine Mehrzahl von Nebenbereichen; und
    ein Detektiermittel zum Detektieren von Helligkeitsinformation in jedem Nebenbereich des ersten und zweiten Bilds;
    wobei das Bildaufnahmegerät einen CMOS Sensor enthält, der das erste oder das zweite Bild in einer vorbestimmten Rahmenzeitperiode (D in 2) ausgibt und
    wobei die Steuerung steuert zum abwechselnden Auslesen von dem ersten und dem zweiten Bild innerhalb der Rahmenzeitperiode, und ferner enthaltend
    ein erstes Mittel zum Bestimmen einer ersten Zeitperiode des CMOS Sensors zur Belichtung der nächsten Rahmenzeitperiode und Verwendung der Helligkeitsinformation, die von dem ersten Bild durch das Detektiermittel gewonnen wird;
    ein zweites Mittel zum Bestimmen einer zweiten Zeitperiode, unabhängig von dem ersten Mittel, des CMOS Sensors zur Belichtung in einer nachfolgenden Rahmenzeitperiode unter Verwendung der Helligkeitsinformation, die von dem zweiten Bild durch das Detektiermittel gewonnen wird.
  • In bevorzugten Ausführungsbeispielen enthält das Steuerungsmittel ein Bildsignalinformationserfassungsmittel zum Erfassen von Bildsignalinformation des ersten Bildsignals und des zweiten Bildsignals von dem Bildaufnahmemittel, und ein Steuerungssignalerzeugungsmittel zum Ändern des ersten Bildsignals und des zweiten Bildsignals unabhängig durch Verwendung der Bildsignalinformation, die von dem Bildsignalinformationserfassungsmittel erfasst worden ist, und das Steuerungsmittel steuert das Bildsignalverarbeitungsmittel. Das Steuerungssignalerzeugungsmittel enthält: ein automatisches Gewinnsteuerungssignalerzeugungsmittel zum individuellen Steuern von Verstärkungsfaktoren des ersten Bildsignals und des zweiten Bildsignals, die von dem Bildaufnahmemittel geliefert werden, basierend auf einem Ergebnis der Berechnung eines Verhältnisses zwischen der ersten Belichtungszeit und der zweiten Belichtungszeit; ein Charakteristikumwandlungssteuerungssignalerzeugungsmittel zum individuellen Durchführen einer Umwandlungssteuerung der Eingabe-Ausgabecharakteristiken des ersten Bildsignals und des zweiten Bildsignals, die von dem Bildaufnahmemittel geliefert werden; und ein Bildkombinationsverhältnissteuerungssignalerzeugungsmittel zum individuellen Steuern eines Bildsignal kombinationsverhältnisses, das verwendet wird zum Kombinieren des ersten Bildsignals und des zweiten Bildsignals, die von dem Bildaufnahmemittel geliefert werden.
  • Darüber hinaus enthält das Steuerungsmittel ein Bildsignalinformationserfassungsmittel zum Erfassen einer Bildsignalinformation des ersten Bildsignals und einer Bildsignalinformation des zweiten Bildsignals von dem Bildaufnahmemittel, und ein Helligkeitsdurchschnittswertberechnungsmittel zum Berechnen eines Helligkeitsdurchschnittswerts des ersten Bildsignals und des zweiten Bildsignals. Das Bildsignalinformationserfassungsmittel enthält ein Mittel zum Teilen eines Bilds, das durch die Bildaufnahme erhalten worden ist, in eine Mehrzahl von Teilen, um einen Helligkeitsdurchschnittswert des ersten Bildsignals und des zweiten Bildsignals in dem Helligkeitsdurchschnittswertberechnungsmittel zu erfassen, und das Bildsignalinformationserfassungsmittel enthält unterteilte Bildhelligkeitsakkumulationsmittel zum Akkumulieren der Helligkeit eines unterteilten Bilds jeder unterteilten Bilddivision und ein Helligkeitspeakwertdetektionsmittel für ein unterteiltes Bild zum Detektieren eines Helligkeitspeakwerts eines unterteilten Bilds, und das Bildsignalinformationserfassungsmittel berechnet einen Helligkeitsdurchschnittswert des ersten Bildsignals und des zweiten Bildsignals basierend auf einem Helligkeitsakkumulationsergebnis, das gewonnen wird durch das Helligkeitsakkumulationsmittel für das unterteilte Bild, und ein Helligkeitspeakwertdetektionsergebnis, das gewonnen wird durch das Helligkeitspeakwertdetektionsmittel für das unterteilte Bild. Ferner enthält das Bildsignalinformationserfassungsmittel ein Mittel zum Unterteilen eines Bilds, das durch die Bildaufnahme gewonnen worden ist, in eine Mehrzahl von Teilen, um einen Helligkeitsdurchschnittswert des ersten Bildsignals und des zweiten Bildsignals eines Helligkeitsdurchschnittswertberechnungsmittels zu erfassen, und das Bildsignalinformationserfassungsmittel enthält ein Helligkeitsakkumulationsmittel für das unterteilte Bild zum Akkumulieren der Helligkeit eines unterteilten Bilds jeder unterteilter Bilddivision und ein Helligkeitspeakwertdetektionsmittel für das unterteilte Bild zum Detektieren eines Helligkeitspeakwerts eines unterteilten Bilds, und wenn ein Helligkeitsdurchschnittswert in dem Helligkeitsdurchschnittswertberechnungsmittel berechnet wird zum Gewinnen eines Helligkeitsdurchschnittswerts des ersten Bildsignals und des zweiten Bildsignals basierend auf dem Helligkeitsakkumulationsergebnis des unterteilten Bilds und des Helligkeitspeakwertdetektionsergebnisses des unterteilten Bilds, extrahiert das Bildsignalinformationserfassungsmittel einen großen Helligkeitsbereich des ersten Bildsignals, berechnet einen Helligkeitsdurchschnittswert des ersten Bildsignals mit dem extrahierten Be reich ausgeschlossen, und berechnet einen Helligkeitsdurchschnittswert für einen Bereich des zweiten Bildsignals entsprechend dem extrahierten großen Helligkeitsbereich des ersten Bildsignals.
  • Darüber hinaus enthält das Steuerungsmittel ein Bildsignalinformationserfassungsmittel zum Erfassen einer Bildsignalinformation des ersten Bildsignals und einer Bildsignalinformation des zweiten Bildsignals von dem Bildaufnahmemittel, und das Bildsignalinformationserfassungsmittel teilt ein aufgenommenes Bild in eine Mehrzahl von Teilen, erfasst Bildinformation für jede Bildteil und erfasst Bildsignalinformation des ersten Bildsignals und des zweiten Bildsignals unter Verwendung der Bildinformation für jeden der Bildteile.
  • Ferner enthält das Steuerungsmittel ein Bildsignalinformationserfassungsmittel zum Erfassen von Bildsignalinformation des ersten Bildsignals und von Bildsignalinformation des zweiten Bildsignals von dem Bildaufnahmemittel, und das Bildsignalinformationserfassungsmittel enthält ein Helligkeitsakkumulationsmittel für das unterteilte Bild und ein Helligkeitspeakwertdetektionsmittel für das unterteilte Bild als Mittel zum Teilen eines aufgenommenen Bilds in eine Mehrzahl von Teilen und zum Erfassen von Bildinformation jedes der Bildteile.
  • Ferner enthält das Steuerungsmittel ein Berechnungsmittel zum Berechnen eines Verhältnisses zwischen der ersten Belichtungszeit und der zweiten Belichtungszeit, und das Steuerungsmittel variiert unabhängig die erste Belichtungszeit und die zweite Belichtungszeit unter Verwendung eines Ergebnisses der Berechnung, die in dem Berechnungsmittel durchgeführt wird.
  • Weiter enthält das Steuerungsmittel ein Berechnungsmittel zum Berechnen eines Verhältnisses zwischen der ersten Belichtungszeit und der zweiten Belichtungszeit, und um ein geeignetes Bildsignal zu gewinnen, führt das Steuerungsmittel ein Ergebnis der Berechnung durch, die in dem Berechnungsmittel durchgeführt worden ist basierend auf Bildinformation, die durch das Bildsignalinformationserfassungsmittel erfasst worden ist zum Erfassen einer Bildsignalinformation des ersten Bildsignals und einer Bildsignalinformation des zweiten Bildsignals von dem ersten Bildsignal und dem zweiten Bildsignal.
  • Weiter enthält das Steuerungsmittel ein Berechnungsmittel zum Berechnen eines Verhältnisses zwischen der ersten Belichtungszeit und der zweiten Belichtungszeit, wenn die erste Belichtungszeit und die zweite Belichtungszeit unabhängig geändert werden, und ein automatisches Gewinnsteuerungssignalerzeugungsmittel zum individuellen Steuern von Verstärkungsfaktoren des ersten Bildsignals und des zweiten Bildsignals, die durch das Bildaufnahmemittel gewonnen werden, basierend auf einem Ergebnis der Berechnung, die durch das Berechnungsmittel durchgeführt wird.
  • Weiter enthält das Steuerungsmittel ein Berechnungsmittel zum Berechnen eines Verhältnisses zwischen der ersten Belichtungszeit und der zweiten Belichtungszeit und ein Charakteristikumwandlungssteuerungssignalerzeugungsmittel zum individuellen Durchführen einer Umwandlung und Steuerung der Eingabe-Ausgabe-Charakteristiken des ersten Bildsignals und des zweiten Bildsignals, die gewonnen werden durch das Bildaufnahmemittel, basierend auf einem Ergebnis der Berechnung, die durch das Berechnungsmittel durchgeführt wird.
  • Weiter enthält das Steuerungsmittel ein Berechnungsmittel zum Berechnen eines Verhältnisses zwischen der ersten Belichtungszeit und der zweiten Belichtungszeit, wenn die erste Belichtungszeit und die zweite Belichtungszeit unabhängig geändert werden, und ein Bildkombinationsverhältnissteuerungssignalerzeugungsmittel zum individuellen Steuern eines Bildsignalkombinationsverhältnisses, das verwendet wird zum Kombinieren des ersten Bildsignals und des zweiten Bildsignals, die durch das Bildaufnahmemittel gewonnen werden, basierend auf einem Ergebnis der Berechnung, die durch das Berechnungsmittel durchgeführt wird.
  • Ferner kann das Steuerungsmittel ein Mittel enthalten zum Schieben einer Enderzeugungszeitgebung einer elektronischen Blende, um die erste Belichtungszeit und die zweite Belichtungszeit zu bestimmen, indem ein TAKT eines Zeitgebungsgenerators als Einheit verwendet wird.
  • Das Bildsignalverarbeitungsmittel enthält: eine automatische Gewinnsteuerungsschaltung, die auf einem Signalweg des ersten Bildsignals und des zweiten Bildsignals bereitgestellt ist, um die Gewinne des ersten Bildsignals und des zweiten Bildsignals zu steuern; Eingabe-Ausgabe-Charakteristikumwandlungsschaltungen, die jeweils auf jedem der Signalwege des ersten Bildsignals und des zweiten Bildsignals bereitgestellt sind, die der Gewinnsteuerung in der automa tischen Gewinnsteuerungsschaltung unterworfen werden, um die Eingabe-Ausgabe-Charakteristiken des ersten Bildsignals und des zweiten Bildsignals zu steuern; und ein Bildsignalkombinationsmittel zum Kombinieren des ersten Bildsignals und des zweiten Bildsignals, die der Eingabe-Ausgabe-Charakteristikumwandlung in den Eingabe-Ausgabe-Charakteristikumwandlungsschaltungen unterworfen worden sind, in ein Bildsignal.
  • Gemäß der Bildaufnahmevorrichtung der vorliegenden Erfindung kann der dynamische Bereichsexpansionsfaktor der Kamera mit hoher Geschwindigkeit gemäß der Helligkeitsdifferenz in dem Subjekt variiert werden, und ein aufgenommenes Bild, das für die Subjekthelligkeitsdifferenz optimiert ist, wird erhalten. Als ein Ergebnis ist es möglich, eine Bildaufnahmevorrichtung bereitzustellen, die wirkungsvoll ist als fahrzeugmontierte Kamera zur Bilderkennung, die extrem groß in einer Helligkeitsdifferenz des Subjekts ist, oder ein Monitor oder eine Überwachungskamera zum gleichzeitigen Aufnehmen von Bildern innen und bei Nacht draußen.
  • Es wird möglich die Zeit zu reduzieren, die erforderlich ist, von der Bildaufnahme bis zur Beendigung der Bildverarbeitung, indem ein CMOS Sensor als Bildaufnahmegerät verwendet wird, der in dem Bildaufnahmemittel der Bildaufnahmevorrichtung enthalten ist, durch Auswählen und Extrahieren eines sehr wichtigen Bereichs aus einem Bildaufnahmebildbereich, und folglich durch Reduzieren des Informationsgehalts des Bildsignalsubjekts für eine Bildsignalverarbeitung. Folglich wird es möglich eine Bildaufnahmevorrichtung zu schaffen, die effektiv ist bei der Bildaufnahme von einem sich bewegenden Körper, wobei sich das Objekt ständig ändert.
  • Speziell in dem Fall, bei dem es notwendig ist, den nächsten Vorgang schnell zu steuern durch Verwendung der Bildaufnahmeinformation, die von der Bildaufnahmevorrichtung geliefert wird, beispielsweise bei dem Fall, bei dem der sich bewegende Körper gesteuert wird unter Verwendung eines Bildsignals, das von einer Bildaufnahmevorrichtung geliefert wird, die auf dem sich bewegenden Körper installiert ist, ist die Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung wirkungsvoll.
  • Die Eigenart und weitere Eigenschaften der vorliegenden Erfindung werden klarer durch die folgende Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen.
  • Kurze Beschreibung der Zeichnungen
  • In den Zeichnungen zeigen:
  • 1 ein Schaltungsblockdiagramm, das ein Ausführungsbeispiel einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung zeigt;
  • 2 zeigt ein Diagramm, das die Bildsignalkombination eines Niedergeschwindigkeitsblendenbildsignals und eines Hochgeschwindigkeitsblendenbildsignals in einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung zeigt;
  • 3 zeigt ein Diagramm, das die Bildaufnahmecharakteristik eines Bildaufnahmegeräts, das in einer Bildaufnahmevorrichtung enthalten ist, zeigt;
  • 4 zeigt ein Diagramm, das eine Signalverarbeitungsausgabecharakteristik einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung zeigt;
  • 5 zeigt ein Diagramm, das ein Beispiel einer Teilung eines Bilds zeigt, das durch eine Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung aufgenommen worden ist;
  • 6 zeigt ein Blockdiagramm einer Helligkeitsakkumulationswertschaltung, wie in 1 gezeigt;
  • 7 zeigt ein Blockdiagramm einer Helligkeitspeakwertdetektionsschaltung gemäß 1;
  • 8 zeigt ein Blockdiagramm einer Austastwellenformerzeugungsschaltung gemäß 1;
  • 9 zeigt ein Blockdiagramm einer Mikrocomputerschaltung gemäß 1;
  • 10 zeigt ein Diagramm, das die Verarbeitung der Inhalte eines Bilds zeigt, das durch Teilen eines aufgenommenen Bilds gewonnen wird, wobei 10A ein Bild ist, das einen Niedergeschwindigkeitshelligkeitsakkumulationswert zeigt, 10B ein Bild, das einen Niedergeschwindigkeitshelligkeitspeakwert zeigt, 10C ein Bild, das eine Berechnung eines gesättigten Bereichs basierend auf dem Niedergeschwindigkeitshelligkeitsakkumulationswert und einem Niedergeschwindigkeitshelligkeitspeakwert zeigt, und 10D ein Bild, das einen Hochgeschwindigkeitshelligkeitsakkumulationswert zeigt;
  • 11 ein Diagramm (Graphen), der eine Verschiebung eines Helligkeitsdurchschnittswerts zeigt, der geliefert wird von einem Helligkeitsdurchschnittswertberechnungsmittel, das in der Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung enthalten ist;
  • 12 ein Zustandsübergangsdiagramm, das die Übergänge eines Steuerungszustands der elektronischen Blendenbelichtung eines Bildaufnahmegeräts zeigt, das in einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung enthalten ist;
  • 13 ein Diagramm, das eine Bildhelligkeitsänderung zeigt, die verursacht wird durch eine Wechselstrom-Helligkeitslichtquelle;
  • 14 ein internes Blockdiagramm, das die elektronische Blendenimpulserzeugung in der elektronischen Blendenschaltung zeigt, die in einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung enthalten ist;
  • 15 enthält 15A, das ein Diagramm ist, das einen VD Impuls, und 15B, die ein Diagramm ist, das die elektronische Blendenimpulserzeugungszeitgebung auf einer Zeitskala einer V Frequenz zeigt;
  • 16 enthält 16A, die ein Diagramm ist, welches einen HD Impuls in einer V Frequenz (von t3 bis t5) zeigt, und 16B ein Diagramm ist, das eine elektronische Blendenimpulserzeugungszeitgebung auf einer Zeitskala einer H Frequenz zeigt;
  • 17 enthält die 17A, die ein Diagramm ist, das die verschiedenen CLK Impulse in einer V Frequenz (von t3 bis t5), wie in 15 gezeigt, zeigt und 17B, die ein Diagramm ist, das die elektronische Blendenimpulserzeugungszeitgebung auf einer Zeitskala von verschiedenen CLK Frequenzen zeigt;
  • 18 enthält 18A, die ein Diagramm zeigt, das verschiedene CLK Impulse in einer V Frequenz zeigt, und 18B, die ein Diagramm zeigt, das verdeutlicht wie eine Phase eines elektronischen Blendenimpulses mit einer Frequenz von einigen CLKs variiert wird durch ein Schieberegister, während ein Takt als Einheit verwendet wird;
  • 19 ein Schaltungsblockdiagramm, das ein zweites Ausführungsbeispiel einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung zeigt;
  • 20 ein Blockdiagramm, das eine Differenz in der gespeicherten elektronischen Ladeauslesezeit zeigt, die verursacht wird durch eine Differenz in dem Bildaufnahmegerät der Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung enthalten ist; wobei 20A den Fall eines CCD Sensors zeigt, wobei 20B den Fall eines CMOS Sensors zeigt;
  • 21 ein Diagramm, das ein Beispiel eines zweiten Ausführungsbeispiels einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung zeigt, das eine Kamera verwendet, die auf einem Fahrzeug installiert ist, wobei die Bildaufnahmevorrichtung auf einem sich bewegenden Körper installiert ist;
  • 22 zeigt eine herkömmliche Bildaufnahmevorrichtung, wobei 22A ein Diagramm ist, das ein CCD Sensorausgangssignal und 22B ein Diagramm zeigt, das ein Bildausgangssignal der Bildaufnahmevorrichtung zeigt; und
  • 23 ein Schaltungsblockdiagramm einer herkömmlichen Bildaufnahmevorrichtung.
  • Beschreibung der bevorzugten Ausführungsbeispiele
  • Im Folgenden werden unter Bezugnahme auf die beigefügten Zeichnungen Ausführungsbeispiele einer Bildaufnahmevorrichtung gemäß der vorliegenden Erfindung beschrieben.
  • (Erstes Ausführungsbeispiel)
  • 1 zeigt ein Beispiel eines Schaltungsblockdiagramms, das ein erstes Ausführungsbeispiel einer Bildaufnahmevorrichtung 20 gemäß der vorliegenden Erfindung zeigt.
  • Die Bildaufnahmevorrichtung 20, wie in 1 gezeigt, enthält ein Bildaufnahmemittel 21, ein Analogsignalverarbeitungsmittel 22 und ein Digitalsignalverarbeitungsmittel 23, die als Bildsignalverarbeitungsmittel dienen, ein Steuerungsmittel 24 und ein Bildsignalausgabeterminal 25, der als Bildsignalausgabemittel dient.
  • Die Bildaufnahmevorrichtung 20 nimmt ein Bild eines Subjekts auf, indem ein Bildaufnahmemittel 21 verwendet wird, und erzeugt ein Bildsignal (analoges Signal). Das erzeugte analoge Bildsignal wird umgewandelt von dem analogen Signal in ein digitales Signal (im Folgenden als A/D-Umwandlung bezeichnet) in dem Analogsignalverarbeitungsmittel 22 und als digitales Bildsignal ausgegeben. Dieses digitale Bildsignal wird an zwei Zweige geliefert. In einem Zweig wird das digitale Bildsignal in das Digitalsignalverarbeitungsmittel 23 eingegeben und der Signalverarbeitung unterworfen. Nach der Signalverarbeitung wird das digitale Bildsignal von dem digitalen Signal in ein analoges Signal umgewandelt (im Folgenden als D/A-Wandlung bezeichnet) und dann von einem Bildsignalausgabeterminal 25 ausgegeben.
  • In dem anderen Zweig wird das Bildsignal, das von dem Analogsignalverarbeitungsmittel 22 ausgegeben wird, in das Steuerungsmittel 24 eingegeben. Das Steuerungsmittel 24 erzeugt Steuerungssignale, um das Bildaufnahmemittel 21, das Analogsignalverarbeitungsmittel 22 und das Digitalsignalverarbeitungsmittel 23 zu steuern. Da das Steuerungsmittel 24 diese Mittel steuert, wird es möglich für die Bildaufnahmevorrichtung 20 ein Bild immer mit einer optimalen Blendengeschwindigkeit aufzunehmen, selbst wenn ein Subjekt eine Helligkeitsdifferenz in einem breiten Bereich aufweist.
  • Jedes der Mittel in der Bildaufnahmevorrichtung 20, wie in 1 gezeigt, wird im Folgenden beschrieben.
  • Das Bildaufnahmemittel 21 enthält eine Bildaufnahmelinse 27 zum Aufnehmen eines Bildlichts, das ein Subjektbild angibt, und beispielsweise einen CMOS (Complementary Metal-Oxide-Semiconductor) Sensor 28, der als ein Bildaufnahmegerät dient.
  • Das Bildaufnahmemittel 21 nimmt ein Bildlicht auf, das das Subjektbild angibt, indem die Bildaufnahmelinse 27 verwendet wird, und bildet ein Bild auf einer Lichtempfangsebene des CMOS Sensors 28. Für das Bildlicht, das ein Bild bildet, wird die Lichtmenge, mit der der CMOS Sensor 28 belichtet wird, eingestellt, indem die Belichtungszeit eingestellt wird, also die elektronische Blendengeschwindigkeit. Der CMOS Sensor 28 führt eine fotoelektrische Wandlung durch, und elektrische Ladung mit einer Menge entsprechend der Bildlichtmenge wird in dem CMOS Sensor 28 gespeichert. Ein Bildsignal, das der Menge der gespeicherten elektrischen Ladung entspricht, wird von dem CMOS Sensor 28 ausgegeben.
  • Wenn ein Bild des Subjekts aufgenommen wird, wiederholt die elektronische Blende in dem CMOS Sensor 28 die Bildaufnahmeoperation abwechselnd bei zwei unterschiedlichen Blendengeschwindigkeiten. Die Bildaufnahme erfolgt bei zwei Blendengeschwindigkeiten, also einer langsamen Blendengeschwindigkeit (im Folgenden als Niederblendengeschwindigkeit bezeichnet) und bei einer schnellen Blendengeschwindigkeit (im Folgenden als Hochblendengeschwindigkeit bezeichnet). Bildsignale, die abwechselnd von dem CMOS Sensor 28 ausgegeben werden, werden von dem Bildaufnahmemittel 21 ausgegeben und in das Analogsignalverarbeitungsmittel 22 eingegeben.
  • Das Analogsignalverarbeitungsmittel 22 enthält eine automatische Gewinnsteuerungsschaltung (im Folgenden als AGC Schaltung bezeichnet) 31 zum Durchführen einer Gewinneinstellung für die analogen Bildsignale, die abwechselnd darin eingegeben werden, und eine A/D-Umwandlungsschaltung 32 zum Durchführen einer A/D-Umwandlung. Die analogen Bildsignale, die in das Analogsignalverarbeitungsmittel 22 eingegeben werden, werden an die AGC Schaltung 31 und die A/D-Umwandlungsschaltung 32 der Reihe nach gesendet und der Signalverarbeitung unterworfen. Die AGC Schaltung 31 kann den Gewinn für jedes analoge Bildsignal variieren und einstellen gemäß einem Steuerungssignal, das von dem Steuerungsmittel 24 geliefert wird.
  • Die A/D Wandlungschaltung 32 führt eine A/D Umwandlung der analogen Bildsignale durch. Die Bildsignale nach der Umwandlung, also die digitalen Bildsignale, werden abwechselnd von dem Analogsignalverarbeitungsmittel 22 ausgegeben und abwechselnd in das Digitalsignalverarbeitungsmittel 23 eingegeben.
  • Das Digitalsignalverarbeitungsmittel 23 enthält ein Bildsignalverarbeitungsausführungsmittel 33, eine Additionsschaltung 34, die als ein Bildsignalkombinationsmittel dient, und eine D/A Umwandlungsschaltung 35 zum Durchführen der D/A Umwandlung für ein Bildsignal, das aus der Kombination resultiert.
  • Das Bildsignalverarbeitungsausführungsmittel 33 enthält ein Niedergeschwindigkeitsblendensignalverarbeitungsmittel 37 zum Durchführen einer Signalverarbeitung eines digitalen Bildsignals, das mit dem Niedergeschwindigkeitsblenden- und Hochgeschwindigkeitsblendensignalverarbeitungsmittel 38 aufgenommen wurde zum Durchführen einer Signalverarbeitung eines digitalen Bildsignals, das mit der hohen Blendengeschwindigkeit aufgenommen wird. Das Niedergeschwindigkeitsblendensignalverarbeitungsmittel 37 und das Hochgeschwindigkeitsblendensignalverarbeitungsmittel 38 enthalten eine Speicherschaltung, eine Schaltschaltung und eine Charakteristikumwandlungsschaltung. Mit anderen Worten, das Niedergeschwindigkeitsblendensignalverarbeitungsmittel 37 enthält eine Niedergeschwindigkeitsblendenspeicherschaltung 39, eine Niedergeschwindigkeitsblendenschaltschaltung 40 und eine Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41. Andererseits enthält das Hochgeschwindigkeitsblendensignalverarbeitungsmittel 38 eine Hochgeschwindigkeitsblendenspeicherschal tung 43, eine Hochgeschwindigkeitsblendenschaltschaltung 44 und eine Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45.
  • Die Bildsignalverarbeitung, die in dem Bildsignalverarbeitungsausführungsmittel 33 durchgeführt wird, wird im Folgenden unter Bezugnahme auf die 2 und 3 beschrieben.
  • 2 enthält (A) bis (K), die Operationsdiagramme repräsentieren, die einen Betrieb der Bildaufnahmevorrichtung 20 in Zeitabläufen zeigen.
  • 2(A) zeigt ein Vertikalsynchronisationssignal. Die Bildaufnahmevorrichtung 20 arbeitet in Synchronisation mit einer Frequenz des Vertikalsynchronisationssignals. In einem Intervall (ein vertikales Synchronisationsintervall) während welchem der CMOS Sensor 28 ein Bild aufnimmtund ein Bildsignal ausgibt, 2A01 ist ein Bildsignalausgabeintervall einer Niedergeschwindigkeitsblendenseite (im Folgenden bezeichnet als Niedergeschwindigkeitsblendenintervall), 2A02 ist ein Bildsignalausgabeintervall einer Hochgeschwindigkeitsblendenseite (im Folgenden bezeichnet als Hochgeschwindigkeitsblendenintervall), 2A03 ist ein Niedergeschwindigkeitsblendenintervall, 2A04 ist ein Hochgeschwindigkeitsblendenintervall und 2A05 ist ein Niedergeschwindigkeitsblendenintervall.
  • 2(B) zeigt einen elektronischen Blendenbetrieb des CMOS Sensors 28. Da eine Beziehung zwischen der elektronischen Ladespeicherzeit und der Auslesezeit des CMOS Sensors 28 besteht, tritt eine Verzögerung eines Vertikalsynchronisationsintervalls in dem elektronischen Blendenbetrieb des CMOS Sensors 28. In dem elektronischen Blendenbetrieb gemäß dem Vertikalsynchronisationssignal, wie in 2(A) gezeigt, wird folglich 2B01 ein Hochgeschwindigkeitsblendenbetriebsintervall und 2B02 wird ein Niedergeschwindigkeitsblendenbetriebsintervall. In gleicher Weise werden ein Hochgeschwindigkeitsblendenbetriebsintervall und ein Niedergeschwindigkeitsblendenbetriebsintervall wiederholt, und die Betriebsintervalle von 2B03, 2B04 und 2B05 werden gewonnen.
  • 2(C) zeigt den Betrieb der AGC Schaltung 31. Die AGC Schaltung 31 arbeitet unabhängig bei dem Niedergeschwindigkeitsblendenbetriebsintervall und dem Hochgeschwindigkeitsblendenbetriebsintervall. 2C01 wird ein Niedergeschwindigkeitsblendenbetriebsintervall und 2C02 wird ein Hochgeschwindigkeitsblendenbetriebsintervall. Selbiges wird wiederholt, und die Betriebsintervalle 2C03, 2C04 und 2C05 werden gewonnen.
  • 2(D) zeigt Bildsignale, die von dem CMOS Sensor 28 ausgegeben werden. 2D01 wird ein Niedergeschwindigkeitsblendenbildsignal, und 2D02 wird ein Hochgeschwindigkeitsblendenbildsignal. Selbiges wird wiederholt und die Betriebsintervalle 2D03, 2D04 und 2D05 werden gewonnen.
  • Die Ausgabecharakteristiken des Niedergeschwindigkeitsblendenbildsignals und des Hochgeschwindigkeitsblendenbildsignals, die von dem CMOS Sensor ausgegeben werden, wie in 2D gezeigt, werden im Folgenden ergänzend unter Bezugnahme auf 3 beschrieben.
  • 3 zeigt einen Graphen, der die Bildaufnahmecharakteristik des CMOS Sensors 28 zeigt, und zeigt einen Ausgangspegel des Niedergeschwindigkeitsblendenbildsignals und einen Ausgangspegel des Hochgeschwindigkeitsblendenbildsignals jeweils als Funktion einer Menge des einfallenden Lichts. In 3 ist die Ausgangscharakteristik des Niedergeschwindigkeitsblendenbildsignals dargestellt durch „3a", und ein Sättigungspunkt der Niedergeschwindigkeitsblende ist dargestellt durch „3b". Andererseits ist die Ausgangscharakteristik des Hochgeschwindigkeitsblendenbildsignals dargestellt durch „3c", und ein Sättigungspunkt der Hochgeschwindigkeitsblende ist dargestellt durch „3d". Gemäß 3 kommt das Niedergeschwindigkeitsblendenbildsignal bei der Sättigung mit einer kleinen Menge einfallenden Lichts an und kommt früher bei der Sättigung an. Im Gegensatz dazu kommt das Hochgeschwindigkeitsblendenbildsignal bei der Sättigung mit einer größeren Menge des einfallenden Lichts an und kommt bei der Sättigung später an. In der Charakteristik der Bildausgangssignale, wie in 2(D) gezeigt, ist folglich 2D01 (das Niedergeschwindigkeitsblendenbildsignal) gesättigt und deren Ausgabe erreicht die Spitze auf dem vertikalen Synchronisationsintervall. Andererseits sättigt 2D02 (das Hochgeschwindigkeitsblendenbildsignal) nicht und deren Ausgabe ist leicht bei einem Vertikalsynchronisationsintervall erhöht.
  • 2(E) bis 2(J) zeigen Diagramme, die den Betrieb veranschaulichen.
  • 2(E) zeigt das Gleiche wie 2(D). Beide Figuren, 2(E) und 2(D) zeigen die Ausgabe der A/D-Wandlungsschaltung, die das Analogsignalverarbeitungsmittel 222 enthält, wie in 1 gezeigt.
  • In 2(E) wird 2E01 ein Niedergeschwindigkeitsblendenbildsignal, und 2E02 wird ein Hochgeschwindigkeitsblendenbildsignal. Selbiges wird wiederholt, und die Bildsignale 2E03, 2E04 und 2E05 werden ausgegeben. Gemäß 2(E) sind beide, das Niedergeschwindigkeitsblendenbildsignal und das Hochgeschwindigkeitsblendenbildsignal intermittierende Signale. Beispielsweise, wenn man die Aufmerksamkeit auf das Niedergeschwindigkeitsblendenbildsignal richtet, ist das intermittierende Signal gebildet durch 2E01, 2E03 und 2E05.
  • In 2(E) sind das Niedergeschwindigkeitsblendenbildsignal und das Hochgeschwindigkeitsblendenbildsignal abgekürzt als Niedergeschwindigkeitsblendensignal und Hochgeschwindigkeitsblendensignal. Im Folgenden wird die gleiche Abkürzung für die Diagramme verwendet, die andere sind als 2(E).
  • Das Niedergeschwindigkeitsblendenbildsignal, das von der A/D Umwandlungsschaltung 32 ausgegeben wird, die im Analogsignalverarbeitungsmittel 22 gemäß 1 enthalten ist, wird einerseits eingegeben in die Niedergeschwindigkeitsblendenschaltschaltung 40 über die Niedergeschwindigkeitsblendenspeicherschaltung 39 und andererseits eingegeben direkt in die Niedergeschwindigkeitsblendenschaltschaltung 40. Die Niedergeschwindigkeitsblendenschaltschaltung 40 erzeugt ein kontinuierliches Bildsignal von dem intermittierenden Bildsignal durch Schalten eines Bildsignaleingangs zwischen einem Eingang von der Niedergeschwindigkeitsblendenspeicherschaltung 39 und einem Eingang der A/D Wandlerschaltung 32, die in dem Analogsignalverarbeitungsmittel 22 enthalten sind, bei jedem vertikalen Intervall.
  • 2(F) zeigt ein Niedergeschwindigkeitsblendenbildsignal, das ein kontinuierliches Signal wird. In 2(F) sind die Signale, die mit Buchstaben versehen sind, enthaltend M, Bildsignale, die von der Niedergeschwindigkeitsblendenspeicherschaltung 39 eingegeben werden. Das Signal gemäß 2(F) wird erzeugt durch Schalten auf den Eingang von der Niedergeschwindigkeitsblendenspeicherschaltung 39 und durch Eingeben des Niedergeschwindigkeitsblendenbildsignals, das in einem Speicher in der Niedergeschwindigkeitsblendenspeicherschaltung 39 gespeichert ist, in den Intervallen von 2E02 und 2E04, wie in 2(E) gezeigt, während denen das Niedergeschwindigkeitsblendenbildsignal fehlt.
  • Andererseits ist das Hochgeschwindigkeitsblendenbildsignal in 2(G) gezeigt. In dem Hochgeschwindigkeitsblendenbildsignal ist ein Prozess zum Erzeugen eines kontinuierlichen Signals der gleiche wie in dem Fall des Niedergeschwindigkeitsblendenbildsignals. Folglich wird die Beschreibung des Hochgeschwindigkeitsblendenbildsignals hier weggelassen.
  • Das Niedergeschwindigkeitsblendenbildsignal und das Hochgeschwindigkeitsblendenbildsignal, die kontinuierlich erzeugt wurden durch die Niedergeschwindigkeitsblendenschaltschaltung 40 und die Hochgeschwindigkeitsblendenschaltschaltung 44 werden beispielsweise einer Charakteristikumwandlung unterworfen zum Gewinnen einer Gammacharakteristik in der Niedergeschwindigkeitscharakteristikumwandlungsschaltung 41 und der Hochgeschwindigkeitscharakteristikumwandlungsschaltung 45. Das Niedergeschwindigkeitsblendenbildsignal und das Hochgeschwindigkeitsblendenbildsignal, die nach der Charakteristikumwandlung gewonnen werden, entsprechen den 2(H) und 2(I).
  • Die Additionsschaltung 34, die als Bildsignalkombinationsmittel dient, wie in 1 gezeigt, addiert das Niedergeschwindigkeitsblendenbildsignal und das Hochgeschwindigkeitsblendenbildsignal, die jeweils der Charakteristikumwandlung in der Niedergeschwindigkeitscharakteristikumwandlungsschaltung 41 und der Hochgeschwindigkeitscharakteristikumwandlungsschaltung 45 unterworfen worden sind, die in dem Bildsignalverarbeitungsausführungsmittel 33 enthalten sind, und gewinnt dann ein kombiniertes digitales Bildsignal.
  • 2(J) und 2(K) sind Diagramme, die die Addition des Niedergeschwindigkeitsblendenbildsignals und des Hochgeschwindigkeitsblendenbildsignals zeigen, die der Charakteristikumwandlung unterworfen wurden. 2(K) zeigt 2(J) in analoger Form. 2(J) und 2(K) zeigen die gleichen Inhalte. 4 zeigt eine Ausgangscharakteristik des gewonnenen kombinierten Bildsignals. Die Ausgabecharakteristik des kombinierten Bildsignals gemäß 4 wird eine Charakteristik, die gewonnen wird durch Kombinieren der Ausgangscharakteristik (3a" des Niedergeschwindigkeitsblendenbildsignals und der Ausgangscharakteristik „3c" des Hochgeschwindigkeitsblendenbildsignals gemäß 3. In jedem der Intervalle 2K01 bis 2K05 gemäß 2(K), ist ein kombiniertes Bildsignalausgangssignal (digitales Signal) ähnlich Bildsignalausgangscharakteristik gemäß 4.
  • Die D/A Umwandlungsschaltung 35 gemäß 1 führt eine D/A Umwandlung des Bildsignals durch, das durch die Kombination gewonnen wird, die in der Additionsschaltung 34 durchgeführt wird, und gibt ein analoges Bildsignal aus. Das analoge Bildsignal, das von der DIA Umwandlungsschaltung 35 ausgegeben wird, wird an das Bildsignalausgabemittel gesendet und von dem Bildsignalausgabeterminal 25 ausgegeben, der als Bildsignalausgabemittel dient, als Ausgangssignal der Bildaufnahmevorrichtung 20.
  • Das Steuerungsmittel 24 enthält Bildsignalinformationserfassungsmittel 47, eine Mikrocomputerschaltung 48, die als Steuerungssignalerzeugungsmittel dient, und eine elektronische Blendenschaltung 49.
  • Das Steuerungsmittel 24 erfasst Bildsignalinformation von dem Niedergeschwindigkeitsblendenbildsignal und dem Hochgeschwindigkeitsblendenbildsignal in dem Bildsignalinformationserfassungsmittel 47, und erzeugt Steuerungssignale zum Steuern der Bildaufnahmevorrichtung 20 basierend auf der erfassten Bildsignalinformation in der Mikrocomputerschaltung 48. Von den Steuerungssignalen, die durch die Mikrocomputerschaltung 48 erzeugt werden, werden Steuerungssignale zum Steuern des Bildaufnahmemittels 21 in die elektronische Blendenschaltung 49 eingegeben. Die elektronische Blendenschaltung 49 gibt folglich Steuerungssignale aus zum Steuern der elektronischen Blende des CMOS Sensor 28.
  • Das Bildsignalinformationserfassungsmittel 47 teilt zuerst ein Bildsignal, das einem Bildrahmen entspricht, der durch die Bildaufnahmeoperation gewonnen wurde, um die Bildsignalinformation zu erfassen. Das Bildsignalinformationserfassungsmittel 47 enthält eine Helligkeitsakkumulationswertschaltung 50, die als geteiltes Bildhelligkeitsakkumulationsmittel zum Akkumulieren von Helligkeit dient, was Bildsignalinformation bezüglich jedes Bildsignals ist, das durch die Division gewonnen wird, eine Helligkeitspeakwertdetektionsschaltung 51, die als Detektionsmittel für den geteilten Bildhelligkeitspeakwert dient zum Detektieren eines Spitzenwerts der Helligkeit, und eine Austastwellenformerzeugungsschaltung 52 zum Teilen des Bildsignals entsprechend einem Bildrahmen, der durch die Bildaufnahmeoperation gewonnen wird.
  • Das Bildsignalinformationserfassungsmittel 47 teilt zuerst das Bildsignal, das einem Bildrahmen entspricht, der durch die Bildaufnahmeoperation gewonnen wird, um einen Akkumulationswert für die geteilte Bildhelligkeit zu berechnen und einen geteilten Bildhelligkeitspeakwert als Bildsignalinformation.
  • 5 zeigt ein Diagramm, das zeigt, wie ein Bildsignal, das einem Bildrahmen entspricht, geteilt wird, und ein Bildrahmen wird geteilt. Gemäß 5, in einem Gesamtrahmen eines Bilds 53, das durch die Bildaufnahmeoperation gewonnen wird, wird ein Bildsignal, das einem Bildrahmen entspricht, beispielsweise in 25 Bereiche geteilt, und eine Anordnung von Bildsignalen von 25 Bilddivisionen 54 wird folglich gewonnen. Diese Bilddivision wird ausgeführt, indem ein Austastsignal verwendet wird, das durch die Austastwellenformerzeugungsschaltung 52 erzeugt wird, die in dem Bildsignalinformationserfassungsmittel 47 enthalten ist.
  • Die Austastwellenerzeugungsschaltung 52 erzeugt das Austastsignal, indem ein horizontaler Synchronisationsimpuls (im Folgenden als HD Impuls bezeichnet), ein vertikaler Synchronisationsimpuls (im Folgenden als VD Impuls bezeichnet) und ein Taktimpuls (im Folgenden als CLK Impuls bezeichnet) verwendet werden. Das Austastsignal wird an die Helligkeitsakkumulationswertschaltung 52 gesendet zum Sammeln der Helligkeit, und an die Helligkeitspeakwertdetektionsschaltung 51 zum Detektieren eines Spitzenwerts der Helligkeit. Ein Bildsignal, das einem Bildrahmen in dem gesamten Rahmen des Bilds 53 entspricht, der gewonnen wird durch die Bildaufnahmeoperation, wird in 25 Bilddivisionen 54 unterteilt.
  • 6 zeigt ein Blockdiagramm der Helligkeitsakkumulationswertschaltung 50, die als ein Divisionsbildhelligkeitsakkumulationsmittel dient, das in dem Bildsignalinformationserfassungsmittel 47 enthalten ist.
  • Die Helligkeitsakkumulationswertschaltung 50 gemäß 6 berechnet einen Helligkeitsakkumulationswert jedes Bildsignals entsprechend jeder der Bilddivisionen 54. Die Helligkeitsakkumulationswertschaltung 50 gibt das Bildsignal, das von dem Analogsignalverarbeitungsmittel 22 ausgegeben wird, und das Austastsignal, das durch die Austastwellenformerzeugungsschaltung 52 erzeugt wird, an die Austastschaltung 58, und sperrt ein Bildsignal von einem Bildbereich einer gegenwärtigen Bilddivision 54. Das gesperrte Bildsignal wird einer Helligkeitsakkumulation in einem Akkumulationsverarbeitungsabschnitt 59 unterworfen. Ein Helligkeitsakkumulationswert wird von der Akkumulationsausgabesteuerungsschaltung 60 ausgegeben gemäß einem Steuerungssignal von der Mikrocomputerschaltung 48. Der ausgegebene Helligkeitsakkumulationswert wird in die Mikrocomputerschaltung 48 eingegeben.
  • Die Helligkeitsakkumulation, die in dem Akkumulationsverarbeitungsabschnitt 59 ausgeführt wird, wird bei jedem Pixel in dem gesperrten Bildsignal und in einer Akkumulationsschaltung 62 durchgeführt, und eine Einpixelhalteschaltung 63, die in dem Akkumulationsverarbeitungsabschnitt 59 enthalten sind. Die Akkumulationsschaltung 62 fügt einen Helligkeitswert eines eingegebenen Bildsignals entsprechend einem Pixel und einem Helligkeitswert der Bildsignale entsprechend den Pixeln, die bereits in dem Akkumulationsprozess abgeschlossen worden sind, durch, und gibt einen Helligkeitswert, der durch die Addition gewonnen wird, an die Einpixelhalteschaltung 63. Die Einpixelhalteschaltung 63 speichert den eingegebenen Helligkeitswert und gibt den gespeicherten Helligkeitswert an die Akkumulationsschaltung 62 zurück.
  • Die Addition des zurückgeführten Helligkeitswerts und des Helligkeitswerts des Bildsignals, die in die Akkumulationsschaltung 62 eingegeben werden, werden wiederholt, und ein Akkumulationswert der Helligkeit des gesperrten Bildsignals wird berechnet. Als berechneter Helligkeitsakkumulationswert wird die Ausgabe der Einpixelhalteschaltung 63 durch eine Akkumulationsausgabesteuerungsschaltung 60 akzeptiert gemäß einem ausgegebenen Steuerungssignal von der Mikrocomputerschaltung 48, wie in 1 gezeigt. Der akzeptierte Helligkeitsakkumulationswert wird von der Akkumulationsausgabesteuerungsschaltung 60 ausgegeben und an die Mikrocomputerschaltung 48 gesendet.
  • Andererseits ist in 7 ein Blockdiagramm einer Helligkeitspeakwertdetektionsschaltung 51 gezeigt, die als ein Divisionsbildhelligkeitspeakwertdetektionsmittel dient, das in dem Bildsignalinformationserfassungsmittel 47 enthalten ist.
  • Die Helligkeitspeakwertdetektionsschaltung 51 detektiert einen Peakwert eines Helligkeitswerts bei jedem Bildsignal entsprechend jeder der Bilddivisionen 54. In gleicher Weise wie die Helligkeitsakkumulationswertschaltung 50 gibt die Helligkeitspeakwertdetektionsschaltung 51 das Bildsignal, das von dem Analogsignalverarbeitungsmittel 22 ausgegeben wird, und das Austastsignal, das durch die Austastwellenformerzeugungsschaltung 52 erzeugt wird, an eine Peakwertdetektionsaustastschaltung 64 und sperrt ein Bildsignal von einem Bildbereich der vorgesetzten Bilddivision 54. Die Peakwertdetektionsaustastschaltung 64 gibt das gesperrte Bildsignal Pixel für Pixel aus.
  • Ein Helligkeitspeakwert des ausgetasteten Bildsignals wird detektiert. Die Detektion des Helligkeitspeakwerts wird durchgeführt, nachdem Helligkeitswerte von zwei aufeinanderfolgenden Pixeln addiert worden sind. Dies liegt daran, dass die Größe des Signals sich Pixel für Pixel in dem Fall ändert, bei dem ein optisches Farbfilter des CMOS Sensors 28 ein komplementäres Farbmosaik ist. Durch Addieren von Helligkeitswerten von zwei Pixeln kann ein Einfluss einer Differenz in dem Farbfilter beseitigt werden.
  • Um Helligkeitswerte von zwei Pixeln zu addieren, werden ein Eingangsstromsignal und ein Signal, das gewonnen wird durch Verzögern des Stromsignals um ein Pixel, in der Peakwertdetektionseinpixelhalteschaltung 65, also ein Signal, das dem Stromsignal um ein Pixel vorangeht, in der Helligkeitsadditionsschaltung 66 addiert. Die addierten Helligkeitswerte der zwei Pixel werden der Peakwertdetektionsverarbeitung als eine Einheit unterworfen und an eine Zweipixelhalteschaltung 67 eingegeben. Die Zweipixelhalteschaltung 67 empfängt ein Signal von einer Zweipixelhaltesignalerzeugungsschaltung 68 und erzeugt ein Helligkeitswertsignal mit Pixelwerten, die zwei Pixeln entsprechen, als die Einheit.
  • Das Helligkeitswertsignal, das die augenblickliche Signalausgabe von der Zweipixelhalteschaltung 67 enthält, wird in die Vergleichsschaltung 69 eingegeben und mit einem Helligkeitswertsignal verglichen, das ein Signal enthält, das dem augenblicklichen Signal zwei Pixel vorangeht. Die Vergleichsschaltung 69 vergleicht zwei Helligkeitswertsignale miteinander, erzeugt ein Auswahlsignal zum Auswählen eines Helligkeitswertsignals entsprechend einem größeren Helligkeitswert und liefert das Helligkeitswertsignal an eine Schaltschaltung 70. Die Schaltschaltung 70 dient zum Auswählen eines augenblicklichen Signals und eines Helligkeitswert signals, das ein Signal enthält, das dem augenblicklichen Signal zwei Pixel vorangeht, das einen größeren Helligkeitswert aufweist, basierend auf dem Auswahlsignal, das von der Vergleichsschaltung 69 geliefert wird. Das ausgewählte Signal wird in eine Helligkeitswertsignalhalteschaltung 71 eingegeben, um darin gehalten zu werden.
  • Das Helligkeitswertsignal, das in der Helligkeitswertsignalhalteschaltung 71 gehalten wird, wird an die Vergleichsschaltung 69 zurückgeführt, und die Vergleichsverarbeitung zwischen dem Helligkeitswertsignal, das zurückgeführt wurde, und dem Helligkeitswertsignal, das von der Zweipixelhalteschaltung 67 geliefert wird, wird wiederholt. Diese Vergleichsverarbeitung wird durchgeführt bis die Ausgabefunktion des Bildsignals von der Peakwertdetektionsaustastschaltung 64 beendet ist. Nach der Beendigung der Vergleichsverarbeitung, akzeptiert eine Peakwertausgabesteuerungsschaltung 72 die Ausgabe einer Helligkeitswertsignalhalteschaltung 71, also die Ausgabe des Helligkeitspeakwertsignals gemäß eines ausgegebenen Steuerungssignals, das von der Mikrocomputerschaltung 48 gemäß 1 geliefert wird. Die Ausgabe des Helligkeitspeakwertsignals, das folglich akzeptiert wurde, wird von der Peakwertausgabesteuerungsschaltung 72 ausgegeben und an die Mikrocomputerschaltung 48 gesendet.
  • Die Austastwellenformerzeugungsschaltung 52 erzeugt ein Austastsignal zum Teilen eines Bilds, um einen Akkumulationswert und einen Spitzenwert der Helligkeit zu detektieren. Ein Blockdiagramm der Austastwellenformerzeugungsschaltung 52 ist in 8 gezeigt. Diese Austastwellenformerzeugungsschaltung 52 enthält einen Vertikalrichtungseinstellungsabschnitt 74 und einen Horizontalrichtungseinstellungsabschnitt 75 zum Einstellen eines Austastbereichs, und eine Kombinationsschaltung 76 zum Erzeugen des Austastsignals. Die Austastwellenformerzeugungsschaltung 52 erzeugt und gibt das Austastsignal zum Einstellen eines Austastbereichs basierend auf drei Eingangssignalen, dem VD Impuls, dem HD Impuls und CLK Impuls aus.
  • Das Einstellen des Austastbereichs in der vertikalen Richtung erfolgt durch den Vertikalrichtungseinstellungsabschnitt 74. Der VD Impuls, der in den Vertikalrichtungseinstellungsabschnitt 74 eingegeben wird, wird in eine Vertikalsynchronisationszurücksetzsignalerzeugungsschaltung 78 eingegeben. Die Vertikalsynchronisationszurücksetzsignalerzeugungsschaltung 76 erzeugt ein Zurücksetzsignal, und das erzeugte Zurücksetzsignal wird in eine Vertikalrich tungsstartpositionseinstellungsschaltung 79 eingegeben. Die Vertikalrichtungsstartpositionseinstellungsschaltung 79 zählt die HD Impulse und bestimmt den Startpunkt in der vertikalen Richtung. Wenn der Startpunkt in der vertikalen Richtung bestimmt wird, kann eine Breite in der Vertikalrichtung gesetzt werden von dem Startpunkt aus durch Zählen der HD Impulse in einer Vertikalrichtungsbreiteneinstellungsschaltung 80. Die Breite in der vertikalen Richtung, die durch die Vertikalrichtungsbreiteneinstellungsschaltung 80 gesetzt wird, wird an eine Kombinationsschaltung 76 als ein Vertikalbreitensignal eingegeben.
  • Andererseits erfolgt das Einstellen des Austastbereichs in horizontaler Richtung durch den Horizontalrichtungseinstellungsabschnitt 75. Der VD Impuls, der in den Horizontalrichtungseinstellungsabschnitt 75 eingegeben wird, wird in eine Horizontalsynchronisationszurücksetzsignalerzeugungsschaltung 82 eingegeben. Die Horizontalsynchronisationszurücksetzsignalerzeugungsschaltung 82 erzeugt ein Zurücksetzsignal, und das erzeugte Zurücksetzsignal wird in eine Horizontalrichtungsstartpositionseinstellungsschaltung 83 eingegeben. Die Horizontalrichtungsstartpositionseinstellungsschaltung 83 zählt die CLK Impulse und bestimmt den Startpunkt in der horizontalen Richtung. Wenn der Startpunkt in der horizontalen Richtung bestimmt ist, kann eine Breite in der horizontalen Richtung eingestellt werden von dem Startpunkt aus durch Zählen der CLK Impulse in einer Horizontalrichtungsbreiteneinstellungsschaltung 84. Die Breite in der horizontalen Richtung, die durch die Horizontalrichtungsbreiteneinstellungsschaltung 84 eingestellt wird, wird als ein Horizontalbreitensignal ausgegeben und in die Kombinationsschaltung 76 eingegeben.
  • Das Vertikalbreitensignal und das Horizontalbreitensignal, die jeweils von der Vertikalrichtungsbreiteneinstellungsschaltung 80 und der Horizontalrichtungsbreiteneinstellungsschaltung 84 gewonnen werden, werden kombiniert in der Kombinationsschaltung 76. Ein Signal, das durch die Kombination gewonnen wird, wird von der Austastungswellenformerzeugungsschaltung 52 als das Austastsignal ausgegeben.
  • Ein Schaltungsblockdiagramm der Mikrocomputerschaltung 48, die in dem Steuerungsmittel 24 enthalten ist, ist in 9 gezeigt.
  • Der Mikrocomputer 48 wird beliefert mit dem Akkumulationswert und dem Spitzenwert der Helligkeit jeweils von der Helligkeitsakkumulationswertschaltung 50 und der Helligkeitspeakwertdetektionsschaltung 51 in dem Bildsignalinformationserfassungsmittel 47 als Bildsignalinformation. Der Akkumulationswert und der Spitzenwert der Helligkeit, die folglich eingegeben werden, werden dann in ein Helligkeitsdurchschnittswertsberechnungsmittel 86 eingegeben, und ein Durchschnittswert der Helligkeit wird berechnet. Der Durchschnittswert der folglich berechneten Helligkeit wird in das Steuerungssignalerzeugungsmittel 87 eingegeben, und eine elektronische Blendengeschwindigkeit wird dann berechnet. Anschließend werden Steuerungssignale zum Steuern jeweiliger Mittel und Abschnitte der Bildaufnahmevorrichtung 20, um ein geeignetes ausgenommenes Bild von einem Berechnungsergebnis der elektronischen Blendengeschwindigkeit zu gewinnen.
  • Ein Beispiel der visuellen Darstellung von Daten bezüglich der Mikrocomputerschaltung 48 ist in 10 gezeigt. Die Helligkeitsdurchschnittswertberechnungsverarbeitung, die durch das Helligkeitsdurchschnittswertberechnungsmittel 86 durchgeführt wird, das bereitgestellt wird für die Mikrocomputerschaltung 48, wird im Folgenden unter Bezugnahme auf 10 beschrieben.
  • Das Helligkeitsdurchschnittswertberechnungsmittel 86 klassifiziert die Bilddivisionen 54, wie in 5 gezeigt, in einen Bereich, der in der Helligkeit gesättigt ist (im Folgenden als gesättigter Helligkeitsbereich bezeichnet) 89 und einen Bereich, der in der Helligkeit nicht gesättigt ist (im Folgenden als ungesättigter Helligkeitsbereich) 90 bezeichnet, basierend auf dem Helligkeitsakkumulationswert des Niedergeschwindigkeitsblendenbildsignals (im Folgenden als Niedergeschwindigkeitshelligkeitsakkumulationswert bezeichnet), das bezüglich der Helligkeit durch die Helligkeitsakkumulationswertschaltung 50 akkumuliert worden ist und dem Helligkeitsspitzenwert des Niedergeschwindigkeitsblendenbildsignals (im Folgenden als Niedergeschwindigkeitshelligkeitspeakwert bezeichnet), der von der Helligkeitspeakwertdetektionsschaltung 51 gewonnen wird.
  • Für die Klassifizierung in den gesättigten Helligkeitsbereich 89 und den ungesättigten Helligkeitsbereich 90 wird ein Helligkeitsdurchschnittswert des Niedergeschwindigkeitsblendenbild signals (im Folgenden als Niedergeschwindigkeitshelligkeitsdurchschnittswert bezeichnet) von dem Niedergeschwindigkeitshelligkeitsakkumulationswert jeder Bilddivision 54 gewonnen.
  • 10A zeigt ein Diagramm von Bilddivisionen 54, die den Niedergeschwindigkeitshelligkeitsakkumulationswert zeigen. Beispielsweise wird jetzt angenommen, dass der Helligkeitspegel eine Breite von 8 Bits (28 = 256) hat, und der Niedergeschwindigkeitshelligkeitsdurchschnittswert gleich 200 ist. Ein Bereich, der mindestens 200 in jeder Geschwindigkeitshelligkeitsdurchschnittswert ist, wird extrahiert. Der extrahierte Bereich, der mindestens 200 in Niedergeschwindigkeitshelligkeitsdurchschnittswert aufweist, ist ein Bereich, der von einer unterbrochenen Linie in 10A umgeben ist.
  • Ein Bereich, in dem der Helligkeitsspitzenwert, der von dem gleichen Niedergeschwindigkeitsblendenbildsignal gewonnen wird, der maximale Wert der 8 Bit-Breite wird, wird extrahiert. 10B ist ein Diagramm von Bilddivisionen 54, die den Niedergeschwindigkeitshelligkeitsspitzenwert zeigen. Der extrahierte Bereich, in dem der Niedergeschwindigkeitshelligkeitsspitzenwert der maximale Wert wird, ist ein Bereich, der durch die unterbrochene Linie in 10B umgeben ist.
  • Aufeinanderfolgend wird ein Bereich, in dem der Niedergeschwindigkeitshelligkeitsdurchschnittswert mindestens 200 ist, und der Niedergeschwindigkeitshelligkeitsspitzenwert der maximale Wert der 8 Bit-Breite ist, extrahiert. 10C ist ein Diagramm, das die Berechnung des gesättigten Helligkeitsbereichs 89 von dem Niedergeschwindigkeitshelligkeitsakkumulationswert und dem Niedergeschwindigkeitshelligkeitsspitzenwert in den Bilddivisionen 54 zeigt, die den Niedergeschwindigkeitshelligkeitsakkumulationswert zeigen.
  • Der Bereich, der als der Bereich extrahiert wird, in dem der Niedergeschwindigkeitsdurchschnittswert mindestens 200 ist, und der Niedergeschwindigkeitshelligkeitsspitzenwert der maximale Wert der 8-Bit ist, ist der Bereich, der dem Bereich gemeinsam ist, der durch die unterbrochene Linie 10A umgeben ist und dem Bereich, der durch die unterbrochene Linie in 10B umgeben ist.
  • In 10C ist der Bereich, bei dem der Niedergeschwindigkeitshelligkeitsdurchschnittswert mindestens 200 ist, und der Niedergeschwindigkeitshelligkeitsspitzenwert ist ein Bereich, der durch eine unterbrochene Linie umgeben ist. Der Bereich, der durch die unterbrochene Linie in 10C umgeben ist, wird als gesättigter Helligkeitsbereich 89 beurteilt, und der verbleibende Bereich wird als ungesättigter Helligkeitsbereich 90 beurteilt. Der gesättigte Helligkeitsbereich 89 wird als ein Subjekt der Bildaufnahme gehandhabt, indem die Hochgeschwindigkeitsblende verwendet wird.
  • Nachdem das Niedergeschwindigkeitsbildsignal in den gesättigten Helligkeitsbereich 89 und den ungesättigten Helligkeitsbereich 90 klassifiziert worden ist, wird ein Niedergeschwindigkeitshelligkeitsdurchschnittswert von dem nicht gesättigten Helligkeitsbereich des Helligkeitsakkumulationswerts in dem Niedergeschwindigkeitsblendenbildsignal berechnet.
  • Wie für das Hochgeschwindigkeitsblendenbildsignal wird ein Helligkeitsdurchschnittswert des Hochgeschwindigkeitsblendenbildsignals (im Folgenden als Hochgeschwindigkeitshelligkeitsdurchschnittswert bezeichnet) berechnet aus dem gesättigten Helligkeitsbereich 89 des Helligkeitsakkumulationswerts in den Hochgeschwindigkeitsblendenbildbereich in gleicher Weise wie bei den Niedergeschwindigkeitsblendenbildsignal. 10D zeigt ein Diagramm, das die Berechnung des Hochgeschwindigkeitshelligkeitsdurchschnittswerts von dem gesättigten Helligkeitsbereich 89 des Helligkeitsakkumulationswerts in dem Hochgeschwindigkeitsblendenbildsignal zeigt.
  • Das Steuerungssignalerzeugungsmittel 87 enthält ein Berechnungsverarbeitungsmittel 91, das als Berechnungsmittel dient zum Berechnen der Blendengeschwindigkeit und des Blendengeschwindigkeitsverhältnisses. Das Berechnungsverarbeitungsmittel 91 enthält einen Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 zum Durchführen der Verarbeitung eines Helligkeitsdurchschnittswerts, der von dem Niedergeschwindigkeitsblendenbildsignal berechnet wird (im Folgenden als Niedergeschwindigkeitshelligkeitsdurchschnittswert bezeichnet), und einen Hochgeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 93 zum Durchführen einer Verarbeitung des Helligkeitsdurchschnittswerts, der von dem Hochgeschwindigkeitsblendenbildsignal berechnet wird (im Folgenden als Hochgeschwindigkeitshelligkeitsdurchschnittswert bezeichnet). Um ein geeignetes aufgenommenes Bild für das Nieder geschwindigkeitsblendenbild und das Hochgeschwindigkeitsblendenbild zu gewinnen, werden die elektronische Blendenschaltung 49 und die AGC Schaltung 31 durch den Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 und den Hochgeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 93 gesteuert. Durch folgliches Variieren der elektronischen Blendengeschwindigkeit und des Gewinns des Bildsignals, wird ein geeignetes aufgenommenes Bild gewonnen.
  • Zusätzlich zu dem Berechnungsverarbeitungsmittel 91 enthält das Steuerungssignalerzeugungsmittel 87 einen Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95 zum Steuern der Charakteristikumwandlung des Bildsignals als Charakteristikumwandlungssteuerungssignalerzeugungsmittel, und einen Kombinationsverhältnissteuerungssignalerzeugungsabschnitt 96 zum Steuern eines Bildkombinationsverhältnisses zwischen zwei Bildsignalen als Bildkombinationsverhältnissteuerungssignalerzeugungsmittel.
  • Der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92, der in dem Berechnungsverarbeitungsabschnitt 91 enthalten ist, enthält einen Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 und einen Niedergeschwindigkeits-AGC-Schaltungssteuerungssignalerzeugungsabschnitt 99, der als ein automatisches Gewinnsteuerungssignalerzeugungsmittel dient. Der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 erzeugt ein Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal und ein AGC Steuerungssignal.
  • Der Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 erzeugt ein Niedergeschwindigkeitsblenden-Steuerungssignal zum Ändern der elektronischen Blendengeschwindigkeit des CMOS Sensors 28, wie in 1 gezeigt, basierend auf dem darin eingegebenen Niedergeschwindigkeitshelligkeitsdurchschnittswert. Wenn der eingegebene Niedergeschwindigkeitshelligkeitsdurchschnittswert einen geeigneten (geeignetsten oder optimalsten) Bereich überschreitet, dann ändert der Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 die elektronische Blendengeschwindigkeit grob mit einer großen Breite (im Folgenden als Grobeinstellung bezeichnet). Wenn der eingegebene Niedergeschwindigkeitshelligkeitsdurchschnittswert in einem geeigneten Bereich liegt, dann variiert der Niedergeschwindigkeitsblenden- Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 abschließend die elektronische Blendengeschwindigkeit mit einer kleinen Breite (im Folgenden als Feineinstellung bezeichnet). Mit anderen Worten, die elektronische Blendengeschwindigkeit wird in zwei Schritten eingestellt. Das Niedergeschwindigkeitsblenden-Steuerungssignal wird erzeugt, damit sich der Niedergeschwindigkeitshelligkeitsdurchschnittswert allmählich dem Zentrum des geeigneten Bereichs als Ergebnis der Steuerung annähert. Das Niedergeschwindigkeitsblenden-Steuerungssignal, das folglich erzeugt wird, wird in die elektronische Blendenschaltung 49 eingegeben, um die elektronische Blendenschaltung 49 zu steuern.
  • Die Steuerung der elektronischen Blendengeschwindigkeit, die durch den Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 ausgeführt wird, wird im Folgenden unter Bezugnahme auf die 11 und 12 beschrieben.
  • 11 zeigt ein Beispiel eines Graphen, der eine Verschiebung des Niedergeschwindigkeitshelligkeitsdurchschnittswerts zeigt, der von dem Helligkeitsdurchschnittswertberechnungsmittel 86 ausgegeben wird. In diesem Graphen gibt die Ordinate den Niedergeschwindigkeitshelligkeitsdurchschnittswert an, der von dem Helligkeitsdurchschnittswertberechnungsmittel 86 ausgegeben wird, und die Abszisse gibt eine Zeitachse an. Eine sich schrittweise ändernde Wellenform ist eine Wellenform, die den Niedergeschwindigkeitshelligkeitsdurchschnittswert angibt.
  • In dem in 11 gezeigten Beispiel liegt ein Anfangswert DS des Niedergeschwindigkeitshelligkeitsdurchschnittswerts unter einer geeigneten (geeignetsten oder optimalsten) Helligkeitsdurchschnittswertpegelbreite Wb. Folglich wird die elektronische Blendengeschwindigkeit langsam gemacht (augenblickliche elektronische Blendengeschwindigkeit) × (unterer Grenzwert des geeigneten Helligkeitsdurchschnittswertpegels Wb)/(Niedergeschwindigkeitshelligkeitsdurchschnittswert). Die elektronische Blendengeschwindigkeit wird langsam gemacht. Nachdem der Niedergeschwindigkeitshelligkeitsdurchschnittswert in die geeignete Helligkeitsdurchschnittswertpegelbreite Wb gekommen ist, wird die Blendengeschwindigkeit um 10 % jedes Vertikalsynchronisationsintervalls V reduziert, bis der Niedergeschwindigkeitshelligkeitsdurchschnittswert ein Zentrum der geeigneten Helligkeitsdurchschnittswertpegelbreite Wb überschreitet. Wenn das Zentrum der geeigneten Helligkeitsdurchschnittswertpegelbreite Wb über schritten ist, wird die Änderung der elektronischen Blendengeschwindigkeit gestoppt. Ein Blendengeschwindigkeitsänderungsintervall von dem Anfangszustand zu der Änderung der elektronischen Blendengeschwindigkeit wird gestoppt und ist durch Ta gekennzeichnet. Darüber hinaus ist der Zustand, indem die Änderung der Blendengeschwindigkeit gestoppt worden ist, und die Verschiebung des Helligkeitspegels stabil, welcher Zustand als geeignetes Helligkeitspegelzustandsintervall Tb bezeichnet wird.
  • Sobald der Niedergeschwindigkeitshelligkeitsdurchschnittswert in den geeigneten Helligkeitspegelzustandsintervall Tb kommt, führt der Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 93 keine Korrektur der Blendengeschwindigkeit für eine bestimmte feste Zeit durch, bis ein Wert außerhalb der geeigneten Helligkeitspegelbreite Wb weiter beobachtet wird, selbst wenn ein Wert außerhalb der geeigneten Helligkeitspegelbreite Wb beobachtet wird. Die feste Zeit Tc wird als Schutzzeit bezeichnet.
  • In dem in 11 gezeigten Beispiel variiert der Niedergeschwindigkeitshelligkeitsdurchschnittswert und überschreitet die geeignete Helligkeitspegelbreite Wb in den Intervallen Td und Tf. Da jedes der Intervalle von Td und Tf, während denen die geeignete Helligkeitspegelbreite Wb überschritten wird, kürzer ist als die Schutzzeit Tc, wird die Blendengeschwindigkeit nicht geändert.
  • Der Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 steuert die elektronische Blendengeschwindigkeit des CMOS Sensors 28, wie in 1 gezeigt, in zwei Schritten. Für eine schnelle Änderung des Subjekthelligkeitswerts kann folglich die Blendengeschwindigkeit schnell mit der Grobeinstellung geändert werden. Für eine langsame Änderung des Subjekthelligkeitswerts kann die Blendengeschwindigkeit allmählich mit der feinen Einstellung geändert werden. Für eine Änderung des Subjekthelligkeitswerts kann folglich die Bildaufnahmevorrichtung immer eine natürliche Belichtung aufrechterhalten. Darüber hinaus kann durch das Bereitstellen der Schutzzeit Tc die Oszillation in dem Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98, die durch eine schnelle Helligkeitsänderung des Subjekts verursacht wird, verhindert werden.
  • Andererseits zeigt 12 ein Zustandsübergangsdiagramm der elektronischen Blende in dem CMOS Sensor 28, der in dem Bildaufnahmemittel 21 enthalten ist. In diesem Zustandsübergangsdiagramm gibt es sechs definierte Zustände für die elektronische Blende des CMOS Sensors 28. Wenn das Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal erzeugt wird, ist die elektronische Blende immer in einem der sechs Zustände. Jeder der Pfeile zwischen den Zuständen gibt einen Zustandsübergang an.
  • Der Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 erzeugt das Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal gemäß dem Helligkeitswert des Niedergeschwindigkeitshelligkeitsdurchschnittswerts, der eingegeben wird von dem Helligkeitsdurchschnittswertberechnungsmittel 86 bei jedem vertikalen Synchronisationsintervall V. Durch Steuerung der elektronischen Blendenschaltung 49 gemäß dem erzeugten Steuerungssignal wird der Belichtungszustand der elektronischen Blende veranlasst von dem gegenwärtigen Zustand in eine Richtung eines nach außen weisenden Pfeils überzugehen. Der Belichtungszustand der elektronischen Blende bewirkt einen Übergang in Richtung, in der ein Niedergeschwindigkeitshelligkeitspegelbereich, der durch einen Pfeil angegeben ist, mit dem Niedergeschwindigkeitshelligkeitspegelbereich des eingegebenen Niedergeschwindigkeitshelligkeitsdurchschnittswerts übereinstimmt. Durch Wiederholen des oben beschriebenen Verarbeitungsbetriebs bei jedem vertikalen Synchronisationsintervall V kann die Erzeugung des Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignals geeignet durchgeführt werden.
  • Das in 12 gezeigte Zustandsübergangsdiagramm wird beschrieben, indem die Verschiebung des Niedergeschwindigkeitshelligkeitsdurchschnittswerts gemäß 11 als ein Beispiel genommen wird.
  • In 12 sind sechs Zustände gemäß dem Zustand des Niedergeschwindigkeitshelligkeitsdurchschnittswerts definiert und gezeigt. Die sechs definierten Zustände sind breit klassifiziert in einen Zustand, der einen Anfangszustand angibt unmittelbar nach einer Eingabe, die von dem Helligkeitsdurchschnittswertberechnungsmittel 86 geliefert wird (im Folgenden als Anfangszustand S bezeichnet), drei Zustände, die die Bedingung der Belichtung angeben, und zwei Belichtungskorrekturwartezustände innerhalb der Schutzzeit.
  • Drei Zustände, die die Belichtungsbedingung angeben, sind ein Überbelichtungszustand SO, ein Unterbelichtungszustand SL und ein geeigneter Belichtungszustand SB. Hier bedeutet der Unterbelichtungszustand SL einen Zustand, bei dem der Helligkeitspegel kleiner ist als der geeignete Bereich, und die Zeit während der der CMOS Sensor 28 belichtet wird, ist kürzer als die geeignete Zeit, also ein Zustand, bei dem die Blendengeschwindigkeit zu schnell ist, um ein geeignetes Aufnahmebild zu gewinnen. Der geeignete Belichtungszustand bedeutet einen Zustand, bei dem der Helligkeitspegel in dem geeigneten Bereich ist, und die Zeit, während der der CMOS Sensor 28 belichtet wird, geeignet ist, also einen Zustand, bei dem die Blendengeschwindigkeit geeignet ist. Ferner bedeutet der Überbelichtungszustand SO einen Zustand, bei dem der Helligkeitspegel größer als der geeignete Bereich ist, und die Zeit während der der CMOS Sensor 28 belichtet wird, größer ist als die geeignete Zeit, also einen Zustand, bei dem die Blendengeschwindigkeit zu schnell ist, um das geeignete Aufnahmebild zu gewinnen.
  • In den zwei Zuständen, die die Belichtungskorrekturwartezustände angeben, gibt es einen ersten Belichtungskorrekturwartezustand SWU und einen zweiten Belichtungskorrekturwartezustand SWL. Der erste Belichtungskorrekturwartezustand SWU meint einen Belichtungskorrekturwartezustand, bei dem der eingegebene Niedergeschwindigkeitsbelichtungsdurchschnittswert sich von dem geeigneten Belichtungszustand SB verschiebt und den oberen Grenzwert des geeigneten Bereichs der geeigneten Helligkeitsdurchschnittswertpegelbreite WB überschreitet, also eine Überbelichtung wird verursacht und die Schutzzeitzählung wird durchgeführt.
  • Der Zustandsübergang erfolgt durch Eingeben des Niedergeschwindigkeitshelligkeitsdurchschnittswerts in den Niedergeschwindigkeitsblendengeschwindigkeitssteuerungsignalerzeugungsabschnitt 98. Für Ereignisse, die als Auslöser für den Zustandsübergang dienen, gibt es fünf Arten gemäß dem Helligkeitspegelbereich des eingegebenen Niedergeschwindigkeitshelligkeitsdurchschnittswerts, und eine Art betreffend den Belichtungskorrekturwartezustand. Mit anderen Worten, es gibt insgesamt sechs Arten. Wenn irgendeiner dieser Ereignisse in dem Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 auftritt, dann bewirkt der Belichtungszustand der elektronischen Blende einen Übergang.
  • Ereignisse, die gemäß dem Helligkeitspegelbereich des eingegebenen Niedergeschwindigkeitshelligkeitsdurchschnittswerts auftreten, werden in drei Ereignisse klassifiziert betreffend den geeigneten Bereich WB, und in zwei Ereignisse, die einen Bereich W betreffen, der ein anderer ist als der geeignete Bereich WB (im Folgenden als außerhalb des geeigneten Bereichs bezeichnet). Drei Ereignisse, die den geeigneten Bereich WB betreffen, sind eine Optimalwerteingabe PB, eine geeignete obere Bereichseingabe WBU und eine geeignete untere Bereichseingabe WBL. Andererseits, für das äußere W des geeigneten Bereichs, gibt es zwei Eingaben, also eine Eingabe in einem Bereich WU des Helligkeitswerts zwischen einem oberen Grenzwert des geeigneten Bereichs und einem Maximalwert (im Folgenden als Eingabe WU größer als der geeignete Bereich bezeichnet), und eine Eingabe in einem Bereich WL des Helligkeitspegels zwischen einem unteren Grenzwert des geeigneten Bereichs und einem minimalen Wert (im Folgenden als Eingabe WL kleiner als der geeignete Bereich bezeichnet).
  • Für das Ereignis, das den Belichtungskorrekturwartezustand betrifft, gibt es ein Ereignis eines Schutzzeitablaufs, das erzeugt wird, wenn die Schutzzeit von dem Belichtungskorrekturwartezustand abgelaufen ist.
  • In 12 ist ein Anfangszustand des Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitts 92 ein Anfangszustand S. Ereignisse, die in dem Anfangszustand S auftreten können, sind die Eingabe WL kleiner als der geeignete Bereich, die geeignete untere Bereichseingabe WBL, die optimale Werteingabe PB, die geeignete obere Bereichseingabe WBU und die Eingabe WU größer als der geeignete Bereich.
  • In 11 ist der Niedergeschwindigkeitshelligkeitsdurchschnittswert (Anfangswert), der eingegeben wird von dem Helligkeitsdurchschnittswertberechnungsmittel 86 gleich WL kleiner als der geeignete Bereich. Folglich wird ein auszuführendes Ereignis die Eingabe WL kleiner als der geeignete Bereich, und der Belichtungszustand der elektronischen Blende bewirkt einen Übergang in den unterbelichteten Zustand SL.
  • Es gibt die folgenden drei Ereignisse, die in dem Unterbelichtungszustand SL auftreten können.
    • 1. In dem Fall der Eingabe WL kleiner als der geeignete Bereich, bleibt der Zustand in dem unterbelichteten Zustand S1 und kein Zustandsübergang wird bewirkt. Zu diesem Zeitpunkt ist die elektronische Blendengeschwindigkeit grob eingestellt.
    • 2. In dem Fall der geeigneten unteren Bereichseingabe WBL, bleibt der Zustand in dem unterbelichteten Zustand SL, und kein Zustandsübergang von dem unterbelichteten Zustand SL wird bewirkt. Zu diesem Zeitpunkt ist die elektronische Blendengeschwindigkeit fein eingestellt.
    • 3. In dem Fall der optimalen Werteingabe PB, wird ein Übergang von dem unterbelichteten Zustand SL in den geeigneten Belichtungszustand SB bewirkt.
  • In dem Geschwindigkeitsänderungsintervall für die elektronische Blende Ta ist das Ereignis die geeignete untere Bereichseingabe WBL. Folglich tritt das Ereignis auf, das dem obigen Punkt 2 entspricht. Mit anderen Worten, die elektronische Blendengeschwindigkeit ist fein eingestellt.
  • Wenn die Feineinstellung wiederholt wird und das Ereignis sich von der geeigneten unteren Bereichseingabe WBL zu der geeigneten oberen Bereichseingabe WBU ändert, dann wird ein Übergang in dem Belichtungszustand der elektronischen Blende von dem unterbelichteten Zustand SL in den geeigneten Belichtungszustand SB gemäß einem Pfeil bewirkt, der dieses Ereignis angibt.
  • Ereignisse, die der Verarbeitung in dem geeigneten Belichtungszustand SB unterworfen werden, sind die folgenden zwei Ereignisse.
    • 1. Wenn das Ereignis die Eingabe WU größer als der geeignete Bereich ist, dann wird der Schutzzeitzähler zurückgesetzt, und ein Übergang in den Belichtungszustand der elektronischen Blende zu dem ersten Schutzzeitwartezustand SWU wird bewirkt.
    • 2. Wenn das Ereignis die Eingabe WL kleiner als der geeignete Bereich ist, dann wird der Schutzzeitzähler zurückgesetzt und ein Übergang in den Belichtungszustand der elektronischen Blende zu dem zweiten Schutzzeitwartezustand SWL wird bewirkt.
  • Wenn der eingegebene Niedergeschwindigkeitshelligkeitsdurchschnittswert in der WU größer als der geeignete Wert kommt, dann wird der Schutzzeitzähler zurückgesetzt, und das Zählen in dem Schutzzeitzähler wird gestartet. Dann wird ein Übergang in dem Belichtungszustand der elektronischen Blende von dem geeigneten Belichtungszustand SB in den ersten Schutzzeitwartezustand SWU bewirkt.
  • Die Ereignisse, die der Verarbeitung in dem ersten Schutzzeitkorrekturwartezustand SWU unterworfen werden, sind die folgenden drei Ereignisse.
    • 1. Wenn das Ereignis die geeignete obere Bereichseingabe WBU ist, dann wird der Schutzzeitzähler zurückgesetzt, und ein Übergang in den geeigneten Belichtungszustand SB wird bewirkt.
    • 2. Wenn das Ereignis die geeignete untere Bereichseingabe WBL ist, dann wird der Schutzzeitzähler zurückgesetzt, und ein Übergang in den geeigneten Belichtungszustand SB wird bewirkt.
    • 3. Wenn das Ereignis der Ablauf der Schutzzeit Tc ist, dann wird ein Übergang in den überbelichteten Zustand So bewirkt.
  • In einem Intervall nach dem Intervall Tb für den geeigneten Helligkeitspegelzustand gemäß 11, wird ein Übergang von dem geeigneten Belichtungszustand SB in den ersten Schutzzeitkorrekturwartezustand SWU zu einem Zeitpunkt ta verursacht, wenn ein Niedergeschwindigkeitshelligkeitsdurchschnittswert in WU kommt größer als der geeignete Bereich. In einem Intervall Td zwischen der Zeit ta, wenn der Niedergeschwindigkeitshelligkeitsdurchschnittswert in den WU größer als der geeignete Bereich kommt, und die Zeit tb, wenn der Niedergeschwindigkeitshelligkeitsdurchschnittswert in die geeignete Helligkeitspegelbreite WB zurückkehrt, wird der erste Schutzzeitkorrekturwartezustand SWU aufrechterhalten.
  • Der erste Schutzzeitkorrekturwartezustand SWU wird fortgesetzt für das Intervall Td (wobei Td kürzer ist als die Schutzzeit Tc). Zum Zeitpunkt tb, wenn der Niedergeschwindigkeitshelligkeitsdurchschnittswert, der in den Niedergeschwindigkeitsblendengeschwindigkeitssteuerungsignalerzeugungsabschnitt 98 eingegeben wird, fällt und zu der geeigneten Helligkeitspegelbreite WB zurückkehrt, wird das Ereignis die geeignete obere Bereichseingabe WBU, der Schutzzeitzähler zurückgesetzt und ein Übergang zu dem geeigneten Belichtungszustand SB bewirkt. In einem Intervall Te zwischen der Zeit tb, wenn die Rückkehr zu der geeigneten Hel ligkeitspegelbreite WB bewirkt wird, und der Zeit Tc, wenn die Eingabe WL kleiner als der geeignete Bereich erreicht wird, wird der geeignete Belichtungszustand SB aufrechterhalten.
  • Zum Zeitpunkt tc, wenn der eingegebene Niedergeschwindigkeitshelligkeitsdurchschnittswert weiter fällt und der Niedergeschwindigkeitshelligkeitsdurchschnittswert in die Eingabe WL kleiner als der geeignete Bereich kommt, wird das Ereignis die Eingabe WL kleiner als der geeignete Bereich, und der Schutzzeitzähler wird zurückgesetzt und startet das Zählen, und ein Übergang zu dem zweiten Schutzzeitwartezustand SWL wird bewirkt. In einem Intervall Tf zwischen der Zeit tc, wenn der Niedergeschwindigkeitshelligkeitsdurchschnittswert in die Eingabe WL kleiner als der geeignete Bereich kommt, und der Zeit td, wenn er in die geeignete Helligkeitspegelbreite WB zurückkehrt, wird der zweite Schutzzeitwartezustand SWL aufrechterhalten.
  • Der zweite Schutzzeitwartezustand SWL dauert über ein Intervall Tf an (wobei Tf kürzer als die Schutzzeit Tc ist). Zum Zeitpunkt td, wenn der Niedergeschwindigkeitshelligkeitsdurchschnittswert, der in den Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 eingegeben wird, dann ansteigt und in die geeignete Helligkeitspegelbreite WB zurückkehrt, wird das Ereignis die geeignete untere Bereichseingabe WBL, der Schutzzeitzähler wird zurückgesetzt und ein Übergang zu dem geeigneten Belichtungszustand SB wird bewirkt. In einem Intervall Tg zwischen der Zeit td, wenn die Rückkehr zu der geeigneten Helligkeitspegelbreite WB bewirkt wird, und der Zeit te, wenn die Eingabe WU größer als der geeignete Wert erreicht wird, wird der geeignete Belichtungszustand SB aufrechterhalten.
  • Zum Zeitpunkt te, wenn der eingegebene Niedergeschwindigkeitshelligkeitsdurchschnittswert weiter ansteigt und der Niedergeschwindigkeitshelligkeitsdurchschnittswert in die WU größer als der geeignete Bereich kommt, wird das Ereignis die Eingabe WU größer als der geeignete Bereich, und der Schutzzeitzähler wird zurückgesetzt und startet zu zählen, und ein Übergang zu dem ersten Schutzzeitwartezustand SWU wird bewirkt. Von dem Zeitpunkt te, wenn der eingegebene Niedergeschwindigkeitshelligkeitsdurchschnittswert in WU größer als der geeignete Bereich gekommen ist, läuft die Zeit, die in dem Schutzzeitzähler gesetzt ist, also die Schutzzeit tc, ab mit der Eingabe WU größer als der geeignete Bereich. Zum Zeitpunkt tf, wenn die Schutzzeit Tc abgelaufen ist, wird das Ereignis der Ablauf der Schutzzeit Tc und ein Übergang zu dem Überbelichtungszustand So wird bewirkt.
  • Anschließend wird in dem Überbelichtungszustand So der Betrieb des Änderns der Blendengeschwindigkeit in Richtung entgegengesetzt dem Unterbelichtungszustand SL durchgeführt. Letztendlich wird der geeignete Belichtungszustand SB erhalten.
  • Andererseits erzeugt der Niedergeschwindigkeits-AGC-Schaltungssteuerungssignalerzeugungsabschnitt 99 das AGC-Steuerungssignal zum Steuern der AGC Schaltung 31 gemäß 1. Das erzeugte AGC Steuerungssignal wird an die AGC Schaltung 31 gesendet zum Steuern der AGC Schaltung 31.
  • Der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 enthält einen Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100 zum Durchführen einer feinen Einstellung einer elektronischen Blendengeschwindigkeit gemäß einer geringen Änderung der Helligkeit und bewirkt die Steuerung auf das niedergeschwindigkeitselektronische Blendengeschwindigkeitssteuerungssignal.
  • Der Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100 führt eine Verarbeitung durch zum Kompensieren einer Bildhelligkeitsänderung einer langen Frequenz. Wenn die Helligkeitsvariation der Beleuchtungslichtquelle, wie die Frequenz des Flackerns einer Fluoreszenzlampe, extrem nahe an der Rahmenfrequenz des CMOS Sensors 28 mit einem natürlichen Vielfachen ist, dann wird eine Bildhelligkeitsvariation einer extrem langen Frequenz verursacht durch Aliasingverzerrung. Diese Bildhelligkeitsvariation wird detektiert durch den Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100, und die Verarbeitung erfolgt, um die Änderung zu unterdrücken.
  • 13 zeigt ein Beispiel eines Graphen, der gewonnen wird durch Messen einer Helligkeitsänderung, die verursacht wird durch eine Beziehung zwischen einer Beleuchtungslichtquelle und der Rahmenfrequenz des CMOS Sensors 28. Die Ordinate des Graphen gibt den Niedergeschwindigkeitshelligkeitsdurchschnittswert an, der eingegeben wird von dem Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 und die Abszisse des Graphen gibt die Rahmenfrequenz (Zeitachse) an. Gemäß 13 liefert die Helligkeitsvariationswellenform, die verursacht wird durch die Beziehung der Rahmenfrequenz des CMOS Sensors 28 einen leichten Anstieg. Die Amplitude der Helligkeitsvariationswellenform ist jedoch so groß wie ungefähr 30 %. In manchen Fällen wird folglich der Helligkeitspegel des Niedergeschwindigkeitshelligkeitsdurchschnittswerts gebildet, um in das äußere W des geeigneten Bereichs zu kommen, durch eine Helligkeitsvariation, die verursacht wird gemäß der Beziehung zwischen der Beleuchtungslichtquelle und dem CMOS Sensor 28.
  • Wenn der Niedergeschwindigkeitshelligkeitsdurchschnittswert in das äußere W des geeigneten Bereichs in dem Fall kommt, bei dem nur die Steuerung der elektronischen Blendenschaltung 49 mit dem Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal durchgeführt wird, das durch den Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 98 erzeugt wird, dann wird die elektronische Blende des CMOS Sensors 28 gesteuert nach dem Ablauf der Schutzzeit Tc, um sie auf den geeigneten Belichtungszustand SB zu setzen. Wie für die Belichtung steigt und fällt der Niedergeschwindigkeitshelligkeitsdurchschnittswert, und in dem oberen Teil und dem unteren Teil wird die elektronische Blendengeschwindigkeit geändert und auf den geeigneten Belichtungszustand SB gesetzt. Als ein Ergebnis verursacht das Bild Oszillation einer extrem langen Frequenz.
  • Eine Verbesserung der Bildhelligkeitsänderung einer langen Frequenz wird durchgeführt unter Verwendung des folgenden Verfahrens.
  • Eine leichte Bildhelligkeitsänderung, die beispielsweise kleiner als plus minus 1 % in jeder Rahmenfrequenz ist, wird detektiert. Dann wird der geeignete Belichtungszustand SB bei jedem Rahmen erlangt, durch exakte elektronische Blendensteuerung. Bezüglich der leichten Bildhelligkeitsänderung wird die Einstellung bewirkt, um den geeigneten Belichtungszustand SB zu erlangen, ohne Bereitstellung der Schutzzeit Tc.
  • Die Feineinstellungsverarbeitung für die leichte Bildhelligkeitsänderung, die ausgeführt wird durch den Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100 wird im Einzelnen im Folgenden beschrieben.
  • Der Betrieb der Feineinstellungsverarbeitung, der durchgeführt wird mit dem Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100 wird nur in dem Fall durchgeführt, bei dem der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 den Zustand als den geeigneten Belichtungszustand SB beurteilt. In dem Feineinstellungsverarbeitungsbetrieb speichert der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 den Niedergeschwindigkeitshelligkeitsdurchschnittswert des geeigneten Belichtungszustands SB in dem geeigneten Belichtungszustand SB und setzt den Anfangswert gleich auf den gespeicherten Niedergeschwindigkeitshelligkeitsdurchschnittswert.
  • Wenn sich der Niedergeschwindigkeitshelligkeitsdurchschnittswert innerhalb eines Bereichs von plus minus 1 % in einer Rahmenfrequenz geändert hat, verglichen mit dem Anfangszustand, wird ein Verhältnis (Anfangswert)/(Durchschnittswert) gewonnen. Basierend auf dem Verhältnis (Anfangswert)/(Durchschnittswert), berechnet der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 eine Anzahl an Stufen in einem Ein-Takteinheit-Schieberegister 101, das in der elektronischen Blendenschaltung 49 gemäß 14 enthalten ist, das geschoben werden soll, um eine Belichtungskorrekturzeit Δt zu erlangen, die gleich „a" % der Belichtungszeit ist, und folglich den geeigneten Belichtungszustand SB.
  • Wie für die Berechnung der Anzahl an Schieberegisterstufen in dem Ein-Takteinheit-Schieberegister 101 zum Erlangen des geeigneten Belichtungszustands SB, erkennt die Mikrocomputerschaltung 48 selbst die augenblickliche Blendengeschwindigkeit. Folglich wird die Belichtungskorrekturzeit Δt, die „a" % der Belichtungszeit entspricht, dargestellt durch Die Belichtungskonekturzeit Δt (Sekunden) = augenblickliche Blendengeschwindigkeit (Sekunden) × „a"/100. (Gleichung 1)
  • Beispielsweise wird die Belichtungskorrekturzeit Δt, die 1 % der Belichtungszeit entspricht, gleich Belichtungskorrekturzeit Δt1 (Sekunden) = augenblickliche Blendengeschwindigkeit (Sekunden) × 1/100. (Gleichung 2)
  • Die Anzahl der Schieberegisterstufen in dem Ein-Takteinheit-Schieberegister 101 zum Durchführen der Belichtungskorrektur wird dargestellt durch Anzahl der Schieberegisterstufen = Belichtungskorrekturzeit Δt (Sekunden)/eine Frequenz (Sekunden) eines Mastertakts. (Gleichung 3)
  • Unter Verwendung der berechneten Anzahl an Schieberegisterstufen gemäß einem Steuerungssignal, das an das Ein-Takteinheit-Schieberegister 101 geliefert wird, das in der elektronischen Blendenschaltung 49 enthalten ist, wird eine extrem genaue Belichtungszeiteinstellung möglich, und die Belichtungszeiteinstellung von plus minus 1 % mit einer Rahmenfrequenz als Einheit kann implementiert werden.
  • Die Feineinstellungsverarbeitung, die ausgeführt wird durch den Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100 kann auch verwendet werden, indem die AGC (automatische Gewinnsteuerung) des CCD Sensorausgangssignals verwendet wird. Unter Berücksichtigung des Signal-zu-Rauschverhältnisses ist jedoch das Rauschen, das verursacht wird durch eine Zunahme des Verstärkungsfaktors, klein, wenn das oben beschriebene Schema verwendet wird.
  • In der gleichen Weise wie der Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 enthält der Hochgeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 93 einen Hochgeschwindigkeitsblenden-Geschwindigkeitssteuerungssignalerzeugungsabschnitt 103, einen Hochgeschwindigkeits-AGC-Schaltungssteuerungssignalerzeugungsabschnitt 104 und einen Hochgeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 105. Außer dass das Eingangssignal ein Hochgeschwindigkeitshelligkeitsdurchschnittswert ist, ist der Verarbeitungsbetrieb des Hochgeschwindigkeitsblendenberechnungsverarbeitungsabschnitts 93 der gleiche, wie bei dem Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92.
  • Das Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal und das Hochgeschwindigkeitsblendengeschwindigkeitssteuerungssignal, die jeweils erzeugt werden durch den Niedergeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 92 und den Hochgeschwindigkeitsblendenberechnungsverarbeitungsabschnitt 93, werden in den Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95 eingegeben. Der Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95 erzeugt ein Charakteristikumwandlungssteuerungssignal. Wenn das Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal in den Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95 eingegeben wird, wird ein Niedergeschwindigkeitscharakteristikumwandlungssteuerungssignal zum Steuern der Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 gemäß 1 gewonnen.
  • Andererseits, wenn das Hochgeschwindigkeitsblendengeschwindigkeitssteuerungssignal eingegeben wird, dann wird ein Hochgeschwindigkeitscharakteristikumwandlungssteuerungssignal gewonnen zum Steuern der Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 gemäß 1. Das Niedergeschwindigkeitscharakteristikumwandlungssteuerungssignal und das Hochgeschwindigkeitscharakteristikumwandlungssteuerungssignal, die folglich erzeugt werden, werden an die Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 und die Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 jeweils gesendet.
  • Das Niedergeschwindigkeitscharakteristikumwandlungssteuerungssignal und das Hochgeschwindigkeitscharakteristikumwandlungssteuerungssignal sind Steuerungssignale zum Optimieren eines Bilds, das gewonnen wird durch Kombination, wenn das Niedergeschwindigkeitsblendenbild und das Hochgeschwindigkeitsblendenbild kombiniert werden, und ein dynamisches Bereichsexpansionsbild konstruiert wird. Das Niedergeschwindigkeitscharakteristikumwandlungssteuerungssignal und das Hochgeschwindigkeitscharakteristikumwandlungssteuerungssignal werden verwendet, um die Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 und die Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 jeweils zu steuern.
  • Als ein Problem, das zum Zeitpunkt der Bildkombination verursacht wird, ist ein Problem gegeben, das das einfache Addieren von zwei Bildern eine Zunahme im Expansionsfaktor verursacht, eine nicht lineare Verzerrung in der Gradationscharakteristik des kombinierten Bilds, und ein Bild mit schlechtem Kontrast. Vor dem Addieren der zwei Bilder wird folglich versucht, die Charakteristik des Bildsignals gemäß dem Dynamikbereichsexpansionsfaktor umzuwandeln, die nicht lineare Verzerrung zu unterdrücken und den Kontrastabfall zu verbessern.
  • Die Charakteristikumwandlungssteuerung der Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 und der Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 werden im Folgenden beschrieben.
  • Zuerst wird der Dynamikbereichsexpansionsfaktor gemäß der folgenden Gleichung berechnet. Dynamikbereichsexpansionsfaktor = Niedergeschwindigkeitsblenden-Steuerungssignal/Hochgeschwindigkeitsblenden-Steuerungssignal.
  • Der so berechnete Dynamikbereichsexpansionsfaktor ist ein Dynamikbereichsexpansionsfaktor zum Zeitpunkt wenn die Belichtungssteuerung abgeschlossen ist.
  • Der Wert des Dynamikbereichsexpansionsfaktors wird berechnet durch das Berechnungsverarbeitungsmittel 91, das als Berechnungsmittel dient für den Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95. Ein Ergebnis der Berechnung wird ausgegeben als das Niedergeschwindigkeitscharakteristikumwandlungssteuerungssignal und das Hochgeschwindigkeitscharakteristikumwandlungssteuerungssignal.
  • Die Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 und die Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 haben Tabellen von X1 bis X0,7 und log10 1 bis 10 als Charakteristik von X(Eingabe) – Y(Ausgabe). Die Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 und die Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 schalten die Tabellen gemäß dem Dynamikbereichsexpansionsfaktor, und bewirken eine Verbesserung der nicht linearen Verzerrung des Bildsignals. Die Beziehung der Tabellenauswahl zu dem Dynamikbereichsexpansionsfaktor ist folgendermaßen.
    Wenn der Dynamikbereichsexpansionsfaktor < 16, dann wird die Tabelle von X1 ausgewählt.
    Wenn 16 ≤ Dynamikbereichsexpansionsfaktor, dann wird die Tabelle von X0,7 ausgewählt.
    Wenn 64 ≤ Dynamikbereichsexpansionsfaktor, dann wird die Tabelle von X1 ausgewählt.
  • Der Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95 erzeugt ein Resultat dieses Bedingungszweigs als das Niedergeschwindigkeitscharakteristikumwandlungssteuerungssignal und das Hochgeschwindigkeitscharakteristikumwandlungssteuerungssignal. Das Tabellenschalten in der Niedergeschwindigkeitsblendencharakteristikumwandlungsschaltung 41 und der Hochgeschwindigkeitsblendencharakteristikumwandlungsschaltung 45 werden durch den automatischen Steuerungsbetrieb durchgeführt.
  • Der Kombinationsverhältnissteuerungssignalerzeugungsabschnitt 96 erzeugt ein Kombinationsverhältnissteuerungssignal zum Steuern der Kombinationsart des Niedergeschwindigkeitsblendenbildsignals und des Hochgeschwindigkeitsblendenbildsignals. Das Kombinationsverhältnissteuerungssignal, das folglich erzeugt wird, wird an die Additionsschaltung gesendet, die als das Bildkombinationsmittel gemäß 1 dient.
  • In der gleichen Weise wie die Charakteristikumwandlungssteuerung ist der Zweck der Kombinationsverhältnissteuerung die Optimierung der Kombination des Niedergeschwindigkeitsblendenbilds und des Hochgeschwindigkeitsblendenbilds und eine Erhöhung des Kontrastes des Bilds, das durch die Kombination gewonnen wird. Als ein Problem, das zu einem Zeitpunkt des Kombinierens der Bilder verursacht wird, verursacht die Erhöhung des Dynamikbereichsexpansionsfaktors ein weiß geflutetes Bild und eine Kontrastverschlechterung wird signifikant.
  • Die Kontrastverschlechterung wird verursacht, da das Meiste des Niedergeschwindigkeitsblendenbilds der gesättigte Bereich wird, und das Signal des Hochgeschwindigkeitsblendenbilds auf das gesättigte Signal überlagert wird. Um die Verschlechterung des Kontrastes zu verbessern, wird versucht die Kontrastverschlechterung zu korrigieren, indem das Kombinationsverhältnis des Hochgeschwindigkeitsblendenbilds erhöht wird, wenn der Expansionsfaktor zunimmt, und wodurch die weiße Überflutung des Bildes unterdrückt wird. Speziell zum Verbessern des Kontrastes des Bilds, das durch die Kombination gewonnen wird, ist das Durchführen einer Kombinationsverhältnissteuerung gleichzeitig mit der Charakteristikumwandlungssteuerung sehr effektiv.
  • In der gleichen Weise wie der Charakteristikumwandlungssteuerungssignalerzeugungsabschnitt 95 berechnet der Kombinationsverhältnissteuerungssignalerzeugungsabschnitt 96 den Dynamikbereichsexpansionsfaktor und erzeugt ein Kombinationsverhältnissteuerungssignal zum Schalten des Bildkombinationsverhältnisses der Niedergeschwindigkeitsblende und der Hochgeschwindigkeitsblende basierend auf dem Berechnungsergebnis. Das Kombinationsverhältnissteuerungssignal, das folglich gewonnen wird, wird an die Additionsschaltung 34 gesendet, die als das Bildsignalkombinationsmittel gemäß 1 dient, um die automatische Steuerung für die Kombinationsverteilung durchzuführen, also das Kombinationsverhältnis zwischen zwei Rahmen des Bilds.
  • Die Beziehung zwischen dem Dynamikbereichsexpansionsfaktor und der Kombinationsverhältnissteuerung ist folgendermaßen:
    wenn der Dynamikbereichsexpansionsfaktor = 1, L ist 100 % und H ist 0 %;
    wenn 1 < Dynamikbereichsexpansionsfaktor < 6, L ist 94 % und H ist 6 %;
    wenn 6 ≤ Dynamikbereichsexpansionsfaktor ≤ 8, L ist 88 % und H ist 12 %; und
    wenn 8 < Dynamikbereichsexpansion, L ist 7,5 % und H ist 2,5%,
    wobei L das Niedergeschwindigkeitsblendenbild und H das Hochgeschwindigkeitsblendenbild angeben.
  • Die oben beschriebenen Kombinationsverhältnisse sind jedoch beispielhaft und sie können nach Bedarf geändert werden.
  • Ein Schaltungsblockdiagramm der elektronischen Blendenschaltung 49 ist in 14 gezeigt. Die elektronische Blendenschaltung 49 gemäß 14 enthält ein Niedergeschwindigkeitsblendenimpulserzeugungsmittel 107, ein Hochgeschwindigkeitsblendenimpulserzeugungsmittel 108 und eine Blendenimpulsschaltschaltung 109.
  • Das Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal, der CLK Impuls, der HD Impuls, der VD Impuls und die Feldinformation (im Folgenden als FI bezeichnet) werden in die elektronische Blendenschaltung 49 eingegeben.
  • Das Niedergeschwindigkeitsblenden-Geschwindigkeitssteuerungssignal, der CLK Impuls, der HD Impuls, der VD Impuls und die FI, die in die elektronische Blendenschaltung 49 eingegeben werden, werden in das Niedergeschwindigkeitsblendenimpulserzeugungsmittel 107 eingegeben. Das Niedergeschwindigkeitsblendenimpulserzeugungsmittel 107 erzeugt einen Niedergeschwindigkeitsblendenimpuls zum Freigeben der elektronischen Blende von der Niedergeschwindigkeitsseite. Das Hochgeschwindigkeitsblendengeschwindigkeitssteuerungssignal, der CLK Impuls, der HD Impuls, der VD Impuls und die FI, die in die elektronische Blendenschaltung 49 eingegeben werden, werden in das Hochgeschwindigkeitsblendenimpulserzeugungsmittel 108 eingegeben. Das Hochgeschwindigkeitsblendenimpulserzeugungsmittel 108 erzeugt einen Hochgeschwindigkeitsblendenimpuls zum Freigeben der elektronischen Blende von der Hochgeschwindigkeitsseite.
  • Der Niedergeschwindigkeitsblendenimpuls und der Hochgeschwindigkeitsblendenimpuls, die folglich erzeugt werden, werden in die Blendenimpulsschaltschaltung 109 eingegeben. Die FI wird ebenfalls in die Blendenimpulsschaltschaltung 109 eingegeben. Der Niedergeschwindigkeitsblendenimpuls und der Hochgeschwindigkeitsblendenimpuls werden geschaltet gemäß Informationsinhalten der FI. Das Schalten des Blendenimpuls wird durchgeführt basierend auf der Information der FI. Die Blendenimpulsschaltschaltung 109 gibt den Niedergeschwindigkeitsblendenimpuls aus, wenn ein Bild bei der Niedergeschwindigkeitsblendengeschwindigkeit aufgenommen wird, und gibt den Hochgeschwindigkeitsblendenimpuls aus, wenn ein Bild bei der Hochgeschwindigkeitsblendengeschwindigkeit aufgenommen wird. Der Blendenimpuls, der von der Blendenimpulsschaltschaltung 109 ausgegeben wird, wird in das Bildaufnahmemittel 21 eingegeben, um die elektronische Blende des CMOS Sensors 28 zu steuern, der in dem Bildaufnahmemittel 21 enthalten ist.
  • Das Niedergeschwindigkeitsblendenimpulserzeugungsmittel 107 enthält einen Blendenimpulserzeugungsabschnitt, der das Horizontalsynchronisationsintervall H als die Einheit nimmt (im Folgenden als Blendenimpulserzeugungsabschnitt der H Frequenzeinheit bezeichnet) 110, einen Blendenimpulserzeugungsabschnitt 111 von einigen Zehnfachen der Taktfrequenzeinheit, eine ODER-Schaltung 112 und ein Ein-Takteinheit-Schieberegister 101. Der Blendenimpuls, der erzeugt wird, während das Horizontalsynchronisationsintervall H als Einheit verwendet wird, durch den Blendenimpulserzeugungsabschnitt 111 der H Frequenzeinheit und der Blendenimpuls während einige zehn Taktfrequenzen als die Einheit durch den Blendenimpulserzeugungsabschnitt 111 der einigen zehn Taktfrequenzeinheiten genommen werden, werden durch die ODER-Schaltung 112 multigeplext und in das Ein-Takteinheit-Schieberegister 101 eingegeben. Das Ein-Takteinheit-Schieberegister 101 führt eine Feineinstellung der Belichtungszeit durch, indem der TAKT als die Einheit genommen wird. Ein Blendenimpuls wird gewonnen durch eine Verzögerung in dem Ein-Takteinheit-Schieberegister 101. Der Verzögerungswert wird durch das Steuerungssignal gesteuert, das von der Mikrocomputerschaltung 48 eingegeben wird, also die Anzahl an Schieberegisterstufen.
  • Die Erzeugungszeitgebung des elektronischen Blendenimpulses und die elektronische Blendenimpulszeit wird jetzt unter Bezugnahme auf die 15 bis 18 beschrieben.
  • 15A zeigt den VD Impuls, und 15B zeigt ein Beispiel eines Elektronikblendenimpulses gesehen in einer Zeitskala einer Frequenz des VD Impulses (im Folgenden bezeichnet als V Frequenz) gemäß 15A.
  • Der Elektronikblendenimpuls wird erzeugt unmittelbar nachdem ein Elektroladungsausleseimpuls (nicht gezeigt) eingegeben wird. Diese Impulserzeugungszeitgebung für die elektronische Blende ist die gleiche wie bei einer herkömmlichen TV Kamera. Mit anderen Worten, der Elektronikblendenimpuls wird bei der Zeit t1 und t3 erzeugt, wie in 15 gezeigt. In dem Beispiel des Elektronikblendenimpulses gemäß 15B wird ein Elektronikblendenimpuls, der eine Frequenz des HD Impulses (im Folgenden als H Frequenz bezeichnet) als die Einheit nimmt, zum Zeitpunkt t1 erzeugt, und ein Elektronikblendenimpuls, der eine natürliche Anzahl an Zeitpunkten der Taktimpulsfrequenz (im Folgenden als einige CLK Frequenzen bezeichnet) nimmt, beispielsweise das Achtfache der Taktimpulsfrequenz als die Einheit, wird zum Zeitpunkt t3 erzeugt.
  • Die Elektronikblendenimpulszeit ist eine Frequenz der Zeit entsprechend der Impulsbreite des Elektronikblendenimpulses, und sie ist Belichtungszeit während der der CMOS Sensor 28 mit dem Bildlicht des Subjekts belichtet wird. Eine Einstellung des Elektronikblendenimpulses erfolgt unter Verwendung des VD Impulses, des HD Impulses und des TAKT Impulses. Der Elektronikblendenimpuls kann eingestellt werden, indem die V Frequenz, die H Frequenz und einige CLK Frequenzen als die Einheit genommen werden.
  • Diagramme, die die Einstellung der Elektronikblendenimpulszeit zeigen, die durchgeführt wird unter Verwendung des HD Impulses, sind in den 16A und 16B gezeigt. Diagramme, die die Einstellung der Elektronikblendenimpulszeit zeigen, die durchgeführt wird unter Verwendung von einigen CLK Frequenzen, sind in 17A und 17B gezeigt.
  • Die 16A und 16B sind erweiterte Diagramme, die gewonnen werden durch Erweitern eines Teils der V Frequenz in der Elektronikblendenimpulserzeugungszeitgebung zwischen der Zeit t1 und der Zeit t3, wie in 15B gezeigt. 16A zeigt den HD Impuls in der V Frequenz, und 16B zeigt den Elektronikblendenimpuls gesehen in einer Zeitskala der H Frequenzen, wie in 16A gezeigt. In dem Beispiel des Elektronikblendenimpulses gemäß 16B wird ein Elektronikblendenimpuls mit der H Frequenz zum Zeitpunkt t1 erzeugt.
  • Die 17A und 17B zeigen Feinimpulse bei der Elektronikimpulserzeugungszeitgebung gemäß 15B. Die 17A und 17B zeigen erweiterte Diagramme, die gewonnen werden durch Expandieren eines Teils der V Frequenz zwischen der Zeit t3 und der Zeit t5. 17A zeigt den Taktimpuls in der V Frequenz, und 17B zeigt einen Elektronikblendenimpuls, der erzeugt wird, indem einige CLK Frequenzen als Einheit genommen werden. In dem Beispiel des Elektronikblendenimpulses gemäß 17B wird ein Elektronikblendenimpuls zum Zeitpunkt t3 erzeugt, indem einige CLK Frequenzen als Einheit verwendet werden.
  • Die Einstellung der Elektronikblendenimpulszeit, die durchgeführt wird, indem der HD Impuls verwendet wird, ist nicht auf die Elektronikblendenimpulszeit der H Frequenzen gemäß 16B beschränkt. In der V Frequenz zwischen der Zeit t1, wenn der erste Elektronikblendenimpuls erzeugt wird, und der Zeit t3, kann die Zeiteinstellung durchgeführt werden, indem die H Frequenz als die Einheit genommen wird. Andererseits ist die Einstellung der Elektronikblen denimpulszeit, die durchgeführt wird unter Verwendung von einigen CLK Impulsen, nicht eingeschränkt auf den Elektronikblendenimpuls mehrerer CLK Frequenzen gemäß 17B. In der V Frequenz zwischen der Zeit t3, wenn der erste Elektronikblendenimpuls erzeugt worden ist, und der Zeit t5, kann die Zeiteinstellung durchgeführt werden, indem mehrere CLK Frequenzen als die Einheit genommen werden.
  • Eine derartige Einstellungstechnik der Elektronikblendenimpulszeit, die die H Frequenz als Einheit nimmt oder die mehrere CLK Frequenzen als Einheit nimmt, ist eine Einstellungstechnik, die für die herkömmliche CCD Sensorkamera verwendet wird. In der Bildaufnahmevorrichtung 20 kann die Belichtungszeit des Bilds eingestellt werden durch eine TAKT-Frequenz als die Einheit und eine Feineinstellungsverarbeitung kann durchgeführt werden, indem nur die Elektronikblendengeschwindigkeitseinstellung verwendet wird. Diese Feineinstellungsverarbeitung ist ein Merkmal der Bildaufnahmevorrichtung 20.
  • 18 zeigt ein Diagramm, das die Einstellung der Belichtungszeit zeigt, die durchgeführt wird durch Schieben des Elektronikblendenimpulses und Nehmen einer TAKT-Frequenz als die Einheit.
  • Der Elektronikblendenimpuls in der herkömmlichen Bildaufnahmevorrichtung wird eingestellt, indem der CLK Takt, ein natürliches Vielfaches als die Einheit und typischerweise ungefähr das Sieben- bis Achtfache der CLK Frequenz als Einheit genommen werden. Wenn kein „Blendenimpuls von mehreren CLK Frequenzen" abgeschnitten wird unmittelbar vor dem elektrischen Ladeausleseimpuls, dann ändert sich folglich die Belichtungszeit um ungefähr 50 was einen groben Schritt zur Folge hat.
  • Andererseits kann die Bildaufnahmevorrichtung 20 eine Feineinstellungsverarbeitung in dem Niedergeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 100 und dem Hochgeschwindigkeitsblenden-Feineinstellungsverarbeitungsabschnitt 105 durchführen, den Elektronikblendenimpuls schieben, während eine TAKT-Frequenz als die Einheit genommen wird, und die Belichtungszeit einstellen während eine TAKT-Frequenz als die Einheit genommen wird. Folglich kann die Belichtungszeiteinstellung unter Verwendung des Blendenimpulses, der unmittelbar vor dem elektrischen Ladeausleseimpuls erzeugt wird, durchgeführt werden in mehreren %. Es wird folglich möglich, die Belichtungszeit genau einzustellen.
  • In der Bildaufnahmevorrichtung 20 ist eine Feineinstellung der Belichtungszeit möglich, und folglich kann der Helligkeitspegel des Bildsignals feineingestellt werden. Durch Verwendung nur der Belichtungszeiteinstellung der Elektronikblende, wird es möglich, eine Flimmerkorrektur eines Bildsignals durchzuführen, das gewonnen wird durch Aufnehmen eines Bilds eines hohen Helligkeitsbereichs bei einer extrem schnellen Elektronikblendengeschwindigkeit. Mit anderen Worten, in der Bildaufnahmevorrichtung 20, die den weiten dynamischen Bereich gemäß der vorliegenden Erfindung realisiert, wird es möglich, eine Flimmerkorrektur für das Hochgeschwindigkeitsblendenbildsignal durchzuführen, indem nur die elektronische Blende verwendet wird.
  • Das Hochgeschwindigkeitsblendenimpulserzeugungsmittel 108 arbeitet in der gleichen Weise wie das Niedergeschwindigkeitsblendenimpulserzeugungsmittel 107. Da das Hochgeschwindigkeitsblendenimpulserzeugungsmittel 108 überhaupt nicht verschieden ist von dem Niedergeschwindigkeitsblendenimpulserzeugungsmittel 107 in dem oben genannten internen Aufbau, und folglich wird de Betrieb und dessen Beschreibung weggelassen.
  • In der Bildaufnahmevorrichtung 20 gemäß dem ersten Ausführungsbeispiel wird der Dynamikbereichsexpansionsfaktor der Kamera mit hoher Geschwindigkeit gemäß der Helligkeitsdifferenz in dem Subjekt geändert, und ein aufgenommenes Bild, das bezüglich der Subjekthelligkeitsdifferenz optimiert ist, wird gewonnen. Als Ergebnis ist es möglich, eine Bildaufnahmevorrichtung zu schaffen, die wirkungsvoll als fahrzeugmontierte Kamera ist für die Bilderkennung, die extrem groß bezüglich einer Helligkeitsdifferenz des Subjekts ist, oder einen Monitor oder eine Überwachungskamera zum gleichzeitigen Aufnehmen von Bildern innen und bei Nacht draußen.
  • In der Bildaufnahmevorrichtung 20 gemäß dem ersten Ausführungsbeispiel sind das Analogsignalverarbeitungsmittel 22 und das Digitalsignalverarbeitungsmittel 23, die als das Bildsignalverarbeitungsmittel dienen, und das Steuerungsmittel integriert ausgebildet. Für den Bereich der Integration sind verschiedene Formen möglich. Beispielsweise können die Elektronikblen denschaltung 49, die Niedergeschwindigkeitsblendenspeicherschaltung 39, die Hochgeschwindigkeitsblendenspeicherschaltung 43, die Niedergeschwindigkeitsblendenschaltschaltung 40, die Hochgeschwindigkeitsblendenschaltschaltung 44, die Niedergeschwindigkeitscharakteristikumwandlungsschaltung 41, die Hochgeschwindigkeitscharakteristikumwandlungsschaltung 45, die Additionsschaltung 34, die als Bildsignalkombinationsmittel dient, die Helligkeitsakkumulationswertschaltung 50, die Helligkeitspeakwertdetektionsschaltung 51 und die Austastwellenformerzeugungsschaltung 52 als ein integrierter Halbleiterchip gebildet sein. Natürlich ist die Integration nicht auf die oben beschriebenen Beispiele beschränkt. In dem Fall, bei dem die Integration durchgeführt wird, ist die Kombination der Komponenten, die in 1 gezeigt sind, willkürlich. Die Additionsschaltung 34 kann eine Schaltschaltung sein.
  • In der vorangegangenen Beschreibung des ersten Ausführungsbeispiels ist ein Beispiel beschrieben worden, bei dem der CMOS Sensor 28 als Bildaufnahmevorrichtung verwendet wird. Darüber hinaus, in dem Fall, bei dem eine fotoelektrische Vorrichtung wie ein CCD Sensor verwendet wird als Bildaufnahmegerät, ist es möglich in der vorliegenden Erfindung den Dynamikbereichsexpansionsfaktor der Kamera gemäß der Helligkeitsdifferenz in dem Subjekt zu ändern und ein aufgenommenes Bild zu gewinnen, das bezüglich der Helligkeitsdifferenz in dem Subjekt optimiert ist.
  • (Zweites Ausführungsbeispiel)
  • Eine Bildaufnahmevorrichtung 20A gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung ist in 19 gezeigt. Ausgenommen, dass ein Bereichsauswahl- und Extraktionsmittel 113 zum Auswählen und Extrahieren eines Bildinformationsbereichs mit hoher Wichtigkeit aus einem Bildsignal, das gewonnen wird durch Aufnehmen eines Bilds, bereitgestellt ist, ist die Bildaufnahmevorrichtung 20A gemäß diesem zweiten Ausführungsbeispiel ungefähr gleich der Bildaufnahmevorrichtung gemäß dem ersten Ausführungsbeispiel. Folglich werden nur Komponenten, die von denen der Bildaufnahmevorrichtung 20 des ersten Ausführungsbeispiels verschieden sind, mit Referenzzeichen versehen, und die Komponenten, die sich nicht von denen unterscheiden, haben die gleichen Bezugszeichen und sind von der Beschreibung weggelassen.
  • Wie in 19 gezeigt, enthält die Bildaufnahmevorrichtung 20A den CMOS Sensor 28 als Bildaufnahmevorrichtung, das Bildaufnahmemittel 21 zum Aufnehmen eines Bilds, ein Bereichsauswahl- und Extraktionsmittel 113 zum Auswählen und Extrahieren eines willkürlichen Bereichs aus einem Bildbereich in einem Bildsignal entsprechend einem Bild, das aufgenommen wurde, durch das Bildaufnahmemittel 21, und ein Bildsignalausgabemittel 114 zum Durchführen einer Signalverarbeitung eines Bildsignals des Bereichs, der ausgewählt und extrahiert wurde durch das Bereichsauswahl- und Extrahierungsmittel 113 und zum Ausgeben eines Ergebnisses der Signalverarbeitung.
  • Ein Bildsignal, das einem Bild entspricht, wird durch den CMOS Sensor erzeugt, der als Bildaufnahmegerät dient, was in dem Bildaufnahmemittel 21 der Bildaufnahmevorrichtung 20A enthalten ist. Ein willkürlicher Bereich wird ausgewählt und extrahiert aus dem Bildbereich des Bildsignals entsprechend einem Bild durch ein Bereichsauswahl- und Extrahierungssignal, das in den CMOS Sensor 28 von dem Bereichsauswahl- und Extrahierungsmittel 113 eingegeben wird. Darüber hinaus gibt der CMOS Sensor 28 ein Bildsignal aus (im Folgenden als Bildauswahl- und Extrahierungsbildsignal bezeichnet), das gewonnen wird durch Auswählen und Extrahieren eines willkürlichen Bereichs von dem erzeugten Bildsignal entsprechend einem Bild. Das Bereichsauswahl- und Extrahierungsbildsignal, das folglich gewonnen wird, wird in das Bildsignalausgabemittel 114 eingegeben.
  • Für das Bereichsauswahl- und Extrahierungsbildsignal, das in das Bildsignalausgabemittel 114 eingegeben wird, wird Rauschen, das diesem Signal überlagert ist, entfernt durch eine Korrelationsdoppelabtastschaltung (im Folgenden als CDS Schaltung bezeichnet) 116. Das Bereichsauswahl- und Extrahierungsbildsignal wird einer A/D Umwandlung in der A/D Umwandlungsschaltung 32 unterworfen, und einer Signalverarbeitung in einer Bildsignalverarbeitungsschaltung 117 unterworfen. Das Bereichsauswahl- und Extrahierungsbildsignal, das der Signalverarbeitung in der Bildsignalverarbeitungsschaltung 117 unterworfen worden ist, wird von dem Bildsignalausgabemittel 114 über den Bildsignalausgabeterminal 25 als eine Bildsignalausgabe der Bildaufnahmevorrichtung 20A ausgegeben. Das Bereichsauswahl- und Extraktionsbildsignal, das der Signalverarbeitung in der Bildsignalverarbeitungsschaltung 117 unterworfen worden ist, wird auch zurückgegeben an das Bereichsauswahl- und Extraktionsmittel 113, das in der Bildaufnahmevorrichtung 20A enthalten ist.
  • Ein Rückführsignal, das an das Bereichsauswahl- und Extrahierungsmittel 113 zurückgeführt wird, wird in eine Steuerungsschaltung 118 eingegeben, um ein Steuerungssignal zu erzeugen zum Steuern einer Abtastimpulserzeugungsschaltung 119. Das Steuerungssignal, das folglich gewonnen wird, wird in die Abtastimpulserzeugungsschaltung 119 eingegeben, um die Erzeugung eines Abtastimpulses zu steuern. Der Abtastimpuls, der durch die Abtastimpulserzeugungsschaltung 119 erzeugt wird, wird in ein Bereichsauswahlmittel 120 eingegeben zum Auswählen eines Bereichs des Bereichsauswahl- und Extraktionsbildsignals, das von dem CMOS Sensor 28 ausgegeben wird, der als das Bildaufnahmegerät dient. Bei einer Triggerung durch den eingegebenen Abtastimpuls gibt das Bereichsauswahlmittel 120 eine Bereichsauswahl- und Extraktionsinformation aus. Die Bereichsauswahl- und Extraktionsinformation, die folglich ausgegeben wird, wird in eine Bildaufnahmegerät-Treiberschaltung 121 eingegeben.
  • Der Abtastimpuls, der durch die Abtastimpulserzeugungsschaltung 119 erzeugt wird, wird auch direkt in die Bildaufnahmegerät-Treiberschaltung 121 eingegeben. Die Bildaufnahmegerät-Treiberschaltung 121 erzeugt einen Transferimpuls zum Treiben (Ansteuern) des CMOS Sensors 28 als Bildaufnahmegerät, und ein Bereichsauswahl- und Extraktionssignal basierend auf dem darin eingegebenen Abtastimpuls. Der Transferimpuls und das Bereichsauswahl- und Extraktionssignal, die folglich erzeugt worden sind, werden in den CMOS Sensor 28 eingegeben.
  • Die Bildaufnahmevorrichtung 20A enthält den CMOS Sensor 28, der als Bildaufnahmegerät dient, um die Zeit merkbar abzukürzen, die erforderlich ist zum Auslesen der elektrischen Ladung, die in dem Bildaufnahmegerät gespeichert ist, also Auslesen des Bildsignals. Darüber hinaus enthält die Bildaufnahmevorrichtung 20A das Bereichsauswahl- und Extraktionsmittel 113, um die Bildsignalverarbeitungszeit in dem Bildsignalausgabemittel 114 zu kürzen, das in der Bildaufnahmevorrichtung 20A gemäß 19 enthalten ist. In der Bildaufnahmevorrichtung 20A wird versucht die Zeit zu verkürzen, die erforderlich ist seit der Bildaufnahme bis zur Bildsignalausgabe, indem die Zeit verkürzt wird, die erforderlich ist zum Auslesen des Bildsignals aus dem Bildaufnahmegerät und Verkürzen der Bildsignalverarbeitungszeit in dem Bildsignalausgabemittel 114.
  • In dem Fall, bei dem eine Hochgeschwindigkeitssteuerung erforderlich ist, wie in dem Fall, bei dem ein sich bewegender Körper ein Hindernis detektiert, das in seiner Bewegungsrichtung vorhanden ist und eine Steuerung durchführt zur Verhinderung des Zusammenstoßes, wird die Bildaufnahmevorrichtung 20A eine geeignetere Bildaufnahmevorrichtung, als die Bildaufnahmevorrichtung 20 gemäß dem ersten Ausführungsbeispiel, da die Zeit verkürzt wird, die erforderlich ist von der Bildaufnahme bis zur Bildsignalausgabe. Mit anderen Worten, die Bildaufnahmevorrichtung 20A ist eine Bildaufnahmevorrichtung, die wirkungsvoll ist als Bildaufnahmevorrichtung, die auf einem sich bewegenden Körper zu Zwecken der Erfassung von Steuerungsinformation installiert ist.
  • Zuerst wird der Verkürzungseffekt der Bildsignalauslesezeit des CMOS Sensors 28, der als Bildaufnahmegerät in der Bildaufnahmevorrichtung 20A dient, beschrieben.
  • Wenn man den CCD Sensor mit (640 × 480) Pixeln mit dem CMOS Sensor 28 vergleicht, zeigen die 20A und 20B die Auslesezeit des Bildsignals von dem CCD Sensor und dem CMOS Sensor 28, also die Auslesezeit der elektrischen Ladung, die in dem CCD Sensor und dem CMOS Sensor 28 gespeichert ist.
  • In dem Fall des CCD Sensors gemäß 20A beträgt die Zeit, die erforderlich ist zum Auslesen der gespeicherten elektrischen Ladung ungefähr 1/30 Sekunden. Mit anderen Worten, da der Transferimpuls (Bildaufnahmegerät-Treibersignal) eingegeben wird, bis die gespeicherte elektrische Ladung von allen Pixeln 123 an einen vertikalen Übertragungsabschnitt 124 übertragen worden ist, und die gespeicherte elektrische Ladung von dem vertikalen Übertragungsabschnitt 124 nacheinander ausgelesen wird, dauert dies ungefähr 1/30 Sekunden.
  • Andererseits, in dem Fall des CMOS Sensors 28 gemäß 20B kann die gespeicherte elektrische Ladung jedes Pixels ausgelesen werden von einer Bildsignalausleseleitung 125 fast unmittelbar (ungefähr 30 Nanosekunden) nachdem der Transferimpuls (Bildaufnahmegerät-Treibersignal) eingegeben wurde, da es eine Mehrzahl von Transferimpulsen in dem CMOS Sensor gibt, und die Zeitgebung gemäß dem Pixel (Gerät) abweicht. Unter Verwendung des CMOS Sensors 28 als Bildaufnahmegerät kann folglich die Zeit, die zum Auslesen der gespei cherten elektrischen Ladung aus dem Bildaufnahmegerät erforderlich ist, beträchtlich in der Bildaufnahmevorrichtung 20A verkürzt werden.
  • Angenommen, dass die Bildaufnahmevorrichtung auf einem sich bewegenden Körper montiert ist, beispielsweise einem Fahrzeug, und der sich bewegende Körper mit einer Geschwindigkeit von 150 km/h pro Stunde (eine Geschwindigkeit von ungefähr 41,7 m pro Sekunde) bewegt, wird die Bildaufnahmevorrichtung 20 mit dem CCD Sensor als das Bildaufnahmegerät hier mit der Bildaufnahmevorrichtung 20A mit dem CMOS Sensor 28 als das Bildaufnahmegerät verglichen.
  • In der Bildaufnahmevorrichtung 20 bewegt sich das Fahrzeug mit ungefähr 1,4 m, wenn die Auslesezeit der elektrischen Ladung von dem CCD Sensor, der als Bildaufnahmegerät dient, also ungefähr 1/30 Sekunden abgelaufen sind. In der Bildaufnahmevorrichtung 20A jedoch bewegt sich das Fahrzeug mit ungefähr „0" m, wenn die Auslesezeit der elektrischen Ladung von dem CMOS Sensor 28, der als das Bildaufnahmegerät dient, abgelaufen ist.
  • In dem Fall, bei dem jede Bildaufnahmevorrichtung ein Hindernis erfasst, das voraus existiert, und eine Steuerung durchführt zum Stoppen der Bewegung des Körpers, um einen Unfall zu vermeiden. Folglich bewegt sich der sich bewegende Körper, der die Bildaufnahmevorrichtung 20 montiert hat, mit ungefähr 1,4 m, bis zur Durchführung der Steuerungsoperation, wohingegen der sich bewegende Körper, der die Bildaufnahmevorrichtung 20A montiert hat, sich mit ungefähr „0" m bewegt, bis der Steuerungsbetrieb durchgeführt wird. Wenn die Fahrgeschwindigkeit des sich bewegenden Körpers größer wird, wird die Differenz in der Distanz der Bewegung während der Auslesezeit der gespeicherten elektrischen Ladung beträchtlicher.
  • Das Bereichsauswahlmittel 120 und die Bildaufnahmegerät-Treiberschaltung 121, die in der Bildaufnahmevorrichtung 20A enthalten sind, werden gemäß 19 beschrieben.
  • Das Bereichsauswahlmittel 120 enthält eine Vertikalpositionsauswahlschaltung 127 zum Auswählen eines Abtastbereichs in vertikaler Richtung, und eine Horizontalpositionsauswahlschaltung 128 in horizontaler Richtung. Das Einstellen des Auswahl- und Extraktionsbereichs des Bildsignals unter Verwendung des Bereichsauswahlmittels 120 wird durchgeführt, indem vor her Abtastbereichsinformation eingegeben wird beim Abtasten des CMOS Sensors 28, in die Vertikalpositionsauswahlschaltung 127 und die Horizontalpositionsauswahlschaltung 128 in der horizontalen Richtung, von einem Vertikalrichtungsvoreinstellungsterminal 129 und einem Horizontalrichtungsnacheinstellungsterminal 130.
  • Für die Bereichsauswahl und Extraktion in der vertikalen Richtung wird die Abtastbereichsinformation für das Abtasten des CMOS Sensors 28 vorher in die Vertikalpositionsauswahlschaltung 127 von dem Vertikalrichtungsvoreinstellungsterminal 129 eingegeben. Die Abtastbereichsinformation wird geliefert durch Eingeben von 0 oder 1 in die Vertikalpositionsauswahlschaltung 127 bei jeder wirkungsvollen Abtastzeile des CMOS Sensors in vertikaler Richtung.
  • Zusätzlich zu der Abtastbereichsinformation wird der Abtastimpuls von der Abtastimpulserzeugungsschaltung 119 in die Vertikalpositionsauswahlschaltung 127 eingegeben. Nach einer Triggerung durch den Eingabeabtastimpuls, wird die Eingabeinformation „0" oder „1" in die Bildaufnahmegeräte-Treiberschaltung 121 eingegeben zum Ansteuern des CMOS Sensors 28. Ferner, für die Bereichsauswahl und Extraktion in der horizontalen Richtung, wird der Abtastbereich für das Abtasten des CMOS Sensors 28 in die Horizontalpositionsauswahlschaltung 128 von dem Horizontalrichtungsvoreinstellungsterminal 130 in der Form von „0" und „1" eingegeben, in der gleichen Weise, wie die Bereichsauswahl und Extraktion in der vertikalen Richtung. Nach einer Triggerung durch den Abtastimpuls, der von der Abtastimpulserzeugungsschaltung 119 eingegeben wird, wird die Eingabeinformation „0" oder „1" in die Bildaufnahmegerät-Treiberschaltung 121 eingegeben zum Ansteuern des CMOS Sensors 28.
  • Die Bildaufnahmegerät-Treiberschaltung 121 enthält ein vertikales Schieberegister 132 zum Abtasten effektiver Abtastzeilen in der vertikalen Richtung, und ein horizontales Schieberegister 131 zum Abtasten effektiver Abtastzeilen in der horizontalen Richtung. Nach einer Triggerung durch den Abtastimpuls von der Abtastimpulserzeugungsschaltung 119, erzeugt das vertikale Schieberegister 132 ein Treibersignal zum Treiben (Ansteuern) des CMOS Sensors 28 gemäß der Abtastbereichsinformation, die von der Vertikalpositionsauswahlschaltung 127 geliefert wird, also „0" und „1" Information. Nach einer Triggerung durch den Abtastimpuls von der Abtastimpulserzeugungsschaltung 119 erzeugt das horizontale Schieberegister 133 ein Treibersignal (im Folgenden als CMOS Sensoransteuersignal bezeichnet) zum Ansteuern des CMOS Sensors 28 gemäß der Abtastbereichsinformation, die von der Horizontalpositionsauswahlschaltung 128 geliefert wird, also „0" und „1" Information.
  • Das CMOS Sensortreibersignal, das durch das vertikale Schieberegister 132 und das horizontale Schieberegister 133 erzeugt wird, wird an den CMOS Sensor 28 gesendet. Der CMOS Sensor 28 führt eine Auswahl und Extraktion des Bildsignals gemäß dem darin eingegebenen CMOS Sensortreibersignal durch.
  • Wie für die Auswahl und Extraktion des Bildsignals erfolgt eine Extraktion des Bildsignals, betreffend die effektiven Abtastzeilen, die mit „1" in der Abtastbereichsinformation geliefert werden, als Abtastausführungsregion. Andererseits werden die effektiven Abtastzeilen, die beliefert werden mit „0" behandelt als abtastunnötiger Bereich und werden nicht der Extraktion des Bildsignals unterworfen. In der gleichen Weise, wie Bildaufnahmevorrichtung 20 gemäß dem ersten Ausführungsbeispiel, wird das ausgewählte und extrahierte Bildsignal der Bildsignalverarbeitung in dem Signalverarbeitungsmittel unterworfen.
  • Das Bildsignalverarbeitungsmittel, das in der Bildaufnahmevorrichtung 20A enthalten ist, ist das gleiche, wie das, das in der Bildaufnahmevorrichtung 20 gemäß dem ersten Ausführungsbeispiel enthalten ist. Die Information wird der Bildsignalverarbeitung schnell unterworfen, da das Bildsignal ausgewählt und extrahiert ist, und die Informationsinhalte reduziert sind. Darüber hinaus wird das Bildsignal, das der Bildsignalverarbeitung in dem Bildsignalverarbeitungsmittel unterworfen wird, von dem Bildsignalausgabemittel 114 ausgegeben.
  • 21 zeigt ein Diagramm, das ein Beispiel zeigt, in dem die Bildaufnahmevorrichtung 20A als Kamera verwendet wird, die auf einem Fahrzeug installiert ist. In der fahrzeugmontierten Kamera ist eine Region, die von einem nahen mittleren Teil bis zu einem oberen Teil des Bilds reicht, der Himmel 135. Viele Subjekte, wie ein Fahrzeug 136, eine Straße 137 und weiße Linien 138 auf der Straße werden in dem unteren Bereich des Bilds lokalisiert anstatt in der Umgebung der Mitte des Bilds. Wenn eine Kamera, die auf einem Fahrzeug installiert ist, einen Bereich aufweist, der von der Umgebung des mittleren Bereichs des Bilds zu dem unteren Bereich des Bilds reicht, als eine Abtastausführungsregion eingestellt wird, und der verbleibende Teil als Abtastnichtausführungsregion eingestellt wird. Entsprechend kann ein Bild einer sehr wichtigen Region enthaltend Subjekte, wie das Fahrzeug 136, die Straße 137 und weiße Linien 138 auf der Straße schnell gewonnen werden.
  • Gemäß der Bildaufnahmevorrichtung des zweiten Ausführungsbeispiels wird der CMOS Sensor 28 als Bildaufnahmevorrichtung verwendet und folglich wird es möglich, das Bildsignal von dem CMOS Sensor 28 im Wesentlichen in einem Moment nach der fotoelektrischen Umwandlung auszulesen. Ferner, da die Bildaufnahmevorrichtung gemäß dem zweiten Ausführungsbeispiel das Bereichsauswahl- und Extraktionsmittel 113 enthält, wird es möglich, einen sehr wichtigen Bereich von dem Bildsignal auszuwählen und zu extrahieren und die Verarbeitungszeit, die zur Signalverarbeitung erforderlich ist, zu verkürzen.
  • In der Bildaufnahmevorrichtung 20A wird folglich die Zeit, die erforderlich ist von der Bildaufnahme bis zur Bildsignalausgabe verkürzt. In dem Fall, bei dem die Hochgeschwindigkeitssteuerung erforderlich ist, wie in dem Fall, bei dem ein sich bewegender Körper ein Hindernis detektiert, das in seiner Fahrtrichtung existiert, und eine Steuerung zur Verhinderung des Zusammenpralls durchführt, ist die Bildaufnahmevorrichtung 20A wirkungsvoll als Bildaufnahmevorrichtung, die auf dem sich bewegenden Körper zum Zweck des Erfassens von Steuerungsinformation installiert ist.
  • In der vorangegangenen Beschreibung ist angenommen worden, dass der sich bewegende Körper, auf dem die Bildaufnahmevorrichtung 20A gemäß dem zweiten Ausführungsbeispiel installiert ist, ein Fahrzeug ist. Der sich bewegende Körper ist jedoch nicht auf ein Fahrzeug beschränkt. Der sich bewegende Körper, auf dem die Bildaufnahmevorrichtung 20A installiert ist, kann irgendein sich bewegender Körper sein, auf dem die Bildaufnahmevorrichtung 20A installiert werden kann, wie ein Fahrzeug, Schiff, Flugzeug oder dergleichen.
  • Gemäß der obigen Erfindung, da die Bildaufnahmevorrichtung schnell den Dynamikbereichsexpansionsfaktor der Kamera gemäß der Helligkeitsdifferenz in dem Subjekt variiert und ein Aufnahmebild gewinnt, das bezüglich der Helligkeitsdifferenz des Subjekts optimiert ist, ist sie auch wirkungsvoll, wenn ein Bild eines Objekts aufgenommen wird, das eine extrem hohe Helligkeitsdifferenz aufweist.
  • Darüber hinaus wird es möglich, die Zeit zu reduzieren, ab der Aufnahme des Bilds bis zur Beendigung der Bildverarbeitung und eine Verarbeitung des aufgenommenen Bildsignals mit hoher Geschwindigkeit durchzuführen, indem ein CMOS Sensor als Bildaufnahmegerät verwendet wird, der in dem Bildaufnahmemittel der Bildaufnahmevorrichtung enthalten ist, auswählen und extrahieren eines sehr wichtigen Bereichs von einem Bildaufnahmebildbereich, und folglich reduzieren des Informationsinhalts des Bildsignalsubjekts für die Bildsignalverarbeitung. Folglich ist die Bildaufnahmevorrichtung ebenfalls effektiv bei der Bildaufnahme von einem sich bewegenden Körper, in welchem sich das Subjekt ständig ändert.
  • Es ist ferner zu bemerken, dass die vorliegende Erfindung nicht auf die beschriebenen Ausführungsbeispiele beschränkt ist und andere Änderungen und Modifikationen vorgenommen werden können, ohne den Bereich der Erfindung zu verlassen.

Claims (11)

  1. Bildaufnahmevorrichtung, enthaltend ein Bildaufnahmegerät (21) zum Gewinnen eines ersten Bilds, das mit einer ersten Zeitperiode belichtet wurde, und eines zweiten Bilds, das mit einer zweiten Zeitperiode belichtet wurde, die kürzer als die erste Zeitperiode ist, eine Steuerung (48, 49) zum Steuern der ersten Zeitperiode und der zweiten Zeitperiode gemäß einer Helligkeit der Bilder, und einen Prozessor (33) zum Kombinieren des ersten Bilds und des zweiten Bilds in ein drittes Bild, gekennzeichnet durch ein Teilungsmittel (52) zum Teilen des ersten und des zweiten Bilds von dem CMOS Sensor in eine Mehrzahl von Nebenbereichen (54); und ein Detektiermittel (50, 51) zum Detektieren von Helligkeitsinformation in jedem Nebenbereich des ersten und zweiten Bilds; wobei das Bildaufnahmegerät einen CMOS Sensor (28) enthält, der das erste oder das zweite Bild in einer vorbestimmten Rahmenzeitperiode (D in 2) ausgibt, und wobei die Steuerung (49) steuert zum abwechselnden Auslesen von einem von dem ersten und dem zweiten Bild innerhalb der Rahmenzeitperiode, und ferner enthaltend ein erstes Mittel zum Bestimmen einer ersten Zeitperiode des CMOS Sensors zur Belichtung in einer nächsten Bildrahmenzeitperiode unter Verwendung der Helligkeitsinformation, die von dem ersten Bild durch das Detektiermittel gewonnen wird; ein zweites Mittel zum Bestimmen einer zweiten Zeitperiode, unabhängig von dem ersten Mittel, des CMOS Sensors zur Belichtung in einer nachfolgenden Rahmenzeitperiode unter Verwendung der Helligkeitsinformation, die von dem zweiten Bild durch das Detektiermittel gewonnen wird.
  2. Vorrichtung nach Anspruch 1, wobei das Detektiermittel ein Akkumuliermittel enthält zum Akkumulieren der Helligkeit der Nebenbereiche, und Helligkeitsdurchschnittswerte der Nebenbereiche in dem ersten und dem zweiten Bild jeweils detektiert.
  3. Vorrichtung nach Anspruch 1, wobei das Detektiermittel Helligkeitsspitzenwerte der Nebenbereiche in dem ersten und zweiten Bild jeweils detektiert.
  4. Vorrichtung nach Anspruch 1, wobei das erste Mittel der Steuerung die erste Zeitperiode unter Verwendung der Helligkeitsinformation derartiger Nebenbereiche (90, 10) bestimmt, die bezüglich der Helligkeit des ersten Bilds ungesättigt sind.
  5. Vorrichtung nach Anspruch 1, wobei das zweite Mittel der Steuerung die zweite Zeitperiode unter Verwendung der Helligkeitsinformation derartiger Nebenbereiche (89, 10) bestimmt, die bezüglich der Helligkeit des zweiten Bilds gesättigt sind.
  6. Vorrichtung nach Anspruch 1, wobei das erste Mittel der Steuerung die erste Zeitperiode unter Verwendung der Helligkeitsinformation derartiger Nebenbereiche (90, 10) bestimmt, die bezüglich der Helligkeit des ersten Bilds ungesättigt sind, und das zweite Mittel der Steuerung die zweite Zeitperiode unter Verwendung der Helligkeitsinformation derartiger Nebenbereiche (89, 10) bestimmt, die bezüglich der Helligkeit des zweiten Bilds gesättigt sind.
  7. Vorrichtung nach Anspruch 1, wobei das erste Mittel der Steuerung die erste Zeitperiode unter Verwendung der Helligkeitsinformation derartiger Nebenbereiche (90) bestimmt, die kleine Helligkeitswerte des ersten Bilds haben, und das zweite Mittel der Steuerung die zweite Zeitperiode unter Verwendung der Helligkeitsinformation derartiger Nebenbereiche (89) bestimmt, die große Helligkeitswerte des zweiten Bilds haben.
  8. Vorrichtung nach Anspruch 6, wobei die Steuerung ferner ein Mittel enthält zum Verschieben der Enderzeugungszeitsteuerung einer elektronischen Blende, um so die erste Zeitperiode und die zweite Zeitperiode zu bestimmen, indem ein TAKT eines Zeitsteuergenerators als Einheit genommen wird.
  9. Vorrichtung nach Anspruch 6, wobei die Steuerung ferner ein Auswahlmittel (113) enthält zum Auswählen mindestens eines Nebenbereichs (54) des ersten und zweiten Bilds.
  10. Vorrichtung nach Anspruch 6, wobei das Bildaufnahmegerät an einem Fahrzeug installiert ist.
  11. Vorrichtung nach Anspruch 10, wobei das kombinierte Bild verwendet wird zum Detektieren eines Hindernisses, das nahe dem Fahrzeug ist.
DE60308242T 2002-02-25 2003-02-24 Bildaufnahmevorrichtung Expired - Lifetime DE60308242T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002048433 2002-02-25
JP2002048433A JP4154157B2 (ja) 2002-02-25 2002-02-25 撮像装置

Publications (2)

Publication Number Publication Date
DE60308242D1 DE60308242D1 (de) 2006-10-26
DE60308242T2 true DE60308242T2 (de) 2007-08-30

Family

ID=27655442

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60308242T Expired - Lifetime DE60308242T2 (de) 2002-02-25 2003-02-24 Bildaufnahmevorrichtung

Country Status (4)

Country Link
US (1) US20040165091A1 (de)
EP (1) EP1339227B1 (de)
JP (1) JP4154157B2 (de)
DE (1) DE60308242T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10122933B2 (en) 2010-06-19 2018-11-06 Volkswagen Ag Method and apparatus for recording an image sequence of an area surrounding a vehicle

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3949903B2 (ja) * 2001-04-09 2007-07-25 東芝エルエスアイシステムサポート株式会社 撮像装置及び撮像信号処理方法
TWI224463B (en) * 2003-05-22 2004-11-21 Benq Corp Calibration method and scan device for transmitted scan
JP4720130B2 (ja) * 2003-09-09 2011-07-13 コニカミノルタホールディングス株式会社 撮像装置
US20080012942A1 (en) * 2003-12-25 2008-01-17 Niles Co., Ltd. Imaging System
KR100555755B1 (ko) * 2004-05-04 2006-03-03 삼성전자주식회사 휘도 히스토그램을 이용한 영상 자동 보정 장치
US7583305B2 (en) * 2004-07-07 2009-09-01 Eastman Kodak Company Extended dynamic range imaging system
US7920175B2 (en) 2005-01-13 2011-04-05 Canon Kabushiki Kaisha Electronic still camera performing composition of images and image capturing method therefor
JP2006222935A (ja) * 2005-01-13 2006-08-24 Canon Inc 電子スチルカメラ及び撮像方法及びプログラム及び記憶媒体
US7616256B2 (en) * 2005-03-21 2009-11-10 Dolby Laboratories Licensing Corporation Multiple exposure methods and apparatus for electronic cameras
CA2511220C (en) * 2005-03-21 2012-08-14 Sunnybrook Technologies Inc. Multiple exposure methods and apparatus for electronic cameras
JP4855704B2 (ja) * 2005-03-31 2012-01-18 株式会社東芝 固体撮像装置
US20070127909A1 (en) 2005-08-25 2007-06-07 Craig Mowry System and apparatus for increasing quality and efficiency of film capture and methods of use thereof
JP4424292B2 (ja) * 2005-09-28 2010-03-03 ソニー株式会社 撮像装置、露出制御方法およびプログラム
JP4693602B2 (ja) * 2005-11-07 2011-06-01 株式会社東芝 撮像装置、及び画像用信号処理方法
JP2008009906A (ja) * 2006-06-30 2008-01-17 Matsushita Electric Ind Co Ltd 固体撮像装置及び撮像システム
US8242426B2 (en) * 2006-12-12 2012-08-14 Dolby Laboratories Licensing Corporation Electronic camera having multiple sensors for capturing high dynamic range images and related methods
JP2008219523A (ja) * 2007-03-05 2008-09-18 Canon Inc 撮像装置及びその制御方法
KR20080095084A (ko) * 2007-04-23 2008-10-28 삼성전자주식회사 영상 잡음 제거 장치 및 방법
DE102007045448A1 (de) 2007-09-24 2009-04-02 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Bildsensor
JP5041985B2 (ja) * 2007-11-26 2012-10-03 本田技研工業株式会社 車載撮像装置
JP5094607B2 (ja) * 2008-07-16 2012-12-12 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US8346008B2 (en) * 2009-06-09 2013-01-01 Aptina Imaging Corporation Systems and methods for noise reduction in high dynamic range imaging
US9179072B2 (en) 2010-10-31 2015-11-03 Mobileye Vision Technologies Ltd. Bundling night vision and other driver assistance systems (DAS) using near infra red (NIR) illumination and a rolling shutter
JP5936323B2 (ja) * 2011-09-26 2016-06-22 キヤノン株式会社 画像記録装置およびその制御方法
JP5860298B2 (ja) * 2012-02-07 2016-02-16 日本放送協会 画像処理装置及びプログラム
WO2014200495A1 (en) * 2013-06-13 2014-12-18 Hewlett-Packard Development Company, L. P. Establish image pipeline
US9407832B2 (en) * 2014-04-25 2016-08-02 Himax Imaging Limited Multi-exposure imaging system and method for eliminating rolling shutter flicker
JP2016220056A (ja) * 2015-05-21 2016-12-22 株式会社デンソー 画像生成装置
JP6674317B2 (ja) * 2016-05-13 2020-04-01 株式会社日立国際電気 テレビジョンカメラ
US11190462B2 (en) 2017-02-12 2021-11-30 Mellanox Technologies, Ltd. Direct packet placement
US11252464B2 (en) * 2017-06-14 2022-02-15 Mellanox Technologies, Ltd. Regrouping of video data in host memory
JP6717333B2 (ja) * 2018-03-23 2020-07-01 株式会社デンソー 露出制御装置
US20190320102A1 (en) * 2018-04-13 2019-10-17 Qualcomm Incorporated Power reduction for dual camera synchronization
KR102441628B1 (ko) 2018-10-01 2022-09-08 테크 아이디어 컴퍼니 리미티드 이미지 센서

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638118A (en) * 1987-06-09 1997-06-10 Canon Kabushiki Kaisha Image sensing device with diverse storage times used in picture composition
AUPO798697A0 (en) * 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Data processing method and apparatus (ART51)
US6285398B1 (en) * 1997-11-17 2001-09-04 Sony Corporation Charge-coupled device video camera with raw data format output and software implemented camera signal processing
NZ332626A (en) * 1997-11-21 2000-04-28 Matsushita Electric Ind Co Ltd Expansion of dynamic range for video camera
JP4058789B2 (ja) * 1998-02-24 2008-03-12 ソニー株式会社 固体撮像装置及びその駆動方法、並びにカメラ
US6584235B1 (en) * 1998-04-23 2003-06-24 Micron Technology, Inc. Wide dynamic range fusion using memory look-up
JP4282113B2 (ja) * 1998-07-24 2009-06-17 オリンパス株式会社 撮像装置および撮像方法、並びに、撮像プログラムを記録した記録媒体
JP3443341B2 (ja) * 1998-10-19 2003-09-02 三洋電機株式会社 ディジタルカメラ
US7084905B1 (en) * 2000-02-23 2006-08-01 The Trustees Of Columbia University In The City Of New York Method and apparatus for obtaining high dynamic range images
JP3615454B2 (ja) * 2000-03-27 2005-02-02 三洋電機株式会社 ディジタルカメラ
US6765619B1 (en) * 2000-04-04 2004-07-20 Pixim, Inc. Method and apparatus for optimizing exposure time in image acquisitions
US20010040632A1 (en) * 2000-05-09 2001-11-15 Yang David Xiao Dong Multiple sampling via a time-indexed method to achieve wide dynamic ranges
JP4403635B2 (ja) * 2000-05-31 2010-01-27 パナソニック株式会社 ダイナミックレンジ拡大カメラ
US6958778B2 (en) * 2000-11-21 2005-10-25 Hitachi Kokusai Electric Inc. Iris control method and apparatus for television camera for controlling iris of lens according to video signal, and television camera using the same
JP3724374B2 (ja) * 2001-01-15 2005-12-07 ソニー株式会社 固体撮像装置及びその駆動方法
JP4511066B2 (ja) * 2001-03-12 2010-07-28 オリンパス株式会社 撮像装置
JP4398153B2 (ja) * 2001-03-16 2010-01-13 ヴィジョン・ロボティクス・コーポレーション 画像センサの有効ダイナミックレンジを増加させる装置及び方法
JP3949903B2 (ja) * 2001-04-09 2007-07-25 東芝エルエスアイシステムサポート株式会社 撮像装置及び撮像信号処理方法
US20030103158A1 (en) * 2001-12-05 2003-06-05 Creo Il. Ltd. System and method for the formation of multiple exposure images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10122933B2 (en) 2010-06-19 2018-11-06 Volkswagen Ag Method and apparatus for recording an image sequence of an area surrounding a vehicle

Also Published As

Publication number Publication date
EP1339227B1 (de) 2006-09-13
JP2003250094A (ja) 2003-09-05
EP1339227A2 (de) 2003-08-27
JP4154157B2 (ja) 2008-09-24
US20040165091A1 (en) 2004-08-26
DE60308242D1 (de) 2006-10-26
EP1339227A3 (de) 2004-03-10

Similar Documents

Publication Publication Date Title
DE60308242T2 (de) Bildaufnahmevorrichtung
DE10215525B4 (de) Bildgebende Vorrichtung und Signalverarbeitungsverfahren für diese
DE69627407T2 (de) Verfahren und Vorrichtung zur Bildabtastung mit Dynamikumfangserweiterung
DE60028749T2 (de) Automatische bestimmung einer finalen belichtungseinrichtung für eine festkörperkamera ohne getrennte lichtmessanordnung
DE60030802T2 (de) Bildsensor mit Messsung der Sättigungszeitmessung zur Erweiterung des Dynamikbereichs
DE69935764T2 (de) Elektronische Kamera
DE69828046T2 (de) Erweiterter dynamikbereich für bildformungssystem und verfahren
DE4041312C2 (de) Elektronische Kameravorrichtung zum Liefern eines Bildsignales mit einem weiten Dynamikbereich
DE3734957C2 (de)
DE69833998T2 (de) Bilderzeugungsverfahren und -vorrichtung
DE112006003593B4 (de) Bildsignalverarbeitungsverfahren und Bildsignalverarbeitungsvorrichtung
DE3229771C2 (de)
DE3919464C2 (de) Vorrichtung zum Scharfeinstellen einer Kamera
DE10210232A1 (de) Einrichtung zur Feststellung des Fokussierungszustands einer Aufnahmelinse
DE102016218838A1 (de) Bilderzeugungspixel mit hohem Dynamikumfang mit verbesserter Auslesung
DE3636951A1 (de) Einrichtung zur scharfeinstellungsermittlung
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
DE102007035852A1 (de) Bilderfassungssystem und Verfahren zum Betreiben desselben
EP1357742B1 (de) Digitale Laufbildkamera
DE10323236A1 (de) Bilderzeugungsvorrichtung
DE102013227163A1 (de) Bildaufnahmeelement, bildaufnahmevorrichtung und verfahren und programm zum steuern von diesen
EP2567539B1 (de) Bildsensor und verfahren zum aufnehmen eines bildes
DE10317934A1 (de) Bildaufnahmeeinrichtung und Verfahren zum Erfassen eines Objektes mit weitem Helligkeitsbereich
DE60320053T2 (de) Bildaufnahmegerät
DE3405808A1 (de) Bildaufnahme-einrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition