DE10140343B4 - Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation - Google Patents

Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation Download PDF

Info

Publication number
DE10140343B4
DE10140343B4 DE10140343A DE10140343A DE10140343B4 DE 10140343 B4 DE10140343 B4 DE 10140343B4 DE 10140343 A DE10140343 A DE 10140343A DE 10140343 A DE10140343 A DE 10140343A DE 10140343 B4 DE10140343 B4 DE 10140343B4
Authority
DE
Germany
Prior art keywords
value
transformation
data
distance measuring
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10140343A
Other languages
English (en)
Other versions
DE10140343A1 (de
Inventor
Naoto Nakahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Publication of DE10140343A1 publication Critical patent/DE10140343A1/de
Application granted granted Critical
Publication of DE10140343B4 publication Critical patent/DE10140343B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Entfernungsmesseinrichtung für eine Kamera (1) mit mehreren Entfernungsmesszonen (L, C, R), mit einer Lichtempfangsvorrichtung (36) mit mehreren Lichtsensoren, die jeweils Licht von einem Objekt in jeder der Entfernungsmesszonen (L, C, R) empfangen und ein der empfangenen Lichtmenge entsprechendes analoges Pixelsignal ausgeben, einem Analog/Digital-Wandler (21b), der die analogen Pixelsignale jeweils in digitale Pixeldaten wandelt, einer Transformationsvorrichtung (21), die an den digitalen Pixeldaten in einem vorbestimmten ersten logarithmischen Transformationsbereich, der einem vorbestimmten ersten Objekthelligkeitsbereich entspricht, eine logarithmische Transformation vornimmt und so erste Transformationsdaten erzeugt, einer Ermittlungsvorrichtung (21), die den Kontrastzustand jeder Entfernungsmesszone (L, C, R) auf Grundlage der auf die jeweilige Entfernungsmesszone (L, C, R) bezogenen ersten Transformationsdaten ermittelt, einer Rechenvorrichtung (21), die auf Grundlage der ersten Transformationsdaten eine mittlere relative Objekthelligkeit in jeder Entfernungsmesszone (L, C, R) berechnet, wobei die Rechenvorrichtung (21) die ersten Transformationsdaten von einem vorbestimmten Referenzwert subtrahiert und so einen gewandelten Wert ermittelt, um die mittlere relative Objekthelligkeit jeder Entfernungsmesszone (L, C, R) zu erhalten, indem der gewandelte Wert für die jeweilige Entfernungsmesszone (L, C, R) gemittelt wird, und wobei die Ermittlungsvorrichtung (21) die Differenz zwischen dem Maximalwert und dem Minimalwert der ersten Transformationsdaten in jeder Entfernungsmesszone (L, C, R) ermittelt und feststellt, dass der Kontrast der Entfernungsmesszonen (L, C, R) dann gering ist, wenn die genannte Differenz gleich oder kleiner als ein vorbestimmter Wert ist, und einer Steuervorrichtung (21), die zweite Transformationsdaten erzeugt, indem sie über die Transformationsvorrichtung (21) an den digitalen Pixeldaten in den Entfernungsmesszonen (L, C, R), die von der Ermittlungsvorrichtung (21) als Zone mit geringem Kontrast eingestuft ...

Description

  • Die Erfindung betrifft eine passive Entfernungsmesseinrichtung, die mit einem Entfernungsmesssensor ausgestattet ist, der einfallendes Licht in ein Analogsignal wandelt.
  • Eine herkömmliche Entfernungsmesseinrichtung vom passiven Typ, die weitläufig als passives AF-System für AF-Kameras eingesetzt wird, teilt das durch eine vorbestimmte Messzone, im Falle einer AF-Kamera z. B. eine Schärfenerfassungszone, betrachtete Bild über ein Paar Separatoroptiken in zwei Bilder, die als voneinander getrennte Bilder, nämlich als rechtes und als linkes Bild, auf einem zugeordneten Paar Liniensensoren, d. h. einem rechten und einem linken Sensor, erzeugt werden. Jeder Liniensensor enthält eine Anordnung von fotoelektrischen Wandlerelementen, z. B. Fotodioden. Jede Fotodiode wandelt das empfangene Licht in eine elektrische Ladung und sammelt, d. h. integriert diese. Anschließend wird die angesammelte elektrische Ladung aus jeder Fotodiode als Pixelsignal, d. h. als Spannung ausgelesen. Mit den von den beiden Liniensensoren ausgegebenen Pixelsignalen wird ein vorbestimmter Entfernungsmessprozess durchgeführt, um Daten wie den Defokuswert oder die Objektentfernung zu erhalten, die benötigt werden, um auf das Objekt scharfzustellen. Venwendet diese passive Entfernungsmesseinrichtung jedoch einen Entfernungsmesssensor, der das einfallende Licht in ein analoges Pixelsignal wandelt, so kann ein genau berechneter Entfernungswert/Defokuswert allein durch Wandeln eines von dem Entfernungsmesssensor ausgegebenen analogen Pixelsignals in ein digitales Signal und durch Verwenden dieses digitalen Signals in einer vorbestimmten Entfernungsmessberechnung nicht erhalten werden, wenn die Helligkeit und/oder der Kontrast des Objektes beispielsweise dadurch, dass das Auflösungsvermögen eines Teils des digitalen Signals geringer Helligkeit gering ist, so dass sich die Messgenauigkeit verschlechtert.
  • Aus der JP 2000-081 561 A ist eine Entfernungsmesseinrichtung für eine Kamera mit mehreren Entfernungsmesszonen bekannt. Diese Entfernungsmesseinrichtung umfasst eine Lichtempfangsvorrichtung, die ein analoges Pixelsignal erzeugt und einen Analog/Digital-Wandler, der das analoge Pixelsignal in digitale Pixeldaten wandelt, die mit einer vorbestimmten Zahl an Pixeln quantisiert sind. Anschließend wird die Bit-Zahl, mit der die digitalen Pixeldaten quantisiert sind, verringert, und es wird in einer Entfernungsmesszone der Kontrastzustand erfasst. Ergibt sich ein geringer Kontrast, so erzeugt die Lichtempfangsvorrichtung erneut ein analoges Pixelsignal, dass dann wieder in digitale Bilddaten gewandelt wird.
  • Zum Stand der Technik wird ferner auf die GB 1 437 161 A , die US 4 584 704 A und die US 4 047 187 A verwiesen, in denen die Spreizung von Wertebereichen mittels logarithmischer Transformationen in Autofokus- bzw. Bildauswertesystemen beschrieben ist.
  • Weiterhin zeigen die Druckschriften JP 08-304 696 A und US 5 329 111 A die Anpassung eines Analog-Digital-Konvertierungsbereichs an tatsächliche Eingangsdaten.
  • Aufgabe der Erfindung ist es, eine Entfernungsmesseinrichtung anzugeben, in der die Messgenauigkeit erhöht und die Messzeit verkürzt ist.
  • Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen angegeben.
  • Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
  • 1 eine Vorderansicht einer Objektivverschlusskamera mit einer Entfernungsmesseinrichtung, die ein Ausführungsbeispiel der Erfindung darstellt,
  • 2 eine Draufsicht der in 1 gezeigten Objektivverschlusskamera,
  • 3 eine Rückansicht der in 1 gezeigten Objektivverschlusskamera,
  • 4 ein Blockdiagramm mit grundlegenden Elementen eines in der Objektivverschlusskamera nach 1 vorgesehenen Steuersystems,
  • 5 eine schematische Darstellung eines in der Objektivverschlusskamera nach 1 vorgesehenen Entfernungsmesssensors,
  • 6A eine Graphen, der den Zusammenhang eines von dem Entfernungsmesssensor nach 5 ausgegebenen Pixelsignals (Vχ) und der Zeit (t) an Hand eines Beispiels zeigt,
  • 6B einen Graphen mit digitalen Pixeldaten, wobei von dem Entfernungsmesssensor nach 5 zur Zeit t1 ausgegebene analoge Pixelsignale Va bis Ve in den Fotodioden a bis e in die digitalen Pixeldaten im Bereich von 0(V) bis Vref' gewandelt werden,
  • 6C einen Graphen mit 4EV-Sensordaten, wobei an den digitalen Pixeldaten in den in 6B gezeigten Fotodioden a bis e jeweils eine logarithmische Transformation vorgenommen wird,
  • 7A einen Graphen mit beispielhaften 4EV-Sensordaten in Entfernungsmesszonen L, C und R,
  • 7B einen Graphen mit 2EV-Sensordaten, wobei in der in 7A gezeigten Entfernungsmesszone L eine logarithmische Transformation durchgeführt wird,
  • 7C einen Graphen mit 4EV-Sensordaten, wobei in der in 7A gezeigten Entfernungsmesszone C eine logarithmische Transformation durchgeführt wird,
  • 7D einen Graphen mit 2EV-Sensordaten, wobei in der in 7A gezeigten Entfernungsmesszone R eine logarithmische Transformation durchgeführt wird,
  • 8 ein Flussdiagramm, das den Aufnahmeprozess der Objektivverschlusskamera nach 1 zeigt,
  • 9A ein Flussdiagramm, das den in dem Aufnahmeprozess nach 8 durchgeführten Entfernungsmessprozess zeigt,
  • 9B ein Flussdiagramm, das den in dem Aufnahmeprozess nach 8 durchgeführten Entfernungsmessprozess zeigt,
  • 10 ein Flussdiagramm, das den Prozess zum Eingeben der Sensordaten zeigt, der die D/A-Wandlung und die logarithmische 4EV-Transformation beinhaltet und in dem in den 9A und 9B gezeigten Entfernungsmessprozess durchgeführt wird,
  • 11 ein Flussdiagramm, das den in dem Eingabeprozess nach 10 ausgeführten logarithmischen 4EV-Prozess zeigt, und
  • 12 ein Flussdiagramm, das den in dem Entfernungsmessprozess nach 9A und 9B ausgeführten logarithmischen 2EV-Prozess zeigt.
  • Die 1 bis 3 zeigen eine AF-Objektivverschlusskamera als Ausführungsbeispiel der Erfindung. Eine Kamera 1 hat an ihrem vorderen Teil ein Varioobjektiv 2. Die Kamera 1 ist vorne oberhalb des Varioobjektivs 2 mit einem Lichtempfangsfenster 4 zur passiven Autofokussierung, kurz AF, einem Sucherfenster 5 und einem Fotometriefenster 6 versehen. In der Kamera 1 befindet sich hinter dem Lichtempfangsfenster 4 ein Entfernungsmesssensor (passiver AF-Sensor) 36 (vgl. 5), hinter dem Sucherfenster 5 eine nicht gezeigte Sucheroptik und hinter dem Fotometriefenster 6 ein Fotometriesensor 37a (vgl. 4).
  • Die Kamera 1 hat an einem oberen Bedienfeld 7 eine Auslösetaste 8. Die Auslösetaste 8 ist an einen Fotometrieschalter SWS und einen Auslöseschalter SWR angeschlossen. Der Fotometrieschalter SWS und der Auslöseschalter SWR werden eingeschaltet, wenn die Auslösetaste 8 halb bzw. voll gedrückt wird.
  • Die Kamera 1 hat an ihrem hinteren Teil oben mittig eine Hauptschaltertaste 10, die an einen in 4 gezeigten Hauptschalter (Energieversorgungsschalter) SWM angeschlossen ist. Mit Bewegen der Hauptschaltertaste 10 nach links und nach rechts wird der Hauptschalter SWM eingeschaltet bzw. ausgeschaltet, wie in 3 gezeigt ist. Die Kamera 1 hat an ihrem hinteren Teil oben rechts einen Zoomknopf 9, der manuell betätigt wird, um das Varioobjektiv 2 in eine Tele- oder eine Weitwinkelrichtung anzutreiben. Der Zoomknopf 9 ist an einen Teleschalter SWT und einen Weitwinkelschalter SWW (vgl. 4) angeschlossen. Wird der Zoomknopf 9 auf die Teleseite, z. B. in 3 die rechte Seite bewegt, so wird der Teleschalter SWT eingeschaltet. Wird der Zoomknopf 9 auf die Weitwinkelseite, d. h. in 3 die linke Seite bewegt, so wird der Weitwinkelschalter SWW eingeschaltet. Der Teleschalter SWT und der Weitwinkelschalter SWW sind jeweils ausgeschaltet, wenn sich der Zoomknopf 9 in einer in den 2 und 3 gezeigten neutralen Stellung befindet. Die Kamera 1 hat an ihrem hinteren Teil oben links ein Okularfenster 12. An ihrem hinteren Teil in der Nähe des Okularfensters 12 hat die Kamera 1 einen Lichtsender 11, der grünes Licht aussendet, z. B. eine grüne LED. Der Lichtsender 11 wird so gesteuert, dass er in Abhängigkeit des Ergebnisses der Entfernungsmessung aufleuchtet oder an- und ausgeht, d. h. blinkt.
  • Im Folgenden werden unter Bezugnahme auf 4 grundlegende Elemente eines Steuersystems der Kamera 1 beschrieben. Das Steuersystem enthält den zum Ausgeben von grünem Licht bestimmten Lichtsender 11, eine CPU (Transformationsvorrichtung/Ermittlungsvorrichtung/Rechenvorrichtung/Steuervorrichtung) 21, eine Batterie 23, eine Blendensteuerschaltung 25, eine Filmtransportschaltung 27, eine Varioobjektiv-Treiberschaltung 29, eine Fokussier-Treiberschaltung 31, eine Verschluss-Treiberschaltung 33, eine Entfernungsmessschaltung 35 und eine Fotometrieschaltung (Fotometrievorrichtung) 37. Das Steuersystem enthält weiterhin eine Eingabeschaltung 41 für ein Filmtransportsignal, eine Eingabeschaltung 43 für einen Zoomcode, eine Eingabeschaltung 45 für einen DX-Code, den Fotometrieschalter SWS, den Auslöseschalter SWR, den Teleschalter SWT, den Weitwinkelschalter SWW und den Hauptschalter SWM. Ferner enthält das Steuersystem einen an die Filmtransportschaltung 27 angeschlossenen Filmtransportmotor 28, einen an die Varioobjektiv-Treiberschaltung 29 angeschlossenen Zoommotor 30, einen an die Fokussier-Treiberschaltung 31 angeschlossenen Fokussiermotor 32 und einen an die Verschluss-Treiberschaltung 33 angeschlossenen Verschlussmotor 34. Die CPU 21 enthält einen nicht gezeigten ROM, einen RAM (Speicher) 21a, einen A/D-Wandler 21b. In dem RAM 21a sind verschiedene Parameter zur Steuerung oder Berechnung temporär gespeichert, während in den ROM Programme für verschiedene Funktionen der Kamera 1 geschrieben sind. Die CPU 21 führt die umfassende Steuerung aller Kameraoperationen durch.
  • Der an den Hauptschalterknopf 10 angeschlossene Hauptschalter SWM, der Teleschalter SWT und der Weitwinkelschalter SWW, die beide an den Zoomknopf 9 angeschlossen sind, sowie der Fotometrieschalter SWS und der Auslöseschalter SWR, die beiden an die Auslösetaste 8 angeschlossen sind, sind elektrisch mit der CPU 21 verbunden.
  • Mit Einschalten des Hauptschalter SWM beginnt die CPU 21, Peripherieschaltungen, die mit Eingangs/Ausgangsanschlüssen der CPU 21 verbunden sind, mit Energie aus der Batterie 23 zu versorgen, um so die den oben genannten Schaltern zugeordneten Operationen durchzuführen.
  • Mit Einschalten des Teleschalter SWT beginnt die CPU 21, den Zoommotor 30 über die Varioobjektiv-Treiberschaltung 29 anzutreiben, um so das Varioobjektiv in Telerichtung zu bewegen. Entsprechend beginnt die CPU 21 mit Einschalten des Weitwinkelschalters SWW, den Zoommotor 30 über die Varioobjektiv-Treiberschaltung 29 so anzutreiben, dass das Varioobjektiv 2 in Weitwinkelrichtung bewegt wird. Die Brennweite des Varioobjektivs und dessen axiale Position werden von der Eingabeschaltung 43 erfasst, die zum Eingeben des Zoomcodes bestimmt ist. Mit Einschalten des Hauptschalters SWM steuert die CPU 21 den Zoommotor 30 so an, dass dieser vorwärts dreht, bis das Varioobjektiv 2 in seine Weitwinkel-Extremstellung vorgerückt ist. Mit Ausschalten des Hauptschalters SWM steuert die CPU 21 den Zoommotor 30 so an, dass dieser rückwärts dreht, bis das Varioobjektiv 2 in seine zurückgezogene Stellung bewegt ist, in der es vollständig in den Kamerakörper zurückgezogen ist.
  • Die CPU 21 berechnet über die Fotometrieschaltung 37 eine Objekthelligkeit, wenn die Auslösetaste 8 halb gedrückt und der Fotometrieschalter SWS eingeschaltet ist. Die Fotometrieschaltung 37 hat einen Fotometriesensor 37a, der durch das Fotometriefenster 6 von dem Objekt stammendes Licht empfängt. Die Fotometrieschaltung 37 gibt an die CPU 21 ein Fotometriesignal aus, das der Objekthelligkeit entspricht. Der Fotometriesensor 37a ist mit einem Mehrsegment-Fotometriesensor versehen, so dass die Kamera fotometrische Skalen- oder Lesewerte in segmentierten Bereichen des Aufnahmefeldes misst und vergleicht.
  • Die CPU 21 führt anschließend eine AE-Berechnung gemäß der berechneten Objekthelligkeit und der ISO-Filmempfindlichkeit, die über die für den DX-Code bestimmte Eingabeschaltung 45 zugeführt wird, durch, um so die optimale Verschlusszeit und den optimalen Blendenwert zu berechnen. Die Eingabeschaltung 45 liest den auf eine in den Kamerakörper 1 eingelegte, nicht dargestellte Filmpatrone gedruckten DX-Code, um die ISO-Filmempfindlichkeit, die Zahl der Belichtungen sowie andere Informationen über den eingelegten Film an die CPU 21 auszugeben.
  • Die CPU 21 führt einen vorbestimmten Bildprozess zum Verarbeiten eines von der Entfernungsmessschaltung 35 zugeführten analogen Pixelsignals aus. Anschließend nimmt sie für die jeweiligen Entfernungsmesszonen Entfernungsmessberechnungen gemäß dem verarbeiteten Pixelsignal vor. Ist der in der Entfernungsmessberechnung erhaltene Entfernungswert wirksam, so berechnet die CPU 21 den zum Antreiben einer nicht gezeigten Fokussierlinsengruppe des Varioobjektivs 2 bestimmten Antriebswert (LL-Daten) für den Fokussiermotor 32, mit dem letzterer über die Fokussier-Treiberschaltung 31 angetrieben wird. Zugleich schaltet die CPU 21 den zum Abgeben von grünem Licht bestimmten Lichtsender 11 ein. Ist der berechnete Entfernungsmesswert nicht wirksam, so lässt die CPU 21 den Lichtsender 11 blinken, um so die Bedienperson darüber zu informieren, dass die Entfernungsmessberechnung fehlgeschlagen ist.
  • Die Entfernungsmessschaltung 35 erfasst den Fokussierzustand des Objektbildes, das in jeder der Entfernungsmesszonen (Schärfenerfassungszonen) des Aufnahmefeldes erzeugt wird. Die Entfernungsmessschaltung 35 ist mit dem Entfernungsmesssensor (Lichtempfangsvorrichtung) 36 versehen, der das empfangene Objektlicht in ein elektrisches Pixelsignal, d. h. in elektrische Ladungen wandelt und das Pixelsignal ausgibt. 5 zeigt den schematischen Aufbau des Entfernungsmesssensors 36. Der Entfernungsmesssensor 36 befindet sich hinter dem Lichtempfangsfenster 4 und ist mit einem Paar Separatorlinsen 36a und einem Paar zugehöriger Liniensensoren 36b versehen (in 5 sind A und B der Liniensensoren gezeigt). Das durch jedes der Entfernungsmesszonen betrachtete Bild wird jeweils durch das Paar Separatorlinsen zweigeteilt und in Form von zwei voneinander getrennten Bildern auf dem zugehörigen Paar Liniensensoren 36b abgebildet. Jeder Liniensensor 36b ist mit einer Anordnung von Fotodioden (fotoelektrische Wandlerelemente) versehen, die in 5 nicht im Detail dargestellt sind. Jede Fotodiode des jeweiligen Liniensensors 36b empfängt die aufgespalteten Objektlichtbündel, wandelt das empfangene Licht in elektrische Ladung und sammelt, d. h. integriert die elektrische Ladung. Die elektrischen Ladungen, die man durch den an jeder Fotodiode des jeweiligen Liniensensors 36b vorgenommenen Integrationsprozess erhält, werden in eine auf jedes Pixel bezogene Spannung gewandelt und als auf jedes Pixel bezogenes Pixelsignal an die CPU 21 ausgegeben.
  • In dem erläuterten Ausführungsbeispiel ist der Liniensensor 36b so ausgebildet, dass er die Objektentfernung jeweils in drei Entfernungsmesszonen misst, nämlich einer der Mitte des nicht gezeigten Aufnahmesichtfeldes entsprechenden Entfernungsmesszone C, einer dem rechten Teil des Aufnahmesichtfeldes entsprechenden Entfernungsmesszone R und einer dem linken Teil des Aufnahmesichtfeldes entsprechenden Entfernungsmesszone L.
  • Wird die Auslösetaste 8 voll durchgedrückt und damit der Auslöseschalter SWR eingeschaltet, so steuert die CPU 21 die Blendensteuerschaltung 25 so an, dass die Blende des Varioobjektivs 2 entsprechen dem ermittelten Blendenwert abgeblendet wird. Zugleich betätigt die CPU 21 den Verschlussmotor 34, um den Verschluss über die Verschluss-Treiberschaltung 33 entsprechend der ermittelten Verschlusszeit auszulösen.
  • Mit Beenden einer Belichtung treibt die CPU 21 den Filmtransportmotor 28 über die Filmtransportschaltung 27 so an, dass dieser vorwärts dreht und so den Film um ein Bild weitertransportiert, während über die Eingabeschaltung 41 ein Filmtransportsignal zugeführt wird. Nachdem jedoch das letzte Bild des Films belichtet ist, treibt die CPU 21 den Filmtransportmotor 28 über die Filmtransportschaltung 27 so an, dass dieser rückwärts dreht und so den Film zurückspult.
  • Zusätzlich zu den oben genannten grundlegenden Elementen enthält die Kamera 1 verschiedene bekannte Vorrichtungen wie eine Lichtanzeige, die anzeigt, dass der Selbstauslöser in Betrieb ist, einen Blitzlichtsender, der unter Steuerung der CPU 21 Blitzlicht abgibt, und ein LCD-Feld, das verschiedene Aufnahmeinformationen anzeigt.
  • 6A zeigt an Hand eines Graphen beispielhaft den Zusammenhang eines Pixelsignals Vχ (Spannung: Va, Vb, Vc, Vd oder Ve), das von der entsprechenden auf dem jeweiligen Liniensensor 36b des Entfernungsmesssensors 36 vorgesehenen Fotodiode (a, b, c, d oder e; nicht gezeigt) ausgegeben wird, und der Zeit (t). In 6A bezeichnet Vref die Referenzspannung. Mit Verstreichen der Zeit nimmt die Spannung des Pixelsignals Vχ ausgehend von dem Referenzwert Vref um den Wert der von jeder Fotodiode integrierten Ladung ab. Die CPU 21 steuert jede Fotodiode des jeweiligen Liniensensors 36b so an, dass diese das Integrieren der Ladungen zu dem Zeitpunkt beendet, zu dem die Spannung des von jedem Liniensensor ausgegebenen Pixelsignals Vχ (Va, Vb, Vc, Vd oder Ve) Null Volt (0 V) erreicht oder eine vorbestimmte maximale Integrationszeit abläuft. Null Volt (0 V) sind dabei als Integrationsabschlusswert (Spannung) festgelegt. Nimmt die Objekthelligkeit zu, so wird die Zeit, welche die Spannung des Pixelsignals Vχ bis zum Erreichen des Integrationsabschlusswertes benötigt, kürzer. Wie sich aus 6A ergibt, ist die Steigung der die Spannung des Pixelsignals Vχ angebenden Linie proportional zur Objekthelligkeit. Je größer der Absolutwert der Steigung dieser Linie ist, desto höher ist die Helligkeit.
  • In 6A ist ein Pixelsignal Ve der höchsten Helligkeit als Referenzwert (0EV) festgelegt, während EV-Werte (0EV bis 4EV in 6A) als Werte festgelegt sind, die relativ zu dem Pixelsignal Ve so variieren, dass je größer das Pixelsignal Vχ, also je geringer die Objekthelligkeit ist, desto größer der EV-Wert ist.
  • Die Integrationsabschlusszeit des Pixelsignals Ve, dessen Integration in 6A als erste abgeschlossen ist, ist als Zeit t1 festgelegt, während digitale Pixeldaten an den Fotodioden a bis e, die jeweils durch Wandeln der Pixelsignale Va bis Ve in eine digitale 10-Bit-Form zur Zeit t1 im Bereich 0(V) bis Vref' erhalten werden, in 6B mit Va' bis Ve' bezeichnet sind. In 6B zeigt die vertikale Achse die digitalen Pixeldaten Vχ' (A/D-gewandelter Wert) und die horizontale Achse die Bezugszeichen, mit denen die jeweiligen Fotodioden des Liniensensors 36b bezeichnet sind. Je höher die Objekthelligkeit wird, desto geringer wird die im Graphen dargestellte Höhe.
  • ΔEV stellt den (gewandelten) Wert dar, den man erhält, indem die den Bilddaten Vχ' entsprechende Helligkeit von der dem Referenzwert Vref entsprechenden Helligkeit abgezogen wird. Unter der Voraussetzung, dass der Wert Vref' die A/D-gewandelte 10-Bit-Form der Referenzspannung Vref darstellt, erhält man den Differenzwert ΔEV durch die Formel ΔEV = log2 (Vref' – Vχ'). Die Differenz des Helligkeitswertes ΔEV ist im Bereich von 0(V) bis Vref' gleich Δ10EV.
  • Wie in den digitalen Pixeldaten (A/D-gewandelter Wert) nach 6B gezeigt, ist das Auflösungsvermögen eines Teils geringer Helligkeit kleiner als das eines Teils großer Helligkeit. In dem erläuterten Ausführungsbeispiel werden deshalb die in 6B gezeigten digitalen Pixeldaten einer logarithmischen 4EV-Transformation unterzogen, um die Entfernungsmessgenauigkeit zu verbessern. Dadurch erhält man 4EV-Transformationsdaten, die in 6C gezeigt sind. Unter ”logarithmischer 4EV-Transformation” versteht man eine an den Pixelsignalen vorgenommene vierstufige logarithmische Transformation innerhalb des Referenz-Objekthelligkeitsbereichs durch Festlegen des hellsten Pixelsignals Ve' in 6B als Referenz 0EV, so dass die Differenz der Objekthelligkeit ausgehend von der Referenz 0EV zwischen Δ0EV und Δ4EV liegt. In dem erläuterten Ausführungsbeispiel erhält man die Daten der logarithmischen 4EV-Transformation, indem die Pixeldaten an den Fotodioden a bis e jeweils in zugehörige 8-Bit-Daten (0 bis 255 Stufen) gewandelt werden, während das Auflösungsvermögen bei 1EV in 64 Stufen unterteilt ist.
  • Das Auflösungsvermögen des Abschnittes geringer Helligkeit ist im Wesentlichen gleich dem des Abschnittes großer Helligkeit, so dass mit einer auf diesen 4EV-Transformationsdaten beruhender Entfernungsberechnung in den meisten Fällen die korrekte Objektentfernung ermittelt wird. Selbst wenn man mit dieser Berechnung keine korrekte Objektentfernung erhält, ist es auch möglich, nach Änderung des Transformationsbereichs die logarithmische Transformation nochmals vorzunehmen und basierend auf den so erhaltenen 4EV-Transformationsdaten die Entfernungsberechnung zu wiederholen, bis man schließlich die korrekte Objektentfernung erhält. Ist jedoch der Objektkontrast gering, so kommt es häufig vor, dass die korrekte Objektentfernung überhaupt nicht ermittelt werden kann. In diesem Fall wird Zeit vergeudet, um mit wiederholten Berechnungen die Objektentfernung zu messen.
  • Angesichts dieses Problems wird in dem erläuterten Ausführungsbeispiel, wenn der Kontrast in der Entfernungsmesszone gering ist, der Objekthelligkeitsbereich geändert, in dem an den oben beschriebenen digitalen Pixeldaten die logarithmische Transformation vorgenommen wird. Genauer gesagt, wird in dem erläuterten Ausführungsbeispiel der Kontrastzustand jeder Entfernungsmesszone auf Grundlage der erhaltenen 4EV-Transformationsdaten ermittelt und, falls eine Entfernungsmesszone mit ausreichend hohem Kontrast vorhanden ist, die Entfernungsmessung auf Grundlage der zugehörigen 4EV-Transformationsdaten (erste Transformationsdaten) durchgeführt.
  • Ist dagegen in einer Entfernungsmesszone der Kontrast gering, so wird das digitale Bild einer logarithmischen 2EV-Transformation unterzogen, um in 7B oder 7D gezeigte 2EV-Transformationsdaten zu erhalten, wodurch man ein hohes Auflösungsvermögen in einem vorbestimmten, die mittlere relative Objekthelligkeit abdeckenden Objekthelligkeitsbereich der mit geringem Kontrast durchgeführten Entfernungsmessung zu erhalten. Die logarithmische 2EV-Transformation an den jeweiligen digitalen Pixeldaten wird vorgenommen, indem der vorbestimmte, die mittlere relative Objekthelligkeit enthaltende Objekthelligkeitsbereich in der Entfernungsmesszone als logarithmische Transformationszone bestimmt wird. Die Entfernungsberechnung wird dann auf Grundlage der so erhaltenen 2EV-Transformationsdaten (zweite Transformationsdaten) durchgeführt. Gemäß der logarithmischen 2EV-Transformation des erläuterten Ausführungsbeispiels erhält man die logarithmischen 2EV-Transformationsdaten, indem man die jeweiligen digitalen Pixeldaten in entsprechende 8-Bit-Daten (0 bis 255 Stufen) wandelt, wobei das Auflösungsvermögen bei 1EV in 128 Stufen unterteilt wird.
  • Um als vorbestimmter Objekthelligkeitsbereich zu dienen, wodurch die oben erläuterte logarithmische 2EV-Transformation durchgeführt werden kann, ist ein Bereich hoher Objekthelligkeit (zwischen Δ0EV und Δ2EV) vorgesehen, in dem der Differenzwert der Helligkeit ausgehend von dem Referenzwert 0EV (höchste Helligkeit) kleiner als Δ2EV ist, sowie ein Bereich geringer Objekthelligkeit (zwischen Δ2EV und Δ4EV), in dem der Differenzwert der Helligkeit ausgehend von dem Referenzwert 0EV gleich oder größer als Δ2EV ist.
  • Die oben genannte mittlere relative Objekthelligkeit bezeichnet den Mittelwert der jeweiligen Entfernungsmesszonen durch Wandeln der 4EV-Transformationsdaten in den Wert (gewandelter Wert), den man durch Subtrahieren dieser Daten von Δ4EV (geringste Objekthelligkeit) erhält. Die mittlere relative Objekthelligkeit kann unter Verwendung des je Entfernungsmesszone erhaltenen Mittels der von dem Entfernungsmesssensor 36 ausgegebenen Pixelsignale dargestellt werden.
  • 7A zeigt ein Beispiel der so erhaltenen 4EV-Transformationsdaten, in denen die Differenz der Objekthelligkeit ΔEV durch die senkrechte Achse und die Entfernungsmesszone durch die horizontale Achse dargestellt ist. Die CPU 21 erhält die Differenz zwischen dem Maximalwert und dem Minimalwert der 4EV-Transformationsdaten in den jeweiligen Entfernungsmesszonen. Ist beispielsweise diese Differenz gleich oder kleiner als 1EV, so wird der Kontrast als gering eingestuft Ob der Kontrast hoch oder gering ist, ist Gegenstand einer willkürlichen Festlegung und kann auf Grundlage der Summe der Absolutwerte der Differenz einander benachbarter digitaler Pixeldaten bestimmt werden.
  • Wie in 7C gezeigt, werden die 4EV-Transformationsdaten für die Entfernungsberechnung in der Entfernungsmesszone C genutzt, da in dieser Zone ein ausreichend hoher Kontrast der 4EV-Transformationsdaten erhalten werden kann.
  • Dagegen werden die jeweiligen 2EV-Transformationsdaten in den Entfernungsmesszonen L und R ermittelt, in denen der Kontrast als gering eingestuft worden ist. Da, wie in 7A gezeigt, die mittlere relative Objekthelligkeit in der Entfernungsmesszone L etwa 3,8EV beträgt, werden an allen digitalen Pixeldaten unter Verwendung des Transformationsbereichs hoher Objekthelligkeit zwischen Δ0EV und Δ2EV eine logarithmische 2EV-Transformation vorgenommen, wodurch man die in 7B gezeigten 2EV-Transformatiansdaten erhält.
  • Da die Entfernungsmesszone R ihre mittlere relative Objekthelligkeit bei etwa 1EV hat, wird die logarithmische 2EV-Transformation an digitalen Pixeldaten unter Verwendung des Transformationsbereichs geringer Objekthelligkeit zwischen Δ2EV und Δ4EV vorgenommen, wodurch man die in 7D gezeigten 2EV-Transformationsdaten erhält.
  • Wie oben erläutert, ist es für das erläuterte Ausführungsbeispiel kennzeichnend, dass die Objekthelligkeitszone, in der die logarithmische Transformation an digitalen Pixeldaten vorgenommen wird, entsprechend dem Kontrastzustand in der Entfernungsmesszone geändert wird.
  • Der Betrieb der Kamera 1 wird im Folgenden unter Bezugnahme auf die in den 8 bis 12 gezeigten Flussdiagramme erläutert. 8 ist ein Flussdiagramm, das den Aufnahmeprozess der Kamera 1 zeigt. Dieser Prozess wird mit Einschalten des Fotometrieschalter SWS ausgeführt.
  • In dem Aufnahmeprozess wird in S11 der Fotometrieprozess und in S13 der Entfernungsmessprozess durchgeführt. In dem Fotometrieprozess wird die Objekthelligkeit (Fotometriedaten) in der gesamten Bildebene und in jeder der jeweiligen Entfernungsmesszone überlagerten Fotometriezone bestimmt. In dem Entfernungsmessprozess erhält man den berechneten Entfernungswert für das Objekt für jede Entfernungsmesszone, wobei der Fokussiermotor 30, wenn ein geeigneter, den vorbestimmten Bedingungen genügender Entfernungswert erhalten wird, entsprechend diesem Entfernungswert angetrieben wird. Die so erhaltenen Fotometriedaten werden in dem Speicher 21a gespeichert.
  • Nach Ausführen des Entfernungsmessprozesses in S13 wird in Schritt S15 ermittelt, ob ein Messfehlermerker oder -flag gleich 1 ist. Ist das Messfehlerflag auf 1 gesetzt, d. h. kann in dem Entfernungsmessprozess kein geeigneter Entfernungswert berechnet werden, so fährt der Steuerablauf mit Schritt S19 fort, in dem der Lichtsender 11 so gesteuert wird, dass er zur Warnung der Bedienperson blinkt, d. h. abwechselnd ein- und ausgeschaltet wird. Ist das Messfehlerflag auf 0 gesetzt, so fährt der Steuerablauf mit Schritt S17 fort, in dem der zum Aussenden grünen Lichtes bestimmte Lichtsender 11 so angesteuert wird, dass er aufleuchtet. Anschließend wird in Schritt S21 ein AE-Berechnungsprozess durchgeführt. in der AE-Berechnung werden die optimale Verschlusszeit und der optimale Blendenwert in Abhängigkeit der Objekthelligkeit in der gesamten Bildebene, der ISO-Filmempfindlichkeit, die über die für den DX-Code bestimmte Eingabeschaltung 45 zugeführt wird, sowie anderer Faktoren berechnet.
  • Anschließend wird in Schritt S23 ermittelt, ob der Fotometrieschalter SWS eingeschaltet ist. Ist der Fotometrieschalter SWS nicht eingeschaltet, so wird der Lichtsender 11 in Schritt S24 ausgeschaltet, worauf der Steuerablauf endet. Ist dagegen der Fotometrieschalter SWS eingeschaltet, so wird in Schritt S25 ermittelt, ob der Auslöseschalter eingeschaltet ist. Ist dies nicht der Fall, so kehrt der Steuerablauf zu Schritt S23 zurück, um darauf zu warten, dass entweder der Fotometrieschalter SWS ausgeschaltet oder der Auslöseschalter SWR eingeschaltet wird. Mit Einschalten des Auslöseschalters SWR wird der Lichtsender 11 in Schritt S27 ausgeschaltet. Anschließend wird in Schritt S29 ein Belichtungssteuerprozess durchgeführt, in dem die Blendensteuerschaltung 25 so gesteuert wird, dass die Blende des Varioobjektivs 2 entsprechend dem berechneten Belichtungswert abgeblendet wird.
  • Daraufhin wird in Schritt S31 der Filmtransportmotor 28 über die Filmtransportschaltung 27 so angesteuert, dass er in Vorwärtsrichtung dreht und so den Film um ein Bild weitertransportiert. Nach Belichtung des letzten Filmbildes wird jedoch der Filmtransportmotor 28 über die Filmtransportschaltung 27 so angesteuert, dass er in Rückwärtsrichtung dreht und so den Film zurückspult. Daraufhin endet der Steuerablauf.
  • Im Folgenden wird unter Bezugnahme auf 9A der in 9A in Schritt S13 gezeigte Entfernungsmessprozess beschrieben.
  • In diesem Prozess beginnt der Entfernungsmesssensor in Schritt S101 mit der Integration. Erreicht eines der Pixelsignale des Entfernungsmesssensors 36 einen Integrationsabschlusswert, so ist die Integration des Entfernungsmesssensors 36 vollendet, und es wird das Pixelsignal zugeführt, um eine A/D-Eingabe und die logarithmische 4EV-Transformation durchzuführen (Schritt S103). Die Prozesse der A/D-Eingabe und der logarithmischen 4EV-Transformation dienen dazu, die digitalen Pixeldaten durch eine 10-Bit-A/D-Wandlung des von dem Entfernungsmesssensor 36 ausgegebenen Pixelsignals zu ermitteln. Die vorstehend genannten Prozesse dienen weiterhin dazu, die 4EV-Transformationsdaten durch die logarithmische 4EV-Transformation der digitalen Pixeldaten zu ermitteln.
  • Daraufhin wird in Schritt S105 eine Variable j, die dazu dient, die Entfernungsmesszone zu identifizieren, auf 0 gesetzt. In Schritt S107 werden die 4EV-Transformationsdaten in der Entfernungsmesszone [j] in die Daten gewandelt, die man durch Subtrahieren der 4EV-Transformationsdaten von Δ4EV (geringste Objekthelligkeit) erhält, die erhaltenen Werte (gewandelten Werte) gemittelt und schließlich der Mittelwert in dem RAM 21a als mittlere relative Objekthelligkeit af_ave[j] gespeichert. Die Variable j wird in Schritt S109 um 1 erhöht. In Schritt S111 wird ermittelt, ob die Variable j die Gesamtzahl der Entfernungsmesszonen erreicht hat oder nicht. Wird in Schritt S111 festgestellt, dass die Variable j kleiner als die Gesamtzahl der Entfernungsmesszonen ist, so kehrt der Steuerablauf zu Schritt S107 zurück. Die Schritte S107 bis S111 werden so lange wiederholt, bis die Variable j die Gesamtzahl der Entfernungsmesszonen erreicht, wobei man in jeder Entfernungsmesszone die mittlere relative Objekthelligkeit af_ave[j] erhält.
  • Wird in Schritt S111 festgestellt, dass die Variable j die Gesamtzahl der Entfernungsmesszonen erreicht hat, so wird j in Schritt S113 auf 0 gesetzt und in Schritt S115 die Entfernungsmessung auf Grundlage der 4EV-Transformationsdaten durchgeführt.
  • Anschließend wird in Schritt S117 ermittelt, ob der Kontrast der Entfernungsmesszone [j] gering ist oder nicht. Ist in dem erläuterten Ausführungsbeispiel die Differenz zwischen dem Maximalwert und dem Minimalwert der 4EV-Transformationsdaten gleich oder kleiner als ein vorbestimmter Wert, so wird der Kontrast als gering eingestuft. Wird in Schritt S117 festgestellt, dass der Kontrast der Entfernungsmesszone [j] nicht gering ist, so fährt der Steuerablauf mit Schritt S137 fort.
  • Wird der Kontrast der Entfernungsmesszone [j] in Schritt S117 als gering eingestuft, so wird in Schritt S119 eine Startadresse s_adr[j] einer Anordnung fotoelektrischer Wandlerelemente (Liniensensoren 36b), mit denen die Entfernung in der zugehörigen Entfernungsmesszone [j] gemessen wird, auf eine Variable [a] und in Schritt S121 eine Variable i auf 0 gesetzt. Dann wird in Schritt S123 festgestellt, ob ein Wert AF_AD[a + i], den man durch eine 10-Bit-A/D-Wandlung desjenigen Pixelsignals erhält, das das an der Stelle [a + i] angeordnete fotoelektrische Wandlerelement ausgibt, kleiner ist als der A/D-gewandelte Wert der Referenzspannung Vref.
  • Wird in Schritt S123 festgestellt, dass der Wert AF_AD[a + i] kleiner als der Referenzspannungswert Vref ist, so wird in Schritt S125 der Wert, den man durch Subtrahieren des Wertes AF_AD[a + i] von dem A/D-gewandelten Wert des Referenzspannungssignals Vref erhält, in dem RAM 21a als WDATA-Wert gespeichert. Wird in Schritt S123 festgestellt, dass der Wert AF_AD[a + i] gleich oder größer als der Referenzspannungswert Vref ist, so wird in Schritt S127 der Wert 0 in dem RAM 21a als WDATA-Wert gespeichert. In dem erläuterten Ausführungsbeispiel erfolgt die 10-Bit-A/D-Wandlung des Pixelsignals, in dem der Wert 0 der Spannung 0 Volt und der Wert 1023 der Referenzspannung Vref zugeordnet wird. Mit steigender Objektheiligkeit des entsprechenden Abschnittes wird so der Wert AF_AD[a + i] kleiner und der WDATA-Wert größer.
  • Anschließend wird in Schritt S129 die logarithmische 2EV-Transformation durchgeführt. Dann wird in Schritt S131 die Variable i um 1 erhöht und in Schritt S133 ermittelt, ob die Variable i die Gesamtzahl der die Objektentfernung in der Entfernungsmesszone [j] messenden fotoelektrischen Wandlerelemente erreicht hat oder nicht. Wird in Schritt S133 festgestellt, dass die Variable i kleiner als die Gesamtzahl der vorstehend genannten Wandlerelemente ist, so kehrt der Steuerablauf zu Schritt S123 zurück. Wird dagegen in Schritt S133 festgestellt, dass die Variable i die Gesamtzahl der die Objektentfernung in der Entfernungsmesszone [j] messenden Wandlerelemente erreicht hat, so wird in Schritt S135 die Entfernungsberechnung auf Grundlage der erhaltenen 2EV-Transformationsdaten durchgeführt.
  • Anschließend wird in Schritt S137 die Variable j um 1 erhöht und in Schritt S139 ermittelt, ob j die Gesamtzahl der Entfernungsmesszonen erreicht hat. Wird in Schritt S139 festgestellt, dass die Variable j kleiner als die Gesamtzahl der Entfernungsmesszone ist, so kehrt der Steuerablauf zu Schritt S115 zurück. Die Prozesse ab Schritt S115 bis Schritt S139 werden so lange wiederholt, bis die Variable j die Gesamtzahl der Entfernungsmesszone erreicht hat, wobei man in jeder Entfernungsmesszone den berechneten Entfernungswert erhält.
  • Wird in Schritt S139 festgestellt, dass die Variable j die Gesamtzahl der Entfernungsmesszonen erreicht hat, so wird in Schritt S141 ermittelt, ob sämtliche in der Entfernungsberechnung erhaltenen Entfernungswerte effektiv, d. h. wirksam sind. in dem erläuterten Ausführungsbeispiel wird der berechnete Wert als wirksam eingestuft, wenn seine Zuverlässigkeit über einen vorbestimmten Wert liegt. Erhält man in Schritt S141 keinen wirksamen Wert, so wird ein Messfehlermerker oder -flag auf 1 gesetzt, und der Steuerablauf springt zurück (S143). Erhält man in Schritt S141 einen wirksamen Entfernungswert, so wird in Schritt S145 das Messfehlerflag auf 0 gesetzt und in Schritt S147 ein berechneter Entfernungswert ausgewählt, der den vorbestimmten Bedingungen genügt. In der Folge werden in Schritt S151 die LL-Daten auf Grundlage des ausgewählten Entfernungswertes berechnet und der auf den Objektivantrieb bezogene Prozess gemäß den erhaltenen LL-Daten durchgeführt. Dann springt der Steuerablauf zurück.
  • Im Folgenden wird unter Bezugnahme auf die 10 sowie die 6A, 6B und 6C der Prozess der A/D-Eingabe und der logarithmischen 4EV-Transformation erläutert, der in Schritt S103 durchgeführt wird.
  • In dem genannten Prozess wird in Schritt S201 die Variable i auf 0 gesetzt. Dann wird in Schritt S203 der A/D-Wandler 21b betätigt, um durch eine 10-Bit-A/D-Wandlung des von der Entfernungsmessschaltung 35 ausgegebenen ersten Pixelsignals digitale Pixeldaten zu erhalten. Wie in den 6A und 6B gezeigt, werden mit abnehmender Objekthelligkeit der Wert des Pixelsignals sowie der Wert der digitalen Pixeldaten größer. Wird in Schritt S205 festgestellt, dass die A/D-Wandlung des Pixelsignals vollendet ist, so werden in Schritt S207 die erhaltenen digitalen Pixelsignale als Wert AF_AD[i] in dem RAM 21a gespeichert, wobei in Schritt S209 ermittelt wird, ob der gespeicherte Wert AF_AD[i] kleiner als der A/D-gewandelte Wert der Referenzspannung Vref ist.
  • Wird in Schritt S209 festgestellt, dass der Wert AF_AD[i] kleiner als der A/D-gewandelte Wert der Referenzspannung Vref ist, wo wird der Wert, den man durch Subtrahieren des Wertes AF_AD[i] von dem A/D-gewandelten Wert der Referenzspannung Vref erhält, in Schritt S211 in dem RAM 21a als WDATA-Wert gespeichert. Wird in Schritt S209 festgestellt, dass der Wert AF_AD[i] gleich oder größer als der Referenzspannungswert Vref ist, so wird in Schritt S213 der Wert 0 in dem RAM 21a als WDATA-Wert gespeichert. Wie in 6B gezeigt, wird der Wert AF_AD[i] mit abnehmender Objekthelligkeit des zugehörigen Abschnittes größer, so dass der WDATA-Wert mit abnehmender Objekthelligkeit des zugeordneten Abschnittes kleiner wird.
  • Anschließend wird in Schritt 8215 nochmals der A/D-Wandler 21b betätigt, um mit der A/D-Wandlung des nachfolgenden Pixelsignals zu beginnen, und in Schritt S217 die logarithmische 4EV-Transformation durchgeführt, um ein i-tes 4EV-Transformationsdatum durch 4EV-Wandlung des i-ten WDATA-Wertes zu erhalten. Dann wird in Schritt S219 die Variable i um 1 erhöht, und der Steuerablauf wartet in Schritt S221, bis festgestellt wird, dass die in Schritt S215 gestartete A/D-Wandlung vollendet ist.
  • Wird in Schritt S221 festgestellt, dass die A/D-Wandlung vollendet ist, so wird in Schritt S223 ermittelt, ob die Variable i die Gesamtzahl der fotoelektrischen Wandlerelemente Liniensensoren 36b erreicht hat.
  • Wird in Schritt S223 festgestellt, dass die Variable i kleiner als die Gesamtzahl der fotoelektrischen Wandlerelemente des Liniensensors 36b ist, so wird der Wert AF_AD[i] in Schritt S225 mit den in Schritt S221 erhaltenen digitalen Pixeldaten überschrieben, und es werden die neuen Daten in dem RAM 21a gespeichert. Anschließend wird in Schritt S227 ermittelt, ob der überschriebene Wert AF_AD[i] kleiner als der A/D-gewandelte Wert der Referenzspannung Vref ist. Stellt man in Schritt S227 fest, dass der überschriebene Wert AF_AD[i] kleiner als der A/D-gewandelte Wert der Referenzspannung Vref ist, so wird in Schritt S229 der Wert, den man durch Subtrahieren des Wertes AF_AD[i] von dem A/D-gewandelten Wert der Referenzspannung Vref erhält, als WDATA-Wert in dem RAM 21a gespeichert. Wird in Schritt S227 festgestellt, dass der überschriebene Wert AF_AD[i] gleich oder größer als der Referenzspannungswert Vref ist, so wird in Schritt S231 der Wert 0 in dem RAM 21a als WDATA-Wert gespeichert, und der Steuerablauf springt zu Schritt S215 zurück.
  • Wird dagegen in Schritt S223 festgestellt, dass die Variable i die Gesamtzahl der fotoelektrischen Wandlerelemente der Liniensensoren 36b erreicht hat, so springt der Steuerablauf zurück.
  • Im Folgenden wird unter Bezugnahme auf das Flussdiagramm nach 11 sowie auf 6C die logarithmische 4EV-Transformation erläutert, die in Schritt S217 des in 10 gezeigten Prozesses durchgeführt wird.
  • Dieser Prozess stellt einen Transformationsprozess dar, der dazu dient, 8-Bit-4EV-Transformationsdaten aus den digitalen Pixeldaten innerhalb des Referenz-Objekthelligkeitsbereichs zu erhalten, in dem der Differenzwert ausgehend von der Referenz 0EV (maximale Objekthelligkeit) zwischen Δ0EV und Δ4EV liegt.
  • Wird in Schritt S301 festgestellt, dass der Wert WDATA gleich oder größer als 512 ist, so wird in Schritt S303 ein Wert WDATA' nach der Formel 192 + (WDATA – 512)/8 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren dieses Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ0EV und Δ1EV wird so gleich 64 Schritte.
  • Wird in Schritt S301 ermittelt, dass der Wert WDATA kleiner als 512 ist, so fährt der Steuerablauf mit Schritt S305 fort. Wird in Schritt S305 festgestellt, dass der Wert WDATA gleich oder größer als 256 ist, so wird in Schritt S307 der Wert WDATA' nach der Formel 128 + (WDATA – 256)/4 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem Speicher 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ1EV und Δ2EV nimmt so 64 Schritte an.
  • Wird in Schritt S305 festgestellt, dass der Wert WDATA kleiner als 256 ist, so fährt der Steuerablauf mit Schritt S309 fort. Wird anschließend in Schritt S309 festgestellt, dass der Wert WDATA gleich oder größer als 128 ist, so wird in Schritt S311 der Wert WDATA' nach der Formel 64 + (WDATA – 128)/2 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ2EV und Δ3EV nimmt so 64 Schritte an.
  • Wird in Schritt S309 festgestellt, dass der Wert WDATA kleiner als 128 ist, so fährt der Steuerablauf mit Schritt S313 fort. Wird anschließend in Schritt S313 festgestellt, dass der Werte WDATA gleich oder größer als 64 ist, so wird in Schritt S315 der Wert WDATA' nach der Formel WDATA – 64 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ3EV und Δ4EV nimmt so 64 Schritte an.
  • Wird in Schritt S313 festgestellt, dass der Wert WDATA kleiner als 64 ist, so wird in Schritt S317 der Wert O in dem Speicher 21a als Wert WDATA' gespeichert und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Die 4EV-Transformationsdaten in dem Bereich geringer Objekthelligkeit, in dem die Differenz der Objekthelligkeit ausgehend von der Referenz 0EV gleich oder größer als Δ4EV ist, sind so stets gleich 255.
  • Gemäß der vorstehend erläuterten logarithmischen 4EV-Transformation können die 4EV-Transformationsdaten bereitgestellt werden, in denen das Auflösungsvermögen zwischen Δ0EV und Δ4EV im Wesentlichen gleichwertig ist.
  • Im Folgenden wird unter Bezugnahme auf das in 12 gezeigte Flussdiagramm sowie auf die 7A, 7B und 7D die logarithmische 2EV-Transformation beschrieben, die in Schritt S129 des in den 9A und 9B gezeigten Entfernungsmessprozesses durchgeführt wird.
  • Die logarithmische 2EV-Transformation wird für die Entfernungsmesszone durchgeführt, für die in Schritt S117 ein geringer Kontrast festgestellt worden ist. Diese logarithmische 2EV-Transformation dient dazu, die 2EV-Transformationsdaten zu ermitteln, in denen man in einem vorbestimmten, die mittlere relative Objekthelligkeit enthaltenden Objekthelligkeitsbereich in der Entfernungsmesszone das gewünscht hohe Auflösungsvermögen erhält.
  • Dieser Prozess beginnt damit, dass in Schritt S401 ermittelt wird, ob ein die mittlere relative Objekthelligkeit darstellender Wert af_ave[j] kleiner als ein vorbestimmter Wert von 2EV ist oder nicht, um so festzustellen, ob die mittlere relative Objekthelligkeit af_ave[j] in einem Bereich hoher Helligkeit oder in einem Bereich geringer Helligkeit enthalten ist. Der Bereich hoher Objekthelligkeit entspricht dem in den 6A, 6B und 6C gezeigten Bereich der Werte für WDATA, der gleich oder größer als 256 und kleiner als 1023 ist, d. h. gemäß den 7A und 7B zwischen Δ0EV und Δ2EV liegt. Der Bereich geringer Objekthelligkeit entspricht dem Wert der Werte für WDATA, der gleich oder größer als 64 und kleiner als 256 ist, d. h. gemäß den 7A und 7D zwischen Δ2EV und Δ4EV liegt.
  • Wird in Schritt S401 festgestellt, dass die mittlere relative Objekthelligkeit af_ave[j] kleiner als der Wert 2EV ist, fährt der Steuerablauf mit Schritt S403 fort, um den Prozess ausgehend von Schritt S403 bis Schritt S417 auszuführen. Da dies der Fall geringer Objekthelligkeit und geringen Kontrastes ist, wird die logarithmische 2EV-Transformation durchgeführt, so dass man in dem Bereich geringer Objekthelligkeit ein hohes Auflösungsvermögen erhält.
  • Wird in Schritt S403 festgestellt, dass der Wert WDATA gleich oder größer als 256 ist, so wird in Schritt S405 der Wert 255 in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird in Schritt S417 ein Wert 0, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Die 2EV-Transformationsdaten in dem Bereich hoher Objekthelligkeit zwischen Δ0 und Δ2EV werden so stets in den Wert 0 gewandelt.
  • Wird in Schritt S403 festgestellt, dass der Wert WDATA kleiner als 256 ist, so fährt der Steuerablauf mit Schritt S407 fort. Wird in Schritt S407 festgestellt, dass der Wert WDATA gleich oder größer als 128 ist, so wird anschließend in Schritt S409 der Wert WDATA in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird in Schritt S417 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ2EV und Δ3EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV-Transformationsdaten.
  • Wird in Schritt S407 festgestellt, dass der Wert WDATA kleiner als der Wert 128 ist, so fährt der Steuerablauf mit Schritt S411 fort. Wird in Schritt S411 festgestellt, dass der Wert WDATA gleich oder größer als 64 ist, so wird in Schritt S413 der Wert, den man nach der Formel 2 × (WDATA – 64) erhält, in dem Speicher 21a als Wert WDATA gespeichert. Dann wird in Schritt S417 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ3EV und Δ4EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV-Transformationsdaten.
  • Wird in Schritt S411 festgestellt, dass der Wert WDATA kleiner als 64 ist, so wird in Schritt S415 der Wert 0 in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird in Schritt S417 ein Wert, den man durch Subtrahieren des Wertes WDATA' (0) von dem Wert 255 erhält und der damit gleich 255 ist, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Die 2EV-Transformationsdaten in dem Bereich, in dem die Differenz der Objekthelligkeit ausgehend von dem Referenzwert 0EV größer als Δ4EV ist, werden so stets in den Wert 0 gewandelt.
  • Durch den eben erläuterten Prozess der logarithmischen 2EV-Transformation erhält man in dem die mittlere relative Objekthelligkeit af_ave[j] enthaltenden Bereich geringer Objekthelligkeit das gewünscht hohe Auflösungsvermögen. Es ist deshalb möglich, selbst dann 2EV-Transformationsdaten mit numerisch hohem Kontrast gemäß 7D zu erhalten, wenn die Entfernungsmesszone R sowohl geringe Objekthelligkeit als auch geringen Kontrast hat (vgl. 7A).
  • Wird in Schritt S401 festgestellt, dass die mittlere relative Objekthelligkeit af_ave[j] gleich oder größer als der Wert 2EV ist, so fährt der Steuerablauf mit Schritt S419 fort, um den Prozess ausgehend von Schritt S419 bis zu Schritt S429 durchzuführen. Da dies der Fall hoher Objekthelligkeit und geringen Kontrastes ist, wird die logarithmische 2EV-Transformation durchgeführt, so dass man das hohe Auflösungsvermögen in dem Bereich hoher Objekthelligkeit erhält.
  • Wird in Schritt S419 festgestellt, dass der Wert WDATA gleich oder größer als 512 ist, so wird in Schritt S421 ein Wert, den man nach der Formel 128 + (WDATA – 512)/4 erhält, in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in Schritt S429 in dem RAM 21a als Wert AF_2EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ0EV und Δ1EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV-Transformationsdaten.
  • Wird in Schritt S419 festgestellt, dass der Wert WDATA kleiner als 512 ist, so fährt der Steuerablauf mit Schritt S423 fort. Wird in Schritt S423 festgestellt, dass der Wert WDATA gleich oder größer als 256 ist, so wird anschließend in Schritt S425 ein Wert, den man nach der Formel (WDATA – 256)/2 erhält, in dem RAM 21a als Wert WDATA gespeichert. Anschließend wird in Schritt S429 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ1EV und Δ2EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV-Transformationsdaten.
  • Wird in Schritt S423 festgestellt, dass der Wert WDATA kleiner als 256 ist, so wird in Schritt S427 der Wert 0 in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird in Schritt S429 ein Wert, den man durch Subtrahieren des Wertes WDATA' (0) von dem Wert 255 erhält und der demnach 255 beträgt, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Die 2EV-Transformationsdaten in dem Bereich geringer Objekthelligkeit, dessen Differenz der Objekthelligkeit ausgehend von dem Referenzwert 0EV größer als 2EV ist, werden so stets in den Wert 0 gewandelt.
  • Durch den eben erläuterten Prozess der logarithmischen 2EV-Transformation erhält man das hohe Auflösungsvermögen in dem die mittlere relative Objekthelligkeit af_ave[j] enthaltenden Bereich hoher Objekthelligkeit. Es ist so möglich, 2EV-Transformationsdaten mit numerisch hohem Kontrast gemäß 7B zu erhalten, selbst wenn die Entfernungsmesszone L hohe Objekthelligkeit und geringen Kontrast hat (vgl. 7A).
  • Wie oben erläutert, wird der Objekthelligkeitsbereich, in dem die logarithmische Transformation an den digitalen Pixeldaten vorgenommen wird, entsprechend dem Kontrastzustand der Entfernungsmesszone geändert. Ist der Kontrast der Entfernungsmesszone gering, so wird in dem vorbestimmten, die mittlere relative Objekthelligkeit enthaltenden Objekthelligkeitsbereich die logarithmische 2EV-Transformation durchgeführt, wodurch es möglich ist, 2EV-Transformationsdaten mit numerisch hohem Kontrast zu erhalten. Da die Entfernungsberechnung auf Grundlage dieser 2EV-Transformationsdaten durchgeführt wird, kann man einen genau berechneten Entfernungswert selbst bei einem Objekt mit geringem Kontrast halten, und zwar ungeachtet dessen, ob das Objekt geringe oder hohe Helligkeit hat. Es ist also nicht länger erforderlich, die Entfernungsmessung unter Verwendung verschiedener Transformationsdaten mit unterschiedlichen logarithmischen Transformationsbereichen zu wiederholen, wodurch die Entfernungsberechnung beschleunigt werden kann.
  • In dem erläuterten Ausführungsbeispiel erhält man die mittlere relative Objekthelligkeit für jede Entfernungsmesszone vor der Feststellung, ob der Kontrast gering ist oder nicht. Es ist jedoch ebenso möglich, die mittlere relative Objekthelligkeit nur für diejenige Entfernungsmesszone zu ermitteln, deren Kontrast als gering eingestuft worden ist.
  • In dem erläuterten Ausführungsbeispiel erhält man ein höheres Auflösungsvermögen, da eine Änderung des logarithmischen Transformationsbereichs auf die logarithmische 2EV-Transformation, die schmäler als die logarithmische 4EV-Transformation ist, zusätzlich zur Änderung der Objekthelligkeitszone digitaler Pixeldaten möglich ist, an denen die logarithmische Transformation vorgenommen wird.
  • Natürlich ist es auch möglich, den logarithmischen Transformationsbereich unverändert zu lassen.
  • Das erläuterte Ausführungsbeispiel findet in einer passiven Entfernungsmesseinrichtung Anwendung, die in einer AF-Objektivverschlusskamera vorgesehen ist. Das erläuterte Ausführungsbeispiel kann jedoch z. B. auch auf eine passive Entfernungsmesseinrichtung angewendet werden, die in einer SLR-AF-Kamera vorgesehen ist.
  • Die Erfindung ermöglicht es, Transformationsdaten zu erhalten, die selbst dann numerisch hohen Kontrast haben, wenn in der Entfernungsmesszone der Kontrast gering und die Objekthelligkeit entweder gering oder hoch ist. Ferner ist es möglich, den Entfernungswert mit ausgezeichneter Genauigkeit zu berechnen. Dies führt zu einer Steigerung der Genauigkeit der Entfernungsmessung sowie zu deren Beschleunigung.

Claims (2)

  1. Entfernungsmesseinrichtung für eine Kamera (1) mit mehreren Entfernungsmesszonen (L, C, R), mit einer Lichtempfangsvorrichtung (36) mit mehreren Lichtsensoren, die jeweils Licht von einem Objekt in jeder der Entfernungsmesszonen (L, C, R) empfangen und ein der empfangenen Lichtmenge entsprechendes analoges Pixelsignal ausgeben, einem Analog/Digital-Wandler (21b), der die analogen Pixelsignale jeweils in digitale Pixeldaten wandelt, einer Transformationsvorrichtung (21), die an den digitalen Pixeldaten in einem vorbestimmten ersten logarithmischen Transformationsbereich, der einem vorbestimmten ersten Objekthelligkeitsbereich entspricht, eine logarithmische Transformation vornimmt und so erste Transformationsdaten erzeugt, einer Ermittlungsvorrichtung (21), die den Kontrastzustand jeder Entfernungsmesszone (L, C, R) auf Grundlage der auf die jeweilige Entfernungsmesszone (L, C, R) bezogenen ersten Transformationsdaten ermittelt, einer Rechenvorrichtung (21), die auf Grundlage der ersten Transformationsdaten eine mittlere relative Objekthelligkeit in jeder Entfernungsmesszone (L, C, R) berechnet, wobei die Rechenvorrichtung (21) die ersten Transformationsdaten von einem vorbestimmten Referenzwert subtrahiert und so einen gewandelten Wert ermittelt, um die mittlere relative Objekthelligkeit jeder Entfernungsmesszone (L, C, R) zu erhalten, indem der gewandelte Wert für die jeweilige Entfernungsmesszone (L, C, R) gemittelt wird, und wobei die Ermittlungsvorrichtung (21) die Differenz zwischen dem Maximalwert und dem Minimalwert der ersten Transformationsdaten in jeder Entfernungsmesszone (L, C, R) ermittelt und feststellt, dass der Kontrast der Entfernungsmesszonen (L, C, R) dann gering ist, wenn die genannte Differenz gleich oder kleiner als ein vorbestimmter Wert ist, und einer Steuervorrichtung (21), die zweite Transformationsdaten erzeugt, indem sie über die Transformationsvorrichtung (21) an den digitalen Pixeldaten in den Entfernungsmesszonen (L, C, R), die von der Ermittlungsvorrichtung (21) als Zone mit geringem Kontrast eingestuft worden sind, in einem zweiten logarithmischem Transformationsbereich, der schmäler als der vorbestimmte erste logarithmische Transformationsbereich ist, nochmals eine logarithmische Transformation vornimmt, wobei als zweiter logarithmischer Transformationsbereich ein vorbestimmter zweiter Objekthelligkeitsbereich, der die mittlere relative Objekthelligkeit dieser Entfernungsmesszone (L, C, R) enthält, verwendet wird, um ein höheres Auflösungsvermögen für die zweiten Transformationsdaten zu erhalten, wobei die Rechenvorrichtung (21) jeweils auf Grundlage der ersten Transformationsdaten in den Entfernungsmesszonen (L, C, R), deren Kontrast von der Ermittlungsvorrichtung (21) nicht als gering eingestuft worden ist, jeweils einen Entfernungswert berechnet und jeweils auf Grundlage der zweiten Transformationsdaten in den Entfernungsmesszonen (L, C, R), deren Kontrast von der Ermittlungsvorrichtung (21) als gering eingestuft worden ist, jeweils einen Entfernungswert berechnet.
  2. Entfernungsmesseinrichtung nach Anspruch 1, gekennzeichnet durch mindestens einen Speicher (21a) zum Speichern der digitalen Pixeldaten, der ersten Transformationsdaten und der zweiten Transformationsdaten.
DE10140343A 2000-08-17 2001-08-17 Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation Expired - Fee Related DE10140343B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-247764 2000-08-17
JP2000247764A JP3645800B2 (ja) 2000-08-17 2000-08-17 測距装置

Publications (2)

Publication Number Publication Date
DE10140343A1 DE10140343A1 (de) 2002-02-28
DE10140343B4 true DE10140343B4 (de) 2013-12-05

Family

ID=18737792

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10140343A Expired - Fee Related DE10140343B4 (de) 2000-08-17 2001-08-17 Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation

Country Status (3)

Country Link
US (1) US6597867B2 (de)
JP (1) JP3645800B2 (de)
DE (1) DE10140343B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434231B2 (ja) * 2009-04-24 2014-03-05 ソニー株式会社 画像情報処理装置、撮像装置、画像情報処理方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1437161A (de) * 1973-02-12 1976-05-26
US4047187A (en) * 1974-04-01 1977-09-06 Canon Kabushiki Kaisha System for exposure measurement and/or focus detection by means of image senser
US4584704A (en) * 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
US5329111A (en) * 1991-06-27 1994-07-12 Omron Corporation Image reader with adjustable contrast range
JPH08304696A (ja) * 1995-04-28 1996-11-22 Fuji Photo Optical Co Ltd 自動焦点調節装置
JP2000081561A (ja) * 1998-09-03 2000-03-21 Asahi Optical Co Ltd 焦点検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027148A (en) * 1990-08-13 1991-06-25 Eastman Kodak Company Autofocus chip with reference level determination circuit
JP3026030B2 (ja) * 1991-07-13 2000-03-27 株式会社リコー カメラの測距装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1437161A (de) * 1973-02-12 1976-05-26
US4047187A (en) * 1974-04-01 1977-09-06 Canon Kabushiki Kaisha System for exposure measurement and/or focus detection by means of image senser
US4584704A (en) * 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
US5329111A (en) * 1991-06-27 1994-07-12 Omron Corporation Image reader with adjustable contrast range
JPH08304696A (ja) * 1995-04-28 1996-11-22 Fuji Photo Optical Co Ltd 自動焦点調節装置
JP2000081561A (ja) * 1998-09-03 2000-03-21 Asahi Optical Co Ltd 焦点検出装置

Also Published As

Publication number Publication date
US20020021896A1 (en) 2002-02-21
JP3645800B2 (ja) 2005-05-11
DE10140343A1 (de) 2002-02-28
JP2002062468A (ja) 2002-02-28
US6597867B2 (en) 2003-07-22

Similar Documents

Publication Publication Date Title
DE102004017536B4 (de) System zur automatischen Schärfeneinstellung
DE3732062C2 (de)
DE3637742C2 (de)
DE69117688T2 (de) Auf kontrast basierender autofokusmechanismus
DE2651002A1 (de) Kamerasystem
DE69838114T2 (de) Optische Vorrichtung mit einem Fokusjustiergerät und Fokussierungssteuerschaltung
DE10150171A1 (de) Autofokuseinrichtung und diese verwendendes elektronisches Bildaufnahmegerät
DE4340729A1 (de) Kompaktkamera mit automatischen, brennweitenabhängigen Belichtungseinstellungen
DE2810501A1 (de) Optoelektronische fuehleinrichtung
DE3922672C2 (de) Verfahren zum Ermitteln eines von der Objekthelligkeit abhängigen Belichtungssteuerwertes für die Belichtungssteuerung einer Kamera
DE3433697C2 (de)
DE10132624A1 (de) Mehrpunkt-Autofokussystem
DE3800530C2 (de)
DE3938650C2 (de)
DE2203506B2 (de) Schaltungsanordnung zur Lichtmessung für eine Einrichtung zur automatischen Belichtungszeitsteuerung in einäugigen Spiegelreflexkameras
DE19549050A1 (de) Blitzlichtsteuerung
DE2854592C2 (de) Einrichtung zur Ermittlung der Fokussierungseinstellung einer Kamera
DE3214063A1 (de) Kamera mit einer fotoelektrischen scharfeinstellungs-ermittlungseinrichtung
DE10140343B4 (de) Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation
DE102005029231A1 (de) Kamera mit einer Funktion zur Überlagerung einer Anzeigemarkierung
DE3122027C2 (de) Autofokussiereinrichtung für Objektive
DE3934767C2 (de) Autofokus-Verfahren zur Scharfeinstellung eines Kameraobjektivs und Kamera mit einer Autofokus-Einrichtung
DE19946448A1 (de) Entfernungsmeßeinrichtung
DE3918797C2 (de) Einrichtung für eine fotografische Kamera zur Steuerung von Serienaufnahmen mit automatisch abgestufter Belichtung
US6470149B1 (en) Distance measuring apparatus

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R082 Change of representative

Representative=s name: SCHAUMBURG, THOENES, THURN, LANDSKRON, ECKERT, DE

R081 Change of applicant/patentee

Owner name: PENTAX RICOH IMAGING COMPANY, LTD., JP

Free format text: FORMER OWNER: HOYA CORP., TOKYO, JP

Effective date: 20120529

R082 Change of representative

Representative=s name: PATENTANWAELTE SCHAUMBURG, THOENES, THURN, LAN, DE

Effective date: 20120529

R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0007340000

Ipc: G02B0007280000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0007340000

Ipc: G02B0007280000

Effective date: 20130731

R020 Patent grant now final

Effective date: 20140306

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150303