DE10140343A1 - Entfernungsmeßeinrichtung - Google Patents

Entfernungsmeßeinrichtung

Info

Publication number
DE10140343A1
DE10140343A1 DE10140343A DE10140343A DE10140343A1 DE 10140343 A1 DE10140343 A1 DE 10140343A1 DE 10140343 A DE10140343 A DE 10140343A DE 10140343 A DE10140343 A DE 10140343A DE 10140343 A1 DE10140343 A1 DE 10140343A1
Authority
DE
Germany
Prior art keywords
transformation
distance measuring
value
data
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10140343A
Other languages
English (en)
Other versions
DE10140343B4 (de
Inventor
Naoto Nakahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Publication of DE10140343A1 publication Critical patent/DE10140343A1/de
Application granted granted Critical
Publication of DE10140343B4 publication Critical patent/DE10140343B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Eine Entfernungsmesseinrichtung für eine Kamera mit mehreren Entfernungsmesszonen enthält eine Lichtempfangsvorrichtung mit mehreren Lichtsensoren, die der empfangenen Lichtmenge entsprechende analoge Pixelsignale ausgeben, einen A/D-Wandler, der die analogen Pixelsignale jeweils in digitale Pixeldaten wandelt, eine Transformationsvorrichtung, die eine logarithmische Transformation an den digitalen Pixeldaten in einen vorbestimmten logarithmischen Transformationsbereich vornimmt und so erste Transformationsdaten erzeugt, eine Ermittlungsvorrichtung, die den Kontrastzustand jeder Entfernungsmesszone auf Grundlage der ersten Transformationsdaten ermittelt, eine Rechenvorrichtung, die eine mittlere relative Objekthelligkeit, basierend auf den ersten Transformationsdaten, berechnet, und eine Steuervorrichtung, die zweite Transformationsdaten erzeugt, indem sie nochmals eine logarithmische Transformation durchführt, und zwar unter Verwendung eines vorbestimmten Objekthelligkeitsbereichs, der die mittlere relative Objekthelligkeit in der Entfernungsmesszone enthält, als logarithmischem Transformationsbereich.

Description

Die Erfindung betrifft eine passive Entfernungsmesseinrichtung, die mit einem Entfernungsmesssensor ausgestattet ist, der einfallendes Licht in ein Analogsignal wandelt.
Eine herkömmliche Entfernungsmesseinrichtung vom passiven Typ, die weitläufig als passives AF-System für AF-Kameras eingesetzt wird, teilt das durch eine vorbestimmte Messzone, im Falle einer AF-Kamera z. B. eine Schärfenerfas­ sungszone, betrachtete Bild über ein Paar Separatoroptiken in zwei Bilder, die als voneinander getrennte Bilder, nämlich als rechtes und als linkes Bild, auf einem zugeordneten Paar Liniensensoren, d. h. einem rechten und einem linken Sensor, erzeugt werden. Jeder Liniensensor enthält eine Anordnung von fotoelektrischen Wandlerelementen, z. B. Fotodioden. Jede Fotodiode wandelt das empfangene Licht in eine elektrische Ladung und sammelt, d. h. integriert diese. Anschließend wird die angesammelte elektrische Ladung aus jeder Fotodiode als Pixelsignal, d. h. als Spannung ausgelesen. Mit den von den beiden Liniensensoren ausgege­ benen Pixelsignalen wird ein vorbestimmter Entfernungsmessprozess durchge­ führt, um Daten wie den Defokuswert oder die Objektentfernung zu erhalten, die benötigt werden, um auf das Objekt scharfzustellen. Verwendet diese passive Entfernungsmesseinrichtung jedoch einen Entfernungsmesssensor, der das einfallende Licht in ein analoges Pixelsignal wandelt, so kann ein genau berech­ neter Entfernungswert/Defokuswert allein durch Wandeln eines von dem Entfer­ nungsmesssensor ausgegebenen analogen Pixelsignals in ein digitales Signal und durch Verwenden dieses digitalen Signals in einer vorbestimmten Entfer­ nungsmessberechnung nicht erhalten werden, wenn die Helligkeit und/oder der Kontrast des Objektes beispielsweise dadurch, dass das Auflösungsvermögen eines Teils des digitalen Signals geringer Helligkeit gering ist, so dass sich die Messgenauigkeit verschlechtert.
Aufgabe der Erfindung ist es, eine Entfernungsmesseinrichtung anzugeben, in der die Messgenauigkeit erhöht und die Messzeit verkürzt ist.
Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprü­ chen angegeben.
Die Erfindung wird im Folgenden an Hand der Figuren näher erläutert. Darin zeigen:
Fig. 1 eine Vorderansicht einer Objektivverschlusskamera mit einer Entfer­ nungsmesseinrichtung, die ein Ausführungsbeispiel der Erfindung darstellt,
Fig. 2 eine Draufsicht der in Fig. 1 gezeigten Objektivverschlusskamera,
Fig. 3 eine Rückansicht der in Fig. 1 gezeigten Objektivverschlusskamera,
Fig. 4 ein Blockdiagramm mit grundlegenden Elementen eines in der Objektivverschlusskamera nach Fig. 1 vorgesehenen Steuersy­ stems,
Fig. 5 eine schematische Darstellung eines in der Objektivverschlusskame­ ra nach Fig. 1 vorgesehenen Entfernungsmesssensors,
Fig. 6A eine Graphen, der den Zusammenhang eines von dem Entfer­ nungsmesssensor nach Fig. 5 ausgegebenen Pixelsignals (Vχ) und der Zeit (t) an Hand eines Beispiels zeigt,
Fig. 6B einen Graphen mit digitalen Pixeldaten, wobei von dem Entfer­ nungsmesssensor nach Fig. 5 zur Zeit t1 ausgegebene analoge Pi­ xelsignale Va bis Ve in den Fotodioden a bis e in die digitalen Pixel­ daten im Bereich von 0 (V) bis Vref gewandelt werden,
Fig. 6C einen Graphen mit 4EV-Sensordaten, wobei an den digitalen Pixel­ daten in den in Fig. 6B gezeigten Fotodioden a bis e jeweils eine logarithmische Transformation vorgenommen wird,
Fig. 7A einen Graphen mit beispielhaften 4EV-Sensordaten in Entfernungs­ messzonen L, C und R,
Fig. 7B einen Graphen mit 2EV-Sensordaten, wobei in der in Fig. 7A ge­ zeigten Entfernungsmesszone L eine logarithmische Transformation durchgeführt wird,
Fig. 7C einen Graphen mit 4EV-Sensordaten, wobei in der in Fig. 7A ge­ zeigten Entfernungsmesszone C eine logarithmische Transformation durchgeführt wird,
Fig. 7D einen Graphen mit 2EV-Sensordaten, wobei in der in Fig. 7A ge­ zeigten Entfernungsmesszone R eine logarithmische Transformation durchgeführt wird,
Fig. 8 ein Flussdiagramm, das den Aufnahmeprozess der Objektivver­ schlusskamera nach Fig. 1 zeigt,
Fig. 9A ein Flussdiagramm, das den in dem Aufnahmeprozess nach Fig. 8 durchgeführten Entfernungsmessprozess zeigt,
Fig. 9B ein Flussdiagramm, das den in dem Aufnahmeprozess nach Fig. 8 durchgeführten Entfernungsmessprozess zeigt,
Fig. 10 ein Flussdiagramm, das den Prozess zum Eingeben der Sensorda­ ten zeigt, der die D/A-Wandlung und die logarithmische 4EV- Transformation beinhaltet und in dem in den Fig. 9A und 9B gezeig­ ten Entfernungsmessprozess durchgeführt wird,
Fig. 11 ein Flussdiagramm, das den in dem Eingabeprozess nach Fig. 10 ausgeführten logarithmischen 4EV-Prozess zeigt, und
Fig. 12 ein Flussdiagramm, das den in dem Entfernungsmessprozess nach Fig. 9A und 9B ausgeführten logarithmischen 2EV-Prozess zeigt.
Die Fig. 1 bis 3 zeigen eine AF-Objektivverschlusskamera als Ausführungsbeispiel der Erfindung. Eine Kamera 1 hat an ihrem vorderen Teil ein Varioobjektiv 2. Die Kamera 1 ist vorne oberhalb des Varioobjektivs 2 mit einem Lichtempfangsfenster 4 zur passiven Autofokussierung, kurz AF, einem Sucherfenster 5 und einem Fotometriefenster 6 versehen. In der Kamera 1 befindet sich hinter dem Licht­ empfangsfenster 4 ein Entfernungsmesssensor (passiver AF-Sensor) 36 (vgl. Fig. 5), hinter dem Sucherfenster 5 eine nicht gezeigte Sucheroptik und hinter dem Fotometriefenster 6 ein Fotometriesensor 37a (vgl. Fig. 4).
Die Kamera 1 hat an einem oberen Bedienfeld 7 eine Auslösetaste 8. Die Auslö­ setaste 8 ist an einen Fotometrieschalter SWS und einen Auslöseschalter SWR angeschlossen. Der Fotometrieschalter SWS und der Auslöseschalter SWR werden eingeschaltet, wenn die Auslösetaste 8 halb bzw. voll gedrückt wird.
Die Kamera 1 hat an ihrem hinteren Teil oben mittig eine Hauptschaltertaste 10, die an einen in Fig. 4 gezeigten Hauptschalter (Energieversorgungsschalter) SWM angeschlossen ist. Mit Bewegen der Hauptschaltertaste 10 nach links und nach rechts wird der Hauptschalter SWM eingeschaltet bzw. ausgeschaltet, wie in Fig. 3 gezeigt ist. Die Kamera 1 hat an ihrem hinteren Teil oben rechts einen Zoom­ knopf 9, der manuell betätigt wird, um das Varioobjektiv 2 in eine Tele- oder eine Weitwinkelrichtung anzutreiben. Der Zoomknopf 9 ist an einen Teleschalter SWT und einen Weitwinkelschalter SWW (vgl. Fig. 4) angeschlossen. Wird der Zoom­ knopf 9 auf die Teleseite, z. B. in Fig. 3 die rechte Seite bewegt, so wird der Tele­ schalter SWT eingeschaltet. Wird der Zoomknopf 9 auf die Weitwinkelseite, d. h. in Fig. 3 die linke Seite bewegt, so wird der Weitwinkelschalter SWW eingeschal­ tet. Der Teleschalter SWT und der Weitwinkelschalter SWW sind jeweils ausge­ schaltet, wenn sich der Zoomknopf 9 in einer in den Fig. 2 und 3 gezeigten neu­ tralen Stellung befindet. Die Kamera 1 hat an ihrem hinteren Teil oben links ein Okularfenster 12. An ihrem hinteren Teil in der Nähe des Okularfensters 12 hat die Kamera 1 einen Lichtsender 11, der grünes Licht aussendet, z. B. eine grüne LED. Der Lichtsender 11 wird so gesteuert, dass er in Abhängigkeit des Ergebnis­ ses der Entfernungsmessung aufleuchtet oder an- und ausgeht, d. h. blinkt.
Im Folgenden werden unter Bezugnahme auf Fig. 4 grundlegende Elemente eines Steuersystems der Kamera 1 beschrieben. Das Steuersystem enthält den zum Ausgeben von grünem Licht bestimmten Lichtsender 11, eine CPU (Transformati­ onsvorrichtung/Ermittlungsvorrichtung/Rechenvorrichtung/Steuervorrichtung) 21, eine Batterie 23, eine Blendensteuerschaltung 25, eine Filmtransportschaltung 27, eine Varioobjektiv-Treiberschaltung 29, eine Fokussier-Treiberschaltung 31, eine Verschluss-Treiberschaltung 33, eine Entfernungsmessschaltung 35 und eine Fotometrieschaltung (Fotometrievorrichtung) 37. Das Steuersystem enthält wei­ terhin eine Eingabeschaltung 41 für ein Filmtransportsignal, eine Eingabeschal­ tung 43 für einen Zoomcode, eine Eingabeschaltung 45 für einen DX-Code, den Fotometrieschalter SWS, den Auslöseschalter SWR, den Teleschalter SWT, den Weitwinkelschalter SWW und den Hauptschalter SWM. Ferner enthält das Steu­ ersystem einen an die Filmtransportschaltung 27 angeschlossenen Filmtrans­ portmotor 28, einen an die Varioobjektiv-Treiberschaltung 29 angeschlossenen Zoommotor 30, einen an die Fokussier-Treiberschaltung 31 angeschlossenen Fokussiermotor 32 und einen an die Verschluss-Treiberschaltung 33 angeschlos­ senen Verschlussmotor 34. Die CPU 21 enthält einen nicht gezeigten ROM, einen RAM (Speicher) 21a, einen A/D-Wandler 21b. In dem RAM 21a sind verschiedene Parameter zur Steuerung oder Berechnung temporär gespeichert, während in den ROM Programme für verschiedene Funktionen der Kamera 1 geschrieben sind. Die CPU 21 führt die umfassende Steuerung aller Kameraoperationen durch.
Der an den Hauptschalterknopf 10 angeschlossene Hauptschalter SWM, der Teleschalter SWT und der Weitwinkelschalter SWW, die beide an den Zoomknopf 9 angeschlossen sind, sowie der Fotometrieschalter SWS und der Auslöseschal­ ter SWR, die beiden an die Auslösetaste 8 angeschlossen sind, sind elektrisch mit der CPU 21 verbunden.
Mit Einschalten des Hauptschalter SWM beginnt die CPU 21, Peripherieschaltun­ gen, die mit Eingangs/Ausgangsanschlüssen der CPU 21 verbunden sind, mit Energie aus der Batterie 23 zu versorgen, um so die den oben genannten Schal­ tern zugeordneten Operationen durchzuführen.
Mit Einschalten des Teleschalter SWT beginnt die CPU 21, den Zoommotor 30 über die Varioobjektiv-Treiberschaltung 29 anzutreiben, um so das Varioobjektiv in Telerichtung zu bewegen. Entsprechend beginnt die CPU 21 mit Einschalten des Weitwinkelschalters SWW, den Zoommotor 30 über die Varioobjektiv- Treiberschaltung 29 so anzutreiben, dass das Varioobjektiv 2 in Weitwinkelrich­ tung bewegt wird. Die Brennweite des Varioobjektivs und dessen axiale Position werden von der Eingabeschaltung 43 erfasst, die zum Eingeben des Zoomcodes bestimmt ist. Mit Einschalten des Hauptschalters SWM steuert die CPU 21 den Zoommotor 30 so an, dass dieser vorwärts dreht, bis das Varioobjektiv 2 in seine Weitwinkel-Extremstellung vorgerückt ist. Mit Ausschalten des Hauptschalters SWM steuert die CPU 21 den Zoommotor 30 so an, dass dieser rückwärts dreht, bis das Varioobjektiv 2 in seine zurückgezogene Stellung bewegt ist, in der es vollständig in den Kamerakörper zurückgezogen ist.
Die CPU 21 berechnet über die Fotometrieschaltung 37 eine Objekthelligkeit, wenn die Auslösetaste 8 halb gedrückt und der Fotometrieschalter SWS einge­ schaltet ist. Die Fotometrieschaltung 37 hat einen Fotometriesensor 37a, der durch das Fotometriefenster 6 von dem Objekt stammendes Licht empfängt. Die Fotometrieschaltung 37 gibt an die CPU 21 ein Fotometriesignal aus, das der Objekthelligkeit entspricht. Der Fotometriesensor 37a ist mit einem Mehrsegment- Fotometriesensor versehen, so dass die Kamera fotometrische Skalen- oder Lesewerte in segmentierten Bereichen des Aufnahmefeldes misst und vergleicht.
Die CPU 21 führt anschließend eine AE-Berechnung gemäß der berechneten Objekthelligkeit und der ISO-Filmempfindlichkeit, die über die für den DX-Code bestimmte Eingabeschaltung 45 zugeführt wird, durch, um so die optimale Ver­ schlusszeit und den optimalen Blendenwert zu berechnen. Die Eingabeschaltung 45 liest den auf eine in den Kamerakörper 1 eingelegte, nicht dargestellte Filmpa­ trone gedruckten DX-Code, um die ISO-Filmempfindlichkeit, die Zahl der Belich­ tungen sowie andere Informationen über den eingelegten Film an die CPU 21 auszugeben.
Die CPU 21 führt einen vorbestimmten Bildprozess zum Verarbeiten eines von der Entfernungsmessschaltung 35 zugeführten analogen Pixelsignals aus. Anschlie­ ßend nimmt sie für die jeweiligen Entfernungsmesszonen Entfernungsmessbe­ rechnungen gemäß dem verarbeiteten Pixelsignal vor. Ist der in der Entfernungs­ messberechnung erhaltene Entfernungswert wirksam, so berechnet die CPU 21 den zum Antreiben einer nicht gezeigten Fokussierlinsengruppe des Varioobjek­ tivs 2 bestimmten Antriebswert (LL-Daten) für den Fokussiermotor 32, mit dem letzterer über die Fokussier-Treiberschaltung 31 angetrieben wird. Zugleich schaltet die CPU 21 den zum Abgeben von grünem Licht bestimmten Lichtsender 11 ein. Ist der berechnete Entfernungsmesswert nicht wirksam, so lässt die CPU 21 den Lichtsender 11 blinken, um so die Bedienperson darüber zu informieren, dass die Entfernungsmessberechnung fehlgeschlagen ist.
Die Entfernungsmessschaltung 35 erfasst den Fokussierzustand des Objektbil­ des, das in jeder der Entfernungsmesszonen (Schärfenerfassungszonen) des Aufnahmefeldes erzeugt wird. Die Entfernungsmessschaltung 35 ist mit dem Entfernungsmesssensor (Lichtempfangsvorrichtung) 36 versehen, der das emp­ fangene Objektlicht in ein elektrisches Pixelsignal, d. h. in elektrische Ladungen wandelt und das Pixelsignal ausgibt. Fig. 5 zeigt den schematischen Aufbau des Entfernungsmesssensors 36. Der Entfernungsmesssensor 36 befindet sich hinter dem Lichtempfangsfenster 4 und ist mit einem Paar Separatorlinsen 36a und einem Paar zugehöriger Liniensensoren 36b versehen (in Fig. 5 sind A und B der Liniensensoren gezeigt). Das durch jedes der Entfernungsmesszonen betrachtete Bild wird jeweils durch das Paar Separatorlinsen zweigeteilt und in Form von zwei voneinander getrennten Bildern auf dem zugehörigen Paar Liniensensoren 36b abgebildet. Jeder Liniensensor 36b ist mit einer Anordnung von Fotodioden (foto­ elektrische Wandlerelemente) versehen, die in Fig. 5 nicht im Detail dargestellt sind. Jede Fotodiode des jeweiligen Liniensensors 36b empfängt die aufgespal­ teten Objektlichtbündel, wandelt das empfangene Licht in elektrische Ladung und sammelt, d. h. integriert die elektrische Ladung. Die elektrischen Ladungen, die man durch den an jeder Fotodiode des jeweiligen Liniensensors 36b vorgenom­ menen Integrationsprozess erhält, werden in eine auf jedes Pixel bezogene Spannung gewandelt und als auf jedes Pixel bezogenes Pixelsignal an die CPU 21 ausgegeben.
In dem erläuterten Ausführungsbeispiel ist der Liniensensor 36b so ausgebildet, dass er die Objektentfernung jeweils in drei Entfernungsmesszonen misst, näm­ lich einer der Mitte des nicht gezeigten Aufnahmesichtfeldes entsprechenden Entfernungsmesszone C, einer dem rechten Teil des Aufnahmesichtfeldes ent­ sprechenden Entfernungsmesszone R und einer dem linken Teil des Aufnahme­ sichtfeldes entsprechenden Entfernungsmesszone L.
Wird die Auslösetaste 8 voll durchgedrückt und damit der Auslöseschalter SWR eingeschaltet, so steuert die CPU 21 die Blendensteuerschaltung 25 so an, dass die Blende des Varioobjektivs 2 entsprechen dem ermittelten Blendenwert abge­ blendet wird. Zugleich betätigt die CPU 21 den Verschlussmotor 34, um den Verschluss über die Verschluss-Treiberschaltung 33 entsprechend der ermittelten Verschlusszeit auszulösen.
Mit Beenden einer Belichtung treibt die CPU 21 den Filmtransportmotor 28 über die Filmtransportschaltung 27 so an, dass dieser vorwärts dreht und so den Film um ein Bild weitertransportiert, während über die Eingabeschaltung 41 ein Film­ transportsignal zugeführt wird. Nachdem jedoch das letzte Bild des Films belichtet ist, treibt die CPU 21 den Filmtransportmotor 28 über die Filmtransportschaltung 27 so an, dass dieser rückwärts dreht und so den Film zurückspult.
Zusätzlich zu den oben genannten grundlegenden Elementen enthält die Kamera 1 verschiedene bekannte Vorrichtungen wie eine Lichtanzeige, die anzeigt, dass der Selbstauslöser in Betrieb ist, einen Blitzlichtsender, der unter Steuerung der CPU 21 Blitzlicht abgibt, und ein LCD-Feld, das verschiedene Aufnahmeinforma­ tionen anzeigt.
Fig. 6A zeigt an Hand eines Graphen beispielhaft den Zusammenhang eines Pixelsignals Vχ (Spannung: Va, Vb, Vc, Vd oder Ve), das von der entsprechenden auf dem jeweiligen Liniensensor 36b des Entfernungsmesssensors 36 vorgese­ henen Fotodiode (a, b, c, d oder e; nicht gezeigt) ausgegeben wird, und der Zeit (t). In Fig. 6A bezeichnet Vref die Referenzspannung. Mit Verstreichen der Zeit nimmt die Spannung des Pixelsignals Vχ ausgehend von dem Referenzwert Vref um den Wert der von jeder Fotodiode integrierten Ladung ab. Die CPU 21 steuert jede Fotodiode des jeweiligen Liniensensors 36b so an, dass diese das Integrie­ ren der Ladungen zu dem Zeitpunkt beendet, zu dem die Spannung des von jedem Liniensensor ausgegebenen Pixelsignals Vχ (Va, Vb, Vc, Vd oder Ve) Null Volt (0 V) erreicht oder eine vorbestimmte maximale Integrationszeit abläuft. Null Volt (0 V) sind dabei als Integrationsabschlusswert (Spannung) festgelegt. Nimmt die Objekthelligkeit zu, so wird die Zeit, welche die Spannung des Pixelsignals Vχ bis zum Erreichen des Integrationsabschlusswertes benötigt, kürzer. Wie sich aus Fig. 6A ergibt, ist die Steigung der die Spannung des Pixelsignals Vχ angebenden Linie proportional zur Objekthelligkeit. Je größer der Absolutwert der Steigung dieser Linie ist, desto höher ist die Helligkeit.
In Fig. 6A ist ein Pixelsignal Ve der höchsten Helligkeit als Referenzwert (0EV) festgelegt, während EV-Werte (0EV bis 4EV in Fig. 6A) als Werte festgelegt sind, die relativ zu dem Pixelsignal Ve so variieren, dass je größer das Pixelsignal Vχ, also je geringer die Objekthelligkeit ist, desto größer der EV-Wert ist.
Die Integrationsabschlusszeit des Pixelsignals Ve, dessen Integration in Fig. 6A als erste abgeschlossen ist, ist als Zeit t1 festgelegt, während digitale Pixeldaten an den Fotodioden a bis e, die jeweils durch Wandeln der Pixelsignale Va bis Ve in eine digitale 10-Bit-Form zur Zeit t1 im Bereich 0 (V) bis Vref erhalten werden, in Fig. 6B mit Va' bis Ve' bezeichnet sind. In Fig. 6B zeigt die vertikale Achse die digitalen Pixeldaten Vχ' (A/D-gewandelter Wert) und die horizontale Achse die Bezugszeichen, mit denen die jeweiligen Fotodioden des Liniensensors 36b bezeichnet sind. Je höher die Objekthelligkeit wird, desto geringer wird die im Graphen dargestellte Höhe.
ΔEV stellt den (gewandelten) Wert dar, den man erhält, indem die den Bilddaten Vχ' entsprechende Helligkeit von der dem Referenzwert Vref 'entsprechenden Helligkeit abgezogen wird. Unter der Voraussetzung, dass der Wert Vref' die A/D- gewandelte 10-Bit-Form der Referenzspannung Vref darstellt, erhält man den Differenzwert ΔEV durch die Formel ΔEV = log2 (Vref' - Vχ'). Die Differenz des Helligkeitswertes ΔEV ist im Bereich von 0(V) bis Vref' gleich Δ10EV.
Wie in den digitalen Pixeldaten (A/D-gewandelter Wert) nach Fig. 6B gezeigt, ist das Auflösungsvermögen eines Teils geringer Helligkeit kleiner als das eines Teils großer Helligkeit. In dem erläuterten Ausführungsbeispiel werden deshalb die in Fig. 6B gezeigten digitalen Pixeldaten einer logarithmischen 4EV-Transformation unterzogen, um die Entfernungsmessgenauigkeit zu verbessern. Dadurch erhält man 4EV-Transformationsdaten, die in Fig. 6C gezeigt sind. Unter "logarithmi­ scher 4EV-Transformation" versteht man eine an den Pixelsignalen vorgenomme­ ne vierstufige logarithmische Transformation innerhalb des Referenz- Objekthelligkeitsbereichs durch Festlegen des hellsten Pixelsignals Ve' in Fig. 6B als Referenz 0EV, so dass die Differenz der Objekthelligkeit ausgehend von der Referenz 0EV zwischen Δ0EV und Δ4EV liegt. In dem erläuterten Ausführungs­ beispiel erhält man die Daten der logarithmischen 4EV-Transformation, indem die Pixeldaten an den Fotodioden a bis e jeweils in zugehörige 8-Bit-Daten (0 bis 255 Stufen) gewandelt werden, während das Auflösungsvermögen bei 1EV in 64 Stufen unterteilt ist.
Das Auflösungsvermögen des Abschnittes geringer Helligkeit ist im Wesentlichen gleich dem des Abschnittes großer Helligkeit, so dass mit einer auf diesen 4EV- Transformationsdaten beruhender Entfernungsberechnung in den meisten Fällen die korrekte Objektentfernung ermittelt wird. Selbst wenn man mit dieser Berech­ nung keine korrekte Objektentfernung erhält, ist es auch möglich, nach Änderung des Transformationsbereichs die logarithmische Transformation nochmals vorzu­ nehmen und basierend auf den so erhaltenen 4EV-Transformationsdaten die Entfernungsberechnung zu wiederholen, bis man schließlich die korrekte Objekt­ entfernung erhält. Ist jedoch der Objektkontrast gering, so kommt es häufig vor, dass die korrekte Objektentfernung überhaupt nicht ermittelt werden kann. In diesem Fall wird Zeit vergeudet, um mit wiederholten Berechnungen die Objekt­ entfernung zu messen.
Angesichts dieses Problems wird in dem erläuterten Ausführungsbeispiel, wenn der Kontrast in der Entfernungsmesszone gering ist, der Objekthelligkeitsbereich geändert, in dem an den oben beschriebenen digitalen Pixeldaten die logarithmi­ sche Transformation vorgenommen wird. Genauer gesagt, wird in dem erläuterten Ausführungsbeispiel der Kontrastzustand jeder Entfernungsmesszone auf Grund­ lage der erhaltenen 4EV-Transformationsdaten ermittelt und, falls eine Entfer­ nungsmesszone mit ausreichend hohem Kontrast vorhanden ist, die Entfer­ nungsmessung auf Grundlage der zugehörigen 4EV-Transformationsdaten (erste Transformationsdaten) durchgeführt.
Ist dagegen in einer Entfernungsmesszone der Kontrast gering, so wird das digi­ tale Bild einer logarithmischen 2EV-Transformation unterzogen, um in Fig. 7B oder 7D gezeigte 2EV-Transformationsdaten zu erhalten, wodurch man ein hohes Auflösungsvermögen in einem vorbestimmten, die mittlere relative Objekthelligkeit abdeckenden Objekthelligkeitsbereich der mit geringem Kontrast durchgeführten Entfernungsmessung zu erhalten. Die logarithmische 2EV-Transformation an den jeweiligen digitalen Pixeldaten wird vorgenommen, indem der vorbestimmte, die mittlere relative Objekthelligkeit enthaltende Objekthelligkeitsbereich in der Entfer­ nungsmesszone als logarithmische Transformationszone bestimmt wird. Die Entfernungsberechnung wird dann auf Grundlage der so erhaltenen 2EV- Transformationsdaten (zweite Transformationsdaten) durchgeführt. Gemäß der logarithmischen 2EV-Transformation des erläuterten Ausführungsbeispiels erhält man die logarithmischen 2EV-Transformationsdaten, indem man die jeweiligen digitalen Pixeldaten in entsprechende 8-Bit-Daten (0 bis 255 Stufen) wandelt, wobei das Auflösungsvermögen bei 1EV in 128 Stufen unterteilt wird.
Um als vorbestimmter Objekthelligkeitsbereich zu dienen, wodurch die oben erläuterte logarithmische 2EV-Transformation durchgeführt werden kann, ist ein Bereich hoher Objekthelligkeit (zwischen Δ0EV und Δ2EV) vorgesehen, in dem der Differenzwert der Helligkeit ausgehend von dem Referenzwert 0EV (höchste Helligkeit) kleiner als Δ2EV ist, sowie ein Bereich geringer Objekthelligkeit (zwi­ schen Δ2EV und Δ4EV), in dem der Differenzwert der Helligkeit ausgehend von dem Referenzwert 0EV gleich oder größer als Δ2EV ist.
Die oben genannte mittlere relative Objekthelligkeit bezeichnet den Mittelwert der jeweiligen Entfernungsmesszonen durch Wandeln der 4EV-Transformationsdaten in den Wert (gewandelter Wert), den man durch Subtrahieren dieser Daten von Δ4EV (geringste Objekthelligkeit) erhält. Die mittlere relative Objekthelligkeit kann unter Verwendung des je Entfernungsmesszone erhaltenen Mittels der von dem Entfernungsmesssensor 36 ausgegebenen Pixelsignale dargestellt werden.
Fig. 7A zeigt ein Beispiel der so erhaltenen 4EV-Transformationsdaten, in denen die Differenz der Objekthelligkeit 4EV durch die senkrechte Achse und die Entfer­ nungsmesszone durch die horizontale Achse dargestellt ist. Die CPU 21 erhält die Differenz zwischen dem Maximalwert und dem Minimalwert der 4EV- Transformationsdaten in den jeweiligen Entfernungsmesszonen. Ist beispielswei­ se diese Differenz gleich oder kleiner als 1EV, so wird der Kontrast als gering eingestuft. Ob der Kontrast hoch oder gering ist, ist Gegenstand einer willkürlichen Festlegung und kann auf Grundlage der Summe der Absolutwerte der Differenz einander benachbarter digitaler Pixeldaten bestimmt werden.
Wie in Fig. 7C gezeigt, werden die 4EV-Transformationsdaten für die Entfer­ nungsberechnung in der Entfernungsmesszone C genutzt, da in dieser Zone ein ausreichend hoher Kontrast der 4EV-Transformationsdaten erhalten werden kann.
Dagegen werden die jeweiligen 2EV-Transformationsdaten in den Entfernungs­ messzonen L und R ermittelt, in denen der Kontrast als gering eingestuft worden ist. Da, wie in Fig. 7A gezeigt, die mittlere relative Objekthelligkeit in der Entfer­ nungsmesszone L etwa 3,8EV beträgt, werden an allen digitalen Pixeldaten unter Verwendung des Transformationsbereichs hoher Objekthelligkeit zwischen Δ0EV und Δ2EV eine logarithmische 2EV-Transformation vorgenommen, wodurch man die in Fig. 7B gezeigten 2EV-Transformationsdaten erhält.
Da die Entfernungsmesszone R ihre mittlere relative Objekthelligkeit bei etwa 1 EV hat, wird die logarithmische 2EV-Transformation an digitalen Pixeldaten unter Verwendung des Transformationsbereichs geringer Objekthelligkeit zwischen Δ2EV' und Δ4EV vorgenommen, wodurch man die in Fig. 7D gezeigten 2EV- Transformationsdaten erhält.
Wie oben erläutert, ist es für das erläuterte Ausführungsbeispiel kennzeichnend, dass die Objekthelligkeitszone, in der die logarithmische Transformation an digi­ talen Pixeldaten vorgenommen wird, entsprechend dem Kontrastzustand in der Entfernungsmesszone geändert wird.
Der Betrieb der Kamera 1 wird im Folgenden unter Bezugnahme auf die in den Fig. 8 bis 12 gezeigten Flussdiagramme erläutert. Fig. 8 ist ein Flussdiagramm, das den Aufnahmeprozess der Kamera 1 zeigt. Dieser Prozess wird mit Ein­ schalten des Fotometrieschalter SWS ausgeführt.
In dem Aufnahmeprozess wird in S11 der Fotometrieprozess und in S13 der Entfernungsmessprozess durchgeführt. In dem Fotometrieprozess wird die Ob­ jekthelligkeit (Fotometriedaten) in der gesamten Bildebene und in jeder der jewei­ ligen Entfernungsmesszone überlagerten Fotometriezone bestimmt. In dem Entfernungsmessprozess erhält man den berechneten Entfernungswert für das Objekt für jede Entfernungsmesszone, wobei der Fokussiermotor 30, wenn ein geeigneter, den vorbestimmten Bedingungen genügender Entfernungswert erhal­ ten wird, entsprechend diesem Entfernungswert angetrieben wird. Die so erhalte­ nen Fotometriedaten werden in dem Speicher 21a gespeichert.
Nach Ausführen des Entfernungsmessprozesses in S13 wird in Schritt S15 ermit­ telt, ob ein Messfehlermerker oder -flag gleich 1 ist. Ist das Messfehlerflag auf 1 gesetzt, d. h. kann in dem Entfernungsmessprozess kein geeigneter Entfernungs­ wert berechnet werden, so fährt der Steuerablauf mit Schritt S19 fort, in dem der Lichtsender 11 so gesteuert wird, dass er zur Warnung der Bedienperson blinkt, d. h. abwechselnd ein- und ausgeschaltet wird. Ist das Messfehlerflag auf 0 ge­ setzt, so fährt der Steuerablauf mit Schritt S17 fort, in dem der zum Aussenden grünen Lichtes bestimmte Lichtsender 11 so angesteuert wird, dass er aufleuch­ tet. Anschließend wird in Schritt S21 ein AE-Berechnungsprozess durchgeführt. In der AE-Berechnung werden die optimale Verschlusszeit und der optimale Blen­ denwert in Abhängigkeit der Objekthelligkeit in der gesamten Bildebene, der ISO- Filmempfindlichkeit, die über die für den DX-Code bestimmte Eingabeschaltung 45 zugeführt wird, sowie anderer Faktoren berechnet.
Anschließend wird in Schritt S23 ermittelt, ob der Fotometrieschalter SWS einge­ schaltet ist. Ist der Fotometrieschalter SWS nicht eingeschaltet, so wird der Licht­ sender 11 in Schritt S24 ausgeschaltet, worauf der Steuerablauf endet. Ist dage­ gen der Fotometrieschalter SWS eingeschaltet, so wird in Schritt S25 ermittelt, ob der Auslöseschalter eingeschaltet ist. Ist dies nicht der Fall, so kehrt der Steuer­ ablauf zu Schritt S23 zurück, um darauf zu warten, dass entweder der Fotometrie­ schalter SWS ausgeschaltet oder der Auslöseschalter SWR eingeschaltet wird. Mit Einschalten des Auslöseschalters SWR wird der Lichtsender 11 in Schritt S27 ausgeschaltet. Anschließend wird in Schritt S29 ein Belichtungssteuerprozess durchgeführt, in dem die Blendensteuerschaltung 25 so gesteuert wird, dass die Blende des Varioobjektivs 2 entsprechend dem berechneten Belichtungswert abgeblendet wird.
Daraufhin wird in Schritt S31 der Filmtransportmotor 28 über die Filmtransport­ schaltung 27 so angesteuert, dass er in Vorwärtsrichtung dreht und so den Film um ein Bild weitertransportiert. Nach Belichtung des letzten Filmbildes wird jedoch der Filmtransportmotor 28 über die Filmtransportschaltung 27 so angesteuert, dass er in Rückwärtsrichtung dreht und so den Film zurückspult. Daraufhin endet der Steuerablauf.
Im Folgenden wird unter Bezugnahme auf Fig. 9A der in Fig. 9A in Schritt S13 gezeigte Entfernungsmessprozess beschrieben.
In diesem Prozess beginnt der Entfernungsmesssensor in Schritt S101 mit der Integration. Erreicht eines der Pixelsignale des Entfernungsmesssensors 36 einen Integrationsabschlusswert, so ist die Integration des Entfernungsmesssensors 36 vollendet, und es wird das Pixelsignal zugeführt, um eine A/D-Eingabe und die logarithmische 4EV-Transformation durchzuführen (Schritt S103). Die Prozesse der A/D-Eingabe und der logarithmischen 4EV-Transformation dienen dazu, die digitalen Pixeldaten durch eine 10-Bit-A/D-Wandlung des von dem Entfernungs­ messsensor 36 ausgegebenen Pixelsignals zu ermitteln. Die vorstehend genann­ ten Prozesse dienen weiterhin dazu, die 4EV-Transformationsdaten durch die logarithmische 4EV-Transformation der digitalen Pixeldaten zu ermitteln.
Daraufhin wird in Schritt S105 eine Variable j, die dazu dient, die Entfernungs­ messzone zu identifizieren, auf 0 gesetzt. In Schritt S107 werden die 4EV- Transformationsdaten in der Entfernungsmesszone [j] in die Daten gewandelt, die man durch Subtrahieren der 4EV-Transformationsdaten von Δ4EV (geringste Objekthelligkeit) erhält, die erhaltenen Werte (gewandelten Werte) gemittelt und schließlich der Mittelwert in dem RAM 21a als mittlere relative Objekthelligkeit af_ave[j] gespeichert. Die Variable j wird in Schritt S109 um 1 erhöht. In Schritt S111 wird ermittelt, ob die Variable j die Gesamtzahl der Entfernungsmesszonen erreicht hat oder nicht. Wird in Schritt S111 festgestellt, dass die Variable j kleiner als die Gesamtzahl der Entfernungsmesszonen ist, so kehrt der Steuerablauf zu Schritt S107 zurück. Die Schritte S107 bis S111 werden so lange wiederholt, bis die Variable j die Gesamtzahl der Entfernungsmesszonen erreicht, wobei man in jeder Entfernungsmesszone die mittlere relative Objekthelligkeit af_ave[j] erhält.
Wird in Schritt S111 festgestellt, dass die Variable j die Gesamtzahl der Entfer­ nungsmesszonen erreicht hat, so wird j in Schritt S113 auf 0 gesetzt und in Schritt S115 die Entfernungsmessung auf Grundlage der 4EV-Transformationsdaten durchgeführt.
Anschließend wird in Schritt S117 ermittelt, ob der Kontrast der Entfernungsmess­ zone [j] gering ist oder nicht. Ist in dem erläuterten Ausführungsbeispiel die Diffe­ renz zwischen dem Maximalwert und dem Minimalwert der 4EV- Transformationsdaten gleich oder kleiner als ein vorbestimmter Wert, so wird der Kontrast als gering eingestuft. Wird in Schritt S117 festgestellt, dass der Kontrast der Entfernungsmesszone [j] nicht gering ist, so fährt der Steuerablauf mit Schritt S137 fort.
Wird der Kontrast der Entfernungsmesszone [j] in Schritt S117 als gering einge­ stuft, so wird in Schritt S119 eine Startadresse s_adr[j] einer Anordnung fotoelek­ trischer Wandlerelemente (Liniensensoren 36b), mit denen die Entfernung in der zugehörigen Entfernungsmesszone [j] gemessen wird, auf eine Variable [a] und in Schritt S121 eine Variable i auf 0 gesetzt. Dann wird in Schritt S123 festgestellt, ob ein Wert AF_AD[a+i], den man durch eine 10-Bit-A/D-Wandlung desjenigen Pixelsignals erhält, das das an der Stelle [a+i] angeordnete fotoelektrische Wandlerelement ausgibt, kleiner ist als der A/D-gewandelte Wert der Referenz­ spannung Vref.
Wird in Schritt S123 festgestellt, dass der Wert AF_AD[a+i] kleiner als der Refe­ renzspannungswert Vref ist, so wird in Schritt S125 der Wert, den man durch Subtrahieren des Wertes AF_AD[a+i] von dem A/D-gewandelten Wert des Refe­ renzspannungssignals Vref erhält, in dem RAM 21a als WDATA-Wert gespei­ chert. Wird in Schritt S123 festgestellt, dass der Wert AF_AD[a+i] gleich oder größer als der Referenzspannungswert Vref ist, so wird in Schritt S127 der Wert 0 in dem RAM 21a als WDATA-Wert gespeichert. In dem erläuterten Ausführungs­ beispiel erfolgt die 10-Bit-A/D-Wandlung des Pixelsignals, in dem der Wert 0 der Spannung 0 Volt und der Wert 1023 der Referenzspannung Vref zugeordnet wird. Mit steigender Objektheiligkeit des entsprechenden Abschnittes wird so der Wert AF_AD[a+i] kleiner und der WDATA-Wert größer.
Anschließend wird in Schritt S129 die logarithmische 2EV-Transformation durch­ geführt. Dann wird in Schritt S131 die Variable i um 1 erhöht und in Schritt S133 ermittelt, ob die Variable 1 die Gesamtzahl der die Objektentfernung in der Entfer­ nungsmesszone [j] messenden fotoelektrischen Wandlerelemente erreicht hat oder nicht. Wird in Schritt S133 festgestellt, dass die Variable i kleiner als die Gesamtzahl der vorstehend genannten Wandlerelemente ist, so kehrt der Steuer­ ablauf zu Schritt S123 zurück. Wird dagegen in Schritt S133 festgestellt, dass die Variable i die Gesamtzahl der die Objektentfernung in der Entfernungsmesszone [j] messenden Wandlerelemente erreicht hat, so wird in Schritt S135 die Entfer­ nungsberechnung auf Grundlage der erhaltenen 2EV-Transformationsdaten durchgeführt.
Anschließend wird in Schritt S137 die Variable j um 1 erhöht und in Schritt S139 ermittelt, ob j die Gesamtzahl der Entfernungsmesszonen erreicht hat. Wird in Schritt S139 festgestellt, dass die Variable j kleiner als die Gesamtzahl der Entfer­ nungsmesszone ist, so kehrt der Steuerablauf zu Schritt S115 zurück. Die Pro­ zesse ab Schritt S115 bis Schritt S139 werden so lange wiederholt, bis die Varia­ ble j die Gesamtzahl der Entfernungsmesszone erreicht hat, wobei man in jeder Entfernungsmesszone den berechneten Entfernungswert erhält.
Wird in Schritt S139 festgestellt, dass die Variable j die Gesamtzahl der Entfer­ nungsmesszonen erreicht hat, so wird in Schritt S141 ermittelt, ob sämtliche in der Entfernungsberechnung erhaltenen Entfernungswerte effektiv, d. h. wirksam sind. In dem erläuterten Ausführungsbeispiel wird der berechnete Wert als wirksam eingestuft, wenn seine Zuverlässigkeit über einen vorbestimmten Wert liegt. Erhält man in Schritt S141 keinen wirksamen Wert, so wird ein Messfehlermerker oder -flag auf 1 gesetzt, und der Steuerablauf springt zurück (S143). Erhält man in Schritt S141 einen wirksamen Entfernungswert, so wird in Schritt S145 das Messfehlerflag auf 0 gesetzt und in Schritt S147 ein berechneter Entfernungswert ausgewählt, der den vorbestimmten Bedingungen genügt. In der Folge werden in Schritt S151 die LL-Daten auf Grundlage des ausgewählten Entfernungswertes berechnet und der auf den Objektivantrieb bezogene Prozess gemäß den erhalte­ nen LL-Daten durchgeführt. Dann springt der Steuerablauf zurück.
Im Folgenden wird unter Bezugnahme auf die Fig. 10 sowie die Fig. 6A, 6B und 6C der Prozess der A/D-Eingabe und der logarithmischen 4EV-Transformation erläutert, der in Schritt S103 durchgeführt wird.
In dem genannten Prozess wird in Schritt S201 die Variable i auf 0 gesetzt. Dann wird in Schritt S203 der A/D-Wandler 21b betätigt, um durch eine 10-Bit-A/D- Wandlung des von der Entfernungsmessschaltung 35 ausgegebenen ersten Pixelsignals digitale Pixeldaten zu erhalten. Wie in den Fig. 6A und 6B gezeigt, werden mit abnehmender Objekthelligkeit der Wert des Pixelsignals sowie der Wert der digitalen Pixeldaten größer. Wird in Schritt S205 festgestellt, dass die A/D-Wandlung des Pixelsignals vollendet ist, so werden in Schritt S207 die erhal­ tenen digitalen Pixelsignale als Wert AF_AD[i] in dem RAM 21a gespeichert, wobei in Schritt S209 ermittelt wird, ob der gespeicherte Wert AF_AD[i] kleiner als der A/D-gewandelte Wert der Referenzspannung Vref ist.
Wird in Schritt S209 festgestellt, dass der Wert AF_AD[i] kleiner als der A/D- gewandelte Wert der Referenzspannung Vref ist, wo wird der Wert, den man durch Subtrahieren des Wertes AF_AD[i] von dem A/D-gewandelten Wert der Referenzspannung Vref erhält, in Schritt S211 in dem RAM 21a als WDATA-Wert gespeichert. Wird in Schritt S209 festgestellt, dass der Wert AF_AD[i] gleich oder größer als der Referenzspannungswert Vref ist, so wird in Schritt S213 der Wert 0 in dem RAM 21a als WDATA-Wert gespeichert. Wie in Fig. 6B gezeigt, wird der Wert AF_AD[i] mit abnehmender Objekthelligkeit des zugehörigen Abschnittes größer, so dass der WDATA-Wert mit abnehmender Objekthelligkeit des zuge­ ordneten Abschnittes kleiner wird.
Anschließend wird in Schritt S215 nochmals der A/D-Wandler 21b betätigt, um mit der A/D-Wandlung des nachfolgenden Pixelsignals zu beginnen, und in Schritt S217 die logarithmische 4EV-Transformation durchgeführt, um ein i-tes 4EV- Transformationsdatum durch 4EV-Wandlung des i-ten WDATA-Wertes zu erhal­ ten. Dann wird in Schritt S219 die Variable i um 1 erhöht, und der Steuerablauf wartet in Schritt S221, bis festgestellt wird, dass die in Schritt S215 gestartete A/D-Wandlung vollendet ist.
Wird in Schritt S221 festgestellt, dass die A/D-Wandlung vollendet ist, so wird in Schritt S223 ermittelt, ob die Variable i die Gesamtzahl der fotoelektrischen Wandlerelemente Liniensensoren 36b erreicht hat.
Wird in Schritt S223 festgestellt, dass die Variable i kleiner als die Gesamtzahl der fotoelektrischen Wandlerelemente des Liniensensors 36b ist, so wird der Wert AF_AD[i] in Schritt S225 mit den in Schritt S221 erhaltenen digitalen Pixeldaten überschrieben, und es werden die neuen Daten in dem RAM 21a gespeichert. Anschließend wird in Schritt S227 ermittelt, ob der überschriebene Wert AF_AD[i] kleiner als der A/D-gewandelte Wert der Referenzspannung Vref ist. Stellt man in Schritt S227 fest, dass der überschriebene Wert AF_AD[i] kleiner als der A/D- gewandelte Wert der Referenzspannung Vref ist, so wird in Schritt S229 der Wert, den man durch Subtrahieren des Wertes AF_AD[i] von dem A/D-gewandelten Wert der Referenzspannung Vref erhält, als WDATA-Wert in dem RAM 21a gespeichert. Wird in Schritt S227 festgestellt, dass der überschriebene Wert AF_AD[i] gleich oder größer als der Referenzspannungswert Vref ist, so wird in Schritt S231 der Wert 0 in dem RAM 21a als WDATA-Wert gespeichert, und der Steuerablauf springt zu Schritt S215 zurück.
Wird dagegen in Schritt S223 festgestellt, dass die Variable i die Gesamtzahl der fotoelektrischen Wandlerelemente der Liniensensoren 36b erreicht hat, so springt der Steuerablauf zurück.
Im Folgenden wird unter Bezugnahme auf das Flussdiagramm nach Fig. 11 sowie auf Fig. 6C die logarithmische 4EV-Transformation erläutert, die in Schritt S217 des in Fig. 10 gezeigten Prozesses durchgeführt wird.
Dieser Prozess stellt einen Transformationsprozess dar, der dazu dient, 8-Bit- 4EV-Transformationsdaten aus den digitalen Pixeldaten innerhalb des Referenz- Objekthelligkeitsbereichs zu erhalten, in dem der Differenzwert ausgehend von der Referenz 0EV (maximale Objekthelligkeit) zwischen Δ0EV und Δ4EV liegt.
Wird in Schritt S301 festgestellt, dass der Wert WDATA gleich oder größer als 512 ist, so wird in Schritt S303 ein Wert WDATA' nach der Formel 192 + (WDATA - 512)/8 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren dieses Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ0EV und Δ1EV wird so gleich 64 Schritte.
Wird in Schritt S301 ermittelt, dass der Wert WDATA kleiner als 512 ist, so fährt der Steuerablauf mit Schritt S305 fort. Wird in Schritt S305 festgestellt, dass der Wert WDATA gleich oder größer als 256 ist, so wird in Schritt S307 der Wert WDATA' nach der Formel 128 + (WDATA - 256)/4 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA von dem Wert 255 erhält, in dem Speicher 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsver­ mögen zwischen Δ1EV und Δ2EV nimmt so 64 Schritte an.
Wird in Schritt S305 festgestellt, dass der Wert WDATA kleiner als 256 ist, so fährt der Steuerablauf mit Schritt S309 fort. Wird anschließend in Schritt S309 festgestellt, dass der Wert WDATA gleich oder größer als 128 ist, so wird in Schritt S311 der Wert WDATA' nach der Formel 64 + (WDATA - 128)/2 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ2EV und Δ3EV nimmt so 64 Schritte an.
Wird in Schritt S309 festgestellt, dass der Wert WDATA kleiner als 128 ist, so fährt der Steuerablauf mit Schritt S313 fort. Wird anschließend in Schritt S313 festgestellt, dass der Werte WDATA gleich oder größer als 64 ist, so wird in Schritt S315 der Wert WDATA' nach der Formel WDATA - 64 ermittelt und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Das Auflö­ sungsvermögen zwischen Δ3EV und Δ4EV nimmt so 64 Schritte an.
Wird in Schritt S313 festgestellt, dass der Wert WDATA kleiner als 64 ist, so wird in Schritt S317 der Wert 0 in dem Speicher 21a als Wert WDATA' gespeichert und in Schritt S319 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_4EV[i] gespeichert. Die 4EV- Transformationsdaten in dem Bereich geringer Objekthelligkeit, in dem die Diffe­ renz der Objekthelligkeit ausgehend von der Referenz 0EV gleich oder größer als Δ4EV ist, sind so stets gleich 255.
Gemäß der vorstehend erläuterten logarithmischen 4EV-Transformation können die 4EV-Transformationsdaten bereitgestellt werden, in denen das Auflösungs­ vermögen zwischen Δ0EV und Δ4EV im Wesentlichen gleichwertig ist.
Im Folgenden wird unter Bezugnahme auf das in Fig. 12 gezeigte Flussdiagramm sowie auf die Fig. 7A, 7B und 7D die logarithmische 2EV-Transformation be­ schrieben, die in Schritt S129 des in den Fig. 9A und 9B gezeigten Entfernungs­ messprozesses durchgeführt wird.
Die logarithmische 2EV-Transformation wird für die Entfernungsmesszone durch­ geführt, für die in Schritt S117 ein geringer Kontrast festgestellt worden ist. Diese logarithmische 2EV-Transformation dient dazu, die 2EV-Transformationsdaten zu ermitteln, in denen man in einem vorbestimmten, die mittlere relative Objekthellig­ keit enthaltenden Objekthelligkeitsbereich in der Entfernungsmesszone das ge­ wünscht hohe Auflösungsvermögen erhält.
Dieser Prozess beginnt damit, dass in Schritt S401 ermittelt wird, ob ein die mittle­ re relative Objekthelligkeit darstellender Wert af_ave[j] kleiner als ein vorbe­ stimmter Wert von 2EV ist oder nicht, um so festzustellen, ob die mittlere relative Objekthelligkeit af_ave[j] in einem Bereich hoher Helligkeit oder in einem Bereich geringer Helligkeit enthalten ist. Der Bereich hoher Objekthelligkeit entspricht dem in den Fig. 6A, 6B und 6C gezeigten Bereich der Werte für WDATA, der gleich oder größer als 256 und kleiner als 1023 ist, d. h. gemäß den Fig. 7A und 7B zwischen Δ0EV und Δ2EV liegt. Der Bereich geringer Objekthelligkeit entspricht dem Wert der Werte für WDATA, der gleich oder größer als 64 und kleiner als 256 ist, d. h. gemäß den Fig. 7A und 7D zwischen Δ2EV und Δ4EV liegt.
Wird in Schritt S401 festgestellt, dass die mittlere relative Objekthelligkeit af_ave[j] kleiner als der Wert 2EV ist, fährt der Steuerablauf mit Schritt S403 fort, um den Prozess ausgehend von Schritt S403 bis Schritt S417 auszuführen. Da dies der Fall geringer Objekthelligkeit und geringen Kontrastes ist, wird die logarithmische 2EV-Transformation durchgeführt, so dass man in dem Bereich geringer Objekt­ helligkeit ein hohes Auflösungsvermögen erhält.
Wird in Schritt S403 festgestellt, dass der Wert WDATA gleich oder größer als 256 ist, so wird in Schritt S405 der Wert 255 in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird in Schritt S417 ein Wert 0, den man durch Sub­ trahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Die 2EV-Transformationsdaten in dem Bereich hoher Objekthelligkeit zwischen Δ0 und Δ2EV werden so stets in den Wert 0 gewandelt.
Wird in Schritt S403 festgestellt, dass der Wert WDATA kleiner als 256 ist, so fährt der Steuerablauf mit Schritt S407 fort. Wird in Schritt S407 festgestellt, dass der Wert WDATA gleich oder größer als 128 ist, so wird anschließend in Schritt S409 der Wert WDATA in dem RAM 21a als Wert WDATA' gespeichert. An­ schließend wird in Schritt S417 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespei­ chert. Das Auflösungsvermögen zwischen Δ2EV und Δ3EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV-Transformationsdaten.
Wird in Schritt S407 festgestellt, dass der Wert WDATA kleiner als der Wert 128 ist, so fährt der Steuerablauf mit Schritt S411 fort. Wird in Schritt S411 festgestellt, dass der Wert WDATA gleich oder größer als 64 ist, so wird in Schritt S413 der Wert, den man nach der Formel 2 × (WDATA - 64) erhält, in dem Speicher 21a als Wert WDATA' gespeichert. Dann wird in Schritt S417 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Das Auflösungsvermögen zwischen Δ3EV und Δ4EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV- Transformationsdaten.
Wird in Schritt S411 festgestellt, dass der Wert WDATA kleiner als 64 ist, so wird in Schritt S415 der Wert 0 in dem RAM 21a als Wert WDATA' gespeichert. An­ schließend wird in Schritt S417 ein Wert, den man durch Subtrahieren des Wertes WDATA' (0) von dem Wert 255 erhält und der damit gleich 255 ist, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Die 2EV-Transformationsdaten in dem Bereich, in dem die Differenz der Objekthelligkeit ausgehend von dem Referenz­ wert 0EV größer als Δ4EV ist, werden so stets in den Wert 0 gewandelt.
Durch den eben erläuterten Prozess der logarithmischen 2EV-Transformation erhält man in dem die mittlere relative Objekthelligkeit af_ave[j] enthaltenden Bereich geringer Objekthelligkeit das gewünscht hohe Auflösungsvermögen. Es ist deshalb möglich, selbst dann 2EV-Transformationsdaten mit numerisch hohem Kontrast gemäß Fig. 7D zu erhalten, wenn die Entfernungsmesszone R sowohl geringe Objekthelligkeit als auch geringen Kontrast hat (vgl. Fig. 7A).
Wird in Schritt S401 festgestellt, dass die mittlere relative Objekthelligkeit af_ave[j] gleich oder größer als der Wert 2EV ist, so fährt der Steuerablauf mit Schritt S419 fort, um den Prozess ausgehend von Schritt S419 bis zu Schritt S429 durchzufüh­ ren. Da dies der Fall hoher Objekthelligkeit und geringen Kontrastes ist, wird die logarithmische 2EV-Transformation durchgeführt, so dass man das hohe Auflö­ sungsvermögen in dem Bereich hoher Objekthelligkeit erhält.
Wird in Schritt S419 festgestellt, dass der Wert WDATA gleich oder größer als 512 ist, so wird in Schritt S421 ein Wert, den man nach der Formel 128 + (WDATA - 512)/4 erhält, in dem RAM 21a als Wert WDATA' gespeichert. An­ schließend wird ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in Schritt S429 in dem RAM 21a als Wert AF_2EV[i] gespei­ chert. Das Auflösungsvermögen zwischen Δ0EV und Δ1EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das der 4EV-Transformationsdaten.
Wird in Schritt S419 festgestellt, dass der Wert WDATA kleiner als 512 ist, so fährt der Steuerablauf mit Schritt S423 fort. Wird in Schritt S423 festgestellt, dass der Wert WDATA gleich oder größer als 256 ist, so wird anschließend in Schritt S425 ein Wert, den man nach der Formel (WDATA - 256)/2 erhält, in dem RAM 21a als Wert WDATA' gespeichert. Anschließend wird in Schritt S429 ein Wert, den man durch Subtrahieren des Wertes WDATA' von dem Wert 255 erhält, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Das Auflösungsvermögen zwi­ schen Δ1EV und Δ2EV nimmt so 128 Schritte an und ist damit doppelt so groß wie das dler 4EV-Transformationsdaten.
Wird in Schritt S423 festgestellt, dass der Wert WDATA kleiner als 256 ist, so wird in Schritt S427 der Wert 0 in dem RAM 21a als Wert WDATA' gespeichert. An­ schließend wird in Schritt S429 ein Wert, den man durch Subtrahieren des Wertes WDATA' (0) von dem Wert 255 erhält und der demnach 255 beträgt, in dem RAM 21a als Wert AF_2EV[i] gespeichert. Die 2EV-Transformationsdaten in dem Bereich geringer Objekthelligkeit, dessen Differenz der Objekthelligkeit ausgehend von dem Referenzwert 0EV größer als 2EV ist, werden so stets in den Wert 0 gewandelt.
Durch den eben erläuterten Prozess der logarithmischen 2EV-Transformation erhält man das hohe Auflösungsvermögen in dem die mittlere relative Objekthel­ ligkeit af_ave[j] enthaltenden Bereich hoher Objekthelligkeit. Es ist so möglich, 2EV-Transformationsdaten mit numerisch hohem Kontrast gemäß Fig. 7B zu erhalten, selbst wenn die Entfernungsmesszone L hohe Objekthelligkeit und geringen Kontrast hat (vgl. Fig. 7A).
Wie oben erläutert, wird der Objekthelligkeitsbereich, in dem die logarithmische Transformation an den digitalen Pixeldaten vorgenommen wird, entsprechend dem Kontrastzustand der Entfernungsmesszone geändert. Ist der Kontrast der Entfernungsmesszone gering, so wird in dem vorbestimmten, die mittlere relative Objekthelligkeit enthaltenden Objekthelligkeitsbereich die logarithmische 2EV- Transformation durchgeführt, wodurch es möglich ist, 2EV-Transformationsdaten mit numerisch hohem Kontrast zu erhalten. Da die Entfernungsberechnung auf Grundlage dieser 2EV-Transformationsdaten durchgeführt wird, kann man einen genau berechneten Entfernungswert selbst bei einem Objekt mit geringem Kon­ trast halten, und zwar ungeachtet dessen, ob das Objekt geringe oder hohe Helligkeit hat. Es ist also nicht länger erforderlich, die Entfernungsmessung unter Verwendung verschiedener Transformationsdaten mit unterschiedlichen logarith­ mischen Transformationsbereichen zu wiederholen, wodurch die Entfernungsbe­ rechnung beschleunigt werden kann.
In dem erläuterten Ausführungsbeispiel erhält man die mittlere relative Objekthel­ ligkeit für jede Entfernungsmesszone vor der Feststellung, ob der Kontrast gering ist oder nicht. Es ist jedoch ebenso möglich, die mittlere relative Objekthelligkeit nur für diejenige Entfernungsmesszone zu ermitteln, deren Kontrast als gering eingestuft worden ist.
In dem erläuterten Ausführungsbeispiel erhält man ein höheres Auflösungsvermö­ gen, da eine Änderung des logarithmischen Transformationsbereichs auf die logarithmische 2EV-Transformation, die schmäler als die logarithmische 4EV- Transformation ist, zusätzlich zur Änderung der Objekthelligkeitszone digitaler Pixeldaten möglich ist, an denen die logarithmische Transformation vorgenommen wird.
Natürlich ist es auch möglich, den logarithmischen Transformationsbereich unver­ ändert zu lassen.
Das erläuterte Ausführungsbeispiel findet in einer passiven Entfernungsmessein­ richtung Anwendung, die in einer AF-Objektivverschlusskamera vorgesehen ist. Das erläuterte Ausführungsbeispiel kann jedoch z. B. auch auf eine passive Ent­ fernungsmesseinrichtung angewendet werden, die in einer SLR-AF-Kamera vorgesehen ist.
Die Erfindung ermöglicht es, Transformationsdaten zu erhalten, die selbst dann numerisch hohen Kontrast haben, wenn in der Entfernungsmesszone der Kontrast gering und die Objekthelligkeit entweder gering oder hoch ist. Ferner ist es mög­ lich, den Entfernungswert mit ausgezeichneter Genauigkeit zu berechnen. Dies führt zu einer Steigerung der Genauigkeit der Entfernungsmessung sowie zu deren Beschleunigung.

Claims (7)

1. Entfernungsmesseinrichtung für eine Kamera mit mehreren Entfernungs­ messzonen, mit
einer Lichtempfangsvorrichtung mit mehreren Lichtsensoren, die jeweils Licht von einem Objekt in jeder der Entfernungsmesszonen empfangen und ein der empfangenen Lichtmenge entsprechendes analoges Pixelsignal aus­ geben,
einem Analog/Digital-Wandler, der die analogen Pixelsignale jeweils in digitale Pixeldaten wandelt,
einer Transformationsvorrichtung, die an den digitalen Pixeldaten in einem vorbestimmten logarithmischen Transformationsbereich eine logarithmische Transformation vornimmt und so erste Transformationsdaten erzeugt,
einer Ermittlungsvorrichtung, die den Kontrastzustand jeder Entfernungs­ messzone auf Grundlage der auf die jeweilige Entfernungsmesszone bezo­ genen ersten Transformationsdaten ermittelt,
einer Rechenvorrichtung, die auf Grundlage der ersten Transformationsda­ ten eine mittlere relative Objekthelligkeit in jeder Entfernungsmesszone be­ rechnet, und
einer Steuervorrichtung, die zweite Transformationsdaten erzeugt, indem sie über die Transformationsvorrichtung an den digitalen Pixeldaten in der Ent­ fernungsmesszone, die von der Ermittlungsvorrichtung als eine Zone mit ge­ ringem Kontrast eingestuft worden ist, nochmals eine logarithmische Trans­ formation vornimmt, und zwar unter Verwendung eines vorbestimmten Ob­ jekthelligkeitsbereichs, der die mittlere relative Objekthelligkeit in dieser Ent­ fernungsmesszone enthält, als logarithmischem Transformationsbereich.
2. Entfernungsmesseinrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Rechenvorrichtung weiterhin auf Grundlage der ersten Transforma­ tionsdaten in der Entfernungsmesszone, deren Kontrast von der Ermittlungs­ vorrichtung nicht als gering eingestuft worden ist, einen Entfernungswert be­ rechnet und auf Grundlage der zweiten Transformationsdaten in der Entfer­ nungsmesszone, deren Kontrast von der Ermittlungsvorrichtung als gering eingestuft worden ist, eine Entfernungsmessung durchführt.
3. Entfernungsmesseinrichtung nach Anspruch 1 oder 2, dadurch gekenn­ zeichnet, dass die Rechenvorrichtung die ersten Transformationsdaten von einem vorbestimmten Referenzwert subtrahiert und so einen gewandelten Wert ermittelt, um die mittlere relative Objekthelligkeit jeder Entfernungs­ messzone zu erhalten, indem der gewandelte Wert für die jeweilige Entfer­ nungsmesszone gemittelt wird.
4. Entfernungsmesseinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ermittlungsvorrichtung eine Differenz zwischen einem Maximalwert und einem Minimalwert der ersten Transfor­ mationsdaten in jeder Entfernungsmesszone ermittelt und feststellt, dass der Kontrast der Entfernungsmesszonen dann gering ist, wenn die genannte Differenz gleich oder kleiner als ein vorbestimmter Wert ist.
5. Entfernungsmesseinrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuervorrichtung die Transformations­ vorrichtung anweist, eine logarithmische Transformation in einem logarithmi­ schen Transformationsbereich durchzuführen, der schmäler als der vorbe­ stimmte logarithmische Transformationsbereich ist.
6. Entfernungsmesseinrichtung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch mindestens einen Speicher zum Speichern der digi­ talen Pixeldaten, der ersten Transformationsdaten und der zweiten Trans­ formationsdaten.
7. Entfernungsmesseinrichtung für eine Kamera mit mehreren Entfernungs­ messzonen, mit
einer Lichtempfangsvorrichtung mit mehreren Lichtsensoren, die jeweils Licht von einem Objekt in jeder der Entfernungsmesszonen empfangen und ein der empfangenen Lichtmenge entsprechendes analoges Pixelsignal aus­ geben,
einem Analog/Digital-Wandler, der die analogen Pixelsignale jeweils in digitale Pixeldaten wandelt,
einer Transformationsvorrichtung, die an den digitalen Pixeldaten in einem vorbestimmten logarithmischen Transformationsbereich eine logarithmische Transformation vornimmt und so erste Transformationsdaten erzeugt,
einer Ermittlungsvorrichtung, die den Kontrastzustand jeder Entfernungs­ messzone auf Grundlage der auf die jeweilige Entfernungsmesszone bezo­ genen ersten Transformationsdaten ermittelt,
einer Rechenvorrichtung, die auf Grundlage der ersten Transformationsda­ ten eine mittlere relative Objekthelligkeit derjenigen Entfernungsmesszone berechnet, deren Kontrast von der Ermittlungsvorrichtung als gering ermittelt worden ist, und
einer Steuervorrichtung, die zweite Transformationsdaten erzeugt, indem sie über die Transformationsvorrichtung an den digitalen Pixeldaten in der vor­ stehend genannten Entfernungsmesszone nochmals eine logarithmische Transformation vornimmt, und zwar unter Verwendung eines vorbestimmten Objekthelligkeitsbereichs, der die mittlere relative Objekthelligkeit in dieser Entfernungsmesszone enthält, als logarithmischem Transformationsbereich.
DE10140343A 2000-08-17 2001-08-17 Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation Expired - Fee Related DE10140343B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-247764 2000-08-17
JP2000247764A JP3645800B2 (ja) 2000-08-17 2000-08-17 測距装置

Publications (2)

Publication Number Publication Date
DE10140343A1 true DE10140343A1 (de) 2002-02-28
DE10140343B4 DE10140343B4 (de) 2013-12-05

Family

ID=18737792

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10140343A Expired - Fee Related DE10140343B4 (de) 2000-08-17 2001-08-17 Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation

Country Status (3)

Country Link
US (1) US6597867B2 (de)
JP (1) JP3645800B2 (de)
DE (1) DE10140343B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434231B2 (ja) * 2009-04-24 2014-03-05 ソニー株式会社 画像情報処理装置、撮像装置、画像情報処理方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1437161A (de) * 1973-02-12 1976-05-26
US4047187A (en) * 1974-04-01 1977-09-06 Canon Kabushiki Kaisha System for exposure measurement and/or focus detection by means of image senser
US4584704A (en) * 1984-03-01 1986-04-22 Bran Ferren Spatial imaging system
US5027148A (en) * 1990-08-13 1991-06-25 Eastman Kodak Company Autofocus chip with reference level determination circuit
US5329111A (en) * 1991-06-27 1994-07-12 Omron Corporation Image reader with adjustable contrast range
JP3026030B2 (ja) * 1991-07-13 2000-03-27 株式会社リコー カメラの測距装置
JP3425823B2 (ja) * 1995-04-28 2003-07-14 富士写真光機株式会社 自動焦点調節装置
JP4279919B2 (ja) * 1998-09-03 2009-06-17 Hoya株式会社 焦点検出装置

Also Published As

Publication number Publication date
JP2002062468A (ja) 2002-02-28
US6597867B2 (en) 2003-07-22
DE10140343B4 (de) 2013-12-05
JP3645800B2 (ja) 2005-05-11
US20020021896A1 (en) 2002-02-21

Similar Documents

Publication Publication Date Title
DE102004017536B4 (de) System zur automatischen Schärfeneinstellung
DE2651002A1 (de) Kamerasystem
DE3637742C2 (de)
DE69125863T2 (de) Kamera mit Display im Bereich des Suchers
DE69838114T2 (de) Optische Vorrichtung mit einem Fokusjustiergerät und Fokussierungssteuerschaltung
DE4216904A1 (de) Objektivstellungsdetektoreinrichtung und kamerasystem mit einer solchen
DE2514230B2 (de) Kamera mit lichtelektrischem Wandler zur Ermittlung des Scharfeinstellzustands und zur Messung der Helligkeit eines aufzunehmenden Objekts
DE4340729A1 (de) Kompaktkamera mit automatischen, brennweitenabhängigen Belichtungseinstellungen
DE2551070A1 (de) Verfahren zur ermittlung der schaerfe einer objekt-abbildung
DE2735185A1 (de) Belichtungsmesser
DE3922672C2 (de) Verfahren zum Ermitteln eines von der Objekthelligkeit abhängigen Belichtungssteuerwertes für die Belichtungssteuerung einer Kamera
DE10132624A1 (de) Mehrpunkt-Autofokussystem
DE3437126C2 (de) Einrichtung zum fotografischen Reproduzieren einer Vorlage
DE3141937C2 (de)
DE3800530C2 (de)
DE3938650A1 (de) Kamera mit waehlbaren funktionen
DE2203506B2 (de) Schaltungsanordnung zur Lichtmessung für eine Einrichtung zur automatischen Belichtungszeitsteuerung in einäugigen Spiegelreflexkameras
DE4328277C2 (de) Kamera mit einer Sehachsen-Detektorvorrichtung
DE69521928T2 (de) Photoapparat, fähig zur Aufzeichung von Informationen, die sich auf die Herstellung photographischer Abzüge beziehen
DE10140343B4 (de) Entfernungsmesseinrichtung mit einer zweistufigen logarithmischen Transformation
DE19946448B4 (de) Entfernungsmeßeinrichtung
DE3934767C2 (de) Autofokus-Verfahren zur Scharfeinstellung eines Kameraobjektivs und Kamera mit einer Autofokus-Einrichtung
DE4014887C2 (de) Entfernungsmessungseinrichtung
US6470150B2 (en) Distance measuring apparatus
DE4420165A1 (de) Kamera mit vergrößertem Makro-photographischem Bereich und Steuerverfahren dafür

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

R082 Change of representative

Representative=s name: SCHAUMBURG, THOENES, THURN, LANDSKRON, ECKERT, DE

R081 Change of applicant/patentee

Owner name: PENTAX RICOH IMAGING COMPANY, LTD., JP

Free format text: FORMER OWNER: HOYA CORP., TOKYO, JP

Effective date: 20120529

R082 Change of representative

Representative=s name: PATENTANWAELTE SCHAUMBURG, THOENES, THURN, LAN, DE

Effective date: 20120529

R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0007340000

Ipc: G02B0007280000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0007340000

Ipc: G02B0007280000

Effective date: 20130731

R020 Patent grant now final

Effective date: 20140306

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20150303