DE19730976C2 - Einrichtung zum Scharfstellen des Objektivs einer Kamera - Google Patents
Einrichtung zum Scharfstellen des Objektivs einer KameraInfo
- Publication number
- DE19730976C2 DE19730976C2 DE19730976A DE19730976A DE19730976C2 DE 19730976 C2 DE19730976 C2 DE 19730976C2 DE 19730976 A DE19730976 A DE 19730976A DE 19730976 A DE19730976 A DE 19730976A DE 19730976 C2 DE19730976 C2 DE 19730976C2
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- integration
- monitor
- arrangement
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
Description
Die Erfindung betrifft eine Einrichtung zum Scharfstellen des
Objektivs einer Kamera nach dem Oberbegriff des Patentan
spruchs 1.
Bei einer passiven Autofokuseinrichtung für eine einäugige
Spiegelreflexkamera wird das in ein fotografisches Objektiv
eintretende Licht mit einer Kondensorlinse kondensiert und
mit einer Trennlinse geteilt, so daß die abgezweigten Strah
len auf zwei Aufnahmebereiche einer Anordnung lichtaufnehmen
der Elemente fallen und dort Bilder erzeugen. Danach wird der
Abstand der auf den Lichtaufnahmebereichen erzeugten Bilder
aus den Integrationswerten erfaßt, die die Anordnung abgibt.
Ein Defokusbetrag ergibt sich aus dem Abstand der Objektbil
der. Die Autofokuseinrichtung bewegt eine Fokussierlinsen
gruppe in dem Objektiv derart, daß der Defokusbetrag Null
wird, d. h. der Abstand der Objektbilder auf den Lichtaufnah
mebereichen verschwindet.
Bei einer passiven Autofokuseinrichtung für eine Objektivver
schlußkamera oder eine Kompaktkamera wird ein Objektbild auf
zwei Lichtaufnahmeelementanordnungen mit zwei Abbildungslin
sen über ein fotografisches Objektiv erzeugt. Der Abstand der
Objektbilder auf der Lichtaufnahmeelementanordnung wird aus
den Integrationswerten der Ausgangssignale der Lichtaufnah
meelementanordnungen erfaßt. Die Objektentfernung wird nach
dem Dreiecksprinzip aus der Basislänge zweier Abbildungslin
sen und deren F-Zahl ermittelt. Die Autofokuseinrichtung be
wegt eine Fokussierlinsengruppe im Objektiv abhängig von der
Objektentfernung. Ein CCD-Liniensensor oder ein MOS-Linien
sensor kann als Lichtaufnahmeelementanordnung eingesetzt wer
den.
Insbesondere bei der Autofokuseinrichtung einer Objektivver
schlußkamera wird die Objektentfernung durch Dreiecksmessung
erfaßt, und daher wird die Meßgenauigkeit umso höher, je grö
ßer die Basislänge, also der Abstand zwischen den Abbildungs
linsen ist. Da diese eine feste Brennweite haben, wird das
auf der Lichtaufnahmeelementanordnung erzeugte Objektbild ab
hängig von der Objektentfernung gedämpft. Dadurch verschlech
tert sich die Meßgenauigkeit der Position des Objektbildes.
Um einen Meßfehler zu reduzieren, sollte der Abstand zwischen
den beiden Lichtaufnahmeelementanordnungen möglichst groß
sein.
Bei einer einäugigen Spiegelreflexkamera erfolgt die Positi
onseinstellung der Fokussierlinse durch wiederholte Integra
tion des CCD-Liniensensors zur Minimierung des Defokusbetra
ges. Daher erhält man eine hohe Meßgenauigkeit ohne Vergröße
rung des Abstandes zwischen den Objektbildern, verglichen mit
der Objektivverschlußkamera. Ferner muß bei einer einäugigen
Spiegelreflexkamera, bei der eine Autofokuseinheit mit Kon
densorlinse, Trennlinse, CCD-Liniensensor usw. im unteren
Teil des Spiegelkastens angeordnet ist, nicht nur die Autofo
kuseinrichtung miniaturisiert sein, sondern auch die Teilung
der Lichtaufnahmeelemente der CCD-Anordnung sowie deren Größe
muß gering sein.
Bei einer Autofokuseinrichtung mit CCD-Liniensensor wird die
Integrationszeit der Lichtaufnahmeelemente durch das Aus
gangssignal eines Monitors nahe der Lichtaufnahmeelementan
ordnung gesteuert, um einen Überschuß integrierter elektri
scher Ladungen in den Lichtaufnahmeelementen zu verhindern,
die das Objektlicht empfangen. Um den Defokusbetrag zu erfas
sen, werden zwei Objektbilder auf einer Lichtaufnahmeelemen
tanordnung erzeugt und ihr Abstand ausgewertet. Daher muß ein
Monitorsensor nur den halben Lichtaufnahmebereich der Anord
nung überwachen. Bei einer Objektivverschlußkamera, in der
der Abstand der Objektbilder auf den gegenseitig beabstande
ten Lichtaufnahmeelementanordnungen gemessen wird, um die Ob
jektentfernung zu erfassen, muß der Monitorsensor weitgehend
den gesamten Lichtaufnahmebereich mindestens einer der Licht
aufnahmeelementanordnungen überwachen.
Daher mußten bisher unterschiedliche Autofokuseinrichtungen
mit getrennten optischen Systemen und Lichtaufnahmeelementan
ordnungen (Sensoranordnungen) für die einäugige Spiegelre
flexkamera und auch für die Objektivverschlußkamera herge
stellt werden.
Zum Stand der Technik wird auf die DE 33 29 603 A1 verwiesen,
aus der eine Fokussiereinrichtung bekannt ist, bei der zwei
äußere und eine mittlere Sensoranordnung aus fotoelektrischen
Wandlerelementen für die Fokussierung herangezogen werden.
Die Sensoranordnungen liegen auf einer Linie und nehmen glei
che Objektbilder auf. Der Abstand zweier Objektbilder auf den
Sensoranordnungen ist ein Maß für den Defokusbetrag des Ob
jektivs. Diese Fokussiereinrichtung ermittelt den Defokusbe
trag nach dem Korrelationsverfahren. Eine Fokussiereinrich
tung, die nach dem Triangulationsverfahren arbeitet, ist aus
der DE 34 28 974 C2 bekannt. Auch diese Einrichtung hat meh
rere auf einer Linie liegende Sensoranordnungen zur Aufnahme
von gleichen Objektbildern. Ferner wird auf die DE 29 36 536 C2
hingewiesen, aus der die Verwendung von Monitorsensoren
zur Steuerung der Integrationszeit der Sensoranordnungen be
kannt ist.
Es ist Aufgabe der Erfindung, eine Einrichtung zum Scharf
stellen des Objektivs einer Kamera anzugeben, die bei gleich
artigem Aufbau ihrer Sensoranordnungen in einäugigen Spiegel
reflexkameras und in Objektivverschlußkameras eingesetzt wer
den kann.
Die Erfindung löst diese Aufgabe durch die Merkmale des Pa
tentanspruchs 1. Vorteilhafte Weiterbildungen sind Gegenstand
der Unteransprüche.
Die Erfindung basiert auf einem Mehrfach-Fokuserfassungssy
stem in einer einäugigen Spiegelreflexkamera, bei dem mehrere
zueinander beabstandete Zonen gemessen werden. Ein optisches
System für ein solches Mehrfach-Fokuserfassungssystem ist
z. B. durch die JP-A-7-72380 bekannt. Bei diesem optischen Sy
stem können die Lichtaufnahmeelementanordnungen auf einer ge
raden Linie liegen.
Durch die Erfindung ist es möglich, die Fokussierungen für
mehrere zueinander beabstandete Objekte in einer einäugigen
Spiegelreflexkamera zu erfassen und die Meßgenauigkeit durch
ein Paar weit auseinanderliegender Lichtaufnahmevorrichtungen
(Sensoranordnungen) in einer einäugigen Spiegelreflexkamera
zu erhöhen.
Die erfindungsgemäße Einrichtung kann also bei einäugigen
Spiegelreflexkameras und bei Objektivverschlußkameras einge
setzt werden, indem nur die Einrichtung gewechselt wird.
Eine geeignete Integrationszeit kann durch Umschalten der
Lichtaufnahmeabschnitte der Monitoranordnung erhalten werden,
wodurch sich eine sehr genaue Messung ergibt.
Die Erfindung wird im folgenden an Hand der Zeichnungen näher
erläutert. Darin zeigen:
Fig. 1 das Blockdiagramm der wichtigsten Komponenten einer
Autofokuseinrichtung als Ausführungsbeispiel,
Fig. 2 das Blockdiagramm der Steuerschaltung im Steuersy
stem einer Kamera mit Autofokuseinrichtung,
Fig. 3 einen Liniensensor in der in Fig. 1 gezeigten Auto
fokuseinrichtung,
Fig. 4 das Zeitdiagramm einer seriellen Kommunikation zwi
schen CPU und Autofokuseinrichtung bei einer Kamera
nach Fig. 2,
Fig. 5 die Organisation von Daten, die über die serielle
Kommunikation übertragen werden, in einem Register
eines Autofokus-Sensors,
Fig. 6 das Diagramm des Zusammenhangs des Dateninhalts mit
einem Sensor, der bei dem ersten Ausführungsbei
spiel verwendet wird,
Fig. 7A
und 7B schematische Darstellungen der Lichtaufnahmeele
mentanordnung eines Autofokus-Sensors für eine ein
äugige Spiegelreflexkamera und eine Objektivver
schlußkamera als erstes Ausführungsbeispiel,
Fig. 8 das Diagramm des Zusammenhangs des Dateninhalts mit
einem bei einem zweiten Ausführungsbeispiel zu ver
wendenden Sensor,
Fig. 9A
und 9B schematische Darstellungen der Lichtaufnahmeele
mentanordnung eines Autofokus-Sensors und eines Mo
nitor-Sensors bei einer einäugigen Spiegelreflexka
mera bzw. einer Objektivverschlußkamera als zweites
Ausführungsbeispiel,
Fig. 10 das Diagramm des Zusammenhangs des Dateninhalts mit
einem bei einem dritten Ausführungsbeispiel zu ver
wendenden Sensor,
Fig. 11A
und 11B schematische Darstellungen der Lichtaufnahmeele
mentanordnung eines Autofokus-Sensors, eines Moni
tor-Sensors und einer Integrationssteuerung für ei
ne einäugige Spiegelreflexkamera bzw. eine Objek
tivverschlußkamera bei einem dritten Ausführungs
beispiel,
Fig. 12 die schematische Darstellung des optischen Systems
eines Autofokus-Sensors bei einer einäugigen Spie
gelreflexkamera, und
Fig. 13 die schematische Darstellung des optischen Systems
eines Autofokus-Sensors bei einer Objektivver
schlußkamera.
Fig. 1 zeigt eine passive Autofokuseinrichtung (AF-Sensor
11), auf die die Erfindung angewendet wird. Fig. 2 zeigt das
Blockdiagramm der Hauptschaltung bei Einsatz des AF-Sensors
11 in einer Kamera, Fig. 3 zeigt einen Liniensensor in dem
AF-Sensor.
Der AF-Sensor 11 besteht aus drei zueinander beabstandeten
Lichtaufnahmevorrichtungen in Form von Liniensensoren 13A,
13B, 13C, die längs einer Linie angeordnet sind, Speicherab
schnitten 15A, 15B, 15C neben den Liniensensoren 13A, 13B,
13C und einem Übertragungs-CCD-Schieberegister 17 neben den
Speicherabschnitten 15A, 15B, 15C. Die Liniensensoren 13A,
13B, 13C sind Fotodiodenanordnungen, die jeweils Fotodioden
(Pixel) mit vorbestimmtem gegenseitigem Abstand zueinander
und ausgerichtet längs einer Linie enthalten, Objektlicht
aufnehmen und es in ein elektrisches Signal umsetzen. Die Li
niensensoren 13A, 13B und 13C haben Ladungssammelabschnitte,
in denen die von den Fotodioden erzeugten elektrischen Ladun
gen integriert (gesammelt) werden.
Die in den Liniensensoren 13A, 13B und 13C (Ladungssammel
abschnitte) gesammelten elektrischen Ladungen werden auf die
entsprechenden Speicherabschnitte 15A, 15B und 15C übertra
gen. Diese speichern die von jedem Liniensensor übertragenen
Ladungen vorübergehend. Die auf die Speicherabschnitte 15A,
15B und 15C übertragenen Pixelsignale werden parallel auf das
CCD-Schieberegister 17 übertragen. Sie werden danach seriell
aus dem Schieberegister 17 abgegeben und durch einen Aus
gangssignalumsetzer 19 in eine Spannung umgesetzt. Sie werden
dann mit einer Ausgabeschaltung 21 verstärkt. Somit wird als
integriertes Signal für jedes Pixel ein Videosignal ausgege
ben.
Das von der Ausgabesschaltung 21 an eine CPU 41 abgegebene
Videosignal wird mit einem A/D-Wandler 43 in der CPU 41 in
digitale Pixeldaten umgesetzt und sukzessiv in einem internen
RAM 42 der CPU 41 unter einer vorbestimmten Adresse gespei
chert. Die CPU 41 liest die Pixeldaten eines vorbestimmten
Bereichs aus dem RAM 42, um die Bilddaten bei der Berechnung
der Objektentfernung zu nutzen. Beispielsweise bei einer ein
äugigen Spiegelreflexkamera wird eine Gruppe Pixeldaten in
Pixeldatengruppen für Bereichspaare 13A1, 13A2; 13B1, 13B2;
13C1 und 13C2 (Fig. 7A) geteilt. Einer der Bereiche eines je
den Paars ist ein Standardbereich, die anderen sind Referenz
bereiche. Der Abstand zwischen den in dem Standardbereich und
dem Referenzbereich erzeugten Objektbildern wird aus der in
jedem Bereich enthaltenen Pixeldatengruppe erfaßt, um den
entsprechenden Defokusbetrag zu ermitteln.
Bei einer Objektivverschlußkamera wird der mittlere Linien
sensor 13B nicht genutzt, während die äußersten Liniensenso
ren (Endsensoren) 13A und 13C genutzt werden, d. h. die Pi
xeldatengruppen der Liniensensoren 13A, 13C werden genutzt
(Fig. 7B). Die Positionen der Objektbilder auf den Liniensen
soren 13A und 13C und der Abstand zwischen den Objektbildern
werden aus den Pixeldaten der Liniensensoren 13A und 13C er
mittelt, um die Objektentfernung nach dem Dreiecksprinzip zu
berechnen.
Obwohl die in Fig. 1 gezeigten Liniensensoren einen gegensei
tigen Abstand haben, ist es auch möglich, gemäß Fig. 3 zusam
menhängende Liniensensoren zu verwenden.
Ausführungsbeispiele der Erfindung werden im folgenden deut
licher beschrieben.
Neben den Liniensensoren 13A, 13B und 13C befinden sich Moni
torsensoren 23A, 23B und 23C zur Steuerung der Integrations
zeit (Integrationsende). Sie empfangen das Licht in der Nähe
des von den Liniensensoren 13A, 13B und 13C empfangenen Ob
jektbildes jeweils mit mehreren Lichtaufnahmeelementen. Es
gibt Dunkelsensoren MD1 und MD2 auf einer Linie mit den Moni
torsensoren 23B und 23C, um Dunkelstromkomponenten der Moni
torsensoren 23A, 23B, 23C zu korrigieren.
Die Breite des Monitorsensors 23A ist ausreichend, um die ge
samte Lichtaufnahmefläche des Liniensensors 13A zu überwa
chen. Der Monitorsensor 23A ist in zehn Monitorelemente M1
bis M10 unterteilt. Die Integralausgangssignale der Monitor
elemente M1 bis M5 zur Überwachung etwa des halben Lichtauf
nahmebereichs des Liniensensors 13A werden an eine Integrati
onssteuerung 25A abgegeben. Die Integrationsausgangssignale
der Monitorelemente M6 bis M10 werden zur Überwachung der an
deren Hälfte des Lichtaufnahmebereichs des Liniensensors 13A
einer Integrationssteuerung 25B zugeführt.
Die Breite des Monitorsensors 23B reicht aus, um etwa den
halben Lichtaufnahmebereich des Liniensensors 13B zu überwa
chen. Der Monitorsensor 23B ist in fünf Monitorelemente M11
bis M15 unterteilt. Ihre Ausgangssignale werden der Integra
tionssteuerung 25B zugeführt.
Die Breite des Monitorsensors 23C reicht aus, um einen Ab
schnitt des linken Teils (Fig. 1) des Lichtaufnahmebereichs
des Liniensensors 13C zu überwachen. Der Monitorsensor 23C
ist in drei Monitorelemente M16 bis M18 unterteilt. Ihre Aus
gangssignale werden einer Integrationssteuerung 25C zuge
führt.
Die Ausgangssignale der Dunkelsensoren MD1 und MD2 werden ei
ner automatischen Verstärkungssteuerschaltung 27 (AGC) zuge
führt.
Die analoge Referenzspannung VAGC aus der CPU 41 wird nach
Umsetzen in dem D/A-Umwandler 45 der AGC-Schaltung 27 zuge
führt. Die Referenzspannung VAGC dient zur Begrenzung des Vi
deosignal-Ausgangspegels. Die AGC-Schaltung 27 korrigiert die
Referenzspannung VAGC entsprechend den Ausgangssignalen der
Monitorsensoren MD1 und MD2 und gibt sie an die Integrations
steuerung 25 weiter, in der die korrigierte Referenzspannung
mit den Ausgangsspannungen der Monitorsensoren 23A, 23B und
23C verglichen wird. Sind die Ausgangsspannungen mit der kor
rigierten Referenzspannung identisch, so werden die in den
entsprechenden Liniensensoren 13A, 13B und 13C gesammelten
elektrischen Ladungen auf die Speicherabschnitte 15A, 15B und
15C übertragen. Damit ist die Ladungssammlung (Integration)
mit den Liniensensoren 13A, 13B und 13C abgeschlossen. Er
reicht die Ausgangsspannung der Monitorsensoren 23A, 23B, 23C
die korrigierte Referenzspannung nicht, so wird die Integra
tion mit den Liniensensoren 13A, 13B, 13C zwangsweise been
det.
Die Monitorsensoren 23A, 23B, 23C, die Integrationssteuerun
gen 25A, 25B und 25C, die AGC-Schaltung 27 und die CPU 41
sind die Hauptkomponenten der Integrationssteuerung.
Der AF-Sensor 11 empfängt die 8 Bit-Daten aus der CPU 41 über
die serielle Kommunikation und führt eine diesen Daten ent
sprechende Integrationsoperation durch. Diese wird im folgen
den an Hand der Fig. 4 bis 6 erläutert.
Die Integrationsoperation des AF-Sensors 11 wird entsprechend
dem Dateninhalt (Fig. 5) gesteuert, der über die serielle
Kommunikation (Fig. 4) empfangen wird. Bei diesem Ausfüh
rungsbeispiel sendet die CPU 41 die 8 Bit-Daten über die se
rielle Kommunikation an den AF-Sensor 11. Dieser hält
(verriegelt) die Daten in dem Register 31R der Zeitsteuer
schaltung 31, so daß die Integrationsoperation entsprechend
dem Dateninhalt ausgeführt wird.
Die Liniensensoren 13A, 13B und 13C, die Speicherabschnitte
15A, 15B, 15C, die Integrationsoperation der Integrations
steuerungen 25A, 25B und 25C und die Integrationssteueropera
tion der AGC-Schaltung 27 sowie die Ladungsübertragungsopera
tion und die Ausgabeoperation des CCD-Schieberegisters 17,
der Ausgangssignalumsetzer 19 und die Ausgabeschaltung 21
werden durch die Zeitsteuerschaltung 31 gesteuert, die durch
den externen Takt ϕM betrieben wird. In Fig. 1 und 4 ist CE
das die serielle Kommunikation aktivierende Signal, SI das
serielle Dateneingabesignal, SCK der Betriebstakt für die se
rielle Kommunikation, Vs die Videoausgabe-Referenzspannung, ϕ
M der externe Referenztakt eines (nicht dargestellten) Oszil
lators und ϕAD das Zeitsteuersignal für die A/D-Umsetzung,
welches auch als Integrationsabschlußsignal dient.
Der Inhalt der Daten des Registers 31R ist in Fig. 5 darge
stellt. Das niedrigstwertige Bit D0 dient zur Unterscheidung
einer Objektivverschlußkamera (LS) von einer einäugigen Spie
gelreflexkamera (SLR); das Bit D3 ist ein Merker zur Auswahl
des Liniensensors 13C; das Bit D4 ist ein Merker zur Auswahl
des Liniensensors 13B; das Bit D5 ist ein Merker zur Auswahl
des Liniensensors 13A; das Bit D6 ist ein Merker zum zwangs
weisen Beenden der Integration; das Bit D7 ist ein Merker zum
Einleiten der Integration.
Die Ausführungsbeispiele, bei denen der AF-Sensor 11 in einer
einäugigen Spiegelreflexkamera oder einer Objektivverschluß
kamera angewendet wird, sind in Fig. 6, 7A, 7B, 12 und 13
dargestellt.
Die abhängig von der Kameraart zu verwendenden Liniensensoren
eines ersten Ausführungsbeispiels sind in einer in Fig. 6 ge
zeigten Tabelle angegeben. Die Liniensensoren für die einäu
gige Spiegelreflexkamera und für die Objektivverschlußkamera
sind in Fig. 7A und 7B jeweils mit dicken, durchgezogenen Li
nien dargestellt. Für die einäugige Spiegelreflexkamera (SLR)
wird die Integrationsoperation mit allen Liniensensoren 13A,
13B und 13C oder mit dem jeweils aus ihnen gewählten Linien
sensor ausgeführt. Für die Objektivverschlußkamera (LS) wird
die Integrationsoperation mit den beiden äußersten Liniensen
soren 13A und 13C ausgeführt.
Fig. 12 zeigt ein optisches Fokussiersystem, bei dem der AF-
Sensor 11 in einer einäugigen Spiegelreflexkamera zur Anwen
dung kommt. In dieser befindet sich eine Feldmaske 51 in ei
ner vorbestimmten Scharfstellebene, in der ein Objektbild mit
einem Objektiv erzeugt wird. Die Feldmaske 51 hat Öffnungen
51A, 51B und 51C, die jeweils einen Entfernungsmeßbereich de
finieren. In diesem Ausführungsbeispiel haben die Öffnungen
untereinander gleichen Abstand und sind rechteckig, wobei ih
re längeren Seiten auf einer Linie liegen. Die vorbestimmte
Scharfstellebene ist äquivalent einer Filmebene in der Kamera
oder der Lichtaufnahmefläche in einer Bildaufnahmevorrichtung
einer elektronischen Einzelbildkamera.
Hinter den Öffnungen 51A, 51B und 51C der Feldmaske 51 befin
den sich Kondensorlinsen 53A, 53B und 53C. Diese haben auch
die Funktion von Relaislinsen, welche das durch die Öffnungen
51A, 51B und 51C fallende Licht auf Hilfslinsen 55A, 55B und
55C leiten. Spiegel 54A1, 54A2, 54C1 und 54C2 befinden sich
zwischen den Kondensorlinsen 53A und 53C und den Hilfslinsen
55A und 55C und bringen das durch die Öffnungen 51A und 51C
fallende Objektlicht in die Nähe des durch die Öffnung 51B
fallenden Objektlichtes.
Trennlinsenpaare 57A1, 57A2; 57B1, 57B2; 57C1 und 57C2 befin
den sich hinter den Hilfslinsen 55A, 55B und 55C. Die Trenn
linsenpaare teilen das durch die Öffnungen 51A, 51B und 51C
fallende Licht und projizieren die Teilbilder auf unter
schiedliche Abschnitte der Liniensensoren 13A, 13B und 13C,
die sich in einer sekundären Bilderzeugungsebene befinden.
Diese ist eine Fläche, auf der das Bild der vorbestimmten
Bilderzeugungsfläche abgebildet wird, so daß das von dem Objektiv
erzeugte Objektbild auf der sekundären Bilderzeu
gungsebene abgebildet wird.
Wie beschrieben, sind die Kondensorlinsen 53A und 53C gegen
über der optischen Achse versetzt, und das durch die Öffnun
gen 51A und 51C fallende Objektlicht wird dem durch die Öff
nung 51B fallenden Licht durch die Spiegel 54A1, 54A2, 54C1
und 54C2 nahegebracht. Durch diese Anordnung ist es möglich,
den Abstand zwischen den Öffnungen 51A, 51B, 51C zu vergrö
ßern, ohne den Abstand zwischen den Liniensensoren 13A, 13B
und 13C zu ändern.
Wenn die Zeitsteuerschaltung 31 das Signal 1 aus dem LS/SLR-
Register über die serielle Kommunikation empfängt, wird ein
SLR-Modus eingerichtet, so daß die Liniensensoren 13A, 13B
und 13C unabhängig voneinander eine Integrationsoperation
ausführen. Die Integrationsoperation des Liniensensors 13A
wird durch die Lichtaufnahmeelemente M1 bis M3 des Monitor
sensors 23A und die Integrationssteuerung 25A gesteuert. Die
Integrationsoperation des Liniensensors 13B wird durch die
Lichtaufnahmeelemente M11 bis M15 des Monitorsensors 23B und
die Integrationssteuerung 25B gesteuert. die Integrationsope
ration des Liniensensors 13C wird durch die Lichtaufnahmeele
mente M16 bis M18 des Monitorsensors 23C und die Integrati
onssteuerung 25C gesteuert. Der Grund für die Verwendung der
Monitor-Lichtaufnahmeelemente M1 bis M3 besteht darin, eine
der Zahl und der Position der entsprechenden Lichtaufnahmee
lemente M16 bis M18 des Liniensensors 13C entsprechende An
ordnung zu realisieren.
Die Liniensensoren 13A, 13B und 13C werden wahlweise entspre
chend dem Ausgangssignal des A-B-C-Wählers der Zeitsteuer
schaltung 31 verwendet, um die Integrationsoperation auszu
führen, so daß die Ladungen der Fotodioden der gewählten Li
niensensoren 13A, 13B und 13C als Videosignale an die CPU 41
(Steuerung) ausgegeben werden. Diese berechnet den Abstand
zwischen zwei Bildern für jeden Liniensensor 13A, 13B, 13C,
um einen Defokusbetrag zu erhalten.
Ein Ausführungsbeispiel des Einsatzes des AF-Sensors 11 bei
einer Objektivverschlußkamera wird im folgenden an Hand der
Fig. 13 erläutert.
Zwei Abbildungslinsen 61 (61A und 61C) sind als optisches Fo
kuserfassungssystem vor dem linken und dem rechten Liniensen
sor 13A und 13C angeordnet. Das auf die Abbildungslinsen 61A
und 61C fallende Objektlicht wird auf die Liniensensoren 13A
und 13C oder in deren Nachbarschaft konvergiert.
Wenn die Zeitsteuerschaltung 31 das Signal 0 von dem LS/SLR-
Register über die serielle Kommunikation empfängt, wird ein
LS-Modus eingerichtet, so daß die Liniensensoren 13A und 13C
die Integration gleichzeitig wie ein einziger Liniensensor
ausführen. Die Ausgangssignale der Lichtaufnahmeelemente M1
bis M5 des Monitorsensors 23A werden der Integrationssteue
rung 25A zugeführt. Die Ausgangssignale der Lichtaufnahmeele
mente M6 bis M10 werden der Integrationssteuerung 25B zuge
führt. Die Ausgangssignale der Integrationssteuerung 25B wer
den der Integrationssteuerung 25A zugeführt. Somit werden die
Lichtaufnahmeelemente M1 bis M10 durch die Integrationssteue
rungen 25A und 25B gesteuert. Die Integrationsoperation des
Liniensensors 13C wird nicht durch die Lichtaufnahmeelemente
M16 bis M18 und die Integrationssteuerung 25C, sondern durch
die Integrationssteuerungen 25A und 25B gemeinsam mit dem Li
niensensor 13A gesteuert. Für den Liniensensor 13B gibt es
keine Integrationssteuerung.
Die Liniensensoren 13A und 13C werden wahlweise entsprechend
dem Ausgangssignal des A-B-C-Wählers der Zeitsteuerschaltung
31 zur Integration benutzt, so daß die von ihren Fotodioden
integrierten Ladungen der CPU 41 der Kamera als Videosignale
zugeführt werden. Die CPU 41 berechnet den Abstand zwischen
den Bildern auf den Liniensensoren 13A und 13C, um die Objektentfernung
durch Dreiecksberechnung entsprechend dem Ab
stand zwischen den Bildern und der Brennweite der Abbildungs
linsen 61A und 61C zu erhalten.
Bei dem in Fig. 13 gezeigten Ausführungsbeispiel sind opti
sche Elemente wie die Spiegel 54A1, 54A2, 54C1 und 54C2 aus
Fig. 12 zwischen den Abbildungslinsen 61A, 61C und den Linien
sensoren 13A und 13C angeordnet, um das durch die Abbildungs
linsen 61A und 61B fallende Objektlicht einander anzunähern,
wie es in Fig. 12 gezeigt ist. Somit ergibt sich ein großer
Abstand zwischen den Abbildungslinsen 61A und 61B ohne Ände
rung des Abstandes zwischen den Liniensensoren 13A und 13C,
wodurch die Basislänge vergrößert wird.
Daraus ergibt sich, daß der AF-Sensor 11 eine Messung der Ob
jektentfernung in drei Meßbereichen ermöglicht, die horizon
tal gegenseitig beabstandet sind, wenn der AF-Sensor 11 bei
einer einäugigen Spiegelreflexkamera eingesetzt wird. Wenn
der AF-Sensor 11 bei einer Objektivverschlußkamera eingesetzt
wird, kann die Meßgenauigkeit der Objektentfernung erhöht
werden, da zwei Liniensensoren 13A und 13C, die in Längsrich
tung beabstandet sind, für die Dreiecksrechnung verwendet
werden.
Im folgenden wird die Funktion des AF-Sensors 11 bei einer
einäugigen Spiegelreflexkamera und einer Objektivverschlußka
mera in einem zweiten Ausführungsbeispiel an Hand der Fig. 8,
9A und 9B beschrieben. Die optische Anordnung stimmt mit der
jenigen nach Fig. 12 bzw. 13 überein.
Die abhängig von der Kameraart zu verwendenden Liniensensoren
sind in der in Fig. 8 gezeigten Tabelle enthalten. Die Lini
ensensoren und die Monitorsensoren für die einäugige Spiegel
reflexkamera und die Objektivverschlußkamera sind mit dicken,
durchgezogenen Linien in Fig. 9A und 9B dargestellt. Für die
einäugige Spiegelreflexkamera (SLR) wird die Integration mit
allen drei Liniensensoren 13A, 13B und 13C oder mit einem aus
diesen ausgewählten Liniensensor ausgeführt. Die Integration
mit dem Liniensensor 13A wird durch die Lichtaufnahmeelemente
M1 bis M3 des Monitorsensors 23A gesteuert; die Integration
mit dem Liniensensor 13B wird durch alle fünf Lichtaufnahmee
lemente M11 bis M15 des Monitorsensors 23B gesteuert; die In
tegration mit dem Liniensensor 13C wird durch alle drei.
Lichtaufnahmeelemente M16 bis M18 des Monitorsensors 23C ge
steuert. Für die Objektivverschlußkamera (LS) werden die In
tegrationen mit den äußeren Liniensensoren 13A und 13C
gleichzeitig ausgeführt. Die Integrationssteuerung erfolgt
unter Verwendung der Lichtaufnahmeelemente M1 bis M10 des Mo
nitorsensors 23A, der den Liniensensor 13A überwacht.
Wenn die Zeitsteuerschaltung 31 das Signal 1 (SLR) von der
CPU 41 über die serielle Kommunikation empfängt, wird die In
tegration mit den Liniensensoren 13A, 13B und 13C ausgeführt.
Die Integration (Integrationspegel) wird durch die Lichtauf
nahmeelemente M1 bis M3 des Monitorsensors 23A, die Lichtauf
nahmeelemente M11 bis M15 des Monitorsensors 23B, die Licht
aufnahmeelemente M16 bis M18 des Monitorsensors 23C und die
Integrationssteuerungen 25A, 25B und 25C gesteuert. Die inte
grierten Ladungen der Fotodioden der Liniensensoren 13A, 13B
und 13C werden an die CPU 41 (Steuerung) als Videosignale
ausgegeben. Die CPU 41 berechnet den Abstand zwischen zwei
Bildern für jeden Liniensensor 13A, 13B und 13C, wodurch sich
ein Defokusbetrag ergibt.
Die Arbeitsweise des zweiten Ausführungsbeispiels, bei dem
der AF-Sensor 11 in einer Objektivverschlußkamera eingesetzt
wird, wird im folgenden an Hand der Fig. 9B und 13 erläutert.
Wenn die Zeitsteuerschaltung 31 das Signal 0 (LS) von der CPU
41 über die serielle Kommunikation empfängt, werden die in
Fig. 9B mit dicken, durchgezogenen Linien dargestellten Lini
ensensoren 13A und 13C zur Integration genutzt. Dabei wird
die empfangene Lichtmenge unter Verwendung der Lichtaufnah
meelemente M1 bis M10 des Monitorsensors 23A und der Integra
tionssteuerungen 25A und 25B zum Steuern der Integration
überwacht.
Die integrierten Ladungen der Fotodioden der Liniensensoren
13A und 13C, die gleichzeitig mit dem Monitorsensor 23A eine
automatische Verstärkungsregelung erfahren, werden als Video
signale an die CPU 41 ausgegeben. Diese berechnet den Abstand
zwischen den Bildern auf den Liniensensoren 13A und 13C ent
sprechend den Videosignalen, um daraus die Objektentfernung
aus den Brennweiten der Abbildungslinsen 61A und 61C und dem
Abstand zwischen den Bildern unter Anwendung des Dreiecksver
fahrens zu erhalten.
Wie aus der vorstehenden Beschreibung hervorgeht, macht der
AF-Sensor 11 eine Messung der Objektentfernung in drei Meßbe
reichen möglich, die in horizontaler Richtung beabstandet
sind, wenn er bei einer einäugigen Spiegelreflexkamera einge
setzt ist. Ist er bei einer Objektivverschlußkamera einge
setzt, kann die Meßgenauigkeit der Objektentfernung erhöht
werden, da zwei Liniensensoren 13A und 13C, die in Längsrich
tung der Liniensensoren den größten Abstand haben, für die
Dreiecksrechnung benutzt werden.
Da die Integrationszeit durch die Monitorsensoren neben den
zu verwendenden Liniensensoren gesteuert wird, wird eine
Lichtmenge entsprechend der Objekthelligkeit erhalten, die
das Bild auf den Liniensensoren hat. Insbesondere da die Li
niensensoren durch die Lichtaufnahmeelemente M1 bis M3 des
Monitorsensors 25A und durch alle Monitor-Lichtaufnahmeele
mente M1 bis M10 des Monitorsensors 25A überwacht werden,
wenn der AF-Sensor 11 bei einer einäugigen Spiegelreflexkamera
und einer Objektivverschlußkamera eingesetzt ist, ergeben
sich optimale Ausgangssignale der Liniensensoren unabhängig
von dem Fokussierverfahren.
Die Arbeitsweise des AF-Sensors 11 wird im folgenden für den
Einsatz in einer einäugigen Spiegelreflexkamera und einer Ob
jektivverschlußkamera an Hand der Fig. 10, 11A und 11B erläu
tert. Die optische Anordnung stimmt mit derjenigen nach Fig.
12 bzw. 13 überein.
Die abhängig von der Kameraart zu verwendenden Liniensensoren
des zweiten Ausführungsbeispiels sind in einer in Fig. 10 ge
zeigten Tabelle enthalten. Die Liniensensoren, die Monitor
sensoren und die Integrationssteuerungen für die einäugige
Spiegelreflexkamera und für die Objektivverschlußkamera sind
in Fig. 11A und 11B mit dicken, durchgezogenen Linien darge
stellt.
Wenn bei diesem Ausführungsbeispiel der AF-Sensor 11 in der
einäugigen Spiegelreflexkamera eingesetzt ist, wird die Inte
grationsoperation für alle drei Liniensensoren 13A, 13B und
13C oder für den aus diesen ausgewählten Liniensensor durch
geführt. Die Integrationsoperation des Liniensensors 13A wird
durch die Lichtaufnahmeelemente M1 bis M3 des Monitorsensors
23A, den Dunkelsensor MD1 und die Integrationssteuerung 25A
gesteuert; die Integrationsoperation des Liniensensors 13B
wird durch alle fünf Lichtaufnahmeelemente M11 bis M15 des
Monitorsensors 23B, den Dunkelsensor MD1 und die Integrati
onssteuerung 25B gesteuert; die Integrationsoperation des Li
niensensors 13C wird durch alle drei Lichtaufnahmeelemente
M16 bis M18 des Monitorsensors 23C, den Dunkelsensor MD2 und
die Integrationssteuerung 25C gesteuert. Bei der Objektivver
schlußkamera (LS) wird die Integrationsoperation der äußeren
Liniensensoren 13A und 13C gleichzeitig durchgeführt. Die In
tegrationssteuerung erfolgt unter Verwendung der Lichtaufnah
meelemente M1 bis M10 des Monitorsensors 23A, der den Liniensensor
13A überwacht, des Dunkelsensors MD1 und der Integra
tionssteuerungen 25A und 25B.
Die Funktion des dritten Ausführungsbeispiels, bei dem der
AF-Sensor 11 bei einer einäugigen Spiegelreflexkamera ange
wendet wird, wird im folgenden an Hand der Fig. 11A und 13
erläutert.
Wenn die Zeitsteuerschaltung 31 das Signal 1 (SLR) von der
CPU 41 über die serielle Kommunikation empfängt, wird mit den
Liniensensoren 13A, 13B und 13C integriert. Die Integrations
operation (Integrationspegel) wird durch die Lichtaufnahmee
lemente M1 bis M3 des Monitorsensors 23A, die Lichtaufnahmee
lemente M11 bis M15 des Monitorsensors 23B, die Lichtaufnah
meelemente M15 bis M18 des Monitorsensors 23C und die Inte
grationssteuerungen 25A, 25B und 25C gesteuert. Die elektri
schen Ladungen der Fotodioden der Liniensensoren 13A, 13B und
13C werden an die CPU 41 (Steuerung) als Videosignale abgege
ben. Die CPU 41 berechnet den Abstand zwischen den Bildern
für jeden Liniensensor 13A, 13B und 13C, um einen Defokusbe
trag zu erhalten.
Obwohl die Öffnungen 51A, 51B und 51C der Maske 51, die den
Meßbereich definieren, bei diesem Ausführungsbeispiel auf ei
ner Linie liegen, ist die Anordnung darauf nicht beschränkt.
Beispielsweise ist es möglich, die Öffnungen in Form eines H
anzuordnen, wenn die Liniensensoren 13A, 13B und 13C auf ei
ner Linie ausgerichtet sind.
Die Anordnung, bei der der AF-Sensor 11 bei einer Objektiv
verschlußkamera als drittes Ausführungsbeispiel eingesetzt
ist, wird im folgenden an Hand der Fig. 11B und 13 erläutert.
Zwei Abbildungslinsen 61 (61A und 61C) sind als optische Fo
kussierelemente vor den Liniensensoren 13A und 13C angeord
net. Das auf die Abbildungslinsen 61A und 61C fallende Ob
jektlicht wird auf den Liniensensor 13A, den Monitorsensor
23A und den Liniensensor 13C oder in deren Nachbarschaft mit
den Abbildungslinsen 61A und 61C konvergiert, um Objektbilder
zu erzeugen.
Wenn die Zeitsteuerschaltung 31 das Signal LS von der CPU 41
über die serielle Kommunikation empfängt, wird mit den Lini
ensensoren 13A und 13C, die in Fig. 11B mit dicken, durchge
zogenen Linien dargestellt sind, die Integration ausgeführt.
Die empfangene Lichtmenge wird unter Verwendung aller Moni
tor-Lichtaufnahmeelemente M1 bis M10 des Monitorsensors 23A
und der Integrationssteuerungen 25A und 25B überwacht, um die
Integration zu steuern.
Die integrierten Ladungen der Liniensensoren 13A und 13C, die
mit dem Monitorsensor 23A gleichzeitig AGC-gesteuert sind,
werden als Videosignale an die CPU 41 ausgegeben. Diese be
rechnet den Abstand zwischen den Bildern auf einem Paar Lini
ensensoren 13A und 13C entsprechend den Videosignalen, um die
Objektentfernung aus den Brennweiten der Abbildungslinsen 61A
und 61C und dem Abstand zwischen den Bildern unter Anwendung
des Dreieckverfahrens zu erhalten.
Daraus geht hervor, daß bei den AF-Sensoren 11 nach der Er
findung die Monitorsensoren 23A und 23C und die Integrations
steuerungen 25A und 25C gemeinsam auf die unabhängige Inte
grationssteuerung der Liniensensoren 13A, 13B und 13C und ei
nes Paars Liniensensoren 13A und 13C angewendet werden kön
nen. Ferner können die Liniensensoren, die Monitorsensoren
und die Integrationssteuerungen für eine einäugige Spiegelre
flexkamera und auch für eine Objektivverschlußkamera verwen
det werden.
Ferner ermöglicht der AF-Sensor 11 die Messung der Objektent
fernung in den drei horizontal beabstandeten Meßbereichen,
wenn er bei einer einäugigen Spiegelreflexkamera eingesetzt
ist. Wenn er bei einer Objektivverschlußkamera verwendet
wird, kann die Meßgenauigkeit der Objektentfernung erhöht
werden, da zwei Liniensensoren 13A und 13C, die den größten
Abstand in ihrer Längsrichtung haben, zur Dreiecksrechnung
benutzt werden.
Da die Integrationszeit durch die Monitorsensoren nahe den zu
verwendenden Liniensensoren gesteuert wird, wird eine Licht
menge entsprechend der Objekthelligkeit, mit der das Bild auf
den Liniensensoren erzeugt wird, erzielt. Da der Liniensensor
13A durch die Lichtaufnahmeelemente M1 bis M3 des Monitorsen
sors 25A und durch alle Lichtaufnahmeelemente M1 bis M10 des
Monitorsensors 25A überwacht wird, wenn er bei der einäugigen
Spiegelreflexkamera und bei der Objektivverschlußkamera ein
gesetzt wird, ergibt sich eine optimale Lichtmenge für den
Liniensensor unabhängig von dem Fokussierverfahren.
Obwohl drei Liniensensoren 13A, 13B und 13C bei den vorste
hend beschriebenen Beispielen verwendet werden, ist ihre Zahl
darauf nicht beschränkt, es können auch mehr als drei Linien
sensoren vorgesehen sein. Ferner ist die Anordnung der Lini
ensensoren längs einer Linie wie bei den beschriebenen Bei
spielen nicht erforderlich, solange mindestens ein Paar Lini
ensensoren längs einer Linie angeordnet ist.
Die Anordnung oder Richtung der Liniensensoren anders als
mindestens ein Paar Liniensensoren auf einer Linie ist nicht
auf eine bestimmte Anordnung beschränkt.
Wie die vorstehende Beschreibung ergibt, kann bei dem ersten
Ausführungsbeispiel nicht nur der Defokusbetrag des Objekts
für jede Lichtaufnahmevorrichtung, sondern auch die Objekt
entfernung durch ein Paar Lichtaufnahmevorrichtungen erhalten
werden, die bei der Dreiecksmessung den größten Abstand zu
einander haben, da die Integrationssteuerung die Integration
bei einer Lichtaufnahmevorrichtung separat oder bei zwei
Lichtaufnahmevorrichtungen gleichzeitig steuern kann. Die Fo
kussiereinrichtung nach der Erfindung kann in gleicher Weise
bei einer einäugigen Spiegelreflexkamera und auch bei einer
Objektivverschlußkamera eingesetzt werden.
Bei dem zweiten Ausführungsbeispiel wird eine geeignete
Lichtmenge abhängig von den ausgewählten Lichtaufnahmevor
richtungen erhalten, da die Bereiche der Monitor-Lichtaufnah
mevorrichtung, die praktisch den gesamten Lichtaufnahmebe
reich der Lichtaufnahmevorrichtung überwachen, entsprechend
der separaten Integrationssteuerung für jede Lichtaufnahme
vorrichtung oder entsprechend der gleichzeitigen Integrati
onssteuerung eines Paars Lichtaufnahmevorrichtungen geschal
tet werden können. Somit ergibt sich eine optimale Lichtmenge
für jede Lichtaufnahmevorrichtung nicht nur bei der Erfassung
des Defokusbetrages für jede Lichtaufnahmevorrichtung oder
der Objektentfernung bei der Dreiecksmessung unter Verwendung
der äußersten Lichtaufnahmevorrichtungen. Daher kann die
Scharfeinstellung in einem weiten Helligkeitsbereich genau
erfaßt werden. Die genaue Erfassung der Scharfeinstellung ist
gewährleistet, wenn das Objekt (oder die Objekte) unter
schiedliche Helligkeitswerte hat.
Bei dem dritten Ausführungsbeispiel kann die Fokussierein
richtung nicht nur bei einer einäugigen Spiegelreflexkamera,
sondern auch bei einer Objektivverschlußkamera eingesetzt
werden, da die Integrationssteuerung in gleicher Weise für
die separate Integrationssteuerung einer jeden Lichtaufnahme
vorrichtung und die gleichzeitige Integrationssteuerung eines
Paars Lichtaufnahmevorrichtungen verwendet wird. Zusätzlich
kann die Zahl der erforderlichen Komponenten durch mehrere
Anwendungsmöglichkeiten der Integrationssteuerung reduziert
werden.
Claims (6)
1. Einrichtung zum Scharfstellen des Objektivs einer Kamera, mit mehreren
Sensoranordnungen (13A, 13B, 13C) aus fotoelektrischen Wandlerelemen
ten, die auf einer Linie orthogonal zur optischen Achse nebeneinander an
geordnet sind und gleiche Objektbilder aufnehmen, deren pixelweise er
zeugten Helligkeitssignale integriert werden, wobei der Abstand zweier Ob
jektbilder auf den Sensoranordnungen (13A, 13B, 13C) ein Maß für den von
der Objektentfernung abhängigen Defokusbetrag des Objektivs ist,
dadurch gekennzeichnet, daß
mindestens drei Sensoranordnungen (13A, 13B, 13C) vorgesehen sind, die
zwischen einer ersten Betriebsart, in der der Abstand der auf den beiden auf
der Linie außen liegenden Sensoranordnungen (13A, 13C) erzeugten Ob
jektbilder erfaßt wird, und einer zweiten Betriebsart, in der der Abstand zwei
er Objektbilder auf mindestens einer Sensoranordnung (13A, 13B, 13C) er
faßt wird, umschaltbar sind.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß zur Steuerung
der Integrationszeit jeder Sensoranordnung (13A, 13B, 13C) eine Monito
ranordnung (23A, 23B, 23C) aus fotoelektrischen Wandlerelementen zuge
ordnet ist, und daß in der ersten Betriebsart nur eine Monitoranordnung
(23A) die Integrationszeit der beiden außen liegenden Sensoranordnungen
(13A, 13C) steuert, während in der zweiten Betriebsart die Integrationszeit
der jeweils wirksamen Sensoranordnung (13A, 13B, 13C) durch die ihr zu
geordnete Monitoranordnung (23A, 23B, 23C) gesteuert wird.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, daß sich die in der
ersten Betriebsart wirksame Monitoranordnung (23A) über den gesamten
Bereich der ihr zugeordneten außen liegenden Sensoranordnung (13A) er
streckt.
4. Einrichtung nach Anspruch 3, dadurch gekennzeichnet, daß sich die Moni
toranordnung (23C) der zweiten außen liegenden Sensoranordnung (13C)
nur über einen Teilbereich dieser Sensoranordnung (13C) erstreckt, und daß
in der zweiten Betriebsart ein entsprechend bemessener Abschnitt (M1, M2,
M3) der ersten außen liegenden Monitoranordnung (23A) genutzt wird.
5. Einrichtung nach einem der Ansprüche 2 bis 4, gekennzeichnet durch eine
Integrationssteuerung (25A, 25B, 25C, 27, 31) zum Steuern der Integrations
zeiten der Sensoranordnungen (13A, 13B, 13C) auf Grundlage von Aus
gangssignalen der Monitoranordnungen (23A, 23B, 23C) in beiden Betriebs
arten, wobei die Integrationssteuerung (25A, 25B, 25C, 27, 31) ausgebildet
ist, in der ersten Betriebsart die Integrationszeiten der beiden außen liegen
den Sensoranordnungen (13A, 13C) gleichzeitig zu steuern und in der zwei
ten Betriebsart die Integrationszeiten der einzelnen Sensoranordnungen
(13A, 13B, 13C) unabhängig voneinander zu steuern.
6. Einrichtung nach Anspruch 5, dadurch gekennzeichnet, daß die Integrati
onssteuerung eine erste (25A), eine zweite (25B) und eine dritte Integrati
onssteuerung (25C) umfaßt, wobei die erste Integrationssteuerung (25A)
Ausgangssignale der Monitoranordnung (23A) empfängt, die einer der bei
den außen liegenden Sensoranordnungen (13A) zugeordnet ist, die zweite
Integrationssteuerung (25B) sowohl Ausgangssignale der vorstehend ge
nannten Monitoranordnung (23A) als auch Ausgangssignale der Monitoran
ordnung (23B) empfängt, die der in der Mitte liegenden Sensoranordnung
(13B) zugeordnet ist, und die dritte Integrationssteuerung (25C) Ausgangssi
gnale der Monitoranordnung (23C) empfängt, die der anderen außen liegen
den Sensoranordnung (13C) zugeordnet ist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19051496A JP3375493B2 (ja) | 1996-07-19 | 1996-07-19 | 測距センサ |
JP19051296A JP3375491B2 (ja) | 1996-07-19 | 1996-07-19 | 測距センサ |
JP19051396A JP3375492B2 (ja) | 1996-07-19 | 1996-07-19 | 測距センサ |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19730976A1 DE19730976A1 (de) | 1998-01-22 |
DE19730976C2 true DE19730976C2 (de) | 2003-12-24 |
Family
ID=27326339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19730976A Expired - Fee Related DE19730976C2 (de) | 1996-07-19 | 1997-07-18 | Einrichtung zum Scharfstellen des Objektivs einer Kamera |
Country Status (3)
Country | Link |
---|---|
US (1) | US5943514A (de) |
DE (1) | DE19730976C2 (de) |
GB (1) | GB2315630B (de) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6115553A (en) * | 1996-09-17 | 2000-09-05 | Asahi Kogaku Kogyo Kabushiki Kaisha | Multipoint autofocus system |
US7102675B1 (en) * | 1997-11-14 | 2006-09-05 | Canon Kabushiki Kaisha | Photoelectric conversion device, focus detection device, method of controlling these devices, and storage medium |
FR2776068B1 (fr) * | 1998-03-16 | 2000-06-23 | Commissariat Energie Atomique | Procede d'alignement d'un objet avec un dispositif d'acquisition d'images et une optique de couplage |
US6665010B1 (en) * | 1998-07-21 | 2003-12-16 | Intel Corporation | Controlling integration times of pixel sensors |
JP3542312B2 (ja) * | 1999-03-05 | 2004-07-14 | オリンパス株式会社 | 電子的撮像装置 |
US7106372B1 (en) * | 1999-05-28 | 2006-09-12 | Intel Corporation | Method and apparatus for programmable color balance in an image sensor |
US20010040632A1 (en) * | 2000-05-09 | 2001-11-15 | Yang David Xiao Dong | Multiple sampling via a time-indexed method to achieve wide dynamic ranges |
JP2003177302A (ja) * | 2001-12-10 | 2003-06-27 | Fuji Photo Optical Co Ltd | 測距装置 |
JP3754961B2 (ja) * | 2002-02-22 | 2006-03-15 | キヤノン株式会社 | 固体撮像装置およびカメラ |
US6871018B2 (en) * | 2003-02-18 | 2005-03-22 | Pentax Corporation | Focus detection device |
JP4827632B2 (ja) * | 2006-06-30 | 2011-11-30 | キヤノン株式会社 | 焦点検出装置、その駆動方法、及びカメラシステム |
JP4270349B2 (ja) * | 2006-10-27 | 2009-05-27 | オリンパス株式会社 | 焦点検出素子 |
JP4838175B2 (ja) * | 2007-03-01 | 2011-12-14 | オリンパスイメージング株式会社 | 焦点検出装置 |
JP5742152B2 (ja) * | 2010-09-28 | 2015-07-01 | 株式会社リコー | 撮像装置 |
US8760563B2 (en) | 2010-10-19 | 2014-06-24 | Hand Held Products, Inc. | Autofocusing optical imaging device |
US8692927B2 (en) | 2011-01-19 | 2014-04-08 | Hand Held Products, Inc. | Imaging terminal having focus control |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3329603A1 (de) * | 1982-09-29 | 1984-03-29 | Veb Pentacon Dresden Kamera- Und Kinowerke, Ddr 8021 Dresden | Anordnung zur automatischen scharfeinstellung fotografischer kameras |
DE3428974C2 (de) * | 1983-08-09 | 1987-10-15 | Konishiroku Photo Industry Co., Ltd., Tokio/Tokyo, Jp | |
DE2936536C2 (de) * | 1979-09-10 | 1988-04-28 | Siemens Ag, 1000 Berlin Und 8000 Muenchen, De |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5391730A (en) * | 1977-01-22 | 1978-08-11 | Bell & Howell Japan | Automatic focal point adjusting device |
JPS5451556A (en) * | 1977-09-29 | 1979-04-23 | Canon Inc | Distance measuring apparatus |
GB2033593B (en) * | 1979-10-02 | 1983-03-30 | Konishiroku Photo Ind | Camera with photoelectric focus detecting device |
JPS59181308A (ja) * | 1983-03-31 | 1984-10-15 | Asahi Optical Co Ltd | 自動焦点検出カメラ |
US4743931A (en) * | 1985-12-05 | 1988-05-10 | Olympus Optical Company, Ltd. | Apparatus for delivering distance information of camera |
JP2511409B2 (ja) * | 1986-03-31 | 1996-06-26 | ミノルタ株式会社 | 自動焦点調節装置 |
JPH0690350B2 (ja) * | 1986-12-15 | 1994-11-14 | 富士写真光機株式会社 | カメラ |
US4903065A (en) * | 1987-05-15 | 1990-02-20 | Minolta Camera Kabushiki Kaisha | Focus condition detecting device |
EP0298725A3 (de) * | 1987-07-07 | 1989-10-18 | Konica Corporation | Scharfeinstellgerät für Kamera |
US4992817A (en) * | 1988-08-06 | 1991-02-12 | Canon Kabushiki Kaisha | Focus detecting device switching between passive and active detection |
US5146261A (en) * | 1989-08-28 | 1992-09-08 | Asahi Kogaku Kogyo Kabushiki Kaisha | Automatic focusing camera |
JP2958463B2 (ja) * | 1990-01-17 | 1999-10-06 | チノン株式会社 | 自動焦点調節装置 |
EP0444952B1 (de) * | 1990-03-01 | 1996-07-31 | Nikon Corporation | Vorrichtung zur Brennpunktermittlung |
US5262820A (en) * | 1991-05-27 | 1993-11-16 | Minolta Camera Kabushiki Kaisha | Camera having a blur detecting device |
JP3230098B2 (ja) * | 1992-01-27 | 2001-11-19 | 株式会社ニコン | 焦点検出装置 |
JP3214117B2 (ja) * | 1992-11-04 | 2001-10-02 | 株式会社ニコン | 交換レンズ及び焦点検出可能なカメラ |
US5302997A (en) * | 1992-12-28 | 1994-04-12 | Eastman Kodak Company | Composite photometric and range finding element array |
GB2279843B (en) * | 1993-07-08 | 1998-04-01 | Asahi Optical Co Ltd | A focus detecting apparatus |
JPH0772380A (ja) * | 1993-07-08 | 1995-03-17 | Asahi Optical Co Ltd | 焦点検出装置 |
JPH0743605A (ja) * | 1993-08-02 | 1995-02-14 | Minolta Co Ltd | 自動焦点装置 |
JP3018846B2 (ja) * | 1993-08-06 | 2000-03-13 | 富士電機株式会社 | 測距ユニット |
JP3099603B2 (ja) * | 1993-09-28 | 2000-10-16 | 富士電機株式会社 | 測距装置 |
US5589910A (en) * | 1993-12-15 | 1996-12-31 | Fuji Photo Optical Co., Ltd. | Apparatus for measuring a distance |
-
1997
- 1997-07-18 US US08/897,149 patent/US5943514A/en not_active Expired - Lifetime
- 1997-07-18 DE DE19730976A patent/DE19730976C2/de not_active Expired - Fee Related
- 1997-07-21 GB GB9715355A patent/GB2315630B/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2936536C2 (de) * | 1979-09-10 | 1988-04-28 | Siemens Ag, 1000 Berlin Und 8000 Muenchen, De | |
DE3329603A1 (de) * | 1982-09-29 | 1984-03-29 | Veb Pentacon Dresden Kamera- Und Kinowerke, Ddr 8021 Dresden | Anordnung zur automatischen scharfeinstellung fotografischer kameras |
DE3428974C2 (de) * | 1983-08-09 | 1987-10-15 | Konishiroku Photo Industry Co., Ltd., Tokio/Tokyo, Jp |
Also Published As
Publication number | Publication date |
---|---|
GB2315630B (en) | 2000-12-13 |
US5943514A (en) | 1999-08-24 |
GB2315630A9 (en) | 1998-07-06 |
GB2315630A (en) | 1998-02-04 |
DE19730976A1 (de) | 1998-01-22 |
GB9715355D0 (en) | 1997-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19730976C2 (de) | Einrichtung zum Scharfstellen des Objektivs einer Kamera | |
DE60300994T2 (de) | Bildaufnahmevorrichtung mit Fokussierungsvorrichtung und Belichtungssytem | |
DE102004017536B4 (de) | System zur automatischen Schärfeneinstellung | |
DE2722804C3 (de) | Einrichtung zur Feststellung der korrekten Scharfeinstellung einer Abbildung | |
DE112010005151B4 (de) | Bildaufnahmevorrichtung und bildverwacklungskorrekturverfahren | |
DE68929480T2 (de) | Kamerasystem | |
DE102010023108B4 (de) | Projektor mit automatischer Fokussierung und Abbildungsverfahren | |
DE3013282C2 (de) | Detektoranordnung für ein automatisches Fokussiersystem | |
DE10150171A1 (de) | Autofokuseinrichtung und diese verwendendes elektronisches Bildaufnahmegerät | |
DE4106825A1 (de) | Belichtungskontrollvorrichtung fuer einzelbild-videokameras | |
DE69829035T2 (de) | Optische Vorrichtung mit einem Fokusjustiergerät und Fokussierungssteuerschaltung | |
DE3828587C2 (de) | ||
DE19612643B4 (de) | TTL-Belichtungssteuereinrichtung | |
DE3224299A1 (de) | Erfassungsanordnung, insbesondere fuer optische abbildungssysteme | |
DE69729060T2 (de) | Scharfeinstellungsvorrichtung | |
DE102004007989B4 (de) | Schärfenerfassungsvorrichtung | |
DE3150818A1 (de) | Scharfstellungs-vorrichtung | |
DE102016118192A1 (de) | Fokuserfassungsvorrichtung, Prädiktionsverfahren und zugehöriges Speichermedium | |
DE69732946T2 (de) | Photoelectrischer Konverter | |
DE102011081405B4 (de) | Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor | |
DE60004667T2 (de) | Ausrichtbares autofokussystem | |
DE102004007990B4 (de) | Schärfenerfassungsvorrichtung | |
DE2917203C2 (de) | Vorrichtung zur Ermittlung der Fokussierung einer Linse auf eine Soll-Schärfeebene | |
DE4125537C2 (de) | Verfahren und Vorrichtung zum automatischen Scharfeinstellen eines Abbildungssystems | |
DE3245675A1 (de) | Fokusdetektor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: PENTAX CORP., TOKIO/TOKYO, JP |
|
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: HOYA CORP., TOKIO/TOKYO, JP |
|
8339 | Ceased/non-payment of the annual fee |