DE19730976C2 - Einrichtung zum Scharfstellen des Objektivs einer Kamera - Google Patents

Einrichtung zum Scharfstellen des Objektivs einer Kamera

Info

Publication number
DE19730976C2
DE19730976C2 DE19730976A DE19730976A DE19730976C2 DE 19730976 C2 DE19730976 C2 DE 19730976C2 DE 19730976 A DE19730976 A DE 19730976A DE 19730976 A DE19730976 A DE 19730976A DE 19730976 C2 DE19730976 C2 DE 19730976C2
Authority
DE
Germany
Prior art keywords
sensor
integration
monitor
arrangement
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE19730976A
Other languages
English (en)
Other versions
DE19730976A1 (de
Inventor
Osamu Sato
Masahiro Kawasaki
Yasushi Tabata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP19051496A external-priority patent/JP3375493B2/ja
Priority claimed from JP19051296A external-priority patent/JP3375491B2/ja
Priority claimed from JP19051396A external-priority patent/JP3375492B2/ja
Application filed by Pentax Corp filed Critical Pentax Corp
Publication of DE19730976A1 publication Critical patent/DE19730976A1/de
Application granted granted Critical
Publication of DE19730976C2 publication Critical patent/DE19730976C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals

Description

Die Erfindung betrifft eine Einrichtung zum Scharfstellen des Objektivs einer Kamera nach dem Oberbegriff des Patentan­ spruchs 1.
Bei einer passiven Autofokuseinrichtung für eine einäugige Spiegelreflexkamera wird das in ein fotografisches Objektiv eintretende Licht mit einer Kondensorlinse kondensiert und mit einer Trennlinse geteilt, so daß die abgezweigten Strah­ len auf zwei Aufnahmebereiche einer Anordnung lichtaufnehmen­ der Elemente fallen und dort Bilder erzeugen. Danach wird der Abstand der auf den Lichtaufnahmebereichen erzeugten Bilder aus den Integrationswerten erfaßt, die die Anordnung abgibt. Ein Defokusbetrag ergibt sich aus dem Abstand der Objektbil­ der. Die Autofokuseinrichtung bewegt eine Fokussierlinsen­ gruppe in dem Objektiv derart, daß der Defokusbetrag Null wird, d. h. der Abstand der Objektbilder auf den Lichtaufnah­ mebereichen verschwindet.
Bei einer passiven Autofokuseinrichtung für eine Objektivver­ schlußkamera oder eine Kompaktkamera wird ein Objektbild auf zwei Lichtaufnahmeelementanordnungen mit zwei Abbildungslin­ sen über ein fotografisches Objektiv erzeugt. Der Abstand der Objektbilder auf der Lichtaufnahmeelementanordnung wird aus den Integrationswerten der Ausgangssignale der Lichtaufnah­ meelementanordnungen erfaßt. Die Objektentfernung wird nach dem Dreiecksprinzip aus der Basislänge zweier Abbildungslin­ sen und deren F-Zahl ermittelt. Die Autofokuseinrichtung be­ wegt eine Fokussierlinsengruppe im Objektiv abhängig von der Objektentfernung. Ein CCD-Liniensensor oder ein MOS-Linien­ sensor kann als Lichtaufnahmeelementanordnung eingesetzt wer­ den.
Insbesondere bei der Autofokuseinrichtung einer Objektivver­ schlußkamera wird die Objektentfernung durch Dreiecksmessung erfaßt, und daher wird die Meßgenauigkeit umso höher, je grö­ ßer die Basislänge, also der Abstand zwischen den Abbildungs­ linsen ist. Da diese eine feste Brennweite haben, wird das auf der Lichtaufnahmeelementanordnung erzeugte Objektbild ab­ hängig von der Objektentfernung gedämpft. Dadurch verschlech­ tert sich die Meßgenauigkeit der Position des Objektbildes. Um einen Meßfehler zu reduzieren, sollte der Abstand zwischen den beiden Lichtaufnahmeelementanordnungen möglichst groß sein.
Bei einer einäugigen Spiegelreflexkamera erfolgt die Positi­ onseinstellung der Fokussierlinse durch wiederholte Integra­ tion des CCD-Liniensensors zur Minimierung des Defokusbetra­ ges. Daher erhält man eine hohe Meßgenauigkeit ohne Vergröße­ rung des Abstandes zwischen den Objektbildern, verglichen mit der Objektivverschlußkamera. Ferner muß bei einer einäugigen Spiegelreflexkamera, bei der eine Autofokuseinheit mit Kon­ densorlinse, Trennlinse, CCD-Liniensensor usw. im unteren Teil des Spiegelkastens angeordnet ist, nicht nur die Autofo­ kuseinrichtung miniaturisiert sein, sondern auch die Teilung der Lichtaufnahmeelemente der CCD-Anordnung sowie deren Größe muß gering sein.
Bei einer Autofokuseinrichtung mit CCD-Liniensensor wird die Integrationszeit der Lichtaufnahmeelemente durch das Aus­ gangssignal eines Monitors nahe der Lichtaufnahmeelementan­ ordnung gesteuert, um einen Überschuß integrierter elektri­ scher Ladungen in den Lichtaufnahmeelementen zu verhindern, die das Objektlicht empfangen. Um den Defokusbetrag zu erfas­ sen, werden zwei Objektbilder auf einer Lichtaufnahmeelemen­ tanordnung erzeugt und ihr Abstand ausgewertet. Daher muß ein Monitorsensor nur den halben Lichtaufnahmebereich der Anord­ nung überwachen. Bei einer Objektivverschlußkamera, in der der Abstand der Objektbilder auf den gegenseitig beabstande­ ten Lichtaufnahmeelementanordnungen gemessen wird, um die Ob­ jektentfernung zu erfassen, muß der Monitorsensor weitgehend den gesamten Lichtaufnahmebereich mindestens einer der Licht­ aufnahmeelementanordnungen überwachen.
Daher mußten bisher unterschiedliche Autofokuseinrichtungen mit getrennten optischen Systemen und Lichtaufnahmeelementan­ ordnungen (Sensoranordnungen) für die einäugige Spiegelre­ flexkamera und auch für die Objektivverschlußkamera herge­ stellt werden.
Zum Stand der Technik wird auf die DE 33 29 603 A1 verwiesen, aus der eine Fokussiereinrichtung bekannt ist, bei der zwei äußere und eine mittlere Sensoranordnung aus fotoelektrischen Wandlerelementen für die Fokussierung herangezogen werden. Die Sensoranordnungen liegen auf einer Linie und nehmen glei­ che Objektbilder auf. Der Abstand zweier Objektbilder auf den Sensoranordnungen ist ein Maß für den Defokusbetrag des Ob­ jektivs. Diese Fokussiereinrichtung ermittelt den Defokusbe­ trag nach dem Korrelationsverfahren. Eine Fokussiereinrich­ tung, die nach dem Triangulationsverfahren arbeitet, ist aus der DE 34 28 974 C2 bekannt. Auch diese Einrichtung hat meh­ rere auf einer Linie liegende Sensoranordnungen zur Aufnahme von gleichen Objektbildern. Ferner wird auf die DE 29 36 536 C2 hingewiesen, aus der die Verwendung von Monitorsensoren zur Steuerung der Integrationszeit der Sensoranordnungen be­ kannt ist.
Es ist Aufgabe der Erfindung, eine Einrichtung zum Scharf­ stellen des Objektivs einer Kamera anzugeben, die bei gleich­ artigem Aufbau ihrer Sensoranordnungen in einäugigen Spiegel­ reflexkameras und in Objektivverschlußkameras eingesetzt wer­ den kann.
Die Erfindung löst diese Aufgabe durch die Merkmale des Pa­ tentanspruchs 1. Vorteilhafte Weiterbildungen sind Gegenstand der Unteransprüche.
Die Erfindung basiert auf einem Mehrfach-Fokuserfassungssy­ stem in einer einäugigen Spiegelreflexkamera, bei dem mehrere zueinander beabstandete Zonen gemessen werden. Ein optisches System für ein solches Mehrfach-Fokuserfassungssystem ist z. B. durch die JP-A-7-72380 bekannt. Bei diesem optischen Sy­ stem können die Lichtaufnahmeelementanordnungen auf einer ge­ raden Linie liegen.
Durch die Erfindung ist es möglich, die Fokussierungen für mehrere zueinander beabstandete Objekte in einer einäugigen Spiegelreflexkamera zu erfassen und die Meßgenauigkeit durch ein Paar weit auseinanderliegender Lichtaufnahmevorrichtungen (Sensoranordnungen) in einer einäugigen Spiegelreflexkamera zu erhöhen.
Die erfindungsgemäße Einrichtung kann also bei einäugigen Spiegelreflexkameras und bei Objektivverschlußkameras einge­ setzt werden, indem nur die Einrichtung gewechselt wird.
Eine geeignete Integrationszeit kann durch Umschalten der Lichtaufnahmeabschnitte der Monitoranordnung erhalten werden, wodurch sich eine sehr genaue Messung ergibt.
Die Erfindung wird im folgenden an Hand der Zeichnungen näher erläutert. Darin zeigen:
Fig. 1 das Blockdiagramm der wichtigsten Komponenten einer Autofokuseinrichtung als Ausführungsbeispiel,
Fig. 2 das Blockdiagramm der Steuerschaltung im Steuersy­ stem einer Kamera mit Autofokuseinrichtung,
Fig. 3 einen Liniensensor in der in Fig. 1 gezeigten Auto­ fokuseinrichtung,
Fig. 4 das Zeitdiagramm einer seriellen Kommunikation zwi­ schen CPU und Autofokuseinrichtung bei einer Kamera nach Fig. 2,
Fig. 5 die Organisation von Daten, die über die serielle Kommunikation übertragen werden, in einem Register eines Autofokus-Sensors,
Fig. 6 das Diagramm des Zusammenhangs des Dateninhalts mit einem Sensor, der bei dem ersten Ausführungsbei­ spiel verwendet wird,
Fig. 7A und 7B schematische Darstellungen der Lichtaufnahmeele­ mentanordnung eines Autofokus-Sensors für eine ein­ äugige Spiegelreflexkamera und eine Objektivver­ schlußkamera als erstes Ausführungsbeispiel,
Fig. 8 das Diagramm des Zusammenhangs des Dateninhalts mit einem bei einem zweiten Ausführungsbeispiel zu ver­ wendenden Sensor,
Fig. 9A und 9B schematische Darstellungen der Lichtaufnahmeele­ mentanordnung eines Autofokus-Sensors und eines Mo­ nitor-Sensors bei einer einäugigen Spiegelreflexka­ mera bzw. einer Objektivverschlußkamera als zweites Ausführungsbeispiel,
Fig. 10 das Diagramm des Zusammenhangs des Dateninhalts mit einem bei einem dritten Ausführungsbeispiel zu ver­ wendenden Sensor,
Fig. 11A und 11B schematische Darstellungen der Lichtaufnahmeele­ mentanordnung eines Autofokus-Sensors, eines Moni­ tor-Sensors und einer Integrationssteuerung für ei­ ne einäugige Spiegelreflexkamera bzw. eine Objek­ tivverschlußkamera bei einem dritten Ausführungs­ beispiel,
Fig. 12 die schematische Darstellung des optischen Systems eines Autofokus-Sensors bei einer einäugigen Spie­ gelreflexkamera, und
Fig. 13 die schematische Darstellung des optischen Systems eines Autofokus-Sensors bei einer Objektivver­ schlußkamera.
Fig. 1 zeigt eine passive Autofokuseinrichtung (AF-Sensor 11), auf die die Erfindung angewendet wird. Fig. 2 zeigt das Blockdiagramm der Hauptschaltung bei Einsatz des AF-Sensors 11 in einer Kamera, Fig. 3 zeigt einen Liniensensor in dem AF-Sensor.
Der AF-Sensor 11 besteht aus drei zueinander beabstandeten Lichtaufnahmevorrichtungen in Form von Liniensensoren 13A, 13B, 13C, die längs einer Linie angeordnet sind, Speicherab­ schnitten 15A, 15B, 15C neben den Liniensensoren 13A, 13B, 13C und einem Übertragungs-CCD-Schieberegister 17 neben den Speicherabschnitten 15A, 15B, 15C. Die Liniensensoren 13A, 13B, 13C sind Fotodiodenanordnungen, die jeweils Fotodioden (Pixel) mit vorbestimmtem gegenseitigem Abstand zueinander und ausgerichtet längs einer Linie enthalten, Objektlicht aufnehmen und es in ein elektrisches Signal umsetzen. Die Li­ niensensoren 13A, 13B und 13C haben Ladungssammelabschnitte, in denen die von den Fotodioden erzeugten elektrischen Ladun­ gen integriert (gesammelt) werden.
Die in den Liniensensoren 13A, 13B und 13C (Ladungssammel­ abschnitte) gesammelten elektrischen Ladungen werden auf die entsprechenden Speicherabschnitte 15A, 15B und 15C übertra­ gen. Diese speichern die von jedem Liniensensor übertragenen Ladungen vorübergehend. Die auf die Speicherabschnitte 15A, 15B und 15C übertragenen Pixelsignale werden parallel auf das CCD-Schieberegister 17 übertragen. Sie werden danach seriell aus dem Schieberegister 17 abgegeben und durch einen Aus­ gangssignalumsetzer 19 in eine Spannung umgesetzt. Sie werden dann mit einer Ausgabeschaltung 21 verstärkt. Somit wird als integriertes Signal für jedes Pixel ein Videosignal ausgege­ ben.
Das von der Ausgabesschaltung 21 an eine CPU 41 abgegebene Videosignal wird mit einem A/D-Wandler 43 in der CPU 41 in digitale Pixeldaten umgesetzt und sukzessiv in einem internen RAM 42 der CPU 41 unter einer vorbestimmten Adresse gespei­ chert. Die CPU 41 liest die Pixeldaten eines vorbestimmten Bereichs aus dem RAM 42, um die Bilddaten bei der Berechnung der Objektentfernung zu nutzen. Beispielsweise bei einer ein­ äugigen Spiegelreflexkamera wird eine Gruppe Pixeldaten in Pixeldatengruppen für Bereichspaare 13A1, 13A2; 13B1, 13B2; 13C1 und 13C2 (Fig. 7A) geteilt. Einer der Bereiche eines je­ den Paars ist ein Standardbereich, die anderen sind Referenz­ bereiche. Der Abstand zwischen den in dem Standardbereich und dem Referenzbereich erzeugten Objektbildern wird aus der in jedem Bereich enthaltenen Pixeldatengruppe erfaßt, um den entsprechenden Defokusbetrag zu ermitteln.
Bei einer Objektivverschlußkamera wird der mittlere Linien­ sensor 13B nicht genutzt, während die äußersten Liniensenso­ ren (Endsensoren) 13A und 13C genutzt werden, d. h. die Pi­ xeldatengruppen der Liniensensoren 13A, 13C werden genutzt (Fig. 7B). Die Positionen der Objektbilder auf den Liniensen­ soren 13A und 13C und der Abstand zwischen den Objektbildern werden aus den Pixeldaten der Liniensensoren 13A und 13C er­ mittelt, um die Objektentfernung nach dem Dreiecksprinzip zu berechnen.
Obwohl die in Fig. 1 gezeigten Liniensensoren einen gegensei­ tigen Abstand haben, ist es auch möglich, gemäß Fig. 3 zusam­ menhängende Liniensensoren zu verwenden.
Ausführungsbeispiele der Erfindung werden im folgenden deut­ licher beschrieben.
Neben den Liniensensoren 13A, 13B und 13C befinden sich Moni­ torsensoren 23A, 23B und 23C zur Steuerung der Integrations­ zeit (Integrationsende). Sie empfangen das Licht in der Nähe des von den Liniensensoren 13A, 13B und 13C empfangenen Ob­ jektbildes jeweils mit mehreren Lichtaufnahmeelementen. Es gibt Dunkelsensoren MD1 und MD2 auf einer Linie mit den Moni­ torsensoren 23B und 23C, um Dunkelstromkomponenten der Moni­ torsensoren 23A, 23B, 23C zu korrigieren.
Die Breite des Monitorsensors 23A ist ausreichend, um die ge­ samte Lichtaufnahmefläche des Liniensensors 13A zu überwa­ chen. Der Monitorsensor 23A ist in zehn Monitorelemente M1 bis M10 unterteilt. Die Integralausgangssignale der Monitor­ elemente M1 bis M5 zur Überwachung etwa des halben Lichtauf­ nahmebereichs des Liniensensors 13A werden an eine Integrati­ onssteuerung 25A abgegeben. Die Integrationsausgangssignale der Monitorelemente M6 bis M10 werden zur Überwachung der an­ deren Hälfte des Lichtaufnahmebereichs des Liniensensors 13A einer Integrationssteuerung 25B zugeführt.
Die Breite des Monitorsensors 23B reicht aus, um etwa den halben Lichtaufnahmebereich des Liniensensors 13B zu überwa­ chen. Der Monitorsensor 23B ist in fünf Monitorelemente M11 bis M15 unterteilt. Ihre Ausgangssignale werden der Integra­ tionssteuerung 25B zugeführt.
Die Breite des Monitorsensors 23C reicht aus, um einen Ab­ schnitt des linken Teils (Fig. 1) des Lichtaufnahmebereichs des Liniensensors 13C zu überwachen. Der Monitorsensor 23C ist in drei Monitorelemente M16 bis M18 unterteilt. Ihre Aus­ gangssignale werden einer Integrationssteuerung 25C zuge­ führt.
Die Ausgangssignale der Dunkelsensoren MD1 und MD2 werden ei­ ner automatischen Verstärkungssteuerschaltung 27 (AGC) zuge­ führt.
Die analoge Referenzspannung VAGC aus der CPU 41 wird nach Umsetzen in dem D/A-Umwandler 45 der AGC-Schaltung 27 zuge­ führt. Die Referenzspannung VAGC dient zur Begrenzung des Vi­ deosignal-Ausgangspegels. Die AGC-Schaltung 27 korrigiert die Referenzspannung VAGC entsprechend den Ausgangssignalen der Monitorsensoren MD1 und MD2 und gibt sie an die Integrations­ steuerung 25 weiter, in der die korrigierte Referenzspannung mit den Ausgangsspannungen der Monitorsensoren 23A, 23B und 23C verglichen wird. Sind die Ausgangsspannungen mit der kor­ rigierten Referenzspannung identisch, so werden die in den entsprechenden Liniensensoren 13A, 13B und 13C gesammelten elektrischen Ladungen auf die Speicherabschnitte 15A, 15B und 15C übertragen. Damit ist die Ladungssammlung (Integration) mit den Liniensensoren 13A, 13B und 13C abgeschlossen. Er­ reicht die Ausgangsspannung der Monitorsensoren 23A, 23B, 23C die korrigierte Referenzspannung nicht, so wird die Integra­ tion mit den Liniensensoren 13A, 13B, 13C zwangsweise been­ det.
Die Monitorsensoren 23A, 23B, 23C, die Integrationssteuerun­ gen 25A, 25B und 25C, die AGC-Schaltung 27 und die CPU 41 sind die Hauptkomponenten der Integrationssteuerung.
Der AF-Sensor 11 empfängt die 8 Bit-Daten aus der CPU 41 über die serielle Kommunikation und führt eine diesen Daten ent­ sprechende Integrationsoperation durch. Diese wird im folgen­ den an Hand der Fig. 4 bis 6 erläutert.
Die Integrationsoperation des AF-Sensors 11 wird entsprechend dem Dateninhalt (Fig. 5) gesteuert, der über die serielle Kommunikation (Fig. 4) empfangen wird. Bei diesem Ausfüh­ rungsbeispiel sendet die CPU 41 die 8 Bit-Daten über die se­ rielle Kommunikation an den AF-Sensor 11. Dieser hält (verriegelt) die Daten in dem Register 31R der Zeitsteuer­ schaltung 31, so daß die Integrationsoperation entsprechend dem Dateninhalt ausgeführt wird.
Die Liniensensoren 13A, 13B und 13C, die Speicherabschnitte 15A, 15B, 15C, die Integrationsoperation der Integrations­ steuerungen 25A, 25B und 25C und die Integrationssteueropera­ tion der AGC-Schaltung 27 sowie die Ladungsübertragungsopera­ tion und die Ausgabeoperation des CCD-Schieberegisters 17, der Ausgangssignalumsetzer 19 und die Ausgabeschaltung 21 werden durch die Zeitsteuerschaltung 31 gesteuert, die durch den externen Takt ϕM betrieben wird. In Fig. 1 und 4 ist CE das die serielle Kommunikation aktivierende Signal, SI das serielle Dateneingabesignal, SCK der Betriebstakt für die se­ rielle Kommunikation, Vs die Videoausgabe-Referenzspannung, ϕ M der externe Referenztakt eines (nicht dargestellten) Oszil­ lators und ϕAD das Zeitsteuersignal für die A/D-Umsetzung, welches auch als Integrationsabschlußsignal dient.
Der Inhalt der Daten des Registers 31R ist in Fig. 5 darge­ stellt. Das niedrigstwertige Bit D0 dient zur Unterscheidung einer Objektivverschlußkamera (LS) von einer einäugigen Spie­ gelreflexkamera (SLR); das Bit D3 ist ein Merker zur Auswahl des Liniensensors 13C; das Bit D4 ist ein Merker zur Auswahl des Liniensensors 13B; das Bit D5 ist ein Merker zur Auswahl des Liniensensors 13A; das Bit D6 ist ein Merker zum zwangs­ weisen Beenden der Integration; das Bit D7 ist ein Merker zum Einleiten der Integration.
Die Ausführungsbeispiele, bei denen der AF-Sensor 11 in einer einäugigen Spiegelreflexkamera oder einer Objektivverschluß­ kamera angewendet wird, sind in Fig. 6, 7A, 7B, 12 und 13 dargestellt.
Die abhängig von der Kameraart zu verwendenden Liniensensoren eines ersten Ausführungsbeispiels sind in einer in Fig. 6 ge­ zeigten Tabelle angegeben. Die Liniensensoren für die einäu­ gige Spiegelreflexkamera und für die Objektivverschlußkamera sind in Fig. 7A und 7B jeweils mit dicken, durchgezogenen Li­ nien dargestellt. Für die einäugige Spiegelreflexkamera (SLR) wird die Integrationsoperation mit allen Liniensensoren 13A, 13B und 13C oder mit dem jeweils aus ihnen gewählten Linien­ sensor ausgeführt. Für die Objektivverschlußkamera (LS) wird die Integrationsoperation mit den beiden äußersten Liniensen­ soren 13A und 13C ausgeführt.
Fig. 12 zeigt ein optisches Fokussiersystem, bei dem der AF- Sensor 11 in einer einäugigen Spiegelreflexkamera zur Anwen­ dung kommt. In dieser befindet sich eine Feldmaske 51 in ei­ ner vorbestimmten Scharfstellebene, in der ein Objektbild mit einem Objektiv erzeugt wird. Die Feldmaske 51 hat Öffnungen 51A, 51B und 51C, die jeweils einen Entfernungsmeßbereich de­ finieren. In diesem Ausführungsbeispiel haben die Öffnungen untereinander gleichen Abstand und sind rechteckig, wobei ih­ re längeren Seiten auf einer Linie liegen. Die vorbestimmte Scharfstellebene ist äquivalent einer Filmebene in der Kamera oder der Lichtaufnahmefläche in einer Bildaufnahmevorrichtung einer elektronischen Einzelbildkamera.
Hinter den Öffnungen 51A, 51B und 51C der Feldmaske 51 befin­ den sich Kondensorlinsen 53A, 53B und 53C. Diese haben auch die Funktion von Relaislinsen, welche das durch die Öffnungen 51A, 51B und 51C fallende Licht auf Hilfslinsen 55A, 55B und 55C leiten. Spiegel 54A1, 54A2, 54C1 und 54C2 befinden sich zwischen den Kondensorlinsen 53A und 53C und den Hilfslinsen 55A und 55C und bringen das durch die Öffnungen 51A und 51C fallende Objektlicht in die Nähe des durch die Öffnung 51B fallenden Objektlichtes.
Trennlinsenpaare 57A1, 57A2; 57B1, 57B2; 57C1 und 57C2 befin­ den sich hinter den Hilfslinsen 55A, 55B und 55C. Die Trenn­ linsenpaare teilen das durch die Öffnungen 51A, 51B und 51C fallende Licht und projizieren die Teilbilder auf unter­ schiedliche Abschnitte der Liniensensoren 13A, 13B und 13C, die sich in einer sekundären Bilderzeugungsebene befinden. Diese ist eine Fläche, auf der das Bild der vorbestimmten Bilderzeugungsfläche abgebildet wird, so daß das von dem Objektiv erzeugte Objektbild auf der sekundären Bilderzeu­ gungsebene abgebildet wird.
Wie beschrieben, sind die Kondensorlinsen 53A und 53C gegen­ über der optischen Achse versetzt, und das durch die Öffnun­ gen 51A und 51C fallende Objektlicht wird dem durch die Öff­ nung 51B fallenden Licht durch die Spiegel 54A1, 54A2, 54C1 und 54C2 nahegebracht. Durch diese Anordnung ist es möglich, den Abstand zwischen den Öffnungen 51A, 51B, 51C zu vergrö­ ßern, ohne den Abstand zwischen den Liniensensoren 13A, 13B und 13C zu ändern.
Wenn die Zeitsteuerschaltung 31 das Signal 1 aus dem LS/SLR- Register über die serielle Kommunikation empfängt, wird ein SLR-Modus eingerichtet, so daß die Liniensensoren 13A, 13B und 13C unabhängig voneinander eine Integrationsoperation ausführen. Die Integrationsoperation des Liniensensors 13A wird durch die Lichtaufnahmeelemente M1 bis M3 des Monitor­ sensors 23A und die Integrationssteuerung 25A gesteuert. Die Integrationsoperation des Liniensensors 13B wird durch die Lichtaufnahmeelemente M11 bis M15 des Monitorsensors 23B und die Integrationssteuerung 25B gesteuert. die Integrationsope­ ration des Liniensensors 13C wird durch die Lichtaufnahmeele­ mente M16 bis M18 des Monitorsensors 23C und die Integrati­ onssteuerung 25C gesteuert. Der Grund für die Verwendung der Monitor-Lichtaufnahmeelemente M1 bis M3 besteht darin, eine der Zahl und der Position der entsprechenden Lichtaufnahmee­ lemente M16 bis M18 des Liniensensors 13C entsprechende An­ ordnung zu realisieren.
Die Liniensensoren 13A, 13B und 13C werden wahlweise entspre­ chend dem Ausgangssignal des A-B-C-Wählers der Zeitsteuer­ schaltung 31 verwendet, um die Integrationsoperation auszu­ führen, so daß die Ladungen der Fotodioden der gewählten Li­ niensensoren 13A, 13B und 13C als Videosignale an die CPU 41 (Steuerung) ausgegeben werden. Diese berechnet den Abstand zwischen zwei Bildern für jeden Liniensensor 13A, 13B, 13C, um einen Defokusbetrag zu erhalten.
Ein Ausführungsbeispiel des Einsatzes des AF-Sensors 11 bei einer Objektivverschlußkamera wird im folgenden an Hand der Fig. 13 erläutert.
Zwei Abbildungslinsen 61 (61A und 61C) sind als optisches Fo­ kuserfassungssystem vor dem linken und dem rechten Liniensen­ sor 13A und 13C angeordnet. Das auf die Abbildungslinsen 61A und 61C fallende Objektlicht wird auf die Liniensensoren 13A und 13C oder in deren Nachbarschaft konvergiert.
Wenn die Zeitsteuerschaltung 31 das Signal 0 von dem LS/SLR- Register über die serielle Kommunikation empfängt, wird ein LS-Modus eingerichtet, so daß die Liniensensoren 13A und 13C die Integration gleichzeitig wie ein einziger Liniensensor ausführen. Die Ausgangssignale der Lichtaufnahmeelemente M1 bis M5 des Monitorsensors 23A werden der Integrationssteue­ rung 25A zugeführt. Die Ausgangssignale der Lichtaufnahmeele­ mente M6 bis M10 werden der Integrationssteuerung 25B zuge­ führt. Die Ausgangssignale der Integrationssteuerung 25B wer­ den der Integrationssteuerung 25A zugeführt. Somit werden die Lichtaufnahmeelemente M1 bis M10 durch die Integrationssteue­ rungen 25A und 25B gesteuert. Die Integrationsoperation des Liniensensors 13C wird nicht durch die Lichtaufnahmeelemente M16 bis M18 und die Integrationssteuerung 25C, sondern durch die Integrationssteuerungen 25A und 25B gemeinsam mit dem Li­ niensensor 13A gesteuert. Für den Liniensensor 13B gibt es keine Integrationssteuerung.
Die Liniensensoren 13A und 13C werden wahlweise entsprechend dem Ausgangssignal des A-B-C-Wählers der Zeitsteuerschaltung 31 zur Integration benutzt, so daß die von ihren Fotodioden integrierten Ladungen der CPU 41 der Kamera als Videosignale zugeführt werden. Die CPU 41 berechnet den Abstand zwischen den Bildern auf den Liniensensoren 13A und 13C, um die Objektentfernung durch Dreiecksberechnung entsprechend dem Ab­ stand zwischen den Bildern und der Brennweite der Abbildungs­ linsen 61A und 61C zu erhalten.
Bei dem in Fig. 13 gezeigten Ausführungsbeispiel sind opti­ sche Elemente wie die Spiegel 54A1, 54A2, 54C1 und 54C2 aus Fig. 12 zwischen den Abbildungslinsen 61A, 61C und den Linien­ sensoren 13A und 13C angeordnet, um das durch die Abbildungs­ linsen 61A und 61B fallende Objektlicht einander anzunähern, wie es in Fig. 12 gezeigt ist. Somit ergibt sich ein großer Abstand zwischen den Abbildungslinsen 61A und 61B ohne Ände­ rung des Abstandes zwischen den Liniensensoren 13A und 13C, wodurch die Basislänge vergrößert wird.
Daraus ergibt sich, daß der AF-Sensor 11 eine Messung der Ob­ jektentfernung in drei Meßbereichen ermöglicht, die horizon­ tal gegenseitig beabstandet sind, wenn der AF-Sensor 11 bei einer einäugigen Spiegelreflexkamera eingesetzt wird. Wenn der AF-Sensor 11 bei einer Objektivverschlußkamera eingesetzt wird, kann die Meßgenauigkeit der Objektentfernung erhöht werden, da zwei Liniensensoren 13A und 13C, die in Längsrich­ tung beabstandet sind, für die Dreiecksrechnung verwendet werden.
Im folgenden wird die Funktion des AF-Sensors 11 bei einer einäugigen Spiegelreflexkamera und einer Objektivverschlußka­ mera in einem zweiten Ausführungsbeispiel an Hand der Fig. 8, 9A und 9B beschrieben. Die optische Anordnung stimmt mit der­ jenigen nach Fig. 12 bzw. 13 überein.
Die abhängig von der Kameraart zu verwendenden Liniensensoren sind in der in Fig. 8 gezeigten Tabelle enthalten. Die Lini­ ensensoren und die Monitorsensoren für die einäugige Spiegel­ reflexkamera und die Objektivverschlußkamera sind mit dicken, durchgezogenen Linien in Fig. 9A und 9B dargestellt. Für die einäugige Spiegelreflexkamera (SLR) wird die Integration mit allen drei Liniensensoren 13A, 13B und 13C oder mit einem aus diesen ausgewählten Liniensensor ausgeführt. Die Integration mit dem Liniensensor 13A wird durch die Lichtaufnahmeelemente M1 bis M3 des Monitorsensors 23A gesteuert; die Integration mit dem Liniensensor 13B wird durch alle fünf Lichtaufnahmee­ lemente M11 bis M15 des Monitorsensors 23B gesteuert; die In­ tegration mit dem Liniensensor 13C wird durch alle drei. Lichtaufnahmeelemente M16 bis M18 des Monitorsensors 23C ge­ steuert. Für die Objektivverschlußkamera (LS) werden die In­ tegrationen mit den äußeren Liniensensoren 13A und 13C gleichzeitig ausgeführt. Die Integrationssteuerung erfolgt unter Verwendung der Lichtaufnahmeelemente M1 bis M10 des Mo­ nitorsensors 23A, der den Liniensensor 13A überwacht.
Wenn die Zeitsteuerschaltung 31 das Signal 1 (SLR) von der CPU 41 über die serielle Kommunikation empfängt, wird die In­ tegration mit den Liniensensoren 13A, 13B und 13C ausgeführt. Die Integration (Integrationspegel) wird durch die Lichtauf­ nahmeelemente M1 bis M3 des Monitorsensors 23A, die Lichtauf­ nahmeelemente M11 bis M15 des Monitorsensors 23B, die Licht­ aufnahmeelemente M16 bis M18 des Monitorsensors 23C und die Integrationssteuerungen 25A, 25B und 25C gesteuert. Die inte­ grierten Ladungen der Fotodioden der Liniensensoren 13A, 13B und 13C werden an die CPU 41 (Steuerung) als Videosignale ausgegeben. Die CPU 41 berechnet den Abstand zwischen zwei Bildern für jeden Liniensensor 13A, 13B und 13C, wodurch sich ein Defokusbetrag ergibt.
Die Arbeitsweise des zweiten Ausführungsbeispiels, bei dem der AF-Sensor 11 in einer Objektivverschlußkamera eingesetzt wird, wird im folgenden an Hand der Fig. 9B und 13 erläutert.
Wenn die Zeitsteuerschaltung 31 das Signal 0 (LS) von der CPU 41 über die serielle Kommunikation empfängt, werden die in Fig. 9B mit dicken, durchgezogenen Linien dargestellten Lini­ ensensoren 13A und 13C zur Integration genutzt. Dabei wird die empfangene Lichtmenge unter Verwendung der Lichtaufnah­ meelemente M1 bis M10 des Monitorsensors 23A und der Integra­ tionssteuerungen 25A und 25B zum Steuern der Integration überwacht.
Die integrierten Ladungen der Fotodioden der Liniensensoren 13A und 13C, die gleichzeitig mit dem Monitorsensor 23A eine automatische Verstärkungsregelung erfahren, werden als Video­ signale an die CPU 41 ausgegeben. Diese berechnet den Abstand zwischen den Bildern auf den Liniensensoren 13A und 13C ent­ sprechend den Videosignalen, um daraus die Objektentfernung aus den Brennweiten der Abbildungslinsen 61A und 61C und dem Abstand zwischen den Bildern unter Anwendung des Dreiecksver­ fahrens zu erhalten.
Wie aus der vorstehenden Beschreibung hervorgeht, macht der AF-Sensor 11 eine Messung der Objektentfernung in drei Meßbe­ reichen möglich, die in horizontaler Richtung beabstandet sind, wenn er bei einer einäugigen Spiegelreflexkamera einge­ setzt ist. Ist er bei einer Objektivverschlußkamera einge­ setzt, kann die Meßgenauigkeit der Objektentfernung erhöht werden, da zwei Liniensensoren 13A und 13C, die in Längsrich­ tung der Liniensensoren den größten Abstand haben, für die Dreiecksrechnung benutzt werden.
Da die Integrationszeit durch die Monitorsensoren neben den zu verwendenden Liniensensoren gesteuert wird, wird eine Lichtmenge entsprechend der Objekthelligkeit erhalten, die das Bild auf den Liniensensoren hat. Insbesondere da die Li­ niensensoren durch die Lichtaufnahmeelemente M1 bis M3 des Monitorsensors 25A und durch alle Monitor-Lichtaufnahmeele­ mente M1 bis M10 des Monitorsensors 25A überwacht werden, wenn der AF-Sensor 11 bei einer einäugigen Spiegelreflexkamera und einer Objektivverschlußkamera eingesetzt ist, ergeben sich optimale Ausgangssignale der Liniensensoren unabhängig von dem Fokussierverfahren.
Die Arbeitsweise des AF-Sensors 11 wird im folgenden für den Einsatz in einer einäugigen Spiegelreflexkamera und einer Ob­ jektivverschlußkamera an Hand der Fig. 10, 11A und 11B erläu­ tert. Die optische Anordnung stimmt mit derjenigen nach Fig. 12 bzw. 13 überein.
Die abhängig von der Kameraart zu verwendenden Liniensensoren des zweiten Ausführungsbeispiels sind in einer in Fig. 10 ge­ zeigten Tabelle enthalten. Die Liniensensoren, die Monitor­ sensoren und die Integrationssteuerungen für die einäugige Spiegelreflexkamera und für die Objektivverschlußkamera sind in Fig. 11A und 11B mit dicken, durchgezogenen Linien darge­ stellt.
Wenn bei diesem Ausführungsbeispiel der AF-Sensor 11 in der einäugigen Spiegelreflexkamera eingesetzt ist, wird die Inte­ grationsoperation für alle drei Liniensensoren 13A, 13B und 13C oder für den aus diesen ausgewählten Liniensensor durch­ geführt. Die Integrationsoperation des Liniensensors 13A wird durch die Lichtaufnahmeelemente M1 bis M3 des Monitorsensors 23A, den Dunkelsensor MD1 und die Integrationssteuerung 25A gesteuert; die Integrationsoperation des Liniensensors 13B wird durch alle fünf Lichtaufnahmeelemente M11 bis M15 des Monitorsensors 23B, den Dunkelsensor MD1 und die Integrati­ onssteuerung 25B gesteuert; die Integrationsoperation des Li­ niensensors 13C wird durch alle drei Lichtaufnahmeelemente M16 bis M18 des Monitorsensors 23C, den Dunkelsensor MD2 und die Integrationssteuerung 25C gesteuert. Bei der Objektivver­ schlußkamera (LS) wird die Integrationsoperation der äußeren Liniensensoren 13A und 13C gleichzeitig durchgeführt. Die In­ tegrationssteuerung erfolgt unter Verwendung der Lichtaufnah­ meelemente M1 bis M10 des Monitorsensors 23A, der den Liniensensor 13A überwacht, des Dunkelsensors MD1 und der Integra­ tionssteuerungen 25A und 25B.
Die Funktion des dritten Ausführungsbeispiels, bei dem der AF-Sensor 11 bei einer einäugigen Spiegelreflexkamera ange­ wendet wird, wird im folgenden an Hand der Fig. 11A und 13 erläutert.
Wenn die Zeitsteuerschaltung 31 das Signal 1 (SLR) von der CPU 41 über die serielle Kommunikation empfängt, wird mit den Liniensensoren 13A, 13B und 13C integriert. Die Integrations­ operation (Integrationspegel) wird durch die Lichtaufnahmee­ lemente M1 bis M3 des Monitorsensors 23A, die Lichtaufnahmee­ lemente M11 bis M15 des Monitorsensors 23B, die Lichtaufnah­ meelemente M15 bis M18 des Monitorsensors 23C und die Inte­ grationssteuerungen 25A, 25B und 25C gesteuert. Die elektri­ schen Ladungen der Fotodioden der Liniensensoren 13A, 13B und 13C werden an die CPU 41 (Steuerung) als Videosignale abgege­ ben. Die CPU 41 berechnet den Abstand zwischen den Bildern für jeden Liniensensor 13A, 13B und 13C, um einen Defokusbe­ trag zu erhalten.
Obwohl die Öffnungen 51A, 51B und 51C der Maske 51, die den Meßbereich definieren, bei diesem Ausführungsbeispiel auf ei­ ner Linie liegen, ist die Anordnung darauf nicht beschränkt. Beispielsweise ist es möglich, die Öffnungen in Form eines H anzuordnen, wenn die Liniensensoren 13A, 13B und 13C auf ei­ ner Linie ausgerichtet sind.
Die Anordnung, bei der der AF-Sensor 11 bei einer Objektiv­ verschlußkamera als drittes Ausführungsbeispiel eingesetzt ist, wird im folgenden an Hand der Fig. 11B und 13 erläutert.
Zwei Abbildungslinsen 61 (61A und 61C) sind als optische Fo­ kussierelemente vor den Liniensensoren 13A und 13C angeord­ net. Das auf die Abbildungslinsen 61A und 61C fallende Ob­ jektlicht wird auf den Liniensensor 13A, den Monitorsensor 23A und den Liniensensor 13C oder in deren Nachbarschaft mit den Abbildungslinsen 61A und 61C konvergiert, um Objektbilder zu erzeugen.
Wenn die Zeitsteuerschaltung 31 das Signal LS von der CPU 41 über die serielle Kommunikation empfängt, wird mit den Lini­ ensensoren 13A und 13C, die in Fig. 11B mit dicken, durchge­ zogenen Linien dargestellt sind, die Integration ausgeführt. Die empfangene Lichtmenge wird unter Verwendung aller Moni­ tor-Lichtaufnahmeelemente M1 bis M10 des Monitorsensors 23A und der Integrationssteuerungen 25A und 25B überwacht, um die Integration zu steuern.
Die integrierten Ladungen der Liniensensoren 13A und 13C, die mit dem Monitorsensor 23A gleichzeitig AGC-gesteuert sind, werden als Videosignale an die CPU 41 ausgegeben. Diese be­ rechnet den Abstand zwischen den Bildern auf einem Paar Lini­ ensensoren 13A und 13C entsprechend den Videosignalen, um die Objektentfernung aus den Brennweiten der Abbildungslinsen 61A und 61C und dem Abstand zwischen den Bildern unter Anwendung des Dreieckverfahrens zu erhalten.
Daraus geht hervor, daß bei den AF-Sensoren 11 nach der Er­ findung die Monitorsensoren 23A und 23C und die Integrations­ steuerungen 25A und 25C gemeinsam auf die unabhängige Inte­ grationssteuerung der Liniensensoren 13A, 13B und 13C und ei­ nes Paars Liniensensoren 13A und 13C angewendet werden kön­ nen. Ferner können die Liniensensoren, die Monitorsensoren und die Integrationssteuerungen für eine einäugige Spiegelre­ flexkamera und auch für eine Objektivverschlußkamera verwen­ det werden.
Ferner ermöglicht der AF-Sensor 11 die Messung der Objektent­ fernung in den drei horizontal beabstandeten Meßbereichen, wenn er bei einer einäugigen Spiegelreflexkamera eingesetzt ist. Wenn er bei einer Objektivverschlußkamera verwendet wird, kann die Meßgenauigkeit der Objektentfernung erhöht werden, da zwei Liniensensoren 13A und 13C, die den größten Abstand in ihrer Längsrichtung haben, zur Dreiecksrechnung benutzt werden.
Da die Integrationszeit durch die Monitorsensoren nahe den zu verwendenden Liniensensoren gesteuert wird, wird eine Licht­ menge entsprechend der Objekthelligkeit, mit der das Bild auf den Liniensensoren erzeugt wird, erzielt. Da der Liniensensor 13A durch die Lichtaufnahmeelemente M1 bis M3 des Monitorsen­ sors 25A und durch alle Lichtaufnahmeelemente M1 bis M10 des Monitorsensors 25A überwacht wird, wenn er bei der einäugigen Spiegelreflexkamera und bei der Objektivverschlußkamera ein­ gesetzt wird, ergibt sich eine optimale Lichtmenge für den Liniensensor unabhängig von dem Fokussierverfahren.
Obwohl drei Liniensensoren 13A, 13B und 13C bei den vorste­ hend beschriebenen Beispielen verwendet werden, ist ihre Zahl darauf nicht beschränkt, es können auch mehr als drei Linien­ sensoren vorgesehen sein. Ferner ist die Anordnung der Lini­ ensensoren längs einer Linie wie bei den beschriebenen Bei­ spielen nicht erforderlich, solange mindestens ein Paar Lini­ ensensoren längs einer Linie angeordnet ist.
Die Anordnung oder Richtung der Liniensensoren anders als mindestens ein Paar Liniensensoren auf einer Linie ist nicht auf eine bestimmte Anordnung beschränkt.
Wie die vorstehende Beschreibung ergibt, kann bei dem ersten Ausführungsbeispiel nicht nur der Defokusbetrag des Objekts für jede Lichtaufnahmevorrichtung, sondern auch die Objekt­ entfernung durch ein Paar Lichtaufnahmevorrichtungen erhalten werden, die bei der Dreiecksmessung den größten Abstand zu­ einander haben, da die Integrationssteuerung die Integration bei einer Lichtaufnahmevorrichtung separat oder bei zwei Lichtaufnahmevorrichtungen gleichzeitig steuern kann. Die Fo­ kussiereinrichtung nach der Erfindung kann in gleicher Weise bei einer einäugigen Spiegelreflexkamera und auch bei einer Objektivverschlußkamera eingesetzt werden.
Bei dem zweiten Ausführungsbeispiel wird eine geeignete Lichtmenge abhängig von den ausgewählten Lichtaufnahmevor­ richtungen erhalten, da die Bereiche der Monitor-Lichtaufnah­ mevorrichtung, die praktisch den gesamten Lichtaufnahmebe­ reich der Lichtaufnahmevorrichtung überwachen, entsprechend der separaten Integrationssteuerung für jede Lichtaufnahme­ vorrichtung oder entsprechend der gleichzeitigen Integrati­ onssteuerung eines Paars Lichtaufnahmevorrichtungen geschal­ tet werden können. Somit ergibt sich eine optimale Lichtmenge für jede Lichtaufnahmevorrichtung nicht nur bei der Erfassung des Defokusbetrages für jede Lichtaufnahmevorrichtung oder der Objektentfernung bei der Dreiecksmessung unter Verwendung der äußersten Lichtaufnahmevorrichtungen. Daher kann die Scharfeinstellung in einem weiten Helligkeitsbereich genau erfaßt werden. Die genaue Erfassung der Scharfeinstellung ist gewährleistet, wenn das Objekt (oder die Objekte) unter­ schiedliche Helligkeitswerte hat.
Bei dem dritten Ausführungsbeispiel kann die Fokussierein­ richtung nicht nur bei einer einäugigen Spiegelreflexkamera, sondern auch bei einer Objektivverschlußkamera eingesetzt werden, da die Integrationssteuerung in gleicher Weise für die separate Integrationssteuerung einer jeden Lichtaufnahme­ vorrichtung und die gleichzeitige Integrationssteuerung eines Paars Lichtaufnahmevorrichtungen verwendet wird. Zusätzlich kann die Zahl der erforderlichen Komponenten durch mehrere Anwendungsmöglichkeiten der Integrationssteuerung reduziert werden.

Claims (6)

1. Einrichtung zum Scharfstellen des Objektivs einer Kamera, mit mehreren Sensoranordnungen (13A, 13B, 13C) aus fotoelektrischen Wandlerelemen­ ten, die auf einer Linie orthogonal zur optischen Achse nebeneinander an­ geordnet sind und gleiche Objektbilder aufnehmen, deren pixelweise er­ zeugten Helligkeitssignale integriert werden, wobei der Abstand zweier Ob­ jektbilder auf den Sensoranordnungen (13A, 13B, 13C) ein Maß für den von der Objektentfernung abhängigen Defokusbetrag des Objektivs ist, dadurch gekennzeichnet, daß mindestens drei Sensoranordnungen (13A, 13B, 13C) vorgesehen sind, die zwischen einer ersten Betriebsart, in der der Abstand der auf den beiden auf der Linie außen liegenden Sensoranordnungen (13A, 13C) erzeugten Ob­ jektbilder erfaßt wird, und einer zweiten Betriebsart, in der der Abstand zwei­ er Objektbilder auf mindestens einer Sensoranordnung (13A, 13B, 13C) er­ faßt wird, umschaltbar sind.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß zur Steuerung der Integrationszeit jeder Sensoranordnung (13A, 13B, 13C) eine Monito­ ranordnung (23A, 23B, 23C) aus fotoelektrischen Wandlerelementen zuge­ ordnet ist, und daß in der ersten Betriebsart nur eine Monitoranordnung (23A) die Integrationszeit der beiden außen liegenden Sensoranordnungen (13A, 13C) steuert, während in der zweiten Betriebsart die Integrationszeit der jeweils wirksamen Sensoranordnung (13A, 13B, 13C) durch die ihr zu­ geordnete Monitoranordnung (23A, 23B, 23C) gesteuert wird.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, daß sich die in der ersten Betriebsart wirksame Monitoranordnung (23A) über den gesamten Bereich der ihr zugeordneten außen liegenden Sensoranordnung (13A) er­ streckt.
4. Einrichtung nach Anspruch 3, dadurch gekennzeichnet, daß sich die Moni­ toranordnung (23C) der zweiten außen liegenden Sensoranordnung (13C) nur über einen Teilbereich dieser Sensoranordnung (13C) erstreckt, und daß in der zweiten Betriebsart ein entsprechend bemessener Abschnitt (M1, M2, M3) der ersten außen liegenden Monitoranordnung (23A) genutzt wird.
5. Einrichtung nach einem der Ansprüche 2 bis 4, gekennzeichnet durch eine Integrationssteuerung (25A, 25B, 25C, 27, 31) zum Steuern der Integrations­ zeiten der Sensoranordnungen (13A, 13B, 13C) auf Grundlage von Aus­ gangssignalen der Monitoranordnungen (23A, 23B, 23C) in beiden Betriebs­ arten, wobei die Integrationssteuerung (25A, 25B, 25C, 27, 31) ausgebildet ist, in der ersten Betriebsart die Integrationszeiten der beiden außen liegen­ den Sensoranordnungen (13A, 13C) gleichzeitig zu steuern und in der zwei­ ten Betriebsart die Integrationszeiten der einzelnen Sensoranordnungen (13A, 13B, 13C) unabhängig voneinander zu steuern.
6. Einrichtung nach Anspruch 5, dadurch gekennzeichnet, daß die Integrati­ onssteuerung eine erste (25A), eine zweite (25B) und eine dritte Integrati­ onssteuerung (25C) umfaßt, wobei die erste Integrationssteuerung (25A) Ausgangssignale der Monitoranordnung (23A) empfängt, die einer der bei­ den außen liegenden Sensoranordnungen (13A) zugeordnet ist, die zweite Integrationssteuerung (25B) sowohl Ausgangssignale der vorstehend ge­ nannten Monitoranordnung (23A) als auch Ausgangssignale der Monitoran­ ordnung (23B) empfängt, die der in der Mitte liegenden Sensoranordnung (13B) zugeordnet ist, und die dritte Integrationssteuerung (25C) Ausgangssi­ gnale der Monitoranordnung (23C) empfängt, die der anderen außen liegen­ den Sensoranordnung (13C) zugeordnet ist.
DE19730976A 1996-07-19 1997-07-18 Einrichtung zum Scharfstellen des Objektivs einer Kamera Expired - Fee Related DE19730976C2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19051496A JP3375493B2 (ja) 1996-07-19 1996-07-19 測距センサ
JP19051296A JP3375491B2 (ja) 1996-07-19 1996-07-19 測距センサ
JP19051396A JP3375492B2 (ja) 1996-07-19 1996-07-19 測距センサ

Publications (2)

Publication Number Publication Date
DE19730976A1 DE19730976A1 (de) 1998-01-22
DE19730976C2 true DE19730976C2 (de) 2003-12-24

Family

ID=27326339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19730976A Expired - Fee Related DE19730976C2 (de) 1996-07-19 1997-07-18 Einrichtung zum Scharfstellen des Objektivs einer Kamera

Country Status (3)

Country Link
US (1) US5943514A (de)
DE (1) DE19730976C2 (de)
GB (1) GB2315630B (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6115553A (en) * 1996-09-17 2000-09-05 Asahi Kogaku Kogyo Kabushiki Kaisha Multipoint autofocus system
US7102675B1 (en) * 1997-11-14 2006-09-05 Canon Kabushiki Kaisha Photoelectric conversion device, focus detection device, method of controlling these devices, and storage medium
FR2776068B1 (fr) * 1998-03-16 2000-06-23 Commissariat Energie Atomique Procede d'alignement d'un objet avec un dispositif d'acquisition d'images et une optique de couplage
US6665010B1 (en) * 1998-07-21 2003-12-16 Intel Corporation Controlling integration times of pixel sensors
JP3542312B2 (ja) * 1999-03-05 2004-07-14 オリンパス株式会社 電子的撮像装置
US7106372B1 (en) * 1999-05-28 2006-09-12 Intel Corporation Method and apparatus for programmable color balance in an image sensor
US20010040632A1 (en) * 2000-05-09 2001-11-15 Yang David Xiao Dong Multiple sampling via a time-indexed method to achieve wide dynamic ranges
JP2003177302A (ja) * 2001-12-10 2003-06-27 Fuji Photo Optical Co Ltd 測距装置
JP3754961B2 (ja) * 2002-02-22 2006-03-15 キヤノン株式会社 固体撮像装置およびカメラ
US6871018B2 (en) * 2003-02-18 2005-03-22 Pentax Corporation Focus detection device
JP4827632B2 (ja) * 2006-06-30 2011-11-30 キヤノン株式会社 焦点検出装置、その駆動方法、及びカメラシステム
JP4270349B2 (ja) * 2006-10-27 2009-05-27 オリンパス株式会社 焦点検出素子
JP4838175B2 (ja) * 2007-03-01 2011-12-14 オリンパスイメージング株式会社 焦点検出装置
JP5742152B2 (ja) * 2010-09-28 2015-07-01 株式会社リコー 撮像装置
US8760563B2 (en) 2010-10-19 2014-06-24 Hand Held Products, Inc. Autofocusing optical imaging device
US8692927B2 (en) 2011-01-19 2014-04-08 Hand Held Products, Inc. Imaging terminal having focus control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3329603A1 (de) * 1982-09-29 1984-03-29 Veb Pentacon Dresden Kamera- Und Kinowerke, Ddr 8021 Dresden Anordnung zur automatischen scharfeinstellung fotografischer kameras
DE3428974C2 (de) * 1983-08-09 1987-10-15 Konishiroku Photo Industry Co., Ltd., Tokio/Tokyo, Jp
DE2936536C2 (de) * 1979-09-10 1988-04-28 Siemens Ag, 1000 Berlin Und 8000 Muenchen, De

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5391730A (en) * 1977-01-22 1978-08-11 Bell & Howell Japan Automatic focal point adjusting device
JPS5451556A (en) * 1977-09-29 1979-04-23 Canon Inc Distance measuring apparatus
GB2033593B (en) * 1979-10-02 1983-03-30 Konishiroku Photo Ind Camera with photoelectric focus detecting device
JPS59181308A (ja) * 1983-03-31 1984-10-15 Asahi Optical Co Ltd 自動焦点検出カメラ
US4743931A (en) * 1985-12-05 1988-05-10 Olympus Optical Company, Ltd. Apparatus for delivering distance information of camera
JP2511409B2 (ja) * 1986-03-31 1996-06-26 ミノルタ株式会社 自動焦点調節装置
JPH0690350B2 (ja) * 1986-12-15 1994-11-14 富士写真光機株式会社 カメラ
US4903065A (en) * 1987-05-15 1990-02-20 Minolta Camera Kabushiki Kaisha Focus condition detecting device
EP0298725A3 (de) * 1987-07-07 1989-10-18 Konica Corporation Scharfeinstellgerät für Kamera
US4992817A (en) * 1988-08-06 1991-02-12 Canon Kabushiki Kaisha Focus detecting device switching between passive and active detection
US5146261A (en) * 1989-08-28 1992-09-08 Asahi Kogaku Kogyo Kabushiki Kaisha Automatic focusing camera
JP2958463B2 (ja) * 1990-01-17 1999-10-06 チノン株式会社 自動焦点調節装置
EP0444952B1 (de) * 1990-03-01 1996-07-31 Nikon Corporation Vorrichtung zur Brennpunktermittlung
US5262820A (en) * 1991-05-27 1993-11-16 Minolta Camera Kabushiki Kaisha Camera having a blur detecting device
JP3230098B2 (ja) * 1992-01-27 2001-11-19 株式会社ニコン 焦点検出装置
JP3214117B2 (ja) * 1992-11-04 2001-10-02 株式会社ニコン 交換レンズ及び焦点検出可能なカメラ
US5302997A (en) * 1992-12-28 1994-04-12 Eastman Kodak Company Composite photometric and range finding element array
GB2279843B (en) * 1993-07-08 1998-04-01 Asahi Optical Co Ltd A focus detecting apparatus
JPH0772380A (ja) * 1993-07-08 1995-03-17 Asahi Optical Co Ltd 焦点検出装置
JPH0743605A (ja) * 1993-08-02 1995-02-14 Minolta Co Ltd 自動焦点装置
JP3018846B2 (ja) * 1993-08-06 2000-03-13 富士電機株式会社 測距ユニット
JP3099603B2 (ja) * 1993-09-28 2000-10-16 富士電機株式会社 測距装置
US5589910A (en) * 1993-12-15 1996-12-31 Fuji Photo Optical Co., Ltd. Apparatus for measuring a distance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2936536C2 (de) * 1979-09-10 1988-04-28 Siemens Ag, 1000 Berlin Und 8000 Muenchen, De
DE3329603A1 (de) * 1982-09-29 1984-03-29 Veb Pentacon Dresden Kamera- Und Kinowerke, Ddr 8021 Dresden Anordnung zur automatischen scharfeinstellung fotografischer kameras
DE3428974C2 (de) * 1983-08-09 1987-10-15 Konishiroku Photo Industry Co., Ltd., Tokio/Tokyo, Jp

Also Published As

Publication number Publication date
GB2315630B (en) 2000-12-13
US5943514A (en) 1999-08-24
GB2315630A9 (en) 1998-07-06
GB2315630A (en) 1998-02-04
DE19730976A1 (de) 1998-01-22
GB9715355D0 (en) 1997-09-24

Similar Documents

Publication Publication Date Title
DE19730976C2 (de) Einrichtung zum Scharfstellen des Objektivs einer Kamera
DE60300994T2 (de) Bildaufnahmevorrichtung mit Fokussierungsvorrichtung und Belichtungssytem
DE102004017536B4 (de) System zur automatischen Schärfeneinstellung
DE2722804C3 (de) Einrichtung zur Feststellung der korrekten Scharfeinstellung einer Abbildung
DE112010005151B4 (de) Bildaufnahmevorrichtung und bildverwacklungskorrekturverfahren
DE68929480T2 (de) Kamerasystem
DE102010023108B4 (de) Projektor mit automatischer Fokussierung und Abbildungsverfahren
DE3013282C2 (de) Detektoranordnung für ein automatisches Fokussiersystem
DE10150171A1 (de) Autofokuseinrichtung und diese verwendendes elektronisches Bildaufnahmegerät
DE4106825A1 (de) Belichtungskontrollvorrichtung fuer einzelbild-videokameras
DE69829035T2 (de) Optische Vorrichtung mit einem Fokusjustiergerät und Fokussierungssteuerschaltung
DE3828587C2 (de)
DE19612643B4 (de) TTL-Belichtungssteuereinrichtung
DE3224299A1 (de) Erfassungsanordnung, insbesondere fuer optische abbildungssysteme
DE69729060T2 (de) Scharfeinstellungsvorrichtung
DE102004007989B4 (de) Schärfenerfassungsvorrichtung
DE3150818A1 (de) Scharfstellungs-vorrichtung
DE102016118192A1 (de) Fokuserfassungsvorrichtung, Prädiktionsverfahren und zugehöriges Speichermedium
DE69732946T2 (de) Photoelectrischer Konverter
DE102011081405B4 (de) Bildsensor, Abbildungsvorrichtung und Verfahren für einen Bildsensor
DE60004667T2 (de) Ausrichtbares autofokussystem
DE102004007990B4 (de) Schärfenerfassungsvorrichtung
DE2917203C2 (de) Vorrichtung zur Ermittlung der Fokussierung einer Linse auf eine Soll-Schärfeebene
DE4125537C2 (de) Verfahren und Vorrichtung zum automatischen Scharfeinstellen eines Abbildungssystems
DE3245675A1 (de) Fokusdetektor

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: PENTAX CORP., TOKIO/TOKYO, JP

8304 Grant after examination procedure
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: HOYA CORP., TOKIO/TOKYO, JP

8339 Ceased/non-payment of the annual fee