DE69835850T2 - Scharfeinstellung-Detektionsgerät - Google Patents

Scharfeinstellung-Detektionsgerät Download PDF

Info

Publication number
DE69835850T2
DE69835850T2 DE69835850T DE69835850T DE69835850T2 DE 69835850 T2 DE69835850 T2 DE 69835850T2 DE 69835850 T DE69835850 T DE 69835850T DE 69835850 T DE69835850 T DE 69835850T DE 69835850 T2 DE69835850 T2 DE 69835850T2
Authority
DE
Germany
Prior art keywords
pair
sensors
image
focus
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69835850T
Other languages
English (en)
Other versions
DE69835850D1 (de
Inventor
Yasuo Ohta-ku Suda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69835850D1 publication Critical patent/DE69835850D1/de
Publication of DE69835850T2 publication Critical patent/DE69835850T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • G02B7/346Systems for automatic generation of focusing signals using different areas in a pupil plane using horizontal and vertical areas in the pupil plane, i.e. wide area autofocusing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Diese Erfindung bezieht sich auf eine Fokuserfassungsvorrichtung zur Verwendung in einer Kamera oder dergleichen, die einen durch ein optisches Abbildungssystem transmittierten Lichtstrahl verwendet, um dessen abgebildeten Zustand zu erfassen.
  • Verwandter Stand der Technik
  • In einer Fokuserfassungsvorrichtung des Phasendifferenzerfassungstyp ist ein Verfahren des Korrigierens der Verzerrung der Quantitätsverteilung von auf ein fotoelektrisches Umwandlungselement projiziertem Licht durch Berechnen der Ausgabe des fotoelektrischen Umwandlungselements beispielsweise in der japanischen Patentanmeldungsoffenlegung Nr. 62-173412 offenbart. Dieses Beispiel offenbart ein Berechnungsverfahren, das eine bei einem sekundären Objektbild auftretende Verzerrung auf ein korrigiertes Bild bezieht, und verarbeitet ein Bildsignal, nach dem dieses A/D- umgewandelt ist, durch ein in dieser Offenlegung gezeigtes, vorbestimmtes Berechnungsverfahren, und gibt die Verzerrung zu dessen Originalzustand zurück, wodurch es die Bestimmung des In-Fokuszustands einer Objektivlinse genau durchführen kann.
  • Abhängig von einem in der Fokuserfassungsvorrichtung angewendeten, optischen System gibt es jedoch einen Fall, in dem die sich aus der Defokussierung der Objektivlinse ergebende Bewegungsgeschwindigkeit des Bildes abhängig von der Position auf einem Fokuserfassungsbereich abweicht, und im Ergebnis wird die Erfassung des Defokussierbetrags nicht genau durchgeführt. Dementsprechend kann keine genaue Fokuserfassung durch einfaches Korrigieren einer Verzerrung durch das vorstehend beschriebene Verfahren erreicht werden.
  • Des Weiteren offenbart die Druckschrift US-A-5,615,399 eine Fokuserfassungsvorrichtung, die fotoelektrische Bereichssensoren aufweist, wobei ein optisches System Objektbilder auf den zweidimensional angeordneten, fotoelektrischen Umwandlungselementen in der Form der fotoelektrischen Bereichssensoren bereitstellt. Deren Ausgangssignale werden einer Verarbeitungseinrichtung zum Verarbeiten des Bildsignals eines vorbestimmten Bereichs auf dem Sensor zugeführt, um eine Fokusinformation zu erhalten. In Übereinstimmung mit einem vorbestimmten Bereich auf dem Sensor speichert eine Speichereinrichtung Korrekturinformationen auf der Grundlage einer Eigenschaft eines optischen Fokuserfassungssystems. Die Korrekturinformationen beziehen sich auf die optischen Aberrationsinformationen oder Parallaxeninformationen. Ein Bereich, für den eine Fokuserfassung bereitzustellen ist, wird hinsichtlich seiner Position und Gestalt auf dem Bereichssensor aus den Abberationsinformationen und Parallaxeninformationen des optischen Systems für die Position dieses Bereichs bestimmt.
  • Die Aufgabe der Erfindung liegt im Bereitstellen einer Fokuserfassungsvorrichtung zum Durchführen einer genauen Fokuserfassung.
  • Gemäß der Erfindung wird diese Aufgabe durch eine wie in den beiliegenden Patentansprüchen dargelegte Fokuserfassungsvorrichtung gelöst.
  • Eine Ausgestaltung der Anwendung liegt hinsichtlich der vorstehend beschriebenen Situation im Bereitstellen einer Fokuserfassungsvorrichtung, die mit einer Lichterfassungseinrichtung, die eine Vielzahl von fotoelektrischen Umwandlungselementen umfasst, und einer Signalverarbeitungseinrichtung versehen ist, und in der ein Paar von Objektbildern, die eine Parallaxe aufweisen, auf die Lichtempfangseinrichtung projiziert werden, um dadurch ein Fokuserfassungsblickfeld zum Erfassen des Fokuszustand einer Objektivlinse zu bilden, und um die Fokusposition der Objektlinse durch die relative Positionsbeziehung zwischen dem Paar von Objektbildern zu erfassen, wobei die Signalverarbeitungseinrichtung zum Korrigieren der Ausgaben der fotoelektrischen Umwandlungselemente auf der Grundlage der Verteilung der Parallaxe auf dem Fokuserfassungsblickfeld eingerichtet ist, und selbst wenn die Bewegungsgeschwindigkeiten der Abbildungen auf der Lichtempfangseinrichtung voneinander abweichen, durch einen Berechnungsprozess ein Zustand gebildet wird, in dem eine Abtastung in einem Zustand, in dem der Spitzenwert groß ist, als das Pixel des Elements bei einer Position durchgeführt wurde, bei der die Bewegungsgeschwindigkeit fassbar hoch ist, und im Gegenzug ein Zustand gebildet wird, in dem eine Abtastung in einem Zustand, in dem der Spitzenwert klein ist, als das Pixel des Elements bei einer Position durchgeführt wurde, bei der die Bewegungsgeschwindigkeit klein ist.
  • Eine Ausgestaltung der Anwendung liegt im Bereitstellen einer Fokuserfassungsvorrichtung, die mit einem optischen System zum Veranlassen eines Paars von Abbildungen von unterschiedlichen Positionen in einer Szene, auf einer Lichtempfangseinrichtung empfangen zu werden, die eine Vielzahl von fotoelektrischen Umwandlungselementen mit einer Parallaxe umfasst, die mit jeder der Positionen konform geht, und in der der Abtastpunkt der fotoelektrischen Umwandlungselemente auf der Grundlage der Verteilung der Parallaxe bei jedem der Punkte auf der Lichtempfangseinrichtung bestimmt wird, um dadurch dem Problem der Bewegungsgeschwindigkeit der Abbildungen zu begegnen.
  • Eine Ausgestaltung der Anwendung liegt im Bereitstellen einer Fokuserfassungsvorrichtung, die mit einem optischen Abbildungssystem zum Neubilden des primären Objektbilds eines Lichtstrahls, der durch eine Objektivlinse passierte, und einer Lichtempfangseinrichtung versehen ist, die eine Vielzahl von fotoelektrischen Umwandlungselementen zum Empfangen eines Paares von sekundären Objektbildern, die eine Parallaxe aufweisen, von dem optischen Abbildungssystem umfasst, und in der für unterschiedliche Positionen in einer Szene ein Paar von sekundären Objektbildern veranlasst wird, auf der Lichtempfangseinrichtung empfangen zu werden, um den Fokuszustand eines Bereichs durch die relative Positionsbeziehung zwischen jedem Paar von sekundären Objektbildern zu erfassen, wobei zur Korrektur der Differenz für jeden Bereich in der Bewegungsgeschwindigkeit der Abbildungen, die sich aus der Defokussierung auf der Lichtempfangseinrichtung ergibt, die durch die Differenz zwischen den Parallaxen für die jeweiligen Positionen in der Szene verursacht wird, die Abtastspitzenwerte der Ausgaben der fotoelektrischen Umwandlungselemente veranlasst werden, voneinander im Einklang mit der Verteilung der Bewegungsgeschwindigkeit abzuweichen, um dadurch dem Problem der Bewegungsgeschwindigkeit der Abbildungen zu begegnen.
  • Andere Aufgaben der Erfindung werden aus der nachstehenden ausführlichen Beschreibung eines Ausführungsbeispiels der Erfindung in Verbindung mit den beiliegenden Zeichnungen offensichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigen:
  • 1 eine Blockdarstellung des Schaltungsaufbaus einer erfindungsgemäßen Fokuserfassungsvorrichtung,
  • 2 ein Ablaufdiagramm eines Fokuserfassungsprozessprogramms in der erfindungsgemäßen Fokuserfassungsvorrichtung,
  • 3 ein Bildsignal, das einer einheitlichen Luminanzoberfläche entspricht, die von einem Sensorenarray erhalten ist,
  • 4 eine Ansicht des optischen Pfads eines ersten Fokuserfassungssystems in der erfindungsgemäßen Fokuserfassungsvorrichtung,
  • 5 einen Graph der Korrektur des Bildsignals,
  • 6 ein optisches Fokuserfassungssystem in der erfindungsgemäßen Fokuserfassungsvorrichtung,
  • 7 das optische Fokuserfassungssystem in der erfindungsgemäßen Fokuserfassungsvorrichtung gemäß 6,
  • 8 eine Draufsicht einer gemäß 6 und 7 gezeigten Blende 108,
  • 9 den Zustand von sekundären Objektbildern auf einem gemäß den 6 und 7 gezeigten Bereichssensor,
  • 10 die Bewegungsrichtung der sekundären Objektbilder auf dem gemäß den 6 und 7 gezeigten Bereichssensor,
  • 11 eine Ansicht der Art und Weise einer fotoelektrischen Umwandlung der sekundären Objektbilder durch das gemäß den 6 und 7 gezeigte Sensorenarray,
  • 12 eine Draufsicht des gemäß den 6 und 7 gezeigten Bereichssensors,
  • 13 einen Fokuserfassungsbereich auf einer Bildaufnahmeoberfläche, und
  • 14 einen Fokuserfassungsbereich auf der Bildaufnahmeoberfläche.
  • BESCHREIBUNG DES BEVORZUGTEN AUSFÜHRUNGSBEISPIELS
  • 6 und 7 zeigen das optische Fokuserfassungssystem der Erfindung. Die Fokuserfassungsvorrichtung weist ein Erfassungssystem zur längs laufenden Unterteilung der Pupille einer Objektivlinse und ein Erfassungssystem zur lateralen Unterteilung der Pupille der Objektivlinse auf, und 6 zeigt den optischen Pfad des Ersteren, wie er auf eine Ebene projiziert wird, die die optische Achse der Objektivlinse enthält, und 7 zeigt den optischen Pfad des Letzteren, wie er auf die Ebene projiziert wird, die die optische Achse der Objektivlinse enthält.
  • Gemäß 6 und 7 bezeichnet Bezugszeichen 101 die optische Achse einer nicht gezeigten Objektivlinse, bezeichnet das Bezugszeichen 102 eine Bildaufnahmeoberfläche, bezeichnet das Bezugszeichen 103 einen Hauptspiegel, der auf der optischen Achse 101 der Objektivlinse angeordnet ist und einen semitransmittierenden Bereich, in dessen zentralem Abschnitt aufweist, bezeichnet das Bezugszeichen 104 eine ersten reflektierenden Spiegel, der schief zu der optischen Achse der Objektivlinse angeordnet ist, bezeichnet das Bezugszeichen 105 eine Parallaxenabbildungsebene, die mit der Bildaufnahmeoberfläche 102 konjugiert ist, die durch den ersten reflektierenden Spiegel umgekehrt wird, bezeichnet das Bezugszeichen 106 einen zweiten reflektierenden Spiegel, bezeichnet das Bezugszeichen 107 ein infrarotes Strahlenabschneidfilter, bezeichnet Bezugszeichen 108 eine Blende, die vier Öffnungsabschnitte aufweist, bezeichnet das Bezugszeichen 109 einen wiederabbildenden Linsenblock, der vier Linsenabschnitte entsprechend den Öffnungsabschnitten der Blende aufweist, bezeichnet das Bezugszeichen 110 einen dritten reflektierenden Spiegel, und bezeichnet das Bezugszeichen 111 einen Bereichssensor, der zwei Paare von Lichtempfangseinrichtungen des zweidimensionalen Typs aufweist. Jeder Lichtempfangsbereich umfasst eine Vielzahl von Sensorenarrays, die eine Vielzahl von Pixeln umfassen, die dieselbe Öffnung aufweisen, und die Sensorenarrays bilden ebenso ein Paar. Der erste reflektierende Spiegel 104 ist ein elliptischer Spiegel, und zwei die Ellipse definierende Brennpunkte sind auf einer Linie lokalisiert, entlang derer ein optischer Pfad umgekehrt zu der Objektivlinsenseite erweitert wird, nachdem ein Lichtstrahl auf der optischen Achse 101 der Objektivlinse durch den Hauptspiegel 103 gebrochen wurde.
  • Der erste reflektierende Spiegel 104 dient ebenso als eine Bereichsmaske zum Begrenzen des Fokuserfassungsbereichs, und deshalb ist lediglich dessen erforderlicher Bereich zum Reflektieren angepasst. Der zweite reflektierende Spiegel 106 und der dritte reflektierende Spiegel 110 sind ebene Spiegel. Von diesen Bestandteilen sind die optisch funktionierenden Abschnitte alle symmetrisch hinsichtlich der Ebenen der Zeichnungsblätter gemäß 6 und 7 aufgebaut.
  • 8 zeigt eine Draufsicht der Blende 108. Die Blende 108 umfasst eine lichtabfangende, dünne Platte, die aus Metall oder Harz hergestellt ist. Gemäß 8 bezeichnen Bezugszeichen 108e bis 108h Blendenöffnungsabschnitte, und bezeichnen die Bezugszeichen 108i und 108j Positionierungsaperturen. Die Blende 108 ist durch die Positionierungsaperturen 108i und 108j fest an den wiederabbildenden Linsenblock 109 angebracht.
  • Die Lichteinfallsseite des wiederabbildenden Linsenblocks 109 ist eine einzelne konkave Kugeloberfläche, die ihr Zentrum auf der optischen Achse der Objektivlinse aufweist, die durch den ersten reflektierenden Spiegel abgelenkt ist, und dessen Austrittsseite besteht aus zwei Paaren von konvexen Linsen 109e bis 109h, die in gegenüberliegenden Richtungen exzentrisch sind. Ferner ist das Zentrum der konkaven Kugeloberfläche auf der Parallaxenabbildungsebene 105 der Objektlinse lokalisiert, die durch den ersten reflektierenden Spiegel 104 gebildet ist, und sind die Zentren der zwei Paare von Linsenabschnitten 109e bis 109h im Wesentlichen nahe der Blendenöffnungen lokalisiert. Durch Anlegen der Leistungsfähigkeit der Linse in einer derartigen Form ist eine hochgenaue Fokuserfassung über einen breiten Wellenlängenbereich möglich.
  • Die Positionsbeziehung zwischen der Blende 108 und dem wiederabbildenden Linsenblock 109 ist derart eingestellt, dass die zwei Paare von Linsen 109e bis 109h hinter der Blende 108 lokalisiert sind, wie durch gestrichelte Linien gemäß 8 angegeben. Die Öffnungsschwerpunkte der Blendenöffnungen 108e und 108g befinden sich auf einer ersten Ebene PL1, die parallel zu dem optischen Pfad nahe der optischen Achse der Objektivlinse ist und die Krümmungszentren P6 bzw. P7 der Linsenabschnitte 109e bzw. 109g enthält, und die Öffnungsschwerpunkte der Blendenöffnungen 108f und 108h und die Krümmungszentren der Linsenabschnitte 109f und 109h befinden sich auf einer zweiten Ebene PL2, die den optischen Pfad nahe der optischen Achse der Objektivlinse enthält und die orthogonal zu der ersten Ebene PL1 ist.
  • Hinsichtlich des optischen Pfads eines Fokuserfassungslichtstrahls entsprechen jene der Blendenöffnungsabschnitte und der Linsenabschnitte einander, die durch dieselben Suffixe bezeichnet sind, und bildet ein durch jeden Öffnungsabschnitt passierter Lichtstrahl ein sekundäres Objektbild auf dem Bereichssensor 111 durch eine dritte reflektierende Platte. Lichtstrahlen, die durch die durch unterschiedliche Suffixe bezeichneten Elemente passierten, kommen nicht bei einer vorbestimmten Position auf dem Bereichssensor an und tragen somit nicht zur Fokuserfassung bei. Das Erfassungssystem, das Lichtstrahlen verwendet, die durch die durch Suffixe e und g bezeichneten Elemente passieren, unterteilt die Ausgangspupille der Objektivlinse längs laufend, während das Erfassungssystem, das Lichtstrahlen verwendet, die durch Suffixe f und h bezeichnete Elemente passieren, die Ausgangspupille der Objektivlinse lateral unterteilt. Nachstehend ist das Erfassungssystem, das die Pupille längs laufend unterteilt, erstes Fokuserfassungssystem genannt, und das Erfassungssystem, das die Pupille lateral unterteilt, ist zweites Fokuserfassungssystem genannt.
  • Der optische Vorgang in dem vorstehend beschriebenen Aufbau ist nachstehend beschrieben.
  • Die Bezugszeichen 112e, 112g, 112f und 112h, die gemäß 6 und 7 angegeben sind, bezeichnen Lichtstrahlen auf das Zentrum des Bildbereichs durch die Blende 108, die zur Fokuserfassung verwendet werden. Zur Beschreibung der Reihenfolge, in der sich diese Lichtstrahlen fortbewegen, wird der Lichtstrahl von der nicht gezeigten Objektivlinse zuerst durch den Hauptspiegel 103 transmittiert, wonach er durch den ersten reflektierenden Spiegel 104 in einer Richtung reflektiert wird, die im Wesentlichen entlang der Neigung des Hauptspiegels 103 verläuft. Der erste reflektierende Spiegel 104 ist wie vorstehend beschrieben ein elliptischer Spiegel und kann zwei Brennpunkte im Wesentlichen in einer Projektionsbeziehung platzieren.
  • Hierbei wird ein Brennpunkt bei dem optisch äquivalenten Punkt der repräsentativen Ausgangspupillenposition der Objektivlinse eingestellt, und der andere Brennpunkt wird bei dem optisch äquivalenten Punkt der Blende 108 eingestellt und wird mit der Funktion als eine Feldlinse betraut. Die repräsentative Ausgangspupillenposition dieser Objektivlinse ist eine vorläufige Pupillenposition, die dem Fokuserfassungssystem innewohnt und im Allgemeinen unter Berücksichtigung der Bedingungen der Ausgangsfenster von verschiedenen fotografierenden Linsen bestimmt wird, die bei einer Kamera angebracht sind.
  • Der durch den ersten reflektierenden Spiegel 104 reflektierte Lichtstrahl wird wieder durch den zweiten reflektierenden Spiegel 106 reflektiert und tritt in das infrarote Strahlenabschneidefilter 7 ein. Infrarote Strahlen, die der Faktor zur Verringerung der Genauigkeit der Fokuserfassung werden, werden hierbei entfernt, und lediglich das Licht eines Wellenlängenbereichs, in dem die Abberationskorrektur der Objektivlinse hinreichend durchgeführt wurde, kommt bei der Blende 108, die dahinter platziert ist, und dem wiederabbildenden Linsenblock 109 an.
  • Der durch den Vorgang des wiederabbildenden Linsenblocks 109 konvergierte Lichtstrahl bildet durch einen dritten reflektierenden Spiegel ein sekundäres Objektbild auf dem Bereichssensor 111. 9 zeigt den Zustand des sekundären Objektbilds auf dem Bereichssensor, und dieses ist ein Beispiel eines gitterartigen Objekts. Es werden vier sekundäre Objektbilder durch die vier Linsen des wiederabbildenden Linsenblocks 109 gebildet, und 122g, 122e und 122f, 122h werden Paare von Abbildungen, zwischen denen die relative Positionsbeziehung erfasst werden soll. Hierbei weicht die Beabstandung zwischen den Öffnungsabschnitten 108e und 108g der Blende 108 von der Beabstandung zwischen den Öffnungsabschnitten 108f und 108h der Blende 108 voneinander ab, und das zweite Fokuserfassungssystem, in dem die Beabstandung breiter ist, wird für die Bewegung des sekundären Objektbildes empfindlicher, weshalb eine hochgenaue Fokuserfassung möglich ist.
  • Der Bereich, in dem ein Objekt projiziert wird, weicht zwischen sekundären Objektbildern 122g, 122e und sekundären Objektbildern 122f, 122h ab, und wird ein Bereich, der durch die Größe des ersten reflektierenden Spiegels für die sekundären Objektbilder 122g und 122e bestimmt ist, und wird ein Bereich, durch den ein Lichtstrahl auf dem Hauptspiegel 103 und dem zweiten reflektierenden Spiegel für die sekundären Objektbilder 122f und 122h von der Differenz in der Beabstandung zwischen deren Blendenöffnungsabschnitten passieren kann, und schmaler als die sekundären Objektbilder 122g und 122e wird. Ebenso wird aufgrund der Tatsache, dass der erste reflektierende Spiegel 104 schief angeordnet ist, eine beträchtlich große Verzerrung, die frei von Achsensymmetrie ist, in jedem Bild erstellt.
  • Selbst wenn jedoch eine derartige Verzerrung vorliegt, wird, falls die nachstehenden zwei Bedingungen erfüllt sind, kein Problem hinsichtlich einer Fokuserfassungsvorrichtung für eine Kamera auftreten, die insbesondere eine schnelle Fokussierung erfordert. Die zwei Bedingungen bestehen darin, dass zum Erhalten einer genauen In-Fokusbestimmung, (1) wenn sich zumindest die Objektivlinse in Fokus befindet, sekundäre Objektbilder, die derselben Position auf dem Objekt entsprechen, auf ein Paar von zu erfassenden Sensorenarrays projiziert werden, d. h. die Differenz zwischen den Vergrößerungen der zwei Bilder ist in einer zu dem Sensorenarray orthogonalen Richtung klein, und zum Erhalten einer genauen Defokussierungserfassung, (2) wenn die Defokussierung der Objektivlinse aufgetreten ist, sekundäre Objektbilder, die derselben Position auf dem Objekt entsprechen, auf ein Paar von zu erfassenden Sensorenarrays mit einer Positionsphasendifferenz projiziert werden.
  • Nachstehend sind aus einem derartigen Blickwinkel das Bild und die Sensoren dieses Fokuserfassungssystems beschrieben. Zuerst befindet sich hinsichtlich des ersten Fokuserfassungssystems zum längs laufenden Unterteilen der Pupille die Neigung des ersten reflektierenden Spiegels 104 in der Ebene des Zeichnungsblatts gemäß 6, die mit der Unterteilungsrichtung der Pupille zusammenfällt, und deshalb wird die Verzerrung hinsichtlich beider sekundärer Objektbilder 122g und 122e eine sektorale Gestalt, die hinsichtlich dieser Ebene symmetrisch ist, und die Verzerrung selbst wird beträchtlich groß. Die Verzerrungsdifferenz zwischen den zwei Bildern ist jedoch leicht und partikulär, es liegt eine kleiner oder keine Bildvergrößerungsdifferenz in der lateralen Richtung gemäß 6 vor, die einer orthogonal zu der Unterteilung der Pupille stehenden Richtung entspricht. Demgemäß wird, falls die Lichtempfangsbereiche und die Sensorenarrays wie gemäß 11 gezeigt angeordnet sind, ein Objektbild, das ein Paar mit dem Objektbild bildet, das auf jedwedem Sensorenarray auf einem Lichtempfangsbereich projiziert ist, auf ein entsprechendes Sensorenarray auf dem anderen Lichtempfangsbereich projiziert. Das heißt, die vorstehend beschriebene Bedingung (1) ist erfüllt.
  • Ebenso liegt der Faktor der Verzerrung der sekundären Objektbilder in dem ersten reflektierenden Spiegel 104, d. h. dem optischen Pupillenprojektionssystem, und es lässt sich sagen, dass die Verzerrung, die auf der Parallaxenabbildungsebene 105 des ersten reflektierenden Spiegels 104 entsteht, intakt auf den Bereichssensor 111 durch den wiederabbildenden Linsenblock 109 projiziert wird. Demgemäß ist die Bewegungsrichtung der sekundären Objektbilder die Richtung der Anordnung der Blendenöffnungsabschnitte 108e und 108f, und auf dem Bereichssensor die gemäß 10 angegebene Pfeilrichtung. Demgemäß wird durch Einstellung der Sensorenarrays wie vorstehend beschrieben die Bedingung (2) zur selben Zeit ebenso erfüllt, wodurch es möglich ist, die relative Positionsbeziehung zwischen den sekundären Objektbildern zu vergleichen und den Defokussierbetrag der Objektivlinse herauszufinden.
  • 13 zeigt den Fokuserfassungsbereich 131 der Bildaufnahmeoberfläche 130 durch die so angeordneten Lichtempfangsbereiche. Da die eine Verzerrung aufweisenden sekundären Objektbilder durch die in einer rechteckigen Gestalt angeordneten Lichtempfangsbereiche 111g und 111e fotoelektrisch umgewandelt werden, wird der Fokuserfassungsbereich 103 in der Bildaufnahmeoberfläche 130 wie gezeigt verzerrt.
  • Nachstehend ist das zweite Fokuserfassungssystem zur lateralen Unterteilung der Pupille beschrieben. Es liegt nun lediglich in einem Bereich nahe dem zentralen Abschnitt der Bildaufnahmeoberfläche vor, dass die Abbildvergrößerungsdifferenz zwischen den zwei Bildern in einer zu der Unterteilung der Pupille orthogonalen Richtung klein wird. Sind die Lichtempfangsbereiche lediglich auf diese Position begrenzt, wird somit das Objektbild, das ein Paar mit dem Objektbild bildet, das auf jedwedes Sensorenarray auf einem Lichtempfangsbereich projiziert ist, auf ein entsprechendes Sensorenarray auf dem anderen Lichtempfangsbereich projiziert, und somit ist die vorstehend beschriebene Bedingung (1) erfüllt.
  • 12 zeigt eine Draufsicht der Bereichssensoren, in denen die Lichtempfangsbereiche 111f und 111h für das zweite Fokuserfassungssystem zusätzlich zu den Lichtempfangsbereichen 111g und 111e des gemäß 11 gezeigten ersten Fokuserfassungssystems gezeigt sind. Die Bewegungsrichtung der ein Paar bildenden sekundären Objektbilder 122f und 122h ist die Richtung der Anordnung der Blendenöffnungsabschnitte 108f und 108h aus einem ähnlichen Grund wie für das erste Fokuserfassungssystem, und durch die gezeigte Einstellung der Sensorenarrays kann die Bedingung (2) ebenso erfüllt werden. Der Fokuserfassungsbereich auf der Bildaufnahmeoberfläche durch derartige Lichtempfangsbereiche liegt wie gemäß 14 gezeigt vor, und der Fokuserfassungsbereich 134 ist der zentrale Abschnitt der Bildaufnahmeoberfläche 130.
  • Durch die Verwendung eines derartigen Bereichssensors 111 wird die Verteilung der Lichtmenge als ein elektrisches Signal entnommen, und die relative Positionsbeziehung zwischen den Bildern auf dem Paar von zu erfassenden Sensorenarrays wird erfasst, wodurch es möglich ist, die Fokusposition der Objektivlinse zu erfassen. Wird in diesem Fall das Paar von zu erfassenden Sensorenarrays geeignet ausgewählt, dann kann ein zweidimensional abgebildeter Zustand auf der Bildaufnahmeoberfläche erfasst werden. Es ist ebenso wie durch 132 und 133 gemäß 13 angegeben möglich, eine Defokussierungskarte auf der Bildaufnahmeoberfläche aus den Fokusinformationen eines stärker unterteilten Fokuspunkts zu erstellen, der durch das Sensorenarray erhalten wird, das in eine Vielzahl von Bereichen unterteilt wird, und den Fokus der Objektivlinse bei einer geeigneten Position in einem Hauptobjekt automatisch zu steuern.
  • 1 zeigt eine Blockdarstellung des Schaltungsaufbaus der Fokuserfassungsvorrichtung. Eine Schnittstellenschaltung 160 ist mit dem Bereichssensor 111 verbunden, und die Schnittstellenschaltung 160 ist ferner mit einem Mikrocomputer 165 verbunden, der eine Verarbeitungsvorrichtung ist. Die Bereichsausweisung in dem Lichtempfangsbereich des Bereichssensors 111, der zur Fokuserfassung verwendet wird, und die Akkumulationssteuerung der Photonenladung werden durch den Mikrocomputer 165 ausgeführt. Der Mikrocomputer 165 weist eine CPU (zentrale Verarbeitungseinheit, „Central Processing Unit") 161, einen ROM 162, einen RAM 163 und einen EEPROM (elektrisch löschbaren/programmierbaren ROM, „Electrically Erasable/Programmable ROM") 164 auf und führt den Fokuserfassungsverarbeitungsbetrieb gemäß einem in dem ROM 162 gespeicherten Programm aus. Ebenso werden die optischen Informationen des optischen Fokuserfassungssystems in dem EEPROM 164 durch einen Regelhub oder dergleichen vorab gespeichert.
  • 2 zeigt ein Ablaufdiagramm eines in dem ROM gespeicherten Fokuserfassungsverarbeitungsprogramms. Startet der Mikrocomputer den Fokuserfassungsprozess, dann wird der Bereichssensor 111 zuerst zum Ausführen der Akkumulation der Photonenladung in einem Schritt #101 angewiesen. Zu diesem Zeitpunkt wird der Akkumulationszeitpunkt derart gesteuert, dass in jedem Fokuserfassungsbereich die Photonenladung eine vorbestimmte Menge werden kann, und die Stärke eines Bildsignals, das in einem späteren Schritt entnommen wird, wird ohne Rücksichtnahme auf die Luminanz des Objekts im Wesentlichen konstant.
  • In dem nächsten Schritt #102 wird ein oder werden mehrere Fokuserfassungsbereiche auf der Grundlage der Ausgabe einer Visuelle-Achsenbestimmungseinrichtung (nicht gezeigt) zum Erfassen einer visuellen Achsenposition eines Fotografierenden und der Öffnungs-F-Zahlinformationen der Objektivlinse bestimmt.
  • Ist der Fokuserfassungsbereich auf der Bildaufnahmeoberfläche 130 bestimmt, dann wird eine Verschiebung zu einem Schritt #103 vorgenommen, in dem die Ladung, die im Einklang mit der Verteilung der Lichtmenge des sekundären Objektbilds akkumuliert ist, als ein Bildsignal ausgelesen und in dem RAM gespeichert wird.
  • Nachdem das Auslesen des Bildsignals aus einem vorbestimmten Lichtempfangsbereich vollendet ist, wird in dem nächsten Schritt #104 das Bildsignal in eine Form, die für den Fokuserfassungsprozess geeignet ist, gemäß den Informationen des optischen Fokuserfassungssystems, die in dem EEPROM gespeichert sind, umgewandelt. Insbesondere werden hinsichtlich des ersten Fokuserfassungssystems zum längs laufenden Unterteilen der Pupille der Prozess des Einstellens der Verzerrung in der Berechnung, wie nachstehend beschrieben, und der Korrekturprozess des Umwandelns der Bewegungsgeschwindigkeit des Bildes, die sich aus der Defokussierung ergibt, in eine konstante Geschwindigkeit ausgeführt. Nachstehend ist die Bewegungsgeschwindigkeit des Bilds, die sich aus der Defokussierung der Objektivlinse ergibt, als Bildabweichungsempfindlichkeit bezeichnet.
  • In einem Schritt #105 wird der Filterbetrieb des Beseitigens der Niederfrequenzkomponente des Bildsignals durchgeführt.
  • Schließlich wird in einem Schritt #106 der herkömmliche Bildintervallerfassungsprozess bei dem in den Schritten #104 und #105 verarbeiteten Bildsignal ausgeführt, und der Fokuszustand des zuvor eingestellten Fokuserfassungsbereichs wird erfasst.
  • Der Korrekturprozess für das Bildsignal, der in Schritt #104 gezeigt ist, ist nachstehend ausführlich beschrieben. Dieser Korrekturprozess umfasst die folgenden zwei Schritte:
    • • Die Korrektur des Abfalls der Menge von marginalem Licht des optischen Fokuserfassungssystems.
    • • Die Korrektur der Verzerrung des Bildes und der Bildabweichungsempfindlichkeit.
  • Die Korrektur des Abfalls der Menge von marginalem Licht ist der erste Schritt in dem Vorprozess der Korrektur der Verzerrung und der als nächstes ausgeführten Bildabweichungsempfindlichkeit, und wird erforderlich, um den Abstand zwischen zwei Bildern hochgenau zu erfassen. Ebenso kann bei der Korrektur der Verzerrung des Bildes und der Bildabweichungsempfindlichkeit die Verzerrungen der zwei ein Paar bildenden Abbildungen gleich gemacht werden und kann die Bewegung der Abbildungen, die sich aus der Defokussierung der Objektivlinse ergibt, einheitlich bei dem Signal umgewandelt werden. Das heißt, es lässt sich sagen, dass die Korrektur der Bildabweichungsempfindlichkeit der Prozess des virtuellen, berechnenden Erstellens eines Zustands ist, in dem bei einer Position auf dem Fokuserfassungsbereich, bei der sich das Bild schnell mit der Defokussierung bewegt, eine fotoelektrische Umwandlung durch Pixel durchgeführt wird, die einen großen Spitzenwert aufweisen, und bei einer Position, bei der sich das Bild langsam bewegt, eine fotoelektrische Umwandlung durch Pixel durchgeführt wird, die einen kleinen Spitzenwert aufweisen. Zu diesem Zeitpunkt sind die Bereiche der virtuellen Pixel, egal bei welcher Position, dieselben.
  • Zuerst ist nachstehend die Korrektur der Abfallmenge von marginalem Licht beschrieben. Ein fotoelektrisches Umwandeln des sekundären Objektbilds zum selben Zeitpunkt durch die Verwendung eines wie gemäß 11 gezeigten Sensorenarray, wobei Pixel derselben Gestalt angeordnet sind, entspricht einem Untersuchen von Lichtstrahlen pro Einheitsbereich, die in das Sensorenarray eintreten, d. h. die Illuminanz.
  • Im Allgemeinen wird die Illuminanz des optischen Bilds einer Oberfläche von einheitlicher Luminanz nicht durch die Fokallänge oder Vergrößerung eines Abbildungssystems bestimmt, sondern durch die F-Zahl. Die Beziehung zwischen dem Sensorenarray und der Blendenöffnung weist eingedenk dieser Natur durch deren Anwenden bei diesem Fokuserfassungssystem hinsichtlich eines Paars von wiederabbildenden optischen Systemen Achsensymmetrie auf, und deshalb wird ebenso eine Achsensymmetrie aufweisende Illuminierungsverteilung auf dem Sensorenarray erstellt, und die Verteilung wird durch die Kosinusquadratregel bestimmt. 3 stellt ein Bildsignal dar, das einer von dem Sensorenarray erhaltenen, einheitlichen Luminanzoberfläche entspricht. Die Abszissenachse stellt die Pixelposition dar, und die Ordinatenachse stellt deren Ausgangsenergie dar, und Bildsignale, die Illuminanzverteilungen sind, sind durch durchgezogene Linien 170 und 171 angegeben. Die Bildsignale zeigen unabhängig von der Verzerrung des sekundären Objektbilds, das frei von Achsensymmetrie ist, Symmetrie auf.
  • Für derartige Bildsignale wird die Korrektur des Mengenabfalls von marginalem Licht des optischen Fokuserfassungssystems durch Multiplizieren der Ausgabe eines jeden Pixels mit dem Verhältnis zwischen dem Spitzenwert des Bildsignals, das der einheitlichen Luminanzoberfläche entspricht, und der Ausgabe eines jeden Pixels, und durch dessen berechnende Korrektur zu Ausgaben, die durch gestrichelte Linien 172 und 173 angegeben sind, durchgeführt. Aus diesem Grund wird in der späteren Korrektur der Verzerrung des Bildes und der Bildabweichungsempfindlichkeit ein virtueller Abtastpunkt auf der Bildaufnahmeoberfläche gebildet, und deshalb ist es erforderlich, die Lichtmenge vor einem Passieren durch das wiederabbildende optische System, d. h. bevor der Abfall der Lichtmenge durch die Kosinusquadratregel auftritt, wieder zu erzeugen.
  • Nachstehend ist die Korrektur der Verzerrung des Bildes und der Bildabweichungsempfindlichkeit beschrieben. 4 zeigt eine Ansicht des optischen Pfads für das erste Fokuserfassungssystem. 4 zeigt Lichtstrahlen des Lichtstrahls, der bei dem Endabschnitt des Fokuserfassungsbereichs des ersten Fokuserfassungssystems ankommt, die durch die Schwerpunkte der Blendenöffnungsabschnitte 108e und 108g passieren. Um der Einfachheit Willen sind der Hauptspiegel 103 und der zweite reflektierende Spiegel 106 ausgelassen, und der optische Pfad ist entwickelt.
  • Da der erste reflektierende Spiegel 104 relativ zu der optischen Achse 101 der Objektivlinse schief angeordnet ist, differiert der Abstand zwischen der Blende 108 und dem ersten reflektierenden Spiegel 104 abhängig von deren Positionen auf dem Fokuserfassungsbereich. Wie zuvor beschrieben, fungiert der erste reflektierende Spiegel 104 als eine Feldlinse, und wird die Blende 108 auf die Objektivlinsenseite projiziert, dann werden die Bilder 180 und 181 derer aufgrund dieser Abstandsdifferenz wie gezeigt schief. Sind mit anderen Worten Punkte PA, PB und PC auf der Bildaufnahmeoberfläche 102 wie gezeigt definiert, besteht die Beziehung dahingehend, dass θ1 < θ2 < θ3 (1)unter den Winkeln θ1, θ2 und θ3 gilt, was die Schwerpunkte der Bilder 180 und 181 der Blende von diesen Punkten ermöglicht.
  • Das heißt, die Parallaxen θ1, θ2 und θ3 weichen voneinander abhängig von der Position auf dem Fokuserfassungsbereich (die Position auf dem Sensorenarray) ab, wenn die Pupille der Objektivlinse in zweigeteilt wird, und die Geschwindigkeit, mit der sich die zwei Bilder aufeinander zu und voneinander weg durch die Defokussierung der Objektivlinse bewegen, ist nicht einheitlich.
  • Des Weiteren sind die Verzerrungen der zwei Bilder nicht strikt dieselben, sondern hinsichtlich der vertikalen Richtung gemäß 9, d. h. der Richtung des Sensorenarrays gesprochen, wird das sekundäre Objektbild 122g größer als das sekundäre Objektbild 122e projiziert. In einem derartigen Zustand, in dem die Größen der Bilder voneinander abweichen, und die Ähnlichkeit der zwei Bilder gering ist, ist das erfasste Bildintervall ohne Bedeutung und natürlich kann dieses nicht für die Bestimmung des In-Fokuszustands verwendet werden.
  • Die Korrektur der Verzerrung des Bildes und der Bildabweichungsempfindlichkeit ist die Korrektur zur Vereinheitlichung der Größen der zwei Bilder in dem modifizierten Bildsignal, und ferner zur Vereinheitlichung der Bewegungsgeschwindigkeit der Bilder. Zu diesem Zweck können die virtuellen Abtastpunkte der zwei Bilder auf der primären Bildebene gleich gemacht werden, und des Weiteren kann zu diesem Zeitpunkt das Bildsignal in Berechnung derart umgewandelt werden, dass sich der Spitzenwert der virtuellen Abtastpunkte im Einklang mit der Verteilung der Bildabweichungsempfindlichkeit ändern kann.
  • Nachstehend ist die spezifische Signalverarbeitung beschrieben. Zuerst werden virtuelle Abtastpunkte aufgefunden, und dann werden tatsächliche Abtastpunkte aufge funden, und schließlich wird die Korrektur des Bildsignals durchgeführt. Da in dem Abschnitt der Korrektur des Bildsignals die Ausgabe eines jeden Pixels als der repräsentative Wert des Öffnungsschwerpunkts des Pixels behandelt wird, ist der Bereich, innerhalb dessen eine fotoelektrische Umwandlung durchgeführt wird, als ein Punkt ausgedrückt.
  • Bei der Bestimmung der virtuellen Abtastpunkte werden zuerst Koordinatenachsen definiert, die der Bildaufnahmeoberfläche 130 (102) und dem Bereichsensor 111 optisch entsprechen, und deren Richtung wird in der Richtung des Sensorenarray auf dem Bereichssensor 111 genommen. Die Positionskoordinaten des primären Objektbilds auf der Bildaufnahmeoberfläche 130 sind als X definiert, und die Positionskoordinaten des sekundären Objektbilds auf dem Bereichssensor 111 sind als x definiert. Zu diesem Zeitpunkt werden die Ursprünge der zwei Koordinatenachsen als miteinander optisch zusammenfallend angesehen, d. h. die Position, bei der der Lichtstrahl auf der optischen Achse 101 der Objektivlinse die Bildaufnahmeoberfläche 130 erreicht hat, ist als X = 0 definiert, und die Position des Lichtstrahls, der von der Position X = 0 emittiert ist, und durch das Zentrum des Blendenöffnungsabschnitts auf dem Bereichssensor passiert ist, ist als x = 0 definiert. Es werden zwei sekundäre Objektbilder für eine Position auf der Bildaufnahmeoberfläche gebildet, aber der nachstehend beschriebene Prozess trifft auf jedes der zwei sekundären Objektbilder zu.
  • Zuerst kann die Verteilung der Bildabweichungsempfindlichkeit durch den folgenden Ausdruck (2) als die quadratische Funktion des Abstands S1(J) (wobei J eine positive Zahl ist) von dem zu finden den Ursprung auf dem Bereichssensor 111 dargestellt werden: K = k0 + k1 × S1(J) + k2 × S1(J)2 (2),wobei K die Bildabweichungsempfindlichkeit ist, S1(J) die Position des virtuellen Abtastpunkts des J-en Pixels von der Position x = 0 ist, und k0, k1 und k2 Koeffizienten sind, die die Verteilung der Bildaufnahmeempfindlichkeit repräsentieren. Ebenso beträgt die Verteilung des Verhältnisses H der Bildabweichungsempfindlichkeit mit der Position von x = 0 als Bezug
    Figure 00230001
  • Ist der virtuelle Abtastspitzenwert auf der primären Bildebene (die Koordinaten eines jeden Pixels, wenn ein virtueller Bereichssensor auf die primäre Bildebene projiziert wird) zu der Bildabweichungsempfindlichkeit umgekehrt proportional, dann wird die Bewegungsgeschwindigkeit des Bildes offensichtlich konstant, und deshalb kann das Verhältnis H zwischen dem Abtastspitzenwert P(J) auf der primären Bildebene und der Bildabweichungsempfindlichkeit eine Beziehung wie der folgende Ausdruck (4) mit A als einer Konstante aufweisen: P(J) = AH (4)(A ist beispielsweise A = pp × β, wobei pp: Pixelspitzenwert (Pixel Pitch), β: Bezugsvergrößerung).
  • Es sei hierbei zur Vereinfachung ein unendlich feiner virtueller Abtastpunkt angenommen. Der Abstand S1 von dem Ursprung zu dem virtuellen Abtastpunkt kann durch die Addition des Spitzenwerts P ausgedrückt werden, und deshalb lautet die Beziehung mit t als Teilmenge des Abstands S1 S1= ∫Pdt (5).
  • Es kann ebenso der Abtastspitzenwert P auf der primären Bildebene als die differentielle Form von S1 mit t umgeschrieben werden, wie P = dS1dt (6).
  • Dem gemäß kann aus den Ausdrücken (2), (3), (4) und (6) die Beziehung hergeleitet werden, dass
    Figure 00240001
  • Wird die Differentialgleichung des Ausdrucks (7) unter der Randbedingung, dass S1 = 0, wenn t = 0, gelöst und wird ferner S1 zu dem diskreten Wert S1(J) umgewandelt, dann wird der folgende Ausdruck erhalten:
    Figure 00240002
  • Ist schließlich t als t = J × t1 definiert und ist t1 einer geeigneten Größe definiert, und ist S1(J) hinsichtlich jedem J ermittelt, dann wird alles andere außer S1(J) zu Konstanten und deshalb lässt sich eine Zahlensequenz {... S1(-2), S1(-1), S1(0), S1(1), S1(2) ...} ermitteln. Das heißt, das besagte S1(J) ist eine Position, die mit einem Spitzenwert konform geht, der zu der Bildabweichungsempfindlichkeit auf der primären Bildebene umgekehrt proportional ist, und wird die Aufgabe dieser Position herausgenommen, dann kann die Bewegungsgeschwindigkeit des Bildes als konstant verarbeitet werden. Wird t1 aus dem Ausdruck (8) ermittelt, wenn gilt S(J) = pp × β, dann werden der Spitzenwert des tatsächlichen Abtastpunktes nahe dem Ursprung und der Spitzenwert des virtuellen Abtastpunktes im Wesentlichen gleich zueinander.
  • Als nächstes wird der tatsächliche Abtastpunkt durch das Sensorenarray auf der Bildaufnahmeoberfläche 130 (die tatsächliche Pixelposition, wenn der Bereichssensor auf die primäre Bildebene projiziert wird) ermittelt.
  • X und x stehen derart in Beziehung, dass gilt X = x × (β × (1 + h(x))) (9)durch die Verzerrung h(x) mit β als die Bezugsvergrößerung (die Vergrößerung bei x = 0). Wird ferner der Spitzenwert der das Sensorenarray bildenden Pixel als pp (konstant) definiert, dann wird X(n), das durch X(n) = pp × J × (β × (1 + h(pp × n))) (10)dargestellt ist, der tatsächliche Abtastpunkt. Dementsprechend lässt sich ersehen, dass der Abtastspitzenwert des Bildes auf der Bildaufnahmeoberfläche, der aus Ausdruck (10) berechnet ist, aufgrund der Verzerrung des sekundären Objektbildes ein ungleiches Intervall ist.
  • Wie zuvor beschrieben, wird die Helligkeit des sekundären Objektbildes nicht durch die Fokallänge, die Vergrößerung, die Verzerrung usw. bestimmt, sondern durch die F-Zahl des optischen Abbildungssystems. Ebenso stellt das Ergebnis des sekundären Objektbildes, das durch Pixel eines gleichen Bereichs fotoelektrisch umgewandelt wurde, die Illuminanzverteilung des Bildes dar. Somit steht die Ausgabe des Sensorenarray für die Illuminanz eines Punktes, bei dem die Bildaufnahmeoberfläche bei unglei chen Intervallen abgetastet wird, wenn betrachtet wird, dass eine jede Pixelausgabe die Illuminanz bei der Schwerpunktsposition der Lichtempfangsöffnungen darstellt. Anders ausgedrückt ist es für die Ausgabe gleich, wenn Pixel, die Öffnungen desselben Bereichs aufweisen, bei ungleichen Intervallen platziert werden.
  • Das heißt, unter der Annahme, dass eine Änderung in der Lichtmenge zwischen zwei Punkten linear ist, kann die Illuminanz an jedwedem Punkt auf der Bildaufnahmeoberfläche durch Interpolieren der Ausgaben der tatsächlichen Abtastpunkte, die jenen Punkt einschließen, ermittelt werden. Es gibt einen Fall, in dem zwischen benachbarten tatsächlichen Abtastpunkten, z. B. X(n) und X(n + 1) eine Vielzahl von virtuellen Abtastpunkten vorliegt, oder ein einzelner virtueller Abtastpunkt vorliegt oder kein virtueller Abtastpunkt vorliegt, aber in jedem Fall kann unter Verwendung der tatsächlichen Abtastpunkte auf den gegenüberliegenden Seiten des virtuellen Abtastpunkts eine höhere Interpolationsgenauigkeit erwartet werden. Ebenso wurde das Bildsignal bereits der Korrektur der Abfallmenge von marginalem Licht des optischen Fokuserfassungssystems unterzogen, und deshalb besteht das Übel des Kombinierens von zwei Pixelausgaben durch eine Interpolationsberechnung nicht.
  • Nachstehend ist Bezug auf 5 zur Beschreibung der Korrektur des Bildsignals genommen. Gemäß 5 ist die Abszissenachse die Achse in der Sensorenarrayrichtung, die auf der Bildaufnahmeoberfläche definiert ist, und stellt die Ordinatenachse die Pixelausgabe dar. Gemäß 5 ist ein Bereich gezeigt, der tatsächliche Abtastpunkte (Positionen auf der primären Bildebene, die den tatsächlichen Pixelpositionen entsprechen, wenn die Pixel X(J) des Sensors auf die primäre Bildebene projiziert werden) X(-12), X(-11), X(-10), X(-9) und X(-8) und virtuelle Abtastpunkte (Pixelpositionen, die auf der primären Bildebene vorhanden sein sollten, um die Bewegungsgeschwindigkeit des Bildes als konstant zu verarbeiten) S1(-12), S1(-11), S1(-10) und S1(-9) enthält.
  • Die Tatsache, dass gemäß 13 das Sensorenarray, das auf die Bildaufnahmeoberfläche projiziert ist, sich nach unten hin ausdehnt, entspricht der Tatsache, dass gemäß 5 sich die Intervalle unter den tatsächlichen Abtastpunkten X(-12), X(-11), X(-10), X(-9) und X(-8) nach rechts ausdehnen, und die Änderung in der Parallaxe, die durch Ausdruck (1) dargestellt ist, entspricht der Tatsache, dass sich die Intervalle unter den virtuellen Abtastpunkten S1(-12), S1(-11), S1(-10), und S1(-9) nach links ausdehnen.
  • Wie gemäß 5 gezeigt, fallen die Position S1(J) (wobei J die Pixel-Nr. ist, wenn das Pixel bei der Ursprungsposition 0 ist), die einem jedem Pixel bei einem virtuellen Abtastpunkt entspricht, der die Pixelposition auf der primären Bildebene zur Verarbeitung der Bewegungsgeschwindigkeit des Bildes als konstant repräsentiert, und die Position X(n) (wobei n die Pixel-Nr. ist, wenn das Pixel bei der Ursprungsposition 0 ist), die einem jeden Pixel bei einem tatsächlichen Abtastpunkt entspricht, der die tatsächliche Pixelposition auf der primären Bildebene repräsentiert, nicht zusammen. Dem gemäß kann die Position S1(J) nicht direkt als die Pixelausgabe bei dem virtuellen Abtastpunkt entnommen werden, und deshalb wird die Ausgabe bei dem virtuellen Abtastpunkt gemäß der Ausgabe von dem tatsächlichen Abtastpunkt berechnet, von dem die Ausgabe eines jeden Sensorpixels entnommen werden kann, und wird diese Ausgabe für Korrelationsberechnungsdaten als die Sensor ausgabe verwendet. Hinsichtlich dieses spezifischen Verfahrens gibt es das folgende Verfahren. Ist eine Ausgabeberechnung bei den virtuellen Abtastpunkten S1(-12), S1(-11), und S1(-10) durchzuführen, dann wird S1(-12) aus X(-12) und X(-11) berechnet, wird S1(-11) aus X(-10) und X(-9) berechnet und werden S1(-10) und S1(-9) aus X(-9) und X(-8) berechnet. Beispielsweise lautet der Berechnungsausdruck hinsichtlich der Bildausgabe von S1(-12)
    Figure 00280001
    IMF(-12) = (IMO(-11) – IMO(-12)) × W(-12) + IMO(-12) (12).
  • Das heißt, ein allgemeiner Ausdruck zum Ermitteln eines Bildsignals IMF(J), das bei S1(J) korrigiert ist, das für n X(n) < S1(J) ≤ X(n + 1) (13)erfüllt, lautet
    Figure 00280002
    IMF(J) = IMO(n + 1) – IMO(n) × W(J) + IMO(n) (15).
  • Bei der tatsächlichen Verarbeitung in der Fokuserfassungsvorrichtung können die Anordnung von W(J) durch Ausdruck (14) und die Korrespondenzbeziehung zwischen J und n auf der Grundlage der Verzerrung h(x) des sekundären Objektbildes und der Bildabweichungsempfindlichkeit K vorab berechnet werden, und die Verarbeitung von Ausdruck (15) kann durchgeführt werden.
  • Wird ebenso ein Term zur Korrektur des Herstellungsfehlers des optischen Fokuserfassungssystems in Ausdruck (9) zum Ermitteln des tatsächlichen Abtastpunktes eingebracht, dann kann die Korrektur der Verzerrung des Bildes mit einer höheren Genauigkeit für individuelle Produkte ausgeführt werden. Das sekundäre Bild des Objekts, das auf dem Bereichssensor 111 gebildet ist, wird durch die Fluktuation des Intervalls zwischen einem Paar von Linsenabschnitten auf dem Linsenblock 109 bewegt, kann aber hinsichtlich des Entwurfswerts als verschieblich betrachtet werden, wobei die Verzerrung im Wesentlichen dieselbe ist. Dem gemäß ist es mit dem Bewegungsabschnitt des sekundären Objektbildes δ wirksam, den Ausdruck zum Auffinden des tatsächlichen Abtastpunktes umzuschreiben als X = (x – δ) × (β × (1 + h(x – δ))) (16).
  • δ kann ein Teil von Justierungsdaten sein, die in dem EEPROM 164 während der Justierung der Fokuserfassungsvorrichtung gespeichert werden.
  • Ferner sind die Verzerrung des sekundären Objektbilds und die Änderung in der Bildabweichungsempfindlichkeit bei der Differenz zwischen den Sensorenarrays sehr klein, und deshalb können dieselbe Anordnung von W(J) und dieselbe Korrespondenzbeziehung zwischen J und n verwendet werden.
  • Während die Korrektur der Verzerrung und der Bildabweichungsempfindlichkeit vorstehend hinsichtlich des Bildsignals beschrieben ist, das herausgenommen wurde, um den Abschnitt zwischen der maximalen Illuminanz und dem Nullniveau der Verteilung der Lichtmenge des sekundären Objektbilds zu enthalten, kann dieselbe Verarbeitung bei dem Bildsignal angewendet werden, das entnommen wurde, um den Abschnitt zwischen der maximalen Illuminanz und der minimalen Illuminanz zu enthalten.

Claims (13)

  1. Fokuserfassungsvorrichtung zum Erfassen des Fokussierzustands einer Objektivlinse, die ein optisches System umfasst, das in der folgenden Reihenfolge enthält: einen Hauptspiegel (103), der zum Passieren eines Teils des Lichts von der Objektivlinse eingerichtet ist, einen elliptischen reflektierenden Spiegel (104), der als eine Feldlinse fungiert und hinsichtlich der optischen Achse der Objektivlinse schief angeordnet ist, um das Licht, das den Hauptspiegel passiert hat, hin zu einer Objektivbildebene umzulenken, ein Paar von Blenden (108), wobei der elliptische reflektierende Spiegel (104) zwei Fokalpunkte aufweist, die in der Austrittspupille der Objektivlinse bzw. in der Ebene des Paars von Blenden lokalisiert sind, einen wiederabbildenden Linsenblock (109), eine Lichtempfangseinrichtung (111), die ein Paar von Sensoren (111e bis 111h) aufweist, wobei der wiederabbildende Linsenblock und das Paar von Blenden eingerichtet sind, um ein Paar von Objektabbildungen zu bilden, die eine Parallaxe aufweisen, die von dem Fokussierzustand des Paars auf den Sensoren (111e, 111g) abhängt, wobei die Abbildungen des Paars Verzerrungen und unterschiedliche Größen aufgrund der schiefen Anordnung des elliptischen reflektierenden Spiegels aufzeigen und unterschiedliche Bewegungsgeschwindigkeiten bei dem Paar von Sensoren während einer Fokussier bewegung der Objektivlinse aufzeigen, und das ferner umfasst: eine Korrektureinrichtung (161, Schritt 104) zum Vereinheitlichen der Größen des Paars von Objektabbildungen und zum Vereinheitlichen der Bewegungsgeschwindigkeiten des Paars von Objektabbildungen, und eine Erfassungseinrichtung (165, Schritt 106) zum Erfassen des Fokuszustands der Objektivlinse auf der Grundlage einer korrigierten relativen Position des Paars von Objektabbildungen.
  2. Fokuserfassungsvorrichtung gemäß Anspruch 1, wobei das optische System (103 bis 110) das Paar von Objektabbildungen von unterschiedlichen Positionen in einer Szene veranlasst, auf dem Paar von Sensoren (111e, 111g) der Lichtempfangseinrichtung (111) mit einer Parallaxe, die mit jeder der Positionen konform geht, empfangen zu werden, ferner mit: einer Bestimmungseinrichtung zum Bestimmen eines Abtastpunkts auf dem Paar von Sensoren auf der Grundlage der Verteilung der Parallaxe bei jeder der Positionen auf dem Paar von Sensoren, wobei die Erfassungseinrichtung (165, Schritt 106) den Fokuszustand bei jeder der Positionen auf der Grundlage der Ausgabe des Paars von Sensoren dem bestimmten Abtastpunkt entsprechend erfasst.
  3. Fokuserfassungsvorrichtung gemäß Anspruch 2, wobei die Erfassungseinrichtung (165, Schritt 106) die Ausgabe bei dem Abtastpunkt aus der Ausgabe von einem des Paars von Sensoren (111e, 111g), das dem Abtastpunkt benachbart ist, berechnet, und den Fokuszustand auf der Grundlage der berechneten Ausgabe erfasst.
  4. Fokuserfassungsvorrichtung gemäß Anspruch 2, wobei die Bestimmungseinrichtung einen Abtastspitzenwert bei der Lichterfassungseinrichtung (111) auf einen Spitzenwert einstellt, der mit der Verteilung der Parallaxe bei jeder der Positionen konform geht, um dadurch den Abtastpunkt zu bestimmen.
  5. Fokuserfassungsvorrichtung gemäß Anspruch 2, wobei dann, wenn eine vorbestimmte Position auf der Lichterfassungseinrichtung (111) die Ursprungsposition ist, die Parallaxe eine Verteilung aufweist, in der die Parallaxe zu dem Element oder von dem Element groß oder klein ist.
  6. Fokuserfassungsvorrichtung gemäß Anspruch 2, wobei die Blende (108) des optischen Systems damit versehen ist, dass sie ein Paar von Öffnungen aufweist, um durch diese einen Lichtstrahl passieren zu lassen, der eine Abbildung bildet, die durch eine Objektivlinse und ein Paar von optischen Abbildungssystemen, die der Blende entsprechen, passiert, und einen Lichtstrahl von jeder Position veranlasst, als ein Paar von Abbildungen empfangen zu werden, die eine Parallaxe aufweisen, die mit jeder Position bei einem Paar von Bereichen konform geht, die mit jeder Position bei der Lichtempfangseinrichtung (111) konform gehen.
  7. Fokuserfassungsvorrichtung gemäß Anspruch 6, wobei die Erfassungseinrichtung (165, Schritt 106) die relative Positionsbeziehung zwischen einem Paar von Abbildungen in einem Paar von Bereichen, die mit jeder Position konform gehen, auf der Grundlage der Ausgaben aus dem Paar von Sensoren in dem Paar von Bereichen erfasst, und wobei die Bestimmungseinrichtung die Abtastpunkte der Ausgaben des Paars von Sensoren im Einklang mit der Parallaxe bei der Position bestimmt.
  8. Fokuserfassungsvorrichtung gemäß Anspruch 2, wobei die Bestimmungseinrichtung den Abtastpunkt bei jeder Position im Einklang mit der Parallaxe für den Sensor bei der Position bestimmt, so dass die Verteilung der Parallaxe anscheinend konstant werden kann.
  9. Fokuserfassungsvorrichtung gemäß Anspruch 1, die ferner umfasst: eine Einstelleinrichtung zum Einstellen des Abtastspitzenwerts oder Abtastpunkts des Paars von Sensoren (111e bis 111h) im Einklang mit der Verteilung der Bewegungsgeschwindigkeit der Abbildungen, die sich aus der Defokussierung auf der Lichtempfangseinrichtung (111) ergeben, die durch die Differenz zwischen den Parallaxen für die jeweiligen Positionen in der Szene verursacht werden, um die Differenz für jeden Bereich in der Bewegungsgeschwindigkeit zu korrigieren, eine Verarbeitungseinrichtung (165) zum Ausführen einer Fokuserfassungsverarbeitung auf der Grundlage der Ausgabe der Paare von Sensoren bei einer Position, die dem durch die Einstelleinrichtung eingestellten Abtastspitzenwert oder Abtastpunkt entspricht, und und wobei das wiederabbildende optische System (109) zum Wiederbilden der primären Objektabbildung eines Lichtstrahls, der durch eine Objektivlinse passiert, um das Paar von Objektabbildungen zu erhalten, eingerichtet ist, und die Lichtempfangseinrichtung (111) die Paare von Sensoren (111e bis 111h) zum Empfangen des Paars von sekundären Objektabbildungen aufweist, die eine Parallaxe aufweisen, von dem wiederabbildenden optischen System (109), und in dem für unterschiedliche Positionen in einer Szene jedes Paar von sekundären Objektabbildungen veranlasst ist, bei der Lichtempfangseinrichtung (111) empfangen zu werden, um den Fokuszustand eines Bereichs durch die relative Positionsbeziehung zwischen jedem Paar von sekundären Objektabbildungen zu erfassen.
  10. Fokuserfassungsvorrichtung gemäß Anspruch 9, wobei die Einstelleinrichtung den Abtastspitzenwert oder den Abtastpunkt bestimmt, so dass die Verteilung der Bewegungsgeschwindigkeit anscheinend einheitlich werden kann.
  11. Fokuserfassungsvorrichtung gemäß Anspruch 9, wobei die Bewegungsgeschwindigkeit eine derartige Verteilung aufweist, dass wenn die Paare von Sensoren bei einer vorbestimmten Position in der Lichtempfangseinrichtung (111) der Ursprung ist, die Bewegungsgeschwindigkeit der Abbildung bei einer Position weit weg von dem Sensor bei der Ursprungsposition höher wird, und der Abtastspitzenwert oder Abtastpunkt bei der Position, die die Bewegungsgeschwindigkeit im Einklang mit der Bewegungsgeschwindigkeit bei jeder Position angibt, im Einklang mit der Bewegungsgeschwindigkeit bei der Position bestimmt ist.
  12. Fokuserfassungsvorrichtung gemäß Anspruch 9, wobei die Blende (108) ein Paar von Öffnungen umfasst, die vor dem wiederabbildenden optischen System (109) angeordnet sind, und wobei das wiederabbildende optische System ein Paar von optischen Systemen umfasst, die der Blende entsprechen.
  13. Fokuserfassungsvorrichtung gemäß Anspruch 9, wobei die Verarbeitungseinrichtung (165) eine Ausgabe bei dem Abtastpunkt aus der Ausgabe von einem des Paars von Sensoren, der dem Abtastpunkt benachbart ist, berechnet, und die Fokuserfassungsverarbeitung auf der Grundlage der Ausgabe ausführt.
DE69835850T 1997-05-12 1998-05-11 Scharfeinstellung-Detektionsgerät Expired - Lifetime DE69835850T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP12101397 1997-05-12
JP9121013A JPH10311945A (ja) 1997-05-12 1997-05-12 焦点検出装置

Publications (2)

Publication Number Publication Date
DE69835850D1 DE69835850D1 (de) 2006-10-26
DE69835850T2 true DE69835850T2 (de) 2007-05-24

Family

ID=14800653

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69835850T Expired - Lifetime DE69835850T2 (de) 1997-05-12 1998-05-11 Scharfeinstellung-Detektionsgerät

Country Status (4)

Country Link
US (1) US5892578A (de)
EP (1) EP0878726B1 (de)
JP (1) JPH10311945A (de)
DE (1) DE69835850T2 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4190086B2 (ja) * 1999-05-10 2008-12-03 オリンパス株式会社 電子的撮像装置
JP2007010951A (ja) 2005-06-30 2007-01-18 Canon Inc 焦点検出装置及び撮像装置
CN103026171B (zh) * 2011-05-27 2016-03-16 松下电器产业株式会社 图像处理装置及图像处理方法
US8755045B2 (en) * 2012-01-06 2014-06-17 Taiwan Semiconductor Manufacturing Company, Ltd. Detecting method for forming semiconductor device
JP6021780B2 (ja) * 2013-10-07 2016-11-09 キヤノン株式会社 画像データ処理装置、距離算出装置、撮像装置および画像データ処理方法
CN109862271B (zh) * 2019-02-27 2021-03-16 上海创功通讯技术有限公司 相位差对焦方法、电子设备及计算机存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5315131A (en) * 1976-07-27 1978-02-10 Canon Inc Detecting method for sharpness of objective image
JPS6115112A (ja) * 1984-07-02 1986-01-23 Canon Inc 焦点検出装置
JPS62173412A (ja) * 1986-01-27 1987-07-30 Canon Inc 焦点検出装置
JPS63163418A (ja) * 1986-12-26 1988-07-06 Olympus Optical Co Ltd 焦点検出装置
US5155518A (en) * 1988-08-24 1992-10-13 Nikon Corporation Focus detecting apparatus
US5087935A (en) * 1989-02-01 1992-02-11 Canon Kabushiki Kaisha Active external distance measuring system having an optical device in the light projection and light receiving paths to reduce parallax
JPH06103182B2 (ja) * 1991-06-07 1994-12-14 株式会社ニコン 焦点検出装置
JP3285376B2 (ja) * 1991-11-29 2002-05-27 キヤノン株式会社 自動焦点検出装置
US5615399A (en) * 1991-08-28 1997-03-25 Canon Kabushiki Kaisha Focus detecting apparatus having photoelectric area sensors
JPH0875995A (ja) * 1994-09-07 1996-03-22 Nikon Corp 焦点検出装置
JPH09105856A (ja) * 1995-10-06 1997-04-22 Canon Inc 焦点検出装置

Also Published As

Publication number Publication date
EP0878726A3 (de) 2000-09-20
JPH10311945A (ja) 1998-11-24
US5892578A (en) 1999-04-06
DE69835850D1 (de) 2006-10-26
EP0878726A2 (de) 1998-11-18
EP0878726B1 (de) 2006-09-13

Similar Documents

Publication Publication Date Title
DE102006004802B4 (de) Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
DE102015215845B4 (de) Multiaperturabbildungsvorrichtung mit kanalindividueller Einstellbarkeit
DE102010023108B4 (de) Projektor mit automatischer Fokussierung und Abbildungsverfahren
DE102010030833A1 (de) Vorrichtung zur Messung einer dreidimensionalen Form
DE102017206442B4 (de) Vorrichtung zur Abbildung von Teilgesichtsfeldern, Multiaperturabbildungsvorrichtung und Verfahren zum Bereitstellen derselben
DE102012215429A1 (de) Bildverarbeitungssystem und automatisches Fokussierverfahren
DE69629000T2 (de) Fokusdetektor
DE102018207552A1 (de) Fahrzeugkamera und Fahrzeugkameraanordnung
DE69835850T2 (de) Scharfeinstellung-Detektionsgerät
DE102012105436A1 (de) Fahrzeugkamera zur Entfernungsmessung
DE69732946T2 (de) Photoelectrischer Konverter
DE3150818A1 (de) Scharfstellungs-vorrichtung
DE60306718T2 (de) Lichtabtastvorrichtung und Abbildungsvorrichtung für zweidimensionale Bilder
DE112017002459T5 (de) Bildlesevorrichtung
DE2918075C2 (de) Vorrichtung zur Fokussierungsermittlung für eine Kamera
DE4216724C2 (de) Vorrichtung zum Erfassen der Scharfeinstellung
WO2020127748A1 (de) Vorrichtung mit einer multiaperturabbildungsvorrichtung zum akkumulieren von bildinformation
DE19959380C2 (de) Spiegelreflexkamera
DE60223786T2 (de) Telezentrische Einfachlinse mit kleinem Höhenbedarf
EP3900317A1 (de) Vorrichtung mit einer multiaperturabbildungsvorrichtung zur erzeugung einer tiefenkarte
JP4011676B2 (ja) 焦点検出装置
EP3948389B1 (de) Vorrichtung mit einer multiaperturabbildungsvorrichtung zur erzeugung einer tiefenkarte
EP4227636B1 (de) Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks
DE69434252T2 (de) Antriebseinrichtung
DE3007172A1 (de) Belichtungsmesser fuer eine kamera

Legal Events

Date Code Title Description
8364 No opposition during term of opposition