DE102016114025A1 - Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium - Google Patents

Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium Download PDF

Info

Publication number
DE102016114025A1
DE102016114025A1 DE102016114025.2A DE102016114025A DE102016114025A1 DE 102016114025 A1 DE102016114025 A1 DE 102016114025A1 DE 102016114025 A DE102016114025 A DE 102016114025A DE 102016114025 A1 DE102016114025 A1 DE 102016114025A1
Authority
DE
Germany
Prior art keywords
focus detection
signal
picture element
color
detection signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016114025.2A
Other languages
English (en)
Inventor
Koichi Fukuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016103015A external-priority patent/JP6639326B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102016114025A1 publication Critical patent/DE102016114025A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

Eine Steuervorrichtung (121) enthält eine Erzeugungseinheit (121a) zur Erzeugung eines ersten und zweiten Fokuserfassungssignals beruhend auf einer Vielzahl von Typen von Farbsignalen aus einer ersten und einer zweiten Bildelementgruppe, die Lichtstrahlen empfangen, die durch voneinander verschiedene Teilpupillenregionen gehen, und eine Berechnungseinheit (121b) zur Berechnung eines Defokussierausmaßes durch ein Phasendifferenzerfassungsverfahren unter Verwendung des ersten und zweiten Fokuserfassungssignals, und die Erzeugungseinheit kombiniert die Farbsignale bezüglich der ersten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in einer Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal zu erzeugen, und kombiniert die Farbsignale bezüglich der zweiten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung miteinander übereinstimmen, um das zweite Fokuserfassungssignal zu erzeugen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildaufnahmevorrichtung, die eine Fokuserfassung durch ein Phasendifferenzerfassungsverfahren durchführt.
  • Beschreibung der verwandten Technik
  • Herkömmliche Bildaufnahmevorrichtungen, die eine Fokuserfassung eines Phasendifferenzerfassungsverfahrens (Abbildungsebene-Phasendifferenzverfahrens) unter Verwendung von Fokuserfassungssignalen von einem Bildaufnahmeelement durchführen, sind bekannt.
  • Das US-Patent Nr. 4410804 offenbart eine Bildaufnahmevorrichtung, die ein zweidimensionales Bildaufnahmeelement verwendet, in dem eine einzelne Mikrolinse und eine Vielzahl geteilter fotoelektrischer Umwandlungsabschnitte für jedes Bildelement gebildet sind. Die geteilten fotoelektrischen Umwandlungsabschnitte empfangen Lichtstrahlen, die durch verschiedene Teilpupillenregionen einer Austrittspupille einer Abbildungslinse gefallen sind, über die einzelne Mikrolinse zum Teilen der Pupille. Ein Bildverschiebungsausmaß kann beruhend auf jedem der Fokuserfassungssignale berechnet werden, die durch die geteilten fotoelektrischen Umwandlungsabschnitte (Fokuserfassungsbildelemente) empfangen werden, um eine Fokuserfassung durch ein Phasendifferenzerfassungsverfahren durchzuführen. Die japanische Patentoffenlegung Nr. 2001-083407 offenbart eine Bildaufnahmevorrichtung, die jeweilige Fokuserfassungssignale kombiniert, die durch die geteilten fotoelektrischen Umwandlungsabschnitte empfangen werden.
  • Die japanische Patentoffenlegung Nr. 2000-156823 offenbart eine Bildaufnahmevorrichtung, die ein Paar von Fokuserfassungsbildelementen enthält, die teilweise in einem Teil eines Arrays einer Vielzahl von Abbildungsbildelementen angeordnet sind. Das Paar der Fokuserfassungsbildelemente empfängt Lichtstrahlen, die durch voneinander verschiedene Regionen in einer Austrittspupille einer Abbildungslinse zum Teilen der Pupille fallen. Ein Bildverschiebungsausmaß kann beruhend auf Fokuserfassungssignalen des Paars der Fokuserfassungsbildelemente zur Durchführung einer Fokuserfassung durch das Phasendifferenzerfassungsverfahren berechnet werden. Mit der Fokuserfassung durch das Phasendifferenzerfassungsverfahren (Abbildungsebene-Phasen-differenzverfahren) können eine Defokussierrichtung und ein Defokussierausmaß durch die Fokuserfassungsbildelemente des Bildaufnahmeelements gleichzeitig erfasst werden, und demnach ist die Durchführung einer Hochgeschwindigkeitsfokussteuerung möglich.
  • Allerdings kann bei dem Abbildungsebene-Phasendifferenzverfahren ein Ortsfrequenzband eines Fokuserfassungssignals für die Fokuserfassung von einem Ortsfrequenzband eines Abbildungssignals zur Erzeugung eines aufgenommenen Bildes verschieden sein. In diesem Fall tritt eine Differenz zwischen einer erfassten Position im Brennpunkt beruhend auf dem Fokuserfassungssignal und einer besten Position im Brennpunkt beruhend auf dem Abbildungssignal auf, und demnach ist die Durchführung der Fokuserfassung mit hoher Genauigkeit schwierig.
  • KURZZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung stellt eine Steuervorrichtung, eine Bildaufnahmevorrichtung, ein Steuerverfahren, ein Programm und ein Speichermedium bereit, die eine Differenz zwischen einer erfassten Position im Brennpunkt beruhend auf einem Fokuserfassungssignal und einer besten Position im Brennpunkt beruhend auf einem Abbildungssignal zur Durchführung einer Fokuserfassung mit hoher Genauigkeit verringern können.
  • Gemäß ihrer ersten Ausgestaltung stellt die Erfindung eine Steuervorrichtung wie in den Ansprüchen 1 bis 11 definiert bereit.
  • Gemäß ihrer zweiten Ausgestaltung stellt die Erfindung eine Bildaufnahmevorrichtung wie in den Ansprüchen 12 bis 14 definiert bereit.
  • Gemäß ihrer dritten Ausgestaltung stellt die Erfindung ein Steuerverfahren wie in den Ansprüchen 15 bis 19 definiert bereit.
  • Gemäß ihrer vierten Ausgestaltung stellt die Erfindung ein Programm wie in Anspruch 20 definiert bereit.
  • Gemäß ihrer fünften Ausgestaltung stellt die Erfindung ein Speichermedium wie in Anspruch 21 definiert bereit.
  • Weitere Merkmale der Erfindung werden aus der folgenden Beschreibung der Ausführungsbeispiele unter Bezugnahme auf die beiliegenden Zeichnungen ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Blockschaltbild einer Bildaufnahmevorrichtung gemäß jedem Ausführungsbeispiel.
  • 2 zeigt eine Darstellung zur Veranschaulichung eines Bildelementarrays gemäß den Ausführungsbeispielen 1 und 2.
  • Die 3A und 3B zeigen Darstellungen zur Veranschaulichung eines Bildelementaufbaus gemäß den Ausführungsbeispielen 1 und 2.
  • 4 zeigt eine erläuternde Darstellung eines Bildaufnahmeelements und einer Pupillenteilungsfunktion gemäß jedem Ausführungsbeispiel.
  • 5 zeigt eine erläuternde Darstellung des Bildaufnahmeelements und der Pupillenteilungsfunktion gemäß jedem Ausführungsbeispiel.
  • 6 zeigt eine Darstellung eines Verhältnisses zwischen einem Defokussierausmaß und einem Bildverschiebungsausmaß gemäß jedem Ausführungsbeispiel.
  • 7 zeigt ein Ablaufdiagramm zur Veranschaulichung eines ersten Fokuserfassungsprozesses gemäß jedem Ausführungsbeispiel.
  • 8 zeigt eine erläuternde Darstellung einer ersten Bildelementadditionsverarbeitung gemäß jedem Ausführungsbeispiel.
  • Die 9A bis 9C zeigen erläuternde Darstellungen einer durch eine Pupillenverschiebung eines ersten Fokuserfassungssignals und eines zweiten Fokuserfassungssignals gemäß jedem Ausführungsbeispiel verursachten Schattierung.
  • 10 zeigt eine erläuternde Darstellung eines Filterfrequenzbands gemäß jedem Ausführungsbeispiel.
  • 11 zeigt ein Ablaufdiagramm zur Veranschaulichung eines zweiten Fokuserfassungsprozesses gemäß jedem Ausführungsbeispiel.
  • 12 zeigt eine erläuternde Darstellung einer zweiten Bildelementadditionsverarbeitung gemäß Ausführungsbeispiel 1.
  • 13 zeigt ein Ablaufdiagramm zur Veranschaulichung einer Fokussteuerung gemäß jedem Ausführungsbeispiel.
  • 14 zeigt eine erläuternde Darstellung einer zweiten Bildelementadditionsverarbeitung gemäß Ausführungsbeispiel 2.
  • 15 zeigt eine Darstellung zur Veranschaulichung eines Bildelementarrays gemäß Ausführungsbeispiel 3.
  • Die 16A und 16B zeigen Darstellungen zur Veranschaulichung eines Bildelementaufbaus gemäß Ausführungsbeispiel 3.
  • 17 zeigt ein Ablaufdiagramm zur Veranschaulichung einer Fokussteuerung gemäß jedem Ausführungsbeispiel.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Nachstehend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben. Jedes der nachstehend beschriebenen Ausführungsbeispiele der Erfindung kann allein oder als Kombination einer Vielzahl der Ausführungsbeispiele oder deren Merkmale bei Bedarf oder dann implementiert werden, wenn die Kombination der Elemente oder Merkmale aus einzelnen Ausführungsbeispielen in einem einzigen Ausführungsbeispiel von Vorteil ist.
  • [AUSFÜHRUNGSBEISPIEL 1]
  • Zuerst wird unter Bezugnahme auf 1 eine schematische Konfiguration einer Bildaufnahmevorrichtung gemäß Ausführungsbeispiel 1 der Erfindung beschrieben. 1 zeigt ein Blockschaltbild einer Bildaufnahmevorrichtung 100 (Kamera) gemäß diesem Ausführungsbeispiel. Die Bildaufnahmevorrichtung 100 ist ein Digitalkamerasystem, das einen Kamerakörper und ein Wechselobjektiv (optisches Abbildungssystem oder optisches Bildaufnahmesystem) enthält, das am Kamerakörper entfernbar angebracht ist. Allerdings ist dieses Ausführungsbeispiel nicht darauf beschränkt, und kann auch bei einer Bildaufnahmevorrichtung mit einem Kamerakörper und einem Objektiv angewendet werden, die ineinander integriert sind.
  • Eine erste Linseneinheit 101 ist an der Vorderseite (Objektseite) einer Vielzahl von Linseneinheiten angeordnet, die ein Abbildungsobjektiv (optisches Abbildungssystem) bilden, und wird an einem Objektivtubus gehalten, sodass sie in einer Richtung einer optischen Achse OA (optischen Achsenrichtung) vor und zurück bewegt werden kann. Eine Blende/ein Verschluss 102 (eine Öffnungsblende) passt ihren Öffnungsdurchmesser zur Steuerung einer Lichtstärke beim Aufnehmen eines Bildes an, und arbeitet auch als Verschluss zur Steuerung einer Belichtungszeit bei der Aufnahme eines Stehbildes. Eine zweite Linseneinheit 103 bewegt sich ganzheitlich mit der Blende/dem Verschluss 102 in der optischen Achsenrichtung vor und zurück, und weist eine Zoomfunktion auf, die einen Vergrößerungsveränderungsvorgang zusammen mit der Vor- und Zurückbewegung der ersten Linseneinheit 101 durchführt. Eine dritte Linseneinheit 105 ist eine Fokussierlinseneinheit, die sich in der optischen Achsenrichtung zur Durchführung einer Fokussierung (eines Fokussiervorgangs) vor und zurück bewegt. Ein optisches Tiefpassfilter 106 ist ein optisches Element, das eine Falschfarbendarstellung oder ein Moire-Muster eines aufgenommenen Bildes (fotografierten Bildes) reduziert.
  • Ein Bildaufnahmeelement 107 (Bildsensor) führt eine fotoelektrische Umwandlung eines Objektbildes (optischen Bildes) durch, das über das optische Abbildungssystem erzeugt wird, und enthält beispielsweise einen CMOS-Sensor oder einen CCD-Sensor und seine Peripherieschaltung. Als Bildaufnahmeelement 107 wird beispielsweise ein zweidimensionaler Ein-Platten-Farbsensor verwendet, der ein Primärfarbenmosaikfilter mit einem Bayer-Array enthält, das auf einem Lichtempfangsbildelement mit m Bildelementen in horizontaler Richtung und n Bildelementen in vertikaler Richtung in einer auf dem Chip-Konfiguration gebildet ist.
  • Ein Zoomstellglied 111 bewegt (steuert) einen (nicht gezeigten) Kurvenzylinder zur Bewegung der ersten Linseneinheit 101 und der zweiten Linseneinheit 103 rotierend entlang der optischen Achsenrichtung zur Durchführung des Vergrößerungsveränderungsvorgangs. Das Blenden-/Verschlussstellglied 112 steuert den Öffnungsdurchmesser der Blende/des Verschlusses 102 zur Anpassung der Lichtstärke (Fotografierlichtstärke), und steuert auch die Belichtungszeit bei der Aufnahme des Stehbildes. Ein Fokusstellglied 114 bewegt die dritte Linseneinheit 105 in der optischen Achsenrichtung zur Durchführung der Fokussierung.
  • Ein Elektronenblitz 115 ist eine Beleuchtungseinrichtung, die zur Beleuchtung des Objekts zu verwenden ist. Als Elektronenblitz 115 wird eine Blitzbeleuchtungseinrichtung verwendet, die eine Xenon-Röhre oder eine Belichtungseinrichtung enthält, die eine kontinuierlich lichtemittierende LED (lichtemittierende Diode) enthält. Eine AF-Hilfsbeleuchtungseinheit 116 projiziert ein Bild einer Maske mit einem vorbestimmten Öffnungsmuster über eine Projektionslinse auf das Objekt. Mit dieser Konfiguration kann eine Fokuserfassungsfähigkeit für ein dunkles Objekt oder ein Objekt mit geringem Kontrast verbessert werden.
  • Die CPU 121 ist eine Steuervorrichtung (Steuereinheit oder Steuereinrichtung), die verschiedene Steuerungen der Bildaufnahmevorrichtung 100 leitet. Die CPU 121 enthält einen Prozessor, einen ROM, einen RAM, einen AD-Wandler, einen DA-Wandler, eine Kommunikationsschnittstellenschaltung und dergleichen. Die CPU 121 liest und führt ein im ROM gespeichertes vorbestimmtes Programm zum Ansteuern verschiedener Schaltungen der Bildaufnahmevorrichtung 100 und zur Durchführung einer Reihe von Vorgängen wie einer Fokuserfassung (AF), Bildaufnahme (Fotografieren), Bildverarbeitung oder Aufzeichnung aus. Die Kommunikationsschnittstellenschaltung kann eine Kommunikation unter Verwendung einer Drahtlostechnik wie Drahtlos-LAN, sowie eine Kommunikation unter Verwendung einer Leitung wie USB und leitungsgebundenes LAN durchführen.
  • Die CPU 121 enthält eine Erzeugungseinheit 121a (Erzeugungsmittel, Erzeugungsschaltung oder Erzeugungseinrichtung), eine Berechnungseinheit 121b (Berechnungsmittel, Berechnungsschaltung oder Berechnungseinrichtung) und eine Fokussteuereinheit 121c (Fokussteuermittel, Fokussteuerschaltung oder Fokussteuereinrichtung). Die Erzeugungseinheit 121a erzeugt ein erstes Fokuserfassungssignal und ein zweites Fokuserfassungssignal beruhend auf einer Vielzahl von Typen von Farbsignalen von einer Vielzahl fotoelektrischer Umwandlungsabschnitte (ersten Bildelementgruppe und zweiten Bildelementgruppe), die Lichtstrahlen empfangen, die durch voneinander verschiede Teilpupillenregionen des optischen Abbildungssystems gehen. Die Berechnungseinheit 121b berechnet ein Defokussierausmaß durch ein Phasendifferenzerfassungsverfahren unter Verwendung des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals. Die Fokussteuereinheit 121c führt eine Fokussteuerung beruhend auf dem Defokussierausmaß durch. Die Erzeugungseinheit 121a kann Standpunktbilder (Parallaxenbilder) beruhend auf der Vielzahl der Typen der Farbsignale erzeugen.
  • Eine Elektronenblitzsteuerschaltung 122 führt eine Beleuchtungssteuerung des Elektronenblitzes 115 synchron mit dem Bildaufnahmevorgang durch. Eine Hilfslichtansteuerschaltung 123 führt eine Beleuchtungssteuerung der AF-Hilfsbeleuchtungseinheit 116 synchron mit dem Fokuserfassungsvorgang durch. Eine Bildaufnahmeelementansteuerschaltung 124 steuert den Bildaufnahmevorgang, wie eine vertikale Abtastung und horizontale Abtastung des Bildaufnahmeelements 107, und führt auch die AD-Wandlung des beschafften Bildsignals durch, um dieses zur CPU 121 zu senden. Eine AD-Umwandlungsschaltung (AD-Wandler) kann im Bildaufnahmeelement 107 vorgesehen sein. Eine Bildverarbeitungsschaltung 125 führt eine Verarbeitung wie eine γ(Gamma)-Umwandlung, eine Farbinterpolation oder JPEG (Joint Photographic Experts Group)-Kompression bei den aus dem Bildaufnahmeelement 107 ausgegebenen Bilddaten durch.
  • Eine Fokusansteuerschaltung 126 steuert das Fokusstellglied 114 beruhend auf dem Fokuserfassungssignal zum Bewegen der dritten Linseneinheit 105 entlang der optischen Achsenrichtung zur Durchführung der Fokussierung an. Eine Blenden-/Verschlussansteuerschaltung 128 steuert das Blenden-/Verschlussstellglied 112 zur Steuerung des Öffnungsdurchmessers der Blende/des Verschlusses 102 an. Eine Zoomansteuerschaltung 129 steuert das Zoomstellglied 111 im Ansprechen auf einen Zoomvorgang durch einen Benutzer an.
  • Eine Anzeigeeinrichtung 131 enthält beispielsweise eine LCD (Flüssigkristallanzeige). Die Anzeigeeinrichtung 131 zeigt Informationen hinsichtlich eines Bildaufnahmemodus der Bildaufnahmevorrichtung 100, ein Vorschaubild vor der Aufnahme eines Bildes, ein Bestätigungsbild nach Aufnahme des Bildes, ein im Brennpunktzustandanzeige-Bild bei der Fokuserfassung oder dergleichen an. Ein Bedienelement 132 (Bedienschalteinheit) enthält einen Ein-/Aus-Schalter, einen Freigabe-(Bildaufnahmeauslöse-)Schalter, einen Zoomvorgang-Schalter, einen Bildaufnahmemodusauswahlschalter und dergleichen. Der Freigabeschalter ist ein zweistufiger Schalter in einem halb gedrückten Zustand (in einem Zustand, in dem SW1 gleich EIN ist) und einem vollgedrückten Zustand (in einem Zustand, in dem SW2 EIN ist). Ein Aufzeichnungsmedium 133 ist beispielsweise ein Flash-Speicher, der von der Bildaufnahmevorrichtung 100 entfernbar ist, und das aufgenommene Bild (Bilddaten) aufzeichnet. Das Bedienelement 132 kann ein interaktives Bedienfeld enthalten, sodass die Bedienung unter Verwendung des interaktiven Bedienfeldes durchgeführt werden kann.
  • Als Nächstes werden unter Bezugnahme auf die 2, 3A und 3B ein Bildelementarray und ein Bildelementaufbau des Bildaufnahmeelements 107 gemäß diesem Ausführungsbeispiel beschrieben. 2 zeigt eine Darstellung zur Veranschaulichung des Bildelementarrays des Bildaufnahmeelements 107. Die 3A und 3B zeigen Darstellungen des Bildelementaufbaus des Bildaufnahmeelements 107, und die 3A und 3B zeigen jeweils eine Draufsicht eines Bildelements 200G des Bildaufnahmeelements 107 (Ansicht in +z-Richtung) und einen Querschnitt entlang einer Geraden a-a in 3A (Ansicht in –y-Richtung).
  • 2 veranschaulicht das Bildelementarray (Array von Abbildungsbildelementen) des Bildaufnahmeelements 107 (zweidimensionalen CMOS-Sensors) in einem Bereich aus 4 Spalten × 4 Reihen. Bei diesem Ausführungsbeispiel enthält jedes der Abbildungsbildelemente (Bildelemente 200R, 200G und 200B) zwei Unterbildelemente 201 und 202 (zwei Fokuserfassungsbildelemente). Daher veranschaulicht 2 das Array der Unterbildelemente in einem Bereich aus 8 Spalten × 4 Reihen.
  • Wie in 2 gezeigt enthält eine Bildelementgruppe 200 aus 2 Spalten × 2 Reihen die Bildelemente 200R, 200G und 200B in einem Bayer-Array. Das heißt, in der Bildelementgruppe 200 ist das Bildelement 200R mit einer Spektralempfindlichkeit für R (rot) oben links angeordnet, die Bildelemente 200G mit einer Spektralempfindlichkeit für G (grün) sind oben rechts und unten links angeordnet, und das Bildelement 200B mit einer Spektralempfindlichkeit für B (blau) ist unten rechts angeordnet. Jedes der Bildelemente 200R, 200G und 200B (jedes Abbildungsbildelement) enthält ein Unterbildelement 201 (erstes Fokuserfassungsbildelement) und ein Unterbildelement 202 (zweites Fokuserfassungsbildelement), die in 2 Spalten × 1 Reihe angeordnet sind. Das Unterbildelement 201 ist ein Bildelement, das einen durch eine erste Pupillenregion des optischen Bildgebungssystems gehenden Lichtstrahl empfängt. Das Unterbildelement 202 ist ein Bildelement, das einen durch eine zweite Pupillenregion des optischen Bildgebungssystems gehenden Lichtstrahl empfängt. Die Vielzahl der Unterbildelemente 201 bildet eine erste Bildelementgruppe, und die Vielzahl der Unterbildelemente 202 bildet eine zweite Bildelementgruppe.
  • Wie in 2 gezeigt enthält das Bildaufnahmeelement 107 eine Anzahl von Abbildungsbildelementen aus 4 Spalten × 4 Reihen (Unterbildelementen aus 8 Spalten × 4 Reihen), die auf einer Oberfläche angeordnet sind, und gibt ein Abbildungssignal (Unterbildelementsignal) aus. Bei dem Bildaufnahmeelement 107 dieses Ausführungsbeispiels beträgt eine Periode P der Bildelemente (Abbildungsbildelemente) 4µm, und die Anzahl n der Bildelemente (Abbildungsbildelemente) beträgt 5575 Spalten in der Horizontalen × 3725 Reihen in der Vertikalen = ungefähr 20,75 Millionen Bildelemente. In dem Bildaufnahmeelement 107 beträgt eine Periode PSUB der Unterbildelemente in einer Spaltenrichtung 2µm, und die Anzahl NSUB der Unterbildelemente beträgt 11150 Spalten in der Horizontalen × 3725 Reihen in der Vertikalen = ungefähr 41,50 Millionen Bildelemente.
  • Wie in 3B gezeigt, ist das Bildelement 200G dieses Ausführungsbeispiels mit einer Mikrolinse 305 auf einer Lichtempfangsflächenseite des Bildelements zum Kondensieren von einfallendem Licht vorgesehen. Die Vielzahl der Mikrolinsen 305 ist in zwei Dimensionen angeordnet, und jede der Mikrolinsen 305 ist an einer Position angeordnet, die von der Lichtempfangsfläche um eine vorbestimmte Entfernung in einer z-Achsenrichtung (Richtung einer optischen Achsenrichtung OA) entfernt ist. In dem Bildelement 200G sind ein fotoelektrischer Umwandlungsabschnitt 301 und ein fotoelektrischer Umwandlungsabschnitt 302 (fotoelektrische Wandler) durch Teilen des Bildelements in NH (zwei Teilungen) in einer x-Richtung und in NV (eine Teilung) in einer y-Richtung gebildet. Der fotoelektrische Umwandlungsabschnitt 301 und der fotoelektrische Umwandlungsabschnitt 302 entsprechen jeweils dem Unterbildelement 201 und dem Unterbildelement 202. Wie vorstehend beschrieben enthält das Bildaufnahmeelement 107 eine Vielzahl fotoelektrischer Umwandlungsabschnitte für eine einzige Mikrolinse, und die Mikrolinsen sind in zwei Dimensionen angeordnet. Jeder fotoelektrische Umwandlungsabschnitt 301 und 302 ist als Fotodiode mit einem p-i-n-Aufbau konfiguriert, der eine p-Schicht und eine n-Schicht und eine intrinsische Schicht zwischen der p-Schicht und der n-Schicht enthält. Bei Bedarf kann die intrinsische Schicht weggelassen werden, und eine Fotodiode mit einer p-n-Verbindung kann angewendet werden.
  • Das Bildelement 200G (jedes Bildelement) ist mit einem G-(grün-)Farbfilter 306 zwischen der Mikrolinse 305 und jedem fotoelektrischen Umwandlungsabschnitt 301 und 302 versehen. Gleichermaßen sind die Bildelemente 200R und 200B (jedes Bildelement) jeweils mit R-(rot-) und B-(blau-)Farbfiltern 306 zwischen der Mikrolinse 301 und jedem fotoelektrischen Umwandlungsabschnitt 301 und 302 versehen. Bei Bedarf kann ein spektraler Transmissionsgrad des Farbfilters 306 für jedes Unterbildelement verändert werden, oder das Farbfilter kann alternativ dazu weggelassen werden.
  • Wie in den 3A und 3B gezeigt, wird das in das Bildelement 200G (200R oder 200B) eintretende Licht durch die Mikrolinse 305 kondensiert, und wird durch das G-Farbfilter 306 (R- oder B-Farbfilter 306) getrennt, und dann wird das getrennte Licht durch die fotoelektrischen Umwandlungsabschnitte 301 und 302 empfangen. In jedem fotoelektrischen Umwandlungsabschnitt 301 und 302 werden Paare aus einem Elektron und einer Leerstelle in Abhängigkeit von einem Lichtempfangsausmaß erzeugt, und sie werden in einer Verarmungsschicht getrennt, und dann werden die Elektronen mit negativer Ladung in der n-Schicht akkumuliert. Andererseits werden die Leerstellen über die mit einer Konstantspannungsquelle (nicht gezeigt) verbundenen p-Schicht zur Außenseite des Bildaufnahmeelements 107 ausgeschieden. Die in den n-Schichten der fotoelektrischen Umwandlungsabschnitte 301 und 302 akkumulierten Elektronen werden beruhend auf einer Abtaststeuerung von der Bildaufnahmeelementansteuerschaltung 124 über ein Transfergate in eine elektrostatische Kapazitanz (FD) übertragen, um in ein Spannungssignal umgewandelt zu werden.
  • Im Folgenden wird unter Bezugnahme auf 4 eine Pupillenteilungsfunktion des Bildaufnahmeelements 107 beschrieben. 4 zeigt eine erläuternde Darstellung der Pupillenteilungsfunktion des Bildaufnahmeelements 107 und veranschaulicht eine Situation der Pupillenteilung in einem Bildelementabschnitt. 4 veranschaulicht eine Schnittansicht des Schnitts A-A des in 3A gezeigten Bildelementaufbaus gesehen von der +y-Richtung und eine Austrittspupillenebene des optischen Bildgebungssystems. In 4 sind die x-Achse und die y-Achse der Schnittansicht bezüglich der x-Achse und der y-Achse der 3A und 3B invertiert, damit sie einer Koordinatenachse der Austrittspupillenebene entsprechen.
  • In 4 hat eine Teilpupillenregion 501 (erste Teilpupillenregion) für das Unterbildelement 201 (das erste Fokuserfassungsbildelement) ungefähr eine konjugierte Beziehung über die Mikrolinse 305 hinsichtlich der Lichtempfangsfläche des fotoelektrischen Umwandlungsabschnitts 301, dessen Schwerpunkt in der –x-Richtung versetzt (aus der Mitte versetzt) ist. Somit stellt die Teilpupillenregion 501 eine Pupillenregion dar, die Licht durch das Unterbildelement 201 empfangen kann. Der Schwerpunkt der Teilpupillenregion 501 des Unterbildelements 201 ist in der +x-Richtung in einer Pupillenebene versetzt (aus der Mitte versetzt). Eine Teilpupillenregion 502 (zweite Teilpupillenregion) für das Unterbildelement 202 (zweite Fokuserfassungsbildelement) hat über die Mikrolinse 305 ungefähr eine konjugierte Beziehung hinsichtlich der Lichtempfangsfläche des fotoelektrischen Umwandlungsabschnitts 302, dessen Schwerpunkt in der +x-Richtung versetzt (aus der Mitte versetzt) ist. Die Teilpupillenregion 502 stellt daher eine Pupillenregion dar, die Licht durch das Unterbildelement 202 empfangen kann. Der Schwerpunkt der Teilpupillenregion 502 für das Unterbildelement 202 ist in der –x-Richtung in der Pupillenebene versetzt (aus der Mitte versetzt). Eine Pupillenregion 500 ist eine Pupillenregion, die über die gesamte Region des Bildelements 200G Licht empfangen kann, wenn die fotoelektrischen Umwandlungsabschnitte 301 und 302 (Unterbildelemente 201, 202) vollständig kombiniert sind.
  • 5 zeigt eine Darstellung zur Beschreibung des Bildaufnahmeelements 107 und der Pupillenteilungsfunktion. Die Lichtstrahlen, die durch die in der Pupillenregion des optischen Bildgebungssystems voneinander verschiedenen Teilpupillenregionen 501 und 502 gehen, treten in jedes Bildelement des Bildaufnahmeelements 107, d.h., eine Abbildungsebene 800 des Bildaufnahmeelements 107, an voneinander verschiedenen Winkeln ein und werden durch die in 2 × 1 unterteilten Unterbildelemente 201 und 202 empfangen. Dieses Ausführungsbeispiel beschreibt ein Beispiel, bei dem die Pupillenregion in horizontaler Richtung in zwei Teile geteilt ist, ist jedoch nicht darauf beschränkt, und die Pupillenteilung kann bei Bedarf in vertikaler Richtung durchgeführt werden.
  • Bei diesem Ausführungsbeispiel enthält das Bildaufnahmeelement 107 ein erstes Fokuserfassungsbildelement einer ersten Farbe, das einen durch eine erste Teilpupillenregion des optischen Bildgebungssystems (Abbildungslinse) gehenden Lichtstrahl empfängt, und ein erstes Fokuserfassungsbildelement einer zweiten Farbe, das den durch die erste Teilpupillenregion gehenden Lichtstrahl empfängt. Ferner enthält das Bildaufnahmeelement 107 ein zweites Fokuserfassungsbildelement der ersten Farbe, das einen durch eine zweite Teilpupillenregion gehenden Lichtstrahl empfängt, die von der ersten Teilpupillenregion des optischen Bildgebungssystems verschieden ist, und ein zweites Fokuserfassungsbildelement der zweiten Farbe, das den durch die zweite Teilpupillenregion gehenden Lichtstrahl empfängt. Das Bildaufnahmeelement 107 enthält eine Vielzahl von in einem Array angeordneten Abbildungsbildelementen, die Lichtstrahlen empfangen, die durch eine Pupillenregion gehen, die durch Kombinieren der ersten Teilpupillenregion und der zweiten Teilpupillenregion des optischen Bildgebungssystems gebildet ist. Bei diesem Ausführungsbeispiel ist jedes Abbildungsbildelement (Bildelement 200) durch das erste Fokuserfassungsbildelement (Unterbildelement 201) und das zweite Fokuserfassungsbildelement (Unterbildelement 202) aufgebaut. Bei Bedarf können das Abbildungsbildelement, das erste Fokuserfassungsbildelement und das zweite Fokuserfassungsbildelement durch voneinander verschiedene Bildelemente aufgebaut sein. In diesem Fall sind das erste Fokuserfassungsbildelement und das zweite Fokuserfassungsbildelement in einem Teil des Abbildungsbildelementarrays partiell (diskret) angeordnet.
  • In diesem Ausführungsbeispiel sammelt die Bildaufnahmevorrichtung 100 Lichtempfangssignale der ersten Fokuserfassungsbildelemente (Unterbildelemente 201) der jeweiligen Bildelemente des Bildaufnahmeelements 107 zur Erzeugung des ersten Fokuserfassungssignals, und sammelt die Lichtempfangssignale der zweiten Fokuserfassungsbildelemente (Unterbildelemente 202) der jeweiligen Bildelemente zur Erzeugung des zweiten Fokuserfassungssignals zur Durchführung der Fokuserfassung. Ferner addiert (kombiniert) die Bildaufnahmevorrichtung 100 Signale des ersten Fokuserfassungsbildelements und des zweiten Fokuserfassungsbildelements für jedes Bildelement des Bildaufnahmeelements 107 zur Erzeugung eines Abbildungssignals (aufgenommenen Bildes) mit einer der Anzahl N effektiver Bildelemente entsprechenden Auflösung. Wie vorstehend beschrieben enthält die Bildaufnahmevorrichtung 100 eine Bilderzeugungseinheit (CPU 121) oder Bilderzeugungseinrichtung, die das aufgenommene Bild beruhend auf dem Signal erzeugt, das durch Addieren (Kombinieren) von Bildelementen erhalten wird, die jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe für jede Mikrolinse enthalten sind.
  • Als Nächstes wird die Beziehung zwischen einem Defokussierausmaß der von den Unterbildelementen 201 des Bildaufnahmeelements 107 beschafften ersten Fokuserfassungssignale und der von den Unterbildelementen 202 beschafften zweiten Fokuserfassungssignale und einem Bildverschiebungsausmaß unter Bezugnahme auf 6 beschrieben. 6 zeigt eine Darstellung zur Veranschaulichung der Beziehung zwischen dem Defokussierausmaß und dem Bildverschiebungsausmaß. In 6 ist das Bildaufnahmeelement 107 in der Abbildungsebene 800 angeordnet, und wie in den 4 und 5 ist eine Situation veranschaulicht, in der die Austrittspupille des optischen Bildgebungssystems in zwei Teilpupillenregionen 501 und 502 unterteilt ist.
  • Ein Defokussierausmaß d ist derart definiert, dass eine Entfernung von einer Abbildungsposition eines Objekts zu der Abbildungsebene 800 |d| ist, ein vorderer Brennpunktzustand, in dem die Abbildungsposition sich an einer Objektseite hinsichtlich der Abbildungsebene 800 befindet, ein negatives Vorzeichen hat (d < 0), und ein hinterer Brennpunktzustand, in dem sich die Abbildungsposition auf einer entgegengesetzten Seite zum Objekt hinsichtlich der Abbildungsebene 800 befindet, ein positives Vorzeichen hat (d > 0). In einem Zustand im Brennpunkt, in dem sich die Abbildungsposition des Objekts in der Abbildungsebene 800 befindet (Position im Brennpunkt), ist Defokussierausmaß d = 0 erfüllt. In 6 sind ein Objekt 801, das sich im Brennpunktzustand (d = 0) befindet, und ein Objekt 802 gezeigt, das sich in dem vorderen Brennpunktzustand (d < 0) befindet. Der vordere Brennpunktzustand (d < 0) und der hintere Brennpunktzustand (d > 0) werden gemeinsam als Defokussierzustand (|d| > 0) bezeichnet.
  • In dem vorderen Brennpunktzustand (d < 0) wird der Lichtstrahl der Lichtstrahlen von dem Objekt 802, der durch die Teilpupillenregion 501 (oder die Teilpupillenregion 502) gegangen ist, einmal kondensiert. Dann spreizt sich der Lichtstrahl auf eine Breite Γ1 (Γ2) um eine Schwerpunktposition G1 (G2) des Lichtstrahls auf, und in der Abbildungsebene 800 wird ein unscharfes Bild erzeugt. Das unscharfe Bild wird durch die Unterbildelemente 201 (Unterbildelemente 202) empfangen, die jedes in dem Bildaufnahmeelement 107 angeordnete Bildelement bilden, und das erste Fokuserfassungssignal (zweite Fokuserfassungssignal) wird erzeugt. Daher wird das erste Fokuserfassungssignal (zweite Fokuserfassungssignal) als unscharfes Objektbild aufgezeichnet, in dem das Objekt 802 unscharf ist, das die Breite Γ1 (Γ2) an der Schwerpunktposition G1 (G2) in der Abbildungsebene 800 hat. Die Unschärfebreite Γ1 (Γ2) des Objektbildes erhöht sich grob proportional mit der Erhöhung des Absolutwerts |d| des Defokussierausmaßes. Gleichermaßen erhöht sich ein Absolutwert |p| eines Bildverschiebungsausmaßes p des Objektbildes zwischen dem ersten und zweiten Fokuserfassungssignal (d.h., das einer Differenz der Schwerpunktpositionen der Lichtstrahlen äquivalent ist (G1 – G2)) grob mit Erhöhung des Absolutwerts |d| des Defokussierausmaßes d. Dies gilt auf ähnliche Weise für den hinteren Brennpunktzustand (d > 0), jedoch ist eine Bildverschiebungsrichtung des Objektbildes zwischen dem ersten und zweiten Fokuserfassungssignal hinsichtlich des vorderen Brennpunkzustands entgegengesetzt.
  • Wie vorstehend beschrieben erhöht sich bei diesem Ausführungsbeispiel der Absolutwert des Bildverschiebungsausmaßes zwischen dem ersten und zweiten Fokuserfassungssignal mit Erhöhung des Absolutwerts des Defokussierausmaßes des ersten und zweiten Fokuserfassungssignals oder der Abbildungssignale, die durch Addieren des ersten und zweiten Fokuserfassungssignals erhalten werden.
  • Als Nächstes wird die Fokuserfassung gemäß diesem Ausführungsbeispiel beschrieben. Die Bildaufnahmevorrichtung 100 dieses Ausführungsbeispiels führt als Fokuserfassung eine erste Fokuserfassung und eine zweite Fokuserfassung durch. Die erste Fokuserfassung ist eine Fokuserfassung anhand des Phasendifferenzerfassungsverfahrens, bei dem eine Signalperiode eines Fokuserfassungssignals in der Pupillenteilungsrichtung groß und ein Ortsfrequenzband klein ist. Die zweite Fokuserfassung ist eine Fokuserfassung anhand des Phasendifferenzerfassungsverfahrens, bei dem die Signalperiode des Fokuserfassungssignals in der Pupillenteilungsrichtung klein und das Ortsfrequenzband groß ist. Bei diesem Ausführungsbeispiel ist die Spaltenrichtung des Bildaufnahmeelements 107 die Pupillenteilungsrichtung, und die Reihenrichtung des Bildaufnahmeelements 107 ist eine Richtung orthogonal zur Pupillenteilungsrichtung. Die erste Fokuserfassung wird zur Fokussierung aus einem großen Defokussierzustand in einen kleinen Defokussierzustand durchgeführt, und die zweite Fokuserfassung wird zur Fokussierung aus dem kleinen Defokussierzustand in eine Umgebung einer besten Position im Brennpunkt durchgeführt.
  • Als Nächstes wird die erste Fokuserfassung anhand eines Phasendifferenzerfassungsverfahrens gemäß diesem Ausführungsbeispiel beschrieben. Wenn die erste Fokuserfassung durchgeführt wird, verschiebt die CPU 121 (Berechnungseinheit 121b) der Bildaufnahmevorrichtung 100 das erste und zweite Fokuserfassungssignal relativ zur Berechnung eines ersten Korrelationsausmaßes (ersten Bewertungswerts), der einen Grad der Übereinstimmung der Signale darstellt. Dann berechnet die CPU 121 ein Bildverschiebungsausmaß beruhend auf einem Verschiebungsausmaß, in dem die Korrelation (der Übereinstimmungsgrad) gut ist. Es gibt eine Beziehung, in der ein Absolutwert des Bildverschiebungsausmaßes zwischen dem ersten und zweiten Fokuserfassungssignal sich mit Erhöhung eines Absolutwerts des Defokussierausmaßes des Abbildungssignals erhöht, und dementsprechend wandelt die CPU 121 das Bildverschiebungsausmaß in ein erstes Defokussierausmaß zur Durchführung der Fokuserfassung um.
  • Unter Bezugnahme auf 7 wird ein Ablauf eines ersten Fokuserfassungsprozesses anhand des Phasendifferenzerfassungsverfahrens beschrieben. 7 zeigt ein Ablaufdiagramm zur Veranschaulichung des ersten Fokuserfassungsprozesses, und entspricht dem nachstehend beschriebenen Schritt S100 in 13. Jeder Schritt in 7 wird hauptsächlich durch die CPU 121 (Erzeugungseinheit 121a und Berechnungseinheit 121b) und die Bildverarbeitungsschaltung 125 durchgeführt.
  • Zuerst stellt die CPU 121 in Schritt S110 einen Fokuserfassungsbereich zur Fokussierung in einem effektiven Bildelementbereich des Bildaufnahmeelements 107 ein. Dann erzeugt (beschafft) die CPU 121 (die Erzeugungseinheit 121a) ein erstes Fokuserfassungssignal (A-Bildsignal) für jede Farbe R, G und B beruhend auf einem Lichtempfangssignal (Ausgangssignal) des ersten Fokuserfassungsbildelements für jede Farbe R, G und B (erste Farbe, zweite Farbe und dritte Farbe), das in dem Fokuserfassungsbereich enthalten ist. Gleichermaßen erzeugt (beschafft) die CPU 121 ein zweites Fokuserfassungssignal (B-Bildsignal) für jede Farbe R, G und B beruhend auf einem Lichtempfangssignal (Ausgangssignal) des zweiten Fokuserfassungsbildelements für jede Farbe R, G und B, das in dem Fokuserfassungsbereich enthalten ist.
  • Danach führt die CPU 121 (Erzeugungseinheit 121a) in Schritt S120 eine erste Bildelementadditionsverarbeitung zur Umwandlung jedes der Farbsignale (RGB-Signale) in ein Lichtstärkesignal (Y-Signal) jeweils für das erste und das zweite Fokuserfassungssignal von R, G und B durch. Infolgedessen werden ein verarbeitetes erstes und zweites Fokuserfassungssignal erzeugt.
  • Unter Bezugnahme auf 8 wird eine erste Bildelementadditionsverarbeitung gemäß diesem Ausführungsbeispiel beschrieben. 8 zeigt eine erläuternde Darstellung der ersten Bildelementadditionsverarbeitung. In 8 ist das erste Fokuserfassungssignal an j in einer Spaltenrichtung (Pupillenteilungsrichtung) und an i in einer Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) in einem Bayer-Array durch A(i, j) dargestellt. Das erste Fokuserfassungssignal ist für jede Farbe R, G und B angegeben. Das erste Fokuserfassungssignal von R (erste Farbe) ist durch RA(i, j) = A(i, j) dargestellt. Das erste Fokuserfassungssignal von G (zweite Farbe) ist durch GA(i, j + 1) = A(i, j + 1) und GA(i + 1, j) = A(i + 1, j) dargestellt. Das erste Fokuserfassungssignal von B (dritte Farbe) ist durch BA(i + 1, j + 1) = A(i + 1, j + 1) dargestellt. Gleichermaßen ist das zweite Fokuserfassungssignal an j in der Spaltenrichtung (Pupillenteilungsrichtung) und an i in der Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) in dem Bayer-Array durch B(i, j) dargestellt. Das zweite Fokuserfassungssignal ist auch für jede Farbe R, G und B angegeben. Das zweite Fokuserfassungssignal von R (erste Farbe) ist durch RB(i, j) = B (i, j) dargestellt. Das zweite Fokuserfassungssignal von G (zweite Farbe) ist durch GB(i, j + 1) = B(i, j + 1) und GB(i + 1, j) = A(i + 1, j) dargestellt. Das zweite Fokuserfassungssignal von B (dritte Farbe) ist durch BB(i + 1, j + 1) = B(i + 1, j + 1) dargestellt.
  • Gemäß der ersten Bildelementadditionsverarbeitung in Schritt S120 in 7 kann wie durch den nachstehenden Ausdruck (1A) dargestellt ein erstes Fokuserfassungssignal Y1A(i, j) als Y-Signal beruhend auf dem ersten Fokuserfassungssignal A(i, j) des Bayer-Arrays berechnet werden. Gleichermaßen kann mit der ersten Bildelementadditionsverarbeitung wie durch den nachstehenden Ausdruck (1B) dargestellt ein zweites Fokuserfassungssignal Y1B(i, j) als Y-Signal beruhend auf dem zweiten Fokuserfassungssignal B(i, j) des Bayer-Arrays berechnet werden.
    Figure DE102016114025A1_0002
  • In den Ausdrücken (1A) und (1B) ist i = 2m und j = 2n (m und n sind ganze Zahlen) erfüllt. Die Werte von i und j sind Vielfache von zwei, da die Bildelemente dieses Ausführungsbeispiels im Bayer-Array angeordnet sind. Sind die Bildelemente anders als im Bayer-Array angeordnet, wird demnach die Anpassung von i oder j entsprechend einer Periodizität des Arrays bevorzugt. Wenn beispielsweise Farbfilter mit einer Periode von vier Bildelementen in horizontaler Richtung angeordnet sind, wird i bzw. j vorzugsweise auf ein Vielfaches von vier eingestellt.
  • Im ersten Fokuserfassungsprozess dieses Ausführungsbeispiels ist eine Signalperiode des Fokuserfassungssignals als Y-Signal in der Spaltenrichtung (Pupillenteilungsrichtung) größer als eine Signalperiode des Fokuserfassungssignals des Bayer-Arrays in der Spaltenrichtung (Pupillenteilungsrichtung). Im ersten Fokuserfassungsprozess dieses Ausführungsbeispiels wird ferner zur stabilen Durchführung der Fokuserfassung aus einem großen Defokussierzustand in einen kleinen Defokussierzustand die erste Bildelementadditionsverarbeitung derart durchgeführt, dass die Signalperiode des Fokuserfassungssignals in der Pupillenteilungsrichtung erhöht wird und ein Ortsfrequenzband des Fokuserfassungssignals verkleinert wird.
  • Danach führen die CPU 121 und die Bildverarbeitungsschaltung 125 in Schritt S130 eine Schattierungskorrekturverarbeitung (optische Korrekturverarbeitung) für das erste und das zweite Fokuserfassungssignal durch. Unter Bezugnahme auf die 9A bis 9C wird eine durch eine Pupillenverschiebung des ersten und zweiten Fokuserfassungssignals verursachte Schattierung beschrieben. Die 9A bis 9C zeigen erläuternde Darstellungen der Schattierung, die durch die Pupillenverschiebung des ersten und zweiten Fokuserfassungssignals verursacht wird. Insbesondere veranschaulichen die 9A bis 9C eine Beziehung der Teilpupillenregion 501 des Unterbildelements 201 (ersten Fokuserfassungsbildelements) an einer peripheren Bildhöhe des Bildaufnahmeelements 107, der Teilpupillenregion 502 des Unterbildelements 202 (zweiten Fokuserfassungsbildelements) und der Austrittspupille 400 des optischen Bildgebungssystems.
  • 9A veranschaulicht einen Fall, in dem eine Austrittspupillenentfernung D1 des optischen Bildgebungssystems (Entfernung zwischen der Austrittspupille 400 und der Abbildungsebene des Bildaufnahmeelements 107) gleich einer eingestellten Pupillenentfernung Ds des Bildaufnahmeelements 107 ist. In diesem Fall ist die Austrittspupille 400 des optischen Bildgebungssystems durch die Teilpupillenregionen 501 und 502 ungefähr gleich unterteilt.
  • Wenn wie in 9B gezeigt die Austrittspupillenentfernung D1 des optischen Bildgebungssystems andererseits kürzer als die eingestellte Pupillenentfernung Ds des Bildaufnahmeelements 107 ist, wird eine Pupillenverschiebung zwischen der Austrittpupille 400 des optischen Bildgebungssystems und einer Eintrittspupille des Bildaufnahmeelements 107 an der peripheren Bildhöhe des Bildaufnahmeelements 107 erzeugt. Daher ist die Austrittspupille 400 des optischen Bildgebungssystems ungleichmäßig unterteilt. Wenn die Austrittspupillenentfernung Dl des optischen Bildgebungssystems wie in 9C gezeigt länger als die eingestellte Pupillenentfernung Ds des Bildaufnahmeelements 107 ist, wird gleichermaßen die Pupillenverschiebung zwischen der Austrittspupille 400 des optischen Bildgebungssystems und der Eintrittspupille des Bildaufnahmeelements 107 an der peripheren Bildhöhe des Bildaufnahmeelements 107 erzeugt. Daher ist die Austrittspupille 400 des optischen Bildgebungssystems ungleichmäßig unterteilt. Intensitäten des ersten und zweiten Fokuserfassungssignals sind untereinander ungleichmäßig, da die Pupillenteilung an der peripheren Bildhöhe ungleichmäßig ist. Demnach tritt die Schattierung auf, in der eine der Intensitäten des ersten und zweiten Fokuserfassungssignals steigt und die andere fällt.
  • In Schritt S130 in 7 erzeugt die CPU 121 einen ersten Schattierungskorrekturkoeffizienten des ersten Fokuserfassungssignals und einen zweiten Schattierungskorrekturkoeffizienten des zweiten Fokuserfassungssignals gemäß einer Bildhöhe des Fokuserfassungsbereichs, einer F-Zahl der Abbildungslinse (des optischen Abbildungssystems) und einer Austrittspupillenentfernung. Dann multipliziert die CPU 121 (die Bildverarbeitungsschaltung 125) das erste Fokuserfassungssignal mit dem ersten Schattierungskorrekturkoeffizienten und multipliziert das zweite Fokuserfassungssignal mit dem zweiten Schattierungskorrekturkoeffizienten zur Durchführung der Schattierungskorrekturverarbeitung (optischen Korrekturverarbeitung) bei dem ersten und zweiten Fokuserfassungssignal.
  • Bei der Durchführung der ersten Fokuserfassung anhand des Phasendifferenzerfassungsverfahrens erfasst (berechnet) die CPU 121 das Defokussierausmaß (erste Defokussierausmaß) beruhend auf der Korrelation (dem Übereinstimmungsgrad) zwischen dem ersten und zweiten Fokuserfassungssignal. Wenn die Schattierung durch die Pupillenverschiebung auftritt, verringert sich eventuell die Korrelation (der Übereinstimmungsgrad) zwischen dem ersten und zweiten Fokuserfassungssignal. Daher wird bei diesem Ausführungsbeispiel bei der Durchführung der ersten Fokuserfassung anhand des Phasendifferenzverfahrens bevorzugt, dass die CPU 121 die Schattierungskorrekturverarbeitung (optische Korrekturverarbeitung) zur Verbesserung der Korrelation (des Übereinstimmungsgrads) zwischen dem ersten und zweiten Fokuserfassungssignal zur Verbesserung einer Fokuserfassungsleistung durchführt.
  • Danach führen die CPU 121 und die Bildverarbeitungsschaltung 125 in Schritt S140 eine erste Filterverarbeitung bei dem ersten und zweiten Fokuserfassungssignal durch. 10 zeigt eine erläuternde Darstellung der ersten Filterverarbeitung und zeigt ein Beispiel eines Durchlassbandes mit gestrichelter Linie bei der ersten Filterverarbeitung dieses Ausführungsbeispiels. Bei diesem Ausführungsbeispiel wird die Fokuserfassung in einem großen Defokussierzustand durch die erste Fokuserfassung des Phasendifferenzerfassungsverfahrens durchgeführt. Demnach enthält das Durchlassband bei der ersten Filterverarbeitung ein Niederfrequenzband. Bei Bedarf kann bei der Durchführung der Fokussierung aus dem großen Defokussierzustand in den kleinen Defokussierzustand das Durchlassband der ersten Filterverarbeitung während des ersten Fokuserfassungsprozesses gemäß dem Defokussierzustand angepasst werden.
  • Danach führt die CPU 121 (Berechnungseinheit 121b) in Schritt S150 die erste Verschiebungsverarbeitung durch, die das erste und zweite Fokuserfassungssignal, bei denen die erste Filterverarbeitung durchgeführt wurde, in einer Pupillenteilungsrichtung relativ zueinander verschiebt. Dann berechnet die CPU 121 ein erstes Korrelationsausmaß (ersten Bewertungswert), der den Übereinstimmungsgrad der Signale darstellt.
  • Bei diesem Ausführungsbeispiel sind für j in der Spaltenrichtung (Pupillenteilungsrichtung) und i in der Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) ein erstes und zweites Fokuserfassungssignal, bei denen die erste Filterverarbeitung durchgeführt wurde, jeweils mit dY1A(i, j) und dY1B(i, j) bezeichnet. Ein Bereich der Zahl j, der dem Fokuserfassungsbereich entspricht, ist mit W bezeichnet, und ein Bereich der Zahl i ist mit L bezeichnet. Ein Verschiebungsausmaß durch die erste Verschiebungsverarbeitung ist mit s1 bezeichnet, und ein Verschiebungsbereich des Verschiebungsausmaßes s1 ist mit Γ1 bezeichnet. In diesem Fall ist ein Korrelationsausmaß COR1even (erster Bewertungswert) durch den nachstehenden Ausdruck (2) dargestellt.
    Figure DE102016114025A1_0003
  • Bei der Berechnung des ersten Korrelationsausmaßes COR1even bezieht die CPU 121 bezüglich des Verschiebungsausmaßes s1 für jede Reihe i das (j + s1)-te erste Fokuserfassungssignal dY1A(i, j + s1) in der Spaltenrichtung auf das (j – s1)-te zweite Fokuserfassungssignal dY1B(i, j – s1) in der Spaltenrichtung zur Durchführung einer Subtraktion dieser zur Erzeugung eines Verschiebungssubtraktionssignals. Dann berechnet die CPU 121 einen Absolutwert des erzeugten Verschiebungssubtraktionssignals und erhält eine Summe der Zahlen j innerhalb eines dem Fokuserfassungsbereich entsprechenden Bereichs W zur Berechnung eines ersten Korrelationsausmaßes COR1even(i, s1) für die Reihe i. Ferner erhält die CPU 121 eine Summe der Zahlen i innerhalb eines dem Fokuserfassungsbereich entsprechenden Bereichs L für das erste Korrelationsausmaß COR1even(i, s1) für jedes Verschiebungsausmaß zur Berechnung eines ersten Korrelationsausmaßes COR1even(s1).
  • Danach führt die CPU 121 (Berechnungseinheit 121b) in Schritt S160 eine Unterbildelementberechnung für das erste Korrelationsausmaß (den ersten Bewertungswert) zur Berechnung eines reellwertigen Verschiebungsausmaßes durch, das ein minimales erstes Korrelationsausmaß angibt, um das Bildverschiebungsausmaß p1 zu erhalten. Dann multipliziert die CPU 121 das Bildverschiebungsausmaß p1 mit einem ersten Umwandlungskoeffizienten K1 gemäß der Bildhöhe des Fokuserfassungsbereichs, der F-Zahl der Abbildungslinse (des optischen Bildgebungssystems) und der Austrittspupillenentfernung zur Erfassung (Berechnung) eines ersten Defokussierausmaßes Def1.
  • Als Nächstes wird unter Bezugnahme auf 11 ein zweiter Fokuserfassungsprozess anhand des Phasendifferenzerfassungsverfahrens beschrieben. 11 zeigt ein Ablaufdiagramm zur Veranschaulichung des zweiten Fokuserfassungsprozesses und entspricht dem nachstehend beschriebenen Schritt S200 in 13. Jeder Schritt in 11 wird hauptsächlich durch die CPU 121 (Erzeugungseinheit 121a oder Berechnungseinheit 121b) und die Bildverarbeitungsschaltung 125 durchgeführt.
  • Zuerst stellt die CPU 121 in Schritt S210 einen Fokuserfassungsbereich zur Fokussierung in einem effektiven Bildelementbereich des Bildaufnahmeelements 107 ein. Dann erzeugt (beschafft) die CPU 121 (Erzeugungseinheit 121a) ein erstes Fokuserfassungssignal (A-Bildsignal) für jede Farbe R, G und B beruhend auf einem Lichtempfangssignal (Ausgangssignal) des ersten Fokuserfassungsbildelements für jede Farbe R, G und B (erste Farbe, zweite Farbe und dritte Farbe), das in dem Fokuserfassungsbereich enthalten ist. Gleichermaßen erzeugt (beschafft) die CPU 121 ein zweites Fokuserfassungssignal (B-Bildsignal) für jede Farbe R, G und B beruhend auf einem Lichtempfangssignal (Ausgangssignal) des zweiten Fokuserfassungsbildelements für jede Farbe R, G und B, das in dem Fokuserfassungsbereich enthalten ist.
  • Danach führt die CPU 121 (Erzeugungseinheit 121a) in Schritt S220 eine zweite Bildelementadditionsverarbeitung zur Umwandlung jedes der Farbsignale (RGB-Signale) in ein Lichtstärkesignal (Y-Signal) für jedes der ersten und zweiten Fokuserfassungssignale von R, G und B durch. Infolgedessen werden ein verarbeitetes erstes und zweites Fokuserfassungssignal erzeugt.
  • Unter Bezugnahme auf 12 wird eine zweite Bildelementadditionsverarbeitung gemäß diesem Ausführungsbeispiel beschrieben. 12 zeigt eine erläuternde Darstellung der zweiten Bildelementadditionsverarbeitung. In 12 ist das erste Fokuserfassungssignal an j in einer Spaltenrichtung (Pupillenteilungsrichtung) und an i in einer Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) im Bayer-Array durch A(i, j) dargestellt. Das erste Fokuserfassungssignal ist für jede Farbe R, G und B angegeben. Das erste Fokuserfassungssignal von R (erste Farbe) ist durch RA(i, j) = A(i, j) dargestellt. Das erste Fokuserfassungssignal von G (zweite Farbe) ist durch GA(i, j + 1) = A(i, j + 1) und GA(i + 1, j) = A(i + 1, j) dargestellt. Das erste Fokuserfassungssignal von B (dritte Farbe) ist durch BA(i + 1, j + 1) = A(i + 1, j + 1) dargestellt. Gleichermaßen ist das zweite Fokuserfassungssignal an j in der Spaltenrichtung (Pupillenteilungsrichtung) und an i in der Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) im Bayer-Array durch B(i, j) dargestellt. Das zweite Fokuserfassungssignal ist auch für jede Farbe R, G und B angegeben. Das zweite Fokuserfassungssignal von R (erste Farbe) ist durch RB(i, j) = B(i, j) dargestellt. Das zweite Fokuserfassungssignal von G (zweite Farbe) ist durch GB(i, j + 1) = B(i, j + 1) und GB(i + 1, j) = A(i + 1, j) dargestellt. Das zweite Fokuserfassungssignal von B (dritte Farbe) ist durch BB(i + 1, j + 1) = B(i + 1, j + 1) dargestellt.
  • Gemäß der zweiten Bildelementadditionsverarbeitung in Schritt S220 in 11 kann wie durch den nachstehenden Ausdruck (3A) dargestellt ein erstes Fokuserfassungssignal Y2A(i, j) als Y-Signal, d.h., erstes Lichtstärkesignal, beruhend auf dem ersten Fokuserfassungssignal A(i, j) des Bayer-Arrays berechnet werden. Gleichermaßen kann gemäß der zweiten Bildelementadditionsverarbeitung wie durch den nachstehenden Ausdruck (3B) dargestellt ein zweites Fokuserfassungssignal Y2B(i, j) als Y-Signal, d.h. zweites Lichtstärkensignal, beruhend auf dem zweiten Fokuserfassungssignal B (i, j) des Bayer-Arrays berechnet werden.
    Figure DE102016114025A1_0004
    Figure DE102016114025A1_0005
  • In den Ausdrücken (3A) und (3B) ist i = 2m und j = 2n oder 2n + 1 (m und n sind ganze Zahlen) erfüllt.
  • Mit j = 2n in Ausdruck (3A) werden ein Farbschwerpunkt (i, j) von 2RA(i, j) von R (erste Farbe) und ein Farbschwerpunkt (i, j) von GA(i, j – 1) + GA(i, j + 1) von G (zweite Farbe) derart kombiniert, dass Farbschwerpunkte jeweiliger Farben in der Pupillenteilungsrichtung (Spaltenrichtung) zusammenfallen. Ferner werden auch ein Farbschwerpunkt (i + 1, j) von 2GA(i + 1, j) von G (zweite Farbe) und ein Farbschwerpunkt (i + 1, j) von BA(i + 1, j – 1) + BA(i + 1, j + 1) von B (dritte Farbe) kombiniert, sodass Farbschwerpunkte jeweiliger Farben in der Pupillenteilungsrichtung (Spaltenrichtung) zusammenfallen. Gleichzeitig werden die Schwerpunkte derart kombiniert, dass ein Verhältnis der Farben R (erste Farbe):G (zweite Farbe):B (dritte Farbe) gleich 1:2:1 ist.
  • Mit j = 2n + 1 im Ausdruck (3A) werden ein Farbschwerpunkt (i, j + 1) von RA(i, j) + RA(i, j + 2) von R (erste Farbe) und ein Farbschwerpunkt (i, j + 1) von 2GA(i, j + 1) von G (zweite Farbe) derart kombiniert, dass Farbschwerpunkte jeweiliger Farben in der Pupillenteilungsrichtung (Spaltenrichtung) zusammenfallen. Ferner werden auch ein Farbschwerpunkt (i + 1, j + 1) von GA(i + 1, j) + GA(i + 1, j + 2) von G (zweite Farbe) und ein Farbschwerpunkt (i + 1, j + 1) von 2BA(i + 1, j + 1) von B (dritte Farbe) derart kombiniert, dass Farbschwerpunkte jeweiliger Farben in der Pupillenteilungsrichtung (Spaltenrichtung) zusammenfallen. Gleichzeitig werden die Schwerpunkte derart kombiniert, dass ein Verhältnis der Farben R (erste Farbe):G (zweite Farbe):B (dritte Farbe) gleich 1:2:1 ist. Wie vorstehend beschrieben werden die Farbschwerpunkte derart kombiniert, dass sie mit einem vorbestimmten Farbverhältnis zusammenfallen, und das Gleiche gilt für den Ausdruck (3B).
  • Wie vorstehend beschrieben wird bei der zweiten Bildelementadditionsverarbeitung das Fokuserfassungssignal als Y-Signal aus dem Fokuserfassungssignal des Bayer-Arrays derart erzeugt, dass ein Farbverhältnis R (erste Farbe), G (zweite Farbe) und B (dritte Farbe) gleich 1:2:1 in allen Bildelementen ist, und Schwerpunkte der jeweiligen Farben in der Pupillenteilungsrichtung miteinander übereinstimmen. Demnach ist im zweiten Fokuserfassungsprozess die Signalperiode des Fokuserfassungssignals als Y-Signal in der Spaltenrichtung (Pupillenteilungsrichtung) gleich der Signalperiode des Fokuserfassungssignals des Bayer-Arrays in der Spaltenrichtung (Pupillenteilungsrichtung) mit gleichen Intervallen. Infolgedessen kann ein hohes Ortsfrequenzband erfasst werden.
  • Wenn die Schwerpunkte der jeweiligen Farben in der Pupillenteilungsrichtung andererseits nicht miteinander übereinstimmen, weisen die Perioden der jeweiligen Farben ungleiche Intervalle auf, und demnach ist eine Stabilisierung und Verwendung eines Tiefpassfilters erforderlich, und die stabile Erfassung des hohen Ortsfrequenzbandes ist schwierig.
  • Bei dem zweiten Fokuserfassungsprozess dieses Ausführungsbeispiels ist eine Signalperiode des Fokuserfassungssignals als Y-Signal in der Pupillenteilungsrichtung gleich einer Signalperiode des Fokuserfassungssignals des Bayer-Arrays in der Pupillenteilungsrichtung und ist kleiner als eine Signalperiode des Fokuserfassungssignals als Y-Signal in der Pupillenteilungsrichtung für die erste Fokuserfassung. Die Erzeugungseinheit 121a synthetisiert (kombiniert) das Signal des ersten Fokuserfassungsbildelements der ersten Farbe mit dem Signal des ersten Fokuserfassungsbildelements der zweiten Farbe derart, dass die Schwerpunkte der Farben in der Pupillenteilungsrichtung für jedes Bildelement übereinstimmen, um das erste Fokuserfassungssignal zu erzeugen. Ferner synthetisiert (kombiniert) die Erzeugungseinheit 121a das Signal des zweiten Fokuserfassungsbildelements der ersten Farbe mit dem Signal des zweiten Fokuserfassungsbildelements der zweiten Farbe derart, dass die Schwerpunkte der Farben in der Pupillenteilungsrichtung für jedes Bildelement zur Erzeugung des zweiten Fokuserfassungssignals miteinander übereinstimmen. Im zweiten Fokuserfassungsprozess dieses Ausführungsbeispiels wird die zweite Bildelementadditionsverarbeitung zur stabilen Durchführung der Fokuserfassung aus einem kleinen Defokussierzustand in die Umgebung einer besten Position im Brennpunkt derart durchgeführt, dass die Signalperiode des Fokuserfassungssignals in der Pupillenteilungsrichtung verringert wird und ein Ortsfrequenzband des Fokuserfassungssignals erhöht wird.
  • Danach führen die CPU 121 und die Bildverarbeitungsschaltung 125 in Schritt S230 eine Schattierungskorrekturverarbeitung (optische Korrekturverarbeitung) jeweils für das erste und das zweite Fokuserfassungssignal durch. In diesem Fall erzeugt die CPU 121 einen ersten Schattierungskorrekturkoeffizienten des ersten Fokuserfassungssignals und einen zweiten Schattierungskorrekturkoeffizienten des zweiten Fokuserfassungssignals gemäß einer Bildhöhe des Fokuserfassungsbereichs, einer F-Zahl der Abbildungslinse (des optischen Bildgebungssystems) und einer Austrittspupillenentfernung. Dann multipliziert die CPU 121 (Bildverarbeitungsschaltung 125) das erste Fokuserfassungssignal mit dem ersten Schattierungskorrekturkoeffizienten und multipliziert das zweite Fokuserfassungssignal mit dem zweiten Schattierungskoeffizienten zur Durchführung der Schattierungskorrekturverarbeitung (optischen Korrekturverarbeitung) bei dem ersten und zweiten Fokuserfassungssignal.
  • Bei der Durchführung der zweiten Fokuserfassung durch das Phasendifferenzerfassungsverfahren erfasst (berechnet) die CPU 121 das Defokussierausmaß (zweite Defokussierausmaß) beruhend auf der Korrelation (dem Übereinstimmungsgrad) zwischen dem ersten und dem zweiten Fokuserfassungssignal. Wenn die Schattierung durch die Pupillenverschiebung auftritt, ist die Korrelation (der Übereinstimmungsgrad) zwischen dem ersten und dem zweiten Fokuserfassungssignal eventuell verringert. Daher wird bei diesem Ausführungsbeispiel bei der Durchführung der zweiten Fokuserfassung durch das Phasendifferenzerfassungsverfahren bevorzugt, dass die CPU 121 die Schattierungskorrekturverarbeitung (optische Korrekturverarbeitung) zur Verbesserung der Korrelation (des Übereinstimmungsgrads) zwischen dem ersten und dem zweiten Fokuserfassungssignal zur Verbesserung einer Fokuserfassungsleistung durchführt.
  • Danach führen die CPU 121 und die Bildverarbeitungsschaltung 125 in Schritt S240 eine zweite Filterverarbeitung bei dem ersten und dem zweiten Fokuserfassungssignal durch. 10 zeigt eine erläuternde Darstellung der zweiten Filterverarbeitung und veranschaulicht ein Beispiel eines Durchlassbandes mit einer durchgezogenen Linie bei der zweiten Filterverarbeitung dieses Ausführungsbeispiels. Bei diesem Ausführungsbeispiel wird die Fokuserfassung aus einem kleinen Defokussierzustand in eine Umgebung einer besten Position im Brennpunkt durch die zweite Fokuserfassung des Phasendifferenzerfassungsverfahrens durchgeführt. Demnach enthält das Durchlassband bei der zweiten Filterverarbeitung ein Hochfrequenzband. Bei Bedarf kann bei der Durchführung der Fokussierung aus dem kleinen Defokussierzustand in die Umgebung der besten Position im Brennpunkt das Durchlassband der zweiten Filterverarbeitung während des zweiten Fokuserfassungsprozesses gemäß dem Defokussierzustand angepasst werden. Als Beispiel der Anpassung des Durchlassbandes gibt es die horizontale Addition oder Dezimierung (Ausdünnung von Signalen oder dergleichen).
  • Danach führt die CPU 121 (Berechnungseinheit 121b) in Schritt S250 eine zweite Verschiebungsverarbeitung durch, in der das erste Fokuserfassungssignal und das zweite Fokuserfassungssignal, die als Ergebnis der zweiten Filterverarbeitung erhalten werden, relativ zueinander in der Pupillenteilungsrichtung verschoben werden. Dann berechnet die CPU 121 ein zweites Korrelationsausmaß (einen zweiten Bewertungswert), das einen Übereinstimmungsgrad der Signale darstellt.
  • Bei diesem Ausführungsbeispiel sind für j in der Spaltenrichtung (Pupillenteilungsrichtung) und i in der Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) erste und zweite Fokuserfassungssignale, bei denen die zweite Filterverarbeitung durchgeführt wurde, jeweils mit dY2A(i, j) und dY2B(i, j) bezeichnet. Ein dem Fokuserfassungsbereich entsprechender Bereich der Zahl j ist mit W bezeichnet, und ein Bereich der Zahl i ist mit L bezeichnet. Ein Verschiebungsausmaß durch die zweite Verschiebungsverarbeitung ist mit s2 bezeichnet, und ein Verschiebungsbereich des Verschiebungsausmaßes s2 ist mit Γ2 bezeichnet. In diesem Fall sind Korrelationsausmaße COR2even und COR2odd (zweite Bewertungswerte) durch nachstehende Ausdrücke (4A) und (4B) dargestellt.
    Figure DE102016114025A1_0006
  • Bei der Berechnung des zweiten Korrelationsausmaßes COR2even bezieht die CPU 121 bezüglich des Verschiebungsausmaßes s2 für jede Reihe i ein (j + s2)-tes erstes Fokuserfassungssignal dY2A(i, j + s2) in der Spaltenrichtung auf ein (j – s2)-tes zweites Fokuserfassungssignal dY2B(i, j – s2) in der Spaltenrichtung zur Durchführung deren Subtraktion zur Erzeugung eines Verschiebungssubtraktionssignals. Dann berechnet die CPU 121 einen Absolutwert des erzeugten Verschiebungssubtraktionssignals und erhält eine Summe der Zahlen j innerhalb eines dem Fokuserfassungsbereich entsprechenden Bereichs W zur Berechnung eines zweiten Korrelationsausmaßes COR2even(i, s2) für die Reihe i. Ferner erhält die CPU 121 eine Summe der Zahlen i innerhalb eines dem Fokuserfassungsbereich entsprechenden Bereichs L für das zweite Korrelationsausmaß COR2even(i, s2) für jedes Verschiebungsausmaß zur Berechnung eines zweiten Korrelationsausmaßes COR2even(s2).
  • Bei der Berechnung des zweiten Korrelationsausmaßes COR2odd bezieht die CPU 121 bezüglich des Verschiebungsausmaßes s2 für jede Reihe i ein (j + s2)-tes erstes Fokuserfassungssignal dY2A(i, j + s2) in der Spaltenrichtung auf ein (j – s2)-tes zweites Fokuserfassungssignal dY2B(i, j – 1 – s2) in der Spaltenrichtung zur Durchführung einer Subtraktion dieser zur Erzeugung eines Verschiebungssubtraktionssignals. Dann berechnet die CPU 121 einen Absolutwert des erzeugten Verschiebungssubtraktionssignals und erhält eine Summe der Zahlen j innerhalb eines dem Fokuserfassungsbereich entsprechenden Bereichs W zur Berechnung eines zweiten Korrelationsausmaßes COR2odd(i, s2) für die Reihe i. Ferner erhält die CPU 121 eine Summe der Zahlen i innerhalb eines dem Fokuserfassungsbereich entsprechenden Bereichs L für das zweite Korrelationsausmaß COR2odd(i, s2) für jedes Verschiebungsausmaß zur Berechnung eines zweiten Korrelationsausmaßes COR2odd(s2). Bei diesem Ausführungsbeispiel ist das zweite Korrelationsausmaß COR2odd ein Korrelationsausmaß, in dem das Verschiebungsausmaß zwischen dem ersten Fokuserfassungssignal und dem zweiten Fokuserfassungssignal um eine halbe Phase relativ zu dem zweiten Korrelationsausmaß COR2even verschoben ist.
  • Danach führt die CPU 121 (Berechnungseinheit 121b) in Schritt S260 eine Unterbildelementberechnung für jedes der zweiten Korrelationsausmaße COR2even und COR2odd (zweite Bewertungswerte) zur Berechnung eines reellwertigen Verschiebungsausmaßes, das minimale zweite Korrelationsausmaße angibt, und Mittelung dieser zum Erhalten des Bildverschiebungsausmaßes p2 durch. Dann kann die CPU 121 das Unterbildelement mit hoher Genauigkeit durch die Berechnung des Bildverschiebungsausmaßes p2 beruhend auf den zweiten Korrelationsausmaßen COR2even und COR2odd berechnen, deren Phasen voneinander um die Hälfte verschoben sind. Die CPU 121 multipliziert das Bildverschiebungsausmaß p2 mit einem zweiten Umwandlungskoeffizienten K2 gemäß der Bildhöhe des Fokuserfassungsbereichs, der F-Zahl der Abbildungslinse (des optischen Bildgebungssystems) und der Austrittspupillenentfernung zur Erfassung (Berechnung) eines zweiten Defokussierausmaßes Def2.
  • Wie vorstehend beschrieben wird in dem zweiten Fokuserfassungsprozess das Fokuserfassungssignal als Y-Signal aus dem Fokuserfassungssignal des Bayer-Arrays derart erzeugt, dass ein Verhältnis der Farben R (erste Farbe), G (zweite Farbe) und B (dritte Farbe) 1:2:1 in allen Bildelementen ist, und Schwerpunkte der jeweiligen Farben in der Pupillenteilungsrichtung zusammenfallen. Demnach ist in dem zweiten Fokuserfassungsprozess die Signalperiode des Fokuserfassungssignals als Y-Signal in der Spaltenrichtung (Pupillenteilungsrichtung) gleich der Signalperiode des Fokuserfassungssignals des Bayer-Arrays in der Spaltenrichtung (Pupillenteilungsrichtung) bei gleichen Intervallen. Infolgedessen kann ein hohes Ortsfrequenzband erfasst werden.
  • Gemäß dem zweiten Fokuserfassungsprozess bei diesem Ausführungsbeispiel kann eine Differenz zwischen dem Ortsfrequenzband des Fokuserfassungssignals und dem Ortsfrequenzband des Abbildungssignals zur Erzeugung des aufgenommenen Bildes reduziert werden, und infolgedessen ist es möglich, eine Differenz zwischen der erfassten Position im Brennpunkt, die beruhend auf dem Fokuserfassungssignal berechnet wird, und der besten Position im Brennpunkt des Abbildungssignals zu verringern. Demnach kann gemäß dem zweiten Fokuserfassungsprozess bei diesem Ausführungsbeispiel die Fokuserfassung aus dem kleinen Defokussierzustand in eine Umgebung der besten Position im Brennpunkt mit hoher Genauigkeit durchgeführt werden.
  • Als Nächstes wird unter Bezugnahme auf 13 eine Fokussteuerung gemäß diesem Ausführungsbeispiel beschrieben. 13 zeigt ein Ablaufdiagramm zur Veranschaulichung der Fokussteuerung. Jeder Schritt in 13 wird hauptsächlich durch die CPU 121 (Erzeugungseinheit 121a, Berechnungseinheit 121b und Fokussteuereinheit 121c) durchgeführt. Die CPU 121 führt die erste Fokuserfassung durch, bis ein Absolutwert eines Defokussierausmaßes des optischen Bildgebungssystems nicht größer als ein erster vorbestimmter Wert zur Ansteuerung (d.h., Durchführung einer Linsenansteuerung) der dritten Linseneinheit 105 (Fokussierlinseneinheit) zur Fokussierung aus einem großen Defokussierzustand in einen kleinen Defokussierzustand des optischen Bildgebungssystems ist. Dann führt sie die zweite Fokuserfassung durch, bis der Absolutwert des Defokussierausmaßes des optischen Bildgebungssystems nicht größer als ein zweiter vorbestimmter Wert (erster vorbestimmter Wert > zweiter vorbestimmter Wert) zur Durchführung der Linsenansteuerung zur Fokussierung aus dem kleinen Defokussierzustand in eine Umgebung einer besten Position im Brennpunkt des optischen Bildgebungssystems ist.
  • Zuerst erfasst (berechnet) die CPU 121 in Schritt S100 ein erstes Defokussierausmaß Def1 durch die erste Fokuserfassung. Danach bestimmt die CPU 121 in Schritt S301, ob ein Absolutwert |Def1| des in Schritt S100 berechneten ersten Defokussierausmaßes Def1 kleiner oder gleich einem ersten vorbestimmten Wert ist oder nicht. Wenn der Absolutwert |Def1| des ersten Defokussierausmaßes Def1 größer als der erste vorbestimmte Wert ist, führt die CPU 121 die Linsenansteuerung gemäß dem ersten Defokussierausmaß Def1 durch, und Schritt S100 wird wiederholt. Wenn der Absolutwert |Def1| des in Schritt S100 berechneten ersten Defokussierausmaßes Def1 andererseits kleiner oder gleich dem ersten vorbestimmten Wert ist, geht der Ablauf zu Schritt S200.
  • Danach erfasst (berechnet) die CPU 121 in Schritt S200 ein zweites Defokussierausmaß Def2 durch die zweite Fokuserfassung. Wenn ein Absolutwert |Def2| des in Schritt S200 berechneten zweiten Defokussierausmaßes Def2 größer als ein zweiter vorbestimmter Wert ist (erster vorbestimmter Wert > zweiter vorbestimmter Wert), führt die CPU 121 in Schritt S303 die Linsenansteuerung (Schritt S304) gemäß dem zweiten Defokussierausmaß Def2 durch, und Schritt S200 wird wiederholt. Wenn der Absolutwert |Def2| des in Schritt S200 berechneten zweiten Defokussierausmaßes Def2 andererseits kleiner oder gleich dem zweiten vorbestimmten Wert ist, wird die Fokussierung (d.h., die Fokussteuerung in diesem Ablauf) beendet.
  • Die zweite Fokuserfassung wird nach der ersten Fokuserfassung in dem Ablaufdiagramm von 13 durchgeführt, jedoch ist dieses Ausführungsbeispiel nicht darauf beschränkt, und die erste Fokuserfassung und die zweite Fokuserfassung können parallel zueinander durchgeführt werden. 17 zeigt ein Ablaufdiagramm zur Veranschaulichung der Fokussteuerung, wenn die erste Fokuserfassung und die zweite Fokuserfassung parallel durchgeführt werden. In 17 werden dieselben Bezugszeichen hinsichtlich gemeinsamer Vorgänge wie in 13 verwendet. Jeder Schritt in 17 wird hauptsächlich durch die CPU 121 (Erzeugungseinheit 121a, Berechnungseinheit 121b und Fokussteuereinheit 121c) durchgeführt.
  • Die CPU 121 führt die erste Fokuserfassung und die zweite Fokuserfassung durch. Dann bestimmt die CPU 121, ob der Absolutwert |Def2| des zweiten Defokussierausmaßes Def2 des optischen Bildgebungssystems, der das Ergebnis der zweiten Fokuserfassung ist, kleiner oder gleich einem ersten vorbestimmten Wert ist oder nicht. Wenn der Absolutwert |Def2| des zweiten Defokussierausmaßes Def2 kleiner oder gleich dem ersten vorbestimmten Wert ist, bestimmt die CPU 121, ob der Absolutwert |Def1| des ersten Defokussierausmaßes Def1 des optischen Bildgebungssystems, der ein Ergebnis der ersten Fokuserfassung ist, kleiner oder gleich einem zweiten vorbestimmten Wert ist oder nicht. Wenn das zweite Defokussierausmaß Def2 andererseits größer als der erste vorbestimmte Wert ist, bestimmt die CPU 121, ob der Absolutwert |Def2| des zweiten Defokussierausmaßes Def2 des optischen Bildgebungssystems, der ein Ergebnis der zweiten Fokuserfassung ist, kleiner oder gleich dem zweiten vorbestimmten Wert ist oder nicht.
  • Zuerst erfasst (berechnet) die CPU 121 in Schritt S100 das erste Defokussierausmaß Def1 durch die erste Fokuserfassung. Parallel dazu erfasst (berechnet) die CPU 121 in Schritt S200 das zweite Defokussierausmaß Def2 durch die zweite Fokuserfassung.
  • Danach bestimmt die CPU 121 in Schritt S401, ob der Absolutwert |Def2| des in Schritt S200 berechneten zweiten Defokussierausmaßes Def2 kleiner oder gleich dem ersten vorbestimmten Wert ist oder nicht. Wenn der Absolutwert |Def2| des zweiten Defokussierausmaßes Def2 größer als der erste vorbestimmte Wert ist, geht der Ablauf zu Schritt S402 und die CPU 121 wendet das erste Defokussierausmaß Def1 als Defokussierausmaß Def an. Wenn der Absolutwert |Def2| des in Schritt S200 berechneten zweiten Defokussierausmaßes Def2 andererseits kleiner oder gleich dem ersten vorbestimmten Wert ist, geht der Ablauf zu Schritt S403, und die CPU 121 wendet das zweite Defokussierausmaß Def2 als das Defokussierausmaß Def an. Nach Schritt S402 oder S403 geht der Ablauf zu Schritt S404.
  • Danach bestimmt die CPU 121 in Schritt S404, ob der Absolutwert |Def| des in Schritt S402 oder S403 berechneten Defokussierausmaßes Def größer als ein zweiter vorbestimmter Wert ist oder nicht (erster vorbestimmter Wert > zweiter vorbestimmter Wert). Wenn der Absolutwert |Def| des Defokussierausmaßes Def größer als der zweite vorbestimmte Wert ist, geht der Ablauf zu Schritt S405, und die CPU 121 führt die Linsenansteuerung gemäß dem Defokussierausmaß Def durch. Wenn der Absolutwert |Def| des Defokussierausmaßes Def andererseits kleiner oder gleich dem zweiten vorbestimmten Wert ist, ist die Fokussierung (d.h., die Fokussteuerung in diesem Ablauf) beendet.
  • Gemäß der zweiten Fokuserfassung dieses Ausführungsbeispiels ist es bei einem Aperturwert F (F-Zahl) an einer kleinen Öffnungsseite möglich, die Fokuserfassung durch das Phasendifferenzerfassungsverfahren ungeachtet des Defokussierzustands mit hoher Genauigkeit durchzuführen. Wenn sich der Aperturwert F erhöht, sodass er die kleine Öffnung ist, verringert sich eine Grundlinienlänge als Schwerpunktintervall zwischen dem Schwerpunkt der Teilpupillenregion 501 und dem Schwerpunkt der Teilpupillenregion 502, und ein Änderungsausmaß des Bildverschiebungsausmaßes p bezüglich des Defokussierausmaßes d verringert sich. Demnach kann sich bei dem Aperturwert F auf der kleinen Öffnungsseite die Fokuserfassungsgenauigkeit ungeachtet des Defokussierzustands verringern.
  • Bei der zweiten Fokuserfassung dieses Ausführungsbeispiels ist eine Periode des Fokuserfassungssignals in der Spaltenrichtung (Pupillenteilungsrichtung) während der zweiten Fokuserfassung hinsichtlich einer Periode des Fokuserfassungssignals in der Spaltenrichtung (Pupillenteilungsrichtung) während der ersten Fokuserfassung um die Hälfte verringert. Daher kann die Erfassungsgenauigkeit des beruhend auf dem Korrelationsausmaß berechneten Bildverschiebungsausmaßes um zwei erhöht werden (d.h., kann verdoppelt werden). Gemäß der zweiten Fokuserfassung dieses Ausführungsbeispiels ist es bei dem Aperturwert F (der F-Zahl) auf der kleinen Öffnungsseite möglich, die Fokuserfassung mit hoher Genauigkeit ungeachtet des Defokussierzustands durchzuführen.
  • Gemäß der Bildaufnahmevorrichtung bei diesem Ausführungsbeispiel kann ein Unterschied zwischen einer erfassten Position im Brennpunkt beruhend auf einem Fokuserfassungssignal und einer besten Position im Brennpunkt beruhend auf einem Abbildungssignal zur Durchführung einer Fokuserfassung mit hoher Genauigkeit verringert werden.
  • [AUSFÜHRUNGSBEISPIEL 2]
  • Als Nächstes wird unter Bezugnahme auf 14 eine zweite Bildelementadditionsverarbeitung gemäß Ausführungsbeispiel 2 vorliegender Erfindung beschrieben. 14 zeigt eine erläuternde Darstellung der zweiten Bildelementadditionsverarbeitung. Dieses Ausführungsbeispiel unterscheidet sich vom Ausführungsbeispiel 1 lediglich in der zweiten Bildelementadditionsverarbeitung, und demnach wird auf andere Erläuterungen verzichtet.
  • In 14 ist das erste Fokuserfassungssignal an j in einer Spaltenrichtung (Pupillenteilungsrichtung) und an i in einer Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) im Bayer-Array durch A(i, j) dargestellt. Das erste Fokuserfassungssignal ist für jede Farbe R, G und B angegeben. Das erste Fokuserfassungssignal von R (erste Farbe) ist durch RA(i, j) = A(i, j) dargestellt. Das erste Fokuserfassungssignal von G (zweite Farbe) ist durch GA(i, j + 1) = A(i, j + 1) und GA(i + 1, j) = A(i + 1, j) dargestellt. Das erste Fokuserfassungssignal von B (dritte Farbe) ist durch BA(i + 1, j + 1) = A(i + 1, j + 1) dargestellt. Gleichermaßen ist das zweite Fokuserfassungssignal an j in der Spaltenrichtung (Pupillenteilungsrichtung) und an i in der Reihenrichtung (Richtung orthogonal zur Pupillenteilungsrichtung) im Bayer-Array durch B(i, j) dargestellt. Das zweite Fokuserfassungssignal ist auch für jede Farbe R, G und B angegeben. Das zweite Fokuserfassungssignal von R (erste Farbe) ist durch RB(i, j) = B(i, j) dargestellt. Das zweite Fokuserfassungssignal von G (zweite Farbe) ist durch GB(i, j + 1) = B(i, j + 1) und GB(i + 1, j) = A(i + 1, j) dargestellt. Das zweite Fokuserfassungssignal von B (dritte Farbe) ist durch BB(i + 1, j + 1) = B(i + 1, j + 1) dargestellt.
  • Gemäß der zweiten Bildelementadditionsverarbeitung in Schritt S220 in 11 kann wie durch den nachstehenden Ausdruck (5A) dargestellt ein erstes Fokuserfassungssignal Y2A(i, j) als Y-Signal, d.h., erstes Lichtstärkesignal, beruhend auf dem ersten Fokuserfassungssignal A(i, j) des Bayer-Arrays berechnet werden. Gleichermaßen kann gemäß der zweiten Bildelementadditionsverarbeitung wie durch nachstehenden Ausdruck (5B) dargestellt ein zweites Fokuserfassungssignal Y2B(i, j) als Y-Signal, d.h., zweites Lichtstärkesignal, beruhend auf dem zweiten Fokuserfassungssignal B(i, j) des Bayer-Arrays berechnet werden.
    Figure DE102016114025A1_0007
  • In den Ausdrücken (5A) und (5B) ist i = m und j = n (m und n sind ganze Zahlen) erfüllt.
  • Bei der zweiten Bildelementadditionsverarbeitung wird das Fokuserfassungssignal als Y-Signal aus dem Fokuserfassungssignal des Bayer-Arrays derart erzeugt, dass ein Verhältnis von Farben R (erste Farbe), G (zweite Farbe) und B (dritte Farbe) in allen Bildelementen 1:2:1 ist, und Schwerpunkte der jeweiligen Farben in der Pupillenteilungsrichtung miteinander übereinstimmen. Demnach ist bei dem zweiten Fokuserfassungsprozess die Signalperiode des Fokuserfassungssignals als Y-Signal in Spaltenrichtung (Pupillenteilungsrichtung) gleich der Signalperiode des Fokuserfassungssignals des Bayer-Arrays in der Spaltenrichtung (Pupillenteilungsrichtung) bei gleichen Intervallen. Infolgedessen kann ein hohes Ortsfrequenzband erfasst werden.
  • Gemäß der Bildaufnahmevorrichtung in diesem Ausführungsbeispiel kann ein Unterschied zwischen einer beruhend auf einem Fokuserfassungssignal erfassten Position im Brennpunkt und einer auf einem Abbildungssignal beruhenden besten Position im Brennpunkt verringert werden, um eine Fokuserfassung mit hoher Genauigkeit durchzuführen.
  • [AUSFÜHRUNGSBEISPIEL 3]
  • Als Nächstes wird unter Bezugnahme auf 15 und die 16A und 16B eine Bildaufnahmevorrichtung gemäß Ausführungsbeispiel 3 vorliegender Erfindung beschrieben. Dieses Ausführungsbeispiel unterscheidet sich vom Ausführungsbeispiel 1 im Bildelementarray des Bildaufnahmeelements 107. Andere Konfigurationen in diesem Ausführungsbeispiel sind dieselben wie jene im Ausführungsbeispiel 1, und demnach wird auf ihre Erläuterungen verzichtet.
  • 15 zeigt eine Darstellung zur Veranschaulichung des Bildelementarrays des Bildaufnahmeelements 107 bei diesem Ausführungsbeispiel. Die 16A und 16B zeigen Darstellungen zur Veranschaulichung des Bildelementaufbaus des Bildaufnahmeelements 107, und die 16A und 16B veranschaulichen jeweils eine Draufsicht eines Bildelements 200G des Bildaufnahmeelements 107 (von einer +z-Richtung aus gesehen) und eine Schnittansicht entlang einer Geraden a-a in 16A (von einer –y-Richtung aus gesehen).
  • 15 veranschaulicht das Bildelementarray (Array von Abbildungsbildelementen) des Bildaufnahmeelements 107 (zweidimensionalen CMOS-Sensors) in einem Bereich von 4 Spalten × 4 Reihen. Bei diesem Ausführungsbeispiel enthält jedes der Abbildungsbildelemente (Bildelemente 200R, 200G und 200B) vier Unterbildelemente 201, 202, 203 und 204. Daher veranschaulicht 15 das Array der Unterbildelemente in einem Bereich von 8 Spalten × 8 Reihen.
  • Wie in 15 gezeigt enthält eine Bildelementgruppe 200 aus 2 Spalten × 2 Reihen die Bildelemente 200R, 200G und 200B in einem Bayer-Array. Das heißt, in der Bildelementgruppe 200 ist das Bildelement 200R mit einer spektralen Empfindlichkeit für R (rot) oben links angeordnet, die Bildelemente 200G mit einer spektralen Empfindlichkeit für G (grün) sind oben rechts und unten links angeordnet, und das Bildelement 200B mit einer spektralen Empfindlichkeit für B (blau) ist unten rechts angeordnet. Jedes der Bildelemente 200R, 200G und 200B (jedes Abbildungsbildelement) enthält die Unterbildelemente 201, 202, 203 und 204, die in 2 Spalten × 2 Reihen angeordnet sind. Obwohl bei diesem Ausführungsbeispiel das Beispiel beschrieben ist, in dem jedes Bildelement die in 2 Spalten × 2 Reihen angeordneten Unterbildelemente enthalten, kann jedes Bildelement mehr Unterbildelemente enthalten, oder kann Unterbildelemente enthalten, deren Anzahl zwischen der Spaltenrichtung und der Reihenrichtung unterschiedlich ist. Das Unterbildelement 201 ist ein Bildelement, das einen durch eine erste Teilpupillenregion des optischen Bildgebungssystems gehenden Lichtstrahl empfängt. Das Unterbildelement 202 ist ein Bildelement, das einen durch eine zweite Teilpupillenregion des optischen Bildgebungssystems gehenden Lichtstrahl empfängt. Das Unterbildelement 203 ist ein Bildelement, das einen durch eine dritte Teilpupillenregion des optischen Bildgebungssystems gehenden Lichtstrahl empfängt. Das Unterbildelement 204 ist ein Bildelement, das einen durch eine vierte Teilpupillenregion des optischen Bildgebungssystems gehenden Lichtstrahl empfängt.
  • Wie in 15 gezeigt enthält das Bildaufnahmeelement 107 eine Anzahl von Abbildungsbildelementen aus 4 Spalten × 4 Reihen (Unterbildelemente aus 8 Spalten × 8 Reihen), die auf einer Oberfläche angeordnet sind, und gibt ein Abbildungssignal (Unterbildelementsignal) aus. In dem Bildaufnahmeelement 107 dieses Ausführungsbeispiels beträgt eine Periode P der Bildelemente (Abbildungsbildelemente) 4µm, und die Anzahl N der Bildelemente (Abbildungsbildelemente) beträgt 5575 Spalten in der Horizontalen × 3725 Reihen in der Vertikalen = ungefähr 20,75 Millionen Bildelemente. In dem Bildaufnahmeelement 107 beträgt eine Periode PSUB der Unterbildelemente in einer Spaltenrichtung 2µm, und die Anzahl NSUB der Unterbildelemente beträgt 11150 Spalten in der Horizontalen × 7450 Reihen in der Vertikalen = ungefähr 83 Millionen Bildelemente.
  • Wie in 16B gezeigt, ist das Bildelement 200G dieses Ausführungsbeispiels mit einer Mikrolinse 305 auf einer Lichtempfangsflächenseite des Bildelements zum Kondensieren von einfallendem Licht versehen. Jede Mikrolinse 305 ist an einer Position angeordnet, die von der Lichtempfangsfläche um eine vorbestimmte Entfernung in einer z-Achsenrichtung (Richtung einer optischen Achsenrichtung OA) entfernt ist. In dem Bildelement 200G sind fotoelektrische Umwandlungsabschnitte 301, 302, 303 und 304 (fotoelektrische Wandler) durch Teilen des Bildelements in NH (zwei Teilungen) in einer x-Richtung und in NV (zwei Teilungen) in einer y-Richtung gebildet. Die fotoelektrischen Umwandlungsabschnitte 301 bis 304 entsprechen jeweils den Unterbildelementen 201 bis 204.
  • Bei diesem Ausführungsbeispiel enthält das Bildaufnahmeelement 107 die Vielzahl der Unterbildelemente, die sich eine einzelne Mikrolinse teilen, und die eine Vielzahl von Lichtstrahlen empfangen, die durch Regionen (erste bis vierte Teilpupillenregionen) fallen, die voneinander in einer Pupille des optischen Bildgebungssystems (der Abbildungslinse) verschieden sind. Das Bildaufnahmeelement 107 enthält als die Vielzahl der Unterbildelemente erste Unterbildelemente (eine Vielzahl von Unterbildelementen 201), zweite Unterbildelemente (eine Vielzahl von Unterbildelementen 202), dritte Unterbildelemente (eine Vielzahl von Unterbildelementen 203) und vierte Unterbildelemente (eine Vielzahl von Unterbildelementen 204).
  • Bei diesem Ausführungsbeispiel werden Signale der Unterbildelemente 201, 202, 203 und 204 addiert (kombiniert) und für jedes Bildelement des Bildaufnahmeelements 107 derart ausgelesen, dass ein aufgenommenes Bild mit einer Auflösung der Anzahl N der effektiven Bildelemente erzeugt werden kann. Wie vorstehend beschrieben wird das aufgenommene Bild durch Synthetisieren (Kombinieren) von Lichtempfangssignalen der Vielzahl der Unterbildelemente (Unterbildelemente 201 bis 204 bei diesem Ausführungsbeispiel) für jedes Bildelement erzeugt.
  • Bei diesem Ausführungsbeispiel wird ein erstes Fokuserfassungssignal durch Addieren der Signale der Unterbildelemente 201 und 203 für jedes Bildelement des Bildaufnahmeelements 107 erzeugt, und ein zweites Fokuserfassungssignal wird durch Addieren der Signale der Unterbildelemente 202 und 204 für jedes Bildelement des Bildaufnahmeelements 107 erzeugt. In diesem Fall bildet die Vielzahl der Unterbildelemente 201 und 203 eine erste Bildelementgruppe, und die Vielzahl der Unterbildelemente 202 und 204 bildet eine zweite Bildelementgruppe. Gemäß der Additionsverarbeitung können das erste Fokuserfassungssignal und das zweite Fokuserfassungssignal, die der Pupillenteilung in der horizontalen Richtung entsprechen, beschafft werden, und es ist möglich, eine erste Fokuserfassung und eine zweite Fokuserfassung durch das Phasendifferenzerfassungsverfahren durchzuführen.
  • Bei diesem Ausführungsbeispiel wird das erste Fokuserfassungssignal durch Addieren (Kombinieren) der Signale der Unterbildelemente 201 und 202 für jedes Bildelement des Bildaufnahmeelements 107 erzeugt, und das zweite Fokuserfassungssignal wird durch Addieren (Kombinieren) der Signale der Unterbildelemente 203 und 204 für jedes Bildelement des Bildaufnahmeelements 107 erzeugt. In diesem Fall bildet die Vielzahl der Unterbildelemente 201 und 202 die erste Bildelementgruppe, und die Vielzahl der Unterbildelemente 203 und 204 bildet die zweite Bildelementgruppe. Gemäß der Additionsverarbeitung können das erste Fokuserfassungssignal und das zweite Fokuserfassungssignal beschafft werden, die der Pupillenteilung in der vertikalen Richtung entsprechen, und es ist möglich, die erste Fokuserfassung und die zweite Fokuserfassung durch das Phasendifferenzerfassungsverfahren durchzuführen.
  • Gemäß der Bildaufnahmevorrichtung in diesem Ausführungsbeispiel kann ein Unterschied zwischen einer auf einem Fokuserfassungssignal beruhenden erfassten Position im Brennpunkt und einer auf einem Abbildungssignal beruhenden besten Position im Brennpunkt zur Durchführung einer Fokuserfassung mit hoher Genauigkeit verringert werden.
  • Wie vorstehend beschrieben enthält die Steuervorrichtung (CPU 121) in jedem Ausführungsbeispiel die Erzeugungseinheit 121a und die Berechnungseinheit 121b. Die Erzeugungseinheit 121a erzeugt das erste Fokuserfassungssignal und das zweite Fokuserfassungssignal beruhend auf der Vielzahl der Typen von Farbsignalen von der ersten Bildelementgruppe und der zweiten Bildelementgruppe, die Lichtstrahlen empfangen, die durch Teilpupillenregionen gehen, die in dem optischen Bildgebungssystem voneinander verschieden sind. Die Berechnungseinheit 121b berechnet das Defokussierausmaß durch das Phasendifferenzerfassungsverfahren unter Verwendung des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals. Die Erzeugungseinheit 121a kombiniert (d.h., führt eine Bildelementadditionsverarbeitung durch bei) die/der Vielzahl der Typen der Farbsignale bezüglich der ersten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung zusammenfallen, um das erste Fokuserfassungssignal zu erzeugen. Ferner kombiniert die Erzeugungseinheit 121a die Vielzahl der Typen der Farbsignale bezüglich der zweiten Bildelementgruppe, sodass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung zusammenfallen, um das zweite Fokuserfassungssignal zu erzeugen.
  • Vorzugsweise sind Signalperioden des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals in der Pupillenteilungsrichtung jeweils gleich Arrayperioden der ersten Bildelementgruppe und der zweiten Bildelementgruppe. Vorzugsweise enthält die Vielzahl der Typen der Farbsignale ein erstes Farbsignal, ein zweites Farbsignal und ein drittes Farbsignal. Die Erzeugungseinheit 121a kombiniert das erste Farbsignal, das zweite Farbsignal und das dritte Farbsignal bezüglich der ersten Bildelementgruppe derart, dass Schwerpunkte des ersten Farbsignals, des zweiten Farbsignals und des dritten Farbsignals in der Pupillenteilungsrichtung zusammenfallen, um das erste Fokuserfassungssignal als erstes Lichtstärkesignal (Y2A) zu erzeugen. Des Weiteren kombiniert die Erzeugungseinheit 121a das erste Farbsignal, das zweite Farbsignal und das dritte Farbsignal bezüglich der zweiten Bildelementgruppe derart, dass Schwerpunkte des ersten Farbsignals, des zweiten Farbsignals und des dritten Farbsignals in der Pupillenteilungsrichtung zusammenfallen, um das zweite Fokuserfassungssignal als zweites Lichtstärkesignal (Y2B) zu erzeugen.
  • Vorzugsweise ist das erste Farbsignal ein aus einem ersten Bildelement (beispielsweise RA(i, j) wie in 12 gezeigt) in der ersten Bildelementgruppe erhaltenes Signal. Das zweite Farbsignal ist ein Signal, das jeweils aus einem zweiten Bildelement (GA(i, j – 1)), einem dritten Bildelement (GA(i, j + 1)) und einem vierten Bildelement (GA(i + 1, j)) erhalten wird, die an das erste Bildelement in der ersten Bildelementgruppe angrenzen. In diesem Fall entspricht jeder Schwerpunkt des ersten Farbsignals und des zweiten Farbsignals in der Pupillenteilungsrichtung einer Position des ersten Bildelements. Das Gleiche gilt für die zweite Bildelementgruppe. Vorzugsweise ist das dritte Farbsignal ein Signal, das jeweils aus einem fünften Bildelement (beispielsweise BA(i + 1, j – 1) wie in 12 gezeigt) und einem sechsten Bildelement (BA(i + 1, j + 1)) in der ersten Bildelementgruppe erhalten wird. In diesem Fall entspricht der Schwerpunkt des dritten Farbsignals in der Pupillenteilungsrichtung der Position des ersten Bildelements. Das Gleiche gilt für die zweite Bildelementgruppe.
  • Vorzugsweise ist das erste Farbsignal ein Signal, das von einem ersten Bildelement (beispielsweise RA(i, j) wie in 14 gezeigt) in der ersten Bildelementgruppe erhalten wird. Das zweite Farbsignal ist ein Signal, das jeweils von einem zweiten Bildelement (GA(i, j – 1)), einem dritten Bildelement (GA(i, j + 1)), einem vierten Bildelement (GA(i + 1, j)) und einem fünften Bildelement (GA(i – 1, j)) erhalten wird, die an das erste Bildelement in der ersten Bildelementgruppe angrenzen. In diesem Fall entspricht jeder Schwerpunkt des ersten Farbsignals und des zweiten Farbsignals in der Pupillenteilungsrichtung einer Position des ersten Bildelements. Das Gleiche gilt für die zweite Bildelementgruppe. Vorzugsweise ist das dritte Farbsignal ein Signal, das jeweils von einem sechsten Bildelement (beispielsweise BA(i – 1, j – 1) wie in 14 gezeigt), einem siebten Bildelement (BA(i + 1, j – 1)), einem achten Bildelement (BA(i – 1, j + 1)) und einem neunten Bildelement (BA(i + 1, j + 1)) in der ersten Bildelementgruppe erhalten wird. In diesem Fall entspricht der Schwerpunkt des dritten Farbsignals in der Pupillenteilungsrichtung der Position des ersten Bildelements. Das Gleiche gilt für die zweite Bildelementgruppe.
  • Vorzugsweise sind das erste Farbsignal, das zweite Farbsignal und das dritte Farbsignal jeweils ein Rotsignal, ein Grünsignal und ein Blausignal, und die erste Bildelementgruppe und die zweite Bildelementgruppe weisen jeweils das Bayer-Array auf. Ein Verhältnis der Kombination des ersten Farbsignals, des zweiten Farbsignals und des dritten Farbsignals jeweils bezüglich des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals ist 1:2:1.
  • Vorzugsweise enthält die Steuervorrichtung die Fokussteuereinheit 121c, die die Fokussteuerung beruhend auf dem Defokussierausmaß durchführt. Die Fokussteuereinheit 121c führt die Fokussteuerung beruhend auf einem ersten Defokussierausmaß durch, das durch die Berechnungseinheit 121b im ersten Fokuserfassungsprozess berechnet wird, wenn das erste Defokussierausmaß größer als ein erster Schwellenwert (erster vorbestimmter Wert) ist. Andererseits führt die Fokussteuereinheit 121c die Fokussteuerung beruhend auf einem zweiten Defokussierausmaß durch, das durch die Berechnungseinheit 121b im zweiten Fokuserfassungsprozess berechnet wird, wenn das erste Defokussierausmaß kleiner als der erste Schwellenwert ist. Dann kombiniert die Erzeugungseinheit 121a im zweiten Fokuserfassungsprozess die Vielzahl der Typen der Farbsignale derart, dass die Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung zusammenfallen, um das erste Fokuserfassungssignal und das zweite Fokuserfassungssignal zu erzeugen. Vorzugsweise sind Signalperioden des durch die Erzeugungseinheit 121a erzeugten ersten Fokuserfassungssignals und zweiten Fokuserfassungssignals im ersten Fokuserfassungsprozess größer als Arrayperioden der ersten Bildelementgruppe und der zweiten Bildelementgruppe. Vorzugsweise ist ein Ortsfrequenzband des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals im zweiten Fokuserfassungsprozess jeweils höher als ein Ortsfrequenzband im ersten Fokuserfassungsprozess.
  • [WEITERE AUSFÜHRUNGSBEISPIELE]
  • Ausführungsbeispiele der Erfindung können auch durch einen Computer eines Systems oder einer Vorrichtung, der auf einem Speichermedium (das vollständiger auch als nichtflüchtiges computerlesbares Speichermedium bezeichnet werden kann) aufgezeichnete computerausführbare Anweisungen (beispielsweise ein Programm oder mehrere Programme) zur Durchführung der Funktionen des/der vorstehend beschriebenen Ausführungsbeispiele ausliest und ausführt, und/oder der eine Schaltung oder mehrere Schaltungen (beispielsweise eine anwendungsspezifische integrierte Schaltung (ASIC)) zur Durchführung der Funktionen der vorstehend beschriebenen Ausführungsbeispiele enthält, und durch ein durch den Computer des Systems oder der Vorrichtung durchgeführtes Verfahren beispielsweise durch Auslesen und Ausführen der computerausführbaren Anweisungen aus dem Speichermedium zur Durchführung der Funktionen der vorstehend beschriebenen Ausführungsbeispiele und/oder Steuern der einen Schaltung oder der mehreren Schaltungen zur Durchführung der Funktionen der vorstehend beschriebenen Ausführungsbeispiele realisiert werden. Der Computer kann einen oder mehrere Prozessoren (beispielsweise eine Zentralverarbeitungseinheit (CPU), Mikroverarbeitungseinheit (MPU)) umfassen und kann ein Netzwerk separater Computer oder separater Prozessoren zum Auslesen und Ausführen der computerausführbaren Anweisungen enthalten. Die computerausführbaren Anweisungen können dem Computer beispielsweise von einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann beispielsweise eine Festplatte und/oder einen Speicher mit wahlfreiem Zugriff (RAM) und/oder einen Nurlesespeicher (ROM) und/oder einen Speicher verteilter Rechensysteme und/oder eine optische Scheibe (wie eine Kompaktdisk (CD), Digital Versatile Disk (DVD) oder Blue-ray Disk (BDTM)) und/oder eine Flash-Speichereinrichtung und/oder eine Speicherkarte und dergleichen enthalten.
  • Gemäß jedem Ausführungsbeispiel können eine Steuervorrichtung, eine Bildaufnahmevorrichtung, ein Steuerverfahren, ein Programm und ein Speichermedium bereitgestellt werden, die einen Unterschied zwischen einer auf einem Fokuserfassungssignal beruhenden erfassten Position im Brennpunkt und einer auf einem Abbildungssignal beruhenden besten Position im Brennpunkt reduzieren können, um eine Fokuserfassung mit hoher Genauigkeit durchzuführen.
  • Obwohl die Erfindung unter Bezugnahme auf Ausführungsbeispiele beschrieben wurde, ist ersichtlich, dass die Erfindung nicht auf die offenbarten Ausführungsbeispiele beschränkt ist. Dem Schutzbereich der folgenden Patentansprüche soll die breiteste Interpretation zum Umfassen all solcher Modifikationen und äquivalenten Strukturen und Funktionen zukommen.
  • Beispielsweise kann die Steuervorrichtung ein Steuerverfahren (Bildverarbeitungsverfahren) des Beschaffens einer Vielzahl von Erfassungssignalen durchführen, die bei dem Phasendifferenzerfassungsverfahren zur Berechnung von Entfernungsinformationen zu verwenden sind. Dieses Verfahren umfasst die Schritte des Durchführens einer ersten Verarbeitung bei Sichtpunktbildern (Parallaxenbildern), die die Vielzahl der Typen der Farbsignale enthalten, um ein kombiniertes Signal der Farbsignale zu beschaffen, und Durchführen einer zweiten Verarbeitung bei den kombinierten Signalen zur Erzeugung des Erfassungssignals. Die erste Verarbeitung kombiniert die Farbsignale derart, dass Schwerpunkte der Sichtpunktbilder in einer Sichtpunktrichtung miteinander übereinstimmen. Die erste Verarbeitung enthält eine Verarbeitung eines Kombinierens der Vielzahl der Typen der Farbsignale mit unterschiedlichem Verhältnis, und die zweite Verarbeitung enthält eine Verarbeitung einer Dezimierung zur Änderung eines Frequenzbands eines im kombinierten Signal enthaltenen Signals. Das Steuerverfahren kann ferner den Schritt eines Erfassens einer Phasendifferenz unter Verwendung der Erfassungssignale enthalten. In diesem Fall enthält die zweite Verarbeitung eine Verarbeitung bei dem kombinierten Signal beruhend auf der erfassten Phasendifferenz. Die erste Verarbeitung kann eine Verarbeitung eines Kombinierens der Farbsignale derart enthalten, dass Schwerpunkte der Sichtpunktbilder in einer Richtung senkrecht zur Sichtpunktrichtung miteinander übereinstimmen.
  • Eine Steuervorrichtung (121) enthält eine Erzeugungseinheit (121a) zur Erzeugung eines ersten und zweiten Fokuserfassungssignals beruhend auf einer Vielzahl von Typen von Farbsignalen aus einer ersten und einer zweiten Bildelementgruppe, die Lichtstrahlen empfangen, die durch voneinander verschiedene Teilpupillenregionen gehen, und eine Berechnungseinheit (121b) zur Berechnung eines Defokussierausmaßes durch ein Phasendifferenzerfassungsverfahren unter Verwendung des ersten und zweiten Fokuserfassungssignals, und die Erzeugungseinheit kombiniert die Farbsignale bezüglich der ersten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in einer Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal zu erzeugen, und kombiniert die Farbsignale bezüglich der zweiten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung miteinander übereinstimmen, um das zweite Fokuserfassungssignal zu erzeugen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 4410804 [0003]
    • JP 2001-083407 [0003]
    • JP 2000-156823 [0004]

Claims (21)

  1. Steuervorrichtung (121) mit einer Erzeugungseinrichtung (121a) zur Erzeugung eines ersten Fokuserfassungssignals und eines zweiten Fokuserfassungssignals beruhend auf einer Vielzahl von Typen von Farbsignalen von einer ersten Bildelementgruppe und einer zweiten Bildelementgruppe, die Lichtstrahlen empfangen, die durch voneinander verschiedene Teilpupillenregionen in einem optischen Bildgebungssystem gehen, und einer Berechnungseinrichtung (121b) zur Berechnung eines Defokussierausmaßes durch ein Phasendifferenzerfassungsverfahren unter Verwendung des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals, dadurch gekennzeichnet, dass die Erzeugungseinrichtung die Vielzahl der Typen der Farbsignale bezüglich der ersten Bildelementgruppe derart kombiniert, dass Schwerpunkte der Farbsignale in einer Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal zu erzeugen, und die Erzeugungseinrichtung die Vielzahl der Typen der Farbsignale bezüglich der zweiten Bildelementgruppe derart kombiniert, dass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung miteinander übereinstimmen, um das zweite Fokuserfassungssignal zu erzeugen.
  2. Steuervorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass in der Pupillenteilungsrichtung Signalperioden des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals jeweils gleich Arrayperioden der ersten Bildelementgruppe und der zweiten Bildelementgruppe sind.
  3. Steuervorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Vielzahl der Typen der Farbsignale ein erstes Farbsignal, ein zweites Farbsignal und ein drittes Farbsignal enthalten, die Erzeugungseinrichtung das erste Farbsignal, das zweite Farbsignal und das dritte Farbsignal bezüglich der ersten Bildelementgruppe derart kombiniert, dass Schwerpunkte des ersten Farbsignals, des zweiten Farbsignals und des dritten Farbsignal in der Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal als erstes Lichtstärkesignal zu erzeugen, und die Erzeugungseinrichtung das erste Farbsignal, das zweite Farbsignal und das dritte Farbsignal bezüglich der zweiten Bildelementgruppe derart kombiniert, dass Schwerpunkte des ersten Farbsignals, des zweiten Farbsignals und des dritten Farbsignals in der Pupillenteilungsrichtung miteinander übereinstimmen, um das zweite Fokuserfassungssignal als zweites Lichtstärkesignal zu erzeugen.
  4. Steuervorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass das erste Farbsignal ein aus einem ersten Bildelement jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe erhaltenes Signal ist, das zweite Farbsignal ein aus einem zweiten Bildelement, einem dritten Bildelement und einem vierten Bildelement, die an das erste Bildelement angrenzen, jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe erhalten wird, und die Schwerpunkte des ersten Farbsignals und des zweiten Farbsignals in der Pupillenteilungsrichtung jeweils einer Position des ersten Bildelements entsprechen.
  5. Steuervorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass das dritte Farbsignal ein Signal ist, das jeweils von einem fünften Bildelement und einem sechsten Bildelement jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe erhalten wird, und ein Schwerpunkt des dritten Farbsignals in der Pupillenteilungsrichtung der Position des ersten Bildelements entspricht.
  6. Steuervorrichtung nach Anspruch 3, dadurch gekennzeichnet, dass das erste Farbsignal ein Signal ist, das von einem ersten Bildelement jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe erhalten wird, das zweite Farbsignal ein Signal ist, das jeweils von einem zweiten Bildelement, einem dritten Bildelement, einem vierten Bildelement und einem fünften Bildelement, die an das erste Bildelement angrenzen, jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe erhalten wird, und die Schwerpunkte des ersten Farbsignals und des zweiten Farbsignals in der Pupillenteilungsrichtung jeweils einer Position des ersten Bildelements entsprechen.
  7. Steuervorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass das dritte Farbsignal ein Signal ist, das jeweils von einem sechsten Bildelement, einem siebten Bildelement, einem achten Bildelement und einem neunten Bildelement jeweils in der ersten Bildelementgruppe und der zweiten Bildelementgruppe erhalten wird, und ein Schwerpunkt des dritten Farbsignals in der Pupillenteilungsrichtung der Position des ersten Bildelements entspricht.
  8. Steuervorrichtung nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, dass das erste Farbsignal, das zweite Farbsignal und das dritte Farbsignal jeweils ein Rotsignal, ein Grünsignal und ein Blausignal ist, die erste Bildelementgruppe und die zweite Bildelementgruppe jeweils ein Bayer-Array aufweist, und ein Verhältnis der Kombination des ersten Farbsignals, des zweiten Farbsignals und des dritten Farbsignals jeweils bezüglich des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals 1:2:1 ist.
  9. Steuervorrichtung nach einem der Ansprüche 1 bis 8, ferner mit einer Fokussteuereinrichtung (121c) zur Durchführung einer Fokussteuerung beruhend auf dem Defokussierausmaß, dadurch gekennzeichnet, dass die Fokussteuereinrichtung die Fokussteuerung beruhend auf einem durch die Berechnungseinrichtung in einem ersten Fokuserfassungsprozess berechneten ersten Defokussierausmaß durchführt, wenn das erste Defokussierausmaß größer als ein erster Schwellenwert ist, die Fokussteuereinrichtung die Fokussteuerung beruhend auf einem durch die Berechnungseinrichtung in einem zweiten Fokuserfassungsprozess berechneten zweiten Defokussierausmaß durchführt, wenn das erste Defokussierausmaß kleiner als der erste Schwellenwert ist, und wobei die Erzeugungseinrichtung in dem zweiten Fokuserfassungsprozess die Vielzahl der Typen der Farbsignale derart kombiniert, dass die Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal und das zweite Fokuserfassungssignal zu erzeugen.
  10. Steuervorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass im ersten Fokuserfassungsprozess Signalperioden des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals, die durch die Erzeugungseinrichtung erzeugt werden, in der Pupillenteilungsrichtung größer als Arrayperioden der ersten Bildelementgruppe und der zweiten Bildelementgruppe sind.
  11. Steuervorrichtung nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass ein Ortsfrequenzband des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals im zweiten Fokuserfassungsprozess jeweils höher als ein Ortsfrequenzband des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals im ersten Fokuserfassungsprozess ist.
  12. Bildaufnahmevorrichtung (100) mit einer Bildaufnahmeeinrichtung (107) mit einer ersten Bildelementgruppe und einer zweiten Bildelementgruppe, die zum Empfangen von Lichtstrahlen eingerichtet sind, die durch voneinander verschiedene Teilpupillenregionen in einem optischen Bildgebungssystem gehen, einer Erzeugungseinrichtung zur Erzeugung eines ersten Fokuserfassungssignals und eines zweiten Fokuserfassungssignals beruhend auf einer Vielzahl von Typen von Farbsignalen von der ersten Bildelementgruppe und der zweiten Bildelementgruppe und einer Berechnungseinrichtung zur Berechnung eines Defokussierausmaßes durch ein Phasendifferenzerfassungsverfahren unter Verwendung des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals, wobei die Erzeugungseinrichtung die Vielzahl der Typen der Farbsignale bezüglich der ersten Bildelementgruppe derart kombiniert, dass Schwerpunkte der Farbsignale in einer Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal zu erzeugen, und wobei die Erzeugungseinrichtung die Vielzahl der Typen der Farbsignale bezüglich der zweiten Bildelementgruppe derart kombiniert, dass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung miteinander übereinstimmen, um das zweite Fokuserfassungssignal zu erzeugen.
  13. Bildaufnahmevorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die Bildaufnahmeeinrichtung eine Vielzahl von Mikrolinsen und eine Vielzahl fotoelektrischer Umwandlungsabschnitte enthält, die jeder einzelnen Mikrolinse entsprechen, und die Mikrolinsen zweidimensional angeordnet sind.
  14. Bildaufnahmevorrichtung nach Anspruch 13, ferner gekennzeichnet durch eine Bilderzeugungseinrichtung zur Erzeugung eines aufgenommenen Bildes beruhend auf einem Signal, das durch Addieren von Signalen von Bildelementen, die in der ersten Bildelementgruppe und der zweiten Bildelementgruppe enthalten sind, für jede Mikrolinse erhalten wird.
  15. Steuerverfahren mit den Schritten Erzeugen eines ersten Fokuserfassungssignals und eines zweiten Fokuserfassungssignals beruhend auf einer Vielzahl von Typen von Farbsignalen von einer ersten Bildelementgruppe und einer zweiten Bildelementgruppe, die Lichtstrahlen empfangen, die durch voneinander verschiedene Teilpupillenregionen in einem optischen Bildgebungssystem gehen, und Berechnen eines Defokussierausmaßes durch ein Phasendifferenzerfassungsverfahren unter Verwendung des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals, dadurch gekennzeichnet, dass der Schritt des Erzeugens des ersten Fokuserfassungssignals und des zweiten Fokuserfassungssignals enthält Kombinieren der Vielzahl der Typen der Farbsignale bezüglich der ersten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in einer Pupillenteilungsrichtung miteinander übereinstimmen, um das erste Fokuserfassungssignal zu erzeugen, und Kombinieren der Vielzahl der Typen der Farbsignale bezüglich der zweiten Bildelementgruppe derart, dass Schwerpunkte der Farbsignale in der Pupillenteilungsrichtung miteinander übereinstimmen, um das zweite Fokuserfassungssignal zu erzeugen.
  16. Steuerverfahren des Beschaffens einer Vielzahl von Erfassungssignalen, die in einem Phasendifferenzerfassungsverfahren zur Berechnung von Entfernungsinformationen zu verwenden sind, mit den Schritten Durchführen einer ersten Verarbeitung bei einem Sichtpunktbild, das eine Vielzahl von Typen von Farbsignalen enthält, um ein kombiniertes Signal der Farbsignale zu beschaffen, und Durchführen einer zweiten Verarbeitung bei dem kombinierten Signal zur Erzeugung des Erfassungssignals, dadurch gekennzeichnet, dass die erste Verarbeitung die Farbsignale derart kombiniert, dass Schwerpunkte der Sichtpunktbilder in einer Sichtpunktrichtung miteinander übereinstimmen.
  17. Steuerverfahren nach Anspruch 16, dadurch gekennzeichnet, dass die erste Verarbeitung eine Verarbeitung des Kombinierens der Vielzahl der Typen der Farbsignale mit einem variablen Verhältnis enthält, und die zweite Verarbeitung eine Verarbeitung eines Dezimierens zur Änderung eines Frequenzbandes eines im kombinierten Signal enthaltenen Signals enthält.
  18. Steuerverfahren nach Anspruch 16, ferner mit dem Schritt eines Erfassens einer Phasendifferenz unter Verwendung der Erfassungssignale, dadurch gekennzeichnet, dass die zweite Verarbeitung eine Verarbeitung bei dem kombinierten Signal beruhend auf der erfassten Phasendifferenz enthält.
  19. Steuerverfahren nach Anspruch 16, dadurch gekennzeichnet, dass die erste Verarbeitung eine Verarbeitung eines Kombinierens der Farbsignale derart enthält, dass Schwerpunkte der Sichtpunktbilder in einer Richtung senkrecht zur Sichtpunktrichtung miteinander übereinstimmen.
  20. Programm, das einen Computer zur Ausführung des Steuerverfahrens nach einem der Ansprüche 15 bis 19 veranlasst.
  21. Speichermedium, das das Programm nach Anspruch 20 speichert.
DE102016114025.2A 2015-07-30 2016-07-29 Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium Pending DE102016114025A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-150774 2015-07-30
JP2015150774 2015-07-30
JP2016103015A JP6639326B2 (ja) 2015-07-30 2016-05-24 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP2016-103015 2016-05-24

Publications (1)

Publication Number Publication Date
DE102016114025A1 true DE102016114025A1 (de) 2017-02-02

Family

ID=56936698

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016114025.2A Pending DE102016114025A1 (de) 2015-07-30 2016-07-29 Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium

Country Status (3)

Country Link
US (1) US10063764B2 (de)
DE (1) DE102016114025A1 (de)
GB (1) GB2543127B (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017194558A (ja) * 2016-04-20 2017-10-26 オリンパス株式会社 撮像装置および撮像方法
JP6942480B2 (ja) * 2017-02-14 2021-09-29 キヤノン株式会社 焦点検出装置、焦点検出方法、および焦点検出プログラム
JP6960755B2 (ja) 2017-03-27 2021-11-05 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
KR102632474B1 (ko) 2019-02-11 2024-02-01 삼성전자주식회사 이미지 센서의 픽셀 어레이 및 이를 포함하는 이미지 센서

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4410804A (en) 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
JP2000156823A (ja) 1998-08-20 2000-06-06 Canon Inc 固体撮像装置及びその制御方法及び撮像装置及び光電変換セルの基本配列及び記憶媒体
JP2001083407A (ja) 1999-09-13 2001-03-30 Canon Inc 撮像装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7358999B2 (en) * 1998-03-10 2008-04-15 Canon Kabushiki Kaisha Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
JP5954964B2 (ja) 2011-02-18 2016-07-20 キヤノン株式会社 撮像装置およびその制御方法
JP5491677B2 (ja) 2011-03-31 2014-05-14 富士フイルム株式会社 撮像装置及びその合焦制御方法
JP5942697B2 (ja) * 2012-08-21 2016-06-29 株式会社ニコン 焦点検出装置および撮像装置
JP6071374B2 (ja) 2012-09-21 2017-02-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラムならびに画像処理装置を備えた撮像装置
JP6366251B2 (ja) * 2013-01-07 2018-08-01 キヤノン株式会社 撮像装置および撮像装置の制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4410804A (en) 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
JP2000156823A (ja) 1998-08-20 2000-06-06 Canon Inc 固体撮像装置及びその制御方法及び撮像装置及び光電変換セルの基本配列及び記憶媒体
JP2001083407A (ja) 1999-09-13 2001-03-30 Canon Inc 撮像装置

Also Published As

Publication number Publication date
US10063764B2 (en) 2018-08-28
US20170034426A1 (en) 2017-02-02
GB2543127A (en) 2017-04-12
GB2543127B (en) 2018-11-21
GB201613021D0 (en) 2016-09-14

Similar Documents

Publication Publication Date Title
DE112013004640B4 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Programm und Bildaufnahmevorrichtung mit der Bildverarbeitungsvorrichtung
US9438786B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
DE102012217165A1 (de) Bildaufnahmevorrichtung und Brennpunkterfassungsverfahren
JP6249825B2 (ja) 撮像装置、その制御方法、および制御プログラム
US10321044B2 (en) Image pickup apparatus and image pickup system with point image intensity distribution calculation
KR20170137633A (ko) 화상처리장치, 촬상 장치, 화상처리방법, 및 컴퓨터 판독 가능한 기억매체
US11388383B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
US10674074B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating an image based on a plurality of parallax images
CN107431754B (zh) 图像处理方法、图像处理装置和摄像设备
JP2018107654A (ja) 画像処理装置および画像処理方法、プログラム、記憶媒体
DE102016114025A1 (de) Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium
JP2014219549A (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
DE102017101169A1 (de) Bildsensor und bildaufnahmegerät
EP3584621A1 (de) Fokusdetektor, fokusdetektionsverfahren und fokusdetektionsprogramm
JP2017220724A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2015194736A (ja) 撮像装置およびその制御方法
DE102016113921A1 (de) Bildaufnahmevorrichtung und Verfahren zur Steuerung der Bildaufnahmevorrichtung
JP2019016975A (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
KR102057160B1 (ko) 제어장치, 촬상장치, 및 제어방법
CN112492194A (zh) 图像处理方法、图像处理装置和摄像设备
CN113596431B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
JP2020171050A (ja) 画像処理装置、撮像装置、画像処理方法、および、記憶媒体
JP6800648B2 (ja) 画像処理装置及びその制御方法、プログラム並びに撮像装置
JP7319840B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2018019348A (ja) 撮像装置、画像処理方法、画像処理システム、及び画像処理プログラム

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0007280000

Ipc: H04N0005232000

R082 Change of representative

Representative=s name: TBK, DE

R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000