DE112013006817T5 - Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm - Google Patents

Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm Download PDF

Info

Publication number
DE112013006817T5
DE112013006817T5 DE112013006817.6T DE112013006817T DE112013006817T5 DE 112013006817 T5 DE112013006817 T5 DE 112013006817T5 DE 112013006817 T DE112013006817 T DE 112013006817T DE 112013006817 T5 DE112013006817 T5 DE 112013006817T5
Authority
DE
Germany
Prior art keywords
lens
phase difference
difference detection
correction
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112013006817.6T
Other languages
English (en)
Other versions
DE112013006817B4 (de
Inventor
Yoichi Iwasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE112013006817T5 publication Critical patent/DE112013006817T5/de
Application granted granted Critical
Publication of DE112013006817B4 publication Critical patent/DE112013006817B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/955Computational photography systems, e.g. light-field imaging systems for lensless imaging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Es wird eine mit Wechselobjektiv ausgestattete Bildaufnahmevorrichtung geschaffen, die in der Lage ist, ein Ausgangssignal eines zum Phasendifferenznachweis dienenden Pixels mit hoher Geschwindigkeit und hoher Präzision zu korrigieren. Ein Kameragehäuse 200 enthält eine Korrekturverfahren-Auswahleinheit 174, die eine Auswahl trifft unter einem Verfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis, die in einem Festkörper-Bildsensor 5 enthalten sind, durch eine Interpolationskorrektur-Verarbeitungseinheit 172 mittels Interpolation korrigiert werden, und einem Verfahren, bei dem die Ausgangssignale sämtlicher Phasendifferenz-Nachweispixel von einer Verstärkungskorrektur-Verarbeitungseinheit 171 verstärkungs-korrigiert werden, abhängig von Objektivinformation, die aus einem Objektiv 100 ermittelt wird, wobei eine Bildverarbeitungseinheit 175 das Ausgangssignal des Pixels für den Phasendifferenznachweis unter Verwendung des ausgewählten Verfahrens korrigiert.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Bildaufnahmevorrichtung, ein Signalverarbeitungsverfahren und ein Signalverarbeitungsprogramm.
  • Technischer Hintergrund
  • In den vergangenen Jahren haben Festkörperbildsensoren, so zum Beispiel ein Charge-Coupled-Device-(CCD-)Bildsensor und ein Complementary-Metal-Oxide-Semiconductor-(CMOS-)Bildsensor eine hohe Auflösung erhalten, und es gibt einen rasch anwachsenden Bedarf an Informationsgeräten mit Photographierfunktion, so zum Beispiel einer digitalen Stehbildkamera, einer digitalen Videokamera, einem tragbaren Telefon und einem Personal-Digital-Assistant (PDA). Darüber hinaus wird das Informationsgerät mit einer Bildaufnahmefunktion, wie es oben angesprochen wurde, als Bildaufnahmevorrichtung bezeichnet.
  • Als Fokussiersteuerverfahren zum Fokussieren auf ein Haupt-Aufnahmeobjektiv gibt es einen Kontrast-AF-Typ (einen Autofokus-(AF-)Typ) und einen Phasendifferenz-AF-Typ. Der Phasendifferenz-AF-Typ kann eine Scharfstellung mit hoher Geschwindigkeit und hoher Genauigkeit erfassen, verglichen mit dem Kontrast-AF-Typ, und aus diesem Grund wird er in unterschiedlichen Bildaufnahmevorrichtungen am meisten verwendet.
  • Als Festkörperbildsensor, der in einer Bildaufnahmevorrichtung installiert ist, die eine Fokussiersteuerung mit Hilfe des Phasendifferenz-AF-Typs ausführt, wird zum Beispiel ein Bauelement verwendet, bei dem ein Paar Pixel für einen Phasendifferenznachweis, auf dem Öffnungen in einer Lichtabschirmschicht in zueinander entgegengesetzte Richtungen dezentriert sind, diskret auf einer gesamten Lichtaufnahmefläche vorgesehen sind (siehe Patentschriften 1 bis 4).
  • Weil die Öffnungsfläche in der Lichtabschirmschicht des Pixels für Phasendifferenzerfassung kleiner ist als bei einem anderen, normalen Pixel (einem zur Bildgebung dienenden Pixel), ist die Verwendung eines Ausgangssignals des Pixels zum Phasendifferenznachweis als Bildaufnahmesignal unzureichend. Hierdurch entsteht der Bedarf, das Ausgangssignal des Pixels für den Phasendifferenznachweis zu korrigieren.
  • Die Patentschriften 1 bis 4 zeigen eine Bildaufnahmevorrichtung, bei der eine Interpolationskorrekturverarbeitung, die das Ausgangssignal für das Pixel zum Nachweisen der Phasendifferenz anhand eines Ausgangssignals eines normalen Pixels in der Nähe des Phasendifferenz-Nachweispixels durch Interpolation generiert, und eine Verstärkungskorrekturverarbeitung, die das Ausgangssignal des Phasendifferenz-Nachweispixels durch Verstärkungs-Erhöhung des Ausgangssignals korrigiert, gemeinsam eingesetzt werden.
  • Die Patentschrift 5 zeigt eine Verarbeitung, die durch Interpolation das Ausgangssignal für das Pixel zum Phasendifferenznachweis unter Verwendung eines Ausgangssignals eines normalen Pixels in der Nähe des Phasendifferenz-Nachweispixels innerhalb der Wechselobjektivkamera generiert.
  • Die Patentschrift 6 zeigt eine Kamera, in der ein Schwellenwert zum Bestimmen, ob ein Pixel eines Festkörper-Bildsensors ein defektes Pixel ist oder nicht, abgewandelt wird unter Verwendung von Objektivinformation, die aus dem Objektiv ermittelt wird.
  • Druckschriften
  • Patentliteratur
    • Patentschrift 1: JP-A-2009-44636
    • Patentschrift 2: JP-A-2011-124704
    • Patentschrift 3: JP-A-2011-81271
    • Patentschrift 4: JP-A-2007-282108
    • Patentschrift 5: JP-A-2010-91848
    • Patentschrift 6: JP-A-2007-19959
  • Offenbarung der Erfindung
  • Technisches Problem
  • In einer Wechselobjektiv-Kamera, wie sie in Patentschrift 5 und 6 offenbart ist, weicht das Ausgangssignal des Phasendifferenz-Nachweispixels ab, indem ein in die Kamera eingebautes Abbildungselement und ein an die Kamera angesetztes Objektiv kombiniert werden. Beispielsweise weicht ein Lichtstrahlwinkel bezüglich eines Bildsensors aufgrund einer Linse ab, und die auf das Phasendifferenz-Nachweispixel auftreffende Lichtmenge ändert sich in Bezug auf den Lichtstrahlwinkel in komplizierter Weise, bedingt durch eine Form der Lichtabschirmschicht auf dem Abbildungselement, einer Lagebeziehung einer photoelektrischen Umwandlungsfläche innerhalb des Siliciumsubstrats oder dergleichen.
  • Aus diesem Grund gibt es dann, wenn das Ausgangssignal des Phasendifferenz-Nachweispixels in der Wechselobjektiv-Kamera über die Verstärkung korrigiert wird, Bedarf dafür, dass sämtliche an der Kamera ansetzbare Objektive vorab einen Verstärkungswert in sich verfügbar haben. Das Speichern eines Korrektur-Verstärkungswerts entsprechend sämtlichen Objektiven für eine Kamera führt allerdings zu einer Zunahme der Fertigungskosten für eine Kamera. Darüber hinaus sind auf dem Markt stets neue Wechselobjektive verfügbar, da es aber keinen Korrektur-Verstärkungswert für diese neuen Wechselobjektive gibt, lässt sich eine Verstärkungskorrektur nicht ausführen.
  • Nach den Patentschriften 1 bis 6 wird nicht berücksichtigt, wie das Ausgangssignal des Phasendifferenz-Nachweispixels dann zu korrigieren wäre, wenn an der Wechselobjektivkamera ein Wechselobjektiv angesetzt ist, für welches der Korrektur-Verstärkungswert nicht abgespeichert ist.
  • Lösung des Problems
  • Ein Ziel der vorliegenden Erfindung im Hinblick auf die oben beschriebene Situation ist es, eine Wechselobjektiv-Bildaufnahmevorrichtung anzugeben, die in der Lage ist, ein Ausgangssignal eines Phasendifferenz-Nachweispixels mit hoher Geschwindigkeit und hoher Genauigkeit auch dann zu korrigieren, wenn ein beliebiges Objektiv montiert ist.
  • Lösung des Problems
  • Eine Bildaufnahmevorrichtung gemäß der Erfindung ist eine Bildaufnahmevorrichtung, an der ein Objektiv lösbar anbringbar ist, umfassend: einen Bildsensor, der mehrere Pixel für eine Bildaufnahme enthält, die in einem zweidimensionalen Array angeordnet sind, und mehrere Pixel für einen Phasendifferenznachweis auf einer Lichtaufnahmefläche enthält, und ein Aufnahmeobjekt durch das Objektiv hindurch abbildet; eine Kommunikationseinheit zum Ausführen einer Kommunikation mit dem angebrachten Objektiv; eine Objektivinformation-Erfassungseinheit, die über die Kommunikationseinheit aus dem Objektiv Objektivinformation erfasst, bei der es sich um für das Objektiv spezifische Information handelt; eine Verstärkungskorrektur-Verarbeitungseinheit, die eine Verstärkungskorrekturverarbeitung ausführt, welche ein Ausgangssignal des Pixels für den Phasendifferenznachweis in einem Bildaufnahmesignal, das von dem das Aufnahmeobjekt abbildenden Bildsensor erhalten wurde, korrigiert, indem sie das Ausgangssignal mit einem Verstärkungswert multipliziert; eine Interpolationskorrektur-Verarbeitungseinheit, die eine Interpolationskorrekturverarbeitung ausführt, welche das Ausgangssignal des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal dadurch korrigiert, dass sie das Ausgangssignal durch ein Signal ersetzt, welches erzeugt wird unter Verwendung eines Ausgangssignals des Pixels für eine Bildaufnahme, das sich in der Nähe des Pixels für den Phasendifferenznachweis befindet und die gleiche Farbe aufnimmt wie das Pixel für den Phasendifferenznachweis; eine Korrekturverfahren-Auswahleinheit, die abhängig von der von der Objektivinformations-Erfassungseinheit erfassten Objektivinformation eine Auswahl vornimmt aus einem ersten Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch die Interpolationskorrektur-Verarbeitungseinheit korrigiert werden, einem zweiten Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal korrigiert werden durch die Verstärkungskorrektur-Verarbeitungseinheit, und einem dritten Korrekturverfahren, bei dem das Ausgangssignal jedes Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal durch irgendeine von der Interpolationskorrektur-Verarbeitungseinheit und der Verstärkungskorrektur-Verarbeitungseinheit korrigiert wird; und eine Bildverarbeitungseinheit, die das Ausgangssignal des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal unter Verwendung des von der Korrekturverfahren-Auswahleinheit ausgewählten Verfahrens korrigiert.
  • Ein Signalverarbeitungsverfahren gemäß der Erfindung ist ein Signalverarbeitungsverfahren zur Verwendung in einer Abbildungsvorrichtung, an der lösbar ein Objektiv anbringbar ist, wobei die Bildaufnahmevorrichtung einen Bildsensor enthält, der mehrere Pixel zur Bildaufnahme enthält, angeordet in einem zweidimensionalen Array, und mehrere Pixel für einen Phasendifferenznachweis auf einer Lichtaufnahmefläche enthält, und welcher ein Aufnahmeobjekt durch das Objektiv hindurch abbildet, ferner eine Kommunikationseinheit zum Ausführen einer Kommunikation mit dem angebrachten Objektiv, wobei das Signalverarbeitungsverfahren umfasst: einen Objektivinformations-Erfassungsschritt zum Erfassen von Objektivinformation aus dem Objektiv über die Kommunikationseinheit, wobei die Objektivinformation spezifisch für das Objektiv ist; einen Korrekturverfahren-Auswahlschritt, der abhängig von der durch den Objektivinformations-Erfassungsschritt erfassten Objektivinformation eines von folgenden Korrekturverfahren auswählt: ein erstes Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch eine Interpolationskorrekturverarbeitung korrigiert werden, welche die Ausgangssignale ersetzt durch Signale, die unter Verwendung eines Ausgangssignals des Pixels für die Bildaufnahme erzeugt werden, welches sich in der Nähe des Pixels für den Phasendifferenznachweis befindet und welches die gleiche Farbe aufnimmt wie das Pixel für den Phasendifferenznachweis, ein zweites Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch die Verstärkungskorrekturverarbeitung korrigiert werden, welche die Ausgangssignale korrigiert durch Multiplizieren der Ausgangssignale mit einem Verstärkungswert, und ein drittes Korrekturverfahren, bei dem das Ausgangssignal jedes Pixels für das Phasendifferenzsignal in dem Abbildungssignal korrigiert wird durch irgendeine von der Interpolationskorrekturverarbeitung und der Verstärkungskorrekturverarbeitung; und einen Bildverarbeitungsschritt des Korrigierens des Ausgangssignals des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal unter Verwendung des durch den Korrekturverfahren-Auswahlschritt ausgewählten Verfahrens.
  • Ein Signalverarbeitungsprogramm gemäß der Erfindung ist ein Programm zum Veranlassen eines Computers, jeden Schritt des Signalverarbeitungsverfahrens auszuführen.
  • Vorteilhafte Wirkungsweisen der Erfindung
  • Erfindungsgemäß kann selbst dann, wenn ein beliebiges Objektiv angebracht ist, die Wechselobjektiv-Bildaufnahmevorrichtung in der Lage sein, ein Ausgangssignal eines Phasendifferenz-Nachweispixels mit hoher Geschwindigkeit und mit hoher Genauigkeit zu korrigieren.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Diagramm, das eine schematische Konfiguration einer Digitalkamera als ein Beispiel einer Bildaufnahmevorrichtung veranschaulicht, wodurch eine Ausführungsform der vorliegenden Erfindung erläutert wird.
  • 2 ist ein Diagramm, das eine planare Konfiguration eines Festkörper-Bildsensors 5 veranschaulicht, der in der in 1 gezeigten Digitalkamera angeordnet ist, wobei die Darstellung aus einer Vergrößerung eines Teils des Festkörper-Bildsensors 5 resultiert.
  • 3 ist ein funktionelles Blockdiagramm einer digitalen Signalverarbeitungseinheit 17 in der in 1 gezeigten Digitalkamera.
  • 4 ist ein Flussdiagramm zum Erläutern der Arbeitsweise der in 1 gezeigten Digitalkamera.
  • 5 ist ein Diagramm, das eine modifizierte Version eines funktionellen Blockdiagramms der digitalen Signalverarbeitungseinheit 17 innerhalb der in 1 gezeigten Digitalkamera veranschaulicht.
  • 6 ist ein schematisches Grundrissdiagramm einer Konfiguration des gesamten Festkörper-Bildsensors 50, der in der in 1 gezeigten Digitalkamera angeordnet ist.
  • 7 ist ein Diagramm, das Empfindlichkeitsverhältnisse für Pixel 51R und 51L für den Phasendifferenznachweis an einer Stelle (einer horizontalen Pixelstelle) in Reihenrichtung X in dem Festkörper-Bildsensor 5 veranschaulicht.
  • 8 ist ein Diagramm zum Erläutern, wie das in 7 dargestellte Empfindlichkeitsverhältnis erzielt wird.
  • 9 ist ein Diagramm zum Erläutern eines Einfall-Lichtstrahlwinkels an einer beliebigen Stelle in der Reihenrichtung X des Festkörper-Bildsensors 5.
  • 10 ist ein Diagramm, das ein Beispiel für Daten veranschaulicht, die in einem Speicher 60 eines Objektivs 100 gespeichert sind.
  • 11 ist ein Diagramm eines Beispiels einer Tabelle, die in einem Hauptspeicher 16 des Kameragehäuses 200 gespeichert ist.
  • 12 ist ein Flussdiagramm zum Erläutern der Arbeitsweise der in 5 gezeigten digitalen Signalverarbeitungseinheit 17.
  • 13 ist ein Diagramm zum Erläutern eines Smartphones als Ausführungsform einer Bildaufnahmevorrichtung.
  • 14 ist ein Blockdiagramm des Inneren des Smartphones nach 13.
  • Beschreibung von Ausführungsformen
  • Ausführungsformen der vorliegenden Erfindung werden im folgenden anhand der Zeichnungen erläutert.
  • 1 ist ein Diagramm, das eine schematische Konfiguration einer Digitalkamera als ein Beispiel einer Bildaufnahmevorrichtung veranschaulicht, um ein Ausführungsbeispiel der Erfindung zu erläutern.
  • Die in 1 dargestellte Digitalkamera enthält ein Objektiv 100 als Abbildungsoptik und ein Kameragehäuse 200 mit einem nicht dargestellten Haltemechanismus, an dem das Objektiv 100 anzusetzen ist. Das Objektiv 100 ist lösbar an dem Kameragehäuse 200 anbringbar und durch andere Objektive ersetzbar.
  • Das Objektiv 100 enthält ein Aufnahmeobjektiv 10, das eine Fokussierlinse, eine Zoomlinse und dergleichen enthält, ferner eine Blende 20, eine Linsentreibereinheit 30, eine Blendentreibereinheit 40, eine Objektivsteuereinheit 50, die integral das gesamte Objektiv 100 steuert, einen Speicher und einen elektrischen Kontaktpunkt 70. Die Fokussierlinse ist hier eine Linse, die sich in Richtung der optischen Achse bewegt und die in einer Aufnahmeoptik die Brennweite justiert. Die Fokussierlinse bedeutet eine Linse, die im Rahmen einer Linseneinheit, die aus mehreren Linsen zusammengesetzt ist, eine Brennweitenposition justiert, wobei im Fall einer Verallgemeinerung auf sämtliche Gruppen sämtliche Gruppen insgesamt bezeichnet.
  • Entsprechend einem Befehl von der Objektivsteuereinheit 50 wird die Linsentreibereinheit 30 so eingestellt, dass die Stellung der Fokussierlinse innerhalb des Aufnahmeobjektivs 10 justiert wird und eine Lagejustierung der Zoomlinse erfolgt, die sich in dem Aufnahmeobjektiv 10 befindet.
  • Abhängig von dem Befehl aus der Objektivsteuereinheit 50 steuert die Blendentreibereinheit 40 das Ausmaß der Öffnung der Blende 20 und führt dadurch eine Justierung der Belichtungsmenge aus.
  • Objektivinformation, das ist Information, die spezifisch für das Objektiv 100 ist, ist in dem Speicher 60 gespeichert. Die Objektivinformation beinhaltet mindestens eine Objektiv-Kennung (ID) als Identifizierungsinformation zum Identifizieren des Objektivs 100.
  • Der elektrische Kontaktpunkt 70 ist eine Schnittstelle zum Ausführen einer Kommunikation zwischen dem Objektiv 100 und dem Kameragehäuse 200. Der elektrische Kontaktpunkt 70 tritt in Kontakt mit einem elektrischen Kontaktpunkt 9, der sich an dem Kameragehäuse 200 befindet, wenn das Objektiv 100 an dem Kameragehäuse 200 angesetzt wird. Der elektrische Kontaktpunkt 9 fungiert als Kommunikationseinheit für die Ausführung einer Kommunikation mit dem Objektiv 100.
  • Das Kameragehäuse 200 enthält einen Festkörperbildsensor 5, zum Beispiel vom CCD-Typ, vom CMOS-Typ und dergleichen, welcher ein Aufnahmeobjekt über das Objektiv 10 aufnimmt, eine Analogsignal-Verarbeitungseinheit 6, die an einen Ausgang des Festkörperbildsensors 5 angeschlossen ist und eine Analogsignalverarbeitung ausführt, so zum Beispiel eine korrelative Doppelabtastverarbeitung, und einen A/D-Wandler 7, der ein Analogsignal, welches von der Analogsignal-Verarbeitungseinheit 6 ausgegeben wird, in ein digitales Signal umsetzt. Die Analogsignal-Verarbeitungseinheit 6 und der A/D-Wandler 7 werden von einer Systemsteuereinheit 11 gesteuert. Die Analogsignal-Verarbeitungseinheit 6 und der A/D-Wandler 7 sind ebenfalls in den Festkörperbildsensor 5 eingebaut.
  • Die Systemsteuereinheit 11 treibt den Festkörperbildsensor 5 über eine Bildsensor-Treibereinheit 8, und sie gibt ein Bild des Aufnahmeobjekts, das von dem Aufnahmeobjektiv 10 aufgenommen wurde, als Aufnahmebildsignal aus. Ein Befehlssignal von einem Benutzer wird über eine Bedieneinheit 14 in die Systemsteuereinheit 11 eingegeben.
  • Ein elektrisches Steuersystem der Digitalkamera enthält weiterhin einen Hauptspeicher 16, eine Speichersteuereinheit 15, die an den Hauptspeicher 16 angeschlossen ist, eine Digitalsignal-Verarbeitungseinheit 17, die eine Interpolationsberechnung, eine γ-Korrekturberechnung, eine RGB/YC-Umwandlungsverarbeitung und dergleichen an dem Aufnahmebildsignal, das von dem A/D-Wandler 7 ausgegeben wird, vornimmt, ferner eine Kompressions- und Dekompressionseinheit 18, welche die von der Digitalsignal-Verarbeitungseinheit 17 erzeugten Bilddaten komprimiert zu einem JPEG-Format, und die komprimierten Bilddaten dekomprimiert, ferner eine Defokussiermaß-Berechnungseinheit 19, die das Defokussiermaß berechnet, eine Externspeichereinheit 20, an die ein Aufzeichnungsmedium 21 anschließbar ist, welches frei lösbar angeschlossen wird, und eine Anzeigesteuereinheit 22, an die eine Anzeige 23 auf einer Rückseite der Kamera angeschlossen ist. Die Speichersteuereinheit 15, die Digitalsignal-Verarbeitungseinheit 17, die Kompressions- und Dekompressionseinheit 18, die Defokussiermaß-Berechnungseinheit 19, die Externspeicher-Steuereinheit 20 und die Anzeigesteuereinheit 22 sind miteinander über einen Steuerbus 24 und einen Datenbus 25 verbunden und werden abhängig von einem Befehl aus der Systemsteuereinheit 11 gesteuert.
  • 2 ist ein Diagramm, das eine ebene Konfiguration des Festkörperbildsensors 5 in der in 1 gezeigten Digitalkamera veranschaulicht, resultierend aus einer Teil-Vergrößerung des Festkörperbildsensors 5.
  • Der Festkörperbildsensor 5 enthält mehrere Pixel 51 (in der Zeichnung sind es quadratische Blöcke), die zweidimensional in Reihenrichtung X und in die Reihenrichtung X schneidender Spaltenrichtung Y angeordnet sind. Sämtliche Pixel 51 sind in 2 nicht dargestellt, in der Praxis jedoch sind zweidimensional nahezu mehrere Millionen bis 10 Millionen Pixel 51 angeordnet. Wenn der Festkörperbildsensor 5 eine Bildaufnahme ausführt, wird von jedem der mehreren Pixel 51 ein Ausgangssignal erhalten. Eine Menge von mehreren Ausgangssignalen, die auf diese Weise gewonnen werden, wird in der vorliegenden Beschreibung als Bildaufnahmesignal bezeichnet.
  • Jedes Pixel 51 enthält ein photoelektrisches Wandlerelement wie zum Beispiel eine Photodiode, außerdem ein Farbfilter, das auf dem photoelektrischen Wandlerelement ausgebildet ist.
  • In 2 ist der Buchstabe „R” einem Pixel 51 hinzugefügt, das ein Farbfilter enthält, welches einen Durchgang von rotem Licht ermöglicht. Ein Buchstabe „G” ist einem Pixel 51 hinzugefügt, das ein Farbfilter enthält, welches ein Durchlassen von grünem Licht ermöglicht, und ein Buchstabe „B” ist einem Pixel 51 hinzugefügt, das ein Farbfilter enthält, welches den Durchgang von blauem Licht ermöglicht.
  • Mehrere Pixel 51 sind so angeordnet, dass mehrere Reihen aus mehreren Pixeln 51 Seite an Seite in der Reihenrichtung X Seite an Seite in Spaltenrichtung Y angeordnet sind. Ungeradzahlige Pixelreihen und geradzahlige Pixelreihen sind um etwa einen halben Array-Mittenabstand der Pixel 51 in jeder Pixelreihe in Reihenrichtung X versetzt.
  • Ein Array von Farbfiltern, die in den Pixeln 51 innerhalb der ungeradzahligen Pixelreihe enthalten sind, bildet insgesamt eine sogenannte Bayer-Maske. Weiterhin bildet ein Array von Farbfiltern, die in den Pixeln 51 der geradzahligen Pixelreihe enthalten sind, insgesamt eine Bayer-Maske. Ein Pixel 51 in der ungeradzahligen Reihe und ein Pixel 51, welches zu dem Pixel 51 in der ungeradzahligen Reihe vertikal benachbart ist und die gleiche Lichtfarbe nachweist wie das Pixel 51 in der ungeradzahligen Pixelreihe, bilden ein Pixelpaar.
  • Bei dem Festkörperbildsensor 5 werden in diesem Pixelarray Ausgangssignale von zwei Pixeln 51, die ein Pixelpaar bilden, aufaddiert, wodurch eine hohe Empfindlichkeit der Kamera erreichbar ist. Weiterhin werden die Belichtungszeiten der beiden Pixel 51 des Pixelpaars geändert, und die Ausgangssignale der beiden Pixel 51 werden aufaddiert, so dass ein großer dynamischer Bereich in der Kamera erzielt werden kann.
  • In dem Festkörper-Bildsensor 5 dienen einige der mehreren Pixel 51 als Pixel für den Phasendifferenznachweis.
  • Die Pixel für den Phasendifferenznachweis enthalten mehrere Pixel 51R für den Phasendifferenznachweis und mehrere Pixel 51L für den Phasendifferenznachweis.
  • Die mehreren Pixel 51R für Phasendifferenznachweis geben Signale aus, die einem Betrag entsprechen, den ein dünner Lichtstrahl (pencil) (zum Beispiel ein dünner Lichtstrahl, der durch die rechte Hälfte eines Pupillenbereichs hindurchgeht) in einem Paar von dünnen Lichtstrahlen, die durch verschiedene Teile eines Pupillenbereichs des Aufnahmeobjektivs 10 hindurchtreten, erzeugt. Genauer gesagt: die mehreren Pixel 51R für Phasendifferenznachweis, welche in dem Festkörperbildsensor 5 enthalten sind, nehmen ein Bild auf, welches durch einen einzigen dünnen Lichtstrahl von einem Paar von „Bleistiftlichtstrahlen” gebildet wird.
  • Die mehreren Pixel 51L für Phasendifferenznachweis geben Ausgangssignale entsprechend der Größe aus, mit der der andere dünne Lichtstrahl (zum Beispiel ein dünner Lichtstrahl, der durch die linke Hälfte des Pupillenbereichs hindurchgeht) innerhalb des Paares von Lichtstrahlen empfangen wird. Genauer gesagt, die mehreren Pixel 51L für Phasennachweis, die in dem Festkörperbildsensor 5 enthalten sind, nehmen ein Bild auf, welches durch den anderen dünnen Lichtstrahl in dem Paar von „Bleistiftlichtstrahlen” gebildet wird.
  • Darüber hinaus nehmen mehrere Pixel 51 (im folgenden als Bildaufnahmepixel bezeichnet), die verschieden sind von den Pixeln 51R und 51L für den Phasennachweis, Bilder auf, die durch dünne Lichtstrahlbündel gebildet werden, welche durch nahezu sämtliche Teile des Pupillenbereichs des Aufnahmeobjektivs 10 hindurchtreten.
  • Oberhalb des photoelektrischen Wandlerbauteils des Pixels 51 ist ein Lichtabschirmfilm vorgesehen, und in dem Lichtabschirmfilm ist eine Öffnung ausgebildet, die eine Lichtaufnahmefläche des photoelektrischen Wandlerelements festlegt.
  • Die Mitte der Öffnung (in 2 durch den Buchstaben „a” bezeichnet) eines Bildaufnahmepixels 51 stimmt überein mit der Mitte (der Mitte eines quadratischen Blocks) des photoelektrischen Wandlerbauelements des Bildaufnahmepixels 51. Darüber hinaus ist in 2 die Öffnung (a) nur für ein einziges Pixel 51 dargestellt, um die figürliche Darstellung zu vereinfachen.
  • Im Gegensatz dazu ist das Zentrum einer Öffnung (in 2 durch den Buchstaben „c” bezeichnet) innerhalb des Phasendifferenz-Nachweispixels 51R zur rechten Seite hin gegenüber der Mitte des photoelektrischen Wandlerbauelements des Phasendifferenz-Nachweispixels 51R dezentriert.
  • Die Mitte einer Öffnung (in 2 mit dem Buchstaben „b” bezeichnet) in dem Phasendifferenz-Nachweispixel 51L ist gegenüber der Mitte des photoelektrischen Wandlerelements des Phasendifferenz-Nachweispixels 51L zur linken Seite hin dezentriert.
  • In dem Festkörperbildsensor 5 ist ein Teil des Pixels 51, auf dem ein Farbfilter für Grün angebracht ist, das Phasendifferenz-Nachweispixel 51R oder das Phasendifferenz-Nachweispixel 51L. Selbstverständlich kann ein Pixel, auf dem ein Farbfilter für eine andere Farbe angebracht ist, als Phasendifferenz-Nachweispixel eingerichtet werden.
  • Paare (im folgenden als Phasendifferenzpaar bezeichnet) aus dem Phasendifferenz-Nachweispixel 51R und dem Phasendifferenz-Nachweispixel 51L benachbart zu dem Phasendifferenz-Nachweispixel 51R sind in diskreter und periodischer Weise in einer Lichtaufnahmefläche 53 angeordnet, in der sich die Pixel 51 befinden.
  • Im Rahmen der vorliegenden Beschreibung bedeuten zwei benachbarte Pixel solche zwei Pixel, die einander in dem Maß benachbart sind, dass sie Licht aufnehmen, welches von Teilen im wesentlichen desselben Aufnahmeobjekts kommt.
  • Weil außerdem das Phasendifferenz-Nachweispixel 51R und das Phasendifferenz-Nachweispixel 51L, die das Phasendifferenzpaar bilden, einander benachbart sind, werden die Pixel 51R und 51L als einander identisch hinsichtlich ihrer Lage innerhalb der Reihenrichtung X (im folgenden auch als horizontale Pixellage bezeichnet) betrachtet.
  • Bei dem in 2 gezeigten Beispiel ist ein Pixel 51R für den Phasendifferenznachweis alle drei Pixel in Reihenrichtung X vorgesehen, und zwar in einem Teil der jeweiligen geradzahligen Pixelreihe (vier Pixelreihen, die Seite an Seite alle drei Pixelreihen angeordnet sind bei dem Beispiel nach 2).
  • Bei dem Beispiel nach 2 ist das Phasendifferenz-Nachweispixel 51L in der Reihenrichtung X mit der gleichen Periode wie das Phasendifferenz-Nachweispixel 51R in einem Teil der ungeradzahligen Pixelreihe angeordnet (einer Pixelreihe benachbart zu einer Pixelreihe, die die Phasendifferenz-Nachweispixel 51R enthält).
  • Bei diesem Aufbau handelt es sich bei dem in das Phasendifferenz-Nachweispixel 51L durch die Öffnung „b” in dem Lichtabschirmfilm eintretende Licht größtenteils um Licht von der linken Seite bei der Betrachtung von der Aufnahmeobjektseite her, dessen Bild durch das Aufnahmeobjektiv 10 betrachtet wird, das sich in der Richtung befindet, von der aus die Zeichnungsebene der 2 betrachtet wird. Das heißt: das Licht kommt aus der Richtung, in der das Aufnahmeobjekt mit dem rechten Auge gesehen wird. Darüber hinaus handelt es sich bei Licht, welches durch die Öffnung „c” in dem Lichtabschirmfilm in das Phasendifferenznachweis-pixel 51R eintritt, vornehmlich um Licht von der rechten Seite bei Betrachtung von der Aufnahmeobjektseite her, dessen Bild durch das Aufnahmeobjektiv 1 gesehen wird, das heißt, um Licht, welches aus der Richtung kommt, in der das Aufnahmeobjekt mit dem linken Auge gesehen wird.
  • Das heißt: bei sämtlichen Phasendifferenz-Nachweispixeln 51R kann das Bildaufnahmesignal erhalten werden, welches sich ergibt, wenn das Aufnahmeobjekt mit dem linken Auge betrachtet wird, und bei sämtlichen Phasendifferenz-Nachweispixeln 51L kann ein Bildaufnahmesignal erhalten werden, welches sich ergibt, wenn das Aufnahmeobjekt mit dem rechten Auge gesehen wird. Aus diesem Grund ist es mit Hilfe einer Kombination der beiden Bildaufnahmesignale möglich, stereoskopische Bilddaten von dem Aufnahmeobjekt zu erzeugen, und durch korrelative Berechnung der beiden Bildaufnahmesignale besteht die Möglichkeit, Phasendifferenzinformation zu gewinnen.
  • Darüber hinaus können das Phasendifferenz-Nachweispixel 51R und das Phasendifferenz-Nachweispixel 51L so eingerichtet werden, dass sie die bleistiftförmigen Lichtbündel aufnehmen, die durch verschiedene Teile des Pupillenbereichs des Aufnahmeobjektivs 10 hindurchgehen, indem die Öffnung in dem Lichtabschirmfilm in entgegengesetzte Richtung dezentriert ist, und dadurch lässt sich Phasendifferenzinformation gewinnen. Allerdings ist eine Struktur zum Gewinnen der Phasendifferenzinformation nicht hierauf beschränkt, es kann auch von einer Struktur Gebrauch gemacht werden, die an sich noch besser bekannt ist.
  • 3 ist ein funktionelles Blockdiagramm einer digitalen Signalverarbeitungseinheit 17 (Digitalsignal-Verarbeitungseinheit) in der in 1 gezeigten Digitalkamera.
  • Die digitale Signalverarbeitungseinheit 17 enthält eine Verstärkungskorrektur-Verarbeitungseinheit 171, eine Interpolationskorrektur-Verarbeitungseinheit 172, eine Objektivinformations-Erfassungseinheit 173, eine Korrekturverfahren-Auswahleinheit 174 und eine Bildverarbeitungseinheit 175. Diese funktionellen Blöcke werden gebildet durch ein Programm, das von einem in der digitalen Signalverarbeitungseinheit 17 enthaltenen Prozessor ausgeführt wird.
  • Die Verstärkungskorrektur-Verarbeitungseinheit 171 führt eine Verstärkungskorrekturverarbeitung aus, welche ein Ausgangssignal eines Phasendifferenz-Nachweispixels (dies wird im folgenden als Korrekturzielpixel bezeichnet) korrigiert, welches in dem Bildaufnahmesignal enthalten ist, indem das Ausgangssignal mit einem Verstärkungswert multipliziert wird.
  • Für den Fall, dass das Objektiv 100, welches an dem Kameragehäuse 200 angesetzt ist, ein Originalprodukt ist, welches von dem Hersteller des Kameragehäuses 200 gefertigt wurde, so kann der Verstärkungswert vorab in einem Speicher des Kameragehäuses 200 abgespeichert worden sein. Der Verstärkungswert kann aus dem Bildaufnahmesignal gewonnen werden, welches erhalten wird durch Aufnehmen eines Referenzbilds in einem Justiervorgang, welcher vor dem Versand einer Digitalkamera ausgeführt wird. Der Verstärkungswert jedes Phasendifferenz-Nachweispixels 51 in dem Original-Objektiv 100 ist in dem Hauptspeicher 16 des Kameragehäuses 200 in einem Zustand gespeichert, in welchem er verknüpft ist mit einer Objektivkennung, die das Objektiv 100 identifiziert. Außerdem kann der Verstärkungswert erzeugt und für jedes Phasendifferenznachweis-pixel 51 gespeichert werden. Eine Lichtaufnahmefläche des Festkörperbildsensors 5 kann in Blöcke unterteilt werden, und für jeden Block kann ein Verstärkungswert erzeugt und gespeichert werden.
  • Die Interpolationskorrektur-Verarbeitungseinheit 172 führt eine Korrektur dadurch aus, dass sie ein Ausgangssignal des Korrekturzielpixels ersetzt durch ein Signal, welches unter Verwendung von Ausgangssignalen der Bildaufnahmepixel erzeugt, die sich in der Nähe des Korrekturzielbilds befinden und die gleiche Farbe erfassen wie das Korrekturzielpixel.
  • Wenn beispielsweise das Ausgangssignal des Korrekturzielpixels durch die Interpolationskorrektur korrigiert wird, so wird ein Ausgangssignalwert des Korrekturzielpixels ersetzt durch einen Mittelwert der Ausgangssignale der Bildaufnahmepixel, die sich in der Nähe des Korrekturzielbilds befinden und G-Farblicht nachweisen. Die Interpolationskorrektur-Verarbeitungseinheit 152 kann die Korrektur dadurch ausführen, dass sie das Ausgangssignal des Korrkturzielpixels ersetzt durch eine Kopie des Ausgangssignals eines beliebigen Bildaufnahmepixels, welches sich in der Nähe des Korrekturzielpixels befindet.
  • Die Objektivinformations-Erfassungseinheit 173 ermittelt die Objektivinformation, welche in dem Speicher 60 des Objektivs 100 gespeichert ist, und sie übernimmt sie aus dem Objektiv 100, welches an dem Kameragehäuse 200 angesetzt ist.
  • Abhängig von der von der Objektinformations-Erfassungseinheit 173 erfassten Objektivinformation wählt die Korrekturverfahren-Auswahleinheit 174 eines von folgenden Korrekturverfahren aus: ein erstes Korrekturverfahren, bei dem das Bildaufnahmesignal, das von dem Festkörperbildsensor 5 ausgegeben wird, die Ausgangssignale sämtlicher Phasendifferenz-Nachweispixel von der Interpolationskorrektur-Verarbeitungseinheit 172 korrigiert werden; und ein zweites Korrekturverfahren, bei dem in dem Bildaufnahmesignal, das von dem Festkörperbildsensor 5 ausgegeben wird, die Ausgangssignale sämtlicher Phasendifferenz-Nachweispixel von der Verstärkungskorrektur-Verarbeitungseinheit 171 korrigiert werden.
  • Die Bildverarbeitungseinheit 175 korrigiert das Ausgangssignal des Phasendifferenz-Nachweispixels unter den Bildaufnahmesignalen, die von dem Festkörperbildsensor 5 ausgegeben werden, unter Verwendung des von der Korrekturverfahren-Auswahleinheit 174 ausgewählten Verfahrens, und speichert das Nachkorrektur-Bildaufnahmesignal in dem Hauptspeicher 16. Anschließend führt die Bildverarbeitungseinheit 175 an sich bekannte Bildverarbeitungsoperationen durch, so zum Beispiel ein Demosaicing, eine γ-Korrektur, einen Weißabgleich, bezüglich des aufgezeichneten Bildaufnahmesignals, um auf diese Weise Bildaufnahmedaten zu erzeugen, und sie zeichnet die Bildaufnahmedaten auf dem Aufzeichnungsträger 21 auf.
  • Darüber hinaus kann die Bildverarbeitungseinheit 175 das Nachkorrektur-Bildaufnahmesignal auf dem Aufzeichnungsträger 21 in Form von Rohdaten ohne jegliche Änderung aufzeichnen.
  • Im folgenden wird die Digitalkamera beschrieben, die in der oben erläuterten Weise konfiguriert ist.
  • 4 ist ein Flussdiagramm, welches den Arbeitsablauf in der Digitalkamera nach 1 veranschaulicht.
  • In einem Zustand, in welchem das Kameragehäuse 200 mit Energie versorgt wird und das Objektiv 100 an dem Kameragehäuse 200 angesetzt ist, weist die Systemsteuereinheit 11 des Kameragehäuses 200 über den elektrischen Kontaktpunkt 9 nach, dass das Objektiv 100 angesetzt ist. Wenn festgestellt wird, dass das Objektiv 100 angesetzt ist, fordert die Systemsteuereinheit 11 das Objektiv 100 auf, über den elektrischen Kontaktpunkt 9 Objektivinformation zu senden (Schritt S1).
  • Nach Aufforderung, Objektivinformation zu senden, sendet die Objektivsteuereinheit 50 des Objektivs 100 die Objektivinformation, die in dem Speicher 60 gespeichert ist, über den elektrischen Kontaktpunkt 70 an das Kameragehäuse 200. Die Systemsteuereinheit 11 empfängt die von dem Objektiv 100 gesendete Objektivinformation und speichert sie vorübergehend in dem Hauptspeicher 16.
  • Die Digitalsignal-Verarbeitungseinheit 17 übernimmt die in dem Speicher 16 abgespeicherte Objektivinformation (Schritt S2) und sucht in dem Speicher 16 nach Daten mit einem Korrekturverstärkungswert, der zu der Objektiv-ID gehört, die in der Linseninformation enthalten ist (Schritt S3).
  • Falls derartige Daten vorhanden sind, wählt die Digitalsignal-Verarbeitungseinheit 17 das zweite Korrekturverfahren aus, bei dem in dem von dem Festkörperfarbsensor 5 ausgegebenen Bildaufnahmesignal die Ausgangssignale sämtlicher Phasendifferenz-Nachweispixel von der Verstärkungskorrektur-Verarbeitungseinheit 171 korrigiert werden (Schritt S4). Falls andererseits jene Daten nicht vorhanden sind, wählt die Digitalsignal-Verarbeitungseinheit 17 das erste Korrekturverfahren aus, bei dem in dem von dem Festkörperfarbsensor 5 ausgegebenen Bildaufnahmesignal die Ausgangssignale sämtlicher Phasendifferenz-Nachweispixel durch die Interpolationskorrektur-Verarbeitungseinheit 172 korrigiert werden (Schritt S5).
  • Wenn die Verarbeitungsvorgänge in den Schritten S4 und S5 abgeschlossen sind, ist ein Aufnahme-Wartezustand erreicht. Liegt ein Aufnahmebefehl vor, der durch Niederdrücken einer in der Bedieneinheit 14 enthaltenen Auslösetaste erzeugt wird, so wird von dem Festkörperfarbsensor 5 eine Bildaufnahme durchgeführt, und das Bildaufnahmesignal wird von dem Festkörperbildsensor 5 ausgegeben. Die Analogsignalverarbeitung erfolgt in Bezug auf dieses Bildaufnahmesignal, anschließend wird das Bildaufnahmesignal in ein Digitalsignal umgesetzt und vorübergehend in dem Hauptspeicher 16 abgespeichert.
  • Danach korrigiert die Digitalsignal-Verarbeitungseinheit 17 das Ausgangssignal des Phasendifferenz-Nachweispixels 51 in dem Bildaufnahmesignal, das in dem Hauptspeicher 16 gespeichert ist, abhängig von dem im Schritt S4 oder S5 gewählten Verfahren, sie verarbeitet das Nachkorrektur-Bildaufnahmesignal, erzeugt Bildaufnahmedaten und speichert die erzeugten Bildaufnahmedaten auf dem Aufzeichnungsträger 21, wodurch die Bildverarbeitung endet.
  • Auf diese Weise korrigiert die in 1 dargestellte Digitalkamera die Ausgangssignale sämtlicher Phasendifferenz-Nachweispixel unter Einsatz der Verstärkungskorrektur, wenn das Objektiv 100, in welchem der Korrektur-Verstärkungswert, der für die Verstärkungskorrektur benutzt wird, in dem Speicher 16 abgespeichert ist, wobei das Objektiv ein Markenprodukt ist, das von dem Hersteller des Kameragehäuses hergestellt wurde. Andererseits werden die Ausgangssignale der Phasendifferenz-Nachweispixel 51 mittels Interpolationskorrektur korrigiert, wenn das Objektiv 100 eines anderen Herstellers als dem Hersteller des Kameragehäuses montiert ist, wobei in diesem Objektiv der Korrekturverstärkungswert nicht in dem Speicher 16 abgespeichert ist. Aus diesem Grund ist es möglich, die Korrektur des Ausgangssignals des Phasendifferenz-Nachweispixels für sämtliche Objektive vorzunehmen, die sich problemlos an dem Kameragehäuse 200 ansetzen lassen.
  • Wenn außerdem eine Digitalkamera verwendet wird, besteht keine Notwendigkeit, den Korrekturverstärkungswert entsprechend dem Objektiv 100, das von einem anderen Hersteller gefertigt wurde, vorab in dem Speicher 16 des Kameragehäuses 200 zu speichern. Aus diesem Grund lässt sich der Zeitaufwand zum Erzeugen von Daten reduzieren, und außerdem lässt sich die Speicherkapazität verringern. Damit lassen sich insgesamt die Fertigungskosten der Digitalkamera senken.
  • Wenn es sich bei dem Objektiv 100 außerdem um ein Markenprodukt handelt, das von dem Hersteller des Kameragehäuses 200 gefertigt wurde, ist zu berücksichtigen, dass der Korrekturverstärkungswert entsprechend dem Objektiv 100 in dem Speicher 60 des Objektivs 100 in Verbindung mit der Objektiv-ID gespeichert ist, und nicht in dem Kameragehäuse 200.
  • In diesem Fall stellt die Systemsteuereinheit 11 in dem Schritt S3 in 4 fest, ob der Korrekturverstärkungswert entsprechend der in der ermittelten Objektivinformation gespeicherten Objektiv-ID in entweder dem Speicher 16 des Kameragehäuses 200 oder dem Speicher 60 des Objektivs 100 enthalten ist. Die Systemsteuereinheit 11 führt die Verarbeitung im Schritt S4 aus, wenn der Korrekturverstärkungswert abgespeichert ist, und sie führt die Verarbeitung im Schritt S5 aus, wenn der Korrekturverstärkungswert nicht gespeichert ist.
  • Im folgenden soll ein Modifikationsbeispiel der in 1 dargestellten Digitalkamera erläutert werden.
  • 5 ist ein funktionelles Blockdiagramm, welches ein Modifikationsbeispiel der Digitalsignal-Verarbeitungseinheit 17 in der in 1 gezeigten Digitalkamera veranschaulicht. Die Digitalsignal-Verarbeitungseinheit 17 nach 5 ist die gleiche wie die nach 3, ausgenommen der Umstand, dass die Korrekturverstärkungswert-Erzeugungseinheit 176 hinzugefügt ist.
  • Für den Fall, dass Information (im folgenden als Lichtstrahlwinkelinformation bezeichnet) bezüglich eines Lichtstrahlwinkels in dem Objektiv 100 in der Objektivinformation enthalten ist, erzeugt die Korrekturverstärkungswert-Erzeugungseinheit 176 den Korrekturverstärkungswert für jedes Phasendifferenz-Nachweispixel 51 unter Verwendung der Lichtstrahlwinkelinformation und Elementen der Entwurfsinformation des Festkörperbildsensors 5 (Informationsstücke wie zum Beispiel eine Chip-Größe, Pixelzahl, Form einer Öffnung des Lichtabschirmfilms des Phasendifferenz-Nachweispixels, Form einer photoelektrischen Wandlerfläche innerhalb eines Siliciumsubstrats). Die Korrekturverstärkungswert-Erzeugungseinheit 176b speichert den erzeugten Korrekturverstärkungswert in dem Hauptspeicher 16 in einem Zustand, der in Verbindung steht zu der in der Objektivinformation enthaltenen Objektivkennung, das heißt Objektiv-ID.
  • Ein Verfahren zum Erzeugen des Korrekturverstärkungswerts anhand der Lichtstrahlwinkelinformation und der Designinformation des Festkörperbildsensors 5 wird im folgenden beschrieben.
  • 6 ist ein schematisches Grundrissdiagramm, welches eine Konfiguration des gesamten Festkörperbildsensors 5 veranschaulicht, das in der in 1 gezeigten Digitalkamera verbaut ist.
  • Der Festkörperbildsensor 5 besitzt eine Lichtaufnahmefläche 53, auf der die Pixel 51 angeordnet sind. Bei dem in 6 dargestellten Beispiel sind auf der Lichtaufnahmefläche 53 neun Phasendifferenz-Nachweisflächen (AF-Flächen) 52 als Phasendifferenz-Nachweisziele vorgesehen.
  • Die AF-Fläche 52 ist eine Fläche, die mehrere Phasendifferenzpaare enthält, die Seite an Seite in Reihenrichtung X angeordnet sind. In der Lichtaufnahmefläche 53 sind ausschließlich Bildaufnahmepixel 51 in einer anderen Fläche als der AF-Fläche 52 angeordnet.
  • Von den neun AF-Flächen 52, die in 6 dargestellt sind, ist jede von den drei AF-Flächen 52, die sich genau in der Mitte in der Reihenrichtung X befindet, eine Fläche, welche die Breite in Reihenrichtung X über eine Gerade aufweist, die einen Schnittpunkt zwischen der Lichtaufnahmefläche 53 und einer optischen Achse des Aufnahmeobjektivs 10 durchsetzt und sich bei Betrachtung von oben in der Spaltenrichtung Y erstreckt. Eine Stelle in Reihenrichtung X des Schnittpunkts zwischen der Lichtaufnahmefläche 53 und der optischen Achse des Aufnahmeobjektivs 1 wird als axiale Position oder axiale Stellung bezeichnet.
  • Die Defokussierungsmaß-Berechnungseinheit 19 nach 1 berechnet den Betrag der Phasendifferenz, das ist der Betrag der relativen Abweichung zwischen zwei Bildern, die von dem Paar dünnen Lichtbündeln gebildet werden, wozu eine Gruppe von Ausgangssignalen verwendet wird, die von dem Pixel 51L für den Phasendifferenznachweis und dem Pixel 51R für den Phasendifferenznachweis ausgelesen werden, die sich in einer AF-Fläche 52 befinden, die durch einen benutzerseitigen Bedienvorgang oder dergleichen ausgewählt wird und eine der neun AF-Flächen 52 ist. Dann wird basierend auf dem Betrag der Phasendifferenz ein Brennpunkt-Einstellzustand des Aufnahmeobjektivs 1 gewonnen, bei dem es sich hier um das Maß und die Richtung der Abweichung gegenüber dem Fokussierzustand handelt, das heißt um das Defokussierungsmaß.
  • Basierend auf dem Fokussierungsmaß, das von der Defokussierungsmaß-Berechnungseinheit 19 berechnet wird, bewegt die in 1 gezeigte Systemsteuereinheit 11 die Fokussierlinse innerhalb des Aufnahmeobjektivs 1 in eine Scharfstellung und steuert damit den Fokussierzustand des Aufnahmeobjektivs 1.
  • Die Öffnungen in dem Phasendifferenz-Nachweispixel 51R und dem Phasendifferenz-Nachweispixel 51L sind in entgegengesetzter Richtung dezentriert. Aus diesem Grund kommt es selbst dann, wenn die Positionen in Richtung der Dezentrierung der Öffnungen nahezu die gleichen sind (die Richtung der Abweichung zwischen einem Bildpaar; die Reihenrichtung X in 2), zu einer Differenz in der Empfindlichkeit zwischen dem Phasendifferenz-Nachweispixel 51R und dem Phasendifferenz-Nachweispixel 51L.
  • 7 ist ein Diagramm, das die Empfindlichkeitsverhältnisse für die Phasendifferenz-Nachweispixel 51R und 51L, die das Phasendifferenzpaar an einer beliebigen Stelle (im folgenden als horizontale Pixelstelle bezeichnet) in der Reihenrichtung X in dem Festkörperfarbsensor 5 bilden, veranschaulicht.
  • Eine in 7 mit dem Bezugszeichen 51R bezeichnete Gerade gibt das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51R an, während eine mit 51L bezeichnete Gerade das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51L angibt.
  • Ein beliebiges Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel wird als ein Wert bezeichnet, der sich in der Form A/B oder B/A ausdrückt, wenn ein Ausgangssignal eines beliebigen Phasendifferenz-Nachweispixels und ein Ausgangssignal eines Bildaufnahmepixels (nur ein Pixel, das das gleiche Licht wie das beliebige Phasendifferenz-Nachweispixel aufnimmt), welches dem beliebigen Phasendifferenz-Nachweispixel benachbart ist, den Wert A bzw. B hat. 7 ist ein Diagramm, welches sich ergibt, wenn das Empfindlichkeitsverhältnis in der Form A/B ausgedrückt wird.
  • In 7 ist ein Bereich der horizontalen Pixelstellen von drei AF-Flächen 52 im linken Bereich der 6 mit dem Bezugszeichen 52L bezeichnet. Weiterhin ist ein Bereich horizontaler Pixelstellen von drei AF-Flächen 52 in der Mitte von 6 mit dem Bezugszeichen 52C bezeichnet. Weiterhin ist ein Bereich horizontaler Pixelstellen von drei AF-Flächen 52 im rechten Teil der 6 mit dem Bezugszeichen 52R bezeichnet.
  • In 7 ist eine horizontale Pixelstelle am linken Ende des Bereichs 52L mit ×1 bezeichnet, eine horizontale Pixelstelle am rechten Ende eines Bereichs 52L ist mit ×2 bezeichnet, eine horizontale Pixelstelle des rechten Endes des Bereichs 52C ist mit ×3 bezeichnet, und eine horizontale Pixelstelle eines rechten Endes in einem Bereichs 52R ist mit ×4 bezeichnet.
  • Die Phasendifferenz-Nachweispixel 51R und 51L sind auch in Spaltenrichtung Y periodisch angeordnet. Da allerdings die Öffnungen des Phasendifferenz-Nachweispixels 51R und des Phasendifferenz-Nachweispixels 51L in Spaltenrichtung Y nicht dezentriert sind, ist das Empfindlichkeitsverhältnis an einer beliebigen Stelle in Spaltenrichtung so, wie es in 7 dargestellt ist.
  • Weil jedes der Ausgangssignale des Phasendifferenz-Nachweispixels 51R und 51L individuell einen unterschiedlichen Pegel an jeder horizontalen Pixelstelle aufgrund eines Aufnahmeobjekts hat, ist nicht überschaubar, wie eine Empfindlichkeitsverteilung des Phasendifferenz-Nachweispixels aussieht. Wenn allerdings gemäß 7 das Empfindlichkeitsverhältnis, bei dem es sich um ein Verhältnis zwischen den Ausgangssignalen des Phasendifferenz-Nachweispixels und des diesem benachbarten Bildaufnahmepixel handelt, ermittelt wird, so ist die Empfindlichkeitsverteilung des Phasendifferenz-Nachweispixels bekannt.
  • Die Öffnung c des Phasendifferenz-Nachweispixels 51R ist in 2 zur rechten Seite hin dezentriert. Aus diesem Grund tritt, wie 8 veranschaulicht, die Hälfte des durch die linke Seite des Aufnahmeobjektivs 10 gelangenden Lichts in die Öffnung c des Phasendifferenz-Nachweispixels 51R, das sich auf der linken Seite der Lichtaufnahmefläche 53 befindet, und Licht, das durch die rechte Seite des Aufnahmeobjektivs 10 gelangt, tritt nicht durch die Öffnung c des Phasendifferenz-Nachweispixels 51R. Andererseits gelangt die Hälfte des Lichts, das durch die rechte Seite des Aufnahmeobjektivs 10 hindurchtritt, durch die Öffnung c des Phasendifferenz-Nachweispixels 51R auf der rechten Seite der Lichtaufnahmefläche 53, und das gesamte Licht, das durch die linke Seite des Aufnahmeobjektivs 10 gelangt, tritt in die Öffnung c des Phasendifferenz-Nachweispixels 51R. Weiterhin gelangt nur Licht, das durch die linke Seite des Aufnahmeobjektivs 10 tritt, in die Öffnung c des Phasendifferenz-Nachweispixels 51R, das sich in der Mitte der Aufnahmefläche 53 befindet, und Licht, das durch die rechte Seite des Aufnahmeobjektivs 10 hindurchtritt, gelangt nicht in die Öffnung c des Phasendifferenz-Nachweispixels 51R.
  • Weil außerdem die Öffnung b des Phasendifferenz-Nachweispixels 51L in Reihenrichtung X bezüglich des Phasendifferenz-Nachweispixels 51R in die Gegenrichtung dezentriert ist, ist die Charakteristik des Empfindlichkeitsverhältnisses für das Phasendifferenz-Nachweispixels 51L derjenigen des Phasendifferenz-Nachweispixels 51R entgegengesetzt.
  • Wenn wir daher gemäß 7 von dem linken Ende der Lichtempfangsfläche 53 zu dem rechten Ende gehen, so wird das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51L geringer. Geht man von dem linken Ende der Lichtaufnahmefläche 53 zu dem rechten Ende, so wird das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51R größer.
  • Weil darüber hinaus eine Komponente von einfallendem Licht in der Reihenrichtung X nahezu vertikal auf den Bereich der Mitte in Reihenrichtung X der Lichtaufnahmefläche 53 auftrifft (ein Bereich, der eine Gerade überlappt, die durch einen Punkt hindurchgeht, der die Lichtaufnahmefläche 53 und die optische Achse des Aufnahmeobjektivs 10 schneidet, und die sich in der Spaltenrichtung Y erstreckt), sind das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51L und das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51R nahezu gleich groß.
  • Auf diese Weise besitzt der Festkörperbildsensor 5, der mit dem Phasendifferenz-Nachweispixel 51R und dem Phasendifferenz-Nachweispixel 51L ausgestattet ist, eine Empfindlichkeitsverhältnis-Kennlinie, wie sie in 7 dargestellt ist.
  • Das Empfindlichkeitsverhältnis für jedes der Phasendifferenzpaare an einer beliebigen horizontalen Pixelstelle, wie es in 7 veranschaulicht ist, wird allein durch den Winkel eines Lichtstrahls bestimmt (im folgenden als Einfall-Lichtstrahlwinkel bezeichnet), der auf die horizontale Pixelstelle auftrifft. Der Einfall-Lichtstrahlwinkel wird weiter unten erläutert.
  • 9 ist ein Diagramm, das einen Zustand veranschaulicht, in welchem das Aufnahmeobjektiv 10 und der Festkörperbildsensor 5 in Spaltenrichtung Y weisen, das ist die Richtung, welche die optische Achse des Aufnahmeobjektivs 10 und die Reihenrichtung X schneidet.
  • Licht, das auf eine beliebige horizontale Pixelstelle in dem Festkörperbildsensor 5 auftrifft, enthält einen Hauptlichtstrahl, der durch die Mitte des Aufnahmeobjektivs 10 geht, einen oberen Lichtstrahl, der durch ein oberes Ende des Aufnahmeobjektivs 10 in 9 läuft, und einen unteren Lichtstrahl, der durch ein unteres Ende des Aufnahmeobjektivs 10 in 9 läuft.
  • Der obere Lichtstrahl betrifft einen Lichtstrahl, der durch einen Endbereich (das obere Ende) in Reihenrichtung X des Aufnahmeobjektivs 10 läuft und die beliebige horizontale Pixelstelle erreicht. Der untere Lichtstrahl bezieht sich auf einen Lichtstrahl, der durch das andere Ende (das untere Ende) in Reihenrichtung X des Aufnahmeobjektivs 10 läuft und die beliebige horizontale Pixelstelle erreicht.
  • Wie in 9 dargestellt ist, ist ein Winkel (ein oberer Lichtstrahlwinkel), den der obere Lichtstrahl mit der optischen Achse K des Aufnahmeobjektivs 10 bildet, als θoben bezeichnet, ein Winkel (ein unterer Lichtstrahlwinkel), den der untere Lichtstrahl mit der optischen Achse K des Aufnahmeobjektivs 10 bildet, mit θunten bezeichnet, und ein Einfall-Lichtstrahlwinkel an einer beliebigen horizontalen Pixelstelle in dem Festkörperbildsensor 5 ist definiert als eine Kombination aus dem oberen Lichtstrahlwinkel θoben und dem unteren Lichtstrahlwinkel θunten.
  • Selbst wenn die horizontalen Pixelstellen gleich sind, ändert sich auch der Einfall-Lichtstrahlwinkel an der horizontalen Pixelstelle, wenn optische Bedingungen (zum Beispiel eine Kombination aus einer Blendenzahl, einer Brennweite und einer Fokussierlinse).
  • Sowohl das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51R als auch das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51L besitzt eine lineare Kennlinie, wie in 7 dargestellt ist. Aus diesem Grund gilt: wenn das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51R und dasjenige für das Phasendifferenz-Nachweispixel 51L an mindestens zwei Stellen in Reihenrichtung X des Festkörperbildsensors 5 bekannt sind, lassen sich das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51R und das Empfindlichkeitsverhältnis für das Phasendifferenz-Nachweispixel 51L an sämtlichen Stellen in Reihenrichtung X durch lineare Interpolation ermitteln.
  • Das Empfindlichkeitsverhältnis für jedes der Phasendifferenzpaare, das an einer beliebigen horizontalen Pixelstelle vorliegt, wird bestimmt durch den Einfall-Lichtstrahlwinkel an der horizontalen Pixelstelle. Darüberhinaus differiert der Einfall-Lichtstrahlwinkel an einer beliebigen horizontalen Pixelstelle mit einem Typ des Objektivs 100 oder einer optischen Bedingung, die für das Objektiv 100 eingestellt ist.
  • Dementsprechend wird bei der vorliegenden Ausführungsform dann, wenn das Objektiv 100 an dem Kameragehäuse 200 angesetzt ist, Information über den Einfall-Lichtstrahlwinkel an mindestens zwei beliebigen Stellen in Reihenrichtung X des Festkörperbildsensors 5 für jede optische Bedingung des Objektivs 100 ermittelt und dann in dem Speicher 3 des Objektivs 100 abgespeichert.
  • Weiterhin ist in dem Speicher 16 des Kameragehäuses 200 eine Tabelle gespeichert, in der das Empfindlichkeitsverhältnis jedes der Phasendifferenzpaare, die sich an einer beliebigen horizontalen Pixelstelle befinden, jedem Einfall-Lichtstrahlwinkel zugeordnet, der mit der beliebigen horizontalen Stelle differiert. Wenn außerdem eine Kombination aus Objektiv und Bildsensor sich ändert, ändert sich auch das Empfindlichkeitsverhältnis. Aus diesem Grund ist es wünschenswert, dass Daten über das Empfindlichkeitsverhältnis in Bezug auf den Einfall-Lichtstrahlwinkel in einem Gerät gespeichert ist, in welchem ein Bildsensor verbaut ist, und weil die Information über den Einfal-Lichtstrahlwinkel durch ein Objektiv bestimmt wird, ist es wünschenswert, dass die Information über den Einfall-Lichtstrahlwinkel in dem Objektiv gespeichert ist.
  • Die Information über den Einfall-Lichtstrahlwinkel, die in dem Speicher 60 gespeichert ist, und die Daten in der Tabelle, die in dem Speicher 60 gespeichert ist, können gewonnen werden durch eine aktuelle Messung während eines Justierprozesses vor dem Versand des Objektivs 100 oder des Kameragehäuses 200.
  • Beispielsweise wird der Einfall-Lichtstrahlwinkel an jeder der horizontalen Pixelstellen ×1, ×2, ×3 und ×4 gemäß 7 für sämtliche optischen Bedingungen (1, 2, 3, ...) gemessen, die sich an dem Objektiv 100 einstellen lassen, es wird eine Tabelle, wie sie in 10 gezeigt ist, aus einem Ergebnis der Messung erzeugt, und die erzeugte Tabelle wird in dem Speicher 60 des Objektivs 100 abgespeichert.
  • Darüber hinaus werden für sämtliche Kombinationen, in denen der obere Lichtstrahlwinkel und der untere Lichtstrahlwinkel berücksichtigt sind, ein Empfindlichkeitsverhältnis für ein beliebiges Phasendifferenz-Nachweispixel 51R und ein Empfindlichkeitsverhältnis für ein beliebiges Phasendifferenz-Nachweispixel 51L, die die gleiche horizontale Pixelposition einnehmen, gemessen, es wird eine Tabelle, wie sie in 11 dargestellt ist, aus dem Messergebnis erzeugt, und die erzeugte Tabelle wird in dem Speicher 16 des Kameragehäuses 200 gespeichert. In 11 sind die Empfindlichkeitsverhältnisse für das Phasendifferenz-Nachweispixel 51R mit R1, R2 und R3 bezeichnet, und die Empfindlichkeitsverhältnisse für das Phasendifferenz-Nachweispixel 51L sind mit L1, L2 und L3 bezeichnet.
  • Die Lichtstrahlwinkelinformation, die in dem Speicher 60 des Objektivs 100 gespeichert ist, und die in dem Hauptspeicher 16 gespeicherte Tabelle werden miteinander verglichen, und damit lässt sich die Information über ein Empfindlichkeitsverhältnis für jedes Phasendifferenz-Nachweispixel 51 für jede Bildaufnahmebedingung ermitteln. Damit das Empfindlichkeitsverhältnis sich auf 1 einstellen lässt, kann ein Wert, mit dem das Ausgangssignal des Phasendifferenz-Nachweispixels 51 zu multiplizieren ist, als ein Korrekturverstärkungswert erhalten werden. Auf diese Weise erzeugt die Korrekturverstärkungswert-Erzeugungseinheit 176 den Korrekturverstärkungswert für jedes Phasendifferenz-Nachweispixel 51 unter Verwendung der Lichtstrahlwinkelinformation, die in dem Speicher 60 des Objektivs 100 gespeichert ist, und der Tabelle, die in dem Hauptspeicher 16 gespeichert ist.
  • Darüber hinaus kann anstelle des Empfindlichkeitsverhältnisses als Tabelle gemäß 11 der Korrekturverstärkungswert zum Einstellen des Empfindlichkeitsverhältnisses auf „1” gespeichert werden.
  • 12 ist ein Flussdiagramm zum Beschreiben des Arbeitsablaufs in der Digitalsignal-Verarbeitungseinheit 17, die in 5 dargestellt ist. Das Flussdiagramm nach 12 ergibt sich durch Hinzufügung von Schritten S10 und S11 zu dem in 4 dargestellten Flussdiagramm. In 12 tragen gleiche Verarbeitungsvorgänge wie in 4 gleiche Bezugszeichen, auf eine wiederholte Beschreibung wird verzichtet.
  • Wenn ein Ergebnis der Feststellung im Schritt S3 „Nein” lautet, bestimmt die Korrekturverstärkungswert-Erzeugungseinheit 176, ob die Lichtstrahlwinkelinformation in der Objektivinformation enthalten ist oder nicht (Schritt S10). Ist die Lichtstrahlwinkelinformation nicht in der Objektivinformation enthalten, wird die Verarbeitung im Schritt S5 von der Korrekturverfahren-Auswahleinheit 174 ausgewählt.
  • Falls die Lichtstrahlwinkelinformation nicht in der Objektivinformation enthalten ist, generiert die Korrekturverstärkungswert-Erzeugungseinheit 176 den Korrekturverstärkungswert, der jedem Phasendifferenz-Nachweispixel 51 entspricht, für jede Bildaufnahmebedingung unter Verwendung der Lichtstrahlwinkelinformation und der Tabelle, wie sie in 11 dargestellt ist, und speichert eine Gruppe eines generierten Korrekturverstärkungswerts in dem Hauptspeicher 16 in einem Zustand, der der Objektiv-ID zugeordnet ist, welche in der Objektivinformation enthalten ist (Schritt S11). Die Gruppe des Korrekturverstärkungswerts kann in dem Speicher 60 des Objektivs 100 in einem Zustand gespeichert werden, der der Objektiv-ID zugeordnet ist.
  • Anschließend an den Schritt S11 erfolgt die Verarbeitung im Schritt S4 durch die Korrekturverfahrens-Auswahleinheit 174.
  • Wie oben beschrieben, wird bei der Digitalkamera nach dem Modifikationsbeispiel selbst dann, wenn der Korrekturverstärkungswert entsprechend der Objektiv-ID nicht in dem Kameragehäuse 200 oder in dem Objektiv 100 gespeichert ist, dann, wenn die Lichtstrahlwinkelinformation in der Objektivinformation enthalten ist, der Korrekturverstärkungswert aus der Lichtstrahlwinkelinformation generiert, und dann lässt sich der generierte Korrekturverstärkungswert abspeichern. Aus diesem Grund besteht kein Erfordernis, vorab den Korrekturverstärkungswert für jede Bildaufnahmebedingung in dem Kameragehäuse 200 abzuspeichern. Damit lassen sich die Fertigungskosten der Digitalkamera verringern.
  • Darüber hinaus lässt sich bei der Digitalkamera nach dem Modifikationsbeispiel die Erzeugung des Korrekturverstärkungswerts anschließend erübrigen, weil der generierte Korrekturverstärkungswert in einem Zustand abgespeichert ist, in welchem er der Objektiv-ID zugeordnet ist und in dem Objektiv 100 abgespeichert ist, nachdem der Korrekturverstärkungswert einmal erzeugt wurde. Damit lässt sich eine Verringerung der Bildaufnahmezeit erreichen.
  • Wenn außerdem der Korrekturverstärkungswert weder in dem Kameragehäuse 200 noch in dem Objektiv 100 gespeichert ist und das Objektiv 100, in welchem die Lichtstrahlwinkelinformation nicht gespeichert ist, am Gehäuse angesetzt ist, erfolgt die Korrektur des Ausgangssignals des Phasendifferenz-Nachweispixels 51 durch Interpolationskorrektur. Aus diesem Grund lässt sich in sämtlichen Objektiven 100 die Aufnahmebildqualität auf einen hohen Wert bringen.
  • Darüber hinaus wird im Schritt 4 in den 4 und 12 das zweite Korrekturverfahren zur Auswahl eingestellt, bei welchem die Ausgangssignale der Phasendifferenz-Nachweispixel 51 mit Hilfe der Verstärkungskorrekturverarbeitung korrigiert werden. Anstelle des zweiten Korrekturverfahrens lässt sich allerdings für die Auswahl ein drittes Korrekturverfahren einstellen, bei dem das Ausgangssignal jedes Phasendifferenz-Nachweispixels in dem Bildaufnahmesignal durch eine beliebige Einheit, also entweder der Interpolationskorrektur-Verarbeitungseinheit 172 oder der Verstärkungskorrektur-Verarbeitungseinheit 171 korrigiert wird.
  • Es gibt Szenen, für die einerseits die Interpolationskorrektur und andererseits die Verstärkungskorrektur hervorragend sind. Wenn zum Beispiel das Ausgangssignal des Phasendifferenz-Nachweispixels einen Sättigungswert erreicht (Überbelichtung) oder einen übermäßig geringen Wert hat (Unterbelichtung), so wird eine hohe Korrekturgenauigkeit erzielt, wenn die Interpolationskorrektur ausgeführt wird.
  • Aus diesem Grund wird für jedes Phasendifferenz-Nachweispixel 51 festgestellt, welche von der Interpolationskorrektur und der Verstärkungskorrektur eine höhere Korrekturgenauigkeit erreicht, und es wird für die Ausführung diejenige Verarbeitung eingestellt, die die höhere Korrekturgenauigkeit erzielt. Damit lässt sich die Qualität des Aufnahmebilds steigern.
  • Als drittes Korrekturverfahren wird zum Beispiel von einem Verfahren Gebrauch gemacht, das gemäß der JP-A-2012-4729 einen Rand eines Bilds eines Aufnahmeobjekts ermittelt, und bei dem Bilddaten korrigiert werden durch Umschalten zwischen Interpolationskorrektur und Verstärkungskorrektur abhängig von dem Ausmaß des Rands. Das dritte Korrekturverfahren ist nicht hierauf beschränkt, es kann auch von einem Verfahren Gebrauch gemacht werden, welches von der Interpolationskorrektur und der Verstärkungskorrektur gemeinsam Gebrauch macht.
  • Bisher wurde eine Art und Weise der Auswahl des Korrekturverfahrens gemäß der in dem Objektiv 100 einer Wechselobjektiv-Digitalkamera gespeicherten Objektivinformation beschrieben. Zusätzlich dazu kann in der Wechselobjektiv-Digitalkamera von einer Art und Weise Gebrauch gemacht werden, bei der stets von der Interpolationskorrektur Gebrauch gemacht wird, ohne eine Verstärkungskorrektur durchzuführen. In diesem Fall ist es auch möglich, sämtliche Objektive zu unterstützen. Weiterhin erübrigt sich der Vorgang des Generierens eines Korrekturverstärkungswerts.
  • Weiterhin erfolgte die Beschreibung bislang unter der Annahme, dass das Kameragehäuse 200 die Objektivinformation von dem Objektiv 100 übernehmen kann. In einigen Fällen jedoch kann eine Kommunikation zwischen dem Objektiv 100 und dem Kameragehäuse 200 nicht stattfinden. Beispielsweise wird in einigen Fällen von dem Hersteller des Kameragehäuses 200 ein spezieller Adapter gefertigt, abhängig von Spezifikationen eines Objektivs, das von einem anderen Hersteller gefertigt ist, wobei ein von einem anderen Hersteller gefertigtes Objektiv an dem Marken-Aufnahmeadapter angesetzt ist.
  • In einem solchen Fall macht es beim Nachweisen, dass der Markenadapter an dem elektrischen Kontaktpunkt 9 ansteht, die Systemsteuereinheit 11 des Kameragehäuses 20 möglich, einen objektivfreien Modus zu aktivieren, in welchem eine Bildaufnahme ohne Objektiv möglich ist. Der objektivfreie Modus lässt sich von Hand derart einstellen, dass sich der objektivfreie Modus aktivieren oder deaktivieren lässt. Ist der objektivfreie Modus für den Gebrauch eingestellt, besteht die Möglichkeit, von Hand Information einzugeben, so zum Beispiel eine Brennweite eines Objektivs.
  • Auf diese Weise führt die Aktivierung des objektivfreien Modus' zu einem Zustand, in welchem die Objektivinformation nicht aus dem Objektiv 100 bezogen werden kann, welches an dem Kameragehäuse 20 angesetzt ist. Aus diesem Grund führt dann, wenn festgestellt wird, dass die Objektivinformation nicht ermittelt werden kann, die Systemsteuereinheit 11 stets die Interpolationskorrektur ohne Ausführung der Verstärkungskorrektur aus. Hierdurch kann selbst dann, wenn das Objektiv angebracht ist, mit dem keine Kommunikation möglich ist, die Korrektur des Ausgangssignals des Phasendifferenz-Nachweispixels stattfinden.
  • Im folgenden soll eine Konfiguration eines Smartphones als Beispiel für eine Bildaufnahmevorrichtung erläutert werden.
  • 13 zeigt das äußere Erscheinungsbild des Smartphones 300 gemäß einer Ausführungsform der vorliegenden Erfindung. Das Smartphone 300 gemäß 13 besitzt ein flaches, plattenförmiges Gehäuse 201 und enthält eine Display-Eingabeeinheit 204, in die eine Anzeigetafel 202 als Anzeigeeinheit auf einer flächigen Seite des Gehäuses 201 und ein Bedienfeld 203 als Eingabeeinheit integriert sind. Darüber hinaus enthält das Gehäuse 201 einen Lautsprecher 205, ein Mikrophon 206, eine Bedieneinheit 207 und eine Kameraeinheit 208. Darüber hinaus ist die Konfiguration des Gehäuses 201 nicht auf diese Merkmale beschränkt. Beispielsweise kann von einer Konfiguration Gebrauch gemacht werden, bei der eine Anzeigeeinheit und eine Eingabeeinheit unabhängig voneinander ausgebildet sind. Es kann eine Konfiguration verwendet werden, bei der eine klappbare oder eine gleitbare Struktur verfügbar ist.
  • 14 ist ein Blockdiagramm, das eine Konfiguration des Smartphones 300 veranschaulicht, wie es in 13 gezeigt ist. Wie 13 zeigt, sind als Hauptbestandteile des Smartphones in diesem enthalten: eine Drahtlos-Kommunikationseinheit 210, eine Display-Eingabeeinheit 204, eine Telefoniereinheit 211, die Bedieneinheit 207, die Kameraeinheit 208, eine Speichereinheit 212, eine externe Eingabe- und Ausgabeeinheit 213, eine Empfangseinheit 214 für ein globales Ortungssystem (GPS), eine Bewegungssensoreinheit 215, eine Energieversorgungseinheit 216 und eine Hauptsteuereinheit 220. Darüber hinaus ist als eine Hauptfunktion des Smartphones 300 eine Drahtlos-Kommunikationsfunktion vorhanden, mit der eine mobile Drahtlos-Kommunikation über eine Basisstation BS, auf deren Darstellung hier verzichtet ist, und ein mobiles Kommunikationsnetzwerk NW, auf deren Darstellung hier verzichtet ist, ausgeführt wird.
  • Entsprechend einem Befehl der Hauptsteuereinheit 220 führt die Drahtlos-Kommunikationseinheit 210 eine Drahtlos-Kommunikation mit der Basisstation BS durch, die in dem mobilen Kommunikationsnetzwerk NW aufgenommen ist. Über diese Drahtlos-Kommunikation werden Senden und Empfangen unterschiedlicher Teile von Dateidaten, so zum Beispiel Sprachdaten und Bilddaten, elektronische Mail-Daten und dergleichen oder das Senden und Empfangen von Web-Daten, Streaming-Daten und dergleichen abgewickelt.
  • Die Display-Eingabeeinheit 204 ist ein sogenanntes Berührfeld (Touch Panel), auf dem ein Bild (ein statisches oder ein bewegtes Bild) oder Textinformation oder dergleichen unter der Steuerung der Hauptsteuereinheit 220 dargestellt wird, um an den Benutzer visuell Information zu bringen, und die die Anzeigetafel 202 und das Bedienfeld 203 beinhaltet.
  • Für die Anzeigetafel 202 wird als Anzeigeeinrichtung eine Flüssigkristallanzeige (LCD), eine organische Elektrolumineszenzanzeige (OELD) oder dergleichen verwendet.
  • Das Bedienfeld 203 ist eine Einrichtung, auf der ein Bild auf einer Anzeigefläche der Anzeigetafel 202 in visuell erkennbarer Weise platziert wird, und die einen Satz von Koordinaten oder mehrere Koordinatensätze ermittelt, die sich aus einer Betätigung ergeben, die von einem Benutzer mit dem Finger oder einem Griffel ausgeführt wird. Wenn das Gerät mit dem Finger des Benutzers oder einem Griffel betätigt wird, wird von der Hauptsteuereinheit 220 ein Nachweissignal ausgegeben, welches durch den Bedienvorgang entsteht. Anschließend wird basierend auf dem empfangenen Nachweissignal von der Hauptsteuereinheit 220 eine Bedienstelle (Koordinaten) auf der Anzeigetafel 202 nachgewiesen.
  • Wie in 13 dargestellt ist, sind die Anzeigetafel 202 und das Bedienfeld 203 des Smartphones 300, das hier als Bildaufnahmevorrichtung gemäß einer Ausführungsform der Erfindung dargestellt ist, in einem Stück integriert, wodurch die Display-Anzeigeeinheit 204 gebildet wird, wobei das Bedienfeld 203 derart angeordnet ist, dass es die Anzeigetafel 202 vollständig überdeckt.
  • Wenn man von dieser Anordnung Gebrauch macht, kann das Bedienfeld 203 die Funktion haben, einen benutzerseitigen Bedienvorgang auch in anderen Flächenbereichen als der Anzeigetafel 202 zu erkennen. In anderen Worten: das Bedienfeld 203 kann einen Detektorbereich (im folgenden als Anzeigebereich) für einen Überlagerungsbereich enthalten, der die Anzeigetafel 202 überlappt, und einen Anzeigebereich (im folgenden als Nicht-Anzeigebereich bezeichnet) beinhalten für einen Teil verschieden von dem Überlagerungsbereich, das heißt einen Randbereich, der die Anzeigetafel 202 nicht überlappt.
  • Darüber hinaus können die Größe des Anzeigebereichs und die Größe der Anzeigetafel 202 vollständig miteinander übereinstimmen, allerdings ist dies nicht notwendig. Darüber hinaus kann das Bedienfeld 203 zwei Ansprechbereiche enthalten, das heißt den Randbereich und einen inneren Teil verschieden von dem Randbereich. Weiterhin ist die Breite des Randbereichs passender Weise entsprechend der Größe des Gehäuses 201 und dergleichen ausgelegt. Beispiele für einen Orts-Nachweistyp für das Bedienfeld 203 können weiterhin ein Matrixschalter-Typ, ein Widerstandsfilm-Typ, ein Typ für akustische Oberflächenwellen, ein Infrarot-Typ, ein elektromagnetischer Induktionstyp, ein elektrostatischer Kapazitätstyp und dergleichen sein, das heißt, jeder dieser Typen kann verwendet werden.
  • Die Telefoniereinheit 211 enthält den Lautsprecher 205 oder das Mikrophon 206. Die Telefoniereinheit 211 wandelt die Stimme eines Benutzers, die über das Mikrophon 206 eingegeben wird, in Sprachdaten um, die in der Hauptsteuereinheit 220 verarbeitet werden können, welche dann die resultierenden Sprachdaten an die Hauptsteuereinheit gibt oder Sprachdaten dekodiert, die von der Drahtlos-Kommunikationseinheit 210 der der externen Eingabe- und Ausgabeeinheit 213 empfangen werden, um anschließend zu veranlassen, dass die resultierenden Sprachdaten über den Lautsprecher 205 ausgegeben werden. Weiterhin kann gemäß 13 der Lautsprecher 205 zum Beispiel auf der gleichen Fläche wie die Display-Eingabeeinheit 204 angeordnet sein, und das Mikrophon 206 kann sich auf einer Seitenfläche des Gehäuses 201 befinden.
  • Die Bedieneinheit 207 ist eine Hardware-Taste in Form eines Tastenschalters und dergleichen, und sie empfängt einen Befehl von dem Benutzer. Beispielsweise ist gemäß 13 die Bedieneinheit 207 ein Drucktastenschalter, der sich in einer Seitenfläche des Gehäuses 201 des Smartphones 300 befindet. Die Drucktaste befindet sich, wenn sie mit dem Finger oder dergleichen niedergedrückt wird, in einem EIN-Zustand, und wenn der Finger losgelassen wird, befindet sie sich in einem AUS-Zustand, bedingt durch die Rückstellkraft einer Feder oder dergleichen.
  • In der Speichereinheit 212 sind ein Steuerprogramm oder Steuerdaten für die Hauptsteuereinheit 220, Anwendungssoftware, Adressdaten, mit denen ein Name oder eine Telefonnummer eines Kommunikationspartners oder dergleichen verknüpft ist, elektronische Maildaten, die gesendet und empfangen werden, Web-Daten, die von einem Web-Browser heruntergeladen sind oder Inhaltsdaten, die heruntergeladen sind, abgespeichert. Darüber hinaus sind in der Speichereinheit 212 vorübergehend Streaming-Daten oder dergleichen gespeichert. Ferner ist die Speichereinheit 212 konfiguriert aus einer internen Speichereinheit 217, die in das Smartphone eingebaut ist, und einer externen Speichereinheit 218, die sich lösbar in einem Speicherschacht befindet. Darüber hinaus wird sowohl die interne Speichereinheit 217 als auch die externe Speichereinheit 218, welche die Speichereinheit 212 gemeinsam bilden, als Speichermedium realisiert, so zum Beispiel in Form eines Flash-Speichers, einer Festplatte, einer Multimedia-Mikrokarte, eines Kartenspeichers (zum Beispiel MikroSD (eingetragene Marke), eines Schreib-/Lesespeichers (RAM) oder eines Festspeichers (ROM)).
  • Die externe Eingabe- und Ausgabeeinheit 213 ist mit dem Smartphone 300 verbunden und spielt die Rolle einer Schnittstelle zwischen sämtlichen externen Geräten. Die externe Eingabe- und Ausgabeeinheit 213 ist direkt oder indirekt mit anderen externen Geräten über eine Kommunikation (zum Beispiel einen Universal-Serial Bus (BUS), IEEE 1394 oder dergleichen verbunden), oder über ein Netzwerk (zum Beispiel das Internet, ein drahtloses LAN, Bluetooth (registrierte Marke), Funkfrequenzkennung (RFID), Infrarot-Data-Association: IrDa (registrierte Marke), Ultra-Breitband (UWB) (registrierte Marke), ZigBee (registrierte Marke) oder dergleichen).
  • Als externe Geräte, die mit dem Smartphone 300 verbunden sind, gibt es beispielsweise ein drahtgebundenes/drahtloses Headset, einen drahtgebundenen/drahtlosen externen Batterielader, ein drahtgebundenes/drahtloses Datenport, eine Speicherkarte oder eine Subscriber-Identity-Module-Karte(SIM)/User-Identity-Module-(UIM-)Karte, die über eine Kartenbuchse anschließbar ist, ein externes Audio-Nideogerät, das über einen Audio-Nideo-Eingang/Ausgang (E/A) angeschlossen ist, ein externes Audio-Nideogerät, das drahtlos angeschlossen ist, ein Smartphone, das über Draht/drahtlos angeschlossen ist, einen Personal Computer, der über ein Kabel/drahtlos angeschlossen ist, einen PDA, der über Draht/drahtlos angeschlossen ist, einen Personal Computer, der über Draht/drahtlos angeschlossen ist, und einen Ohrhörer. Über die externe Eingabe-/Ausgabeeinheit 213 werden Daten, die von diesen externen Geräten übertragen werden, zu jeder Komponente innerhalb des Smartphones 300 transferiert, oder Daten innerhalb des Smartphones 300 können zu den externen Geräten übertragen werden.
  • Abhängig von einem Befehl aus der Hauptsteuereinheit 220 empfängt die GPS-Empfangseinheit 214 ein GPS-Signal, das von GPS-Satelliten ST1 bis STn gesendet wird, führt eine Ortungsberechnung durch, die auf mehreren empfangenen GPS-Signalen basiert, und ermittelt einen Ort, der sich zusammensetzt aus einer Breite, einer Länge und einer Höhe des Smartphones 300. Wenn Ortsinformation aus der Drahtlos-Kommunikationseinheit 210 oder der externen Eingabeund Ausgabeeinheit 213 ermittelt werden kann, kann die GPS-Empfangseinheit 214 einen Ort mit Hilfe der Ortsinformation ermitteln.
  • Die Bewegungssensoreinheit 215 enthält zum Beispiel einen dreiachsigen Beschleunigungssensor oder dergleichen, und sie ermittelt eine körperliche Bewegung des Smartphones 300 abhängig von einem Befehl aus der Hauptsteuereinheit 220. Eine Richtung der Bewegung des Smartphones 300 oder eine Beschleunigung des Smartphones 300 wird nachgewiesen durch Erfassen der körperlichen Bewegung des Smartphones 300. Ein Nachweisergebnis wrid an die Hauptsteuereinheit 220 ausgegeben.
  • Abhängig von einem Befehl der Hauptsteuereinheit 220 liefert die Energieversorgungseinheit 216 elektrische Energie, die in einer (nicht dargestellten) Batterie gespeichert ist, an jede Einheit des Smartphones 300.
  • Die Hauptsteuereinheit 220 enthält einen Mikroprozessor, sie arbeitet abhängig von einem Steuerprogramm oder von Steuerdaten, die in der Speichereinheit 212 abgespeichert sind, und sie steuert in integraler Weise jede Einheit des Smartphones 300. Um außerdem eine Sprachkommunikation oder eine Datenkommunikation über die Drahtlos-Kommunikationseinheit 210 abzuwickeln, besitzt die Hauptsteuereinheit 220 eine mobile Kommunikationssteuerfunktion zum Steuern jeder Einheit eines Kommunikationssystems, ferner eine Anwendungsverarbeitungsfunktion.
  • Die Anwendungsverarbeitungsfunktion wird von der Hauptsteuereinheit 220 realisiert, die abhängig von Anwendungssoftware arbeitet, welche in der Speichereinheit 212 gespeichert ist. Als Anwendungsverarbeitungsfunktionen gibt es zum Beispiel eine Infra-Kommunikationsfunktion zum Steuern der externen Eingabe- und Ausgabeeinheit 213 zum Ausführen einer Datenkommunikation mit einem dem Smartphone 300 gegenüberstehenden Gerät, eine elektronische Mailfunktion zum Senden und Empfangen einer elektronischen Mail, und eine Web-Browserfunktion zum Browsen durch Web-Seiten.
  • Darüber hinaus besitzt die Hauptsteuereinheit 220 eine Bildverarbeitungsfunktion zum Anzeigen eines Bilds auf der Display-Eingabeeinheit 204 basierend auf Bilddaten (einem statischen oder einem Bewegungsbild), so zum Beispiel empfangenen Daten oder Streaming-Daten, die heruntergeladen sind und eine Aufgabe wie diese ausführen. Die Bildverarbeitungsfunktion bedeutet eine Funktion, bei der die Hauptsteuereinheit 220 die Bilddaten dekodiert, auf dem Dekodierergebnis eine Bildverarbeitung ausführt und ein Bild auf der Display-Eingabeeinheit 204 anzeigt.
  • Darüber hinaus führt die Hauptsteuereinheit 220 eine Anzeigesteuerung der Anzeigetafel 202 aus und eine Betätigungs-Nachweissteuerung, die einen benutzerseitigen Bedienvorgang nachweist, der über die Bedieneinheit 207 und das Bedienfeld 203 ausgeführt wird. Durch Ausführen der Anzeigesteuerung bringt die Hauptsteuereinheit 220 ein Icon zum Aktivieren von Anwendungssoftware zur Anzeige, oder eine Softwaretaste wie zum Beispiel eine Scroll-Leiste, oder sie bringt ein Fenster zum Erzeugen einer elektronischem Mail zur Anzeige. Darüber hinaus bezieht sich die Scroll-Leiste auf eine Softwaretaste zum Empfangen eines Befehls, aufgrund dessen ein Anzeigeteil des Bilds oder dergleichen bewegt wird, welches zu groß ist, um auf eine Anzeigefläche der Anzeigetafel 202 zu passen.
  • Darüber hinaus ermittelt die Hauptsteuereinheit 220 durch Ausführen der Betätigungsnachweissteuerung eine benutzerseitige Betätigung, die über die Bedieneinheit 207 erfolgt, sie ermöglicht, dass an dem Icon über das Bedienfeld 203 eine Betätigung vorgenommen wird, sie ermöglicht die Eingabe einer Zeichenkette in einer Eingabebox auf dem Fenster über das Bedienfeld 203, oder sie empfängt eine Aufforderung zum Scrollen eines angezeigten Bilds, was über eine Scroll-Leiste stattfindet.
  • Durch Ausführen der Bedienungsnachweissteuerung stellt die Hauptsteuereinheit außerdem fest, ob eine Betätigungsstelle auf dem Bedienfeld 203 einem Überlagerungsteil (einer Anzeigefläche) entspricht, welche die Anzeigetafel 202 überlappt, oder ob es sich um einen anderen Teil als den Überlagerungsbereich handelt, das heißt um einen Randbereich (einen Nicht-Anzeigebereich), der die Anzeigetafel 202 nicht überlappt, und sie beinhaltet eine Touch Panel-Steuerfunktion zum Steuern eines ansprechempfindlichen Bereichs des Bedienfelds 203 oder einer Anzeigestelle einer Softwaretaste.
  • Weiterhin kann die Hauptsteuereinheit 220 eine auf dem Bedienfeld 203 ausgeführte Geste nachweisen und kann eine Funktion ausführen, die vorab nach Maßgabe der nachgewiesenen Geste eingestellt wurde. Die Geste bedeutet einen Vorgang, bei dem mit dem Finger oder dergleichen eine Spur gezogen wird, wobei die Geste mehrere Positionen gleichzeitig kennzeichnet, oder die Geste mindestens eine Spur von den mehreren Positionen durch Kombinieren dieser Aktionen zieht, im Gegensatz zu einem einfachen Berührvorgang im STand der Technik.
  • Die Kameraeinheit 208 ist aus anderen Komponenten konfiguriert als der externen Speichersteuereinheit 20, dem Aufzeichnungsmedium 21, der Anzeigesteuereinheit 22, der Anzeigeeinheit 23 und der Bedieneinheit 14 in der in 1 gezeigten Digitalkamera. Die von der Kameraeinheit 208 erzeugten Bildaufnahmedaten können in der Speichereinheit 212 gespeichert werden, oder sie können über die Eingabe- und Ausgabeeinheit 213 oder die Drahtlos-Kommunikationseinheit 210 ausgegeben werden. Wie in 13 gezeigt ist, ist die Kameraeinheit 208 in dem Smartphone 300 in der gleichen Fläche wie die Display-Eingabeeinheit 204 ausgebildet. Allerdings ist die Stelle der Kameraeinheit 208 nicht hierauf beschränkt, die Kameraeinheit 208 kann auch auf einer Rückseite der Display-Eingabeeinheit 204 angebracht sein.
  • Weiterhin kann die Kameraeinheit 208 für jede Funktion des Smartphones 300 verwendet werden. Beispielsweise kann ein von der Kameraeinheit 208 aufgenommenes Bild auf der Anzeigetafel 202 angezeigt werden, oder ein von der Kameraeinheit 208 aufgenommenes Bild kann mit einer Bedieneingabe verwendet werden, die über das Bedienfeld 203 stattfindet. Wenn außerdem die GPS-Empfangseinheit einen Ort ermittelt, so kann dieser Ort ermittelt werden durch Bezugnahme auf ein Bild aus der Kameraeinheit 208. Ferner kann durch Bezugnahme auf das Bild aus der Kameraeinheit 208 die Richtung der optischen Achse der Kameraeinheit 208 des Smartphones 300 ermittelt werden, und es lässt sich eine laufende Einsatzumgebung ermitteln ohne Einsatz des dreiachsigen Beschleunigungssensors oder Verwendung dieses dreiachsigen Beschleunigungssensors als Zusatzeinrichtung. Selbstverständlich lässt sich das Bild von der Kameraeinheit 208 im Rahmen der Anwendungssoftware einsetzen.
  • Weiterhin kann Ortsinformation, die von der GPS-Empfangseinheit 214 erfasst wird, Sprachinformation (Textinformation aus der Hauptsteuereinrichtung und dergleichen, die eine Sprache-zu-Text-Umwandlung ausführt), die von dem Mikrophon 206 erfasst wird, Gesteninformation, die von der Bewegungssensoreinheit 215 erfasst wird, in einer Speichereinheit 212 in einem Zustand aufgezeichnet werden, in welchem sie zu Bilddaten eines statischen oder eines Bewegungsbilds hinzugefügt wird, und die Information kann über die Eingabe- und Ausgabeeinheit 213 oder die Drahtlos-Kommunikationseinheit 210 ausgegeben werden.
  • In dem Smartphone 300, wie es oben geschildert wurde, dient der Festkörperbildsensor 5 als Bildaufnahmeelement der Kameraeinheit 208, und somit ist eine hochpräzise Phasendifferenz-AF ebenso wie eine hochqualitative photographische Bildaufnahme möglich.
  • Ein Programm zum Veranlassen eines Computers, einen funktionellen Block der Digitalsignal-Verarbeitungseinheit 17 auszuführen, steht über ein Netzwerk wie zum Beispiel das Internet zur Verfügung, und damit wird das Programm in dem Smartphone installiert, welches mit einer Kamera ausgestattet ist. Im Ergebnis lässt sich die gleiche Funktion realisieren, wie sie von der in 1 dargestellten Digitalkamera ausgeführt wird. Weiterhin kann das Programm in einem Zustand bereitgestellt werden, in welchem es auf einem nicht-temporären, computerlesbaren Medium aufgezeichnet ist.
  • Wie oben beschrieben, werden durch die vorliegende Spezifikation folgende Gegenstände offenbart:
    Die vorgestellte Bildaufnahmevorrichtung ist eine Bildaufnahmeeinrichtung an der ein Objektiv lösbar anbringbar ist, umfassend: einen Bildsensor, der mehrere Pixel für eine Bildaufnahme enthält, die in einem zweidimensionalen Array angeordnet sind, und mehrere Pixel für einen Phasendifferenznachweis auf einer Lichtaufnahmeflache enthält, und ein Aufnahmeobjekt durch das Objektiv hindurch abbildet; eine Kommunikationseinheit zum Ausführen einer Kommunikation mit dem angebrachten Objektiv; eine Objektivinformation-Erfassungseinheit, die über die Kommunikationseinheit aus dem Objektiv Objektivinformation erfasst, bei der es sich um für das Objektiv spezifische Information handelt; eine Verstärkungskorrektur-Verarbeitungseinheit, die eine Verstärkungskorrekturverarbeitung ausführt, welche ein Ausgangssignal des Pixels für den Phasendifferenznachweis in einem Bildaufnahmesignal, das von dem das Aufnahmeobjekt abbildenden Bildsensor erhalten wurde, korrigiert, indem sie das Ausgangssignal mit einem Verstärkungswert multipliziert; eine Interpolationskorrektur-Verarbeitungseinheit, die eine Interpolationskorrekturverarbeitung ausführt, welche das Ausgangssignal des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal dadurch korrigiert, dass sie das Ausgangssignal durch ein Signal ersetzt, welches erzeugt wird unter Verwendung eines Ausgangssignals des Pixels für eine Bildaufnahme, das sich in der Nähe des Pixels für den Phasendifferenznachweis befindet und die gleiche Farbe aufnimmt wie das Pixel für den Phasendifferenznachweis; eine Korrekturverfahren-Auswahleinheit, die abhängig von der von der Objektivinformations-Erfassungseinheit erfassten Objektivinformation eine Auswahl vornimmt aus einem ersten Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch die Interpolationskorrektur-Verarbeitungseinheit korrigiert werden, einem zweiten Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal korrigiert werden durch die Verstärkungskorrektur-Verarbeitungseinheit, und einem dritten Korrekturverfahren, bei dem das Ausgangssignal jedes Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal durch irgendeine von der Interpolationskorrektur-Verarbeitungseinheit und der Verstärkungskorrektur-Verarbeitungseinheit korrigiert wird; und eine Bildverarbeitungseinheit, die das Ausgangssignal des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal unter Verwendung des von der Korrekturverfahren-Auswahleinheit ausgewählten Verfahrens korrigiert.
  • In der offenbarten Bildaufnahmevorrichtung ist vorgesehen, dass für den Fall, dass der Verstärkungswert, welcher der Kennungsinformation zum Identifizieren des Objektivs entspricht und in der Objektivinformation enthalten ist, nicht in dem Bildsensor oder dem Objektiv gespeichert ist, die Korrekturverfahren-Auswahleinheit das erste Korrekturverfahren auswählt.
  • In der offenbarten Bildaufnahmevorrichtung ist vorgesehen, dass für den Fall, dass zum Erzeugen des Verstärkungswerts, der festgelegt wird durch Kombinieren des angebrachten Objektivs und des Bildsensors, notwendige Information nicht in der Objektivinformation enthalten ist, die Korrekturverfahren-Auswahleinheit das erste Korrekturverfahren auswählt.
  • In der offenbarten Bildaufnahmevorrichtung ist die zum Erfassen des Verstärkungswerts erforderliche Information Lichtstrahlwinkelinformation des Objektivs.
  • Die offenbarte Bildaufnahmevorrichtung weist weiterhin auf: eine Korrekturverstärkungswert-Erzeugungseinrichtung, die den Verstärkungswert unter Verwendung der Information über den Lichtstrahlwinkel und Information über die Empfindlichkeit des Bildsensors für jeden Lichtstrahlwinkel für den Fall erzeugt, dass Information über den Lichtstrahlwinkel in der Objektivinformation enthalten ist.
  • Das offenbarte Signalverarbeitungsverfahren ist ein Signalverarbeitungsverfahren zur Verwendung in einer Abbildungsvorrichtung, an der lösbar ein Objektiv anbringbar ist, wobei die Bildaufnahmevorrichtung einen Bildsensor enthält, der mehrere Pixel zur Bildaufnahme enthält, angeordet in einem zweidimensionalen Array, und mehrere Pixel für einen Phasendifferenznachweis auf einer Lichtaufnahmefläche enthält, und welcher ein Aufnahmeobjekt durch das Objektiv hindurch abbildet, ferner eine Kommunikationseinheit zum Ausführen einer Kommunikation mit dem angebrachten Objektiv, wobei das Signalverarbeitungsverfahren umfasst: einen Objektivinformations-Erfassungsschritt zum Erfassen von Objektivinformation aus dem Objektiv über die Kommunikationseinheit, wobei die Objektivinformation spezifisch für das Objektiv ist; einen Korrekturverfahren-Auswahlschritt, der abhängig von der durch den Objektivinformations-Erfassungsschritt erfassten Objektivinformation eines von folgenden Korrekturverfahren auswählt: ein erstes Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch eine Interpolationskorrekturverarbeitung korrigiert werden, welche die Ausgangssignale ersetzt durch Signale, die unter Verwendung eines Ausgangssignals des Pixels für die Bildaufnahme erzeugt werden, welches sich in der Nähe des Pixels für den Phasendifferenznachweis befindet und welches die gleiche Farbe aufnimmt wie das Pixel für den Phasendifferenznachweis, ein zweites Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch die Verstärkungskorrekturverarbeitung korrigiert werden, welche die Ausgangssignale korrigiert durch Multiplizieren der Ausgangssignale mit einem Verstärkungswert, und ein drittes Korrekturverfahren, bei dem das Ausgangssignal jedes Pixels für das Phasendifferenzsignal in dem Abbildungssignal korrigiert wird durch irgendeine von der Interpolationskorrekturverarbeitung und der Verstärkungskorrekturverarbeitung; und einen Bildverarbeitungsschritt des Korrigierens des Ausgangssignals des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal unter Verwendung des durch den Korrekturverfahren-Auswahlschritt ausgewählten Verfahrens.
  • Das offenbarte Signalverarbeitungsprogramm ist ein Programm zum Veranlassen eines Computers, jeden Schritt des Signalverarbeitungsverfahrens nach Anspruch 6 auszuführen.
  • Industrielle Anwendbarkeit
  • Die vorliegende Erfindung betrifft insbesondere eine Digitalkamera und dergleichen, so dass ein hohes Maß an Bequemlichkeit und hoher Effektivität erzielbar ist.
  • Die spezifischen Ausführungsformen der Erfindung sind oben beschrieben, jedoch ist die Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt. Möglich sind verschiedene Abwandlungen innerhalb des Schutzumfangs, der nicht von der technischen Idee hinter der vorliegenden Erfindung abweicht.
  • Die vorliegende Anmeldung nimmt ein früheres Einreichungsdatum und das Prioritätsrecht der japanischen Anmeldung Nr. 2013-50238 , eingereicht am 13. März 2013 in Anspruch, wobei der Inhalt von letzterer hier durch Bezugnahme in seiner Gesamtheit inkorporiert ist.
  • Bezugszeichenliste
  • 100
    Objekt
    200
    Kameragehäuse
    5
    Festkörperbildsensor
    9
    Elektrischer Kontaktpunkt
    10
    Aufnahmeobjektiv
    11
    Systemsteuereinheit
    17
    Digitalsignal-Verarbeitungseinheit
    50
    Objektivsteuereinheit
    51R, 51L
    Phasendifferenz-Nachweispixel
    60
    Speicher
    70
    elektrischer Kontaktpunkt
    171
    Verstärkungskorrektur-Verarbeitungseinheit
    172
    Interpolationskorrektur-Verarbeitungseinheit
    173
    Objektivinformations-Erfassungseinheit
    174
    Korrekturverfahren-Auswahleinheit
    175
    Abbildungs-Verarbeitungseinheit
    176
    Korrekturverstärkungswert-Erzeugungseinheit

Claims (7)

  1. Bildaufnahmevorrichtung, an der ein Objektiv lösbar anbringbar ist, umfassend: einen Bildsensor, der mehrere Pixel für eine Bildaufnahme enthält, die in einem zweidimensionalen Array angeordnet sind, und mehrere Pixel für einen Phasendifferenznachweis auf einer Lichtaufnahmefläche enthält, und ein Aufnahmeobjekt durch das Objektiv hindurch abbildet; eine Kommunikationseinheit zum Ausführen einer Kommunikation mit dem angebrachten Objektiv; eine Objektivinformation-Erfassungseinheit, die über die Kommunikationseinheit aus dem Objektiv Objektivinformation erfasst, bei der es sich um für das Objektiv spezifische Information handelt; eine Verstärkungskorrektur-Verarbeitungseinheit, die eine Verstärkungskorrekturverarbeitung ausführt, welche ein Ausgangssignal des Pixels für den Phasendifferenznachweis in einem Bildaufnahmesignal, das von dem das Aufnahmeobjekt abbildenden Bildsensor erhalten wurde, korrigiert, indem sie das Ausgangssignal mit einem Verstärkungswert multipliziert; eine Interpolationskorrektur-Verarbeitungseinheit, die eine Interpolationskorrekturverarbeitung ausführt, welche das Ausgangssignal des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal dadurch korrigiert, dass sie das Ausgangssignal durch ein Signal ersetzt, welches erzeugt wird unter Verwendung eines Ausgangssignals des Pixels für eine Bildaufnahme, das sich in der Nähe des Pixels für den Phasendifferenznachweis befindet und die gleiche Farbe aufnimmt wie das Pixel für den Phasendifferenznachweis; eine Korrekturverfahren-Auswahleinheit, die abhängig von der von der Objektivinformations-Erfassungseinheit erfassten Objektivinformation eine Auswahl vornimmt aus einem ersten Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch die Interpolationskorrektur-Verarbeitungseinheit korrigiert werden, einem zweiten Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal korrigiert werden durch die Verstärkungskorrektur-Verarbeitungseinheit, und einem dritten Korrekturverfahren, bei dem das Ausgangssignal jedes Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal durch irgendeine von der Interpolationskorrektur-Verarbeitungseinheit und der Verstärkungskorrektur-Verarbeitungseinheit korrigiert wird; und eine Bildverarbeitungseinheit, die das Ausgangssignal des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal unter Verwendung des von der Korrekturverfahren-Auswahleinheit ausgewählten Verfahrens korrigiert.
  2. Bildaufnahmevorrichtung nach Anspruch 1, bei der für den Fall, dass der Verstärkungswert, welcher der Kennungsinformation zum Identifizieren des Objektivs entspricht und in der Objektivinformation enthalten ist, nicht in dem Bildsensor oder dem Objektiv gespeichert ist, die Korrekturverfahren-Auswahleinheit das erste Korrekturverfahren auswählt.
  3. Bildaufnahmevorrichtung nach Anspruch 1, bei der für den Fall, dass zum Erzeugen des Verstärkungswerts, der festgelegt wird durch Kombinieren des angebrachten Objektivs und des Bildsensors, notwendige Information nicht in der Objektivinformation enthalten ist, die Korrekturverfahren-Auswahleinheit das erste Korrekturverfahren auswählt.
  4. Bildaufnahmevorrichtung nach Anspruch 3, bei der die zum Erfassen des Verstärkungswerts benötigte Information Lichtstrahlwinkelinformation des Objektivs ist.
  5. Bildaufnahmevorrichtung nach Anspruch 4, weiterhin umfassend: eine Korrekturverstärkungswert-Erzeugungseinheit, die den Verstärkungswert unter Verwendung der Information über den Lichtstrahlwinkel und Information über die Empfindlichkeit des Bildsensors für jeden Lichtstrahlwinkel für den Fall erzeugt, dass Information über den Lichtstrahlwinkel in der Objektivinformation enthalten ist.
  6. Signalverarbeitungsverfahren zur Verwendung in einer Abbildungsvorrichtung, an der lösbar ein Objektiv anbringbar ist, wobei die Bildaufnahmevorrichtung einen Bildsensor enthält, der mehrere Pixel zur Bildaufnahme enthält, angeordet in einem zweidimensionalen Array, und mehrere Pixel für einen Phasendifferenznachweis auf einer Lichtaufnahmefläche enthält, und welcher ein Aufnahmeobjekt durch das Objektiv hindurch abbildet, ferner eine Kommunikationseinheit zum Ausführen einer Kommunikation mit dem angebrachten Objektiv, wobei das Signalverarbeitungsverfahren umfasst: einen Objektivinformations-Erfassungsschritt zum Erfassen von Objektivinformation aus dem Objektiv über die Kommunikationseinheit, wobei die Objektivinformation spezifisch für das Objektiv ist; einen Korrekturverfahren-Auswahlschritt, der abhängig von der durch den Objektivinformations-Erfassungsschritt erfassten Objektivinformation eines von folgenden Korrekturverfahren auswählt: ein erstes Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch eine Interpolationskorrekturverarbeitung korrigiert werden, welche die Ausgangssignale ersetzt durch Signale, die unter Verwendung eines Ausgangssignals des Pixels für die Bildaufnahme erzeugt werden, welches sich in der Nähe des Pixels für den Phasendifferenznachweis befindet und welches die gleiche Farbe aufnimmt wie das Pixel für den Phasendifferenznachweis, ein zweites Korrekturverfahren, bei dem die Ausgangssignale sämtlicher Pixel für den Phasendifferenznachweis in dem Bildaufnahmesignal durch die Verstärkungskorrekturverarbeitung korrigiert werden, welche die Ausgangssignale korrigiert durch Multiplizieren der Ausgangssignale mit einem Verstärkungswert, und ein drittes Korrekturverfahren, bei dem das Ausgangssignal jedes Pixels für das Phasendifferenzsignal in dem Abbildungssignal korrigiert wird durch irgendeine von der Interpolationskorrekturverarbeitung und der Verstärkungskorrekturverarbeitung; und einen Bildverarbeitungsschritt des Korrigierens des Ausgangssignals des Pixels für den Phasendifferenznachweis in dem Bildaufnahmesignal unter Verwendung des durch den Korrekturverfahren-Auswahlschritt ausgewählten Verfahrens.
  7. Programm zum Veranlassen eines Computers, jeden Schritt des Signalverarbeitungsverfahrens nach Anspruch 6 auszuführen.
DE112013006817.6T 2013-03-13 2013-12-20 Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm Active DE112013006817B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013050238 2013-03-13
JP2013-050238 2013-03-13
PCT/JP2013/084314 WO2014141561A1 (ja) 2013-03-13 2013-12-20 撮像装置、信号処理方法、信号処理プログラム

Publications (2)

Publication Number Publication Date
DE112013006817T5 true DE112013006817T5 (de) 2015-12-10
DE112013006817B4 DE112013006817B4 (de) 2022-07-14

Family

ID=51536246

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013006817.6T Active DE112013006817B4 (de) 2013-03-13 2013-12-20 Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm

Country Status (5)

Country Link
US (1) US9491352B2 (de)
JP (2) JP5866478B2 (de)
CN (1) CN105008976B (de)
DE (1) DE112013006817B4 (de)
WO (1) WO2014141561A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5775976B2 (ja) * 2012-11-22 2015-09-09 富士フイルム株式会社 撮像装置、デフォーカス量演算方法、及び撮像光学系
WO2017170724A1 (ja) * 2016-03-31 2017-10-05 株式会社ニコン 撮像装置、レンズ調節装置、および電子機器
US20170367536A1 (en) * 2016-06-22 2017-12-28 Marty Guy Wall Stainless steel food service vessels
CN106101556B (zh) 2016-07-29 2017-10-20 广东欧珀移动通信有限公司 移动终端的图像合成方法、装置及移动终端
US10554877B2 (en) 2016-07-29 2020-02-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image synthesis method and apparatus for mobile terminal, and mobile terminal
US10944929B2 (en) 2016-08-26 2021-03-09 Huawei Technologies Co., Ltd. Imaging apparatus and imaging method
JP6622945B2 (ja) * 2017-03-30 2019-12-18 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム
JP6911136B2 (ja) * 2017-09-28 2021-07-28 富士フイルム株式会社 撮像装置、情報取得方法及び情報取得プログラム
JP6856762B2 (ja) * 2017-09-28 2021-04-14 富士フイルム株式会社 撮像装置、情報取得方法及び情報取得プログラム
CN112740090B (zh) * 2018-07-20 2022-08-12 株式会社尼康 焦点检测装置、拍摄装置以及可更换镜头
US11676255B2 (en) * 2020-08-14 2023-06-13 Optos Plc Image correction for ophthalmic images

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56271A (en) 1979-06-15 1981-01-06 Hitachi Ltd Non-electrolytic copper plating solution
JP2586737B2 (ja) 1993-10-15 1997-03-05 井関農機株式会社 乗用型苗植機
KR100617781B1 (ko) * 2004-06-29 2006-08-28 삼성전자주식회사 이미지 센서의 화질 개선장치 및 방법
JP4453648B2 (ja) * 2005-06-13 2010-04-21 ソニー株式会社 画像処理装置および撮像装置
JP2007019959A (ja) 2005-07-08 2007-01-25 Nikon Corp 撮像装置
JP4770560B2 (ja) 2006-04-11 2011-09-14 株式会社ニコン 撮像装置、カメラおよび画像処理方法
JP4218723B2 (ja) * 2006-10-19 2009-02-04 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP4979482B2 (ja) * 2007-06-28 2012-07-18 オリンパス株式会社 撮像装置及び画像信号処理プログラム
JP4823167B2 (ja) 2007-08-10 2011-11-24 キヤノン株式会社 撮像装置
JP2010030848A (ja) 2008-07-30 2010-02-12 Ohara Inc ガラス
JP5183348B2 (ja) * 2008-08-05 2013-04-17 キヤノン株式会社 撮像装置
JP5371331B2 (ja) * 2008-09-01 2013-12-18 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP5228777B2 (ja) 2008-10-09 2013-07-03 株式会社ニコン 焦点検出装置および撮像装置
JP5662667B2 (ja) 2009-10-08 2015-02-04 キヤノン株式会社 撮像装置
JP5563283B2 (ja) 2009-12-09 2014-07-30 キヤノン株式会社 画像処理装置
JP2011197080A (ja) * 2010-03-17 2011-10-06 Olympus Corp 撮像装置及びカメラ
WO2011136026A1 (ja) * 2010-04-30 2011-11-03 富士フイルム株式会社 撮像装置及び撮像方法
JP2011257565A (ja) * 2010-06-08 2011-12-22 Canon Inc 撮像装置
JP5642433B2 (ja) 2010-06-15 2014-12-17 富士フイルム株式会社 撮像装置及び画像処理方法
JP5670103B2 (ja) * 2010-06-15 2015-02-18 山陽特殊製鋼株式会社 高強度オーステナイト系耐熱鋼
US8970720B2 (en) * 2010-07-26 2015-03-03 Apple Inc. Automatic digital camera photography mode selection
US20120019704A1 (en) * 2010-07-26 2012-01-26 Levey Charles I Automatic digital camera photography mode selection
JP2013013006A (ja) * 2011-06-30 2013-01-17 Nikon Corp 撮像装置、撮像装置の製造方法、画像処理装置、及びプログラム、並びに記録媒体
JP5784395B2 (ja) * 2011-07-13 2015-09-24 オリンパス株式会社 撮像装置
JP5739282B2 (ja) 2011-08-30 2015-06-24 シャープ株式会社 冷蔵庫
US8593564B2 (en) * 2011-09-22 2013-11-26 Apple Inc. Digital camera including refocusable imaging mode adaptor
CN104285435B (zh) * 2012-05-10 2016-09-28 富士胶片株式会社 摄像装置及信号校正方法
JP2014036262A (ja) * 2012-08-07 2014-02-24 Nikon Corp 撮像装置
JP2016005050A (ja) * 2014-06-16 2016-01-12 キヤノン株式会社 レンズ装置および撮像装置
JP6600170B2 (ja) * 2014-07-07 2019-10-30 キヤノン株式会社 撮像素子及びその制御方法並びに撮像装置

Also Published As

Publication number Publication date
US9491352B2 (en) 2016-11-08
CN105008976A (zh) 2015-10-28
WO2014141561A1 (ja) 2014-09-18
JP6031587B2 (ja) 2016-11-24
US20160014327A1 (en) 2016-01-14
CN105008976B (zh) 2017-07-11
JPWO2014141561A1 (ja) 2017-02-16
JP5866478B2 (ja) 2016-02-17
JP2016076998A (ja) 2016-05-12
DE112013006817B4 (de) 2022-07-14

Similar Documents

Publication Publication Date Title
DE112013006817B4 (de) Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm
DE112014006009B4 (de) Bildaufnahmegerät und Zeitraffer-Bildaufnahmeverfahren
DE112013002286B4 (de) Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung
DE112015006383B4 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
DE112013005594T5 (de) Abbildungsvorrichtung, Unschärfebetrag-Berechnungsverfahren und Objektivvorrichtung
DE102016102111A1 (de) Bildsensor und bildgebende Vorrichtung mit demselben
DE112013006814T5 (de) Bildbeurteilungseinrichtung, Aufnahmegerät, 3D-Messgerät, Bildbeurteilungsverfahren und Programm
DE112013006596B4 (de) Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren und Programm
US20210075954A1 (en) All-in-focus implementation
DE202020005678U1 (de) Integriertes sensoroptisches Komponentenzubehörteil für Bildaufnahmevorrichtung
DE112013005599B4 (de) Bildaufnahmevorrichtung
DE102016105879A1 (de) Anzeigesteuerungsvorrichtung und Steuerungsverfahren für diese
DE112013004507T5 (de) Bildverarbeitungsvorrichtung, Bilderfassungsvorrichtung, Bildverarbeitungsverfahren, Programm und Aufzeichnungsmedium
DE112017004073B4 (de) Objektivvorrichtung, kamerasystem und linsenantriebsverfahren
CN104205827B (zh) 图像处理装置及方法、以及摄像装置
DE112015006245B4 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
DE112017004624B4 (de) Bildaufnahmevorrichtung und Bildaufnahmesteuerverfahren
CN104871058A (zh) 图像处理装置、摄像装置、图像处理方法及图像处理程序
DE102010023108A1 (de) Projektor mit automatischer Fokussierung und Abbildungsverfahren
CN105493493A (zh) 摄像装置、摄像方法及图像处理装置
CN104272732B (zh) 图像处理装置、方法及摄像装置
DE112014004092T5 (de) Bildaufnahmevorrichtung und Fokussiersteuerverfahren
CN104885440A (zh) 图像处理装置、摄像装置、图像处理方法及图像处理程序
DE112013004759B4 (de) Bildaufnahmevorrichtung und Bildverarbeitungsverfahren
CN104903769B (zh) 图像处理装置、摄像装置及图像处理方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G02B0007280000

Ipc: H04N0005232000

R082 Change of representative

Representative=s name: KSNH PATENTANWAELTE KLUNKER/SCHMITT-NILSON/HIR, DE

Representative=s name: KLUNKER IP PATENTANWAELTE PARTG MBB, DE

R082 Change of representative

Representative=s name: KLUNKER IP PATENTANWAELTE PARTG MBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000

R020 Patent grant now final