DE112013002286B4 - Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung - Google Patents

Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung Download PDF

Info

Publication number
DE112013002286B4
DE112013002286B4 DE112013002286.9T DE112013002286T DE112013002286B4 DE 112013002286 B4 DE112013002286 B4 DE 112013002286B4 DE 112013002286 T DE112013002286 T DE 112013002286T DE 112013002286 B4 DE112013002286 B4 DE 112013002286B4
Authority
DE
Germany
Prior art keywords
phase difference
image pickup
difference detection
detection pixel
pixel cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112013002286.9T
Other languages
English (en)
Other versions
DE112013002286T5 (de
Inventor
Takashi Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE112013002286T5 publication Critical patent/DE112013002286T5/de
Application granted granted Critical
Publication of DE112013002286B4 publication Critical patent/DE112013002286B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout

Abstract

Bildaufnahmevorrichtung für eine Digitalkamera, enthaltend: (a) eine Systemsteuereinheit (11) der Bildaufnahmevorrichtung; (b) eine optische Fotografier-Linse (1); (c) ein Bildaufnahmeelement (5) zum Ausgeben eines mittels der optischen Fotografier-Linse (1) aufgenommen Bilds, wobei (c1) das Bildaufnahmeelement (5) in seinem Zentrum eine Vielzahl von gitterförmig angeordneten Fokussierbereichen (50) aufweist, (c2) in jedem Fokussierbereich (50) des Bildaufnahmeelements (5) eine Vielzahl von Bildaufnahme-Pixelzellen (30) und eine Vielzahl von Paaren erster Phasendifferenzerkennungs-Pixelzellen (31L) und zweiter Phasendifferenzerkennungs-Pixelzellen (31R) vorgesehen sind, wobei bei den ersten Phasendifferenzerkennungs-Pixelzellen (31L) eine Öffnung einer fotoelektrischen Wandlereinheit im Vergleich zu den Bildaufnahme-Pixelzellen (30) nach links versetzt ist und wobei bei den zweiten Phasendifferenzerkennungs-Pixelzellen (31R) eine Öffnung einer fotoelektrischen Wandlereinheit im Vergleich zu den Bildaufnahme-Pixelzellen (30) nach rechts versetzt ist, (c3) jedes Paar einer ersten Phasendifferenzerkennungs-Pixelzelle (31L) und einer zweiten Phasendifferenzerkennungs-Pixelzelle (31R) Lichtströme erfasst, die durch unterschiedliche Pupillenbereiche der optischen Fotografier-Linse (1) hindurchtreten, und entsprechend eine erste Signalgruppe der ersten Phasendifferenzerkennungs-Pixelzelle (31L) und eine zweite Signalgruppe der zweiten Phasendifferenzerkennungs-Pixelzelle (31R) ausgibt; (d) eine erste Berechnungseinheit (19) zum (d1) Berechnen eines ersten Fokussiereinstellungszustands der optischen Fotografier-Linse (1) als Betrag und Richtung einer Abweichung gegenüber dem Fokuszustand, durch Ausführen von Korrelationsoperationen zwischen den ersten Signalgruppen und den zweiten Signalgruppen eines ersten Fokussierbereichs (50A) aus der Vielzahl der Fokussierbereiche des Bildaufnahmeelements (5), (d2) Bestimmen der Zuverlässigkeit des ersten Fokussiereinstellungszustands anhand einer Intensität eines Kontrasts des aufgenommenen Bildsignals, und (d3) Übermitteln des ersten Fokussiereinstellungszustands an die Systemsteuereinheit (11) wenn die Zuverlässigkeit des ersten Fokussiereinstellungszustands größer als ein Schwellenwert ist; (e) eine zweite Berechnungseinheit (19) zum ...

Description

  • Die vorliegende Erfindung betrifft eine Bildaufahmevorrichtung und ein Verfahren zur Fokussierungssteuerung für eine Digitalkamera.
  • In WO 2011/136031 A1 ist ein Bildaufnahmegerät beschrieben. Hierbei detektiert eine automatische Fokussierangleicheinheit die Phasendifferenz zwischen Spannungssignalen erster und zweiter Pixel, und gleicht dann automatisch den Fokus des Bildgebungssystems auf der Grundlage der Phasendifferenz an.
  • In US 2013/0100338 A1 ist ebenso ein Bildaufnahmegerät beschrieben. Hier sind eine Vielzahl von Pixeln mit einem ersten und einem zweiten Pixel in einer zweidimensionalen Weise angeordnet. Das erste Pixel empfängt Licht auf einer Teilfläche entlang einer vorgegebenen Richtung gegenüber einer Lichtachse eines Lichtflusses eines optischen Bildgebungssystems. Das erste Pixel ist mit vorgegebenem Intervall gemäß einer vorgegebenen Anzahl von Pixeln angeordnet. Das zweite Pixel ist angrenzend zu dem ersten Pixel angeordnet und empfängt Licht über eine Teilfläche, die im Vergleich zu dem ersten Pixel zu einer entgegengesetzten Richtung angeordnet ist. Eine automatische Fokussierangleicheinheit detektiert eine Phasendifferenz zwischen einem Spannungssignal des ersten Pixels und einem Spannungssignal des zweiten Pixels für ein automatisches Ausführen eines Fokusangleichvorgangs.
  • In US 2011/0298963 A1 ist wiederum ein Bildaufnahmegerät beschrieben. Dieses enthält ein Bildgebungssystem, eine Defokus-Umfangsberechnungsschaltung zum Kalkulieren eines Defokusumfangs auf der Grundlage einer Phasendifferenz zwischen einer Vielzahl von Signalen für die Fokusdetektion, erhalten anhand einer Vielzahl der Pixel für die Fokusdetektion, die jeweils einen Lichtfluss empfangen, der durch das optische Bildgebungssystem hindurch tritt. Ferner ist ein Fokussierabschnitt vorgesehen, zum Antreiben des optischen Bildgebungssystems zum Erzielen eines In-Fokus-Zustands gemäß einem berechneten Defokusumfang. Eine Ausdünnschaltung dient zum Ausdünnen einer Vielzahl von Signalen für die Fokusdetektion, die nicht für das Berechnen des Defokusumfangs verwendet werden.
  • In JP 2008-199477 A ist ebenfalls ein Bildgebungsgerät beschrieben. Ein Bereichmessgebiet wird bei einem Bildgebungsgerät mit der Fähigkeit zum Auslesen von Pixeln festgelegt, angeordnet in zwei Dimensionen des Bildgebungsgebiets gemäß Pixeleinheiten, und ein Bild für eine Bereichsmessung wird auf dem Bereichmessgebiet ausgelesen. Es erfolgt ein Ausdünnen gemäß einer vorgegebenen Ausdünnrate zum Berechnen eines Autofokus-Bewertungswertes. In der verbleibenden Zeit nach einem schnellen Auslesen eines Hauptbildes eines einzelnen Rahmens wird das Bild für die Bereichsmessung ausgelesen, und eine Fokuslinse bewegt, auf der Grundlage des Autofokus-Bewertungswertes zum Ausführen einer Autofokussteuerung.
  • In letzter Zeit, da die Auflösung eines Festkörper-Bildaufnahmeelements wie beispielsweise ein ladungsgekoppeltes-Element(Charge Coupled Device-CCD)-Bildaufnahmesensor und ein ergänzender-Metalloxid-Halbleiter(Complementary Metal Oxide Semiconductor-CMOS)-Bildaufnahmesensor höher wird, erhöht sich eine Nachfrage nach einer Informationsvorrichtung rapide, welche eine Bildaufnahmefunktion umfasst, wie beispielsweise eine digitale Einzelbildkamera, eine digitale Videokamera, ein Mobiltelefon und ein persönlicher digitaler Assistent (Personal Digital Assistant-PDA). Mittlerweile wird die Informationsvorrichtung mit einer wie oben beschriebenen Bildaufnahmefunktion als eine Bildaufnahmevorrichtung bezeichnet.
  • Allerdings umfasst ein Verfahren zur Fokussierungssteuerung, welche auf einen Hauptgegenstand fokussiert, ein Kontrast-Autofokussierungs(AF)-Verfahren und ein Phasendifferenz-AF-Verfahren. Da das Phasendifferenz-AF-Verfahren eine Fokussierungsposition im Vergleich zu einem Kontrast-AF-Verfahren mit einer hohen Genauigkeit bei einer hohen Geschwindigkeit erkennen kann, wird das Phasendifferenz-AF-Verfahren weithin in zahlreichen Bildaufnahmevorrichtungen verwendet, siehe zum Beispiel JP H11-258492 A .
  • In dem Phasendifferenz-AF-Verfahren wird im Allgemeinen eine Phasendifferenz (ein abgewichener Betrag eines Bildes) durch Ausführen einer Korrelationsoperation unter Verwendung einer Signalausgabe von einem photoelektrischen Wandlerelement zur Phasendifferenzerkennung in einem festen Bereich des Festkörper-Bildaufnahmeelements erkannt. Allerdings, wenn ein Bereich festgelegt ist, in welchem ein Signal zur Phasendifferenzerkennung erhalten wird, kann eine Phasendifferenz nicht präzise erkannt werden, falls ein Kontrast eines Gegenstands gering ist.
  • Daher beschreibt JP H11-258492 A ein Verfahren, welches einen Bereich erweitert, in welchem ein Signal zur Phasendifferenzerkennung erhalten wird, um eine Genauigkeit einer Phasendifferenzerkennung zu verbessern, wenn ein Kontrast eines Gegenstands gering ist.
  • Insbesondere beschreibt JP H11-258492 A auch ein k Verfahren, welches, wenn ein erster Fokus erkannt wird, eine Korrelationsoperation ausführt, bei der ein Abstand eines Signals zur Phasendifferenzerkennung, welches für die Korrelationsoperation verwendet wird, auf einen halben Pixelabstand des photoelektrischen Wandlerelements gesetzt ist, und grob einen Fokus durch Einstellen einer Phasendifferenz mit einer niedrigen Genauigkeit einstellt und danach die Korrelationsoperation ausführt, bei der ein Abstand des Signals zur Phasendifferenzerkennung, welches für die Korrelationsoperation verwendet wird, auf gleich dem Pixelabstand des photoelektrischen Wandlerelements gesetzt ist, um die Phasendifferenz mit hoher Genauigkeit zu erkennen.
  • Wie in JP H11-258492 A beschrieben wird, wenn als ein Ergebnis der Korrelationsoperation die Phasendifferenz aufgrund eines geringen Kontrasts des Gegenstandes nicht erkannt wird, eine Zielregion einer Phasendifferenzerkennung erweitert, um die Korrelationsoperation erneut auszuführen, so dass von dem erweiterten Bereich erhaltene Signale für eine Phasendifferenzerkennung im Vergleich zu der ersten Korrelationsoperation vergrößert werden. Daher braucht es viel Zeit, wenn alle Signale für eine Phasendifferenzerkennung verwendet werden um die allgemeine Korrelationsoperation auszuführen, um eine Phasendifferenz zu erkennen.
  • Daher kann, wenn ein Verfahren zum Verschachteln von aus dem auszulesenden erweiterten Bereich erhaltenen Signalen für eine Phasendifferenzerkennung angewendet wird, eine Zeit für eine Korrelationsoperation verkürzt werden. Allerdings wird, wenn die Signale für eine Phasendifferenzerkennung verschachtelt sind, eine Genauigkeit einer Phasendifferenzerkennung verringert.
  • JP H11-258492 A beschreibt kein Verfahren zum Erhöhen einer Geschwindigkeit der Phasendifferenz-AF in einem Verfahren, welches die Korrelationsoperation zweimal ausführt und den Zielbereich einer Phasendifferenzerkennung in einer zweiten Korrelationsoperation erweitert.
  • Die vorliegende Erfindung stellt eine Bildaufnahmevorrichtung für eine Digitalkamera mit den Merkmalen des Patentanspruchs 1 bereit.
  • Die vorliegende Erfindung stellt zudem ein Verfahren zur Fokussierungssteuerung einer Bildaufnahmevorrichtung mit den Merkmalen des Patentanspruchs 6 bereit.
  • Entsprechend der vorliegenden Erfindung kann ein Bildaufnahmesystem und ein Verfahren zur Fokussierungssteuerung bereitgestellt werden, welche eine Phasendifferenz-AF mit einer hohen Genauigkeit und mit einer hohen Geschwindigkeit ausführen kann.
  • Es folgt eine kurze Beschreibung der Figuren.
  • 1 ist ein Diagramm, welches eine schematische Konfiguration einer Digitalkamera, welche ein Beispiel einer Bildaufnahmevorrichtung ist, zur Erläuterung einer ersten Ausführungsform der vorliegenden Erfindung darstellt.
  • 2 ist eine schematische Draufsicht, welche eine partielle Konfiguration eines Festkörper-Bildaufnahmeelements 5 darstellt, welche in der in 1 dargestellten Digitalkamera angeordnet ist.
  • 3 ist eine schematische Draufsicht, welche ein Festkörper-Bildaufnahmeelement 5 in der in 1 dargestellten Digitalkamera darstellt.
  • 4 ist ein Flussdiagramm, welches ein Verfahren zur Fokussierungssteuerung durch die in 1 dargestellte Digitalkamera erläutert.
  • 5 ist eine Ansicht, welche ein Verfahren zur Fokussierungssteuerung durch die in 1 dargestellte Digitalkamera erläutert.
  • 6 ist eine Ansicht, welche ein Verfahren zur Fokussierungssteuerung durch die in 1 dargestellte Digitalkamera erläutert.
  • 7 ist eine vergrößerte Ansicht eines Bereichs, welcher die in 6 dargestellten Bereiche 50A, 50B und 50C umfasst.
  • 8 ist ein Flussdiagramm, welches eine veränderte Ausführungsform eines Betriebs der in 1 dargestellten Digitalkamera erläutert.
  • 9 ist eine Ansicht, welche eine veränderte Ausführungsform eines Betriebs der in 1 dargestellten Digitalkamera erläutert.
  • 10 ist eine Ansicht, welche eine Konfiguration eines Smartphones als eine Bildaufnahmevorrichtung darstellt.
  • 11 ist ein Blockdiagramm, welches eine interne Konfiguration des in 10 dargestellten Smartphones darstellt.
  • Im Folgenden wird eine Ausführungsform der vorliegenden Erfindung mit Bezug zu den Figuren beschrieben werden.
  • 1 ist ein Diagramm, welches eine schematische Konfiguration einer Digitalkamera als ein Beispiel einer Bildaufnahmevorrichtung zur Erläuterung einer ersten Ausführungsform der vorliegenden Erfindung darstellt.
  • Ein Bildaufnahmesystem einer in 1 dargestellten Digitalkamera umfasst eine Fotografier-Linse 1 als ein optisches Fotografiersystem, ein Festkörper-Bildaufnahmeelement 5 wie beispielsweise einen CCD-Bildaufnahmesensor oder einen CMOS-Bildaufnahmesensor, eine dazwischen vorgesehene Blende 2, einen Infrarot-Passfilter (IRCUT) 3 und einen optischen Tiefpassfilter (Optical Low Pass Filter-OLPF) 4.
  • Eine Systemsteuereinheit 11, welche ein gesamtes elektrisches Steuersystem der Digitalkamera steuert, steuert eine Blitzlicht-Emmissionseinheit 12 und eine Licht-Empfangseinheit 13. Weiter steuert die Systemsteuereinheit 11 eine Linsenbetriebseinheit 8 zum Einstellen einer Position einer Fokuslinse, welche in der Fotografier-Linse 1 umfasst ist, oder eine Position einer Vergrößerungslinse, welche in der Fotografier-Linse 1 umfasst ist. Darüber hinaus steuert die Systemsteuereinheit 11 eine Öffnungsgröße der Blende 2 durch eine Blendenbetriebseinheit 9, um einen Belichtungsbetrag einzustellen.
  • Weiter betreibt die Systemsteuereinheit 11 das Festkörper-Bildaufnahmeelement 5 durch eine Bildaufnahmeelement-Betriebseinheit 10, um ein durch die Fotografier-Linse 1 als ein aufgenommenes Bildsignal aufgenommenes Bild eines Gegenstands auszugeben. Ein Anweisungssignal von einem Benutzer wird in die Systemsteuereinheit 11 durch eine Betriebseinheit 14 eingegeben.
  • Das elektrische Steuersystem der Digitalkamera umfasst weiter eine mit einem Ausgang des Festkörper-Bildaufnahmeelements 5 verbundene Analogsignal-Verarbeitungseinheit 6, um eine analog Signalverarbeitung wie beispielsweise eine korrelierte doppelte Abtastungsverarbeitung auszuführen, und einen A/D (analog/digital) Wandlerschaltkreis 7, welcher ein von der Analogsignal-Verarbeitungseinheit 6 ausgegebenes RGB Farbsignal in ein digitales Signal umwandelt. Die Analogsignal-Verarbeitungseinheit 6 und der A/D Wandlerschaltkreis 7 werden durch die Systemsteuereinheit 11 gesteuert. Wenn das Festkörper-Bildaufnahmeelement 5 ein CMOS-Bildaufnahmesensor ist, können die Analogsignal-Verarbeitungseinheit 6 und der A/D Wandlerschaltkreis 7 in dem Festkörper-Bildaufnahmeelement 5 angeordnet sein.
  • Darüber hinaus umfasst das elektrische Steuersystem der Digitalkamera einen Hauptspeicher 16, eine Speichersteuereinheit 15, welche mit dem Hauptspeicher 16 verbunden ist, eine Digitalsignal-Verarbeitungseinheit 17, welche eine Interpolationsoperation, eine Gammakorrekturoperation und eine RGB/Y C-Wandlungsverarbeitung, um Daten eines fotografierten Bildes zu erzeugen, ausführt, eine Kompressions- und Expansions-Verarbeitungseinheit 18, welche die in der Digitalsignal-Verarbeitungseinheit 17 erzeugten Daten eines fotografierten Bildes in ein JPEG-Format komprimiert oder die komprimierten Bilddaten expandiert, eine Phasendifferenz-Erkennungseinheit 19, welche einen Defokussierungsbetrag berechnet, unter Verwendung eines von einer in dem Festkörper-Bildaufnahmeelement 5 umfassten Pixelzelle für eine Phasendifferenzerkennung ausgegebenen Bildaufnahmesignals, eine Externe-Speicher-Steuereinheit 20, mit welcher ein abnehmbares Speichermedium 21 verbunden ist, und eine Anzeigesteuereinheit 22, mit welcher eine auf einer Rückseite einer Kamera angeordnete Anzeigeeinheit 23 verbunden ist. Die Speicher Steuereinheit 15, die Digitalsignal-Verarbeitungseinheit 17, die Kompressions- und Expansions-Verarbeitungseinheit 18, die Phasendifferenz-Erkennungseinheit 19, die Externe-Speicher-Steuereinheit 20 und die Anzeigesteuereinheit 22 sind miteinander über einen Steueranschluss 24 und einen Datenanschluss 25 verbunden, um durch einen Befehl von der Systemsteuereinheit 11 gesteuert zu werden.
  • 2 ist eine schematische Draufsicht, welche eine partielle Konfiguration eines Festkörper-Bildaufnahmeelements 5 darstellt, welches in der in 1 dargestellten Digitalkamera angeordnet ist.
  • Das Festkörper-Bildaufnahmeelement 5 umfasst eine Vielzahl von Pixelzellen 51 (quadratische Formen in der Zeichnung), welche zweidimensional (in einer quadratischen Gitterform in einem Beispiel aus 2) in einer Reihenrichtung X und einer Spaltenrichtung Y orthogonal zu der Reihenrichtung angeordnet sind. Die Vielzahl der Pixelzellen wird gebildet, so dass eine Vielzahl von Pixelzellen umfassende Pixelzellen-Reihen, welche parallel in der Reihenrichtung X mit einem konstanten Abstand angeordnet sind, in der Spaltenrichtung Y mit einem konstanten Abstand angeordnet sind. Die Vielzahl von Pixelzellen umfasst eine Bildaufnahme-Pixelzelle 30, eine Phasendifferenzerkennung-Pixelzelle 31L und eine Phasendifferenzerkennung-Pixelzelle 31R.
  • Die Bildaufnahme-Pixelzelle 30 ist eine Pixelzelle, welche beide eines Paares von Lichtkomponenten (beispielsweise eine Lichtkomponente, welche durch eine linke Seite mit Bezug zu einer Hauptachse der Fotografier-Linse 1 hindurch tritt, und eine Lichtkomponente, welche durch eine rechte Seite hindurch tritt) empfängt, welche durch unterschiedliche Pupillenbereiche der in 1 dargestellten Fotografier-Linse 1 hindurch tritt.
  • Die Phasendifferenzerkennung-Pixelzelle 31L ist eine Pixelzelle, welche eine aus dem Paar von Lichtkomponenten empfängt und eine Konfiguration aufweist, bei welcher eine Öffnung (ein Bereich, welcher nicht schraffiert ist) einer fotoelektrischen Wandlereinheit im Vergleich zu der Bildaufnahme-Pixelzelle 30 nach links versetzt ist.
  • Die Phasendifferenzerkennung-Pixelzelle 31R ist eine Pixelzelle, welche die andere des Paares der Lichtkomponenten erhält und eine Konfiguration aufweist, bei welcher eine Öffnung (ein Bereich, welche nicht schraffiert ist) der fotoelektrischen Wandlereinheit im Vergleich zu der Bildaufnahme-Pixelzelle 30 nach rechts versetzt ist.
  • Ein Farbfilter ist oberhalb der fotoelektrischen Wandlereinheit angeordnet, welche in der Pixelzelle umfasst ist und wobei die Anordnung der Farbfilter eine Beyer-Anordnung für alle der Vielzahl von Pixelzellen ist, welche das Festkörper-Bildaufnahmeelement 5 bilden.
  • In 2 bezeichnet „R” eine Pixelzelle, bei welcher ein Farbfilter angebracht ist, welcher eine rote (R) Lichtkomponente transmittiert. Weiter bezeichnet „G” eine Pixelzelle, bei welcher ein Farbfilter angebracht ist, welcher eine grüne (G) Lichtkomponente transmittiert. Weiter bezeichnet „B” eine Pixelzelle, bei welcher ein Farbfilter angebracht ist, welcher eine blaue (B) Lichtkomponente transmittiert.
  • Die Phasendifferenzerkennung-Pixelzellen 31L sind in einer Position der Pixelzelle angeordnet, auf welcher der Farbfilter, welcher die grüne G Lichtkomponente transmittiert, in Drei-Pixelzellen-Intervallen angebracht ist, in einer dritten Pixelzell-Reihe von oben in 2.
  • Die Phasendifferenzerkennung-Pixelzellen 31R sind in einer Position der Pixelzelle angeordnet, auf welcher der Farbfilter, welcher die grüne G Lichtkomponente transmittiert, in Drei-Pixelzellen-Intervallen angebracht ist, in einer vierten Pixelzell-Reihe von oben in 2.
  • Die Phasendifferenzerkennung-Pixelzelle 31L und die Phasendifferenzerkennung-Pixelzelle 31R, welche sich in der gleichen Richtung in der Reihenrichtung X von einem Paar befinden, und das Festkörper-Bildaufnahmeelement 5 weisen eine Konfiguration auf, bei welcher eine Vielzahl von Paaren gebildet wird.
  • 3 ist eine schematische Draufsicht, welche ein Festkörper-Bildaufnahmeelement 5 in der in 1 dargestellten Digitalkamera darstellt.
  • Eine Vielzahl von Bereichen 50, welche in einer Gitterform in einem Zentrum des Festkörper-Bildaufnahmeelements 5 angeordnet sind, korrespondiert zu einem die Phasendifferenzerkennung-Pixelzelle 31L und die Phasendifferenzerkennung-Pixelzelle 31R umfassenden Bereich. In jeder der Vielzahl von Bereichen 50 sind die Bildaufnahme-Pixelzelle 30, die Phasendifferenzerkennung-Pixeizelle 31L und die Phasendifferenzerkennung-Pixelzelle 31R wie in 2 dargestellt angeordnet. in anderen Bereichen mit Ausnahme von den Bereich 50 sind nur die Bildaufnahme-Pixelzellen 30 angeordnet.
  • Ein Benutzer der Digitalkamera kann zumindest eine von der Vielzahl von Bereichen 50 auswählen, um einen Fokus in einem Bereich des Gegenstands einzustellen, von welchem ein Bild auf dem ausgewählten Bereich 50 gebildet wird.
  • Die in 1 dargestellte Phasendifferenz-Erkennungseinheit 19 berechnet einen Fokuseinstellungszustand der Fotografier-Linse 1, welcher ein Betrag ist, um welchen von dem Fokuszustand und von einer Richtung davon abgewichen wird, in diesem Fall heißt das, ein Defokussierungsbetrag, welcher eine von der Phasendifferenzerkennung-Pixelzelle 31L und der Phasendifferenzerkennung-Pixelzelle 31R ausgelesene Signalgruppe verwendet. Die Phasendifferenz-Erkennungseinheit 19 fungiert als eine erste Berechnungseinheit eines Defokussierungsbetrags und eine zweite Berechnungseinheit eines Defokussierungsbetrags, welche den Defokussierungsbetrag berechnen.
  • Die in 1 dargestellte Systemsteuereinheit 11 steuert basierend auf dem durch die Phasendifferenz-Erkennungseinheit 19 berechneten Defokussierungsbetrag eine Position einer Fokuslinse, welche in der Fotografier-Linse 1 umfasst ist. Die Systemsteuereinheit 11 fungiert als eine Fokussteuereinheit, welche einen Fokuszustand des optischen Bildaufnahmesystems steuert.
  • Als Nächstes wird ein Verfahren zur Fokussierungssteuerung durch die in 1 dargestellte Digitalkamera beschrieben werden. 4 ist ein Flussdiagramm, welches ein Verfahren zur Fokussierungssteuerung durch die in 1 dargestellte Digitalkamera erläutert.
  • In einem Zustand, wenn ein Bereich 50A (siehe 5) aus der Vielzahl der in 3 dargestellten Bereiche 50 als eine Zielregion einer Phasendifferenzerkennung durch einen Benutzer eingestellt wird, wenn eine AF-Anweisung ausgegeben wird, betreibt die Systemsteuereinheit 11 das Festkörper-Bildaufnahmeelement 5 durch die Bildaufnahmeelement-Betriebseinheit 10, um ein Bildaufnahmesignal von den in dem Festkörper-Bildaufnahmeelement 5 umfassten Phasendifferenzerkennung-Pixelzellen 31R und 31L auszulesen. Weiter erhält die Phasendifferenz-Erkennungseinheit 19 das Bildaufnahmesignal, welches von den Phasendifferenzerkennung-Pixelzellen 31R und 31L in dem Bereich 50A ausgelesen wird, aus den Auslese-Bildaufnahmesignalen in Schritt S1.
  • Als Nächstes führt die Phasendifferenz-Erkennungseinheit 19 eine Korrelationsoperation an der aus dem Phasendifferenzerkennung-Pixel 31L ausgelesenen ersten Signalgruppe und der aus dem Phasendifferenzerkennung-Pixel 31R ausgelesenen zweiten Signalgruppe aus den erhaltenen Bildaufnahmesignalen aus, um eine Phasendifferenz der ersten Signalgruppe und der zweiten Signalgruppe zu erkennen. Weiter berechnet die Phasendifferenz-Erkennungseinheit 19 den Defokussierungsbetrag basierend auf der erkannten Phasendifferenz in Schritt S2.
  • Nach Schritt S2 bestimmt die Phasendifferenz-Erkennungseinheit 19 eine Zuverlässigkeit des berechneten Defokussierungsbetrags in Schritt S3. Die Zuverlässigkeit wird durch eine Intensität des Kontrasts des aufgenommenen Bildsignals bestimmt.
  • Wenn die Zuverlässigkeit des berechneten Defokussierungsbetrags hoch ist (Ja in Schritt S3), übermittelt die Phasendifferenz-Erkennungseinheit 19 den in Schritt S2 berechneten Defokussierungsbetrag an die Systemsteuereinheit 11. Die Systemsteuereinheit 11 treibt die Fotografier-Linse 1 in einer optischen Achsrichtung so viel wie den erhaltenen Defokussierungsbetrag vor, um den Fokuszustand in Schritt S8 zu erreichen.
  • Wenn die Zuverlässigkeit des Defokussierungsbetrags gering ist (Nein in Schritt S3), erweitert die Phasendifferenz-Erkennungseinheit 19 einem Bereich des Phasendifferenzerkennungsziels. Insbesondere stellt die Phasendifferenz-Erkennungseinheit 19, wie in 6 dargestellt, einen Bereich, welcher einen vorbestimmten Bereich 50A und zwei Bereiche 50B und 50C umfasst, welche benachbart dazu sind, als einen Bereich des Phasendifferenzerkennungsziels ein. Dabei kann ein Bereich, welcher den Bereich 50A umfasst und ebenso größer als der Bereich 50A ist, als der Bereich des Phasendifferenzerkennungsziels eingestellt werden.
  • Wenn der Bereich des Phasendifferenzerkennungsziels eingestellt ist, betreibt die Systemsteuereinheit 11 das Festkörper-Bildaufnahmeelement 5 durch die Bildaufnahmeelement-Betriebseinheit 10, um die Bildaufnahmesignale von den Phasendifferenzerkennung-Pixelzellen 31R und 31L erneut auszulesen. Weiter erhält die Phasendifferenz-Erkennungseinheit 19 das Bildaufnahmesignal, welches von den Phasendifferenzerkennung-Pixelzellen 31R und 31L in einem die Bereiche 50A, 50B und 50C umfassenden Bereich ausgelesen wird, aus dem Auslese-Bildaufnahmesignalen in Schritt S4.
  • 7 ist eine vergrößerte Ansicht eines die Bereiche 50A, 50B und 50C umfassenden in 6 dargestellten Bereichs. Obwohl dies für die Zweckmäßigkeit einer Beschreibung vereinfacht ist, wird tatsächlich eine Vielzahl von Phasendifferenzerkennung-Pixelzellen, so häufig wie die Korrelationsoperation ausgeführt werden kann, in jedem Bereich angeordnet. In Schritt S4 erhält die Phasendifferenz-Erkennungseinheit 19 von in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31R und zwölf Phasendifferenzerkennung-Pixelzellen 31L ausgelesene Bildaufnahmesignale.
  • Als Nächstes führt die Phasendifferenz-Erkennungseinheit 19 eine Korrelationsoperation an einer Hälfte der von den in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31R ausgelesenen Bildaufnahmesignalen und an einer Hälfte der von den in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31L ausgelesenen Bildaufnahmesignalen in Schritt S5 aus.
  • Insbesondere führt die Phasendifferenz-Erkennungseinheit 19 die Korrelationsoperation an einer Signalgruppe, welche von sechs Phasendifferenzerkennung-Pixelzellen 31R ausgelesen wurden (die Phasendifferenzerkennung-Pixelzellen 31R in einem durch eine durchgezogene Linie umschlossenen Bereich in 7), in ungeradzahligen Spalten in der Anordnung der zwölf Phasendifferenzerkennung-Pixelzellen 31R und einer Signalgruppe, welche von sechs Phasendifferenzerkennung-Pixelzellen 31L ausgelesen wurden (die Phasendifferenzerkennung-Pixelzellen 31L in einem durch eine durchgezogene Linie umschlossenen Bereich in 7) in ungeradzahligen Spalten in der Anordnung der zwölf Phasendifferenzerkennung-Pixelzellen 31L.
  • Als Nächstes führt die Phasendifferenz-Erkennungseinheit 19 eine Korrelationsoperation an der anderen Hälfte der von den in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31R ausgelesenen Bildaufnahmesignalen und der anderen Hälfte der von den in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31L ausgelesenen Bildaufnahmesignalen in Schritt S6 aus.
  • Insbesondere führt die Phasendifferenz-Erkennungseinheit 19 die Korrelationsoperation mit einer Signalgruppe, welche von sechs Phasendifferenzerkennung-Pixelzellen 31R (die Phasendifferenzerkennung-Pixelzellen 31R in einem durch eine unterbrochene Linie eingeschlossen Bereich in 7) ausgelesenen wurde, in einer geradzahligen Spalte in der Anordnung der zwölf Phasendifferenzerkennung-Pixelzellen 31R und einer Signalgruppe, welche von sechs Phasendifferenzerkennung-Pixelzellen 31L (die Phasendifferenzerkennung-Pixelzellen 31L in einem durch eine unterbrochene Linie eingeschlossenen Bereich in 7) in einer geradzahligen Spalte in der Anordnung der zwölf Phasendifferenzerkennung-Pixelzellen 31L aus.
  • Als Nächstes berechnet unter Verwendung des Korrelationsoperationsergebnisses in Schritt S5 und des Korrelationsoperationsergebnisses in Schritt S6 die Phasendifferenz-Erkennungseinheit 19 den Defokussierungsbetrag und übermittelt den berechneten Defokussierungsbetrag an die Systemsteuereinheit 11 in Schritt S7.
  • Beispielsweise berechnet die Phasendifferenz-Erkennungseinheit 19 den Defokussierungsbetrag aus der durch die Korrelationsoperation in Schritt S5 erhaltenen Phasendifferenz und den Defokussierungsbetrag aus der durch die Korrelationsoperation in Schritt S6 erhaltenen Phasendifferenz und berechnet einen Durchschnitt der zwei Entfokussierungsbeträge als einen endgültigen Defokussierungsbetrag und übermittelt den Defokussierungsbetrag an die Systemsteuereinheit 11.
  • Alternativ definiert die Phasendifferenz-Erkennungseinheit 19 die Korrelationsoperations-Gleichung S(α) durch die folgende Gleichung (1) oder (2), wenn zwei Signalgruppen, welche das Phasendifferenzerkennungsziel werden, durch die Funktionen F(x + α) und g(x) dargestellt werden. S(α) = ∫|f(x + α) – g(x)|dx (1) S(α) = ∫(f(x + α) – g(x))2dx (2)
  • Hierbei bezeichnet Alpha einen abweichenden Betrag von zwei Signalen Gruppen.
  • Die Phasendifferenz-Erkennungseinheit 19 erzeugt durch die Korrelationsoperation aus Gleichung (1) oder Gleichung (2) entsprechend in den Schritten S5 und S6 Korrelationsoperations-Kurven mit α als einer Querachse und S(α) als einer Vertikalachse. Die Phasendifferenz-Erkennungseinheit 19 fügt die zwei erzeugten Korrelationsoperations-Kurven hinzu und berechnet ein α, bei welchem ein Wert von S(α) in der hinzugefügten Korrelationskurve minimal wird, als den Defokussierungsbetrag und übermittelt den Defokussierungsbetrag an die Systemsteuereinheit 11.
  • Nach dem Schritt S7 treibt die Systemsteuereinheit 11 die Fotografier-Linse 1 in eine optische Achsrichtung soviel wie den erhaltenen Defokussierungsbetrag vor, um den Fokuszustand im Schritt S8 zu erreichen.
  • Wie oben beschrieben, entsprechend der in 1 dargestellten Digitalkamera wird, selbst wenn der Defokussierungsbetrag nicht mit einer hohen Zuverlässigkeit nur in dem Bereich 50A berechnet werden kann, der Defokussierungsbetrag durch ein Erweitern des Bereichs des Phasendifferenzerkennungsziels neu berechnet, so dass ein Defokussierungsbetrag mit einer hohen Zuverlässigkeit berechnet werden kann. Daher kann, selbst wenn ein Kontrast des Gegenstands gering ist, die Phasendifferenz-AF mit einer hohen Genauigkeit ausgeführt werden.
  • Weiter wird entsprechend der Digitalkamera, selbst wenn der Bereich des Phasendifferenzerkennungsziels erweitert wird, die Phasendifferenz unter Verwendung aller Signale von den Phasendifferenzerkennung-Pixelzellen 31R und 31L innerhalb des Bereichs erkannt, so dass die Genauigkeit für eine Erkennung der Phasendifferenz verbessert werden kann.
  • Weiter werden in der Digitalkamera, wenn der Bereich des Phasendifferenzerkennungsziels erweitert wird, ein Korrelationsoperationsergebnis der von einer Hälfte der Phasendifferenzerkennung-Pixelzellen 31R und 31L in dem Bereich erhaltenen Signalgruppe und ein Korrelationsoperationsergebnis der von der anderen Hälfte von diesen erhaltenen Signalgruppe verwendet, um den Defokussierungsbetrag zu berechnen. Wie oben beschrieben wird die Korrelationsoperation ausgeführt, um in zwei Male geteilt zu werden, so dass die Anzahl der Signale für die Signalgruppe, welche für Einmal der Korrelationsoperation verwendet wird, reduziert werden kann, was eine Zeit zum Ausführen der Korrelationsoperation verkürzen kann. Weiter kann die Korrelationsoperation zweimal simultan ausgeführt werden, so dass es möglich ist die Zeit zum Berechnen des Defokussierungsbetrags zu verkürzen.
  • Wie oben beschrieben kann entsprechend der in 1 dargestellten Digitalkamera beides, eine Verbesserung der Phasendifferenz-AF-Genauigkeit und eine Erhöhung in einer Geschwindigkeit der Phasendifferenz-AF, erreicht werden.
  • In der Zwischenzeit erkennt die in 1 dargestellte Digitalkamera den Kontrast des Gegenstands durch Analysieren des aufgenommenen Bildsignals (ein aufgenommenes Bildsignal aus einem durch einen Benutzer bestimmten Bereich 50), welches von dem Festkörper-Bildaufnahmeelement 5 zu einem Zeitpunkt ausgegeben wird, wenn die AF-Anweisung ausgegeben wird, durch die Systemsteuereinheit 11 und, wenn der Kontrast größer als ein vorbestimmter Wert ist, bestimmt, dass es möglich ist die Phasendifferenz nur in dem ausgewählten Bereich 50 mit hoher Präzision zu erkennen, und kann den Schritt S1 und den Schritt S2 aus 4 ausführen und dann die Verarbeitung des Schritts S8 ohne ein Ausführen des Schritts S3 ausführen. In der Zwischenzeit, wenn der Kontrast des Gegenstands gleich oder kleiner als der vorbestimmte Wert ist, führt die Digitalkamera eine Verarbeitung nach dem Schritt S1 aus 4 aus.
  • Wie oben beschrieben wird nur, wenn der Kontrast des Gegenstands gering ist, die Verarbeitung nach dem Schritt S3 ausgeführt, so dass die Geschwindigkeit der Phasendifferenz-AF verbessert werden kann.
  • Weiter wird in 4 nur, wenn die Zuverlässigkeit des in Schritt S2 berechneten Defokussierungsbetrags gering ist, die Verarbeitung nach dem Schritt S4 ausgeführt, allerdings kann eine Verarbeitung des Schritts S4 nach dem Schritt S2 ausgeführt werden, während die Verarbeitung des Schritts S3 ausgelassen wird. Dadurch wird die Zuverlässigkeit des in Schritt S2 berechneten Defokussierungsbetrags und des in Schritt S7 berechneten Defokussierungsbetrags in Schritt S8 bestimmt, um die AF-Steuerung unter Verwendung eines beliebigen mit einer höheren Zuverlässigkeit auszuführen.
  • Weiter, wenn die Zuverlässigkeit fast gleich ist, werden die zwei Entfokussierungsbeträge zum Berechnen eines endgültigen Defokussierungsbetrags (zum Beispiel Berechnen eines Durchschnitts der zwei Entfokussierungsbeträge) verwendet, um die Genauigkeit der Phasendifferenz-AF zu verbessern.
  • Weiter in Schritt S7 analysiert die in 1 dargestellte Digitalkamera das von dem Festkörper-Bildaufnahmeelement 5 ausgelesene aufgenommene Bildsignal in Nein von Schritt S3 aus 4 durch die Systemsteuereinheit 11, um eine Helligkeit des Gegenstands zu erkennen, und, wenn die Helligkeit größer als ein vorbestimmter Wert ist, nur einen von Schritt S5 und Schritt S6 ausführt, um den Defokussierungsbetrag aus dem Korrelationsoperationsergebnis aus Schritt S5 oder Schritt S6 zu berechnen.
  • Wenn der Gegenstand hell ist, wird die Genauigkeit der Phasendifferenz-AF verbessert, so dass dadurch, wie oben beschrieben, die Geschwindigkeit der Phasendifferenz-AF weiter verbessert werden kann. Darüber hinaus kann ein Energieverbrauch verringert werden.
  • Wenn Schritt S3 aus 4 Nein ist, kann die Bildaufnahmeelement-Betriebseinheit 10 betrieben werden, um ein für eine Operation von Schritt S5 verwendetes Signal und ein für eine Operation von Schritt S6 verwendetes Signal unabhängig (in unterschiedlichen Feldern) auszulesen. Dadurch kann beispielsweise, wenn die Verarbeitung von Schritt S6 nicht notwendig ist, in Nein in Schritt S3, die Bildaufnahmeelement-Betriebseinheit 10 betrieben werden, um nur ein Signal, welches für eine Operation von Schritt S5 verwendet wird, von dem Festkörper-Bildaufnahmeelement 5 auszulesen. Im Ergebnis kann eine Hochgeschwindigkeits-Verarbeitung und ein niedriger Energieverbrauch erreicht werden.
  • 8 ist ein Flussdiagramm, welches eine modifizierte Ausführungsform eines Betriebs der in 1 dargestellten Digitalkamera erläutert. In 8 wird die gleiche Verarbeitung wie die in 4 dargestellte Verarbeitung mit den gleichen Bezugszeichen bezeichnet und Beschreibungen davon werden ausgelassen werden.
  • Nach dem Schritt S4 fügt die Phasendifferenz-Erkennungseinheit 19 in Schritt S15 Signale hinzu, welche von zwei benachbarten Phasendifferenzerkennung-Pixelzellen 31R aus den in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31R ausgelesen werden, und fügt Signale hinzu, welche von zwei benachbarten Phasendifferenzerkennung-Pixelzellen 31L aus den in 7 dargestellten zwölf Phasendifferenzerkennung-Pixelzellen 31L ausgelesen werden.
  • Wie in 9 dargestellt, teilt die Phasendifferenz-Erkennungseinheit 19 entsprechend jede der zwölf Phasendifferenzerkennung-Pixelzellen 31R und der zwölf Phasendifferenzerkennung-Pixelzellen 31R in vier Gruppen 34, welche zueinander benachbart sind, und fügt die von den Gruppen 34 ausgelesenen Bildaufnahmesignale der Phasendifferenzerkennung-Pixelzellen 31R zueinander und fügt die Bildaufnahmesignale der Phasendifferenzerkennung-Pixelzellen 31L zueinander, um sechs zu den Phasendifferenzerkennung-Pixelzellen 31R korrespondierende Bildaufnahmesignale und sechs zu den Phasendifferenzerkennung-Pixelzellen 31R korrespondierende Bildaufnahmesignale zu erhalten.
  • Als Nächstes führt die Phasendifferenz-Erkennungseinheit 19 eine Korrelationsoperation an den zu den Phasendifferenzerkennung-Pixelzellen 31R korrespondierenden sechs Bildaufnahmesignalen und an den zu den Phasendifferenzerkennung-Pixelzellen 31L korrespondierenden sechs Bildaufnahmesignalen zum Berechnen eines Defokussierungsbetrags aus und übermittelt den berechneten Defokussierungsbetrag an die Systemsteuereinheit 11 in Schritt S16. Nach dem Schritt S16 wird die Verarbeitung von Schritt S7 ausgeführt.
  • Wie oben beschrieben, wird entsprechend der veränderten Ausführungsform, selbst wenn der Bereich des Phasendifferenzerkennungsziels erweitert wird, die Phasendifferenz unter Verwendung aller Signale von den Phasendifferenzerkennung-Pixelzellen 31R und 31L innerhalb des Bereichs erkannt, so dass die Genauigkeit zur Erkennung der Phasendifferenz verbessert werden kann.
  • Darüber hinaus werden in dieser veränderten Ausführungsform, wenn der Bereich des Phasendifferenzerkennungsziels erweitert wird, eine Signalgruppe, welche durch Hinzufügen der Signalgruppe erhalten wird, welche von der Hälfte der Phasendifferenzerkennung-Pixelzellen 31R in dem Bereich erhalten wird, und der Signalgruppe, welche von der anderen Hälfte der Phasendifferenzerkennung-Pixelzellen 31R erhalten wird, und eine Signalgruppe, welche durch Hinzufügen der Signalgruppe erhalten wird, welche von der Hälfte der Phasendifferenzerkennung-Pixelzellen 31L in dem Bereich erhalten wird, und der Signalgruppe, welche von der anderen Hälfte der Phasendifferenzerkennung-Pixelzellen 31L erhalten wird, korreliert, um den Defokussierungsbetrag zu berechnen. Daher kann der Korrelationsoperationsbetrag verringert werden.
  • Weiter sind entsprechend dieser veränderten Ausführungsform, da eine Sensitivität von den zugefügten zwei Bildaufnahmesignalen hoch ist, individuelle Signale, welche die Signalgruppe bilden, welche für die Korrelationsoperation verwendet wird, besonders effektiv für einen dunklen Gegenstand.
  • Wie oben beschrieben, kann entsprechend der veränderten Ausführungsform ebenfalls beides, die Verbesserung der Genauigkeit der Phasendifferenz-AF und die Erhöhung in der Geschwindigkeit der Phasendifferenz-AF, erreicht werden.
  • In der Zwischenzeit analysiert die Digitalkamera das von dem Festkörper-Bildaufnahmeelement 5 ausgelesene aufgenommene Bildsignal durch die Systemsteuereinheit 11 in Nein von Schritt S3 aus 8, um eine Helligkeit des Gegenstands zu erkennen, und, wenn die Helligkeit größer als ein vorbestimmter Wert ist, die Verarbeitung nach dem Schritt S4 aus 4 ausführt und, wenn die Helligkeit gleich oder kleiner als der vorbestimmte Wert ist, die Verarbeitung nach dem Schritt S4 aus 8 ausführt. Der vorbestimmte Wert kann vorab auf einem Speicher in der Kamera aufgezeichnet oder beliebig von einem Benutzer eingestellt oder verändert werden.
  • Weiter kann das Bildaufnahmesignal außerhalb des Festkörper-Bildaufnahmeelements 5 in Schritt S15 aus 8 nicht hinzugefügt werden, allerdings in dem Festkörper-Bildaufnahmeelement 5 hinzugefügt werden. Wie oben beschrieben werden die Signale in dem Festkörper-Bildaufnahmeelement 5 zugefügt, so dass ein Bildaufnahmesignal mit geringem Rauschen erhalten werden kann und daher die Genauigkeit der Phasendifferenz-AF weiter verbessert werden kann.
  • In dem in 4 dargestellten Verfahren zur Fokussierungssteuerung können die von den Phasendifferenzerkennung-Pixelzellen 31R und 31L in den Bereichen 50A, 50B und 50C ausgegebenen Signale in einer Reihenrichtung X mit einem Intervall, welches zu drei Pixelzellen korrespondiert, in einem Raum angeordnet werden. Weiter werden in jeder der zwei Signalgruppen, welche Ziele einer Korrelationsoperation in Schritt S5 oder Schritt S6 werden, Signale in einem Raum in der Reihenrichtung X mit einem Intervall, welches zu sieben Pixelzellen korrespondiert, angeordnet. In der Zwischenzeit werden die von den Pixelzellen ausgegebenen Signale mit Koordinateninformationen verknüpft, welche die Position der Signale in dem Raum anzeigen. In der vorliegenden Beschreibung wird die durch die Koordinateninformationen bestimmte Anordnung der Signale als eine Anordnung von Signalen bezeichnet.
  • Weiter werden in dem in 8 dargestellten Verfahren zur Fokussierungssteuerung in jeder von zwei Signalgruppen, welche Ziele einer Korrelationsoperation in Schritt S16 werden, Signale in dem Raum in der Reihenrichtung X mit einem Intervall, welches zu sieben Pixelzellen korrespondiert, angeordnet. Wie für das Verfahren aus 8 beschrieben, wenn zwei Signale, welche in der Reihenrichtung X benachbart sind, hinzugefügt werden, zeigen die Koordinateninformationen, welche mit dem hinzugefügten Signal verknüpft sind, eine Zwischenposition von Positionen der zwei Signale vor einem Hinzufügen an.
  • Wie oben beschrieben, ist in Schritt S5 oder S6 aus 4 und Schritt S16 aus 8 ein Anordnungsabstand der Signale einer jeden der zwei Signalgruppen, welche die Ziele der Korrelationsoperation werden, größer als der Anordnungsabstand der Signalgruppen, welche von allen Phasendifferenzerkennung-Pixelzellen 31R und 31L in den Bereichen 50A, 50B und 50C ausgegeben werden.
  • Das heißt, obwohl alle von allen Phasendifferenzerkennung-Pixelzellen 31R und 31L in den Bereichen 50A, 50B und 50C ausgegebenen Signalen verwendet werden, sind die Signalgruppen mit einem weiten Anordnungsabstand miteinander korreliert, so dass die Zeit für eine Korrelationsoperation verkürzt wird, was die Zeit zum Berechnen des Defokussierungsbetrags verkürzen kann.
  • In der Zwischenzeit, in den Schritten S5 und S6 aus 4, auch wenn die Korrelationsoperation an der Ausgabesignalgruppe der Pixelzellen 31R in einer ungeradzahligen Spalte und der Ausgabesignalgruppe der Pixelzellen 31L in einer ungeradzahligen Spalte in dem die Bereiche 50A, 50B und 50C umfassenden Bereich ausgeführt wird und die Korrelationsoperation an der Ausgabesignalgruppe der Pixelzellen 31R in einer geradzahligen Spalte und der Ausgabesignalgruppe der Pixelzellen 31L in einer geradzahligen Spalte in dem Bereich ausgeführt wird, ist die vorliegende Erfindung nicht darauf beschränkt.
  • Beispielsweise werden zwölf Paare in dem Bereich in eine Gruppe von sechs Paaren, welche an allen zwei Zellen in der Reihenrichtung X parallel zueinander sind, und eine Gruppe von verbleibenden sechs Paaren geteilt und die Korrelationsoperation wird an der Ausgabesignalgruppe der Pixelzellen 31R und der Ausgabe-Gruppe der Pixelzellen 31L für jede Gruppe ausgeführt und zwei Korrelationsoperationsergebnisse können zum Berechnen des Defokussierungsbetrags verwendet werden.
  • Das heißt, zwei Signalgruppen einer Signalgruppe, welche durch Abtasten der Signalgruppen, welche von allen Phasendifferenzerkennung-Pixelzellen 31R und 31L in den Bereichen 50A, 50B und 50C ausgegeben werden, mit einem Intervall von n Signalgruppen erhalten werden, und die verbleibende Signalgruppe können Signalgruppen sein, welche ein Ziel der Korrelationsoperation sind.
  • Weiter können zwölf Paare in dem Bereich in drei oder mehr Gruppen geteilt werden und die Korrelationsoperation wird für jede Gruppe ausgeführt, um den Defokussierungsbetrag unter Verwendung des Ergebnisses zu berechnen. In diesem Fall kann der Anordnungsabstand der von dem Paar erhaltenen Signale in jeder Gruppe gleich sein.
  • Als nächstes werden Beschreibungen einer Konfiguration eines Smartphones als eine Bildaufnahmevorrichtung gemacht werden.
  • 10 stellt ein äußeres Erscheinungsbild eines Smartphones 200 dar, welches eine Ausführungsform einer Fotografier-Vorrichtung der vorliegenden Erfindung ist. Das in 10 dargestellte Smartphone 200 umfasst ein Flachtafelart-Gehäuse 201 und ist auf einer Oberfläche des Gehäuses 201 mit einer Anzeigeeingabeeinheit 204 versehen, in welcher eine Anzeigetafel 202 als eine Anzeigeeinheit und eine Bedienungstafel 203 als eine Eingabeeinheit integriert sind. Zusätzlich umfasst das Gehäuse 201 einen Lautsprecher 205, ein Mikrofon 206, eine Bedienungseinheit 207 und eine Kamera 208. Allerdings ist die Konfiguration des Gehäuses 201 nicht darauf beschränkt. Beispielsweise kann eine Konfiguration, bei welcher die Anzeigeeinheit und die Eingabeeinheit unabhängig voneinander sind, verwendet werden oder eine Konfiguration mit einer Faltstruktur oder einem Gleitmechanismus kann verwendet werden.
  • 11 ist ein Blockdiagramm, welches eine Konfiguration des in 10 dargestellten Smartphones 200 darstellt. Wie in 10 dargestellt, umfasst das Smartphone als Hauptkomponenten eine Drahtlose-Kommunikationseinheit 210, eine Anzeigeeingabeeinheit 204, eine Anrufeinheit 211, eine Bedienungseinheit 207, eine Kamera 208, eine Speichereinheit 212, eine externe Eingabe/Ausgabeeinheit 213, eine Globales Positionierungs-System(GPS)-Empfangseinheit 214, eine Bewegungssensoreinheit 215, eine Energieversorgung 216 und eine Hauptsteuereinheit 220. Weiter ist das Smartphone 200 als eine Hauptfunktion des Smartphones 200 mit einer drahtlosen Kommunikationsfunktion versehen, welche eine mobile drahtlose Kommunikation über eine Basisstationsvorrichtung BS, welche nicht dargestellt ist, und ein mobiles Kommunikationsnetzwerk NW, welches nicht dargestellt ist, ausführt.
  • Die Drahtlose-Kommunikationseinheit 210 führt eine drahtlose Kommunikation mit der Basisstationsvorrichtung BS, welche in dem mobilen Kommunikationsnetzwerk NW angeordnet ist, entsprechend Anweisungen der Hauptsteuereinheit 220 aus. Unter Verwendung der drahtlosen Kommunikation übermittelt/erhält die Drahtlose-Kommunikationseinheit 210 verschiedene Dateidaten wie beispielsweise Sprachdaten und Bilddaten und elektronische Postdaten oder erhält Internetdaten, Streaming-Daten oder Ähnliches.
  • Die Anzeigeeingabeeinheit 204 ist mit einer Anzeigetafel 202 und einer Bedienungstafel 203 einer so genannten Berührungstafel (Touchscreen) versehen, welche ein Bild (ein Einzelbild oder eine Laufbildaufnahme) oder Textinformationen unter der Steuerung der Hauptsteuereinheit 220 so anzeigt, um visuell Informationen an einen Benutzer zu übermitteln, und die Bedienung eines Benutzers auf den angezeigten Informationen erkennt.
  • Die Anzeigetafel 202 verwendet eine Flüssigkristallanzeige (Liquid Crystal Display – LCD) eine Organische-Elektrolumineszenz-Anzeige (Organic Electrolumineszence Display – OELD) oder Ähnliches als eine Anzeigevorrichtung.
  • Die Bedienungstafel 203 ist eine Vorrichtung, welche angeordnet ist, um zu ermöglichen ein auf einer Anzeigeoberfläche der Anzeigetafel 202 angezeigtes Bild visuell wahrzunehmen, und erkennt eine oder eine Vielzahl von Koordinaten, welche durch einen Finger des Benutzers oder einen Stift bedient werden können. Wenn die Vorrichtung durch den Finger des Benutzers oder den Stift bedient wird, wird ein Erkennungssignal, welches basierend auf der Bedienung erzeugt wird, an die Hauptsteuereinheit 220 ausgegeben. Nachfolgend erkennt die Hauptsteuereinheit 220 eine Bedienungsposition (Koordinate) auf der Anzeigetafel 202 basierend auf dem erhaltenen Erkennungssignal.
  • Wie in 10 dargestellt, sind die Anzeigetafel 202 und die Bedienungstafel 203 des Smartphones 200, welches eine beispielhafte Ausführungsform der Fotografier-Vorrichtung der vorliegenden Erfindung ist, ineinander integriert, um die Anzeigeeingabeeinheit 204 zu bilden, in welcher die Bedienungstafel 203 angeordnet sein kann, um die Anzeigetafel 202 vollständig abzudecken.
  • Wenn solch eine Anordnung verwendet wird, kann die Bedienungstafel 203 mit einer Funktion zum Erkennen der Benutzerbedienung auf einem anderen Bereich als der Anzeigetafel 202 versehen werden. Mit anderen Worten, die Bedienungstafel 203 kann einen Erkennungsbereich (im Folgenden als ein „Anzeigebereich” bezeichnet) auf einem Überdeckungsteil, welcher die Anzeigetafel 202 überdeckt, und einen Erkennungsbereich (im Folgenden als ein „Nicht-Anzeigebereich” bezeichnet) für einen anderen äußeren peripheren Teil, welcher die Anzeigetafel 202 nicht überdeckt, umfassen.
  • Obwohl die Größe des Anzeigebereichs und die Größe der Anzeigetafel 202 vollständig miteinander übereinstimmen kann, müssen beide Größen nicht notwendigerweise miteinander übereinstimmen. Zusätzlich kann die Bedienungstafel 203 zwei sensitive Bereiche eines äußeren peripheren Teils und eines anderen inneren Teils als der äußere periphere Teil umfassen. Darüber hinaus ist eine Breite des äußeren peripheren Teils entsprechend der Größe des Gehäuses 201 angemessen ausgestaltet. Darüber hinaus können ein in der Bedienungstafel 203 verwendetes Positionserkennungssystem, ein Matrixwechselsystem, ein Widerstandsschichtsystem, ein elastische-Oberflächenwellensystem, ein Infrarotsystem, ein elektromagnetische-Induktionssystem oder ein elektrostatische-Kapazitätssystem beispielhaft genannt werden und ein beliebiges System kann verwendet werden.
  • Die Anrufereinheit 211 umfasst den Lautsprecher 205 oder das Mikrofon 206 und wandelt die durch das Mikrofon 206 eingegebene Benutzersprache in durch die Hauptsteuereinheit 220 zu verarbeitende Sprachdaten um und gibt die umgewandelten Sprachdaten an die Hauptsteuereinheit 220 aus, oder entschlüsselt von der Drahtlose-Kommunikationseinheit 210 oder der externen Eingabe/Ausgabeeinheit 213 erhaltene Sprachdaten und gibt die entschlüsselten Sprachdaten über den Lautsprecher 205 aus. Weiterhin, wie in 10 dargestellt, kann der Lautsprecher 205 beispielsweise auf derselben Oberfläche angeordnet sein, wie die mit der Anzeigeeingabeeinheit 204 versehene Oberfläche, und das Mikrofon 206 kann an einer Seitenfläche des Gehäuses 201 angeordnet sein.
  • Die Bedienungseinheit 207 ist ein Hardware-Key, welcher einen Key-Schalter verwendet und eine Anweisung von dem Benutzer erhält. Beispielsweise, wie in 10 dargestellt, ist die Bedienungseinheit 207 ein Druckknopfart-Schalter, welcher an einer Seitenfläche des Gehäuses 201 des Smartphones 200 angeordnet ist und eingeschaltet wird, wenn die Bedienungseinheit 207 durch einen Finger gedrückt wird, und durch ein Wiederherstellen einer Kraft einer Feder ausgeschaltet wird, wenn der Finger entfernt wird.
  • Die Speichereinheit 212 speichert ein Steuerprogramm oder Steuerdaten der Hauptsteuereinheit 220, Anwendungssoftware, Adressdaten, zu welchen Namen, Telefonnummern oder Ähnliches von Kommunikationspartnern korreliert werden, übermittelte/erhaltene elektronische Postdaten, von einem Web-Browser heruntergeladene Internetdaten oder heruntergeladene Inhaltsdaten und speichert temporär Streaming-Daten. Weiter wird die Speichereinheit 212 durch eine interne Speichereinheit 217, welche in dem Smartphone angeordnet ist, und eine externe Speichereinheit 218, welche einen entfernbaren externen Speicherschlitz umfasst, konfiguriert. Weiterhin werden die interne Speichereinheit 217 und die externe Speichereinheit 218, welche die Speichereinheit 212 konfigurieren, umgesetzt durch Verwendung eines Speichermediums wie beispielsweise eine Flash-Speicherart, eine Festplattenart, eine Mikromultimediakarten-Art, eine Karten-Speicherart (zum Beispiel ein Micro-SD (eingetragene Handelsmarke) Speicher), ein Arbeitsspeicher (Random Access Memory – RAM) oder ein schreibgeschützter Speicher (Read Only Memory – ROM).
  • Die externe Eingabe/Ausgabeeinheit 213 fungiert als eine Schnittstelle mit allen externen Vorrichtungen, welche mit dem Smartphone 200 verbunden sind, und ist konfiguriert, um direkt oder indirekt mit anderen externen Vorrichtungen durch eine Datenübertragung (zum Beispiel einem Universal Serien Bus (Universal Serien Bus-USB) oder IEEE1394) oder ein Netzwerk (zum Beispiel Internet, drahtloses LAN, Bluetooth (eingetragene Handelsmarke), Radiofrequenzidentifikation (Radio Frequency Identification-RFID), eine Infrarot-Datenassociation (IrDA (eingetragene Handelsmarke)), ein Ultra-Breitband (UWB: eingetragene Handelsmarke) oder ein ZigBee (eingetragen Handelsmarke) verbunden zu werden.
  • Als eine mit dem Smartphone 200 verbundene externe Vorrichtung können beispielhaft genannt werden ein verkabeltes/kabelloses Headset, ein verkabeltes/kabelloses externes Ladegerät, ein verkabelter/kabelloser Datenanschluss, eine Speicherkarte oder eine über einen Kartenanschluss verbundene SIM (Teilnehmer-Identitätsmodul-Subscriber Identity Module) Karte/UIM (Benutzer-Identitätsmodul-User Identity Module) Karte, eine durch einen Audio/Video Eingabe/Ausgabe(I/O)-Anschluss verbundene externe Audio/Videovorrichtung, einen kabellos verbundene externe Audio/Videovorrichtung, ein verkabelt/kabellos verbundenes Smartphone, ein verkabelt/kabellos verbundener Computer, ein verkabelt/kabellos verbundener PDA, ein verkabelt/kabellos verbundener Computer oder ein Kopfhörer. Die externe Eingabe/Ausgabeeinheit 213 kann Daten, welche von solchen externen Vorrichtungen erhalten werden, an einzelne Komponenten in dem Smartphone 200 übermitteln und kann ebenfalls erlauben die Daten in dem Smartphone 200 an eine externe Vorrichtung zu übermitteln.
  • Die GPS-Empfangseinheit 214 empfängt GPS-Signale, welche von GPS Satelliten ST1 bis STn übermittelt werden, entsprechend einer Anweisung von der Hauptsteuereinheit 220 und führt basierend auf den empfangenen GPS-Signalen eine Verarbeitung einer Positionsmessungsoperation aus, um Positionen zu erkennen, welche einen Breitengrad, einen Längengrad und eine Höhe des Smartphones 200 umfassen. Wenn die GPS-Empfangseinheit 214 Positionsinformationen von der Drahtlose-Kommunikationseinheit 210 oder der externen Eingabe/Ausgabeeinheit 213 (zum Beispiel das kabellose LAN) erhalten kann, kann die GPS-Empfangseinheit 214 eine Position unter Verwendung dieser Positionsinformationen erkennen.
  • Die Bewegung Sensoreinheit 215 umfasst beispielsweise einen Dreiachsen-Beschleunigungssensor und erkennt eine physische Bewegung des Smartphones 200 entsprechend den Anweisungen der Hauptsteuereinheit 220. Wenn die physische Bewegung des Smartphones 200 erkannt wird, wird die Bewegungsrichtung oder -Beschleunigung des Smartphone 200 erkannt das Erkennungsergebnis wird an die Hauptsteuereinheit 220 ausgegeben.
  • Die Energieversorgung 216 führt Energie, welche in einer Batterie (nicht dargestellt) gespeichert ist, einzelnen Einheiten des Smartphones 200 entsprechend den Anweisungen der Hauptsteuereinheit 220 zu.
  • Die Hauptsteuereinheit 220 umfasst einen Mikroprozessor und betreibt entsprechend einem Steuerprogramm oder auf der Speichereinheit 212 gespeicherten Steuerdaten und steuert gemeinsam einzelne Einheiten des Smartphones 200. Weiter ist die Hauptsteuereinheit 220 mit einer Steuerfunktion einer mobilen Kommunikation und einer Funktion einer Anwendungsverarbeitung zum Steuern einzelner Einheiten eines Kommunikationssystems versehen, um Sprachkommunikation oder Datenkommunikation durch die Drahtlose-Kommunikationseinheit 210 auszuführen.
  • Die Funktion einer Anwendungsverarbeitung wird umgesetzt, wenn die Hauptsteuereinheit 220 entsprechend der Anwendungssoftware betrieben wird, welche auf der Speichereinheit 212 gespeichert ist. Die Funktion einer Anwendungsverarbeitung umfasst beispielsweise eine Infrarot-Kommunikationsfunktion, welche eine Datenkommunikation mit einer Partnervorrichtung durch Steuerung der externen Eingabe/Ausgabeeinheit 213 ausführt, eine elektronische Postfunktion, welche eine elektronische Post übermittelt/erhält, und eine Internetsurf-Funktion, welche auf einer Internetseite surft.
  • Weiter ist die Hauptsteuereinheit 220 mit einer Bildverarbeitungsfunktion versehen, welche basierend auf den Bilddaten (Einzelbild- oder bewegte Bilddaten) wie beispielsweise erhaltene Daten oder heruntergeladene Streaming-Daten ein Bild auf der Anzeigeeingabeeinheit 204 anzeigt. Die Bildverarbeitungsfunktion verweist auf eine Funktion einer Entschlüsselung der Bilddaten und eine Ausführung einer Bilddatenverarbeitung auf dem verschlüsselten Ergebnis, um das Bild auf der Anzeigeeingabeeinheit 204 durch die Hauptsteuereinheit 220 anzuzeigen.
  • Darüber hinaus führt die Hauptsteuereinheit 220 eine Anzeigesteuerung der Anzeigetafel 202 und eine Bedienungserkennungssteuerung aus, welche eine Bedienung des Benutzers über die Bedienungseinheit 207 und die Bedienungstafel 203 erkennt. Durch Ausführen der Anzeigesteuerung zeigt die Hauptsteuereinheit 220 ein Symbol zum Aktivieren einer Anwender Software oder einen Software-Key wie beispielsweise einen Rollbalken an oder zeigt ein Fenster zum Erstellen einer elektronischen Post an. Hierbei bezieht sich der Rollbalken auf einen Software-Key zum Empfangen einer Anweisung einen angezeigten Teil eines Bildes mit Bezug zu einem größeren Bild zu bewegen, welches nicht von dem Anzeigebereich der Anzeigetafel 202 abgedeckt wird.
  • Zusätzlich, wenn die Bedienungserkennungssteuerung ausgeführt wird, erkennt die Hauptsteuereinheit 220 die Bedienung des Benutzers durch die Bedienungseinheit 207 oder erhält eine Bedienung an dem Symbol oder die Eingabe einer Zeichenfolge in einer Eingabesektion des Fensters durch die Bedienungstafel 203 oder erhält eine Rollanfrage auf einem angezeigten Bild über einen Rollbalken.
  • Weiterhin ist die Hauptsteuereinheit 220 durch Ausführen der Bedienungserkennungssteuerung mit einer Berührungstafel-Steuerfunktion versehen, welche bestimmt, ob die Bedienungsposition der Bedienungstafel 203 in einem Überdeckungsteil (Anzeigebereich), welcher die Anzeigetafel 202 überdeckt, oder in einem anderen Peripherieteil (Nicht-Anzeigebereich), welcher die Anzeigetafel 202 nicht überdeckt, als der Überdeckungsteil ist, und steuert einen sensitiven Bereich der Betriebsdaten 203 oder eine Anzeige Position des Software-Keys.
  • Weiter erkennt die Hauptsteuereinheit 220 eine Gestenbedienung mit Bezug zu der Bedienungstafel 203 und führt eine vorbestimmte Funktion entsprechend der erkannten Gestenbedienung aus. Die Gestenbedienung bezieht sich auf eine Bedienung, welche eine Spur unter Verwendung eines Fingers zeichnet, eine Vielzahl von Positionen gleichzeitig auswählt oder eine Kombination davon zum Zeichnen einer Spur für zumindest einen von der Vielzahl von Positionen, im Gegensatz zu einer einfachen Berührungsbedienung aus dem Stand der Technik.
  • Die Kamera 208 umfasst die externe Speichersteuereinheit 20, das Speichermedium 21, die Anzeigesteuereinheit 22, die Anzeigeeinheit 23 und die Betriebseinheit 14 anders als die Konfiguration der Digitalkamera, welche in 1 dargestellt ist. Aufgenommene Bilddaten, welche durch die Kamera 208 erzeugt werden, können auf der Speichereinheit 212 gespeichert werden oder durch die externe Eingabe/Ausgabeeinheit 213 oder die Drahtlose-Kommunikationseinheit 210 ausgegeben werden. Wie in 10 dargestellt, obwohl die Kamera 208 auf derselben Oberfläche wie die Anzeigeeinheit 204 in dem Smartphone 200 angeordnet ist, ist die Anordnungsposition der Kamera 208 nicht hierauf beschränkt und die Kamera 208 kann auf einer rückseitigen Oberfläche der Anzeigeeinheit 204 angeordnet sein.
  • Weiter kann die Kamera 208 für zahlreiche Funktionen des Smartphones 200 verwendet werden. Beispielsweise kann ein Bild, welches durch die Kamera 208 erhalten wird, auf der Anzeigetafel 202 angezeigt werden, oder das Bild der Kamera 208 kann als eines von Bedienungseingaben der Bedienungstafel 203 verwendet werden. Weiter, wenn die GPS-Empfangseinheit 214 die Position erkennt, kann die Position mit Bezug zu dem Bild von der Kamera 208 erkannt werden. Darüber hinaus kann eine optische Achsrichtung der Kamera 208 des Smartphones 200 bestimmt werden oder eine aktuelle Nutzungsumgebungen kann ebenso mit Bezug zu dem Bild von der Kamera 208 entweder ohne Verwendung des Dreiachsen-Beschleunigungssensors oder mit Verwendung des Dreiachsen-Beschleunigungssensors bestimmt werden. Natürlich kann das Bild von der Kamera 208 in der Anwendungssoftware verwendet werden.
  • Zusätzlich können durch die GPS-Empfangseinheit 214 erhaltene Positionsinformationen, durch das Mikrofon 206 erhaltene Sprachinformationen (welche durch Ausführen einer Sprach-Text-Wandlung durch die Hauptsteuereinheit erhaltene Textinformationen oder Ähnliches sein können) oder durch die Bewegungssensoreinheit 215 erhaltene Haltungsinformation zu den Bilddaten eines Einzelbilds oder einer Laufbildaufnahme zum Speichern auf der Speichereinheit 212 oder zum Ausgeben durch die externe Eingabe/Ausgabeeinheit 213 oder die Drahtlose-Kommunikationseinheit 210 hinzugefügt werden.
  • Ebenso kann in dem Smartphone 200 mit der oben beschriebenen Konfiguration eine Phasendifferenz-AF mit einer hohen Genauigkeit und mit einer hohen Geschwindigkeit ausgeführt werden.
  • Wie oben beschrieben sind die folgenden Gegenstände hierin offenbar.
  • Es wird eine Bildaufnahmevorrichtung beschrieben, welche umfasst: ein Bildaufnahmeelement, welches eine Vielzahl von Paaren von ersten Pixelzellen und zweiten Pixelzellen aufweist, welche ein Paar von durch unterschiedliche Pupillenbereiche eines optischen Fotografiersystems hindurchtretende Lichtströme erhalten und Signale entsprechend einer Lichtmenge ausgeben; eine erste Berechnungseinheit eines Defokussierungsbetrags, welche einen Defokussierungsbetrag unter Verwendung einer von der Vielzahl von Paaren in einem ersten Bereich erhaltenen Schmalbereich-Signalgruppe berechnet; eine zweite Berechnungseinheit eines Defokussierungsbetrags, welche einen Defokussierungsbetrag unter Verwendung einer von allen Paaren in einem zweiten Bereich, welche den ersten Bereich umfasst und breiter als der erste Bereich ist, erhaltenen Breitbereich-Signalgruppe berechnet; und eine Fokussierungssteuereinheit, welche basierend auf dem durch die erste Berechnungseinheit eines Defokussierungsbetrags berechneten Defokussierungsbetrag und dem durch die zweite Berechnungseinheit eines Defokussierungsbetrags berechneten Defokussierungsbetrag einen Fokussierungszustand des optischen Bildaufnahmesystems steuert, wobei die zweite Berechnungseinheit eines Defokussierungsbetrags eine Breitabstand-Signalgruppe mit einem Anordnungsabstand, welcher kleiner als ein Anordnungsabstand der Schmalbereich-Signalgruppen ist, unter Verwendung der Breitbereich-Signalgruppe erzeugt und den Defokussierungsbetrag unter Verwendung der Breitabstand-Signalgruppe berechnet.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, wobei die zweite Berechnungseinheit des Defokussierungsbetrags eine erste Verarbeitung ausführt, welche zwei Signalgruppen einer durch Abtasten der Paare von Signalen mit einem Intervall einer vorbestimmten Anzahl von Pixelzellen aus der Breitbereich-Signalgruppe erhaltenen Signalgruppe und der verbleibenden Signalgruppe als die Breitabstand-Signalgruppen erzeugt, eine Korrelationsoperation an den Signalen der ersten Pixelzellen den Signalen der zweiten Pixelzellen mit Bezug zu jeder der zwei Breitabstand-Signalgruppen ausführt und den Defokussierungsbetrag unter Verwendung der zwei Korrelationsoperationsergebnisse berechnet.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, wobei, wenn eine Helligkeit eines Gegenstands einen vorbestimmten Wert überschreitet, die zweite Berechnungseinheit eines Defokussierungsbetrags eine zweite Verarbeitung ausführt, welche den Defokussierungsbetrag basierend auf dem Korrelationsoperationsergebnis auf einem der zwei Breitabstand-Signalgruppen berechnet.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, weiter umfassend: eine Betriebseinheit eines Bildaufnahmeelements, welche, wenn der Defokussierungsbetrag durch die erste Verarbeitung berechnet wird, betrieben wird, um die zwei Breitabstand-Signalgruppen von dem Bildaufnahmeelement unabhängig auszulesen.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, wobei, wenn eine Helligkeit eines Gegenstands einen vorbestimmten Wert überschreitet, die zweite Berechnungseinheit eines Defokussierungsbetrags eine zweite Verarbeitung ausführt, welche den Defokussierungsbetrag basierend auf dem Korrelationsoperationsergebnis auf einem der zwei Breitabstand-Signalgruppen berechnet, und wenn die Helligkeit des Gegenstands den vorbestimmten Wert überschreitet, lässt die Betriebseinheit eines Bildaufnahmeelements ein Auslesen des anderen der zwei Breitabstand-Signalgruppen von dem Bildaufnahmeelement aus.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, wobei die zweite Berechnungseinheit eines Defokussierungsbetrags eine dritte Verarbeitung ausführt, welche die Breitbereich-Signalgruppe in eine Vielzahl von Gruppen teilt, welche kontinuierlich angeordnet wird und von welchen jede eine Vielzahl von Pixelzellen aufweist, die Signale in den ersten Pixelzellen in jeder Gruppe hinzufügt und die Signale in den zweiten Pixelzellen in jeder Gruppe hinzufügt, um die Breitabstand-Signalgruppe zu erzeugen, und den Defokussierungsbetrag basierend auf dem Korrelationsoperationsergebnis der Signalgruppe in den ersten Pixelzellen und der Signalgruppe in den zweiten Pixelzellen in der Breitabstand-Signalgruppe berechnet.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, wobei, wenn die Helligkeit des Gegenstands gleich oder kleiner als der vorbestimmte Wert ist, berechnet die zweite Berechnungseinheit eines Defokussierungsbetrags den Defokussierungsbetrags durch die dritte Verarbeitung.
  • Es wird beschrieben eine Bildaufnahmevorrichtung, wobei die dritte Verarbeitung eine Verarbeitung ist, welche die Signale der ersten Pixelzellen in jeder Gruppe in dem Bildaufnahmeelement hinzufügt und die Signale der zweiten Pixelzellen in jeder Gruppe in dem Bildaufnahmeelement hinzufügt, um die Breitabstand-Signalgruppe zu erzeugen.
  • Es wird beschrieben ein Verfahren zur Fokussierungssteuerung einer Bildaufnahmevorrichtung, welche ein Bildaufnahmeelement umfasst, welches eine Vielzahl von Paaren von ersten Pixelzellen und zweiten Pixelzellen aufweist, welche ein Paar von durch unterschiedliche Pupillenbereiche eines optischen Fotografiersystems hindurchtretende Lichtströme erhalten und Signale entsprechend einer Lichtmenge ausgeben, wobei das Verfahren umfasst: einen ersten Berechnungsschritt eines Defokussierungsbetrags, welcher einen Defokussierungsbetrag unter Verwendung einer von der Vielzahl von Paaren in einem ersten Bereich erhaltenen Schmalbereich-Signalgruppe berechnet; einen zweiten Berechnungsschritt eines Defokussierungsbetrags, welcher einen Defokussierungsbetrag unter Verwendung einer von allen Paaren in einem zweiten Bereich, welche den ersten Bereich umfasst und breiter als der erste Bereich ist, erhaltenen Breitbereich-Signalgruppe berechnet; und einen Fokussierungsteuerschritt, welche einen Fokussierungszustand des optischen Bildaufnahmesystems basierend auf dem durch den ersten Berechnungsschritt eines Defokussierungsbetrags berechneten Defokussierungsbetrag und den durch den zweiten Berechnungsschritt eines Defokussierungsbetrags berechneten Defokussierungsbetrag steuert, wobei der zweite Berechnungsschritt eines Defokussierungsbetrags eine Breitabstand-Signalgruppe mit einem Anordnungsabstand, welcher größer als ein Anordnungsabstand der Schmalbereich-Signalgruppen ist, unter Verwendung der Breitbereich-Signalgruppe erzeugt und den Defokussierungsbetrag unter Verwendung der Breitabstand-Signalgruppe berechnet.
  • Entsprechend der vorliegenden Erfindung kann eine Bildaufnahmevorrichtung und ein Verfahren zur Fokussierungssteuerung bereitgestellt werden, welche eine Phasendifferenz-AF mit einer hohen Genauigkeit und mit einer hohen Geschwindigkeit ausführen können.
  • Obwohl die vorliegende Erfindung mit Bezug zu den detaillierten und spezifischen Ausführungsformen davon beschrieben worden ist, ist es für den Fachmann offensichtlich, dass zahlreiche Änderungen oder Modifikationen gemacht werden können ohne von dem Geist und dem Schutzbereich der vorliegenden Erfindung abzuweichen.
  • Diese Anmeldung basiert auf der am 1. Mai 2012 eingereichten japanischen Patentanmeldung Nr. 2012-104574 , dessen Inhalte hiermit durch Bezugnahme einbezogen werden.
  • Bezugszeichenliste
  • 1
    Fotografier-Linse
    5
    Festkörper-Bildaufnahmeelement
    30
    Bildaufnahme-Pixelzelle
    31R
    Phasendifferenzerkennung-Pixelzelle
    31L
    Phasendifferenzerkennung-Pixelzelle

Claims (6)

  1. Bildaufnahmevorrichtung für eine Digitalkamera, enthaltend: (a) eine Systemsteuereinheit (11) der Bildaufnahmevorrichtung; (b) eine optische Fotografier-Linse (1); (c) ein Bildaufnahmeelement (5) zum Ausgeben eines mittels der optischen Fotografier-Linse (1) aufgenommen Bilds, wobei (c1) das Bildaufnahmeelement (5) in seinem Zentrum eine Vielzahl von gitterförmig angeordneten Fokussierbereichen (50) aufweist, (c2) in jedem Fokussierbereich (50) des Bildaufnahmeelements (5) eine Vielzahl von Bildaufnahme-Pixelzellen (30) und eine Vielzahl von Paaren erster Phasendifferenzerkennungs-Pixelzellen (31L) und zweiter Phasendifferenzerkennungs-Pixelzellen (31R) vorgesehen sind, wobei bei den ersten Phasendifferenzerkennungs-Pixelzellen (31L) eine Öffnung einer fotoelektrischen Wandlereinheit im Vergleich zu den Bildaufnahme-Pixelzellen (30) nach links versetzt ist und wobei bei den zweiten Phasendifferenzerkennungs-Pixelzellen (31R) eine Öffnung einer fotoelektrischen Wandlereinheit im Vergleich zu den Bildaufnahme-Pixelzellen (30) nach rechts versetzt ist, (c3) jedes Paar einer ersten Phasendifferenzerkennungs-Pixelzelle (31L) und einer zweiten Phasendifferenzerkennungs-Pixelzelle (31R) Lichtströme erfasst, die durch unterschiedliche Pupillenbereiche der optischen Fotografier-Linse (1) hindurchtreten, und entsprechend eine erste Signalgruppe der ersten Phasendifferenzerkennungs-Pixelzelle (31L) und eine zweite Signalgruppe der zweiten Phasendifferenzerkennungs-Pixelzelle (31R) ausgibt; (d) eine erste Berechnungseinheit (19) zum (d1) Berechnen eines ersten Fokussiereinstellungszustands der optischen Fotografier-Linse (1) als Betrag und Richtung einer Abweichung gegenüber dem Fokuszustand, durch Ausführen von Korrelationsoperationen zwischen den ersten Signalgruppen und den zweiten Signalgruppen eines ersten Fokussierbereichs (50A) aus der Vielzahl der Fokussierbereiche des Bildaufnahmeelements (5), (d2) Bestimmen der Zuverlässigkeit des ersten Fokussiereinstellungszustands anhand einer Intensität eines Kontrasts des aufgenommenen Bildsignals, und (d3) Übermitteln des ersten Fokussiereinstellungszustands an die Systemsteuereinheit (11) wenn die Zuverlässigkeit des ersten Fokussiereinstellungszustands größer als ein Schwellenwert ist; (e) eine zweite Berechnungseinheit (19) zum (e1) Bestimmen eines gegenüber dem ersten Fokussierbereich (50A) erweiterten zweiten Fokussierbereichs (50A, 50B, 50C) wenn die Zuverlässigkeit des ersten Fokussiereinstellungszustands kleiner oder gleich als der Schwellenwert ist, (e2) Erneutes Berechnen eines Fokussiereinstellungszustandes als zweiten Fokussiereinstellungszustand der optischen Fotografier-Linse (1) als Betrag und Richtung einer Abweichung gegenüber dem Fokuszustand, durch Ausführen von Korrelationsoperationen zwischen den ersten Signalgruppen und den zweiten Signalgruppen des zweiten Fokussierbereichs (50A, 50B, 50C) des Bildaufnahmeelements (5), und (e3) Übermitteln des zweiten Fokussiereinstellungszustands an die Systemsteuereinheit (11); wobei (f) die Systemsteuereinheit (11) eine Autofokussierung der optischen Fotografier-Linse (1) anhand des übermittelten ersten Fokussiereinstellungszustands oder zweiten Fokussiereinstellungszustands so ausführt, dass die optische Fotografier-Linse (1) den Fokuszustand erreicht.
  2. Bildaufnahmevorrichtung nach Anspruch 1, wobei die zweite Berechnungseinheit (19) eine erste Verarbeitung ausführt, gemäß einer ersten Vielzahl erster und zweiter Signalgruppen einer vorbestimmten Anzahl erster Phasendifferenzerkennungs-Pixelzellen (31L) und zweiter Phasendifferenzerkennungs-Pixelzellen (31R) aus dem zweiten Fokussierbereich (50A, 50B, 50C), sowie eine zweite Verarbeitung durchführt, gemäß einer zweiten Vielzahl erster und zweiter Signalgruppen einer vorbestimmten Anzahl erster Phasendifferenzerkennungs-Pixelzellen (31L) und zweiter Phasendifferenzerkennungs-Pixelzellen (31R) aus dem zweiten Fokussierbereich (50A, 50B, 50C), und den zweiten Fokussiereinstellungszustand anhand der Ergebnisse der ersten Verarbeitung und der zweiten Verarbeitung berechnet.
  3. Bildaufnahmevorrichtung nach Anspruch 2, wobei, wenn eine Helligkeit eines Bildgegenstands einen vorbestimmten Wert überschreitet, die zweite Berechnungseinheit (19) den zweiten Fokussiereinstellungszustand basierend auf dem Ergebnis der ersten Verarbeitung oder der zweiten Verarbeitung berechnet.
  4. Bildaufnahmevorrichtung nach Anspruch 2, enthaltend eine Betriebseinheit (10) des Bildaufnahmeelements (5), die, wenn der Fokussiereinstellungszustand durch die erste Verarbeitung berechnet wird, die Vielzahl erster und zweiter Signalgruppen von dem Bildaufnahmeelement (5) unabhängig ausliest.
  5. Bildaufnahmevorrichtung nach Anspruch 3 und 4, wobei, wenn die Helligkeit des Gegenstands den vorbestimmten Wert überschreitet, die Betriebseinheit (10) des Bildaufnahmeelements (5) ein Auslesen nicht auszuwertender erster und zweiter Signalgruppen aus dem Bildaufnahmeelement (5) unterlässt.
  6. Verfahren zur Fokussierungssteuerung einer Bildaufnahmevorrichtung, umfassend die Schritte: (a) Ausgeben eines mittels einer optischen Fotografier-Linse (1) der Bildaufnahmevorrichtung aufgenommen Bilds mittels einem Bildaufnahmeelement (5) der Bildaufnahmevorrichtung, wobei (a1) das Bildaufnahmeelement (5) in seinem Zentrum eine Vielzahl von gitterförmig angeordneten Fokussierbereichen (50) aufweist, (a2) in jedem Fokussierbereich (50) des Bildaufnahmeelements (5) eine Vielzahl von Bildaufnahme-Pixelzellen (30) und eine Vielzahl von Paaren erster Phasendifferenzerkennungs-Pixelzellen (31L) und zweiter Phasendifferenzerkennungs-Pixelzellen (31R) vorgesehen sind, wobei bei den ersten Phasendifferenzerkennungs-Pixelzellen (31L) eine Öffnung einer fotoelektrischen Wandlereinheit im Vergleich zu den Bildaufnahme-Pixelzellen (30) nach links versetzt ist und wobei bei den zweiten Phasendifferenzerkennungs-Pixelzellen (31R) eine Öffnung einer fotoelektrischen Wandlereinheit im Vergleich zu den Bildaufnahme-Pixelzellen (30) nach rechts versetzt ist, und (a3) jedes Paar einer ersten Phasendifferenzerkennungs-Pixelzelle (31L) und einer zweiten Phasendifferenzerkennungs-Pixelzelle (31R) Lichtströme erfasst, die durch unterschiedliche Pupillenbereiche der optischen Fotografier-Linse (1) hindurchtreten, und entsprechend eine erste Signalgruppe der ersten Phasendifferenzerkennungs-Pixelzelle (31L), und eine zweite Signalgruppe der zweiten Phasendifferenzerkennungs-Pixelzelle (31R) ausgibt; (b) Berechnen eines ersten Fokussiereinstellungszustands der optischen Fotografier-Linse (1) als Betrag und Richtung einer Abweichung gegenüber dem Fokuszustand, durch Ausführen von Korrelationsoperationen zwischen den ersten Signalgruppen und den zweiten Signalgruppen eines ersten Fokussierbereichs (50A) des Bildaufnahmeelements (5), (c) Bestimmen der Zuverlässigkeit des ersten Fokussiereinstellungszustands anhand einer Intensität eines Kontrasts des aufgenommenen Bildsignals, (d) Übermitteln des ersten Fokussiereinstellungszustands an eine Systemsteuereinheit (11) der Bildaufnahmevorrichtung wenn die Zuverlässigkeit des ersten Fokussiereinstellungszustands größer als ein Schwellenwert ist; (e) Bestimmen eines gegenüber dem ersten Fokussierbereich (50A) erweiterten zweiten Fokussierbereichs (50A, 50B, 50C), wenn die Zuverlässigkeit des ersten Fokussiereinstellungszustands kleiner oder gleich als der Schwellenwert ist, (f) Erneutes Berechnen eines Fokussiereinstellungszustands als zweiten Fokussiereinstellungszustand der optischen Fotografier-Linse (1) als Betrag und Richtung einer Abweichung gegenüber dem Fokuszustand, durch Ausführen von Korrelationsoperationen zwischen den ersten Signalgruppen und den zweiten Signalgruppen des zweiten Fokussierbereichs (50A, 50B, 50C) des Bildaufnahmeelements (5); (g) Übermitteln des zweiten Fokussiereinstellungszustands an die Systemsteuereinheit (11); und (h) Ausführen einer Autofokussierung der Fotografier-Linse (1) durch die Systemsteuereinheit (11) anhand des übermittelten ersten Fokussiereinstellungszustands oder zweiten Fokussiereinstellungszustands so, dass die optische Fotografier-Linse (1) den Fokuszustand erreicht.
DE112013002286.9T 2012-05-01 2013-04-03 Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung Active DE112013002286B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-104574 2012-05-01
JP2012104574 2012-05-01
PCT/JP2013/060208 WO2013164937A1 (ja) 2012-05-01 2013-04-03 撮像装置及び合焦制御方法

Publications (2)

Publication Number Publication Date
DE112013002286T5 DE112013002286T5 (de) 2015-02-05
DE112013002286B4 true DE112013002286B4 (de) 2016-03-24

Family

ID=49514338

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013002286.9T Active DE112013002286B4 (de) 2012-05-01 2013-04-03 Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung

Country Status (5)

Country Link
US (1) US9288384B2 (de)
JP (1) JP5690974B2 (de)
CN (1) CN104272161B (de)
DE (1) DE112013002286B4 (de)
WO (1) WO2013164937A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104854496B (zh) * 2012-11-22 2017-04-12 富士胶片株式会社 摄像装置、散焦量运算方法及摄像光学系统
US9742980B2 (en) * 2013-11-01 2017-08-22 Canon Kabushiki Kaisha Focus control apparatus and control method therefor
JP6344909B2 (ja) * 2013-12-03 2018-06-20 キヤノン株式会社 撮像装置及びその制御方法
JP2016038414A (ja) * 2014-08-05 2016-03-22 キヤノン株式会社 焦点検出装置およびその制御方法、並びに撮像装置
JP6482247B2 (ja) * 2014-11-14 2019-03-13 キヤノン株式会社 焦点調節装置、撮像装置、焦点調節装置の制御方法、及びプログラム
US9804357B2 (en) 2015-09-25 2017-10-31 Qualcomm Incorporated Phase detection autofocus using masked and unmasked photodiodes
US9420164B1 (en) 2015-09-24 2016-08-16 Qualcomm Incorporated Phase detection autofocus noise reduction
KR102390836B1 (ko) 2015-10-05 2022-04-26 삼성전자주식회사 이미지 데이터를 생성하는 전자 장치 및 방법
JP6790435B2 (ja) 2016-04-20 2020-11-25 ソニー株式会社 受信装置、送信装置、および通信システム、ならびに、信号受信方法、信号送信方法、および通信方法
JP6740019B2 (ja) * 2016-06-13 2020-08-12 キヤノン株式会社 撮像装置およびその制御方法
JP6833405B2 (ja) 2016-08-26 2021-02-24 キヤノン株式会社 焦点検出装置、焦点調節装置、撮像装置及び焦点検出方法
JP6780389B2 (ja) 2016-09-07 2020-11-04 ソニー株式会社 撮像制御装置および撮像制御方法
JP6808420B2 (ja) * 2016-09-27 2021-01-06 キヤノン株式会社 撮像素子および撮像装置
JP7230807B2 (ja) * 2017-08-09 2023-03-01 ソニーグループ株式会社 信号処理装置、撮像装置、信号処理方法及びプログラム
EP3447678A1 (de) * 2017-08-21 2019-02-27 Axis AB Verfahren und bildverarbeitungsvorrichtung zur erkennung eines teils eines bildes
JP7279313B2 (ja) * 2018-07-20 2023-05-23 株式会社ニコン 焦点検出装置、及び、撮像装置
JP2020122906A (ja) * 2019-01-31 2020-08-13 キヤノン株式会社 焦点検出装置、撮像装置および焦点検出方法
CN110769162B (zh) * 2019-11-28 2021-07-13 维沃移动通信有限公司 电子设备及对焦方法
JP2021193412A (ja) * 2020-06-08 2021-12-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 装置、撮像装置、撮像システム、移動体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199477A (ja) * 2007-02-15 2008-08-28 Matsushita Electric Ind Co Ltd 撮像装置
WO2011136031A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 撮像装置
US20110298963A1 (en) * 2010-06-04 2011-12-08 Shingo Kato Image pickup apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11258489A (ja) * 1998-03-10 1999-09-24 Canon Inc 焦点検出装置、方法及びコンピュータ読み取り可能な記憶媒体
US7358999B2 (en) 1998-03-10 2008-04-15 Canon Kabushiki Kaisha Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
JPH11258492A (ja) * 1998-03-10 1999-09-24 Canon Inc 焦点検出装置、方法及びコンピュータ読み取り可能な記憶媒体
GB0503032D0 (en) * 2005-02-14 2005-03-23 Fujifilm Electronic Imaging Blip focus
US8503424B2 (en) * 2010-06-23 2013-08-06 Qualcomm Incorporated Apparatus and methods for managing operator information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199477A (ja) * 2007-02-15 2008-08-28 Matsushita Electric Ind Co Ltd 撮像装置
WO2011136031A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 撮像装置
US20130100338A1 (en) * 2010-04-28 2013-04-25 Fujifilm Corporation Imaging device
US20110298963A1 (en) * 2010-06-04 2011-12-08 Shingo Kato Image pickup apparatus

Also Published As

Publication number Publication date
CN104272161B (zh) 2016-05-18
JP5690974B2 (ja) 2015-03-25
JPWO2013164937A1 (ja) 2015-12-24
US9288384B2 (en) 2016-03-15
US20150055011A1 (en) 2015-02-26
DE112013002286T5 (de) 2015-02-05
WO2013164937A1 (ja) 2013-11-07
CN104272161A (zh) 2015-01-07

Similar Documents

Publication Publication Date Title
DE112013002286B4 (de) Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung
DE112014006009B4 (de) Bildaufnahmegerät und Zeitraffer-Bildaufnahmeverfahren
DE112013006817B4 (de) Bildaufnahmevorrichtung, Signalverarbeitungsverfahren und Signalverarbeitungsprogramm
US9386216B2 (en) Imaging device, defocus amount calculating method, and imaging optical system
US9380204B2 (en) Imaging device and focus control method
CN105493493B (zh) 摄像装置、摄像方法及图像处理装置
DE112013005599B4 (de) Bildaufnahmevorrichtung
DE112013006596B4 (de) Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren und Programm
DE112014004092B4 (de) Bildaufnahmevorrichtung und Fokussiersteuerverfahren
US9277201B2 (en) Image processing device and method, and imaging device
JP5799178B2 (ja) 撮像装置及び合焦制御方法
CN105409198B (zh) 摄像装置及图像处理方法
DE112015006245B4 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
DE112013006814T5 (de) Bildbeurteilungseinrichtung, Aufnahmegerät, 3D-Messgerät, Bildbeurteilungsverfahren und Programm
DE112013004435T5 (de) Bildverarbeitungsvorrichtung, Bildaufnahmevorrichtung, Bildverarbeitungsverfahren, Programm und Aufzeichnungsmedium
CN106415348B (zh) 摄像装置及对焦控制方法
CN106030366A (zh) 摄像装置及对焦控制方法
WO2015045704A1 (ja) 撮像装置及び合焦制御方法
DE102018115437A1 (de) Abbildungssteuerungsvorrichtung und Steuerungsverfahren für diese
CN106062607B (zh) 摄像装置及对焦控制方法
CN104272732A (zh) 图像处理装置、方法及摄像装置
DE112013004759T5 (de) Bildaufnahmevorrichtung und Bildverarbeitungsverfahren
DE102014223858A1 (de) Bildaufnahmevorrichtung, die zum Ändern eines Ansteuermodus fähig ist, und Bildsignalsteuerverfahren
CN106062608A (zh) 摄像装置及对焦控制方法
CN104380712B (zh) 摄像装置及摄像方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: HOFFMANN - EITLE PATENT- UND RECHTSANWAELTE PA, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final