DE102013226831B4 - Abbildungsgerät und Verfahren zur Steuerung desselben - Google Patents

Abbildungsgerät und Verfahren zur Steuerung desselben Download PDF

Info

Publication number
DE102013226831B4
DE102013226831B4 DE102013226831.9A DE102013226831A DE102013226831B4 DE 102013226831 B4 DE102013226831 B4 DE 102013226831B4 DE 102013226831 A DE102013226831 A DE 102013226831A DE 102013226831 B4 DE102013226831 B4 DE 102013226831B4
Authority
DE
Germany
Prior art keywords
focus detection
focus
cpu
image
peak position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102013226831.9A
Other languages
English (en)
Other versions
DE102013226831A1 (de
Inventor
Akiko Wada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102013226831A1 publication Critical patent/DE102013226831A1/de
Application granted granted Critical
Publication of DE102013226831B4 publication Critical patent/DE102013226831B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Abstract

Abbildungsgerät mit:
einer Abbildungseinheit (108), die konfiguriert ist, ein Bildsignal durch eine fotoelektrische Umwandlung eines Objektbildes zu erlangen,
einer Autofokus-Verarbeitungseinheit (105), die einen Fokusjustierungsbetrieb für eine Fokuslinse (104) auf der Grundlage eines Fokusbewertungswerts ausführt, der in einer Vielzahl von Fokuserfassungsbereichen erhalten wird, die für ein Bildsignal eingestellt werden;
einer Steuerungseinheit (115), die konfiguriert ist, eine Steuerung in einer derartigen Art und Weise auszuführen, dass eine erste Aufnahmereihenbetriebsart und eine zweite Aufnahmereihenbetriebsart auf der Grundlage des Bildsignals ausgeführt werden,
wobei die erste Aufnahmereihenbetriebsart eine AF-Aufnahmereihenbetriebsart ist und
wobei die Steuerungseinheit (115) konfiguriert ist, eine Spitzenwertposition in jeder der Vielzahl von Fokuserfassungsbereichen zu beschaffen und das Abbildungsgerät zu steuern, die erste Aufnahmereihenbetriebsart in einem Fall auszuführen, in dem die Spitzenwertposition jedes der Vielzahl von Fokuserfassungsbereichen eine vorbestimmte Bedingung erfüllt, und
wobei die vorbestimmte Bedingung umfasst, dass für die Vielzahl von Fokuserfassungsbereichen, die in einer Reihenfolge einer Nähe in Bezug auf die Werte der Spitzenwertpositionen, die in jedem der Vielzahl von Fokuserfassungsbereichen erhalten werden, neu angeordnet werden, eine Differenz zwischen einer Spitzenwertposition eines ersten Fokuserfassungsbereichs aus der Vielzahl von Fokuserfassungsbereichen und einer Spitzenwertposition eines zweiten Fokuserfassungsbereichs aus der Vielzahl von Fokuserfassungsbereichen nicht innerhalb einer vorbestimmten Schärfentiefe ist, wobei die Spitzenwertposition des zweiten Fokuserfassungsbereichs eine Spitzenwertposition ist, die niedriger als die Spitzenwertposition des ersten Fokuserfassungsbereichs in der Reihenfolge einer Nähe um eine eingestellte Anzahl eingeordnet ist,
und wobei die Anzahl derart eingestellt ist, dass ein Verhältnis der Anzahl zu der Gesamtanzahl der Vielzahl von Fokuserfassungsbereichen ein vorbestimmtes Verhältnis ist.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Abbildungsgerät, das ein Bildsignal erlangt bzw. beschafft, und ein Verfahren zur Steuerung des Abbildungsgeräts.
  • Beschreibung des verwandten Standes der Technik
  • Herkömmlicherweise wird, wenn eine elektronische Standbildkamera oder eine Videokamera eine Autofokus-Verarbeitung (als „AF“ bezeichnet) ausführt, eine Fokuslinsenposition, bei der eine Hochfrequenzkomponente eines Leuchtdichtesignals bzw. Luminanzsignals, das durch einen Bildsensor erhalten wird, der eine ladungsgekoppelte Schaltung (Charged Coupled Device bzw. CCD) umfasst, maximiert ist, als eine Im-Fokus-Position bzw. fokussierte oder scharfgestellte Position eingestellt. Eines von derartigen herkömmlichen Verfahren ist ein Abtastungsverfahren bzw. Scanning-Verfahren. Genauer gesagt umfasst das Abtastungsverfahren ein Speichern eines Bewertungswerts, der auf der Hochfrequenzkomponente des Leuchtdichtesignals beruht, das durch den Bildsensor erhalten wird (der als „Fokusbewertungswert“ bezeichnet werden kann), für jede Fokuslinsenposition, während eine Fokuslinse in einem vorbestimmten Fokuserfassungsbereich (beispielsweise dem gesamten Bereich) verfahren bzw. angesteuert wird.
  • Das Abtastungsverfahren umfasst ferner ein Einstellen eines Bereichs (nachstehend als AF-Rahmen bezeichnet), um den Fokusbewertungswert in einem zentralen Bereich des Bildschirms oder in der Nähe eines Objekterfassungsbereichs zu erlangen, ein Erlangen einer Fokuslinsenposition entsprechend dem maximalen Fokusbewertungswert (nachstehend als eine „Spitzenwertposition“ bezeichnet) in jedem AF-Rahmen und ein Bestimmen der fokussierten Position in einem Aufnahmebetrieb.
  • Das vorstehend genannte Abtastungsverfahren ist nicht nur verwendbar, um die fokussierte Position in einem Aufnahmebetrieb zu bestimmen, sondern auch, um eine Entfernungsverteilung in dem Bildschirm zu erlangen, indem eine Vielzahl von AF-Rahmen für eine Bestimmung in einer Bildverarbeitung eingestellt wird.
  • Wie es in der japanischen Patentoffenlegungsschrift Nr. JP 2012 - 004 716 A diskutiert ist, ist es im Allgemeinen bekannt, den Bildschirm in einige Bereiche auf der Grundlage von Objektentfernungsinformationen zu teilen und eine vorbestimmte Bildverarbeitung bei jeder Szene bzw. jedem Motiv auszuführen, die für einen jeweiligen geteilten Bereich bestimmt wird.
  • In einem Fall, bei dem die Schärfentiefe eines Motivs hoch ist, kann sich jedoch die Teilungsgenauigkeit verschlechtern, wenn zwei oder mehr geteilte Bereiche in der gleichen Schärfentiefe vorhanden sind, auch wenn die Bereichsteilung auf der Grundlage einer Differenz in der Objektentfernung ausgeführt wird. Ferner kann in einem Fall, bei dem ein Motiv so flach ist, dass es keine Entfernungsdifferenz gibt, die Bereichsteilung aufgrund einer Abweichung in der Verteilung fehlerhaft ausgeführt werden, obwohl die Bereichsteilung auf der Grundlage der Entfernung tatsächlich nicht ausgeführt werden kann.
  • In der vorstehend genannten herkömmlichen Technik, die in der japanischen Patentoffenlegungsschrift Nr. JP 2012 - 004 716 A diskutiert ist, kann die Entfernungsteilung fehlerhaft ausgeführt werden, weil eine Überprüfung der Entfernungsteilungsgenauigkeit in dem Bildschirm nicht ausgeführt wird.
  • Die Druckschrift US 2010 / 0 073 549 A1 beschreibt eine Digitalkamera mit Autofokusfähigkeit und kontinuierlicher Aufnahmefähigkeit, die ein Abbildungssystem, das einen Fotografierbetrieb ausführt und erfasste Bilddateien in einem Pufferspeicher aufzeichnet; ein AF-System, das einen Fokuszustandserkennungsvorgang, in dem das AF-System einen Fokussierungszustand erfasst, und einen Fokuslinsengruppenantriebsvorgang ausführt, in dem das AF-System eine Fokuslinsengruppe in eine Fokussierungsposition bewegt; und erste und zweite Schalter umfasst, die das AF-System bzw. das Abbildungssystem betätigen. Während die ersten und zweiten Schalter eingeschaltet gehalten werden, führt die Digitalkamera einen kontinuierlichen Aufnahmevorgang durch, bei dem das Abbildungssystem wiederholt den Fotografierbetrieb ausführt und das AF-System wiederholt den Fokussierungszustand-Erkennungsvorgang ausführt. Sobald der Pufferspeicher während des kontinuierlichen Aufnahmevorgangs voll wird, unterbricht das Abbildungssystem den Fotografierbetrieb und das AF-System führt den Fokussierungszustand-Erkennungsvorgang und den Fokuslinsengruppenantriebsvorgang aus. Ferner ist beschrieben, dass eine kontinuierliche Aufnahmebetriebsart bei der Digitalkamera verfügbar ist, wobei, wenn eine AF-A-Betriebsart in der kontinuierlichen Aufnahmebetriebsart ausgewählt wird, eine AF-C-Betriebsart und die AF-A-Betriebsart nach Erfordernis während der kontinuierlichen Aufnahme umgeschaltet werden.
  • Die Druckschrift US 2010 / 0 134 644 A1 beschreibt ein Bildaufnahmegerät. Eine Digitalkamera ist mit einer Bildaufnahmeeinheit und einem Beste-Aufnahme-Datenspeicher versehen, der mehrere Arten von Aufnahmeszenen speichert, die jeweils einem ersten Dateiformat und einem zweiten Dateiformat zugeordnet sind, wobei das erste Dateiformat für eine Bilddatei eines einzelnen Bildes und das zweite Dateiformat für eine Bilddatei mehrerer Bilder verwendet wird, wenn die Bilddatei der in den Aufnahmeszenen erhaltenen Bilder erzeugt wird. Wenn eine der Aufnahmeszenen eingestellt ist, wird in der eingestellten Aufnahmeszene ein Aufnahmevorgang durchgeführt, um Bilder zu erhalten, und es wird eine Bilddatei des Bildes oder eine Bilddatei der Bilder erzeugt, wobei die Bilddatei das der eingestellten Aufnahmeszene entsprechende Dateiformat aufweist. Ferner ist beschrieben, dass der Benutzer in der Lage ist, eine von mehreren Aufnahmebetriebsarten auszuwählen, die eine Beste-Aufnahme-Betriebsart und eine Aufnahmereihenbetriebsart usw. umfassen, indem eine Aufnahmebetriebsartauswahleinrichtung betätigt wird. Die Aufnahme in der Aufnahmereihe wird ausgeführt, wenn die Aufnahmereihenbetriebsart als Aufnahmebetriebsart ausgewählt ist. Ein Aufnehmen in der Aufnahmereihe entsprechend der Aufnahmeszene, die durch den Benutzer ausgewählt wird, wird ausgeführt, wenn die Beste-Aufnahme-Betriebsart als Aufnahmebetriebsart ausgewählt ist.
  • Die Druckschrift US 2008 / 0 143 865 A1 beschreibt eine Bildaufnahmevorrichtung. Die Bildaufnahmevorrichtung umfasst eine Extraktionseinheit, die konfiguriert ist, Merkmalspunkte eines Objekts aus aufgenommenen Bilddaten zu extrahieren, eine Fokusjustiereinheit, die konfiguriert ist, vor Beginn der Aufnahme eines Bildes zur Aufzeichnung und/oder Speicherung eine Fokusposition zu erfassen, indem sie eine Fokuslinse in Richtung einer optischen Achse über einen Abtastbereich bewegt, der basierend auf den extrahierten Merkmalspunkten bestimmt wird, und die Bewegung der Fokuslinse zu steuern, die an die Fokusposition anzupassen ist, und eine Betriebszeitsteuerungseinheit, die konfiguriert ist, um die Fokusjustiereinheit und die Extraktionseinheit in einer synchronen Beziehung in einer kontinuierlichen Aufnahmebetriebsart zu betreiben, in der die Aufnahme eines Bildes zur Aufzeichnung und/oder Speicherung mehrmals wiederholt wird. Ferner ist beschrieben, dass bei einer Bestimmung, dass die derzeit eingestellte Ansteuerungsbetriebsart die kontinuierliche Aufnahmebetriebsart ist, es bestimmt wird, ob ein Schalter kontinuierlich eingeschaltet gehalten wird. Wenn der Schalter kontinuierlich eingeschaltet gehalten wird, wird eine Unterroutine für eine Zwischenaufnahme-AF-Verarbeitung in der kontinuierlichen Aufnahmebetriebsart ausgeführt.
  • KURZZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung ist auf eine Technik gerichtet, die in der Lage ist, eine Szene bzw. ein Motiv in einem Aufnahmebetrieb zu bestimmen und in geeigneter Weise eine Bildverarbeitung und eine Bildaufnahmeverarbeitung auf der Grundlage eines Bestimmungsergebnisses auszuführen.
  • Dies wird durch ein Abbildungsgerät gemäß Anspruch 1 und ein Verfahren zum Steuern eines Abbildungsgeräts gemäß Anspruch 5 gelöst. Vorteilhafte Weiterbildungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß einer Ausgestaltung umfasst ein Abbildungsgerätsteuerungsverfahren ein Erlangen eines Bildsignals durch eine fotoelektrische Umwandlung eines Objektbilds und ein Ausführen einer Steuerung in einer derartigen Art und Weise, dass eine erste kontinuierliche Aufnahmebetriebsart und eine zweite kontinuierliche Aufnahmebetriebsart auf der Grundlage des Bildsignals ausgeführt werden, wobei eine Bildaufnahmebedingung in der ersten kontinuierlichen Aufnahmebetriebsart unterschiedlich zu einer Bildaufnahmebedingung in der zweiten kontinuierlichen Aufnahmebetriebsart ist.
  • Weitere Merkmale und Ausgestaltungen der vorliegenden Erfindung werden aus der nachstehenden ausführlichen Beschreibung beispielhafter Ausführungsbeispiele unter Bezugnahme auf die beigefügte Zeichnung ersichtlich.
  • Figurenliste
  • Die beigefügte Zeichnung, die in die Spezifikation eingegliedert ist und einen Teil der Spezifikation bildet, veranschaulicht beispielhafte Ausführungsbeispiele, Merkmale und Ausgestaltungen der Erfindung, wobei sie zusammen mit der Beschreibung dazu dient, die Prinzipien der Erfindung zu erklären.
    • 1 zeigt ein Blockschaltbild, das eine Anordnung eines Abbildungsgeräts gemäß einem beispielhaften Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 2 zeigt ein Flussdiagramm, das einen Betrieb des Abbildungsgeräts gemäß einem beispielhaften Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht.
    • 3 zeigt ein Flussdiagramm, das eine AF-Abtastverarbeitung zeigt, die in 2 veranschaulicht ist.
    • 4 veranschaulicht ein Beispiel einer AF-Rahmeneinstellung, die in 2 veranschaulicht ist.
    • 5 zeigt ein Flussdiagramm, das eine Zonen-AF-Abtastverarbeitung veranschaulicht, die in 3 veranschaulicht ist.
    • 6 zeigt ein Flussdiagramm, das eine Zonenaktualisierungsbestimmungsverarbeitung veranschaulicht, die in 5 veranschaulicht ist.
    • 7A bis 7G veranschaulichen eine Zonenaktualisierungsbestimmungsverarbeitung, die in 5 veranschaulicht ist.
    • 8 zeigt ein Flussdiagramm, das eine Rahmenauswahlverarbeitung in Reaktion auf eine erfolgreiche Objekterfassung veranschaulicht, die in 5 veranschaulicht ist.
    • 9 zeigt ein Flussdiagramm, das eine Rahmenauswahlverarbeitung in Reaktion auf eine fehlgeschlagene Objekterfassung veranschaulicht, die in 5 veranschaulicht ist.
    • 10A, 10B und 10C veranschaulichen die Rahmenauswahlverarbeitung in Reaktion auf eine fehlgeschlagene Objekterfassung, die in 5 veranschaulicht ist.
    • 11 zeigt ein Flussdiagramm, das eine Äquidistanzbestimmungsverarbeitung veranschaulicht, die in 3 veranschaulicht ist.
    • 12 zeigt ein Flussdiagramm, das eine kontinuierliche AF-Verarbeitung veranschaulicht, die in 2 veranschaulicht ist.
    • 13 zeigt ein Flussdiagramm, das eine Aufnahmereihenbestimmungsverarbeitung veranschaulicht, die in 2 veranschaulicht ist.
    • 14 zeigt ein Flussdiagramm, das eine Hauptbelichtungs-AF-Abtastverarbeitung veranschaulicht, die in 2 veranschaulicht ist.
    • 15A und 15B veranschaulichen eine Entfernungsabbildungserzeugung, die in 14 veranschaulicht ist.
    • 16 zeigt ein Flussdiagramm, das eine Bildaufnahmeverarbeitung veranschaulicht, die in 2 veranschaulicht ist.
    • 17A und 17B veranschaulichen Beispiele einer Fokussierungsrahmenanzeige, die in 14 veranschaulicht ist.
    • 18 zeigt ein Flussdiagramm, das einen Betrieb veranschaulicht, der durch ein Abbildungsgerät gemäß einem beispielhaften Ausführungsbeispiel der vorliegenden Erfindung ausgeführt werden kann.
    • 19 zeigt ein Flussdiagramm, das eine Phasendifferenz-AF-Verarbeitung veranschaulicht, die in 18 veranschaulicht ist.
    • 20A, 20B und 20C veranschaulichen schematisch eine Bildelementanordnung eines Bildsensors.
    • 21 veranschaulicht einen Pupillenteilungszustand eines Bildelements.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Verschiedene beispielhafte Ausführungsbeispiele, Merkmale und Ausgestaltungen der Erfindung werden nachstehend unter Bezugnahme auf die Zeichnung ausführlich beschrieben.
  • Eine elektronische Kamera, die ein Beispiel eines Abbildungsgeräts gemäß einem beispielhaften Ausführungsbeispiel der vorliegenden Erfindung ist, ist nachstehend unter Bezugnahme auf die beigefügte Zeichnung ausführlich beschrieben. Zuerst ist nachstehend ein erstes beispielhaftes Ausführungsbeispiel unter Bezugnahme auf die beigefügte Zeichnung ausführlich beschrieben.
  • <Konfiguration einer elektronischen Kamera>
  • 1 zeigt ein Blockschaltbild, das eine Anordnung einer elektronischen Kamera gemäß der vorliegenden Erfindung veranschaulicht.
  • Eine fotografische Linse 101, die einen Zoom-Mechanismus umfasst, ist konfiguriert, eine Brennweite zu verändern. Eine Belichtungsautomatik-(AE)-Verarbeitungseinheit 103 ist konfiguriert, eine Belichtungssteuerung auszuführen, um Objektluminanzinformationen bzw. Objektleuchtdichteinformationen zu erfassen. Eine Fokuslinse 104 kann ein Bild auf einen Bildsensor 108 fokussieren. Eine Autofokus-(AF-)Verarbeitungseinheit 105 umfasst einen Fokuslinsenantriebsmotor, der die Fokuslinse 104 bewegt. Der Bildsensor 108 ist funktional als eine Lichtempfangseinheit oder eine fotoelektrische Umwandlungseinheit betriebsfähig, die konfiguriert ist, ein Objektbild (d.h. ein Licht, das von einem Objekt reflektiert wird, das über die Fokuslinse 104 abgebildet wird) in ein elektrisches Signal umzuwandeln. Eine Analog/Digital-(A/D-)Umwandlungseinheit 109 umfasst eine CDS-Schaltung, die konfiguriert ist, eine Rauschkomponente von einer Ausgabe des Bildsensors 108 zu entfernen, und eine nichtlineare Verstärkungsschaltung, die konfiguriert ist, das Eingangssignal nichtlinear zu verstärken, bevor es einer A/D-Umwandlung unterzogen wird. Die A/D-Umwandlungseinheit 109 ist konfiguriert, ein Bildsignal, das von dem Bildsensor 108 ausgegeben wird, von einem analogen Signal in ein digitales Signal umzuwandeln.
  • Eine Bildverarbeitungseinheit 110 ist konfiguriert, eine vorbestimmte Bildverarbeitung bei dem Signal auszuführen, das von der A/D-Umwandlungseinheit empfangen wird, und Bilddaten auszugeben. Ferner ist die Bildverarbeitungseinheit 110 konfiguriert, einen Fokusbewertungswert auf der Grundlage eines Leuchtdichtesignals bzw. Luminanzsignals zu erzeugen, das von der Ausgabe der A/D-Umwandlungseinheit 109 erhalten wird, und den erzeugten Fokusbewertungswert zu einer Systemsteuerungseinheit 115 auszugeben. Der Fokusbewertungswert gibt die Schärfe eines Bilds an, der auf der Grundlage einer Hochfrequenzkomponente des Leuchtdichtesignals erzeugt werden kann. Die Position der Fokuslinse 104, die einem Punkt entspricht, bei dem der Fokusbewertungswert einen Spitzenwertpegel annimmt, ist eine fokussierte Position bzw. Im-Fokus-Position (d.h. eine Spitzenwertposition), bei der das Objektbild in einen fokussierten bzw. scharfgestellten Zustand gebracht ist.
  • Eine Formatumwandlungseinheit 112 ist konfiguriert, Bilddaten zu verarbeiten, die von der Bildverarbeitungseinheit 110 empfangen werden, und die verarbeiteten Daten in einen eingebauten Hochgeschwindigkeitsspeicher 113 (beispielsweise ein Speicher mit wahlfreiem Zugriff) zu speichern, der nachstehend als „DRAM“ bezeichnet wird. Ferner ist eine WB-Verarbeitungseinheit 111 konfiguriert, eine Weißabgleichsverarbeitung bei Bilddaten auszuführen, die von der Bildverarbeitungseinheit 110 empfangen werden. In dem vorliegenden beispielhaften Ausführungsbeispiel ist der DRAM 113 als ein Hochgeschwindigkeitspuffer verwendbar (der als eine temporärer Bildspeichereinheit betriebsfähig ist) oder als ein Arbeitsspeicher verwendbar, wenn eine Bildkomprimierung/-dekomprimierung ausgeführt wird.
  • Die Bilddaten, die in dem DRAM 113 gespeichert werden, können in einer Bildaufzeichnungseinheit 114 gespeichert werden. Die Bildaufzeichnungseinheit 114 umfasst ein Aufzeichnungsmedium (beispielsweise eine Speicherkarte) und eine Schnittstelle. Die Systemsteuerungseinheit 115 (nachstehend als „CPU“ bezeichnet) ist konfiguriert, Systembetriebe bzw. Systemoperationen (einschließlich einer Aufnahmesequenz) zu steuern. Ein Bildanzeigespeicher 116 (nachstehend als „VRAM“ bezeichnet) ist ein Speicher, der Bilddaten speichert, die verschiedenen Bildverarbeitungen unterzogen worden sind, die durch die Bildverarbeitungseinheit 110 ausgeführt werden. Eine Betriebsanzeigeeinheit 117 ist konfiguriert, ein Bild auf der Grundlage der Bilddaten anzuzeigen, die in dem VRAM 116 gespeichert sind, und einen Betriebsunterstützungsbildschirm anzuzeigen. Ferner kann die Betriebsanzeigeeinheit 117 einen derzeitigen Kamerazustand anzeigen und kann einen Bildrahmen zusammen mit einem AF-Rahmen (d.h. einen Fokuserfassungsbereich) anzeigen, wenn ein Aufnahmebetrieb ausgeführt wird.
  • Eine Betätigungseinheit 118 ist konfiguriert, einen Benutzer in die Lage zu versetzen, die Kamera zu betätigen. Beispielsweise umfasst die Betätigungseinheit 118 einen Menüschalter, der betriebsfähig ist, verschiedene Einstellungen (beispielsweise funktionale Einstellungen, die eine Bildaufnahmeverarbeitung betreffen, und Einstellungen, die eine Bildwiedergabeverarbeitung betreffen) für das Abbildungsgerät auszuführen, einen Zoom-Hebel, der betriebsfähig ist, einen Zoombetrieb der Fotografierlinse 101 anzuweisen, und einen Betriebsartänderungsschalter, der betriebsfähig ist, zwischen einer Aufnahmebetriebsart und einer Wiedergabebetriebsart umzuschalten. Ein Schalter 121 (nachstehend als „SW1“ bezeichnet) ist betriebsfähig, einen Aufnahmebereitschaftsbetrieb (beispielsweise AF oder AE) auszuführen. Ein Schalter 122 ist ein Aufnahmeschalter (nachstehend als „SW2“ bezeichnet), der betriebsfähig ist, einen Aufnahmebetrieb nach Abschluss des Betriebs des Schalters SW1 auszuführen. Ein Objekterfassungsmodul 123 ist konfiguriert, ein Objekt auf der Grundlage eines Bildsignals zu erfassen, das durch die Bildverarbeitungseinheit 110 verarbeitet wird, und Informationen (beispielsweise eine Position, eine Magnitude und eine Zuverlässigkeit) über jedes erfasste Objekt zu der CPU 115 zu übertragen.
  • Ein geeignetes Objekterfassungsverfahren ist verwendbar, obwohl es nachstehend nicht ausführlich beschrieben ist. Beispielsweise kann das Objekterfassungsmodul 123 Informationen (beispielsweise eine Position, eine Magnitude und eine Zuverlässigkeit) über eine Fläche bzw. ein Gesicht als ein Hauptobjekt erfassen. Eine Bewegungskörpererfassungseinheit 124 ist konfiguriert, eine Bewegung eines Objekts oder des Hintergrunds in einem Abbildungsbildschirm zu erfassen und Bewegungskörperinformationen zu der CPU 115 zu übertragen. Genauer gesagt vergleicht die Bewegungskörpererfassungseinheit 124 Bilddaten von zwei zeitlich sequenziell angeordneten Bildern der Bilddaten, die durch die Bildverarbeitungseinheit 110 verarbeitet werden, wobei sie die Bewegungskörperinformationen (beispielsweise eine Betriebsgröße, eine Position und ein Bereich) über das Objekt/den Hintergrund auf der Grundlage der erhaltenen Differenzinformationen erlangt. Eine Winkelgeschwindigkeitssensoreinheit 125 ist konfiguriert, eine Bewegung des Kamerakörpers zu erfassen und Kamerabewegungsinformationen zu der CPU 115 zu übertragen.
  • <Betriebe der elektronischen Kamera>
  • Als nächstes sind Betriebe bzw. Operationen, die durch die elektronische Kamera ausgeführt werden können, nachstehend ausführlich unter Bezugnahme auf ein Flussdiagramm beschrieben, das in 2 veranschaulicht ist.
  • Zuerst überprüft die CPU 115 den EIN-/AUS-Zustand des Schalters SW1, der betriebsfähig ist, um eine Aufnahmevorbereitung anzuweisen. Wenn bestimmt wird, dass der Zustand des Schalters SW1 EIN ist (Ja in Schritt S201), schreitet der Betrieb zu Schritt S208 voran. Wenn bestimmt wird, dass der Zustand des Schalters SW1 AUS ist (Nein in Schritt S201), schreitet der Betrieb zu Schritt S202 voran.
  • In Schritt S202 führt die CPU 115 eine Motivstabilitätsbestimmungsverarbeitung bzw. Szenenstabilitätsbestimmungsverarbeitung aus, um zu überprüfen, ob der Zustand des Abbildungsmotivs bzw. der Abbildungsszene stabil ist. In Schritt S203 bestimmt die CPU 115, ob das Abbildungsmotiv stabil ist. Wenn bestimmt wird, dass das Abbildungsmotiv stabil ist (Ja in Schritt S203), schreitet der Betrieb zu S204 voran. Wenn bestimmt wird, dass das Abbildungsmotiv instabil ist (Nein in Schritt S203), springt der Betrieb zu Schritt S201 zurück. In dem vorliegenden beispielhaften Ausführungsbeispiel kann die CPU 115 bestimmen, dass der Zustand des Abbildungsmotivs stabil ist, wenn der Zustand eines Aufnahmeobjekts und der Zustand der Kamera stabil beibehalten werden und für eine Aufnahme geeignet sind. Beispielsweise kann die CPU 115 bei einer Bestimmung der Stabilität des Abbildungsmotivs auf eine Kamerabetriebsgröße, die durch den Winkelgeschwindigkeitssensor 125 erfasst werden kann, oder auf eine Leuchtdichteänderungsgröße Bezug nehmen, die durch die AE-Verarbeitungseinheit 103 erfasst werden kann.
  • In Schritt S204 führt die CPU 115 eine AF-Abtastverarbeitung entsprechend einer nachstehend beschriebenen Prozedur aus. In Schritt S205 führt die CPU 115 eine kontinuierliche AF-Verarbeitung entsprechend einer nachstehend beschriebenen Prozedur aus.
  • In Schritt S206 führt die CPU 115 eine Motivinstabilitätsbestimmungsverarbeitung aus, um zu überprüfen, ob der Zustand des Abbildungsmotivs instabil ist. In Schritt S207 überprüft die CPU 115, ob das Abbildungsmotiv in Schritt S206 als instabil bestimmt worden ist. Wenn bestimmt wird, dass das Abbildungsmotiv instabil ist (Ja in Schritt S207), springt der Betrieb zu Schritt S201 zurück. Wenn bestimmt wird, dass das Abbildungsmotiv stabil ist (Nein in Schritt S207), schreitet der Betrieb zu Schritt S205 voran.
  • In dem vorliegenden beispielhaften Ausführungsbeispiel kann die CPU 115 bestimmen, dass das Abbildungsmotiv instabil ist, wenn der Zustand des Aufnahmeobjekts und der Zustand der Kamera instabil sind und für eine Aufnahme nicht geeignet sind. Beispielsweise kann die CPU 115 auf die Kamerabetriebsgröße, die durch die Winkelgeschwindigkeitssensoreinheit 125 erfasst wird, oder einen Objekterfassungsstatus oder eine Erfassungspositionsänderungsgröße, die durch das Objekterfassungsmodul 123 erfasst werden können, bei einer Bestimmung der Instabilität des Abbildungsmotivs Bezug nehmen.
  • In Schritt S208 führt die CPU 115 eine Aufnahmereihenbestimmungsverarbeitung (Bracket-Bestimmungsverarbeitung) aus, um eine optimale Steuerung (AF-Aufnahmereiche, AE-Aufnahmereiche oder kontinuierliches Aufnehmen) zu bestimmen, die bei einem Aufnahmebetrieb auszuwählen ist, entsprechend einer nachstehend beschriebenen Prozedur aus. In Schritt S209 führt die AE-Verarbeitungseinheit 103 eine Hauptbelichtungs-AE-Verarbeitung aus. In Schritt S210 führt die AF-Verarbeitungseinheit 105 eine Hauptbelichtungs-AF-Verarbeitung entsprechend einer nachstehend beschriebenen Prozedur aus. In Schritt S211 überprüft die CPU 115 den EIN-/AUS-Zustand des Aufnahmeschalters SW2. Wenn bestimmt wird, dass der Zustand des Aufnahmeschalters SW2 EIN ist (Ja in Schritt S211), schreitet der Betrieb zu Schritt S212 voran. Wenn bestimmt wird, dass der Zustand des Aufnahmeschalters SW2 AUS ist (Nein in Schritt S211), springt der Betrieb zu Schritt S211 zurück.
  • In Schritt S212 führt die CPU 115 eine Bildaufnahmeverarbeitung entsprechend einer nachstehend beschriebenen Prozedur aus.
  • <AF-Abtastverarbeitung>
  • 3 zeigt ein Flussdiagramm, das die AF-Abtastverarbeitung veranschaulicht, die in dem in 2 veranschaulichten Schritt S204 auszuführen ist. In dem vorliegenden beispielhaften Ausführungsbeispiel umfasst die AF-Abtastverarbeitung ein Erlangen von Entfernungsinformationen, um zu bestimmen, dass ein Motiv bzw. eine Szene, die eine Entfernungsdifferenz zwischen Objekten in dem Abbildungsbildschirm umfasst (nachstehend als „Äquidistanzbestimmungsverarbeitung“ bezeichnet), und ein Ausführen eines AF-Abtastbetriebs, um eine fokussierte Position zu bestimmen. Die AF-Verarbeitungseinheit 105 und die CPU 115 führen die nachstehend beschriebene Verarbeitung zusammenwirkend aus.
  • Zuerst stellt in Schritt S301 die CPU 115 NxM Fokuserfassungsbereiche (d.h. AF-Rahmen) in dem Abbildungsbildschirm ein. 4 veranschaulicht eine AF-Rahmeneinstellung, die erreichbar ist, wenn N=7 und M=9 ist. Alternativ hierzu ist es nützlich, den AF-Rahmeneinstellungsbereich unter Berücksichtigung einer spezifischen Position in dem Abbildungsbildschirm einzustellen, bei der das Objekt durch das Objekterfassungsmodul 123 erfasst worden ist. Beispielsweise kann die CPU 115 eine Vielzahl von AF-Rahmen unter Bezugnahme auf die Position des Objekts einstellen, wenn es erfolgreich erfasst worden ist.
  • In Schritt S302 führt die CPU 115 eine Vorgängerreferenzbestimmungsverarbeitung aus, um eine Differenz zwischen dem derzeitigen Abbildungsmotiv und dem letzten Abbildungsmotiv zu überprüfen. In Schritt S303 bestimmt die CPU 115, ob das vorliegende Abbildungsmotiv im Wesentlichen das gleiche wie das letzte Abbildungsmotiv ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S303), schreitet der Betrieb zu Schritt S304 voran. Andernfalls (Nein in Schritt S303) schreitet der Betrieb zu Schritt S307 voran. In einem Fall, in dem die CPU 115 zuerst den AF-Abtastbetrieb ausführt, nachdem die Leistungsquelle bzw. Energiequelle der elektronischen Kamera eingeschaltet worden ist, schreitet der Betrieb automatisch von Schritt S303 zu Schritt S307 voran. In Schritt S304 führt die CPU 115 eine Vorgängerreferenz-AF-Abtastverarbeitung aus, während ein Abtastbereich nur in der Nähe der vorliegenden Position der Fokuslinse 104 eingestellt wird.
  • In Schritt S305 führt die CPU 115 eine Äquidistanzbestimmungsverarbeitung gemäß einer nachstehend beschriebenen Prozedur aus. In Schritt S306 bestimmt die CPU 115, ob die fokussierte Position in der Vorgängerreferenz-AF-Abtastverarbeitung, die in Schritt S304 ausgeführt wird, erfasst worden ist, und bestimmt, ob die Äquidistanzbestimmungsverarbeitung in Schritt S305 abgeschlossen worden ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S306), schreitet der Betrieb zu Schritt S309 voran. Andernfalls (Nein in Schritt S306) schreitet der Betrieb zu Schritt S307 voran.
  • In Schritt S307 führt die CPU 115 eine Zonen-AF-Abtastverarbeitung gemäß einer nachstehend beschriebenen Prozedur aus. In Schritt S308 führt die CPU 115 eine Äquidistanzbestimmungsverarbeitung gemäß einer nachstehend beschriebenen Prozedur aus.
  • In Schritt S309 überprüft die CPU 115, ob die Äquidistanz in der Äquidistanzbestimmungsverarbeitung, die in Schritt S305 oder Schritt S308 ausgeführt wird, bestätigt wird. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S309), schreitet der Betrieb zu Schritt S310 voran. Andernfalls (Nein in Schritt S309) schreitet der Betrieb zu Schritt S311 voran.
  • In Schritt S310 setzt die CPU 115 ein Äquidistanzbestimmungskennzeichen bzw. Äquidistanzbestimmungsflag auf WAHR. In Schritt S311 stellt die CPU das Äquidistanzbestimmungsflag auf FALSCH.
  • In Schritt S312 stellt die CPU 115 AF-Rahmen in dem Objekterfassungsbereich ein, wenn das Objekt durch das Objekterfassungsmodul 123 erfolgreich erfasst worden ist (d.h., wenn die Objekterfassung erfolgreich gewesen ist). Ferner stellt in einem Fall, in dem das Objekt durch das Objekterfassungsmodul 123 nicht erfolgreich erfasst worden ist (d.h., wenn die Objekterfassung fehlgeschlagen ist), wenn der Objektbereich in der Zonen-AF-Abtastverarbeitung identifiziert worden ist, die CPU 115 AF-Rahmen in dem identifizierten Objektbereich ein. Ferner stellt, wenn kein Objektbereich identifiziert werden kann, die CPU 115 AF-Rahmen in einem vorbestimmten Bereich in dem Abbildungsbildschirm ein. In dem vorliegenden beispielhaften Ausführungsbeispiel ist der vorbestimmte Bereich beispielsweise ein Rahmen in dem mittleren bzw. zentralen Bereich des Bildschirms oder irgendein anderer Bereich, in dem das Objekt möglicherweise vorhanden ist.
  • In Schritt S313 veranlasst die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich in die fokussierte Position in der Vorgängerreferenz-AF-Abtastverarbeitung, die in Schritt S304 ausgeführt wird, zu bewegen, wenn das Bestimmungsergebnis in Schritt S306 JA ist. Ferner steuert die AF-Verarbeitungseinheit 105 die Fokuslinse 104 in die fokussierte Position, die in der Zonen-AF-Abtastverarbeitung erhalten wird, in einem Fall an, in dem das Bestimmungsergebnis in Schritt S303 NEIN ist oder das Bestimmungsergebnis in Schritt S306 NEIN ist. Wenn ein Defokussierungszustand bestätigt ist, steuert die AF-Verarbeitungseinheit 105 die Fokuslinse 104 zu einem vorbestimmten fixierten Punkt an (beispielsweise eine Position, in der das Objekt wahrscheinlich vorhanden ist).
  • <Zonen-AF-Abtastverarbeitung>
  • 5 zeigt ein Flussdiagramm, das die Zonen-AF-Abtastverarbeitung veranschaulicht, die in dem in 3 veranschaulichten Schritt S307 auszuführen ist. In dem vorliegenden beispielhaften Ausführungsbeispiel gibt die „Zone“ jeden einer Vielzahl von Bereichen an, die erhalten werden kann, wenn ein fokussierbarer Entfernungsbereich der Fokuslinse 104 geteilt wird.
  • Zuerst veranlasst in Schritt S501 die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich zu einer Abtaststartposition zu bewegen. In dem vorliegenden beispielhaften Ausführungsbeispiel ist die Abtaststartposition beispielsweise eine Position eines im Unendlichen liegenden Punktes.
  • In Schritt S502 wandelt die A/D-Umwandlungseinheit 109 ein analoges Videosignal, das durch den Bildsensor 108 ausgelesen wird, in ein digitales Signal um. Die Bildverarbeitungseinheit 110 extrahiert eine Hochfrequenzkomponente des Leuchtdichtesignals aus der Ausgabe der A/D-Umwandlungseinheit 109. Die CPU 115 speichert die extrahierte Hochfrequenzkomponente als einen Fokusbewertungswert.
  • In Schritt S503 erlangt die CPU 115 Informationen über die derzeitige Position der Fokuslinse 104 und speichert Linsenpositionsdaten. In dem vorliegenden beispielhaften Ausführungsbeispiel wird der Fokusbewertungswert in Verbindung mit der Fokuslinsenposition gespeichert.
  • In Schritt S504 überprüft die CPU 115 den EIN-/AUS-Zustand des Schalters SW1, der betriebsfähig ist, um eine Aufnahmevorbereitung anzuweisen. Wenn bestimmt wird, dass der Zustand des Schalters SW1 EIN ist (Ja in Schritt S504), beendet die CPU 115 die Verarbeitung des in 5 veranschaulichten Flussdiagramms. Dann schreitet der Betrieb zu Schritt S208 voran. Wenn bestimmt wird, dass der Zustand des Schalters SW1 AUS ist (Nein in Schritt S504), schreitet der Betrieb zu Schritt S505 voran.
  • In Schritt S505 führt die CPU 115 eine Motivänderungsbestimmungsverarbeitung bzw. Szenenänderungsbestimmungsverarbeitung aus, um zu bestimmen, ob der Zustand des Aufnahmeobjekts und der Zustand der Kamera instabil sind und für eine Aufnahme nicht geeignet sind.
  • In Schritt S506 überprüft die CPU 115, ob die Fokuslinse 104 bei einer Zonengrenze positioniert ist, die im Voraus eingestellt worden ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S506), schreitet der Betrieb zu Schritt S507 voran. Andernfalls (Nein in Schritt S506) schreitet der Betrieb zu Schritt S509 voran.
  • In Schritt S507 führt die CPU eine Zonenaktualisierungsbestimmungsverarbeitung gemäß einer nachstehend beschriebenen Prozedur aus. In dem vorliegenden beispielhaften Ausführungsbeispiel gibt die „Zonenaktualisierung“ eine Aktualisierung des Abtastbereichs kontinuierlich zu einer benachbarten Zone nach Abschluss der Abtastung der einen Zone an.
  • In Schritt S508 bestimmt die CPU 115, ob sie eine Zonenaktualisierung als ein Ergebnis, das in Schritt S507 bestimmt wird, ausführt. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S508), schreitet der Betrieb zu Schritt S509 voran. Andernfalls (Nein in Schritt S508) schreitet der Betrieb zu Schritt S511 voran.
  • In Schritt S509 überprüft die CPU 115, ob die derzeitige Position der Fokuslinse 104 gleich einer Abtastbeendigungsposition ist. Wenn bestimmt wird, dass die derzeitige Fokuslinsenposition die Abtastbeendigungsposition ist (Ja in Schritt S509), schreitet der Betrieb zu Schritt S511 voran. Andernfalls (Nein in Schritt S509) schreitet der Betrieb zu Schritt S510 voran.
  • In Schritt S510 veranlasst die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich in einer Abtastbeendigungsrichtung um eine vorbestimmte Größe zu bewegen. Dann springt der Betrieb zu Schritt S502 zurück.
  • In Schritt S511 bestimmt die CPU 115 ein Abtastergebnis in jedem AF-Rahmen, welches aus den nachstehend genannten drei Bestimmungsergebnissen „o“, „x“ und „Δ“ ausgewählt wird. Das Abtastergebnis wird als „o“ bestimmt, wenn der Kontrast des Objekts ausreichend ist und das Objekt in dem abgetasteten Entfernungsbereich vorhanden ist. Das Abtastergebnis wird als „x“ bestimmt, wenn der Kontrast des Objekts unzureichend ist, oder wenn das Objekt außerhalb des abgetasteten Entfernungsbereichs ist. Das Abtastergebnis wird als „Δ“ bestimmt, wenn das Objekt außerhalb des abgetasteten Entfernungsbereichs in einer Nahseitenrichtung ist.
  • Ein Im-Fokus-Bestimmungsverfahren bzw. Fokussierungsbestimmungsverfahren ist beispielsweise in dem japanischen Patent Nr. JP 4235422 B2 oder dem japanischen Patent Nr. JP 4185740 B2 diskutiert.
  • In Schritt S512 überprüft die CPU 115, ob das Objekt durch das Objekterfassungsmodul 123 erfolgreich erfasst worden ist. Wenn bestimmt wird, dass das Objekt erfolgreich erfasst worden ist (Ja in Schritt S512), schreitet der Betrieb zu Schritt S513 voran. Wenn bestimmt wird, dass die Objekterfassung fehlgeschlagen ist (Nein in Schritt S512), schreitet der Betrieb zu Schritt S514 voran. In Schritt S513 führt die CPU 115 eine Rahmenauswahlverarbeitung in Reaktion auf eine erfolgreiche Objekterfassung aus, wie es nachstehend beschrieben ist.
  • In Schritt S514 führt die CPU 115 eine Rahmenauswahlverarbeitung in Reaktion auf eine fehlgeschlagene Objekterfassung aus, wie es nachstehend beschrieben wird.
  • <Zonenaktualisierungsbestimmungsverarbeitung>
  • 6 zeigt ein Flussdiagramm, das die Zonenaktualisierungsbestimmungsverarbeitung veranschaulicht, die in dem in 5 veranschaulichten Schritt S507 auszuführen ist. In dem vorliegenden beispielhaften Ausführungsbeispiel bestimmt die CPU 115, ob das Objekt in einer Abtastrichtung vorhanden ist. Genauer gesagt bestimmt die CPU 115, ob die AF-Abtastverarbeitung fortzusetzen ist. Die 7A bis 7G veranschaulichen Beispiele der in 6 veranschaulichten Zonenaktualisierungsbestimmung, die erhalten worden sind, wenn N=7 und M=9 gilt.
  • Zuerst führt in Schritt S601 die CPU 115 eine Im-Fokus-Bestimmungsverarbeitung bzw. Fokussierungsbestimmungsverarbeitung in jedem der AF-Rahmen aus, die eingestellt worden sind. Beispielsweise können Fokussierungsbestimmungsergebnisse in jeweiligen AF-Rahmen erhalten werden, wie es in 7A veranschaulicht ist.
  • In Schritt S602 überprüft die CPU 115, ob die Abtastverarbeitung für alle Zonen (d.h. von der ersten bis zu der letzten Zone) vollständig abgeschlossen worden ist. Wenn bestimmt wird, dass die Abtastverarbeitung für die letzte Zone bereits abgeschlossen ist (Ja in Schritt S602), schreitet der Betrieb zu Schritt S614 voran. Andernfalls (Nein in Schritt S602) schreitet der Betrieb zu Schritt S603 voran.
  • In Schritt S603 überprüft die CPU 115, ob ein Rahmen mit Bestimmung „o“ vorhanden ist. Wenn bestimmt wird, dass der Rahmen mit Bestimmung „o“ vorhanden ist (Ja in schritt S603), schreitet der Betrieb zu Schritt S604 voran. Andernfalls (Nein in Schritt S603) schreitet der Betrieb zu Schritt S613 voran.
  • In Schritt S604 überprüft die CPU 115, ob das Objekt durch das Objekterfassungsmodul 123 erfolgreich erfasst worden ist. Wenn bestimmt wird, dass das Objekt erfolgreich erfasst worden ist (Ja in Schritt S604), schreitet der Betrieb zu Schritt S606 voran. Andernfalls (Nein in Schritt S604) schreitet der Betrieb zu Schritt S605 voran.
  • In Schritt S605 überprüft die CPU 115, ob eine „Gruppe“, die zumindest eine vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ umfasst, inmitten von zentralen M1×M2 Rahmen vorhanden ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S605), schreitet der Betrieb zu Schritt S613 voran. Andernfalls (Nein in Schritt S605) schreitet der Betrieb zu Schritt S607 voran. In dem in 7B veranschaulichten Beispiel (d.h. M1=3 und M2=5) ist eine Gruppe von Rahmen mit Bestimmung „Δ“ aus lediglich zwei Rahmen zusammengesetzt. Folglich gibt es, wenn die vorbestimmte Anzahl auf 5 eingestellt ist, keine Gruppe, die zumindest die vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ umfasst.
  • In Schritt S606 überprüft die CPU 115, ob die Anzahl von Rahmen mit Bestimmung „Δ“ in den AF-Rahmen, die einen Objekterfassungsbereich umfassen, größer oder gleich einer vorbestimmten Anzahl ist. Wenn bestimmt wird, dass die Anzahl von Rahmen mit Bestimmung „Δ“ größer oder gleich der vorbestimmten Anzahl ist (Ja in Schritt S606), schreitet der Betrieb zu Schritt S613 voran. Wenn bestimmt wird, dass die Anzahl von Rahmen mit Bestimmung „Δ“ kleiner als die vorbestimmte Anzahl ist (Nein in Schritt S606), schreitet der Betrieb zu Schritt S607 voran.
  • In dem vorliegenden beispielhaften Ausführungsbeispiel wird, wenn ein AF-Rahmen zumindest eine vorbestimmte Rate des Objekterfassungsbereichs umfasst, der AF-Rahmen als ein Teil der AF-Rahmen ausgewählt, die den Objekterfassungsbereich umfassen. In dem in 7C veranschaulichten Beispiel ist eine Gruppe von Rahmen mit Bestimmung „Δ“ aus lediglich drei Rahmen aufgebaut. Folglich gibt es, wenn die vorbestimmte Anzahl auf 5 eingestellt ist, keine Gruppe, die zumindest die vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ umfasst.
  • In Schritt S607 überprüft die CPU 115, ob eine „Gruppe“, die zumindest eine vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ umfasst, in den N×M AF-Rahmen in einer derartigen Art und Weise vorhanden ist, dass sie zumindest einen von zentralen L1×L2 Rahmen umfassen. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S607), schreitet der Betrieb zu Schritt S613 voran. Andernfalls (Nein in Schritt S607) schreitet der Betrieb zu Schritt S608 voran. In dem in 7D veranschaulichten Beispiel (d.h. L1 = 5 und L1 = 7) ist eine Gruppe von Rahmen mit Bestimmung „Δ“ aus sechs Rahmen aufgebaut. Folglich gibt es, wenn die vorbestimmte Anzahl auf 10 eingestellt ist, keine Gruppe, die zumindest die vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ umfasst.
  • In Schritt S608 überprüft die CPU 115, ob das Verarbeitungsziel eine vorbestimmte Zone ist, die im Voraus bestimmt worden ist. Wenn bestimmt wird, dass das Verarbeitungsziel die vorbestimmte Zone ist (Ja in Schritt S608), schreitet der Betrieb zu Schritt S614 voran. Wenn bestimmt wird, dass die vorbestimmte Zone noch nicht verarbeitet ist (Nein in Schritt S608), schreitet der Betrieb zu Schritt S609 voran.
  • In dem vorliegenden beispielhaften Ausführungsbeispiel ist die vorbestimmte Zone eine Zone, in der ein Rahmen mit Bestimmung „Δ“ möglicherweise vorhanden ist, wenn die Abtastposition sich zu einer Spitzenwertposition verschiebt, bei der das Objekt mit einem zunehmenden Bewertungswert vorhanden ist, in einem Fall, in dem das Objekt bei der nächstliegenden Position in einem für eine Abtastung brauchbaren Bereich vorhanden ist. Wenn keine Gruppe von Rahmen mit Bestimmung „Δ“ erfasst werden kann, auch wenn die Abtastposition die vorbestimmte Zone erreicht, wird angenommen, dass das Objekt in den nachfolgenden Zonen nicht vorhanden ist.
  • In Schritt S609 überprüft die CPU 115, ob eine „Gruppe“, die zumindest eine vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ oder von Rahmen mit Bestimmung „x“ umfasst, in den N×M Rahmen vorhanden ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S609), schreitet der Betrieb zu Schritt S613 voran. Andernfalls (Nein in Schritt S609) schreitet der Betrieb zu Schritt S610 voran. In dem in 7E veranschaulichten Beispiel ist eine Gruppe von Rahmen mit Bestimmung „x“ aus 18 Rahmen aufgebaut und eine Gruppe von Rahmen mit Bestimmung „Δ“ ist aus sechs (oder vier) Rahmen aufgebaut. Folglich gibt es, wenn die vorbestimmte Anzahl auf 20 eingestellt ist, keine Gruppe, die zumindest die vorbestimmte Anzahl von Rahmen mit Bestimmung „Δ“ oder Rahmen mit Bestimmung „x“ umfasst.
  • In Schritt S610 überprüft die CPU 115, ob das Objekt durch das Objekterfassungsmodul 123 erfolgreich erfasst worden ist. Wenn bestimmt wird, dass das Objekt erfolgreich erfasst worden ist (Ja in Schritt S610), schreitet der Betrieb zu Schritt S612 voran. Andernfalls (Nein in Schritt S610) schreitet der Betrieb zu Schritt S611 voran.
  • In Schritt S611 überprüft die CPU 115, ob eine „Gruppe“, die zumindest eine vorbestimmte Anzahl von Rahmen mit Bestimmung „o“ umfasst, in dem zentralen M1×M2 Rahmen vorhanden ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S611), schreitet der Betrieb zu Schritt S614 voran. Andernfalls (Nein in Schritt S611) schreitet der Betrieb zu Schritt S613 voran. In dem in 7F veranschaulichten Beispiel ist eine Gruppe von Rahmen mit Bestimmung „o“ aus 10 Rahmen aufgebaut. Folglich ist, wenn die vorbestimmte Anzahl auf 10 eingestellt ist, eine Gruppe vorhanden, die zumindest die vorbestimmte Anzahl von Rahmen mit Bestimmung „o“ umfasst.
  • In Schritt S612 überprüft die CPU 115, ob zumindest eine vorbestimmte Anzahl von Rahmen mit Bestimmung „o“ in dem AF-Rahmen vorhanden ist, die den Objekterfassungsbereich umfassen. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S612), schreitet der Betrieb zu Schritt S614 voran. Andernfalls (Nein in Schritt S612) schreitet der Betrieb zu Schritt S613 voran. In dem in 7G veranschaulichten Beispiel ist eine Gruppe von Rahmen mit Bestimmung „o“ aus fünf Rahmen aufgebaut. Folglich ist, wenn die vorbestimmte Anzahl auf fünf eingestellt ist, eine Gruppe vorhanden, die zumindest die vorbestimmte Anzahl von Rahmen mit Bestimmung „o“ umfasst.
  • In Schritt S613 bestimmt die CPU 115, die Zone zu aktualisieren, wobei sie die Bestimmungsverarbeitung des in 6 veranschaulichten Flussdiagramms beendet. In Schritt S614 bestimmt die CPU 115, die Zone nicht zu aktualisieren, wobei sie die Bestimmungsverarbeitung des in 6 veranschaulichten Flussdiagramms beendet.
  • Die vorbestimmte Anzahl in jedem Schritt gemäß Schritt S605, Schritt S606, Schritt S607, Schritt S609, Schritt S611 und Schritt S612 ist ein fixierter Wert, der gleichförmig bestimmt werden kann. Die vorbestimmte Anzahl kann jedoch in beliebiger Weise mit Bezug auf den Zonenbereich oder die Position der Fokuslinse 104 geändert werden. Beispielsweise ist es möglich, eine größere Anzahl einzustellen, wenn das Objekt auf der nahen Seite positioniert ist.
  • <Rahmenauswahlverarbeitung in Reaktion auf eine erfolgreiche Objekterfassung>
  • 8 zeigt ein Flussdiagramm, das die Rahmenauswahlverarbeitung veranschaulicht, die in Reaktion auf die erfolgreiche Objekterfassung in dem in 5 veranschaulichten Schritt S513 auszuführen ist. Die Rahmenauswahlverarbeitung in Reaktion auf die erfolgreiche Objekterfassung umfasst ein Auswählen von Rahmen aus den AF-Rahmen, die den Objektbereich umfassen.
  • Zuerst bestimmt in Schritt S801 die CPU 115 einen Zielrahmen, der aus den erfassten AF-Rahmen, die den Objektbereich umfassen, auszuwählen ist. Der Zielrahmen umfasst einen Rahmen mit Bestimmung „o“, der als ein Ergebnis der Fokussierungsbestimmungsverarbeitung identifiziert wird, die in dem in 5 veranschaulichten Schritt S511 ausgeführt wird.
  • In Schritt S802 berechnet die CPU 115 eine Spitzenwertposition (nachstehend als PeakPos bezeichnet) des Fokusbewertungswerts in dem Zielrahmen und speichert die berechnete Spitzenwertposition PeakPos.
  • In Schritt S803 sortiert die CPU 115 die PeakPos jedes AF-Rahmens in dem Zielrahmen in einer Reihenfolge einer Nähe und stellt eine Sortierungszahl S ein.
  • In Schritt S804 überprüft die CPU 115, ob die Sortierungszahl S größer oder gleich 1 ist. Wenn die Beziehung, dass die Sortierungszahl S größer oder gleich 1 ist, bestätigt wird (Ja in Schritt S804), schreitet der Betrieb zu Schritt S805 voran. Andernfalls (Nein in Schritt S804) schreitet der Betrieb zu Schritt S821 voran.
  • In Schritt S805 stellt die CPU 115 einen Zählerwert P auf 1 ein. Der Zählerwert P gibt die Reihenfolge einer Nähe in Bezug auf die Spitzenwertposition in dem Zielrahmen an, die in Schritt S802 berechnet wird.
  • In Schritt S806 überprüft die CPU 115, ob eine Differenz zwischen der P-ten PeakPos und der (P+1)-ten PeakPos in der Sortierungsreihenfolge innerhalb der Schärfentiefe ist und der P-te Rahmen und der (P+1)-te Rahmen dicht in dem Abbildungsbildschirm positioniert sind. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S806), schreitet der Betrieb zu Schritt S820 voran. Andernfalls (Nein in Schritt S806) schreitet der Betrieb zu Schritt S807 voran.
  • In Schritt S807 inkrementiert bzw. erhöht die CPU 115 den Zählerwert P um 1.
  • In Schritt S808 überprüft die CPU 115, ob der Zählerwert P größer als die Sortierungszahl S ist. Wenn die Beziehung, dass der Zählerwert P größer als die Sortierungszahl S ist, bestätigt wird (Ja in Schritt S808), schreitet der Betrieb zu Schritt S809 voran. Andernfalls (Nein in Schritt S808) springt der Betrieb zu Schritt S806 zurück.
  • In Schritt S809 berechnet die CPU 115 eine Differenz zwischen der ersten PeakPos und der S-ten PeakPos und speichert die berechnete Differenz als MaxMin.
  • In Schritt S810 überprüft die CPU 115, ob die MaxMin, die in Schritt S809 berechnet wird, in der Schärfentiefe „1“ liegt. Wenn bestimmt wird, dass die MaxMin in der Schärfentiefe „1“ liegt (Ja in Schritt S810), schreitet der Betrieb zu Schritt S819 voran. Wenn bestimmt wird, dass die MaxMin nicht in der Schärfentiefe „1“ ist (Nein in Schritt S810), schreitet der Betrieb zu Schritt S811 voran.
  • Schritt S811 teilt die CPU 115 den Bereich, der von der ersten PeakPos zu der S-ten PeakPos reicht, in eine Vielzahl von Gruppen unter Berücksichtigung der Schärfentiefe. In Schritt S812 stellt die CPU 115 einen Zählerwert N auf 1 ein. Der Zählerwert N gibt jede Gruppe in einer Reihenfolge einer Nähe an.
  • In Schritt S813 zählt die CPU 115 die Zahl von AF-Rahmen, die in der N-ten Gruppe beinhaltet sind.
  • In Schritt S814 überprüft die CPU 115, ob die Zählwertzahl, die in Schritt S813 gezählt wird, größer als die Zählwertzahl der (N-1)-ten Gruppe ist. Wenn bestimmt wird, dass die derzeitige Zählwertzahl größer als der vorangegangene Wert ist (Ja in Schritt S814), schreitet der Betrieb zu Schritt S815 voran. Wenn bestimmt wird, dass die derzeitige Zählwertzahl nicht größer als der vorangegangene Wert ist (Nein in Schritt S814), schreitet der Betrieb zu Schritt S816 voran.
  • In Schritt S815 ersetzt die CPU 115 einen repräsentativen Rahmen durch einen a Nächsten liegenden Rahmen in der Gruppe.
  • In Schritt S816 inkrementiert bzw. erhöht die CPU 115 den Zählerwert N um eins.
  • In Schritt S817 überprüft die CPU 115, ob eine Bestätigung über alle Gruppen abgeschlossen worden ist. Wenn bestimmt wird, dass die Bestätigung über alle Gruppen abgeschlossen worden ist (Ja in Schritt S817), schreitet der Betrieb zu Schritt S818 voran. Wenn bestimmt wird, dass die Bestätigung noch nicht über alle Gruppen abgeschlossen ist (Nein in Schritt S817), springt der Betrieb zu Schritt S813 zurück.
  • In Schritt S818 wählt die CPU 115 den repräsentativen Rahmen als im Fokus befindlich bzw. fokussiert aus. In Schritt S819 wählt die CPU 115 den P-ten Rahmen als im Fokus befindlich bzw. fokussiert aus. In Schritt S821 wählt die CPU 115 aufgrund einer Defokussierung keinen Rahmen aus und beendet die Verarbeitung des in 8 veranschaulichten Flussdiagramms.
  • <Rahmenauswahlverarbeitung in Reaktion auf fehlgeschlagene Objekterfassung>
  • 9 zeigt ein Flussdiagramm, das die Rahmenauswahlverarbeitung veranschaulicht, die in dem in 5 veranschaulichten Schritt S514 auszuführen ist. Die Rahmenauswahlverarbeitung in Reaktion auf die fehlgeschlagene Objekterfassung umfasst ein Identifizieren eines Hauptobjektbereichs in dem Abbildungsbildschirm und ein Ausführen einer Rahmenauswahlverarbeitung in dem identifizierten Bereich.
  • Die 10A bis 10C veranschaulichen ein Beispiel der Rahmenauswahlverarbeitung in Reaktion auf die fehlgeschlagene Objekterfassung, die in 9 veranschaulicht ist. Gemäß der veranschaulichten AF-Rahmeneinstellung von NxM Rahmen (d.h. N = 7 und M = 9) wird der Abtastbereich auf 0 bis 300 eingestellt und ein vorbestimmter Tiefenbereich wird auf ±10 eingestellt. Ferner veranschaulicht 10A Im-Fokus-Bestimmungsergebnisse bzw. Fokussierungsbestimmungsergebnisse in jeweiligen AF-Rahmen, die durch die Fokussierungsbestimmungsverarbeitung erhalten werden können, die in dem in 5 veranschaulichten Schritt 511 ausgeführt wird. Numerische Werte des Abtastbereichs und des vorbestimmten Tiefenbereichs stellen die Position der Fokuslinse 104 dar. In einem Fall, bei dem ein nicht veranschaulichter Antriebsmotor der Fokuslinse 104 ein Schrittmotor ist, entspricht die Position der Fokuslinse 104 einer Impulszahl des Schrittmotors. Ein größerer Wert gibt eine Nähere-Seite-Position an.
  • Zuerst berechnet in Schritt S901 die CPU 115 eine Spitzenwertposition (nachstehend als PeakPos bezeichnet) des Fokusbewertungswerts in jedem AF-Rahmen und speichert die berechnete Spitzenwertposition PeakPos. 10B veranschaulicht Spitzenwertpositionsberechnungsergebnisse in jeweiligen AF-Rahmen. In Schritt S902 sortiert die CPU 115 die PeakPos jedes AF-Rahmens in dem zentralen M1×M2 Rahmen in einer Reihenfolge einer Nähe und stellt eine Sortierungszahl S ein. Wie es in 10B veranschaulicht ist, sind in dem folgenden Beispiel (M1 = 3 und M2 = 5) fünfzehn Rahmen, die durch eine fette Linie umgeben sind (d.h. fünf Rahmen, die in der vertikalen Richtung angeordnet sind x drei Rahmen, die in der horizontalen Richtung angeordnet sind), in dem zentralen Bereich eingestellt.
  • In dem vorliegenden beispielhaften Ausführungsbeispiel kann die CPU 115 die Spitzenwertposition in jedem „x“-AF-Rahmen, der in der Fokussierungsbestimmungsverarbeitung bestimmt wird, die in dem in 5 veranschaulichten Schritt S511 ausgeführt wird, nicht berechnen. Folglich ist ein AF-Rahmen mit Bestimmung „x“ nicht das Ziel, das zu sortieren ist. Beispielsweise werden 202, 202, 201, 201, 201, 200, 200, 200, 103, 103, 102, 102 und 101 in der Reihenfolge einer Nähe sortiert, wenn die CPU 115 das in 10B veranschaulichte Beispiel verarbeitet. Die Sortierungszahl S = 13 wird eingestellt.
  • In Schritt S903 stellt die CPU 115 den Zählerwert P auf 1 ein. Der Zählerwert P gibt die Reihenfolge einer Nähe in Bezug auf die Spitzenwertposition in den M1×M2 Rahmen an, die in Schritt S902 berechnet werden.
  • In Schritt S904 stellt die CPU 115 die P-te PeakPos als PeakPos P ein. Beispielsweise gilt gemäß dem in 10B veranschaulichten Beispiel PeakPos P = 202, wenn P = 1 gilt.
  • In Schritt S905 erfasst die CPU 115 eine „Gruppe“ von AF-Rahmen mit Bestimmung „o“ in einer vorbestimmten Schärfentiefe von der Spitzenwertposition PeakPos P in den zentralen M1×M2 AF-Rahmen und speichert die Zahl von AF-Rahmen, die die „Gruppe“ bilden, zusammen mit der Position jedes AF-Rahmens. In dem vorliegenden beispielhaften Ausführungsbeispiel gibt die „Gruppe“ eine Gruppe einer Vielzahl von AF-Rahmen an, die alle die Bedingung erfüllen und in der Aufwärts- und Abwärtsrichtung und in der Rechts- und Linksrichtung benachbart sind. Ferner kann, wenn zwei oder mehr „Gruppen“ vorhanden sind, die CPU 115 eine „Gruppe“ mit Bezug auf die Zahl von AF-Rahmen, die jede „Gruppe“ bildet, und die Position der „Gruppe“ auswählen.
  • In Schritt S906 erfasst die CPU 115 eine „Gruppe“ von AF-Rahmen mit Bestimmung „o“ in dem vorbestimmten Tiefenbereich von der Spitzenwertposition PeakPos P in den zentralen NxM AF-Rahmen in einer derartigen Art und Weise, dass zumindest einer der zentralen M1×M2 AF-Rahmen beinhaltet ist. Die CPU 115 speichert die Zahl von AF-Rahmen, die die „Gruppe“ bilden, zusammen mit der Position jedes AF-Rahmens. Beispielsweise veranschaulicht 10C eine „Gruppe“ von grauen Rahmen, die auf der Grundlage von Bestimmungsergebnissen erfasst worden sind, die in den 10A und 10B veranschaulicht sind.
  • In Schritt S907 überprüft die CPU 115, ob die „Gruppe“, die in Schritt S905 oder Schritt S906 erfasst werden, einen zentralen Rahmen umfasst. Wenn bestimmt wird, dass die „Gruppe“, die den zentralen Rahmen umfasst, vorhanden ist (Ja in Schritt S907), schreitet der Betrieb zu Schritt S913 voran. Andernfalls (Nein in Schritt S907) schreitet der Betrieb zu Schritt S908 voran.
  • In Schritt S908 überprüft die CPU 115, ob die „Gruppe“, die in Schritt S905 oder S906 erfasst wird, zumindest eine vorbestimmte Anzahl von Rahmen umfasst, die zu den M1×M2 Rahmen gehören. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S908), schreitet der Betrieb zu Schritt S913 voran. Andernfalls (Nein in Schritt S908) schreitet der Betrieb zu Schritt S909 voran.
  • In Schritt S909 überprüft die CPU 115, ob die „Gruppe“, die in Schritt S905 oder Schritt S906 erfasst wird, zumindest einen der zentralen M1×M2 Rahmen umfasst und zumindest eine vorbestimmte Anzahl von AF-Rahmen umfasst, die zu den NxM Rahmen gehören. Wenn bestimmt wird, dass die erfasste „Gruppe“ zumindest einen der zentralen M1×M2 Rahmen umfasst und zumindest die vorbestimmte Anzahl von AF-Rahmen umfasst, die zu den NxM Rahmen gehören (Ja in Schritt S909), schreitet der Betrieb zu Schritt S913 voran. Andernfalls (Nein in Schritt S909) schreitet der Betrieb zu Schritt S910 voran.
  • In Schritt S910 inkrementiert bzw. erhöht die CPU 115 den Zählerwert P um 1.
  • In Schritt S911 überprüft die CPU 115, ob der Zählerwert P größer als die Sortierungszahl S ist. Wenn die Beziehung, dass der Zählerwert P größer als die Sortierungszahl S ist, bestätigt wird (Ja in Schritt S911), schreitet der Betrieb zu Schritt S912 voran. Andernfalls (Nein in Schritt S911) springt der Betrieb zu Schritt S904 zurück.
  • In Schritt S912 bestimmt die CPU 115, dass der Hauptobjektbereich nicht identifiziert worden ist, und sie beendet die Bestimmungsverarbeitung des in 9 veranschaulichten Flussdiagramms.
  • In Schritt S913 bestimmt die CPU 115, dass der Hauptobjektbereich identifiziert worden ist.
  • In Schritt S914 bestimmt die CPU 115 jeden AF-Rahmen, der die Gruppe als ein Teil des Hauptobjektbereichs bildet, und wählt den bestimmten AF-Rahmen aus. Dann beendet die CPU 115 die Bestimmungsverarbeitung gemäß dem in 9 veranschaulichten Flussdiagramm.
  • Die vorbestimmte Anzahl in jedem Schritt gemäß dem Schritt S908 und dem Schritt S909 ist ein fixierter Wert, der unabhängig von der Position gleichförmig bestimmt werden kann. Die vorbestimmte Anzahl kann jedoch in beliebiger Weise unter Bezugnahme auf die Position der Fokuslinse 104 geändert werden. Beispielsweise ist es möglich, eine größere Anzahl einzustellen, wenn das Objekt auf der näheren Seite positioniert ist.
  • <Äquidistanzbestimmungsverarbeitung>
  • 11 zeigt ein Flussdiagramm, das die Äquidistanzbestimmungsverarbeitung veranschaulicht, die in Schritt S305 und Schritt S308 auszuführen ist, die in 3 veranschaulicht sind. Die Äquidistanzbestimmungsverarbeitung umfasst ein Identifizieren eines Äquidistanzmotivs bzw. einer Äquidistanzszene, das keine Entfernungsdifferenz in dem Abbildungsbildschirm umfasst, unter Bezugnahme auf eine Verteilung von Spitzenwertpositionen jeweiliger AF-Rahmen.
  • In Schritt S1101 korrigiert die CPU 115 die Spitzenwertposition jedes AF-Rahmens auf der Grundlage einer Fehlergröße, die im Voraus in Bezug auf die Spitzenwertposition jedes AF-Rahmens erlangt wird. Die Korrektur ist erforderlich, um den Einfluss eines Fehlers in der Verteilung von Spitzenwertpositionen zu beseitigen, der aufgrund einer Bildfeldkrümmung oder einer Neigung einer Linse/eines Bildsensors beinhaltet sein kann.
  • In Schritt S1102 ordnet die CPU 115 die AF-Rahmen, die in Schritt S601, der in 6 veranschaulicht ist, bestimmt werden, „o“ zu sein, in einer Reihenfolge einer Nähe in Bezug auf die Spitzenwertposition neu an.
  • In Schritt S1103 überprüft die CPU 115, ob das Verhältnis der Anzahl von Rahmen mit Bestimmung „o“ zu der Gesamtanzahl von AF-Rahmen größer oder gleich einer vorbestimmten Rate ist. Wenn bestimmt wird, dass das Verhältnis größer oder gleich der vorbestimmten Rate ist (Ja in Schritt S1103), schreitet der Betrieb zu Schritt S1104 voran. Wenn bestimmt wird, dass das Verhältnis kleiner als die vorbestimmte Rate ist (Nein in Schritt S1103), bestimmt die CPU 115, dass die Äquidistanzbestimmungsverarbeitung nicht genau ausgeführt werden kann, da die Anzahl von Rahmen mit Bestimmung „o“ unzureichend ist. In diesem Fall schreitet der Betrieb zu Schritt S1113 voran.
  • In Schritt S1104 stellt die CPU 115 die Anzahl von Rahmen entsprechend der vorbestimmten Rate der Anzahl von Rahmen mit Bestimmung „o“ als einen Äquidistanzbereich (EqualRange) ein.
  • In Schritt S1105 initialisiert die CPU 115 eine Variable „i“, die die Zählwertzahl von Rahmen mit Bestimmung „o“ angibt, auf 0.
  • In Schritt S1106 überprüft die CPU 115, ob eine Differenz zwischen der Spitzenwertposition des i-ten AF-Rahmens und der Spitzenwertposition des (i+EqualRange)-ten AF-Rahmens innerhalb einer vorbestimmten Schärfentiefe ist. Wenn bestimmt wird, dass die Differenz innerhalb der vorbestimmten Schärfentiefe ist (Ja in Schritt S1106), schreitet der Betrieb zu Schritt S1107 voran. Wenn Bestimmt wird, dass die Differenz nicht in der vorbestimmten Schärfentiefe ist (Nein in Schritt S1106), schreitet der Betrieb zu Schritt S1109 voran.
  • In Schritt S1107 überprüft die CPU 115, ob die fokussierte Position in der letzten Abtastverarbeitung erfasst worden ist (Schritt S304 oder Schritt S307 in 3). Wenn bestimmt wird, dass die fokussierte Position erfasst worden ist (Ja in Schritt S1107), schreitet der Betrieb zu Schritt S1108 voran. Andernfalls (Nein in Schritt S1107) schreitet der Betrieb zu Schritt S1111 voran.
  • In Schritt S1108 überprüft die CPU 115, ob die fokussierte Position in einem Bereich von der Spitzenwertposition des i-ten AF-Rahmens zu der Spitzenwertposition des (i+EqualRange)-ten AF-Rahmens beinhaltet ist. Wenn bestimmt wird, dass die fokussierte Position in dem Bereich beinhaltet ist (Ja in Schritt S1108), schreitet der Betreib zu Schritt S1111 voran. Andernfalls (Nein in Schritt S1108) schreitet der Betrieb zu Schritt S1109 voran.
  • In Schritt S1109 inkrementiert bzw. erhöht die CPU 115 die Variable „i“ um 1. Dann schreitet der Betrieb zu Schritt S1110 voran.
  • In Schritt S1110 überprüft die CPU 115, ob die Variable „i“ größer oder gleich der Gesamtanzahl von Rahmen mit Bestimmung „o“ ist. Wenn bestimmt wird, dass die Variable „i“ größer oder gleich der Gesamtanzahl von Rahmen mit Bestimmung „o“ ist (Ja in Schritt S1110), bestimmt die CPU 115, dass alle Rahmen mit Bestimmung „o“ der vorstehend genannten Bestimmungsverarbeitung unterzogen worden sind. In diesem Fall schreitet der Betreib zu Schritt S1112 voran. Wenn bestimmt wird, dass die Variable „i“ kleiner als die Gesamtanzahl von Rahmen mit Bestimmung „o“ ist (Nein in Schritt S1110), springt der Betrieb zu Schritt S1106 zurück, um die vorstehend genannte Bestimmungsverarbeitung fortzusetzen.
  • In Schritt S1111 bestimmt die CPU 115, dass die Äquidistanzbestimmungsverarbeitung möglich ist und das Motiv ein Äquidistanzmotiv ist. In Schritt S1112 bestimmt die CPU 115, dass die Äquidistanzbestimmungsverarbeitung möglich ist, und sie erkennt das Vorhandensein einer Entfernungsdifferenz in dem Motiv. In Schritt S1113 bestimmt die CPU 115, dass die Äquidistanzbestimmungsverarbeitung nicht möglich ist, und sie beendet die Äquidistanzbestimmungsverarbeitung gemäß dem in 11 veranschaulichten Flussdiagramm.
  • <Kontinuierliche AF-Verarbeitung>
  • 12 zeigt ein Flussdiagramm, das die kontinuierliche AF-Verarbeitung veranschaulicht, die in dem in 2 veranschaulichten Schritt S205 auszuführen ist.
  • In Schritt S1201 erlangt die CPU 115 den Fokusbewertungswert in jedem AF-Rahmen, der für die Im-Fokus-Steuerung bzw. Fokussierungssteuerung in der kontinuierlichen AF-Verarbeitung eingestellt worden ist. In dem vorliegenden beispielhaften Ausführungsbeispiel sind die AF-Rahmen, die für die Fokussierungssteuerung in der kontinuierlichen AF-Verarbeitung einstellt worden sind, die Rahmen, die in dem Objekterfassungsbereich eingestellt worden sind (d.h. die Rahmen, die in dem in 5 veranschaulichten Schritt S513 ausgewählt werden), wenn die Objekterfassung erfolgreich abgeschlossen ist, oder die Rahmen, die als fokussierte Rahmen in dem in 5 veranschaulichten Schritt S514 ausgewählt werden, wenn die Objekterfassung fehlschlägt.
  • In Schritt S1202 überprüft die CPU 115 den EIN-/AUS-Zustand des Schalters SW1, der eine Aufnahmevorbereitung anweist. Wenn bestimmt wird, dass der Zustand des Schalters SW1 EIN ist (Ja in Schritt S1202), beendet die CPU 115 die Verarbeitung des in 12 veranschaulichten Flussdiagramms, und der Betrieb schreitet zu Schritt S208 voran, der in 2 veranschaulicht ist. Wenn bestimmt wird, dass der Zustand des Schalters SW1 AUS ist (Nein in Schritt S1202), schreitet der Betrieb S1203 voran.
  • In Schritt S1203 überprüft die CPU 115, ob ein Spitzenwerterfassungskennzeichen bzw. ein Spitzenwerterfassungsflag WAHR ist. Wenn bestimmt wird, dass das Spitzenwerterfassungsflag WAHR ist (Ja in Schritt S1203), schreitet der Betrieb zu Schritt S1220 voran. Wenn bestimmt wird, dass das Spitzenwerterfassungsflag FALSCH (Nein in Schritt S1203), schreitet der Betrieb zu Schritt S1204 voran. In dem vorliegenden beispielhaften Ausführungsbeispiel ist das Spitzenwerterfassungsflag anfangs auf FALSCH gesetzt.
  • In Schritt S1204 erlangt die CPU 115 Informationen über die derzeitige Position der Fokuslinse 104.
  • In Schritt S1205 addiert die CPU 115 1 zu einem Beschaffungszählerwert. In dem vorliegenden beispielhaften Ausführungsbeispiel wird der Beschaffungszähler in einer Beschaffung des Fokusbewertungswerts und einer Beschaffung der Informationen über die derzeitige Position der Fokuslinse 104 verwendet. Der Beschaffungszählerwert ist anfangs durch einen vorbestimmten Initialisierungsbetrieb (nicht veranschaulicht) auf 0 gesetzt.
  • In Schritt S1206 überprüft die CPU 115, ob der Beschaffungszählerwert 1 ist. Wenn bestimmt wird, dass der Beschaffungszählerwert 1 ist (Ja in Schritt S1206), schreitet der Betrieb zu Schritt S1209 voran. Wenn bestimmt wird, dass der Beschaffungszählerwert nicht 1 ist (Nein in Schritt S1206), schreitet der Betrieb zu Schritt S1207 voran.
  • In Schritt S1207 überprüft die CPU 115, ob der „derzeitige Fokusbewertungswert“ größer als der „letzte Fokusbewertungswert“ ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S1207), schreitet der Betrieb zu Schritt S1208 voran. Andernfalls (Nein in Schritt S1207) schreitet der Betrieb zu Schritt S1215 voran.
  • In Schritt S1208 addiert die CPU 115 1 zu einem Inkrementierungszählerwert.
  • In Schritt S1209 speichert die CPU 115 den derzeitigen Fokusbewertungswert als den maximalen Fokusbewertungswert in einem (nicht veranschaulichten) arithmetischen Speicher, der in der CPU 115 bereitgestellt ist.
  • In Schritt S1210 speichert die CPU 115 die derzeitige Position der Fokuslinse 104 als die Spitzenwertposition des Fokusbewertungswerts in dem (nicht veranschaulichten) arithmetischen Speicher, der in der CPU 115 bereitgestellt ist.
  • In Schritt S1211 speichert die CPU 115 den derzeitigen Fokusbewertungswert als den letzten Fokusbewertungswert in dem (nicht veranschaulichten) arithmetischen Speicher, der in der CPU 115 bereitgestellt ist. In Schritt S1212 überprüft die CPU 115, ob die derzeitige Position der Fokuslinse 104 ein Ende eines Fokuslinsenbewegungsbereichs ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S1212), schreitet der Betrieb zu Schritt S1213 voran. Andernfalls (Nein in Schritt S1212) schreitet der Betrieb zu Schritt S1214 voran.
  • In Schritt S1213 veranlasst die AF-Verarbeitungseinheit 105 die Fokuslinse 104, eine zugehörige Bewegungsrichtung umzukehren.
  • In Schritt S1214 veranlasst die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich um eine vorbestimmte Größe zu bewegen.
  • In Schritt S1215 überprüft die CPU 115, ob „der maximale Fokusbewertungswert - der derzeitige Fokusbewertungswert“ größer als eine vorbestimmte Größe ist. Wenn bestimmt wird, dass „der maximale Fokusbewertungswert - der derzeitige Fokusbewertungswert“ größer als die vorbestimmte Größe ist (Ja in Schritt S1215), schreitet der Betrieb zu Schritt S1216 voran. Andernfalls (Nein in Schritt S1215) schreitet der Betrieb zu Schritt S1211 voran. In dem Fall, in dem „der maximale Fokusbewertungswert - der derzeitige Fokusbewertungswert“ größer als die vorbestimmte Größe ist, nämlich wenn es eine vorbestimmte Reduktionsgröße im Vergleich zu dem maximalen Wert gibt, betrachtet die CPU 115 den maximalen Wert als eine Fokusspitzenwertposition.
  • In Schritt S1216 überprüft die CPU 115, ob der Inkrementierungszählerwert größer als 0 ist. Wenn bestimmt wird, dass der Inkrementierungszählerwert größer als 0 ist (Ja in Schritt S1216), schreitet der Betrieb zu Schritt S1217 voran. Wenn bestimmt wird, dass der Inkrementierungszählerwert nicht größer als 0 ist (Nein in Schritt S1216), schreitet der Betrieb zu Schritt S1211 voran.
  • In Schritt S1217 veranlasst die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich zu der in Schritt S1210 gespeicherten Spitzenwertposition zu bewegen, bei der der Fokusbewertungswert maximiert wird. In Schritt S1218 setzt die CPU 115 das Spitzenwerterfassungsflag auf WAHR.
  • In Schritt S1219 stellt die CPU 115 den Beschaffungszählerwert auf 0 ein.
  • In Schritt S1220 überprüft die CPU 115, ob die Variation des derzeitigen Fokusbewertungswerts in Bezug auf den maximalen Fokusbewertungswert größer oder gleich einer vorbestimmten Rate ist. Wenn bestimmt wird, dass die Variation größer oder gleich der vorbestimmten Rate ist (Ja in Schritt S1220), schreitet der Betrieb zu Schritt 1222 voran. Andernfalls (Nein in Schritt S1220) schreitet der Betrieb zu Schritt S1221 voran.
  • In Schritt S1221 hält die AF-Verarbeitungseinheit 105 die Position der Fokuslinse 104.
  • In Schritt S1222 setzt die CPU 115 das Spitzenwerterfassungsflag auf FALSCH, um die Fokuslinsenposition, bei der der Fokusbewertungswert maximiert ist, erneut zu erlangen. Ferner setzt die CPU 115 den maximalen Fokusbewertungswert und die Spitzenwertposition zurück.
  • In Schritt S1223 setzt die CPU 115 den Inkrementierungszähler zurück.
  • Wie es vorstehend beschrieben ist, kann die Fokuslinse in einer derartigen Art und Weise angesteuert bzw. angetrieben oder verfahren werden, dass das Hauptobjekt in einen fokussierten Zustand konstant in einem kontinuierlichen AF-Betrieb gebracht wird.
  • <Aufnahmereihenbestim m ungsverarbeitung >
  • 13 zeigt ein Flussdiagramm, das die Aufnahmereihenbestimmungsverarbeitung bzw. Bracket-Bestimmungsverarbeitung veranschaulicht, die in dem in 2 veranschaulichten Schritt S208 auszuführen ist. Die Aufnahmereihenbestimmungsverarbeitung umfasst eine Bestimmung einer optimalen Verarbeitung, die auszuwählen ist, wenn ein Aufnahmebetrieb ausgeführt wird, unter Bezugnahme auf Informationen, die erhalten werden, bevor der Schalter SW1 eingeschaltet wird.
  • In Schritt S1301 bestimmt die CPU 115, ob die Szene bzw. das Motiv einen sich bewegenden Inhalt (beispielsweise die Kamera oder das Objekt) umfasst, unter Bezugnahme auf Ausgabeergebnisse der Winkelgeschwindigkeitssensoreinheit 125 und der Bewegungskörpererfassungseinheit 124, die erhalten werden, unmittelbar bevor der Schalter SW1 eingeschaltet wird. Wenn bestimmt wird, dass das Motiv irgendeinen sich bewegenden Inhalt umfasst (Ja in Schritt S1301), schreitet der Betrieb zu Schritt S1303 voran. Andernfalls (Nein in Schritt S1301) schreitet der Betrieb zu Schritt S1302 voran.
  • In Schritt S1302 überprüft die CPU 115, ob das Motiv als ein Äquidistanzmotiv in der Äquidistanzbestimmungsverarbeitung bestimmt worden ist, die in Schritt S305 oder Schritt S308, die in 3 veranschaulicht sind, ausgeführt wird, unmittelbar bevor der Schalter SW1 eingeschaltet wird. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S1302), schreitet der Betrieb zu Schritt S1305 voran. Andernfalls (Nein in Schritt S1302) schreitet der Betrieb zu Schritt S1304 voran.
  • In Schritt S1303 überprüft die CPU 115, ob das Motiv irgendeine Belichtungsdifferenz in dem Abbildungsbildschirm umfasst, auf der Grundlage einer Belichtungsverteilung in dem Abbildungsbildschirm, die durch die AE-Verarbeitungseinheit 103 erlangt worden ist, unmittelbar bevor der Schalter SW1 eingeschaltet wird. Wenn bestimmt wird, dass das Motiv irgendeine Belichtungsdifferenz in dem Abbildungsbildschirm umfasst (Ja in Schritt S1303), schreitet der Betrieb zu Schritt S1305 voran. Andernfalls (Nein in Schritt S1303) schreitet der Betrieb zu Schritt S1306 voran.
  • In Schritt S1304 wählt die CPU 115 eine AF-Aufnahmereihenverarbeitung als eine Verarbeitung aus, die auszuführen ist, wenn ein Aufnahmebetrieb ausgeführt wird, wobei sie die Verarbeitung des in 13 veranschaulichten Flussdiagramms beendet.
  • In Schritt S1305 wählt die CPU 115 eine AE-Aufnahmereihenverarbeitung als eine Verarbeitung aus, die auszuführen ist, wenn ein Aufnahmebetrieb ausgeführt wird, wobei sie die Verarbeitung gemäß dem in 13 veranschaulichten Flussdiagramm beendet.
  • In Schritt S1306 wählt die CPU 115 eine kontinuierliche Aufnahmeverarbeitung als eine Verarbeitung aus, die auszuführen ist, wenn ein Aufnahmebetrieb ausgeführt wird, wobei sie die Verarbeitung gemäß dem in 13 veranschaulichten Flussdiagramm beendet.
  • < Hauptbelichtungs-AF-Abtastverarbeitung >
  • 14 zeigt ein Flussdiagramm, das die Hauptbelichtungs-AF-Abtastverarbeitung veranschaulicht, die in dem in 2 veranschaulichten Schritt S210 auszuführen ist. Die Hauptbelichtungs-AF-Abtastverarbeitung umfasst ein Erlangen von Entfernungsinformationen, um ein Gruppierungsergebnis (nachstehend als eine Entfernungsabbildung bezeichnet) zu erzeugen, das eine Entfernungsverteilung in dem Abbildungsbildschirm reflektiert, und um eine Äquidistanzbestimmung auszuführen, um zu bestimmen, ob ein Motiv zu identifizieren ist, das eine Entfernungsdifferenz in dem Abbildungsbildschirm umfasst, und ein Ausführen einer AF-Abtastverarbeitung, um eine Im-Fokus-Position bzw. fokussierte Position zu bestimmen.
  • Zuerst veranlasst in Schritt S1401 die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich zu der Abtaststartposition zu bewegen. In dem vorliegenden beispielhaften Ausführungsbeispiel ist die Abtaststartposition auf der entfernten Seite eines AF-Abtastausführungsbereichs eingestellt (beispielsweise ein im Unendlichen liegender Punkt).
  • In Schritt S1402 bestimmt die CPU 115, ob ein kontinuierliches Aufnehmen als Ergebnis in der Aufnahmereihenbestimmungsverarbeitung, die in dem in 2 veranschaulichten Schritt S208 ausgeführt wird, auszuführen ist. Wenn bestimmt wird, die kontinuierliche Aufnahmeverarbeitung auszuführen (Ja in Schritt S1402), schreitet der Betrieb zu Schritt S1409 voran. Wenn bestimmt wird, die AF-Aufnahmereihen- oder AE-Aufnahmereihenverarbeitung auszuführen (Nein in Schritt S1402), schreitet der Betrieb zu Schritt S1403 voran.
  • In Schritt S1403 stellt die CPU 115 einen AM-Rahmenbereich, der aus NxM Rahmen aufgebaut ist, ein, um die Entfernungsabbildung zu erlangen. Beispielsweise veranschaulicht 15A ein Beispiel des AM-Rahmenbereichs, der eingestellt werden kann, wenn N = 7 und M = 9 gilt.
  • In Schritt S1404 führt die CPU 115 eine AF-Abtastverarbeitung aus, um eine Spitzenwertposition in jedem der AF-Rahmen zu erfassen, die eingestellt worden sind, um die Entfernungsabbildung in Schritt S1403 zu erlangen.
  • In Schritt S1405 bestimmt die CPU 115 eine Im-Fokus-Position bzw. eine fokussierte Position auf der Grundlage der Spitzenwertposition in jedem AF-Rahmen, die in der Abtastverarbeitung erhalten wird, die in Schritt S1404 ausgeführt wird.
  • In Schritt S1406 korrigiert die CPU 115 die Spitzenwertposition jedes AF-Rahmens auf der Grundlage einer Fehlergröße, die im Voraus in Bezug auf die Spitzenwertposition erlangt wird, um den Einfluss eines Fehlers in der Verteilung von Spitzenwertpositionen zu beseitigen, der aufgrund einer Bildfeldkrümmung oder einer Neigung einer Linse/eines Bildsensors beinhaltet sein kann.
  • In Schritt S1407 führt die CPU 115 eine Äquidistanzbestimmungsverarbeitung für die Spitzenwertposition jedes AF-Rahmens aus, der in Schritt S1406 korrigiert wird.
  • In Schritt S1408 erzeugt die CPU 115 eine Entfernungsabbildung unter Bezugnahme auf die Verteilung von Spitzenwertpositionen der jeweiligen AF-Rahmen, die in Schritt S1406 korrigiert werden. 15B veranschaulicht Spitzenwertpositionen jeweiliger AF-Rahmen, die erhalten werden, wenn ein aufgenommenes Bild eine Blume auf der nahen Seite und einen Berg auf der entfernten Seite umfasst. Die Spitzenwertpositionen sind in den Bereich von 199 bis 202 in Bezug auf die Blume, die auf der nahen Seite positioniert ist, und in den Bereich von 100 bis 103 in Bezug auf den Berg verteilt, der auf der entfernten Seite positioniert ist.
  • Wenn ein Gruppieren in einer derartigen Art und Weise ausgeführt wird, dass Rahmen gesammelt werden, die bezüglich einer Spitzenwertposition ähnlich sind, kann der Abbildungsbildschirm in drei Bereiche geteilt werden, d.h. einen Fokusbereich 1 (d.h. ein Bereich, der durch eine fein gestrichelte Linie umgeben ist), einen Fokusbereich 2 (d.h. ein Bereich, der durch eine grob gestrichelte Linie umgeben ist) und einen Fokusbereich 3 (d.h. ein Bereich, der durch eine durchgezogene Linie umgeben ist), wie es in 15B veranschaulicht ist.
  • Die Fokusbereiche 1 und 2 können als der gleiche Bereich integriert werden, da diese Bereiche bezüglich einer Spitzenwertposition ähnlich sind. In diesem Fall kann der Abbildungsbildschirm in eine Hintergrundgruppe, die den Fokusbereichen 1 und 2 entspricht, und einer Vordergrundobjektgruppe geteilt werden, die dem Fokusbereich 3 entspricht. Somit teilt die CPU 115 den Abbildungsbildschirm in eine Vielzahl von Gruppen unter Bezugnahme auf die Entfernung. Ferner kann die Bildverarbeitungseinheit 110 eine Gruppierung in einer derartigen Art und Weise ausführen, dass ein Abbildungsbildschirmteilungsergebnis, das unter Bezugnahme auf eine Farbverteilung erhalten wird, und ein Abbildungsbildschirmteilungsergebnis, das unter Bezugnahme auf die Entfernung erhalten wird, kombiniert werden. In diesem Fall kann die Genauigkeit erhöht werden.
  • In Schritt S1409 stellt die CPU 115 AF-Rahmen bei der Objektposition ein, wenn das Objekt durch das Objekterfassungsmodul 123 erfolgreich erfasst worden ist, oder sie stellt eine vorbestimmte Anzahl von AF-Rahmen ein, wenn die Objekterfassung fehlgeschlagen ist. Wenn bestimmt wird, die kontinuierliche Aufnahmeverarbeitung auszuführen, besteht die Neigung, dass sich die Fokussierungsgenauigkeit in jedem AF-Rahmen verschlechtert, da der Fokusbewertungswert durch eine Bewegung des Objekts oder der Kamera beeinflusst wird. Folglich führt die CPU 115 eine AF-Abtastverarbeitung aus, um die fokussierte Position zu bestimmen, ohne die entfernungsabhängige Bereichsteilungsverarbeitung auszuführen.
  • In Schritt S1410 führt die CPU 115 eine AF-Abtastverarbeitung aus, um die fokussierte Position zu bestimmen. Genauer gesagt führt die CPU 115 in dem Fall, bei dem das Objekt erfolgreich erfasst worden ist, kontinuierlich die Abtastverarbeitung aus, bis eine Spitzenwertposition in dem AF-Rahmen erfasst werden kann, der in der Objekterfassungsposition eingestellt worden ist. Die CPU 115 führt in dem Fall, bei dem die Objekterfassung fehlgeschlagen ist, kontinuierlich die Abtastverarbeitung aus, bis eine Gruppe von AF-Rahmen, die bezüglich einer Spitzenwertposition ähnlich sind, von den mehreren AF-Rahmen erfasst werden kann.
  • In Schritt S1411 bestimmt die CPU 115 die fokussierte Position auf der Grundlage der Spitzenwertposition jedes AF-Rahmens, die in der in Schritt S1410 ausgeführten Abtastverarbeitung erhalten wird. Wenn das Objekt erfolgreich erfasst wird, wird die Spitzenwertposition auf den AF-Rahmen fokussiert, der in der Objekterfassungsposition eingestellt worden ist. Wenn die Spitzenwertposition bei dem AF-Rahmen nicht erfasst werden kann, der bei der Objekterfassungsposition eingestellt worden ist, wird ein defokussierter Zustand bestätigt. Wenn kein Objekt erfasst werden kann, bestimmt die CPU 115 einen AF-Rahmenbereich, um die fokussierte Position in einer Gruppe von AF-Rahmen zu bestimmen, die bezüglich einer Spitzenwertposition ähnlich sind, wenn sie erhalten wird. Ein defokussierter Zustand wird bestätigt, wenn die Gruppe von AF-Rahmen nicht erhalten werden kann.
  • In Schritt S1412 veranlasst die AF-Verarbeitungseinheit 105 die Fokuslinse 104, sich zu der fokussierten Position zu bewegen, wenn die fokussierte Position in Schritt S1405 oder Schritt S1411 bestimmt wird. Die AF-Verarbeitungseinheit 105 veranlasst die Fokuslinse 104, sich zu einem fixierten Punkt zu bewegen, der im Voraus bestimmt worden ist (d.h. eine Position, in der die Wahrscheinlichkeit eines Vorhandenseins eines Objekts höher ist), wenn die fokussierte Position bestimmt ist und der defokussierte Zustand bestätigt ist.
  • In Schritt S1413 veranlasst die CPU 115 die Betriebsanzeigeeinheit 117, einen fokussierten Rahmen oder einen Defokussierungsrahmen anzuzeigen. Wenn die fokussierte Position bestimmt ist, zeigt die CPU 115 den Fokussierungsrahmen an, der der AF-Rahmen ist, der in der Schärfentiefe von der fokussierten Position positioniert ist. Wenn der defokussierte Zustand bestätigt ist, zeigt die CPU 115 den Defokussierungsrahmen bei einer bestimmten Position (beispielsweise der zentralen Position) an.
  • Wenn alle AF-Rahmen, die in der Schärfentiefe von dem fokussierten Rahmen positioniert sind, als Ergebnis der Entfernungsabbildungsbeschaffungsabtastung, die in Schritt S1404 ausgeführt wird, angezeigt werden, kann die Fokussierungsrahmenanzeige sehr kompliziert werden, da die Anzahl der AF-Rahmen groß ist. Folglich ist es, wie es in 17B veranschaulicht ist, nützlich, einen Fokussierungsanzeigerahmen (d.h. einen Bereich, der durch eine gestrichelte Linie angezeigt ist) in einer derartigen Art und Weise neu einzustellen, dass jeder AF-Rahmen, der in der Schärfentiefe von der fokussierten Position positioniert ist (d.h. ein Bereich, der durch eine fette durchgezogene Linie angezeigt ist) beinhaltet ist, wie es in 17A veranschaulicht ist.
  • < Bildaufnahmeverarbeitung>
  • 16 zeigt ein Flussdiagramm, das die Bildaufnahmeverarbeitung veranschaulicht, die in dem in 2 veranschaulichten Schritt S212 auszuführen ist. Die Bildaufnahmeverarbeitung umfasst ein Optimieren der Bildaufnahmeverarbeitung und der Bildverarbeitung entsprechend dem Aufnahmereihenbestimmungsergebnis, das in dem in 2 veranschaulichten Schritt S208 erhalten wird, und dem Äquidistanzbestimmungsergebnis in der Hauptbelichtungs-AF-Verarbeitung, das in dem in 14 veranschaulichten Schritt S1407 erhalten wird.
  • In Schritt S1601 bestätigt die CPU 115 die Verarbeitung, die auszuführen ist, wenn ein Aufnahmebetrieb ausgeführt wird, als ein Ergebnis der Aufnahmereihenbestimmung, die in dem in 2 veranschaulichten Schritt S208 getroffen wird. Wenn bestimmt wird, die AF-Aufnahmereihenverarbeitung auszuführen, schreitet der Betrieb zu Schritt S1602 voran. Wenn bestimmt wird, die AE-Aufnahmereihenverarbeitung auszuführen, schreitet der Betrieb zu Schritt S1605 voran. Wenn bestimmt wird, die kontinuierliche Aufnahmeverarbeitung auszuführen, schreitet der Betrieb zu Schritt S1607 voran.
  • In Schritt S1602 überprüft die CPU 115, ob die Äquidistanz als Ergebnis der Äquidistanzbestimmung, die in der Hauptbelichtungs-AF-Verarbeitung in dem in 14 veranschaulichten Schritt S1407 getroffen wird, bestätigt ist. Wenn das Bestimmungsergebnis positiv ist (Ja in Schritt S1602), schreitet der Betrieb zu Schritt S1605 voran. Andernfalls (Nein in Schritt S1602) schreitet der Betrieb zu Schritt S1603 voran.
  • In Schritt S1603 bestimmt die CPU 115 die fokussierte Position bzw. Fokusposition, in der die AF-Aufnahmereihenverarbeitung auszuführen ist, auf der Grundlage der Entfernung jeder Gruppe, die in dem in 14 veranschaulichten Schritt S1408 geteilt wird.
  • In Schritt S1604 führt die CPU 115 einen AF-Aufnahmereihenaufnahmebetrieb bei der Fokusposition aus, die in Schritt S1603 bestimmt wird. In dieser Beziehung führt die CPU 115 die Verarbeitung in Schritt S1604 aus, wenn als Ergebnis der Äquidistanzbestimmungsverarbeitung bestimmt wird, dass ein Motiv bzw. eine Szene eine Entfernungsdifferenz umfasst, und die AF-Aufnahmereihenverarbeitung wirksam ist.
  • In Schritt S1605 bestimmt die CPU 115 Belichtungseinstellungen für die AE-Aufnahmereihenverarbeitung auf der Grundlage der Belichtungsdifferenz in dem Abbildungsbildschirm, die in der AE-Verarbeitungseinheit 103 erlangt wird, unmittelbar bevor der Schalter SW1 eingeschaltet wird. Dann schreitet der Betrieb zu Schritt S1606 voran.
  • In Schritt S1606 führt die CPU 115 einen AE-Aufnahmereihenaufnahmebetrieb auf der Grundlage der Belichtungseinstellungen aus, die in Schritt S1605 bestimmt werden.
  • In Schritt S1607 bestimmt die CPU 115 eine Rahmenrate in der kontinuierlichen Aufnahmeverarbeitung auf der Grundlage von Ausgaben der Winkelgeschwindigkeitssensoreinheit 125 und der Bewegungskörpererfassungseinheit 124, die erhalten werden, unmittelbar bevor der Schalter SW1 eingeschaltet wird. Dann schreitet der Betrieb zu Schritt S1608 voran.
  • In Schritt S1608 führt die CPU 115 einen kontinuierlichen Aufnahmebetrieb auf der Grundlage der Rahmenrate aus, die in Schritt S1607 bestimmt wird.
  • In Schritt S1609 erzeugt die CPU 115 ein Bild, indem eine Schattierungsverarbeitung bzw. Shading-Verarbeitung bei jedem Bild, das in den Fokusaufnahmereihenaufnahmen aufgenommen wird, die in Schritt S1604 ausgeführt werden, auf der Grundlage des Gruppierungsergebnisses, das in Schritt S1408 erhalten wird, der in 14 veranschaulicht ist, und der Entfernungs- oder Farbverteilung in dem Abbildungsbildschirm ausgeführt wird. Die CPU 115 führt die vorstehend genannte Verarbeitung für das Motiv aus, das eine Entfernungsdifferenz umfasst, die in der Äquidistanzbestimmungsverarbeitung identifiziert worden ist. Folglich kann die Shading-Verarbeitung entsprechend der Entfernungsverteilung genau ausgeführt werden.
  • In Schritt S1610 erzeugt die CPU 115 ein Bild, indem eine Verarbeitung zum Schneiden (clipping) eines Teils des Abbildungsbildschirms auf der Grundlage des Objekterfassungsbereichs, des Gruppierungsergebnisses, das in dem in 14 veranschaulichten Schritt S1408 erhalten wird, und der Entfernungs- oder Farbverteilung in dem Abbildungsbildschirm ausgeführt wird.
  • Wie es vorstehend beschrieben ist, kann das Abbildungsgerät die Entfernungsteilungsgenauigkeit auf der Grundlage der Verteilung der fokussierten Ergebnisse in einer Vielzahl von AF-Rahmen bestimmen und in geeigneter Weise die Bildaufnahmeverarbeitung und die Bildverarbeitung auf der Grundlage der bestimmten Entfernungsteilung ausführen. Wie es vorstehend beschrieben ist, ist es durch ein Bestimmen eines Motivs bzw. einer Szene, das auf der Grundlage eines Bildsignals aufzunehmen ist, möglich, die Bildverarbeitung und die Bildaufnahmeverarbeitung auf der Grundlage des Bestimmungsergebnisses in geeigneter Weise auszuführen.
  • Als nächstes ist ein zweites beispielhaftes Ausführungsbeispiel nachstehend beschrieben. Das zweite beispielhafte Ausführungsbeispiel unterscheidet sich von dem vorstehend beschriebenen ersten beispielhaften Ausführungsbeispiel darin, dass ein Phasendifferenz-AF-Verfahren eingesetzt wird, um Entfernungsinformationen über Objekte zu erlangen, die in dem Abbildungsbildschirm verteilt sind. Ein Abbildungsgerät gemäß dem zweiten beispielhaften Ausführungsbeispiel führt eine „Phasendifferenz-AF-Verarbeitung“ aus, anstatt die vorstehend genannte „AF-Abtastverarbeitung“ auszuführen, die in dem ersten beispielhaften Ausführungsbeispiel beschrieben ist.
  • 18 zeigt ein Flussdiagramm, das einen Betrieb veranschaulicht, der durch eine elektronische Kamera gemäß dem zweiten beispielhaften Ausführungsbeispiel ausgeführt werden kann. Eine Verarbeitung, die ähnlich zu der ist, die in dem ersten beispielhaften Ausführungsbeispiel beschrieben ist, wird durch die gleiche Schrittnummer bezeichnet, wobei eine redundante Beschreibung hiervon vermieden wird.
  • In Schritt S203 überprüft die CPU 115, ob bestimmt ist, dass das Abbildungsmotiv in Schritt S202 stabil ist. Wenn bestimmt wird, dass das Abbildungsmotiv stabil ist (Ja in Schritt S203), schreitet der Betrieb zu Schritt S1804 voran. Andernfalls (Nein in Schritt S203) springt der Betrieb zu Schritt S201 zurück. In Schritt S1804 führt die CPU 115 eine Phasendifferenz-AF-Verarbeitung aus. Die Phasendifferenz-AF-Verarbeitung ist nachstehend ausführlich unter Bezugnahme auf 19 beschrieben.
  • In dem zweiten beispielhaften Ausführungsbeispiel weist der Bildsensor 108 (siehe 1) eine Anordnung auf, die in den 20 und 21 veranschaulicht ist, um ein Bildsignal zusammen mit Phasendifferenz-AF-Informationen zu erlangen.
  • < Bildsensoraufbau >
  • 20A zeigt eine schematische Darstellung, die eine Bildelementanordnung bzw. Pixelanordnung des Bildsensors veranschaulicht. 20A veranschaulicht eine Bildelementanordnung eines zweidimensionalen komplementären Metalloxid-Halbleiter-(CMOS)-Sensors als ein Beispiel des Bildsensors gemäß dem vorliegenden beispielhaften Ausführungsbeispiel. Der Bildsensor weist einen Bildelementbereich bzw. Pixelbereich von 4 Zeilen und 4 Spalten auf.
  • Wie es in 20A veranschaulicht ist, weist jede Bildelementgruppe bzw. Pixelgruppe 210 eine Anordnung von 2 Reihen und 2 Spalten auf, die zwei Bildelemente bzw. Pixel 210G, die eine G-Spektralempfindlichkeit aufweisen und diagonal angeordnet sind, ein Bildelement bzw. Pixel 210R mit einer R-Spektralempfindlichkeit und ein Bildelement bzw. Pixel 210B mit einer B-Spektralempfindlichkeit in einer derartigen Art und Weise umfasst, dass eine Bayer-Array-Anordnung gebildet wird. Jedes der Bildelemente 210R, 210G und 210B wird durch zwei Unterbildelemente bzw. Unterpixel 201A und 201B gebildet, die in einer Pupillenteilung verwendbar sind. Folglich kann jedes Bildelement ein Bildsignal zusammen mit einer Phasendifferenz-AF-Information (d.h. eine Fokuserfassungsinformation) erlangen.
  • 20B ist eine vergrößerte Darstellung, die das Bildelement 201G des Bildsensors veranschaulicht, der in 20A veranschaulicht ist. 20C ist eine Querschnittsdarstellung des Bildelements 210G, die entlang einer in 20B veranschaulichten Linie A-A entnommen ist.
  • In dem vorliegenden beispielhaften Ausführungsbeispiel sind Unterbildelemente, die in allen Bildelementen angeordnet sind, für die Pupillenteilung bestimmt und als Fokuserfassungsbildelemente verwendbar. Die Bildelemente, die für die Pupillenteilung bestimmt sind und als Fokuserfassungsbildelemente verwendbar sind, können jedoch auf lediglich einen Teil der Sensoroberfläche begrenzt sein.
  • <Schematische Pupillenteilung des Bildsensors>
  • 21 veranschaulicht einen Pupillenteilungszustand eines Bildelements. Wie es in 21 veranschaulicht ist, umfasst ein Bildelement n-Typ-Schichten 301A und 301B, die in einer derartigen Art und Weise ausgebildet sind, dass sie in einer p-Typ-Schicht 300 beinhaltet sind, um zwei Unterbildelemente zu bilden. Zwei Unterbildelemente jedes Bildelements werden jeweils in +x- und -x-Richtungen abgeleitet. Folglich kann die Pupillenteilung unter Verwendung einer einzelnen Mikrolinse 303 implementiert werden. Genauer gesagt können eine Pupille 302A eines Bildsignals A und eine Pupille 302B eines Bildsignals B erhalten werden.
  • In dem vorliegenden beispielhaften Ausführungsbeispiel sind Unterbildelemente 301A regelmäßig in der x-Richtung angeordnet, wie es in 20A veranschaulicht ist. Ein erstes Bildsignal, das von diesen Unterbildelementen 301A erlangt wird, wird als das Bildsignal A eingestellt (d.h. eines von zwei Bildsignalen, die von gepaarten Lichtflüssen erhalten werden, die durch unterschiedliche Ausgangspupillenbereiche eines optischen Abbildungssystems hindurchgegangen sind). Ferner sind Unterbildelemente 301B regelmäßig in der x-Richtung angeordnet, wie es in 20A veranschaulicht ist. Ein zweites Bildsignal, das von der Unterbildelementgruppe 301B erlangt wird, wird als das Bildsignal B eingestellt (d.h. das andere von zwei Bildsignalen, die von gepaarten Lichtflüssen erhalten werden, die durch unterschiedliche Ausgangspupillenbereiche eines optischen Abbildungssystems hindurchgegangen sind).
  • Somit ist es möglich, die Brennpunktlage bzw. Fokuslage der Fotografierlinse zu erhalten, indem eine Defokussierungsgröße auf der Grundlage einer relativen Bildabweichung zwischen dem Bildsignal A und dem Bildsignal B unter Verwendung einer Korrelationsoperation berechnet wird. Es ist möglich, einen defokussierten Zustand der Fotografierlinse auf der Grundlage der berechneten Fokuslage zu justieren. Die vorstehend genannte Anordnung ist bei einem Objekt mit einer Leuchtdichteverteilung in der x-Richtung anwendbar. Eine ähnliche Anordnung ist bei einem Objekt mit einer Leuchtdichteverteilung in der y-Richtung anwendbar.
  • Ferner wird in dem vorliegenden beispielhaften Ausführungsbeispiel ein Bildelement durch zwei exzentrische Unterbildelemente gebildet, die in einer eindimensionalen Richtung angeordnet sind, um die vorstehend genannte Pupillenteilung auszuführen. Das Pupillenteilungsverfahren ist jedoch nicht auf das vorstehend genannte Beispiel begrenzt. Beispielsweise ist es nützlich, eine zweidimensionale Anordnung von Unterbildelementen zu bilden, die sowohl in der x- als auch der y-Richtung geteilt sind.
  • Ferner wird in dem vorliegenden beispielhaften Ausführungsbeispiel die Pupillenteilung unter Verwendung einer Mikrolinse implementiert, bei der eine Vielzahl von Unterbildelementen angeordnet ist. Das Pupillenteilungsverfahren ist jedoch nicht auf das vorstehende genannte Beispiel begrenzt. Beispielsweise ist es nützlich, lediglich ein Bildelement für jede Mikrolinse in einer exzentrischen Weise zu bilden und eine Pupille unter Verwendung von Bildelementen, die unterschiedliche exzentrische Bildelemente aufweisen, zu teilen, um die Fokuserfassung auszuführen.
  • 19 zeigt ein Flussdiagramm, das die Phasendifferenz-AF-Verarbeitung veranschaulicht, die in dem in 18 veranschaulichten Schritt S1804 auszuführen ist. Die Phasendifferenz-AF-Verarbeitung umfasst ein Erlangen von Entfernungsinformationen, um ein Motiv zu bestimmen, das eine Entfernungsdifferenz zwischen Objekten in dem Abbildungsbildschirm umfasst (nachstehend als „Äquidistanzbestimmung“ bezeichnet), und ein Ausführen eines Phasendifferenz-AF-Betriebs, um eine fokussierte Position bzw. Fokusposition zu bestimmen. Die AF-Verarbeitungseinheit 105 und die CPU 115 führen zusammenwirkend die nachstehend beschriebene Verarbeitung unter Verwendung des vorstehend genannten Bildsensors aus.
  • Zuerst stellt in Schritt S301 die CPU 115 NxM Fokuserfassungsbereiche (d.h. AF-Rahmen) in dem Abbildungsbildschirm ein. 4 veranschaulicht eine AF-Rahmeneinstellung, die erhalten werden kann, wenn N = 7 und M = 9 gilt. Alternativ hierzu ist es nützlich, den AF-Rahmeneinstellungsbereich unter Berücksichtigung einer spezifischen Position in dem Abbildungsbildschirm einzustellen, bei der das Objekt durch das Objekterfassungsmodul 123 erfasst worden ist. Beispielsweise kann die CPU 115 eine Vielzahl von AF-Rahmen unter Bezugnahme auf die Position des Objekts einstellen, wenn es erfolgreich erfasst worden ist.
  • In Schritt S1907 erlangt, wie es vorstehend beschrieben ist, die CPU 115 das erste Bildsignal, das von jedem Unterbildelement 301A erlangt wird, als das Bildsignal A (d.h. eines von zwei Bildsignalen, die von gepaarten Lichtflüssen erhalten werden, die durch unterschiedliche Ausgangspupillenbereiche eines optischen Abbildungssystems hindurchgegangen sind), und das zweite Bildsignal, das von der Unterbildelementgruppe 301B erlangt wird, als das Bildsignal B (d.h. das andere der zwei Bildsignale, die von gepaarten Lichtflüssen erhalten werden, die durch unterschiedliche Ausgangspupillenbereiche eines optischen Abbildungssystems hindurchgegangen sind).
  • Dann erhält die CPU 115 eine relative Bildabweichung zwischen dem Bildsignal A und dem Bildsignal B auf der Grundlage eines Korrelationsbetriebs bzw. einer Korrelationsoperation, wobei sie eine Defokussierungsgröße auf der Grundlage der erhaltenen relativen Bildabweichung berechnet (was als „Phasendifferenz-AF-Verfahren“ bezeichnet wird). Somit ist es möglich, die fokussierte Position bzw. Fokisposition (d.h. die Fokuslinsenposition, bei der das Objekt fokussiert ist) für jeden AF-Rahmen zu erhalten.
  • In Schritt S1908 führt die CPU 115 eine Äquidistanzbestimmungsverarbeitung aus. Die in Schritt S1908 auszuführende Verarbeitung ist ähnlich zu der Äquidistanzbestimmungsverarbeitung, die unter Bezugnahme auf 11 beschrieben ist, obwohl die Spitzenwertposition in jedem AF-Rahmen durch die fokussierte Position entsprechend dem Phasendifferenz-AF-Verfahren ersetzt werden sollte. Folglich wird eine redundante Beschreibung hiervon vermieden.
  • Eine Verarbeitung, die in den Schritten S309 bis S313 auszuführen ist, ist ähnlich zu der Verarbeitung, die in dem ersten beispielhaften Ausführungsbeispiel beschrieben ist.
  • In dem vorstehend genannten beispielhaften Ausführungsbeispiel ist die Abtast-AF-Verarbeitung oder die Phasendifferenz-AF ausgeführt worden, um Entfernungsinformationen über Objekte zu erlangen, die in dem Abbildungsbildschirm verteilt sind. Es ist jedoch ein anderes Verfahren einsetzbar. Beispielsweise ist eine Phasendifferenz-AF-Funktion mit externer Messung oder eine GPS-Funktion verwendbar, um Entfernungsinformationen zu erlangen.
  • Ferner sind Bildaufnahmebedingungen, die für die kontinuierliche Aufnahmeverarbeitung (Belichtungsreihen- bzw. Aufnahmereihenverarbeitung) in den vorstehend genannten beispielhaften Ausführungsbeispielen eingesetzt werden, wie nachstehend beschrieben:
    • Kontinuierliche Aufnahmebedingung: „Fixieren einer Fokuslinsenposition und einer Belichtungsbedingung in einer Vielzahl von Aufnahmebetrieben“
    • AF-Aufnahmereihenbedingung: „Differenzieren einer Belichtungsbedingung in einer Vielzahl von Aufnahmebetrieben in einer derartigen Art und Weise, dass eine geeignete Belichtung für eine Vielzahl von Objektebereichen eingestellt wird“
    • AE-Aufnahmereihenbedingung: „Differenzieren einer Fokuslinsenposition in einer Vielzahl von Aufnahmebetrieben in einer derartigen Art und Weise, dass eine Vielzahl von Objektbereichen in einen fokussierten Zustand gebracht wird“.
  • Die Bildaufnahmebedingungen sind jedoch nicht auf die vorstehend genannten Beispiele begrenzt. Beispielsweise ist es, wenn die Leuchtdichte eines Objekts gleich oder dunkler als ein vorbestimmter Pegel ist, möglich, einen kontinuierlichen Aufnahmebetrieb unter Bezugnahme auf eine stroboskopische Aufnahmereihenbedingung auszuführen: „Differenzieren einer stroboskopischen Lichtausstrahlbedingung in einer Vielzahl von Aufnahmebetrieben“.
  • Ferner ist beschrieben worden, dass die Fokuslinsenposition und die Belichtungsbedingung in einem kontinuierlichen Aufnahmebetrieb nicht verändert werden. Es ist jedoch nützlich, lediglich einen AF-Rahmen (d.h. einen Hauptobjektbereich) zu fixieren und durch ein Nachführen bzw. Tracking eine Fokuslinsenposition, bei der der AF-Rahmen in einen fokussierten Zustand gebracht ist, und eine Belichtungsbedingung zur geeigneten Einstellung der Belichtung zu erhalten, wobei dann die erhaltene Fokuslinsenposition und die Belichtungsbedingung angewendet werden.
  • Ferner führt in dem vorstehend genannten beispielhaften Ausführungsbeispiel das Abbildungsgerät die AE-Aufnahmereihenverarbeitung aus, wenn ein Abbildungsmotiv eine vorbestimmte Belichtungsdifferenz zwischen Bildrahmen umfasst. Es ist jedoch nützlich, die AE-Aufnahmereihenverarbeitung auszuführen, wenn ein Abbildungsmotiv einen Bildrahmen umfasst, der gegen die Sonne aufgenommen wird.
  • Die vorliegende Erfindung ist nicht auf die vorstehend genannten beispielhaften Ausführungsbeispiele begrenzt. Diese Ausführungsbeispiele können in verschiedenerlei Weise modifiziert werden, ohne von dem Umfang der Erfindung abzuweichen. Die vorstehend genannten beispielhaften Ausführungsbeispiele können in geeigneter Weise zumindest teilweise kombiniert werden.
  • Weitere Ausführungsbeispiele
  • Ausführungsbeispiele der vorliegenden Erfindung können ebenso durch einen Computer eines Systems oder eines Geräts, der computerausführbare Anweisungen, die auf einem Speichermedium (beispielsweise einem nicht-vergänglichen computerlesbaren Speichermedium) aufgezeichnet sind, ausliest und ausführt, um die Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele der vorliegenden Erfindung auszuführen, und durch ein Verfahren realisiert werden, das durch den Computer des Systems oder des Geräts ausgeführt wird, indem beispielsweise die computerausführbaren Anweisungen von dem Speichermedium ausgelesen und ausgeführt werden, um die Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele auszuführen. Der Computer kann eine zentrale Verarbeitungseinheit (CPU) oder mehrere zentrale Verarbeitungseinheiten, eine Mikroprozessoreinheit oder mehrere Mikroprozessoreinheiten (MPU) oder eine andere Schaltung oder mehrere andere Schaltungen umfassen, wobei er ein Netzwerk separater Computer oder separater Computerprozessoren umfassen kann. Die computerausführbaren Anweisungen können dem Computer beispielsweise von einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann beispielsweise ein Element oder mehrere Elemente aus einer Festplatte, einem Speicher mit wahlfreien Zugriff (RAM), einem Nur-Lese-Speicher (ROM), einem Speicher von verteilten Computersystemen, einer optischen Platte (wie beispielsweise eine Kompaktdisk (CD), eine Digital Versatile Disk (DVD) oder eine Blue-Ray Disk (BD)™), einer Flash-Speichervorrichtung, einer Speicherkarte und dergleichen umfassen.
  • Während die vorliegende Erfindung unter Bezugnahme auf beispielhafte Ausführungsbeispiele beschrieben worden ist, ist es ersichtlich, dass die Erfindung nicht auf die offenbarten beispielhaften Ausführungsbeispiele begrenzt ist. Dem Umfang der nachstehend genannten Patentansprüche soll die breiteste Interpretation gewährt werden, um alle derartigen Modifikationen und äquivalenten Strukturen und Funktionen zu umfassen.
  • Ein Abbildungsgerätsteuerungsverfahren umfasst ein Erlangen eines Bildsignals durch eine fotoelektrische Umwandlung eines Objektbilds und ein Ausführen einer Steuerung in einer derartigen Art und Weise, dass eine erste kontinuierliche Aufnahmebetriebart und eine zweite kontinuierliche Aufnahmebetriebsart auf der Grundlage des Bildsignals ausgeführt werden, wobei eine Bildaufnahmebedingung in der ersten kontinuierlichen Aufnahmebetriebsart unterschiedlich zu einer Bildaufnahmebedingung in der zweiten kontinuierlichen Aufnahmebetriebsart ist.

Claims (5)

  1. Abbildungsgerät mit: einer Abbildungseinheit (108), die konfiguriert ist, ein Bildsignal durch eine fotoelektrische Umwandlung eines Objektbildes zu erlangen, einer Autofokus-Verarbeitungseinheit (105), die einen Fokusjustierungsbetrieb für eine Fokuslinse (104) auf der Grundlage eines Fokusbewertungswerts ausführt, der in einer Vielzahl von Fokuserfassungsbereichen erhalten wird, die für ein Bildsignal eingestellt werden; einer Steuerungseinheit (115), die konfiguriert ist, eine Steuerung in einer derartigen Art und Weise auszuführen, dass eine erste Aufnahmereihenbetriebsart und eine zweite Aufnahmereihenbetriebsart auf der Grundlage des Bildsignals ausgeführt werden, wobei die erste Aufnahmereihenbetriebsart eine AF-Aufnahmereihenbetriebsart ist und wobei die Steuerungseinheit (115) konfiguriert ist, eine Spitzenwertposition in jeder der Vielzahl von Fokuserfassungsbereichen zu beschaffen und das Abbildungsgerät zu steuern, die erste Aufnahmereihenbetriebsart in einem Fall auszuführen, in dem die Spitzenwertposition jedes der Vielzahl von Fokuserfassungsbereichen eine vorbestimmte Bedingung erfüllt, und wobei die vorbestimmte Bedingung umfasst, dass für die Vielzahl von Fokuserfassungsbereichen, die in einer Reihenfolge einer Nähe in Bezug auf die Werte der Spitzenwertpositionen, die in jedem der Vielzahl von Fokuserfassungsbereichen erhalten werden, neu angeordnet werden, eine Differenz zwischen einer Spitzenwertposition eines ersten Fokuserfassungsbereichs aus der Vielzahl von Fokuserfassungsbereichen und einer Spitzenwertposition eines zweiten Fokuserfassungsbereichs aus der Vielzahl von Fokuserfassungsbereichen nicht innerhalb einer vorbestimmten Schärfentiefe ist, wobei die Spitzenwertposition des zweiten Fokuserfassungsbereichs eine Spitzenwertposition ist, die niedriger als die Spitzenwertposition des ersten Fokuserfassungsbereichs in der Reihenfolge einer Nähe um eine eingestellte Anzahl eingeordnet ist, und wobei die Anzahl derart eingestellt ist, dass ein Verhältnis der Anzahl zu der Gesamtanzahl der Vielzahl von Fokuserfassungsbereichen ein vorbestimmtes Verhältnis ist.
  2. Abbildungsgerät nach Anspruch 1, wobei die zweite Aufnahmereihenbetriebsart eine AE-Aufnahmereihenbetriebsart ist.
  3. Abbildungsgerät nach Anspruch 1, ferner mit: einer Teilungseinheit (115), die konfiguriert ist, einen Bildrahmen in eine Vielzahl von Objektbereichen auf der Grundlage der Fokusbewertungswerte zu teilen, und einer Bildverarbeitungseinheit (115), die konfiguriert ist, eine Bildverarbeitung auf der Grundlage der Vielzahl von Objektbereichen auszuführen, wobei die Bildverarbeitungseinheit (115) konfiguriert ist, eine Shading-Verarbeitung bei einem Bild auszuführen, das in einem Aufnahmebetrieb entsprechend der ersten Aufnahmereihenbetriebsart für jeden der Objektbereiche erhalten wird.
  4. Abbildungsgerät nach Anspruch 1, ferner mit: einer Teilungseinheit (115), die konfiguriert ist, einen Bildrahmen in eine Vielzahl von Objektbereichen auf der Grundlage der Fokusbewertungswerte zu teilen, und einer Bildverarbeitungseinheit (115), die konfiguriert ist, eine Bildverarbeitung auf der Grundlage der Vielzahl von Objektbereichen auszuführen, wobei die Bildverarbeitungseinheit (115) konfiguriert ist, ein Schneidebild für jeden der Vielzahl von Objektbereichen zu erzeugen.
  5. Verfahren zum Steuern eines Abbildungsgeräts, mit: einem Erlangen eines Bildsignals durch eine fotoelektrische Umwandlung eines Objektbildes, einem Ausführen eines Fokusjustierungsbetriebs für eine Fokuslinse (104) auf der Grundlage eines Fokusbewertungswerts, der in einer Vielzahl von Fokuserfassungsbereichen erhalten wird, die für ein Bildsignal eingestellt werden, und einem Ausführen einer Steuerung in einer derartigen Art und Weise, dass eine erste Aufnahmereihenbetriebsart und eine zweite Aufnahmereihenbetriebsart auf der Grundlage des Bildsignals ausgeführt werden, wobei die erste Aufnahmereihenbetriebsart eine AF-Aufnahmereihenbetriebsart ist, wobei in der Steuerung eine Spitzenwertposition in jeder der Vielzahl von Fokuserfassungsbereichen beschafft wird und die erste Aufnahmereihenbetriebsart in einem Fall ausgeführt wird, in dem die Spitzenwertposition jedes der Vielzahl von Fokuserfassungsbereichen eine vorbestimmte Bedingung erfüllt, und wobei die vorbestimmte Bedingung umfasst, dass für die Vielzahl von Fokuserfassungsbereichen, die in einer Reihenfolge einer Nähe in Bezug auf die Werte der Spitzenwertpositionen, die in jedem der Vielzahl von Fokuserfassungsbereichen erhalten werden, neu angeordnet werden, eine Differenz zwischen einer Spitzenwertposition eines ersten Fokuserfassungsbereichs aus der Vielzahl von Fokuserfassungsbereichen und einer Spitzenwertposition eines zweiten Fokuserfassungsbereichs aus der Vielzahl von Fokuserfassungsbereichen nicht innerhalb einer vorbestimmten Schärfentiefe ist, wobei die Spitzenwertposition des zweiten Fokuserfassungsbereichs eine Spitzenwertposition ist, die niedriger als die Spitzenwertposition des ersten Fokuserfassungsbereichs in der Reihenfolge einer Nähe um eine eingestellte Anzahl eingeordnet ist, und wobei die Anzahl derart eingestellt ist, dass ein Verhältnis der Anzahl zu der Gesamtanzahl der Vielzahl von Fokuserfassungsbereichen ein vorbestimmtes Verhältnis ist.
DE102013226831.9A 2012-12-27 2013-12-20 Abbildungsgerät und Verfahren zur Steuerung desselben Expired - Fee Related DE102013226831B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-285259 2012-12-27
JP2012285259A JP6172934B2 (ja) 2012-12-27 2012-12-27 撮像装置、その制御方法、プログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
DE102013226831A1 DE102013226831A1 (de) 2014-07-03
DE102013226831B4 true DE102013226831B4 (de) 2019-08-14

Family

ID=50030958

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013226831.9A Expired - Fee Related DE102013226831B4 (de) 2012-12-27 2013-12-20 Abbildungsgerät und Verfahren zur Steuerung desselben

Country Status (5)

Country Link
US (1) US9635238B2 (de)
JP (1) JP6172934B2 (de)
CN (1) CN103905726B (de)
DE (1) DE102013226831B4 (de)
GB (1) GB2510960B (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6028112B2 (ja) * 2014-02-07 2016-11-16 富士フイルム株式会社 撮像装置及び合焦制御方法
JP6212717B2 (ja) * 2014-03-26 2017-10-18 パナソニックIpマネジメント株式会社 撮像装置
JP6489876B2 (ja) * 2015-03-02 2019-03-27 キヤノン株式会社 撮像装置及びその制御方法
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
JP2019071536A (ja) * 2017-10-06 2019-05-09 パナソニックIpマネジメント株式会社 撮像装置
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置
CN111541840B (zh) * 2019-02-06 2022-03-22 佳能株式会社 确定照明效果候选的信息处理设备、方法及存储介质
JP6728421B2 (ja) * 2019-02-20 2020-07-22 キヤノン株式会社 画像処理装置、撮影装置、画像処理方法及びプログラム
CN110378934B (zh) * 2019-07-22 2021-09-07 Oppo广东移动通信有限公司 主体检测方法、装置、电子设备和计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080143865A1 (en) 2006-12-15 2008-06-19 Canon Kabushiki Kaisha Image pickup apparatus
JP4185740B2 (ja) 2002-09-12 2008-11-26 キヤノン株式会社 自動焦点調整装置、撮像装置、信頼性判定方法、プログラム、及び記憶媒体
JP4235422B2 (ja) 2002-09-06 2009-03-11 キヤノン株式会社 焦点検出方法、焦点検出装置、及び撮像装置
US20100073549A1 (en) 2008-09-19 2010-03-25 Hoya Corporation Digital camera having autofocus capability and continuous shooting capability
US20100134644A1 (en) 2008-11-28 2010-06-03 Casio Computer Co., Ltd. Image pick-up apparatus, method of producing file of obtained image, and recording medium
JP2012004716A (ja) 2010-06-15 2012-01-05 Sanyo Electric Co Ltd 撮像装置及び電子機器

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04185740A (ja) 1990-11-13 1992-07-02 Kanebo Ltd ポリアミド高密度繊維構造物
JPH04235422A (ja) 1991-01-09 1992-08-24 Iwatsu Electric Co Ltd 移動体通信の時間分割通信方法
JP2003319252A (ja) * 2002-04-26 2003-11-07 Minolta Co Ltd デジタルカメラ
CN100448267C (zh) * 2004-02-06 2008-12-31 株式会社尼康 数码相机
JP4378272B2 (ja) * 2004-12-15 2009-12-02 キヤノン株式会社 撮影装置
JP4422667B2 (ja) * 2005-10-18 2010-02-24 富士フイルム株式会社 撮影装置および撮影方法
JP2007214887A (ja) * 2006-02-09 2007-08-23 Fujifilm Corp デジタルスチルカメラ及び画像合成方法
JP2007256907A (ja) * 2006-02-10 2007-10-04 Fujifilm Corp デジタルカメラ
JP5220054B2 (ja) * 2006-02-10 2013-06-26 富士フイルム株式会社 デジタルカメラ
KR101278238B1 (ko) * 2006-10-16 2013-06-24 삼성전자주식회사 디지털 영상 처리 장치에서 영상 편집 방법
JP2008129554A (ja) * 2006-11-27 2008-06-05 Sanyo Electric Co Ltd 撮像装置及びオートフォーカス制御方法
JP5052127B2 (ja) * 2006-12-28 2012-10-17 三星電子株式会社 撮像装置及び撮像方法
EP2541902B1 (de) * 2007-03-06 2014-06-25 Panasonic Corporation Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
JP2008236482A (ja) * 2007-03-22 2008-10-02 Fujifilm Corp 撮影制御プログラム及びデジタルカメラ並びに撮影制御方法
JP2008236627A (ja) * 2007-03-23 2008-10-02 Fujifilm Corp 撮影システム及び撮影装置
JP5083090B2 (ja) * 2007-09-18 2012-11-28 ソニー株式会社 表示制御装置、撮像装置、表示制御方法およびプログラム
JP4991602B2 (ja) * 2008-03-07 2012-08-01 富士フイルム株式会社 撮像装置
JP4661964B2 (ja) * 2009-02-09 2011-03-30 カシオ計算機株式会社 撮像装置、及び、プログラム
JP5297222B2 (ja) * 2009-02-17 2013-09-25 キヤノン株式会社 焦点調節装置、及び焦点調節方法
JP5316070B2 (ja) * 2009-02-23 2013-10-16 株式会社ニコン 撮像装置
US8717490B2 (en) 2009-06-19 2014-05-06 Casio Computer Co., Ltd Imaging apparatus, focusing method, and computer-readable recording medium recording program
JP2012156747A (ja) * 2011-01-26 2012-08-16 Casio Comput Co Ltd 撮像装置、画像合成方法、及びプログラム
RU2549143C1 (ru) * 2011-03-17 2015-04-20 Кэнон Кабусики Кайся Устройство регистрации изображения и способ управления им

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4235422B2 (ja) 2002-09-06 2009-03-11 キヤノン株式会社 焦点検出方法、焦点検出装置、及び撮像装置
JP4185740B2 (ja) 2002-09-12 2008-11-26 キヤノン株式会社 自動焦点調整装置、撮像装置、信頼性判定方法、プログラム、及び記憶媒体
US20080143865A1 (en) 2006-12-15 2008-06-19 Canon Kabushiki Kaisha Image pickup apparatus
US20100073549A1 (en) 2008-09-19 2010-03-25 Hoya Corporation Digital camera having autofocus capability and continuous shooting capability
US20100134644A1 (en) 2008-11-28 2010-06-03 Casio Computer Co., Ltd. Image pick-up apparatus, method of producing file of obtained image, and recording medium
JP2012004716A (ja) 2010-06-15 2012-01-05 Sanyo Electric Co Ltd 撮像装置及び電子機器

Also Published As

Publication number Publication date
US9635238B2 (en) 2017-04-25
CN103905726A (zh) 2014-07-02
JP2014126802A (ja) 2014-07-07
JP6172934B2 (ja) 2017-08-02
US20140184889A1 (en) 2014-07-03
GB2510960B (en) 2017-10-25
CN103905726B (zh) 2017-07-28
GB201322173D0 (en) 2014-01-29
DE102013226831A1 (de) 2014-07-03
GB2510960A (en) 2014-08-20

Similar Documents

Publication Publication Date Title
DE102013226831B4 (de) Abbildungsgerät und Verfahren zur Steuerung desselben
DE102013226588B4 (de) Bildaufnahmegerät
DE112013004640B4 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Programm und Bildaufnahmevorrichtung mit der Bildverarbeitungsvorrichtung
DE102012215429B4 (de) Bildverarbeitungssystem und automatisches Fokussierverfahren
DE4006592C2 (de) Automatische Fokussiervorrichtung
US10375292B2 (en) Image pickup apparatus and method for generating image having depth information
DE2722804C3 (de) Einrichtung zur Feststellung der korrekten Scharfeinstellung einer Abbildung
US10855903B2 (en) Image processing apparatus, image capturing apparatus, control method and recording medium
EP2709352B1 (de) Bildaufnahmevorrichtung, Bildaufnahmesystem und Verfahren zur Steuerung der Bildaufnahmevorrichtung
KR102228456B1 (ko) 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법
DE102016105879A1 (de) Anzeigesteuerungsvorrichtung und Steuerungsverfahren für diese
DE102016105764A1 (de) Fokusdetektionsvorrichtung und steuerverfahren dafür
KR20130083853A (ko) 화상처리장치, 촬상장치, 제어 방법 및 기록 매체
DE3006244A1 (de) Einrichtung zum fuehlen der fokussierstellung
JP5130178B2 (ja) 焦点距離検出装置及び撮像装置及び撮像方法及びカメラ
DE112017004073T5 (de) Objektivvorrichtung, kamerasystem und linsenantriebsverfahren
DE102015102681A1 (de) All-in-focus - implementierung
EP3002940A1 (de) Bildgebungsvorrichtung und abbildungsverfahren
DE102015105072A1 (de) Bildaufnahmevorrichtung zur erzeugung eines fokusveränderbaren bilds, steuerverfahren für eine bildaufnahmevorrichtung, und speichermedium
DE102015105753A1 (de) Photoelektrische umwandlungsvorrichtung, bildaufnahmesystem, und ansteuerverfahren der photoelektrischen umwandlungsvorrichtung
DE102016114025A1 (de) Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium
DE102016113921A1 (de) Bildaufnahmevorrichtung und Verfahren zur Steuerung der Bildaufnahmevorrichtung
DE102012216800B4 (de) Bildgebungsvorrichtung und Verfahren zur Steuerung von dieser
JP6859388B2 (ja) 撮像装置、焦点調節装置、及びその制御方法
DE102021109762A1 (de) Bildaufnahmevorrichtung, steuerverfahren dafür, programm, undspeichermedium

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee