DE102013227163B4 - Bildaufnahmeelement, bildaufnahmevorrichtung und verfahren und programm zum steuern von diesen - Google Patents

Bildaufnahmeelement, bildaufnahmevorrichtung und verfahren und programm zum steuern von diesen Download PDF

Info

Publication number
DE102013227163B4
DE102013227163B4 DE102013227163.8A DE102013227163A DE102013227163B4 DE 102013227163 B4 DE102013227163 B4 DE 102013227163B4 DE 102013227163 A DE102013227163 A DE 102013227163A DE 102013227163 B4 DE102013227163 B4 DE 102013227163B4
Authority
DE
Germany
Prior art keywords
image
image pickup
signal
evaluation value
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102013227163.8A
Other languages
English (en)
Other versions
DE102013227163A1 (de
Inventor
Naoto c/o Canon Kabushiki Kaisha Ogushi
Shinobu c/o Canon Kabushiki Kaisha Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013136083A external-priority patent/JP2014143667A/ja
Priority claimed from JP2013137031A external-priority patent/JP6346417B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102013227163A1 publication Critical patent/DE102013227163A1/de
Application granted granted Critical
Publication of DE102013227163B4 publication Critical patent/DE102013227163B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Bildaufnahmeelement (102) zum Aufnehmen eines optischen Bildes, auf das fokussiert wird, und Ausgeben eines Bildsignals entsprechend dem optischen Bild, mit:einer Vielzahl von Pixel (201), die in einer Matrix angeordnet sind, zum Ausgeben eines Spannungssignals entsprechend dem optischen Bild; undeiner Umwandlungseinrichtung (211) zum Umwandeln des Spannungssignals in ein digitales Signal, um ein Bildsignal zu erhalten,einer Ausgabeeinrichtung (215-a, 215-b) zum Ausgeben eines ersten Bildsignals, das von einer ersten Pixelgruppe unter der Vielzahl von Pixeln erhalten wird, und eines zweiten Bildsignals, das von einer zweiten Pixelgruppe unter der Vielzahl von Pixeln erhalten wird;einer Steuerungsinformationserzeugungseinrichtung (1021) zum Erzeugen von Steuerungsinformationen, die für eine Bildaufnahme zu verwenden sind, gemäß dem ersten Bildsignal; undeiner Umschalteinrichtung (216) zum wahlweisen Bereitstellen des ersten Bildsignals an die Steuerungsinformationserzeugungseinrichtung,wobei in einem Bildaufnahmevorbereitungszustand, bevor eine Bildaufnahme durchgeführt wird, die Umschalteinrichtung das erste Bildsignal an die Steuerungsinformationserzeugungseinrichtung bereitstellt und das zweite Bildsignal zum Erzeugen eines Anzeigebildes verwendet wird,und in einem Bildaufnahmezustand, die Umschalteinrichtung das erste Bildsignal nicht an die Steuerungsinformationserzeugungseinrichtung bereitstellt und das erste Bildsignal und das zweite Bildsignal zum Erzeugen eines Standbildes verwendet werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Bildaufnahmeelement mit einer geschichteten Struktur, eine Bildaufnahmevorrichtung mit dem Bildaufnahmeelement und ein Verfahren und Programm zum Steuern von diesen. Insbesondere betrifft die vorliegende Erfindung eine Bildaufnahmevorrichtung, die einen Evaluierungswert für Photometrie, Entfernungsmessung und Ähnliches gemäß einem Bildsignal erfassen kann.
  • Beschreibung des Standes der Technik
  • Es gibt eine Technologie zum Evaluieren und Anzeigen eines Bildes unter Verwendung eines Signals, das durch eine Bildaufnahmevorrichtung aufgenommen wird. Eine in der japanischen Patentanmeldungsoffenlegungsschrift Nr.: 2009-89105 offenbarte Vorrichtung offenbart eine Live-Ansicht-Auslesebetriebsart und eine Fokuserfassungs-Autobelichtungs-Auslesebetriebsart. Die Live-Ansicht-Auslesebetriebsart dient zum Auslesen eines Bildaufnahmesignals für eine Live-Ansicht-Anzeige, während die Fokuserfassungs-Autobelichtungs-Auslesebetriebsart zum Auslesen eines Bildaufnahmesignals von dem Bildaufnahmeelement dient, das für ein Signal zur Fokuserfassung und Photometrieinformation für eine automatische Belichtung bzw. Autobelichtung zu verwenden ist. Diese Auslesebetriebsarten werden in jedem Rahmen zyklisch wiederholt.
  • Da jedoch in der japanischen Patentanmeldungsoffenlegungsschrift Nr.: 2009-89105 ein Bildsignal (das heißt, eine Ladung) von dem Bildaufnahmeelement auf einer Pixelbasis ausgelesen wird, wird nicht nur eine längere Zeit zum Übertragen der Ladung benötigt, sondern es erhöht sich ebenso die Menge des Datentransfers, was einen Energieverbrauch erhöht.
  • Weiterhin wird das Bildsignal, das die Ausgabe des Bildaufnahmeelements ist, einer Bildsignalverarbeitung, die durch eine andere Vorrichtung, wie etwa eine Steuerung durchgeführt wird, unterzogen. Dementsprechend verursacht eine große Transferdatenmenge eine Erhöhung einer Verarbeitungslast der Steuerung.
  • Zusätzlich offenbart die japanische Patentanmeldungsoffenlegungsschrift Nr.: 2009-89105 eine Pixeleinheit, die Fokussignalerfassungspixel umfasst, was unvermeidlich einen Bereich, der für die Pixel für das Bildaufnahmesignal zugewiesen ist, verringert. Da diese Fokussignalerfassungspixel beim Erhalten des Bildaufnahmesignals (Bildsignal) nicht verwendet werden, verschlechtert sich die Bildqualität.
  • Die Druckschrift EP 1 227 662 A2 offenbart eine Bildaufnahmevorrichtung mit Schaltungszellen, die als Bildaufnahmeelemente dienen. Die Schaltungszellen sind in dem Aufnahmeabschnitt zweidimensional angeordnet. Manche der Schaltungszellen werden zum Durchführen einer Fotometrie des Belichtungssteuerungsvorgangs verwendet, um das von dem Subjekt kommende Licht zu erfassen, und andere der Schaltungszellen werden zum Umwandeln des Objektbildes in Bilddaten verwendet. Die zum Durchführen der Fotometrie verwendeten Schaltungszellen werden jedoch lediglich zum Durchführen des Belichtungssteuerungsvorgangs, d.h. als Belichtungssteuerdaten, verwendet, anstatt sie zum Erhalten von Bilddaten zu verwenden.
  • Die Druckschrift US 2012 / 0 194 719 A1 offenbart Bildsensoreinheiten mit gestapelten Bildsensoren.
  • Die Druckschrift US 2009 / 0 086 084 A1 offenbart eine Festkörperabbildungseinrichtung mit einem Fotoelektrischen Umwandlungsanschnitt und umfasst Pixel für eine Fokuserfassung und Pixel für eine Bilderfassung. Die Fokuserfassungspixel werden nur zur Fokuserfassung, jedoch nicht zur Bilderzeugung verwendet.
  • Weitere bekannte Bildaufnahmesensoren und Bildaufnahmeelemente sind in den Druckschriften JP 2011-103 335 A , JP 2009-290 613 A und US 2008 / 0 291 311 A1 beschrieben.
  • Dementsprechend ist es eine Aufgabe der vorliegenden Erfindung, ein Bildaufnahmeelement und eine Bildaufnahmevorrichtung, die die Datenübertragungszeit reduzieren und eine Verschlechterung der Bildqualität unterdrücken, und ein Verfahren und ein Programm zum Steuern von diesen bereitzustellen.
  • KURZFASSUNG DER ERFINDUNG
  • Um die vorstehend dargelegte Aufgabe zu erreichen, ist ein Bildaufnahmeelement gemäß einem der Ansprüche 1 bis 3 bereitgestellt.
  • Gemäß einem anderen Aspekt ist eine Bildaufnahmevorrichtung gemäß einem der Ansprüche 4 bis 14, 17 bis 29 bereitgestellt. In einem weiteren Aspekt ist ein Verfahren zum Steuern einer Bildaufnahmevorrichtung gemäß Anspruch 15 oder Anspruch 30 bereitgestellt. Gemäß einem weiteren Aspekt ist ein computerlesbares Speichermedium gemäß Anspruch 16 oder Anspruch 31 bereitgestellt.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von Ausführungsbeispielen mit Bezug auf die beigefügten Zeichnungen ersichtlich.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das die Konfiguration eines Beispiels einer Bildaufnahmevorrichtung in einem ersten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 2A und 2B sind erklärende Ansichten, die die Konfiguration eines Bildaufnahmeelements, das in 1 dargestellt ist, darstellen.
    • 3 ist eine erklärende Ansicht, die eine Pixelauswahl in Spaltensignalleitungen auf einem ersten Chip, der in 2A und 2B dargestellt ist, darstellt.
    • 4 ist ein Zeitablaufdiagramm zum Beschreiben von Bildaufnahmezeitpunkten in einer AF-Evaluierungsbetriebsart in einer in 1 dargestellten Kamera.
    • 5 ist ein Ablaufdiagramm zum Beschreiben einer Steuerung in der in 1 dargestellten Kamera.
    • 6 ist ein Blockdiagramm, das die Konfiguration eines Beispiels eines Bildaufnahmeelements, das in einer Kamera zu verwenden ist, gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 7 ist ein Zeitablaufdiagramm zum Beschreiben von Bildaufnahmezeitpunkten in einer Photometrieevaluierungsbetriebsart in dem zweiten Ausführungsbeispiel der vorliegenden Erfindung.
    • 8 ist ein Blockdiagramm, das die Konfiguration eines Beispiels eines Bildaufnahmeelements, das in einer Kamera zu verwenden ist, gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 9 ist ein Zeitablaufdiagramm zum Beschreiben von Bildaufnahmezeitpunkten in einer Standardabweichungsevaluierungsbetriebsart in dem dritten Ausführungsbeispiel der vorliegenden Erfindung.
    • 10 ist eine erklärende Ansicht, die Zeitpunkte einer Autofokusbildaufnahmeoperation für eine Live-Ansicht in einer herkömmlichen Bildaufnahmevorrichtung darstellt.
    • 11 ist ein Blockdiagramm, das die Konfiguration einer Bildaufnahmevorrichtung gemäß einem vierten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 12A und 12B stellen die Konfiguration eines Bildaufnahmeelements, das in der Bildaufnahmevorrichtung enthalten ist, gemäß dem vierten Ausführungsbeispiel der vorliegenden Erfindung dar.
    • 13 ist eine erklärende Ansicht, die eine Auslesekonfiguration einer Pixeleinheit in einem Bildaufnahmeelement, das in der Bildaufnahmevorrichtung zu verwenden ist, gemäß dem vierten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 14A und 14B stellen Bildaufnahmezeitpunkte der Bildaufnahmevorrichtung gemäß dem vierten Ausführungsbeispiel der vorliegenden Erfindung dar.
    • 15 ist ein Ablaufdiagramm, das die Operation in der AF-Betriebsart in der Bildaufnahmevorrichtung gemäß dem vierten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 16 stellt die Konfiguration einer Bildaufnahmevorrichtung gemäß einem fünften Ausführungsbeispiel der vorliegenden Erfindung dar.
    • 17 ist ein Ablaufdiagramm, das eine Operation in der AF-Betriebsart in der Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel der vorliegenden Erfindung darstellt.
    • 18 ist eine Bestimmungstabelle, die eine Szenenbestimmung in der Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel der vorliegenden Erfindung zeigt.
    • 19 stellt die Konfiguration einer Bildaufnahmevorrichtung gemäß einem sechsten Ausführungsbeispiel der vorliegenden Erfindung dar.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Verschiedene Ausführungsbeispiele, Merkmale und Aspekte der vorliegenden Erfindung werden nachstehend detailliert mit Bezug auf die Zeichnungen beschrieben. Ein Beispiel der Bildaufnahmevorrichtung gemäß den Ausführungsbeispielen der vorliegenden Erfindung wird nachstehend mit Bezug auf die Zeichnungen beschrieben.
  • Erstes Ausführungsbeispiel
  • 1 ist ein Blockdiagramm, das die Konfiguration eines Beispiels einer Bildaufnahmevorrichtung in einem ersten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
  • Zum Beispiel wird die dargestellte Bildaufnahmevorrichtung auf eine Digitalkamera mit einer Bewegtbildfunktion oder eine Videokamera angewendet.
  • Die Bildaufnahmevorrichtung 100 besitzt einen optischen Lauf 101, ein Bildaufnahmeelement 102, eine Antriebs- bzw. Ansteuereinheit 103, eine Signalverarbeitungseinheit 104, eine Komprimierungs-Expansions-Einheit 105, eine Steuerungseinheit 106, eine Lichtabgabeeinheit 107, eine Operationseinheit 108, eine Bildanzeigeeinheit 109 und eine Bildaufzeichnungseinheit 110.
  • Der optische Lauf 101 umfasst eine Linseneinheit (nicht dargestellt, nachstehend einfach als Linse bezeichnet) und eine mechanische Optikeinheit 1011. Die Linse bündelt (das heißt, bildet ab) Licht von einem Objekt (ein optisches Bild) auf das Bildaufnahmeelement 102.
  • Obwohl es nicht dargstellt ist, umfasst die mechanische Optikeinheit 1011 eine AF-Mechanik, eine Zoom-Antriebs-Mechanik, eine mechanische Verschlussmechanik und eine Blendenmechanik. Die mechanische Optikeinheit 1011 wird durch die Antriebs- bzw. Ansteuereinheit 103 gemäß der Steuerung der Steuerungseinheit 106 angetrieben bzw. angesteuert.
  • Das Bildaufnahmeelement 102 besitzt eine später beschriebene Pixeleinheit 201 und einen A/D-Wandler (nicht dargestellt). Das Bildaufnahmeelement 102 ist zum Beispiel ein sogenannter CMOS-Bildsensor der XY-Leseart. Das Bildaufnahmeelement 102 führt eine Bildaufnahmeoperation, wie etwa eine Belichtung, Signalablesen und Zurücksetzen mit Hilfe der Ansteuereinheit 103, die gemäß der Steuerung der Steuerungseinheit 106 arbeitet, aus. Das Bildaufnahmeelement 102 gibt ebenso ein Bildaufnahmesignal (nachstehend ebenso als Bildsignal bezeichnet) aus.
  • Das Bildaufnahmeelement 102 besitzt eine AF-Evaluierungswerterfassungseinheit 1021. Die AF-Evaluierungswerterfassungseinheit 1021 erfasst einen AF-Evaluierungswert (Autofokusevaluierungswert) gemäß dem Zeitpunkt, der durch die Steuerungseinheit 106 gesteuert wird, basierend auf Kontrastinformationen und Phasendifferenzinformationen, die gemäß dem Bildsignal, das in dem Bildaufnahmeelement 102 erhalten wird, erhalten werden. Die AF-Evaluierungswerterfassungseinheit 1021 gibt dem AF-Evaluierungswert an die Steuerungseinheit 106 aus.
  • Gemäß der Steuerung der Steuerungseinheit 106 führt die Signalverarbeitungseinheit 104 eine Signalverarbeitung, wie etwa eine Weißabgleichverarbeitung, eine Farbkorrekturverarbeitung und eine Automatikbelichtungs-(AE)-Verarbeitung bezüglich des Bildsignals, das die Ausgabe des Bildaufnahmeelements 102 ist, durch und gibt das Bildsignal als Bilddaten aus.
  • Die Komprimierungs-Expansions-Einheit 105, die gemäß der Steuerung der Steuerungseinheit 106 arbeitet, führt eine Komprimierungskodierungsverarbeitung in einem spezifischen Standbilddatenformat, wie etwa ein JPEG- („Joint Photographie Coding Experts Group“) -Verfahren, bezüglich der Bilddaten, die die Ausgabe der Signalverarbeitungseinheit 104 sind, aus. Die Komprimierungs-Expansions-Einheit 105 führt ebenso eine Expansionsdekodierungsverarbeitung der kodierten Bilddaten, die von der Steuerungseinheit 106 gesendet werden, aus.
  • Die Komprimierungs-Expansions-Einheit 105 kann ebenso Komprimierungskodierungs-/Expansionsdekodierungs-Prozesse bezüglich der Bewegtbilddaten unter Verwendung eines MPEG- („Moving Picture Experts Group“) -Verfahrens durchführen.
  • Die Steuerungseinheit 106 ist ein Mikrocontroller mit zum Beispiel einer zentralen Verarbeitungseinheit (CPU), einem Festwertspeicher (ROM) und einem Zufallszugriffsspeicher (RAM). Die CPU führt ein Programm, das in dem ROM gespeichert ist, aus, so dass die gesamte Bildaufnahmevorrichtung 100 umfassend gesteuert wird.
  • Wenn bestimmt ist, dass ein Belichtungswert eines Objekts aufgrund dessen, dass durch diese Signalverarbeitungseinheit 104 eine AE-Verarbeitung durchgeführt wird, niedrig ist, sendet die Lichtabgabeeinheit 107 Licht aus, um das Objekt zu beleuchten. Zum Beispiel kann eine Stroboskopvorrichtung unter Verwendung einer Xenonröhre oder einer LED-Lichtabgabeeinrichtung als die Lichtabgabeeinheit 107 verwendet werden.
  • Die Operationseinheit 108 besitzt zum Beispiel verschiedene Operationstasten, Hebel und Wähler, wie etwa eine Verschlussfreigabetaste, um ein Bediensignal entsprechend einer Benutzereingabeoperation an die Steuerungseinheit 106 weiterzugeben.
  • Die Bildanzeigeeinheit 109 umfasst zum Beispiel eine Anzeigeeinrichtung, wie etwa eine Flüssigkristallanzeige (LCD) und eine Schnittstellenschaltung für die LCD, und zeigt auf der Anzeigeeinrichtung ein Bild entsprechend den Bilddaten, die von der Steuerungseinheit 106 gesendet werden, an.
  • Die Bildaufzeichnungseinheit 110 ist zum Beispiel ein Aufzeichnungsmedium, wie etwa ein tragbarer Halbleiterspeicher, eine optische Platte, ein Festplattenlaufwerk (HDD) oder ein magnetisches Band, um Bilddaten, die durch die Komprimierungs-Expansions-Einheit 105 komprimiert-kodiert wurden, als eine Bilddatei zu speichern. Die Bildaufzeichnungseinheit 110 liest ebenso eine Bilddatei, die durch die Steuerungseinheit 106 spezifiziert wird, aus und gibt diese an die Steuerungseinheit 106 aus.
  • Nun wird die grundlegende Operation der in 1 dargestellten Bildaufnahmevorrichtung 100 beschrieben.
  • In dem Fall des Photographierens eines Standbildes zum Beispiel, werden als eine Vorbereitung zur Bildaufnahme Bildsignale, die von den Pixeln 201 ausgegeben werden, nacheinander einer CDS-Verarbeitung und einer AGC-Verarbeitung in dem Bildaufnahmeelement 102 unterzogen. Die Bildsignale werden dann in dem A/D-Wandler in digitale Bildsignale umgewandelt. Die erhaltenen digitalen Bildsignale werden an die AF-Evaluierungserfassungseinheit 1021 und die Signalverarbeitungseinheit 104 ausgegeben.
  • Die AF-Evaluierungswerterfassungseinheit 1021 berechnet einen AF-Evaluierungswert (Steuerungsinformationen) gemäß den Kontrastinformationen, die von digitalen Bildsignalen erhalten werden, und gibt den AF-Evaluierungswert an die Steuerungseinheit 106 aus. Die Steuerungseinheit 106 bestimmt einen Steuerungsbetrag der mechanischen Optikeinheit 1011 basierend auf dem AF-Evaluierungswert und steuert die Antriebseinheit 103 gemäß dem Steuerungsbetrag. Als Folge wird die mechanische Optikeinheit 1011 durch die Antriebseinheit 103 angetrieben.
  • Die Signalverarbeitungseinheit 104 wendet zum Beispiel eine Bildqualitätskorrekturüberarbeitung auf das vorstehend beschriebene digitale Bildsignal an, um ein Kameradurchbildsignal zu erzeugen, und sendet das Kameradurchbildsignal an die Bildanzeigeeinheit 109 über die Steuerungseinheit 106. Als eine Folge kann die Bildanzeigeeinheit 109 ein Kameradurchbild entsprechend dem Kameradurchbildsignal anzeigen, so dass ein Benutzer eine Bildwinkelanpassung durchführen kann, während er das Kameradurchbild betrachtet.
  • Wenn in diesem Zustand die Verschlussfreigabetaste der Operationseinheit 108 gedrückt wird, wird ein Bildaufnahmesignal (digitales Bildsignal) von einem Rahmen von dem Bildaufnahmeelement 102 in die Signalverarbeitungseinheit 104 gemäß der Steuerung der Steuerungseinheit 106 aufgenommen. Die Signalverarbeitungseinheit 104 wendet eine Bildqualitätskorrekturverarbeitung auf das digitale Bildsignal des einen Rahmens an und sendet das verarbeitete digitale Bildsignal (Bilddaten) an die Komprimierungs-Expansions-Einheit 105.
  • Die Komprimierungs-Expansions-Einheit 105 führt eine Bilddatenkomprimierungskodierung durch und sendet die kodierten Bilddaten an die Bildaufzeichnungseinheit 110 über die Steuerungseinheit 106. Als eine Folge wird eine Bilddatei bezüglich des aufgenommenen Standbildes auf der Bildaufzeichnungseinheit 110 aufgezeichnet.
  • Im Falle des Reproduzierens einer Bilddatei, die auf der Bildaufzeichnungseinheit 110 aufgezeichnet ist, liest die Steuerungseinheit 106 die Bilddatei, die gemäß der Bedieneingabe von der Operationseinheit 108 ausgewählt wird, aus der Bildaufzeichnungseinheit 110. Die Steuerungseinheit 106 sendet dann die Bilddatei an die Komprimierungs-Expansions-Einheit 105, wo eine Expansionsdekodierungsverarbeitung ausgeführt wird.
  • Die dekodierten Bilddaten werden an die Bildanzeigeeinheit 109 über die Steuerungseinheit 106 gesendet. Als eine Folge wird ein Standbild entsprechend den Bilddaten reproduziert und auf der Bildanzeigeeinheit 109 angezeigt.
  • Im Falle des Aufzeichnens von Bewegtbilddaten werden digitale Bildsignale, die von dem Bildaufnahmeelement 102 aufgenommen werden, gemäß der Steuerung der Steuerungseinheit 106 in die Signalverarbeitungseinheit 104 aufgenommen. Die Bilddaten, die nacheinander in der Signalverarbeitungseinheit 104 verarbeitet werden, werden einer Komprimierungs-Kodierungs-Verarbeitung in der Komprimierungs-Expansions-Einheit 105 unterzogen. Die kodierten Bewegtbilddaten werden dann nacheinander von der Komprimierungs-Expansions-Einheit 105 an die Bildaufzeichnungseinheit 110 übertragen, wo die Daten als eine Bewegbilddatei aufgezeichnet werden.
  • Im Falle des Reproduzierens einer Bewegtbilddatei, die auf der Aufzeichnungseinheit 110 aufgezeichnet ist, liest die Steuerungseinheit 106 die Bewegtbilddatei von der Bildaufzeichnungseinheit 110 gemäß einer Bedieneingabe von der Operationseinheit 108. Die Steuerungseinheit 106 sendet dann die Bewegtbilddatei an die Komprimierungs-Expansions-Einheit 105, wo eine Expansions-Dekodierungs-Verarbeitung ausgeführt wird. Die dekodierten Bewegtbilddaten werden an die Bildanzeigeeinheit 109 über die Steuerungseinheit 106 gesendet. Als eine Folge wird ein Bewegtbild entsprechend der Bewegtbilddaten reproduziert und auf der Bildanzeige 109 angezeigt.
  • Nun wird eine Technologie zum Anzeigen eines Anzeigebildes, während ein Evaluierungswert von einem aufgenommenen Bild in einer herkömmlichen Bildaufnahmevorrichtung berechnet wird, zusammen mit einem diesbezüglichen Problem beschrieben. Um Positionsinformationen über ein Objekt zu erhalten, das zur Fokussteuerung in der herkömmlichen Bildaufnahmevorrichtung verwendet wird, werden die Positionsinformationen gemäß Bildsignalen, die von einem Bildaufnahmeelement ausgegeben werden, erhalten. Die Positionsinformationen werden ebenso durch direktes Eingeben von optischen Signalen von einem Objekt in einen dedizierten Detektor und unter Verwendung einer Phasendifferenz in Bildern, die durch die optischen Signale angegeben wird, erhalten. In dem Fall, in dem die Positionsinformationen gemäß den Bildsignalen erhalten werden, kann die Bildaufnahmevorrichtung verkleinert werden, da der dedizierte Detektor nicht notwendig ist.
  • 10 ist eine erklärende Ansicht, die einen Zeitpunkt einer Autofokusbildaufnahmeoperation (AF-Evaluierungsbildaufnahme) für eine Live-Ansicht in der herkömmlichen Bildaufnahmevorrichtung darstellt.
  • In der herkömmlichen Bildaufnahmevorrichtung wird ein Bildaufnahmezeitpunkt durch ein vertikales Synchronisierungssignal (vertikaler Ansteuerimpuls: VD) festgelegt. Wenn ein AF-Steuerungssignal eingeschaltet wird, wird ein Bild zur AF-Evaluierung gemäß dem VD nach einer Live-Ansicht-Bildaufnahmeperiode aufgenommen. Wenn das AF-Steuerungssignal abgeschaltet wird, startet die Live-Ansicht-Bildaufnahmeperiode erneut.
  • Auf diese Weise, da die Live-Ansicht-Bildaufnahmeperiode zum Erhalten von Bildern für eine Live-Ansicht und die AF-Operationsperiode zum Erhalten von Bildern für eine AF-Evaluierung entlang einer Zeitachse hintereinander auftreten, kann das Bild zur Live-Ansicht und das Bild zur AF-Evaluierung nicht gleichzeitig aufgenommen werden.
  • Aus diesem Grund werden Bilder zur AF-Evaluierung während der AF-Operationsperiode, die wie dargestellt zwischen den Live-Ansicht-Perioden (Rahmen) positioniert ist, aufgenommen. Als ein Ergebnis wird zwischen dem Bild für eine Live-Ansicht und dem Bild für eine AF-Evaluierung eine Zeitverzögerung erzeugt.
  • Zusätzlich, obwohl eine Live-Ansicht-Anzeige sogar während einer Bildaufnahme der Bilder zur AF-Evaluierung durchgeführt wird, wird die Live-Ansicht-Anzeige in diesem Fall gemäß dem Bild zur AF-Evaluierung durchgeführt. Wie in 10 dargestellt ist, wenn das Bild zur AF-Evaluierung aufgenommen wird, wird die Rahmenrate von diesem im Vergleich zu der in der Live-Ansicht-Bildaufnahmeperiode erhöht. Dies erhöht eine Ausdünnungsrate beim Auslesen in dem Bildaufnahmeelement, was eine unvermeidliche Verschlechterung der Bildqualität ergibt. Um dieses Problem zu vermeiden, besitzt manches Bildaufnahmeelement eine Pixeleinheit, bei der zum Beispiel Pixel für eine Fokussignalerfassung separat von den Pixeln für Bildaufnahmesignale bereitgestellt sind.
  • Angesichts des vorstehend dargestellten Problems stellt die vorliegende Erfindung das Bildaufnahmeelement 102, das in 2A und 2B dargestellt ist, bereit. Das Bildaufnahmeelement 102 ist dazu konfiguriert, parallel mit Bildsignalen für eine Anzeige, einen Evaluierungswert, der von Bildsignalen erhalten wird, oder Steuerungsinformationen basierend auf dem Evaluierungswert zu erzeugen, um die Verarbeitungszeit zu verkürzen und eine Verarbeitungslast zu reduzieren.
  • 2A und 2B sind erklärende Ansichten, die die Konfiguration des Bildaufnahmeelements 102, das in 1 dargestellt ist, darstellen. 2A ist eine perspektivische Ansicht, die die Struktur des Bildaufnahmeelements 102 angibt, während 2B ein Blockdiagramm ist, das die Konfiguration von diesem darstellt.
  • In 2A umfasst das Bildaufnahmeelement 102 einen ersten Chip (Pixeleinheit) 20 und einen zweiten Chip 21. Der erste Chip (erste Elementeinheit) 20 ist auf dem zweiten Chip (zweite Elementeinheit) 21 geschichtet. Der erste Chip 20, der eine Vielzahl von Pixeln 201 umfasst, die in einer Matrixform angeordnet sind, ist auf der Lichteinfallsseite platziert (das heißt auf der Seite des Empfangens des optischen Bildes positioniert).
  • Der zweite Chip 21 besitzt eine Pixelansteuereinheit, inklusive später beschriebenen Spaltenabtastschaltungen 213-a und 213-b und einer Reihenabtastschaltung 212, die auf diesem gestaltet ist. Die vorstehend erwähnte AF-Evaluierungswerterfassungseinheit (Steuerungsinformationserzeugungseinheit) 1021 ist ebenso auf dem zweiten Chip 21 gestaltet.
  • Da auf diese Weise die Pixel 201 auf dem ersten Chip 20 geformt sind und die Pixelansteuereinheit und die AF-Evaluierungswerterfassungseinheit 1021 auf dem zweiten Chip 21 geformt sind, kann ein Herstellungsprozess der peripheren Schaltungen und der Pixeleinheit des Bildaufnahmeelements 102 getrennt werden. Als ein Ergebnis kann die Tendenz zum Verkleinern einer Drahtbreite und zum starken Erhöhen der Drahtdichte in den peripheren Schaltungen eine Geschwindigkeitsverbesserung, Verkleinerung und eine höhere Performanz realisieren.
  • Wie in 2B dargestellt ist, sind die Pixel 201 in einer Matrixform auf dem ersten Chip 20 angeordnet. Jedes der Pixel 201 ist mit einer Transfersignalleitung 203, einer Rücksetzsignalleitung 204 und einer Reihenauswahlsignalleitung 205 in einer horizontalen Richtung (Reihenrichtung) verbunden, und ist ebenso mit Spaltensignalleitungen 202-a und 202-b in eine vertikale Richtung (Spaltenrichtung) verbunden. Es sei angemerkt, dass die Spaltensignalleitungen 202-a und 202-b bezüglich eines Verbindungsziels, basierend auf einer auszulesenden Reihe, voneinander verschieden sind.
  • Wie dargestellt ist, besitzt jedes der Pixel 201 eine Photodiode PD, die ein photoelektrisches Umwandlungselement ist, einen Transfertransistor M1, einen Rücksetztransistor M2, einen Verstärkungstransistor M3, einen Auswahltransistor M4 und eine „Floating Diffusion“ FD.
  • In dem dargestellten Beispiel ist jeder der Transistoren ein n-Kanal-MOS-Feldeffekttransistor (MOS-FET).
  • Die Gates des Transfertransistors M1, des Rücksetztransistors M2 und des Auswahltransistors M4 sind entsprechend mit der Transfersignalleitung 203, der Rücksetzsignalleitung 204 und der Reihenauswahlsignalleitung 205 verbunden. Diese Signalleitungen 203 bis 205 sind derart angeordnet, dass sie sich in der horizontalen Richtung erstrecken, und Pixel in der gleichen Reihe werden gleichzeitig angesteuert. Auf diese Weise kann eine Operation eines „Rolling Shutter“ der zeilensequenziellen Betriebsart bzw. der Betriebsart, bei der alle Zeilen nacheinander angesteuert werden, gesteuert werden, so dass eine Bildaufnahme durchgeführt werden kann, bei der die Belichtungszeit in jeder spezifizierten Reihe geändert wird. Oder alternativ kann eine Operation eines „Global Shutter“ der Betriebsart einer gleichzeitigen Gesamtoperation bzw. der Betriebsart, bei der alle Zeilen gleichzeitig angesteuert werden, gesteuert werden.
  • Weiterhin ist eine Source des Auswahltransistors M4 mit der Spaltensignalleitung 202-a oder 202-b auf einer Reihenbasis verbunden.
  • Die Photodiode PD sammelt eine Ladung, die durch die photoelektrische Wandlung erzeugt wird. Die P-Seite der Photodiode PD ist geerdet, während die N-Seite mit der Source des Transfertransistors M1 verbunden ist. Wenn der Transfertransistor M1 eingeschaltet wird, wird die Ladung der Photodiode PD an die FD übertragen. Da eine parasitäre Kapazität in der FD existiert, wird die Ladung, die zu der FD übertragen wird, angehäuft.
  • Eine Versorgungsspannung Vdd wird an ein Drain des Verstärkungstransistors M3 angelegt, während ein Gate des Verstärkungstransistors M3 mit der FD verbunden ist. Der Verstärkungstransistor M3 verstärkt die Ladung (das heißt die Spannung) der FD und wandelt diese in ein Spannungssignal (ein elektrisches Signal) um. Der Auswahltransistor M4 dient zum Auswählen des Pixels zum Auslesen von Signalen auf einer Reihenbasis. Ein Drain des Auswahltransistors M4 ist mit einem Source des Verstärkungstransistors M3 verbunden. Eine Source des Auswahltransistors M4 ist mit der Spaltensignalleitung 202 verbunden.
  • Wenn der Auswahltransistor M4 eingeschaltet wird, wird ein Spannungssignal entsprechend der Spannung der FD an die Spaltensignalleitung 202 ausgegeben. Die Versorgungsspannung Vdd wird an ein Drain des Rücksetztransistors M2 angelegt, während ein Source des Rücksetztransistors M2 mit der FD verbunden ist. Wenn der Rücksetztransistor M2 eingeschaltet wird, wird die Spannung des FD auf die Versorgungsspannung Vdd zurückgesetzt.
  • Der zweite Chip 21 umfasst einen Spalten-ADC-Block 211, der mit der Spaltensignalleitung 202-a oder 202-b verbunden ist. Der zweite Chip 21 umfasst weiterhin eine Reihenabtastschaltung 212, Spaltenabtastschaltungen 213-a und 213-b, eine Zeitsteuerungseinheit 214, horizontale Signalleitungen (Ausgabeeinheit 215-a und 215-b, einen Auswahlschalter 216, einen Rahmenspeicher 217 und eine AF-Evaluierungswerterfassungseinheit 1021.
  • Die Zeitsteuerungseinheit 214 steuert einen Betriebszeitpunkt der Reihenabtastschaltung 212, der Spaltenabtastspaltung 213-a und 213-b, und des Spalten-ADC-Blocks 211 gemäß der Steuerung der Steuerungseinheit 106. Die Reihenabtastschaltung 212 tastet jede Reihe ab, während die Spaltenabtastschaltungen 213a und 213b entsprechend jede Spalte abtasten.
  • Die horizontalen Signalleitungen 215-a und 215-b übertragen Ausgabesignale (Bildsignale) des Spalten-ADC-Bocks 212 gemäß dem gesteuerten Zeitpunkt in jeder der Spaltenabtastschaltungen 213-a und 213-b.
  • Der Rahmenspeicher 217 speichert vorübergehend ein Bildsignal, das von der horizontalen Signalleitung 215-b ausgegeben wird. Die AF-Evaluierungswerterfassungseinheit 1021 führt eine AF-Evaluierung gemäß dem Bildsignal, das in dem Rahmenspeicher 217 gespeichert wird, durch und sendet einen AF-Evaluierungswert an die Steuerungseinheit 106.
  • Der Auswahlschalter 216 ist der Schalter, der wahlweise ein Bildsignal, das an die horizontale Signalleitung 215-b ausgegeben wird, an eine der AF-Evaluierungswerterfassungseinheit 1021 und der Signalverarbeitungseinheit 104 ausgibt.
  • Es sei angemerkt, dass das Bildsignal, das an die horizontale Signalleitung 215-a übertragen wird, an die Signalverarbeitungseinheit 104 ausgegeben wird.
  • 3 ist eine erklärende Ansicht, die eine Pixelauswahl in der Spaltensignalleitung 202-a oder 202-b auf dem ersten Chip 20, der in 2A und 2B dargestellt ist, darstellt.
  • 3 stellt eine Pixeleinheit von 6 Reihen x 8 Spalten dar, in denen die entsprechenden Pixel gemäß dem Bayer-Array angeordnet sind.
  • Wenn eine Fokussteuerungsbetriebsart durch Bedienen der Operationseinheit 108, die in 1 dargestellt ist, eingeschaltet wird, trennt die Steuerungseinheit 106 Reihen in dem Bildaufnahmeelement 102, die auszulesen sind (das heißt, steuert ein Umschalten des Auswahlschalters 216, um die horizontale Signalleitung 215-b mit dem Rahmenspeicher 217 zu verbinden). Als ein Ergebnis kann eine Bildaufnahme für eine Live-Ansicht (zweite Bildaufnahmebetriebsart) und eine Bildnahaufnahme für eine AF-Evaluierungswerterfassung (erste Bildaufnahmebetriebsart) gleichzeitig durchgeführt werden.
  • Folglich wird ein Bildsignal für eine Live-Ansicht (ein zweites Bildsignal oder Bildanzeigesignal) an die Spaltensignalleitung 202-a ausgegeben und wird ein Bildsignal für eine AF-Evaluierungserfassung (ein erstes Bildsignal) an die Spaltensignalleitung 202-b ausgegeben.
  • In 3 werden Reihen mit der Reihennummer 1 und 2 (erste Pixelgruppe) für eine AF-Evaluierungswerterfassungsbildaufnahme verwendet, während Reihen mit der Reihennummer 3 bis 8 (zweite Pixelgruppe) für eine Live-Ansicht-Bildaufnahme verwendet werden. In dem dargestellten Beispiel wird eine Ausleseabtastung nacheinander auf einer Reihenbasis durchgeführt und alle acht Reihen werden wiederholt abgetastet, um gelesen zu werden.
  • Bei der AF-Evaluierungswerterfassungsbildaufnahme wird ein Ausdünnungslesen von 3 von 4 vertikalen Pixeln mit gleichen Farben (drei Zeilen von vier Zeilen) ausgeführt, während ein Hauptaugenmerk auf die Rahmenrate gelegt wird. Unterdessen wird bei der Live-Ansicht-Bildaufnahme das verbleibende Eine von den vier vertikalen Pixeln mit gleichen Farben (eine Zeile von vier Zeilen) ausgedünnt und 3 Pixel werden addiert, während ein Hauptaugenmerk auf eine Bildqualität gelegt wird. I i R { o b j , b k g }
    Figure DE102013227163B4_0001
    I i R { o b j , b k g }
    Figure DE102013227163B4_0002
  • Mit anderen Worten wird bei der AF-Evaluierungswerterfassungsbildaufnahme die erste Pixelgruppe bei einer ersten Rahmenrate ausgelesen. Bei der Live-Ansicht-Bildaufnahme wird die zweite Pixelgruppe bei einer zweiten Rahmenrate ausgelesen, die langsamer ist als die erste Rahmenrate.
  • Wie vorstehend beschrieben wurde, werden die AF-Abtastbildaufnahme und die Live-Ansicht-Bildaufnahme basierend auf ausgewählten Reihen getrennt, so dass Bildsignale zu unterschiedlichen Ladungsspeicherzeiten bei Rahmenraten mit unterschiedlichen Datengrößen erhalten werden können.
  • Als Nächstes wird ein Spannungssignal (Analogsignal), das an die Spaltensignalleitungen 202-a und 202-b ausgegeben wird, von einem analogen Signal in dem Spalten-ADC-Block 211, der in 2B dargestellt ist, in ein digitales Signal (Bildsignal) umgewandelt.
  • Das Bildsignal, das die Ausgabe von dem Spalten-ADC-Block 211 ist, wird von dem Spalten-ADC-Block 211 in die horizontale Signalleitung 215-a oder 215-b durch die Spaltenabtastschaltung 213-a oder 213-b gelesen. Das Bildsignal, das zu der horizontalen Signalleitung 215-a ausgelesen wird, wird an die Signalverarbeitungsschaltung 104 gesendet.
  • Unterdessen wird das Bildsignal, das in die horizontale Signalleitung 215-b gelesen wird, an den Schalter 216 ausgegeben, und wird an die Signalverarbeitungseinheit 104 oder den Rahmenspeicher 217 gemäß der Steuerung der Steuerungseinheit 106 ausgegeben. Es sei angemerkt, dass der Auswahlschalter 216 auf einer Rahmenbasis umgeschaltet wird.
  • In diesem Fall, da Pixelsignale ohne ein Ausdünnen beim Photographieren eines Standbildes ausgelesen werden, wird der Schalter 216 zu einem Pfad umgeschaltet, der mit der Signalverarbeitungseinheit 104 verbunden ist.
  • Im Gegensatz dazu wird in der AF-Evaluierungsbetriebsart (das heißt in der Autofokussteuerungsbetriebsart) das Bildsignal von der horizontalen Signalleitung 215-b auf dem Rahmenspeicher 217 über den Auswahlschalter 216 aufgezeichnet und die AF-Evaluierungswerterfassungseinheit 1021 erfasst einen AF-Evaluierungswert basierend auf Kontrastinformationen in dem Bildsignal, das auf dem Rahmenspeicher 217 aufgezeichnet ist. Der AF-Evaluierungswert sind Fokusinformationen eines Objekts. Die Fokusinformationen umfassen Kontrastinformationen, einen Defokusverschiebungsbetrag in einer AF-Mechanikeinheit in der mechanischen Optikeinheit 1011, oder Steuerungsinformationen der AF-Mechanikeinheit. Der AF-Evaluierungswert ist hinsichtlich einer Datenmenge im Vergleich mit Multipixel-AF-Evaluierungswertbilddaten ausreichend klein. Der AF-Evaluierungswert wird von der AF-Evaluierungswerterfassungseinheit 1021 an die Steuerungseinheit 106 gesendet.
  • Somit ist in dem vorliegenden Ausführungsbeispiel die AF-Evaluierungswerterfassungseinheit 1021 in dem Chip 21 eingearbeitet, um eine Energieeinsparung, eine Hochgeschwindigkeitsverarbeitung, und eine Gestaltung mit niedrigen Kosten zu erreichen. In den meisten Fällen sind der Chip 21 und die Signalverarbeitungseinheit 104 oder die Steuerungseinheit 106 auf separaten Substraten angeordnet, was eine Widerstandskomponente und eine Kapazitätskomponente von Verbindungen bei einer Inter-Chip-Kommunikation erhöht. Dementsprechend verschlechtert sich eine Kommunikationsgeschwindigkeit im Vergleich mit einer Kommunikation bei Intra-Chip-Verbindungen. Um Hochgeschwindigkeitssignale auszusenden, ist zum Beispiel eine Erhöhung der Ansteuerleistung erforderlich, so dass die Ansteuerung unter Verwendung eines Verstärkers notwenig ist, um eine Signalwellenformqualität beizubehalten.
  • In dem vorliegenden Ausführungsbeispiel, da die AF-Evaluierungswerterfassungseinheit 1021 zusammen mit dem Chip 21 auf dem gleichen Halbleiterchip platziert ist, kann eine Leitung zum Ausgeben von Bilddaten kürzer gemacht werden und ein Platzierung des Verstärkers kann ebenso weggelassen werden. Zusätzlich, da der AF-Evaluierungswert selbst bezüglich einer Datenmenge klein ist, kann eine Zeit, die zur Kommunikation zwischen dem Bildaufnahmeelement 102 und der Steuerungseinheit 106 benötigt wird, verkürzt werden, und dadurch kann eine Reduzierung des Energieverbrauchs erreicht werden. In der folgenden Beschreibung wird zur Zeit der Bildaufnahme ein Ausgabepfad durch die Spaltensignalleitung 202-a und die horizontale Signalleitung 215-a ein Kanal Ch1 genannt, während ein Ausgabepfad durch die Spaltensignalleitung 202-b und die horizontale Signalleitung 215-b ein Kanal Ch2 genannt wird.
  • 4 ist ein Zeitablaufdiagramm zum Beschreiben von Bildaufnahmezeitpunkten in der AF-Evaluierungsbetriebsart in der in 1 dargestellten Kamera 100.
  • Wie in 4 dargestellt ist, wird der Bildaufnahmezeitpunkt durch das vertikale Synchronisierungssignal VD festgelegt. Wenn die AF-Evaluierungsbetriebsart eingeschaltet wird, startet die Steuerungseinheit 106 gleichzeitig ein AF-Steuerungssignal, eine Live-Ansicht-Bildaufnahme unter Verwendung des Kanals Ch1 und eine AF-Evaluierungsbildaufnahme unter Verwendung des Kanals Ch2 bei der fallenden Flanke des vertikalen Synchronisierungssignals VD zur Zeit T0.
  • In einer Periode von T0 bis TF1 wird ein Bildsignal zur AF-Evaluierung, das von der Pixeleinheit 20 über den Kanal Ch2 ausgelesen wird, in dem Rahmenspeicher 217 über die horizontale Signalleitung 215-b und dem Auswahlschalter 216 gespeichert. Dann erfasst in einer Periode von TF1 bis TF2 die AF-Evaluierungswerterfassungseinheit 1021 einen AF-Evaluierungswert gemäß dem AF-Bildsignal, das in dem Rahmenspeicher 217 gespeichert ist. Dann gibt in einer Periode von TF2 bis TF3 die AF-Evaluierungswerterfassungseinheit 1021 den AF-Evaluierungswert an die Steuerungseinheit 106 aus.
  • In dem dargestellten Beispiel wird während einer Periode eines vertikalen Synchronisierungssignals VD ein Bild für eine Live-Ansicht von einem Rahmen aufgenommen, während Bilder für eine AF-Evaluierung (AF-Abtastung) von drei Rahmen aufgenommen werden. Wenn die Steuerungseinheit 106 das vertikale Synchronisationssignal VD auf ein L-Level setzt (T1), ist eine AF-Evaluierung vollständig.
  • Wie im Vorstehenden gezeigt ist, muss die in 1 dargestellte Kamera 100 die Bilddaten nicht über die Signalverarbeitungseinheit 104 zu der Steuerungseinheit 106 senden, um den AF-Evaluierungswert in der AF-Evaluierungsbetriebsart zu erhalten. Mit anderen Worten wird der AF-Evaluierungswert, der bezüglich einer Datenmenge klein ist, direkt von dem Bildaufnahmeelement 102 an die Steuerungseinheit 106 ausgegeben. Als ein Ergebnis wird eine Last reduziert, so dass eine Leistungsreduzierung erreicht werden kann.
  • Die Steuerungseinheit 106 vergleicht den AF-Evaluierungswert mit einem später beschriebenen spezifizierten erwarteten AF-Wert bzw. AF-Erwartungswert, und bringt das AF-Steuerungssignal (Zeit T1) dazu, zu fallen, wenn der AF-Evaluierungswert den erwarteten AF-Wert erfüllt. Sobald das AF-Steuerungssignal gefallen ist, wird nur die AF-Evaluierungsbildaufnahme beendet und eine Live-Ansicht-Bildaufnahme wird fortgesetzt.
  • 5 ist ein Ablaufdiagramm zum Beschreiben einer Steuerung in der in 1 dargestellten Kamera 100. Es sei angemerkt, dass das dargestellte Ablaufdiagramm gemäß der Steuerung der Steuerungseinheit 106 durchgeführt wird.
  • Wenn die Kamera 100 eingeschaltet wird und in einen Bereitschaftszustand versetzt wird (zum Beispiel in einen Photographievorbereitungszustand vor einer Bildaufnahme), bestimmt die Steuerungseinheit 106, ob die AF-Evaluierungsbetriebsart in Kraft ist oder nicht (Schritt S502). Kurz gesagt bestimmt die Steuerungseinheit 106, ob die Autofokusbetriebsart eingestellt ist oder nicht.
  • Wenn die AF-Evaluierungsbetriebsart nicht in Kraft ist (NEIN in Schritt S502), startet die Steuerungseinheit 106 eine Live-Ansicht-Bildaufnahme (Schritt S503) und geht über zu Schritt S515 der nachstehend beschrieben wird.
  • Wenn bestimmt ist, dass die AF-Evaluierungsbetriebsart in Kraft ist (JA in Schritt S502), schaltet die Steuerungseinheit 106 das AF-Steuerungssignal ein (H-Level) (Schritt S504). Als Nächstes setzt die Steuerungseinheit 106 den Wert 0 in eine Variable n ein, um die Anzahl von AF-Evaluierungsbildaufnahmen zu zählen (Schritt S505).
  • Als Nächstes startet die Steuerungseinheit 106, wie in 4 beschrieben ist, die AF-Evaluierungsbildaufnahme (Schritt S506) und startet ebenso die Live-Ansicht-Bildaufnahme in Schritt S516.
  • Nachdem die AF-Evaluierungsbildaufnahme gestartet ist, erhöht die Steuerungseinheit 106 die Variable n um 1 (Schritt S507). Dann erfasst die AF-Evaluierungswerterfassungseinheit 1121 gemäß der Steuerung der Steuerungseinheit 106 einen AF-Evaluierungswert AF_K gemäß dem Bildsignal zur AF-Evaluierung, das in der AF-Evaluierungsbildaufnahme erhalten wird (Schritt S508).
  • Als Nächstes bestimmt die Steuerungseinheit 106, ob der AF-Evaluierungswert AF_K die Formel (1) mit Bezug auf erwartete AF-Werte K_min und K_max erfüllt, das heißt, ob der AF-Evaluierungswert AF_K eine spezifizierte Evaluierungsbedingung erfüllt oder nicht (Schritt S509). K_min < AF_K < K_max
    Figure DE102013227163B4_0003
    wobei die erwarteten AF-Werte K_min und K_max einen erwarteten Minimalwert und Maximalwert des AF-Evaluierungswerts darstellen, die auf der Steuerungseinheit 106 in einer Entwicklungsphase oder in einer Anpassungsphase der Kamera 100 im Voraus aufgezeichnet sind.
  • Wenn der AF-Evaluierungswert AF_K die Formel (1) nicht erfüllt (NEIN in Schritt S509), berechnet die Steuerungseinheit 106 einen Regelungsbetrag gemäß dem vorstehend beschriebenen AF-Evaluierungswert AF_K. Die Steuerungseinheit 106 führt dann eine Antriebssteuerung der Antriebseinheit 103 gemäß dem Regelbetrag durch, um eine Fokuslinse, die in der mechanischen Optikeinheit 1111 enthalten ist, entlang einer optischen Achse anzutreiben (Schritt S510).
  • Als Nächstes bestimmt die Steuerungseinheit 106, ob eine Variable (die Anzahl einer AF-Evaluierungswertbildaufnahme) n eine spezifizierte Anzahl ist (in diesem Fall 3) (Schritt S511). Wenn die Anzahl von AF-Evaluierungswertbildaufnahmen weniger als 3 ist (NEIN in Schritt S511), kehrt die Steuerungseinheit 106 zu der Verarbeitung von Schritt S506 zurück und führt eine AF-Evaluierungsbildaufnahme durch.
  • Wenn die Anzahl von AF-Evaluierungswertbildaufnahmen gleich 3 ist (JA in Schritt S511), führt die Steuerungseinheit 106 eine Live-Ansicht-Anzeige durch (Schritt S512) und kehrt dann zu der Verarbeitung von Schritt S505 zurück, um die Anzahl von AF-Evaluierungswertbildaufnahmen n auf Null einzustellen.
  • Wenn der AF-Evaluierungswert AF_K Formel (1) erfüllt (JA in Schritt S509), schaltet die Steuerungseinheit 106 das AF-Steuerungssignal ab (L-Level) (Schritt S513), und beendet eine AF-Evaluierungsbildaufnahme in dem Bildaufnahmeelement 102 (Schritt S514). Die Steuerungseinheit 106 zeigt dann auf der Bildanzeigeeinheit 109 ein Bild entsprechend dem Bildaufnahmesignal für eine Live-Ansicht an (Schritt S515) und die Kamera wird in einen Bereitschaftszustand versetzt (Schritt S517).
  • In dem in 5 dargestellten Ablaufdiagramm, nachdem die AF-Evaluierungsbildaufnahme beendet ist, zeigt die Steuerungseinheit 106 ein Bild entsprechend dem Bildsignal, das durch eine Live-Ansicht-Bildaufnahme von Schritt 516 erhalten wird, an. Sobald die Live-Ansicht-Bildaufnahme von Schritt 503 gestartet wurde, geht die Steuerungseinheit 106 zu der Verarbeitung von Schritt S515 über, um eine Live-Ansicht-Anzeige durchzuführen.
  • Wie im Vorstehenden beschrieben wurde, ist in dem ersten Ausführungsbeispiel der vorliegenden Erfindung die AF-Evaluierungswerterfassungseinheit 1021 in dem zweiten Chip 21 enthalten. Dementsprechend, während Bilder für eine Live-Ansicht aufgenommen werden, werden Bilder für eine AF-Evaluierung bei einer hohen Rahmenrate aufgenommen und die AF-Evaluierungswerte können berechnet und ausgegeben werden. Folglich kann eine Zeitverzögerung zur Zeit des Durchführens einer AF-Evaluierung reduziert werden.
  • Außerdem wird bei der AF-Evaluierung nur der AF-Evaluierungswert, der bezüglich einer Datenmenge klein ist, direkt von dem Bildaufnahmeelement 102 an die Steuerungseinheit 106 gesendet, so dass eine Signalausgabelast reduziert wird und ein Energieverbrauch verringert werden kann.
  • Obwohl in dem vorstehenden Ausführungsbeispiel ein Beispiel beschrieben wurde, bei dem AF während einer Live-Ansicht durchgeführt wird, kann das vorstehend beschriebene Verfahren nicht nur bei der Live-Ansicht sondern auch bei anderen Bewegtbildphotographien verwendet werden.
  • Außerdem wird in dem vorliegenden Ausführungsbeispiel der AF-Evaluierungswert direkt von dem Bildaufnahmeelement 102 in die Steuerungseinheit 106 ausgegeben, und die Steuerungseinheit 106 steuert die mechanische Optik 1011 mit der Antriebseinheit 103 gemäß dem AF-Evaluierungswert. Jedoch kann die Antriebseinheit 103 eine Antriebssteuerung der mechanischen Optikeinheit 111 gemäß dem AF-Evaluierungswert durchführen.
  • Zweites Ausführungsbeispiel
  • Nun wird ein Beispiel einer Kamera in einem zweiten Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
  • Die Konfiguration der Kamera in dem zweiten Ausführungsbeispiel ist ähnlich zu der der Kamera, die in 1 dargestellt ist, mit der Ausnahme, dass die Konfiguration eines Bildaufnahmeelements 102 von dem Bildaufnahmeelement, das in 2B dargestellt ist, verschieden ist. In der folgenden Beschreibung wird eine Standbildphotographie für eine Photometrieoperation mit der Lichtabgabeeinheit, wie etwa einem Stroboskop, beschrieben.
  • 6 ist ein Blockdiagramm, das die Konfiguration eines Beispiels eines Bildaufnahmeelements, das in der Kamera zu verwenden ist, gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
  • Es sei angemerkt, das in 6 Komponentenelemente, die zu dem in 2A dargestellten Bildaufnahmeelement identisch sind, mit identischen Bezugszeichen bezeichnet sind, um die Beschreibung von diesen wegzulassen.
  • In dem Bildaufnahmeelement 102, das in 6 dargestellt ist, umfasst der zweite Chip 21 eine Photometriewertevaluierungseinheit 601 anstelle der AF-Evaluierungswerterfassungseinheit 1021. Die Photometriewertevaluierungseinheit 601 ist mit dem Rahmenspeicher 217 und der Steuerungseinheit 106 verbunden.
  • Die Photometriewertevaluierungseinheit 601 berechnet, als einen Photometriewert, ein Farbverhältnis und einen Belichtungswert gemäß dem Bildsignal, das von dem ersten Chip 20 über die Spaltensignalleitung 202-b und eine horizontale Signalleitung 215b (das heißt, den Kanal Ch2) ausgelesen wird. Gemäß dem Photometriewert gibt die Photometrieevaluierungseinheit 601 Photometriesteuerungsdaten an die Steuerungseinheit 106 aus, wie etwa einen Weißabgleichkoeffizienten und einen Lichtabgabesteuerungsbetrag der Lichtabgabeeinheit 107.
  • Die Steuerungseinheit 106 sendet eine Steuerungsanweisung an die Signalverarbeitungseinheit 104 und die Lichtabgabeeinheit 107 gemäß den Photometriesteuerungsdaten, um eine Weißabgleichkorrektur in der Signalverarbeitungseinheit 104 und den Lichtabgabebetrag in der Lichtabgabeeinheit 107 zu steuern.
  • 7 ist ein Zeitablaufdiagramm zum Beschreiben von Bildaufnahmezeitpunkten in der Photometrieevaluierungsbetriebsart in dem zweiten Ausführungsbeispiel der vorliegenden Erfindung.
  • In der Photometrieevaluierungsbetriebsart startet die Steuerungseinheit 106 gleichzeitig eine Live-Ansicht-Bildaufnahme unter Verwendung des Kanals Ch1 und eine Photometrieevaluierungsbildaufnahme unter Verwendung des Kanals Ch2 bei der fallenden Flanke des vertikalen Synchronisierungssignals VD zur Zeit T70 in Synchronisation mit dem vertikalen Synchronisierungssignal VD. Bei der Photometrieevaluierungsbildaufnahme wird die Photometrieevaluierungsbildaufnahme für den Weißabgleichkoeffizienten und für die Lichtabgabesteuerung in der Lichtabgabeeinheit 107 durchgeführt.
  • Die Photometrieevaluierungsbildaufnahme für eine Weißabgleichkoeffizientenberechnung wird Weißabgleichkoeffizientenberechnungsbildaufnahme genannt und die Photometrieevaluierungsbildaufnahme für die Lichtabgabesteuerung wird Lichtabgabesteuerungsbetragphotometriebildaufnahme genannt.
  • Zuerst wird in einer Periode von T70 bis T71 die Weißabgleichkoeffizientenberechnungsbildaufnahme durchgeführt. Ein Bildsignal für eine Weißabgleichkoeffizientenevaluierung, das von der Pixeleinheit 20 über den Kanal Ch2 ausgelesen wird, wird über die horizontale Signalleitung 215-b und dem Auswahlschalter 216 in dem Rahmenspeicher 217 gespeichert.
  • In einer Periode von T71 bis T72 berechnet die Photometriewertevaluierungseinheit 601 einen Weißabgleichkoeffizienten gemäß dem Bildsignal für eine Weißabgleichkoeffizientenevaluierung, das in dem Rahmenspeicher 217 gespeichert ist. Dann gibt in einer Periode von T72 bis T73 die Photometriewertevaluierungseinheit 601 den Weißabgleichkoeffizienten an die Steuerungseinheit 106 aus.
  • Als Nächstes bringt bei einer Zeit T73 die Steuerungseinheit 106 ein Lichtabgabesteuerungssignal dazu, anzusteigen (auf ein H-Level), und startet die Lichtabgabesteuerungsbetragphotometriebildaufnahme, während die Lichtabgabeeinheit 107 dazu gebracht wird, Licht abzugeben, mit einem spezifizierten Lichtabgabebetrag. Dann, bei einer Zeit T74, bringt die Steuerungseinheit 106 das Lichtabgabesteuerungssignal dazu, zu fallen (auf ein L-Level), und beendet die Lichtabgabesteuerungsbetragphotometriebildaufnahme.
  • Folglich wird in einer Periode von T73 bis T74 die Lichtabgabesteuerungsbetragphotometriebildaufnahme für die Lichtabgabeeinheit 107 für eine Standbildphotographie durchgeführt und das Bildsignal zur Lichtabgabesteuerungsbetragevaluierung wird in dem Rahmenspeicher 217 gespeichert.
  • Da das Lichtabgabesteuerungssignal in der Periode von T73 bis T74 eingeschaltet ist, wird eine vorübergehende Lichtabgabe (das heißt Vorabgabe) durch die Lichtabgabe 107 durchgeführt, so dass die Lichtabgabesteuerungsbetragphotometriebildaufnahme, die die Bildaufnahme zum Berechnen der Belichtungs- bzw. Belichtungsmenge eines Subjekts ist, durchgeführt wird.
  • In einer Periode von T74 bis T75 berechnet die Photometriewertevaluierungseinheit 601 einen Belichtung- bzw. Belichtungswert bezüglich eines Objekts gemäß dem Bildsignal für eine Lichtabgabesteuerungsbetragevaluierung, der in dem Rahmenspeicher 217 gespeichert ist. Gemäß dem Belichtungswert erzeugt die Photometriewertevaluierungseinheit 601 einen Lichtabgabesteuerungsbetrag. Als Nächstes gibt die Photometrieevaluierungseinheit 601 in einer Periode von T75 bis T76 den Lichtabgabesteuerungsbetrag an die Lichtabgabesteuerungsbetragsteuerungseinheit 106 aus.
  • Zur Zeit T76 schaltet die Steuerungseinheit 106 die Photometrieevaluierungsbetriebsart auf eine Standbildphotographiebetriebsart um, während das Lichtabgabesteuerungssignal eingeschaltet wird, um die Lichtabgabeeinheit 107 dazu zu bringen, Licht abzugeben (Hauptlichtabgabe). Zu dieser Zeit steuert die Steuerungseinheit 106 den Lichtabgabebetrag der Lichtabgabeeinheit 107 gemäß dem Lichtabgabesteuerungsbetrag.
  • Weiterhin schaltet die Steuerungseinheit 106 den Auswahlschalter 216 um, um Bildsignale, die über den Kanal Ch2 ausgegeben werden, an die Signalverarbeitungseinheit 104 auszugeben, und die Bildsignale, die von allen Pixeln der Pixeleinheit 20 gelesen werden, der Bildverarbeitungseinheit 104 bereitzustellen.
  • In dem dargestellten Beispiel wird ein Bild für eine Live-Ansicht von einem Rahmen in der Periode von einem vertikalen Synchronisierungssignal VD aufgenommen. Während dieser Periode werden eine Weißabgleichkoeffizientenberechnungsbildaufnahme, eine Weißabgleichkoeffizientenberechnung und -ausgabe, eine Lichtabgabesteuerungsbetragphotometriebildaufnahme, und eine Lichtabgabesteuerungsbetragberechnung und -ausgabe durchgeführt.
  • Wie in dem Vorstehenden beschrieben ist, ist in dem zweiten Ausführungsbeispiel der vorliegenden Erfindung die AF-Evaluierungswerterfassungseinheit 1021 in dem zweiten Chip 21 umfasst, so dass, während die Bilder für eine Live-Ansicht aufgenommen werden, die Photometrieevaluierungsbilder bei einer hohen Rahmenrate aufgenommen werden können, und die Photometrieevaluierungswerte berechnet und ausgegeben werden können. Als eine Folge kann eine Zeitverzögerung zur Zeit des Durchführens einer Photometrieevaluierung reduziert werden.
  • Außerdem wird bei der Photometrieevaluierung nur der Photometrieevaluierungswert, der bezüglich eines Datenvolumens klein ist (Weißabgleichkoeffizient und Lichtabgabesteuerungsbetrag) direkt von dem Bildaufnahmeelement 102 an die Steuerungseinheit 106 gesendet. Als ein Ergebnis wird eine Signalausgabelast reduziert und ein Leistungsverbrauch kann verringert werden.
  • In dem vorstehend beschriebenen Ausführungsbeispiel wird der Photometrieevaluierungswert direkt von dem Bildaufnahmeelement 102 in die Steuerungseinheit 106 eingegeben, und die Steuerungseinheit 106 steuert die Signalverarbeitungseinheit 104 und die Lichtabgabeeinheit 107 gemäß dem Photometrieevaluierungswert. Jedoch kann der Photometrieevaluierungswert von dem Bildaufnahmeelement 102 an die Signalverarbeitungseinheit 104 und die Lichtabgabeeinheit 107 gesendet werden, um eine direkte Steuerung auszuführen.
  • Drittes Ausführungsbeispiel
  • Als Nächstes wird ein Beispiel einer Kamera in einem dritten Ausführungsbeispiel der vorliegenden Erfindung beschrieben.
  • Die Konfiguration der Kamera in dem dritten Ausführungsbeispiel ist ähnlich zu der der Kamera, die in 1 dargestellt ist, mit der Ausnahme, dass die Konfiguration eines Bildaufnahmeelements 102 von dem Bildaufnahmeelement, das in 2 dargestellt ist, verschieden ist.
  • 8 ist ein Blockdiagramm, das die Konfiguration eines Beispiels eines Bildaufnahmeelements, das in der Kamera zu verwenden ist, gemäß dem dritten Ausführungsbeispiel der vorliegenden Erfindung darstellt.
  • Es sei angemerkt, dass in 8 Komponentenelemente, die zu dem Bildaufnahmeelement, das in 2A und 6 dargestellt ist, identisch sind, durch identische Bezugzeichen bezeichnet sind, um die Beschreibung von diesen wegzulassen.
  • In dem in 8 dargestellten Bildaufnahmeelement 102 umfasst der zweite Chip 21 eine Bildsignalevaluierungseinheit 801 anstelle der AF-Evaluierungswerterfassungseinheit 1021. Die Bildsignalevaluierungseinheit 801 ist mit dem Rahmenspeicher 217 und der Steuerungseinheit 106 verbunden.
  • Die Bildsignalevaluierungseinheit 801 berechnet eine Standardabweichung (ebenso als ein Standardabweichungswert bezeichnet), die eine Signalschwankung angibt, gemäß den Bildsignalen, die von dem ersten Chip 20 über die Spaltensignalleitung 202-b gelesen werden. Die Bildsignalevaluierungseinheit 801 gibt dann die Standardabweichung an die Steuerungseinheit 106 als ein Bildsignalevaluierungswert aus. Wenn die Standardabweichung einen voreingestellten Schwellenwert (Standardabweichungsschwellenwert) übersteigt, sendet die Steuerungseinheit 106 ein Bildaufnahmesteuerungssignal, das einen Verstärkungsbetrag oder einen Belichtungsbetrag (das heißt eine Belichtungsperiode) unter Kontrolle hält an die Antriebseinheit 103. Die Antriebseinheit 103 steuert das Bildaufnahmeelement 102 gemäß dem Bildaufnahmesteuerungssignal an, um eine Belichtungssteuerung durchzuführen. Dies liegt daran, dass die Standardabweichung, wenn diese den voreingestellten Schwellenwert übersteigt, eine Verschlechterung eines S/N-Verhältnisses in den Bildsignalen angibt, so dass ein Begrenzen der Belichtungssteuerung zum Beibehalten einer spezifizierten Bildqualität effektiv ist.
  • In dem in 8 dargestellten Beispiel wird die Belichtungssteuerung durchgeführt, um die spezifizierte Bildqualität beizubehalten. Die spezifizierte Bildqualität könnte jedoch nicht durch die Belichtungssteuerung sondern zum Beispiel durch Umschalten von Korrekturwerten in einer Rauschreduzierungsverarbeitung beibehalten werden. Weiterhin ist in dem dargestellten Beispiel die Bildsignalevaluierungseinheit 801 dazu konfiguriert, den Bildsignalevaluierungswert auszugeben, der eine Standardabweichung ist. Die Bildsignalevaluierungseinheit 801 könnte jedoch konfiguriert sein, um ein Steuerungssignal entsprechend der Standardabweichung an die Antriebseinheit 103, die Signalverarbeitungseinheit 104 oder die Lichtabgabeeinheit 107 auszugeben, um die spezifizierte Bildqualität beizubehalten.
  • 9 ist ein Zeitablaufdiagramm zum Beschreiben von Bildaufnahmezeitpunkten in der Standardabweichungsevaluierungsbetriebsart in dem dritten Ausführungsbeispiel der vorliegenden Erfindung.
  • Wenn die Kamera in die Standardabweichungsevaluierungsbetriebsart versetzt wird, startet die Steuerungseinheit 106 eine Bildaufnahme an der fallenden Flanke des vertikalen Synchronisierungssignals VD1 und VD2 zur Zeit T90. Die Steuerungseinheit 106 startet hier eine Live-Ansicht-Bildaufnahme unter Verwendung des Kanals Ch1 in Synchronisation mit dem vertikalen Synchronisierungssignal VD1 und eine Standardabweichungsevaluierungsbildaufnahme (ebenso als eine Bildsignalevaluierungsbildaufnahme bezeichnet) unter Verwendung des Kanals Ch2 in Synchronisation mit dem vertikalen Synchronisierungssignal VD2.
  • Bei der Live-Ansicht-Bildaufnahme in Synchronisation mit dem vertikalen Synchronisierungssignal VD1 wird eine Bildaufnahmeoperation gemäß der Rahmenrate für eine Live-Ansicht-Anzeige durchgeführt. In einer 1VD Periode (T90 bis T93) bezüglich des vertikalen Synchronisierungssignals VD2 wird eine Live-Ansicht-Bildaufnahme von mehreren Rahmen durchgeführt.
  • Bei der Bildsignalevaluierungsbildaufnahme in einer Periode von T90 bis T91 werden Standardabweichungserfassungsbildsignale, die zu dem Kanal Ch2 ausgelesen werden, von dem Bildaufnahmeelement 102 ausgelesen. Die Einstellung in der Periode von T90 bis T91 ist identisch zu der Einstellung in der Belichtungsperiode für die Standbild-Bildaufnahme nach der Zeit T93. Die Belichtungssteuerung nach der Zeit T93 wird gemäß der AE-Steuerung entsprechend dem Bildsignal, das von einer Benutzeroperation unter Verwendung der Operationseinheit 108 erhalten wird oder von dem Bildaufnahmeelement 102 bestimmt. Deshalb wird bei der Bildsignalevaluierungsbildaufnahme in Kanal Ch2 eine von der Belichtungssteuerung für eine Live-Ansicht-Anzeige in Kanal Ch1 unterschiedliche Belichtungssteuerung durchgeführt.
  • Weiterhin kann eine Verschlechterung des S/N aufgrund einer Signalverstärkung, die eine Verschlechterung der Bildqualität vor einer Standbildphotographie verursacht, durch Durchführen einer Belichtungssteuerung, die die Gleiche ist, wie die Steuerung bei der Standbildphotographie nach der Zeit T93 in dem Kanal Ch2, beschränkt werden. Des Weiteren kann eine Bildaufnahmesteuerung, wie etwa eine lange Anhäufungsoperation der Bildaufnahmepixel beschränkt werden. Als ein Ergebnis kann verhindert werden, dass sich die Bildqualität des Standbildes jenseits eines spezifizierten Levels verschlechtert.
  • Die Ausgabe des Kanals Ch2, die als ein Ergebnis der Bildaufnahme in der Periode von T90 bis T91 erhalten wird, das heißt die Standardabweichungserfassungsbildsignale, wird in dem Rahmenspeicher 217 über die horizontale Signalleitung 215-b und dem Schalter 216 gespeichert. Die Standardabweichungserfassungsbildsignale, die in der Periode von T91 bis T92 in dem Rahmenspeicher 217 gespeichert werden, werden in die Bildsignalevaluierungseinheit 801 gelesen, und die Bildsignalevaluierungseinheit 801 berechnet einen Standardabweichungswert, der eine Signalschwankung in den Standardabweichungserfassungsbildsignalen ist.
  • Dann gibt die Bildsignalevaluierungseinheit 801 in einer Periode von T92 bis T93 nur den Standardabweichungswert von dem Bildaufnahmeelement 102, der in der Periode von T91 bis T92 berechnet wird, an die Steuerungseinheit 106 aus. Nach der Zeit T93 wird die Kamera von der Standardabweichungsevaluierungsbetriebsart zu der Standbildphotographiebetriebsart umgeschaltet. Die Steuerungseinheit 106 schaltet den Schalter 216 um, um zu ermöglichen, dass Bildsignale an die Signalverarbeitungseinheit 104 ausgegeben werden, so dass alle Pixel ausgelesen werden können. In diesem Fall führt die Steuerungseinheit 106 eine Belichtungssteuerung gemäß dem Standardabweichungswert, der in der Bildsignalevaluierungseinheit 801 berechnet wird, durch.
  • Wie im Vorstehenden beschrieben wird, ist das dritte Ausführungsbeispiel der vorliegenden Erfindung konfiguriert, um eine Bildaufnahme des Bildsignals für eine Live-Ansicht und des Bildsignals für eine Evaluierung zur gleichen Zeit durchzuführen. Dementsprechend kann ein Standardabweichungswert zum Steuern der Operation bei der Standbild-Bildaufnahme vor dem tatsächlichen Photographieren, bevor eine Standbild-Bildaufnahme durchgeführt wird, erfasst werden.
  • Weiterhin ist das dritte Ausführungsbeispiel dazu konfiguriert, einen Standardabweichungswert, der ein Bildsignalevaluierungswert ist, der bezüglich einer Datenmenge klein ist, direkt an die Steuerungseinheit 106 auszugeben. Dementsprechend ist es nicht länger notwendig, das Bildsignal, das bezüglich der Datenmenge groß ist, von dem Bildaufnahmeelement 102 an die Signalverarbeitungseinheit 104zu senden. Als ein Ergebnis ermöglicht eine Lastreduzierung, die sich von der Signalausgabe ergibt, eine Leistungsreduzierung.
  • Somit werden in dem dritten Ausführungsbeispiel der vorliegenden Erfindung die Bildsignale in dem Bildaufnahmeelement 102 in der Bildaufnahmeperiode, die von der Live-Ansicht-Bildaufnahmeperiode verschieden ist, durch die Bildaufnahmeoperation, die von der Live-Ansicht-Bildaufnahmeoperation verschieden ist, gleichzeitig erhalten. Gemäß den erhaltenen Bildsignalen wird ein Standardabweichungswert, der ein Bildsignalevaluierungswert ist, in dem Bildaufnahmeelement 102 berechnet und wird an die Steuerungseinheit 106 ausgegeben. Als eine Folge kann der Bildsignalevaluierungswert während der Live-Ansicht-Betriebsart erhalten werden, so dass zusammen mit einer Energieeinsparung eine Zeitreduzierung erreicht werden kann.
  • Gemäß dem dritten Ausführungsbeispiel wird beschrieben, dass der Standardabweichungswert bezüglich der Bildsignale berechnet wird, Evaluierungswerte, wie nachstehend gezeigt, in der Bildsignalevaluierungseinheit 801 berechnet werden können, und eine entsprechende Korrektur in der Steuerungseinheit 106 durchgeführt werden kann.
  • (1) Ein Bildsignal-Offset-Korrekturwert, der der Betrag einer Schwankung einer Offset-Komponente pro Rahmen ist, der als ein Bildsignalreferenzwert zu verwenden ist, kann von Bildsignalen berechnet werden. (2) Ein Rauschen eines streifenförmigen festen Musters kann auf einer Spalten- oder Reihen-Basis erfasst werden. (3) Ein Flackern kann durch Einstellen einer Belichtungsbedingung, die von den Bedingungen für Bewegtbildaufnahmen oder Live-Ansicht-Anzeigen verschieden sind, und durch Erfassen einer Änderung einer Lichtquellenausgabe erfasst werden. Ein „Hand Shake“-Korrekturwert oder ein Bewegungserfassungswert eines Objektes kann durch Erfassen (4) eines WP-Koeffizienten, (5) eines Bewegungsbetrags eines Zielobjekts und (6) einer Vektorquantität berechnet werden. (7) Ein Chrominanzabschattungsevaluierungswert, (8) ein Luminanzabschattungsevaluierungswert, und (9) ein Flackerevaluierungswert können berechnet werden, um eine Belichtungssteuerung durch eine Verschlusssteuerung einer Blendenmechanikeinheit in der mechanischen Optikeinheit 1011 oder dem Bildaufnahmeelement 102 durchzuführen.
  • Es sollte natürlich verstanden werden, dass die vorstehenden Evaluierungswerte nicht nur durch die offenbarten Verfahren erhalten und korrigiert werden können, sondern ebenso durch andere öffentlich bekannte Verfahren.
  • Wie von der vorstehend erwähnten Beschreibung klar ist, dienen die Steuerungseinheit 106 und die Antriebseinheit 103 als eine Steuerungseinheit und eine Auslesesteuerungseinheit in dem in 1 dargestellten Beispiel. Die Steuerungseinheit 106 und die Bildanzeigeeinheit 109 dienen ebenso als eine Anzeigsteuerungseinheit.
  • Obwohl die vorliegende Erfindung basierend auf den Ausführungsbeispielen beschrieben wurde, sollte verstanden werden, dass die vorliegende Erfindung nicht auf diese spezifischen Ausführungsbeispiele beschränkt ist und es gedacht ist, dass verschiedene Formen, die innerhalb des Umfangs und Geistes der vorliegenden Erfindung liegen, darin mit eingeschlossen sind.
  • Zum Beispiel können die Funktionen in den vorstehend beschriebenen Ausführungsbeispielen als ein Steuerungsverfahren verwendet werden und das Steuerungsverfahren kann durch die Bildaufnahmevorrichtung ausgeführt werden. Weiterhin kann ein Programm, das die Funktionen der vorstehend erwähnten Ausführungsbeispiele aufweist, als ein Steuerungsprogramm verwendet werden und das Programm kann durch einen Computer, der in der Bildaufnahmevorrichtung enthalten ist, ausgeführt werden. Zum Beispiel kann das Steuerungsprogramm auf einem computerlesbaren Aufzeichnungsmedium aufgezeichnet sein.
  • Jedes des vorstehend beschriebenen Steuerungsverfahrens und Steuerungsprogramms umfasst zumindest einen Steuerungsschritt und einen Anzeigsteuerungsschritt.
  • Die vorliegende Erfindung kann ebenso durch Ausführen der folgenden beschriebenen Verarbeitung realisiert werden. Das heißt, Software (ein Programm), das die Funktionen der vorstehend erwähnten Ausführungsbeispiele implementiert, wird einem System oder einer Vorrichtung über ein Netzwerk oder verschiedene Arten von Aufzeichnungsmedien zugeführt. Ein Computer (oder eine Einrichtung wie etwa eine CPU und eine MPU) des Systems oder der Vorrichtung lesen das Programm aus und führen dieses aus.
  • Gemäß der vorliegenden Erfindung werden Steuerungsinformationen, die ausschließlich zur Steuerung, wie etwa Fokussteuerung, zu verwenden sind, von dem Bildaufnahmeelement zur Zeit des Ausführens der Steuerung ausgeben. Als ein Ergebnis kann eine Datentransferzeit reduziert werden und zusätzlich kann eine Verschlechterung der Bildqualität vermieden werden.
  • Viertes Ausführungsbeispiel
  • 11 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Bildaufnahmevorrichtung gemäß einem vierten Ausführungsbeispiel der vorliegenden Erfindung darstellt. Zum Beispiel wird die dargestellte Bildaufnahmevorrichtung auf eine Digitalkamera mit einer Bewegtbildfunktion oder eine Videokamera angewendet.
  • In 11 umfasst eine Bildaufnahmevorrichtung 1100 eine Linse 1101, einen Bildsensor 1102, eine Bildsignalverarbeitungseinheit 1103, eine Komprimierungs-Expansions-Einheit 1104, eine Linsenantriebssteuerungseinheit 1105, eine Bildaufnahmesignalevaluierungswerterfassungseinheit 1106, eine Szenenbestimmungseinheit 1107 und eine Systemsteuerungseinheit 1108. Die Bildaufnahmevorrichtung 1100 umfasst weiterhin eine Lichtabgabeeinheit 1109, eine Operationseinheit 1110, eine Speichereinheit 1111 und eine Anzeigeeinheit 1112.
  • Die Linse 1101 ist eine Linsegruppe, die ein photographisches optisches System bildet. Eine Fokuslinse ist in der Linse 1101 umfasst. Die Fokuslinse ist angepasst, so dass die Position von dieser entlang einer Richtung einer optischen Achse verändert werden kann. Die Linsenantriebssteuerungseinheit 1105 hat eine Funktion als eine Fokusanpassungseinheit, um eine Antriebssteuerung der Fokuslinse basierend auf einem Wert, der durch die Bildaufnahmeevaluierungswerterfassungseinheit 1106 erfasst wird, durchzuführen und eine Fokusanpassungsverarbeitung durchzuführen. Licht, das die Linse 1101 passiert, wird als ein optisches Bild eines Objekts auf einer Abbildungsebene des Bildsensors 1102, die auf einem CMOS-Bildsensor oder Ähnlichem gebildet ist, fokussiert. Das optische Bild wird dann photoelektrisch in ein Pixelsignal in später beschriebenen Pixeln 1201 umgewandelt.
  • Der Bildsensor 1102 besitzt Pixel 1201 und einen A/D-Wandler. Der Bildsensor 1102 ist ein sogenannter CMOS-Bildsensor der XY-Leseart. Gemäß der Steuerung der Systemsteuerungseinheit 1108 führt der Bildsensor 1102 eine Bildaufnahmeoperation durch, wie etwa eine Belichtung, Signalauslesen und -zurücksetzen, und gibt ein Bildaufnahmesignal (ebenso als ein Bildsignal bezeichnet) aus.
  • Die Bildaufnahmeevaluierungswerterfassungseinheit 1106 erfasst einen Bildaufnahmeevaluierungswert von dem Bildsignal, das von dem Bildsensor 1102 ausgegeben wird. In diesem Fall wird der Bildaufnahmeevaluierungswert zu dem Zeitpunkt, der von der Systemsteuerungseinheit 1108 ausgegeben wird, erfasst. Die detaillierte Operation davon wird später beschrieben.
  • Der Bildaufnahmeevaluierungswert bezieht sich hier auf einen Parameter, der zum Durchführen einer Steuerung der Bildaufnahmevorrichtung, zur Korrektur von photographierten Bildern, usw. notwendig ist. Zum Beispiel ist der Bildaufnahmeevaluierungswert ein Evaluierungswert, der für eine Grundoperation der Bildaufnahmevorrichtung notwendig ist, wie etwa ein AF-Evaluierungswert, ein Weißabgleich-(WB)-Evaluierungswert und ein Automatikbelichtungs-(AE)-Evaluierungswert. Der AF-Evaluierungswert ist ein Evaluierungswert zum Fokussieren eines Objekts zur Zeit einer Bildaufnahme, welche hauptsächlich zum Steuern der Fokuslinse notwendig ist. Der WB-Evaluierungswert ist ein Evaluierungswert, der zum Korrigieren einer Chrominanz zur Zeit einer Bildaufnahme notwendig ist, und ist ebenso ein Parameter, der zur Zeit der Entwicklung notwendig ist. Der AE-Evaluierungswert ist ein Evaluierungswert, der zum Erhalten einer angemessenen Belichtung zur Zeit der Photographie notwendig ist. Der AE-Evaluierungswert ist hauptsächlich zum Einstellen einer Photoblende, einer Verschlussgeschwindigkeit und einer Empfindlichkeit notwendig.
  • Die Systemsteuerungseinheit 1108 bestimmt einen Steuerungsbetrag der Linse 1101 basierend auf dem AF-Evaluierungswert, welcher einer der Parameter ist, die als der Bildaufnahmeevaluierungswert erhalten werden, und gibt den Steuerungsbetrag an die Linsenantriebssteuerungseinheit 1105 aus. Die Linsenantriebssteuerungseinheit 1105 führt eine Fokusanpassung eines Objekts durch Antreiben der Linse 1101 in die Richtung der optischen Achse basierend auf dem Steuerungsbetrag des AF-Evaluierungswerts durch, der von der Systemsteuerungseinheit 1108 erhalten wird.
  • Gemäß der Steuerung der Systemsteuerungseinheit 1108 führt die Bildsignalverarbeitungseinheit 1103 eine Signalverarbeitung eines Bildsignals durch, welches die Ausgabe des Bildsensors 1102 ist, um Bilddaten zu erzeugen. Genauer wird basierend auf dem Bildaufnahmeevaluierungswert, der in der Bildaufnahmeevaluierungswerterfassungseinheit erfasst wird, eine Signalverarbeitung, wie etwa eine Weißabgleichanpassungsverarbeitung, eine Farbkorrekturverarbeitung und AE-Verarbeitung, durchgeführt, um die Bilddaten zu erzeugen.
  • Die Komprimierungs-Expansions-Einheit 1104 arbeitet gemäß der Steuerung der Systemsteuerungseinheit 1108 und führt eine Komprimierungscodierungsverarbeitung in einem spezifizierten Standbilddatenformat bezüglich der Bilddaten, die die Ausgabe der Bildsignalverarbeitungseinheit 1103 sind, durch. Zum Beispiel ist das spezifizierte Standbilddatenformat ein JPEG- („Joint Photographic Coding Experts Group“) -Verfahren. Die Komprimierungs-Expansions-Einheit 1104 führt ebenso eine Expansionsdecodierungsverarbeitung bezüglich der codierten Bilddaten, die von der Systemsteuerungseinheit 1108 gesendet werden, durch. Die Komprimierungs-Expansions-Einheit 1104 kann ebenso Komprimierungscodierungs-/Expansionsdecodierungsprozesse bezüglich Bewegtbilddaten unter Verwendung eines MPEG- („Moving Picture Experts Group“) -Verfahrens und Ähnlichem durchführen.
  • In der Szenenbestimmungseinheit 1107 wird eine photographische Szene basierend auf einer photographischen Bedingung, die von der Systemsteuerungseinheit erhalten wird, bestimmt. Gemäß der bestimmten photographischen Szene werden Informationen zum Ändern der Parameter, wie etwa ein photographischer Parameter zum Photographieren und ein Bildverarbeitungsparameter, an die Systemsteuerungseinheit 1108 gesendet. Die Bildaufnahmeevaluierungswerterfassungseinheit 1106 bestimmt hier, welches Signal zu verwenden ist, um einen Bildaufnahmeevaluierungswert, ein Bildsignal zur Bildaufnahmeevaluierungswerterfassung oder ein Bildsignal zur Anzeige, wie später beschrieben, basierend auf den Informationen bezüglich einer Szenebestimmung zu erfassen.
  • Die Systemsteuerungseinheit 1108 ist ein Mikrocontroller mit zum Beispiel einer zentralen Verarbeitungseinheit (CPU), einem Festwertspeicher (ROM) und einem Zufallszugriffsspeicher (RAM). Die CPU der Systemsteuerungseinheit 1108 führt ein Programm aus, das in dem ROM gespeichert ist, so dass die gesamte Bildaufnahmevorrichtung 1100 umfassend gesteuert wird.
  • Wenn bestimmt ist, dass ein Belichtungswert eines Objekts in der AE-Verarbeitung, die durch die Bildsignalverarbeitungseinheit 1103 durchgeführt wird, niedrig ist, gibt die Lichtabgabeeinheit 1109 Licht ab, um das Objekt zu belichten. Zum Beispiel kann eine Stroboskopvorrichtung, wie etwa eine Xenonröhre oder eine LED-Lichtabgabeeinrichtung, als die Lichtabgabeeinheit 1109 verwendet werden. Die Operationseinheit 110 weist zum Beispiel verschiedene Operationstasten, Hebel und Wähler auf, wie etwa eine Verschlussfreigabetaste, um ein Betätigungssignal entsprechend einer Benutzereingabeoperation an die Systemsteuerungseinheit 1108 auszugeben.
  • Die Aufzeichnungseinheit 1111 ist zum Beispiel ein Aufzeichnungsmedium, wie etwa ein tragbarer Halbleiterspeicher, eine optische Platte, ein Festplattenlaufwerk (HDD) oder ein magnetisches Band, um Bilddaten, die durch die Komprimierungs-Expansions-Einheit 1104 komprimiert und codiert wurden, als eine Bilddatei zu speichern. Die Aufzeichnungseinheit 1111 liest ebenso eine Bilddatei, die durch die Systemsteuerungseinheit 1108 spezifiziert wird, aus, und gibt diese an die Systemsteuerungseinheit 1108 aus.
  • Die Bildanzeigeeinheit 1112 umfasst zum Beispiel eine Anzeigeeinrichtung, wie etwa eine Flüssigkristallanzeige (LCD), und eine Schnittstellenschaltung für die LCD, um auf der Anzeigeeinrichtung ein Bild anzuzeigen, das durch die Bilddaten, die von der Systemsteuerungseinheit 1108 gesendet werden, angegeben wird.
  • 12A und 12B sind erklärende Ansichten zum Darstellen der Konfiguration eines Bildsensors 1102, der in 11 dargestellt ist. 12A ist eine perspektivische Ansicht des Bildsensors und 12B ist ein Blockdiagramm, das die Konfiguration von diesem angibt.
  • In 12A weist der Bildsensor 1102 einen ersten Chip (erste Elementeinheit) 120 und einen zweiten Chip 121 (zweite Elementeinheit) auf, wobei der erste Chip 120 auf dem zweiten Chip 121 geschichtet ist. Der erste Chip 120, der eine Vielzahl von Pixeln 1201 aufweist, die in einer Matrixform angeordnet sind, ist derart geschichtet, dass ein Pixel-Array der Lichteinfallsseite gegenüberliegt (das heißt an einer Seite des Empfangens des optischen Bildes positioniert). Der zweite Chip 121 besitzt eine Pixelansteuereinheit, inklusive später beschriebener Spaltenabtastschaltungen 1213-a und 1213-b und einer Reihenabtastschaltung 1212, die auf diesem gestaltet sind.
  • Wenn auf diese Weise die Pixel 1201 auf dem ersten Chip 120 gestaltet sind und die Pixelansteuereinheit auf dem zweiten Chip 121 gestaltet ist, kann ein Herstellungsprozess der peripheren Schaltungen und der Pixeleinheit des Bildsensors 1102 getrennt werden. Als ein Ergebnis kann die Tendenz zum Reduzieren der Drahtbreite und des starken Erhöhens der Drahtdichte in den peripheren Schaltungen eine Geschwindigkeitsverbesserung, Verkleinerung und höhere Performance realisieren.
  • Wie in 12B dargestellt ist, sind die Pixel 1201 in einer Matrixform auf dem ersten Chip 120 angeordnet und jedes der Pixel 1201 ist mit einer Transfersignalleitung 1203, einer Rücksetzsignalleitung 1204 und einer Reihenauswahlsignalleitung 1205 in der horizontalen Richtung (Reihenrichtung) verbunden. Die Pixel 1201 sind ebenso mit Spaltensignalleitungen 1202-a und 1202-b in der vertikalen Richtung (Spaltenrichtung) verbunden. Es sei angemerkt, dass die Spaltensignalleitungen 1202-a und 1202-b jeweils dazu konfiguriert sind, die Pixel mit unterschiedlichen Auslesezielen auf einer Reihenbasis zu verbinden.
  • Wie dargestellt ist, umfasst jedes der Pixel 1201 ebenso eine Photodiode PD, die ein photoelektrisches Umwandlungselement ist, einen Transfertransistor M1, einen Rücksetztransistor M2, einen Verstärkungstransistor M3, einen Auswahltransistor M4 und eine Floating Diffusion FD. In dem dargestellten Beispiel ist jeder der Transistoren ein n-Kanal-MOS-Feldeffekttransistor (MOS FET).
  • Gates des Transfertransistors M1, des Rücksetztransistors M2 und des Auswahltransistor M4 sind entsprechend mit der Transfersignalleitung 1203, der Rücksetzsignalleitung 1204 und der Reihenauswahlsignalleitung 1205 verbunden. Diese Signalleitungen 1203 bis 1205 sind derart angeordnet, dass sie sich in die horizontale Richtung erstrecken, und die Pixel in der gleichen Reihe werden simultan angesteuert. Als eine Folge kann eine Operation eines „Rolling Shutter“ der zeilensequenziellen Betriebsart bzw. der Betriebsart, bei der alle Zeilen nacheinander angesteuert werden, oder eines „Global Shutter“ der Betriebsart einer gleichzeitigen Gesamtoperation bzw. der Betriebsart, bei der alle Zeilen gleichzeitig angesteuert werden, gesteuert werden. Weiterhin ist eine Source des Auswahltransistors M4 mit der Spaltensignalleitung 1202-a oder 1202-b auf einer Reihenbasis verbunden.
  • Die Photodiode PD sammelt eine Ladung, die durch photoelektrische Umwandlung erzeugt wird. Die P-Seite der Photodiode PD ist geerdet, während die N-Seite mit einer Source des Transfertransistors M1 verbunden ist. Wenn der Transfertransistor M1 eingeschaltet wird, wird die Ladung der Photodiode PD an die FD übertragen. Da in der FD eine parasitäre Kapazität vorhanden ist, wird die Ladung, die an die FD übertragen wird, angehäuft.
  • Eine Versorgungsspannung Vdd wird an ein Drain des Verstärkungstransistors M3 angelegt, während ein Gate des Verstärkungstransistors M3 mit der FD verbunden ist. Der Verstärkungstransistor M3 verstärkt die Ladung (das heißt die Spannung) des FD und wandelt diese in ein Spannungssignal um. Der Auswahltransistor M4 dient zum Auswählen, mit der Reihenauswahlsignalleitung 1205, des Pixels zum Auslesen von Signalen auf einer Reihenbasis. Ein Drain des Auswahltransistors M4 ist mit einer Source des Verstärkungstransistors M3 verbunden. Eine Source des Auswahltransistors M4 ist mit der Spaltensignalleitung 1202 verbunden.
  • Wenn der Auswahltransistor M4 durch die Reihenauswahlsignalleitung 1205 eingeschaltet wird, wird ein Spannungssignal entsprechend der Spannung der FD an die Spaltensignalleitung 1202 ausgegeben. Die Versorgungsspannung Vdd wird an ein Drain des Rücksetztransistors M2 angelegt, während eine Source des Rücksetztransistors M2 mit der FD verbunden ist. Wenn der Rücksetztransistor M2 durch die Rücksetzsignalleitung 1204 eingeschaltet wird, wird die Spannung der FD auf die Versorgungsspannung Vdd zurückgesetzt.
  • Der zweite Chip 121 umfasst einen Spalten-ADC-Block 1211, der auf diesem bereitgestellt ist, und der Spalten-ADC-Block 1211 ist mit der Spaltensignalleitung 1202-a oder 1202-b verbunden. Weiterhin umfasst der zweite Chip 121 eine Reihenabtastschaltung 1212, Spaltenabtastschaltungen 1213-a und 1213-b, eine Zeitsteuerungseinheit 1214 und horizontale Signalleitungen (Ausgabeeinheiten) 1215-a und 1215-b, die auf diesem bereitgestellt sind.
  • Die Zeitsteuerungseinheit 1214 steuert Operationszeitpunkte der Reihenabtastschaltung 1212, der Spaltenabtastschaltungen 1213-a und 1213-b und des Spalten-ADC-Blocks 1211 gemäß der Steuerung der Systemsteuerungseinheit 1108. Die Reihenabtastschaltung 1212 tastet jede Reihe ab, während die Spaltenabtastschaltungen 1213-a und 1213-b entsprechend jede Spalte abtasten.
  • Die horizontalen Signalleitungen 1215-a und 1215-b übertragen Ausgabesignale (Bildsignale) des Spalten-ADC-Blocks 1211 basierend auf den Zeitpunkten, die in jeder der Spaltenabtastschaltungen 1213-a und 1213-b gesteuert werden. Als eine Folge wird ein Bildsignal für eine Live-Ansicht (ein zweites Bildsignal oder ein Bildanzeigesignal) an die Spaltensignalleitung 1202-a ausgegeben und ein Bildsignal für eine Bildaufnahmeevaluierungserfassung (ein erstes Bildsignal) wird an die Spaltensignalleitung 1202-b ausgegeben.
  • In 13 werden Reihen mit Reihennummern 1 und 2 (erste Pixelgruppe) zur Bildaufnahme für ein Bild für eine Bildaufnahmeevaluierungswerterfassung verwendet, während Reihen mit den Reihennummern 3 bis 8 (zweite Pixelgruppe) zur Bildaufnahme eines Bildes für eine Live-Ansicht verwendet werden. In dem dargestellten Beispiel wird eine Leseabtastung in einer Reihenfolge auf einer Reihenbasis durchgeführt und alle acht Reihen werden wiederholt abgetastet, um gelesen zu werden.
  • Bei der Bildaufnahme zur Bildaufnahmeevaluierungswerterfassung wird ein Ausdünnungslesen von 3 von 4 vertikalen Pixeln mit gleichen Farben ausgeführt, während ein Hauptaugenmerk auf die Rahmenrate gelegt wird. Unterdessen werden in dem Bild für eine Live-Ansicht 1 von 4 vertikalen Pixeln mit gleichen Farben ausgedünnt und 3 Pixel werden addiert, während ein Hauptaugenmerk auf eine Bildqualität gelegt wird. Mit anderen Worten wird bei der Bildaufnahme für eine Bildaufnahmeevaluierungswerterfassung die erste Pixelgruppe bei einer ersten Rahmenrate ausgelesen. Bei der Live-Ansicht-Bildaufnahme wird die zweite Pixelgruppe bei einer zweiten Rahmenrate, die langsamer als die erste Rahmenrate ist, ausgelesen.
  • Wie im Vorstehenden beschrieben ist, werden die Bildaufnahme für eine Bildaufnahmeevaluierungswerterfassung und die Bildaufnahme für eine Live-Ansicht auf Basis einer ausgewählten Reihe getrennt, so dass Bildsignale zu unterschiedlichen Ladungsspeicherzeiten bei Rahmenraten mit unterschiedlichen Datengrößen erhalten werden können.
  • Ein Spannungssignal (analoges Signal), das an die Spaltensignalleitungen 1202-a und 1202-b ausgegeben wird, wird von dem analogen Signal in dem Spalten-ADC-Block 1211, der in 12A und 12B dargestellt ist, in ein digitales Signal (Bildsignal) umgewandelt. Das Bildsignal, das die Ausgabe des Spalten-ADC-Blocks 1211 ist, wird gelesen und von dem Spalten-ADC-Block 1211 durch die Spaltenabtastschaltungen 1213-a oder 1213-b (die erste Ausleseeinheit, die zweite Ausleseeinheit) an die horizontale Signalleitung 1215-a oder 1215-b ausgegeben.
  • Als Nächstes wird eine Operation zum Erfassen eines optimalen Bildaufnahmeevaluierungswerts für eine AF-Operation (AF-Evaluierungswert) als ein Beispiel des Bildaufnahmeevaluierungswerts mit Bezug auf 14A und 14B beschrieben.
  • 14A ist ein Zeitablaufdiagramm zum Erfassen eines AF-Evaluierungswerts (Autofokusevaluierungswert) von einem Bild zur Bildaufnahmeevaluierungswerterfassung als ein Ergebnis einer nachstehend beschriebenen Szenenbestimmung. Wie in 14A dargestellt ist, wird ein Bildaufnahmezeitpunkt durch ein vertikales Synchronisationssignal festgelegt. Wenn die Kamera in die AF-Evaluierungsbetriebsart versetzt wird, bringt die Systemsteuerungseinheit 1108 ein AF-Steuerungssignal dazu, bei der fallenden Flanke eines vertikalen Synchronisierungssignals zur Zeit T0 anzusteigen (auf ein H-Level). Als Nächstes, sobald das vertikale Synchronisierungssignal angestiegen ist, startet die Systemsteuerungseinheit 1108 eine Bildaufnahmeoperation für sowohl ein Bildanzeigesignal als auch ein Bildaufnahmeevaluierungswerterfassungssignal zur gleichen Zeit in Synchronisation mit den vertikalen Synchronisierungssignalen und führt diese aus.
  • In einer Periode von T0 bis TF1 wird das Bildsignal zur Bildaufnahmeevaluierung, das von der Pixeleinheit 120 über die horizontale Signalleitung 1215-b gelesen wird, in die Bildaufnahmeevaluierungswerterfassungseinheit 1106 eingegeben. Dann, in einer Periode von TF1 bis TF2 wird der AF-Evaluierungswert berechnet. Der AF-Evaluierungswert wird gemäß dem Zeitpunkt, der durch die Systemsteuerungseinheit 1108 gesteuert wird, basierend auf Kontrastinformationen und Phasendifferenzinformationen, die von dem Bildsignal zur Bildaufnahmeevaluierungswerterfassung erhalten werden, das von dem Bildsensor 1102 ausgegeben wird, berechnet. Dann gibt in einer Periode von TF2 bis TF3 die Bildaufnahmeevaluierungswerterfassungseinheit 1106 den AF-Evaluierungswert an die Systemsteuerungseinheit 1108 aus.
  • In dem dargestellten Beispiel wird während einer Periode von einem vertikalen Synchronisierungssignal ein Bild für eine Live-Ansicht von einem Rahmen aufgenommen, während AF-Evaluierungswerterfassungsbilder (AF-Abtastung) von drei Rahmen aufgenommen werden. Wenn die Systemssteuerungseinheit 1108 das vertikale Synchronisierungssignal auf ein L-Level setzt, ist die AF-Evaluierung während der Periode des Bildes für die Live-Ansicht von einem Rahmen beendet.
  • Die Systemsteuerungseinheit 1108 vergleicht den AF-Evaluierungswert mit einem später beschriebenen spezifizierten erwarteten AF-Wert. Wenn der AF-Evaluierungswert eine spezifizierte Evaluierungsbedingung mit Bezug auf den erwarteten AF-Wert erfüllt, bringt die Systemssteuerungseinheit 1108 das AF-Steuerungssignal dazu, zu fallen (Zeit T1). Sobald das AF-Steuerungssignal gefallen ist, wird nur die AF-Evaluierungsbildaufnahme beendet und die Live-Ansicht-Bildaufnahme wird fortgesetzt.
  • 14B ist ein Zeitablaufdiagramm zum Erfassen eines AF-Evaluierungswerts von dem Bild für eine Live-Ansicht gemäß dem Ergebnis einer später beschriebenen Szenenbestimmung.
  • Wie in 14A dargestellt ist, wird ein Bildaufnahmezeitpunkt durch das vertikale Synchronisierungssignal festgelegt. Wenn die AF-Evaluierungsbetriebsart eingestellt ist, bringt die Systemsteuerungseinheit 1108 das AF-Steuerungssignal dazu, bei der fallenden Flanke des vertikalen Synchronisierungssignal zur Zeit T0 anzusteigen (auf ein H-Level). Als Nächstes, sobald das vertikale Synchronisierungssignal angestiegen ist, führt die Systemsteuerungseinheit 1108 eine Bildaufnahmeoperation nur für das Signal für eine Bildanzeige in Synchronisation mit dem vertikalen Synchronisierungssignal durch.
  • In einer Periode von T0 bis TF4 wird das Bildsignal für eine Live-Ansicht, das von dem Pixel 1201 über 1215-a gelesen wird, in die Bildaufnahmeevaluierungswerterfassungseinheit 1106 und die Bildsignalverarbeitungseinheit 1103 eingegeben. In einer Periode von TF4 bis TF5 wird ein AF-Evaluierungswert berechnet. Die Bildaufnahmeevaluierungswertberechnungseinheit 1106 berechnet den AF-Evaluierungswert gemäß dem Zeitpunkt, der durch die Systemsteuerungseinheit 1108 gesteuert wird, basierend auf Kontrastinformationen und Phasendifferenzinformationen, die von dem Bildsignal für ein Live-Ansicht-Bild, das von dem Bildsensor 1102 ausgegeben wird, erhalten wird. Dann, in einer Periode von TF5 bis TF6, gibt die Bildaufnahmeevaluierungswerterfassungseinheit 1106 den AF-Evaluierungswert an die Systemssteuerungseinheit 1108 aus.
  • In dem dargestellten Beispiel wird während eines vertikalen Synchronisationssignals ein Bild für eine Live-Ansicht von einem Rahmen aufgenommen und ein Bild für eine AF-Evaluierungswerterfassung (AF-Abtastung) wird nicht aufgenommen. Wenn die Systemsteuerungseinheit 1108 das vertikale Synchronisationssignal auf ein L-Level setzt, wird die AF-Evaluierung während der Periode von einem Rahmen des Bildes für eine Live-Ansicht beendet.
  • Die Systemsteuerungseinheit 1108 vergleicht den AF-Evaluierungswert, der von dem Bild für eine Live-Ansicht erfasst wird, mit einem später beschriebenen spezifizierten erwarteten AF-Wert. Wenn der AF-Evaluierungswert eine spezifizierte Evaluierungsbedingung mit Bezug auf den erwarteten AF-Wert erfüllt, wird das AF-Steuerungssignal dazu gebracht, zu fallen (Zeit T7). Sobald das AF-Steuerungssignal gefallen ist, wird eine AF-Evaluierungserfassungsoperation basierend auf dem Anzeigebild beendet und eine Live-Ansicht-Bildaufnahme wird fortgesetzt.
  • Wie in 14A dargestellt ist, kann in dem vorliegenden Ausführungsbeispiel eine Rahmenrate, die schneller ist als die Live-Ansicht-Bildoperation, für das Bild für die Bildaufnahmeevaluierungswerterfassung eingestellt werden. Somit kann eine Widerspiegelung des Bildaufnahmeevaluierungswerts auf der Bildaufnahmevorrichtung schneller gesteuert werden als vorher.
  • Die Bildaufnahmevorrichtung besitzt jedoch eine Beschränkung des Nachverfolgens in einer dunklen Szene aufgrund einer Belichtungssteuerung, die durch ein Programmdiagramm eingestellt ist. Somit sind das Bild für eine Bildaufnahmeevaluierungswerterfassung mit einer hohen Rahmenrate und das Bild für eine Live-Ansicht mit einer niedrigen Rahmenrate bezüglich der Grenze des Nachverfolgens in einer dunklen Szene aufgrund der Belichtungssteuerung verschieden. In dem vorliegenden Ausführungsbeispiel wird eine Differenz bzw. ein Unterschied von drei Zuständen in der Grenze des Nachverfolgens in einer dunklen Szene erzeugt.
  • Die Szenenbestimmungseinheit 1107 bestimmt Merkmale einer Photographierszene von einer Belichtungsmenge, die von einem Sensibilitätseinstellwert, einer Verschlussgeschwindigkeit oder Ähnlichem, welche als Photographier- (Belichtungs-) -Bedingungen durch die Systemsteuerungseinheit 1108 eingestellt werden, berechnet werden, zur Zeit des Photographierens eines Bildes für eine Live-Ansicht. Die Bildaufnahmeevaluierungswerterfassungseinheit 1106 erfasst einen Bildaufnahmeevaluierungswert von einem des Bildes zur Bildaufnahmeevaluierungswerterfassung und des Bildes zur Live-Ansicht gemäß dem Ergebnis einer Bestimmung durch die Szenenbestimmungseinheit 1107.
  • Eine Operation der Bildaufnahmevorrichtung gemäß dem vierten Ausführungsbeispiel in der AF-Evaluierungsbetriebsart wird nachstehend detailliert mit Bezug auf das Ablaufdiagramm von 15 beschrieben.
  • Es sei angemerkt, dass das dargestellte Ablaufdiagramm gemäß der Steuerung der Systemsteuerungseinheit 1108 durchgeführt wird. Zur Beschreibung wird ein Bildaufnahmeevaluierungswert, der in dem Bild zur Bildaufnahmeevaluierungswerterfassung erfasst wird, als AF_Kα definiert, und wird ein Bildaufnahmeevaluierungswert, der in dem Bild für eine Live-Ansicht erfasst wird, als AF_Kβ definiert.
  • Nachdem eine Energie eingeschaltet ist und verschiedene Anfangseinstellungen durch einen Benutzer eingestellt sind (Schritt S1502), wird die Betriebsart der Kamera zu einer Operationsbetriebsart, wie etwa einer Live-Ansicht-Betriebsart, und einer Bewegtbildaufzeichnung umgeschaltet, und ein Photographieren wird gestartet (Schritt S1520).
  • Die Systemsteuerungseinheit 1108 bestimmt, ob die AF-Evaluierungsbetriebsart in Kraft ist oder nicht (Schritt S1502). Kurz gesagt bestimmt die Systemsteuerungseinheit 1108, ob die Autofokusbetriebsart eingestellt ist oder nicht. Wenn die AF-Evaluierungsbetriebsart nicht in Kraft ist (NEIN in Schritt S1503), startet die Systemsteuerungseinheit 1105 nur die Live-Ansicht-Bildaufnahme (Schritt S1520), und geht über zu Schritt S1521, der später beschrieben wird.
  • Wenn bestimmt ist, dass die AF-Evaluierungsbetriebsart in Kraft ist (JA in Schritt S1503), schaltet die Systemsteuerungseinheit 1108 das AF-Steuerungssignal ein (H-Level) (Schritt S1504). Als Nächstes setzt die Systemsteuerungseinheit 1108 0 in die Variable n ein, um die Anzahl von AF-Evaluierungsbildaufnahmen zu zählen (Schritt S1505). Als Nächstes erfasst in Schritt S1506 die Systemsteuerungseinheit 1108 eine Belichtungsmenge S der Bildaufnahmebedingung zum Durchführen einer Live-Ansicht-Photographie.
  • Als Nächstes vergleicht die Szenebestimmungseinheit 1107 die in Schritt S1506 erfasste Belichtungsmenge E mit einem erwarteten Belichtungsmengenwert Ev (Bildaufnahmebedingungsbestimmung). Die Systemsteuerungseinheit 1108 bestimmt, ob die Belichtungsmenge bei der Live-Ansicht-Photographie Formel (1) mit Bezug auf den erwarteten Wert Ev in der Belichtungseinstellung erfüllt, das heißt, ob eine spezifizierte Sensibilitätsbedingung erfüllt ist oder nicht (Schritt S1507). E < Ev
    Figure DE102013227163B4_0004
  • Wenn die Live-Ansicht-Belichtungsmenge Ev Formel (1) erfüllt (JA), geht die Operation über zu Schritt S1508, um eine AF-Evaluierungswerterfassungsbildaufnahme zu starten.
  • Als Nächstes, wie in 14A beschrieben ist, startet die Systemsteuerungseinheit 1108 eine AF-Evaluierungsbildaufnahme (Schritt S1508). Nachdem die AF-Evaluierungsbildaufnahme gestartet ist, erhöht die Systemsteuerungseinheit 1108 die Variable n um 1 (Schritt S1509). Dann erfasst die Bildaufnahmeevaluierungswerterfassungseinheit 1106 gemäß der Steuerung der Systemsteuerungseinheit 1108 einen AF-Evaluierungswert AF_Kα von dem Bildsignal für die AF-Evaluierung, das in der AF-Evaluierungsbildaufnahme erhalten wird (Schritt S1510).
  • Als Nächstes bestimmt die Systemsteuerungseinheit 1108, ob der AF-Evaluierungswert AF_Kα Formel (2) mit Bezug auf erwartete AF-Werte K_minα und K_maxα erfüllt, das heißt, ob der AF-Evaluierungswert AF_Kα die spezifizierte Evaluierungsbedingung erfüllt (Schritt S1511). K_min α < AF_K α < K_max α
    Figure DE102013227163B4_0005
    wobei die erwarteten AF-Evaluierungswerte K_minα und K_maxα als erwartete Minimalwerte und Maximalwerte des AF-Evaluierungswerts eingestellt sind. Diese Werte sind auf der Systemsteuerungseinheit 1108 in einer Entwurfsphase oder in einer Anpassungsphase der Bildaufnahmevorrichtung im Voraus aufgezeichnet.
  • Wenn der AF-Evaluierungswert AF_Kα Formel (2) nicht erfüllt (NEIN in Schritt S1511), berechnet die Systemsteuerungseinheit 1108 einen Regelungsbetrag basierend auf dem vorstehend beschriebenen AF-Evaluierungswert AF_Kα. Die Systemsteuerungseinheit 1108 führt dann eine Antriebssteuerung der Linsenantriebssteuerungseinheit 1105 gemäß dem Regelungsbetrag durch, um die Fokuslinse, die in der Linse 1101 umfasst ist, anzutreiben (Schritt S1512).
  • Als Nächstes bestimmt die Systemsteuerungseinheit 1108, ob eine Variable (die Anzahl von AF-Evaluierungswertbildaufnahmen) n eine spezifizierte Anzahl ist (3 in diesem Fall) (Schritt S1513). Wenn die Anzahl von AF-Evaluierungswertbildaufnahmen weniger als 3 ist (NEIN in Schritt S1511), kehrt die Systemsteuerungseinheit 1108 zu der Verarbeitung von Schritt S1510 zurück und führt eine AF-Evaluierungsbildaufnahme durch. Im Gegensatz dazu, wenn die Anzahl von AF-Evaluierungswertbildaufnahmen gleich 3 ist (JA in Schritt S1513), kehrt die Systemsteuerungseinheit 1108 zu der Verarbeitung von Schritt S1505 zurück und stellt die Anzahl n von AF-Evaluierungswertbildaufnahmen auf Null ein.
  • Wenn der AF-Evaluierungswert AF_Kα Formel (2) erfüllt (JA in Schritt S1511), schaltet die Systemsteuerungseinheit 1108 das AF-Steuerungssignal aus (L-Level) (Schritt S1514), und beendet eine AF-Evaluierungsbildaufnahme in dem Bildaufnahmeelement 1102 (Schritt S1515). Dann bringt die Systemsteuerungseinheit 1108 die Operation dazu, zu Schritt S1522 überzugehen.
  • Wenn die Belichtungsmenge E des Bildes für eine Live-Ansicht Formel (1) in Schritt S1507 nicht erfüllt (NEIN), geht die Operation über zu Schritt S1516, und ein AF-Evaluierungswert AF_Kβ wird von dem aufgenommenen Bild für eine Live-Ansicht erfasst. Als Nächstes bestimmt die Systemsteuerungseinheit 1108, ob der AF-Evaluierungswert AF_Kβ Formel (3) mit Bezug auf erwartete AF-Werte K_minβ und K_maxβ erfüllt, das heißt, ob der AF-Evaluierungswert AF_Kβ die spezifizierte Evaluierungsbedingung erfüllt oder nicht (Schritt S1517). K_min β < AF_K < K_max β
    Figure DE102013227163B4_0006
    wobei die erwarteten AF-Werte K_minβ und K_maxβ als ein erwarteter Minimalwert und Maximalwert des AF-Evaluierungswerts eingestellt sind. Diese Werte sind auf der Systemsteuerungseinheit 1108 in einer Entwurfsphase oder in einer Anpassungsphase der Bildaufnahmevorrichtung im Voraus aufgezeichnet.
  • Wenn der AF-Evaluierungswert AF_Kβ Formel (3) nicht erfüllt (NEIN in Schritt S1517), berechnet die Systemsteuerungseinheit 1108 einen Regelungsbetrag gemäß dem vorstehend beschriebenen AF-Evaluierungswert AF_Kβ. Die Systemsteuerungseinheit 1108 führt dann eine Antriebssteuerung der Linsenantriebssteuerungseinheit 1105 gemäß dem Regelungsbetrag durch, um die Fokuslinse, die in der Linse 1101 umfasst ist, anzutreiben bzw. anzusteuern (Schritt S1518), und die Operation geht über zu Schritt S1522.
  • Wenn der AF-Evaluierungswert AF_Kβ Formel (3) erfüllt (JA in Schritt 1517), schaltet die Systemsteuerungseinheit 1108 das AF-Steuerungssignal aus (L-Level) (Schritt S1519), und die Operation geht über zu Schritt S1522. In Schritt S1522, wenn es eine Live-Ansicht-Operationsbeendigungsanweisung gibt (JA), wird die Live-Ansicht-Operation beendet. Wenn das Live-Ansicht-Bewegtbild fortgesetzt wird (NEIN), kehrt die Operation zurück zu Schritt S1503 und eine AF-Operation wird durchgeführt, während die Live-Ansicht-Operation durchgeführt wird.
  • Wie im Vorstehenden beschrieben ist, basiert das vorliegende Ausführungsbeispiel auf der Bildaufnahmevorrichtung, die ein Bildaufnahmeelement umfasst, das dazu in der Lage ist, die Bildaufnahme für eine Live-Ansicht und die Bildaufnahme für eine Bildaufnahmeevaluierungswerterfassung zur gleichen Zeit während einer Rahmenperiode durchzuführen. Gemäß dem Ergebnis einer Szenebestimmung basierend auf der Belichtungsbedingung zur Zeit einer Live-Ansicht-Bildaufnahme wird ein Bild zum Erfassen des AF-Evaluierungswerts von dem Bild für einen AF-Evaluierungswert und dem Bild für eine Live-Ansicht ausgewählt. Als eine Folge, wenn ein Objekt in einer hellen Szene photographiert wird, kann eine Zeitverzögerung beim Durchführen einer AF-Evaluierung reduziert werden, während in einer dunklen Szene die Präzision des AF-Evaluierungswerts verbessert werden kann. Außerdem werden in dem vorliegenden Ausführungsbeispiel unterschiedliche erwartete AF-Werte, die im Vergleich mit den AF-Evaluierungswerten zu verwenden sind, für das Bild für eine AF-Evaluierungswert und das Bild für eine Live-Ansicht vorbereitet. Diese erwarteten Werte können jedoch identisch sein.
  • In dem vorliegenden Ausführungsbeispiel, obwohl der AF-Evaluierungswert als ein Beispiel des Bildaufnahmeevaluierungswerts beschrieben wird, können andere Bildaufnahmenevaluierungswerte, wie etwa ein WB-Evaluierungswert (Weißabgleichdaten) und ein AE-Evaluierungswert (Belichtungssteuerungsdaten), ebenso als ein optimaler Evaluierungswert in der ähnlichen Konfiguration erfasst werden. In dem Fall des WB-Evaluierungswerts oder des AE-Evaluierungswerts werden das Bild für eine Bildaufnahmeevaluierungswerterfassung und das Bild für eine Live-Ansicht umgeschaltet, um den Evaluierungswert gemäß dem Ergebnis einer Szenebestimmung von Schritt S1507 zu erfassen. Als ein Ergebnis kann eine Zeitverzögerung reduziert werden und die Präzision bei der WB- oder AE-Evaluierungswerterfassung kann optimiert werden.
  • Fünftes Ausführungsbeispiel
  • Das vierte Ausführungsbeispiel der vorliegenden Erfindung hat eine Konstruktion beschrieben, die dazu konfiguriert ist, eine Photographierszene basierend auf nur den Belichtungsinformationen zu bestimmen und gemäß dem Ergebnis der Bestimmung einen AF-Evaluierungswert von einem des Bildes für einen AF-Evaluierungswert und des Bildes für eine Live-Ansicht zu erfassen. Das vorliegende Ausführungsbeispiel ist dazu konfiguriert, eine Photographierszene basierend nicht nur auf den Belichtungsinformationen, sondern ebenso den Gesichtsinformationen, den Luminanzinformationen und den Chrominanzinformationen zu bestimmen, um einen Bildaufnahmeevaluierungswert mit noch mehr ausreichender Präzision zu bestimmen. Eine Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel der vorliegenden Erfindung wird nachstehend mit Bezug auf 16 bis 18 beschrieben. Es sei angemerkt, dass dargestellte Komponentenelemente, die zu denen in dem vierten Ausführungsbeispiel identisch sind, durch gleiche Bezugszeichen bezeichnet sind, um eine Beschreibung von diesen wegzulassen.
  • 16 ist ein Blockdiagramm der Bildaufnahmevorrichtung gemäß dem vorliegenden Ausführungsbeispiel. Das vorliegende Ausführungsbeispiel besitzt eine ähnliche Konfiguration wie das vierte Ausführungsbeispiel mit der Ausnahme, dass eine Gesichtsinformationserfassungseinheit 1601, eine Luminanzinformationserfassungseinheit 1602 und eine Chrominanzinformationserfassungseinheit 1603 bereitgestellt sind.
  • Die Gesichtsinformationserfassungseinheit 1601 führt eine Gesichtserfassungsverarbeitung bezüglich eines Bildsignals durch, das von dem Bildsensor 1102 ausgegeben wird, um das Gesicht einer Person oder eines Tieres (zum Beispiel ein Haustier) in einem photographierten Rahmenbild zu erfassen. Die Gesichtsinformationserfassungseinheit 1601 gibt ebenso an die Szenebestimmungseinheit 1107 einen erfassten Gesichtsbereich als Gesichtsinformationen aus.
  • Die Luminanzinformationserfassungseinheit 1602 führt eine Luminanzerfassungsverarbeitung bezüglich des Bilddatenbilds durch, das von der Bildsignalverarbeitungseinheit 1103 ausgegeben wird. In der Verarbeitung wird ein Bildrahmenbild in eine Vielzahl von Bereichen aufgeteilt und eine mittlere Luminanz von jedem Bereich wird erhalten. Die Luminanzinformationserfassungseinheit 1602 berechnet unter Verwendung dieser mittleren Luminanzen Luminanzinformationen, wie etwa eine Luminanzdifferenz zwischen einem zentralen Abschnitt und einem peripheren Abschnitt des Rahmenbildes und einen zentralen Luminanzwert. Die Luminanzinformationen, die in der Luminanzinformationserfassungseinheit 1602 erfasst werden, werden an die Szenebestimmungseinheit 1107 ausgegeben.
  • Die Chrominanzinformationserfassungseinheit 1603 führt eine Chrominanzerfassungsverarbeitung bezüglich des Bilddatenbildes durch, das von der Bildsignalverarbeitungseinheit 1103 ausgegeben wird, um Chrominanzinformationen zu erfassen, wie etwa eine mittlere Chrominanz und das Gebiet eines Bereichs einer hohen Chrominanz. Die Chrominanzinformationen, die in der Chrominanzinformationserfassungseinheit 1603 erfasst werden, werden an die Szenebestimmungseinheit 1107 ausgegeben.
  • Die Szenebestimmungseinheit 1107 bestimmt einen Hintergrund und ein Objekt in der Photographierszene von dem Bilddatenbild, das in der Signalverarbeitungseinheit 1103 verarbeitet wird, basierend auf jeder der Informationen, die von der Gesichtsinformationserfassungseinheit 1601, der Luminanzinformationserfassungseinheit 1602 und der Chrominanzinformationserfassungseinheit 1603 eingegeben wird. Es sei angemerkt, dass jede der von der Gesichtsinformationsbestimmungseinheit 1601, der Luminanzinformationserfassungseinheit 1602 und der Chrominanzinformationserfassungseinheit 1603 gesendeten Informationen vorübergehend durch die Szenebestimmungseinheit 1107 gespeichert werden und nach Bedarf aktualisiert werden.
  • Als Nächstes wird eine Operation zum Bestimmen der Photographierszene in der Bildaufnahmevorrichtung gemäß dem vorliegenden Ausführungsbeispiel beschrieben.
  • Die Szenebestimmungseinheit 1107 bestimmt den Hintergrund der Photographieszene in einem Bildsignal für die Live-Ansicht, die von dem Bildsensor 1102 ausgegeben wird, unter Verwendung der Luminanzinformationen, die in der Luminanzerfassungseinheit 1602 erfasst werden, und der Chrominanzinformationen, die in der Chrominanzinformationserfassungseinheit 1603 erfasst werden. Die Szenebestimmungseinheit 1107 bestimmt weiterhin ein Objekt in der Photographierszene unter Verwendung der Gesichtsinformationen, die in der Gesichtserfassungseinheit 1601 erfasst werden.
  • Zuerst wird eine Bestimmung des Hintergrundes der Photographierszene beschrieben.
  • Die Szenebestimmungseinheit 1107 analysiert die Luminanzinformationen, die in der Luminanzerfassungseinheit 1602 erfasst werden, und die Chrominanzinformationen, die in der Chrominanzinformationserfassungseinheit 1603 erfasst werden, und bestimmt, ob das Gebiet eines Bereichs mit einer Farbe eines blauen Himmels auf dem Bild gleich oder mehr als ein Schwellenwert ist. Wenn das Gebiet des Bereichs mit der Farbe eines blauen Himmels gleich oder mehr als der Schwellenwert ist, bestimmt die Szenebestimmungseinheit 1107, dass der Hintergrund der Photographierszene ein blauer Himmel ist. Die Szenebestimmungseinheit 1107 analysiert ebenso die Luminanzinformationen von der Luminanzerfassungseinheit 1602 und die Chrominanzinformationen von der Chrominanzinformationserfassungseinheit 1603. Als ein Ergebnis, wenn die Szenebestimmungseinheit 1107 bestimmt, dass die Luminanz auf dem Bild eine spezifizierte Histogrammverteilung oder Varianzbedingung erfüllt, wird bestimmt, dass der Hintergrund der Photographierszene eine Nachtansicht ist. Zum Beispiel wird die Luminanz eines Bildes in einer dunklen Szene, wie etwa einer Nachtansicht, meistens durch einen Abschnitt mit niedriger Luminanz eingenommen, wobei ein Abschnitt mit hoher Luminanz einzeln gefunden wird. Die Szenebestimmungseinheit 1107 analysiert ebenso die Luminanzinformationen von der Luminanzerfassungseinheit 1602 und die Chrominanzinformationen von der Chrominanzinformationserfassungseinheit 1603 und bestimmt, ob sowohl die mittlere Chrominanz als auch das Gebiet des Bereichs mit hoher Chrominanz auf dem Bild gleich oder mehr als die Schwellenwerte sind. Wenn diese Werte gleich oder mehr als die Schwellenwerte sind, bestimmt die Szenebestimmungseinheit 1107, dass die Photographierszene eine scharfe Szene ist.
  • Eine Operation zum Bestimmen eines Objekts in der Photographierszene wird als Nächstes beschrieben.
  • Die Szenebestimmungseinheit 1107 analysiert die Gesichtsinformationen von der Gesichtserfassungseinheit 1601. Wenn ein Gesicht von dem Bildsignal erfasst wurde, bestimmt die Szenebestimmungseinheit 1107, dass das Objekt in der Photographierszene eine Person ist.
  • Die Szenebestimmungseinheit 1107 bestimmt sowohl den Hintergrund als auch das Objekt der Szene, wie vorstehend beschrieben, kombiniert diese Bestimmungsergebnisse und gibt ein kombiniertes Bestimmungsergebnis an die Systemsteuerungseinheit 1108 aus.
  • Als Nächstes wird eine detaillierte Operation in der AF-Evaluierungsbetriebsart in der Bildaufnahmevorrichtung gemäß dem vorliegenden Ausführungsbeispiel mit Bezug auf das Ablaufdiagramm von 17 beschrieben. Zur Beschreibung der detaillierten Operation des vorliegenden Ausführungsbeispiels wird ein Gesichtsinformationserfassungswert, der von einem Bild für eine Live-Ansicht erfasst wird, als X1 definiert, ein Luminanzinformationserfassungswert wird als Y1 definiert und ein Chrominanzinformationserfassungswert wird als Z1 definiert. Nur die Operationsaspekte, die von dem vierten Ausführungsbeispiel verschieden sind, werden beschrieben.
  • Die Szenebestimmungseinheit 1107 vergleicht die Erfassungswerte von jeder erfassten Information mit entsprechenden erwarteten Werten: Gesichtsinformation X; Luminanzinformation Y und Chrominanzinformation Z, und wählt einen AF-Evaluierungswert AF_Kα oder AF_Kβ, wie in 18 dargstellt ist, aus. Gemäß dem Auswahlergebnis wird eine Abzweigung in Schritt S1702 bestimmt.
  • In Schritt S1701 erfassen die Gesichtserfassungseinheit 1601, die Luminanzerfassungseinheit 1602 und die Chrominanzinformationserfassungseinheit 1603 Gesichtsinformationen XI, Luminanzinformationen Y1 und Chrominanzinformationen Z1 von einem erhaltenen Bild für eine Live-Ansicht. In S1702 wird ein Bildaufnahmeevaluierungswert, der auf einer nachfolgenden Photographie widerzuspiegeln ist, wie in der Tabelle von 18 gezeigt ist, von jedem der Informationswerte, die von dem Bild für eine Bildaufnahmeevaluierungswerterfassung und dem Bild für eine Live-Ansicht erfasst werden, durch die Szenebestimmungseinheit 1107 in Schritt S1701 bestimmt.
  • Zum Beispiel wird angenommen, dass die entsprechenden Informationswerte in einer Beziehung stehen, wie es nachstehend in einem Beispiel gezeigt ist: Gesichtinformationswert: X1>X
    Figure DE102013227163B4_0007
    Luminanzinformationswert: Y1>Y
    Figure DE102013227163B4_0008
    Chrominanzinformationswert: Z1>Z
    Figure DE102013227163B4_0009
  • In diesem Fall wird in Schritt S1702 eine AF-Evaluierungswerterfassungsbildaufnahme gestartet (das heißt zweigt zu JA ab), so dass die Operation zu Schritt S1508 übergeht, und die Systemsteuerungseinheit 1108 erhöht die Variable n um 1 (Schritt S1509). Die nachfolgende Verarbeitung ist die gleiche wie die des vierten Ausführungsbeispiels.
  • In einem anderen Beispiel wird angenommen, dass die entsprechenden Informationswerte in einer Beziehung stehen, wie nachstehend gezeigt ist: Gesichtinformationswert: X1 X
    Figure DE102013227163B4_0010
    Luminanzinformationswert: Y1 Y
    Figure DE102013227163B4_0011
    Chrominanzinformationswert: Z1 Z
    Figure DE102013227163B4_0012
  • In diesem Fall wird in Schritt S1702 eine AF-Evaluierungswerterfassungsbildaufnahme nicht gestartet (das heißt zweigt zu NEIN ab), so dass die Operation zu S1516 übergeht, um einen AF-Evaluierungswert AF_Kβ von dem aufgenommenen Bild für eine Live-Ansicht zu erfassen. Eine nachfolgende Verarbeitung ist die gleiche wie die des vierten Ausführungsbeispiels. Für eine andere Szenebestimmung wird die Beziehung, wie in 18 gezeigt ist, verwendet.
  • Wie im Vorstehenden beschrieben ist, basiert das vorliegende Ausführungsbeispiel auf der Bildaufnahmevorrichtung, die ein Bildaufnahmeelement umfasst, das dazu in der Lage ist, die Bildaufnahme für die Live-Ansicht und die Bildaufnahme für die Bildaufnahmeevaluierungswerterfassung zur gleichen Zeit während einer Rahmenperiode durchzuführen. Gemäß dem Bestimmungsergebnis der Photographierszene basierend auf den Luminanz-/Chrominanz-/Gesichtsinformationen wird das Bild zum Erfassen eines AF-Evaluierungswerts von einem des Bildes für einen AF-Evaluierungswert und des Bildes für eine Live-Ansicht ausgewählt. Folglich kann zur Zeit des Photographierens eines Objekts in einer hellen Szene eine Zeitverzögerung beim Durchführen einer AF-Evaluierung reduziert werden, während in einer dunklen Szene eine Präzision eines AF-Evaluierungswerts verbessert werden kann.
  • Außerdem werden in dem vorliegenden Ausführungsbeispiel, wenn die Szenebestimmung durchgeführt wird, die Gesichtsinformationen, die Luminanzinformationen und die Chrominanzinformationen von jedem des Bildes für eine Bildaufnahmeevaluierungswerterfassung und des Bildes für eine Live-Ansicht erfasst. Die vorliegende Erfindung ist jedoch nicht auf diese Konfiguration beschränkt. Wenn die in dem ersten Ausführungsbeispiel beschriebene Sensibilität erfasst wird und das Ergebnis davon als ein Faktor einer Szenebestimmung verwendet wird, kann die Zeitverzögerung beim Erfassen des AF-Evaluierungswerts weiter reduziert werden und die Geschwindigkeit beim Erfassen des AF-Evaluierungswerts kann weiter optimiert werden.
  • Weiterhin wird in dem vorliegenden Ausführungsbeispiel der Bildaufnahmeevaluierungswert von einem aufgenommenen Bild bestimmt, wenn zumindest zwei Informationsstücke aus den Gesichtsinformationen, den Luminanzinformationen und den Chrominanzinformationen, die zum Durchführen einer Szenebestimmung notwendig sind, große Informationswerte sind. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt. Die entsprechenden Informationswerte können gemäß dem Bildaufnahmeevaluierungswert gewichtet und verglichen werden.
  • Sechstes Ausführungsbeispiel
  • Nun wird ein sechstes Ausführungsbeispiel der vorliegenden Erfindung beschrieben. Das vorliegende Ausführungsbeispiel ist dazu konfiguriert, die Bildaufnahmeevaluierungswerterfassungseinheit 1106 nicht außerhalb des Bildsensors 1102, sondern im Inneren, wie etwa in der Pixelansteuereinheit auf dem zweiten Chip 121 von 12A, zu formen.
  • 19 ist ein Blockdiagramm des Bildsensors 1102, der eine Bildaufnahmeevaluierungswerterfassungseinheit umfasst. In 19 werden Komponentenelemente, die zu denen in 12A und 12B identisch sind, mit identischen Bezugszeichen bezeichnet.
  • In der Zeichnung ist eine Bildaufnahmeevaluierungswerterfassungseinheit 1901 dazu konfiguriert, einen Bildaufnahmeevaluierungswert, wie etwa einen AF-Evaluierungswert (Autofokusdaten), zu erfassen, und nur den erfassten Evaluierungswert an die Systemsteuerungseinheit 1106 auszugeben. Die Bildaufnahmeevaluierungswerterfassungseinheit 1901 arbeitet gemäß dem Zeitpunkt, der durch die Systemsteuerungseinheit 1108 gesteuert wird, basierend auf den Kontrastinformationen und den Phasendifferenzinformationen, die von einem Bildsignal erhalten werden, das in dem Bildaufnahmeelement 1102 erhalten wird.
  • Schalter 1902 und 1903 werden durch die Systemsteuerungseinheit 1108 gesteuert. Die Schalter 1902 und 1903 sind dazu konfiguriert, ein Bildsignal für eine Bildaufnahmeevaluierungswerterfassung und ein Bildsignal für eine Live-Ansicht basierend auf einem Bestimmungsergebnis der Szenebestimmungseinheit 1107 umzuschalten, so dass eines der Signale wahlweise in die Bildaufnahmeevaluierungswerterfassungseinheit 1901 zur Zeit des Erfassens des Bildaufnahmeevaluierungswerts eingegeben wird. Der Schalter 1902 dient zum Auswählen eines Ausgabeziels des Signals des Pixels entsprechend dem Bildaufnahmeevaluierungswert, der in 13 dargestellt ist, wobei das Ausgabeziel eine einer Signalverarbeitungseinheit 1103 und der Bildaufnahmeevaluierungswerterfassungseinheit 1901 ist. Der Schalter 1903 ist ein Schalter, der einzuschalten ist, wenn die Signale der Pixel entsprechend den Reihen, die für eine Live-Ansicht auszuwählen sind, die in 13 dargestellt ist, für den Bildaufnahmeevaluierungswert verwendet werden.
  • Eine Operation des Bildsensors von 19, wenn dieser in der Bildaufnahmevorrichtung gemäß dem vierten Ausführungsbeispiel verwendet wird, wird mit Bezug auf das Ablaufdiagramm von 15 beschrieben.
  • In Schritt S1503 wird eine AF-Operation gestartet. Wie in dem vierten Ausführungsbeispiel beschrieben ist, wenn der Live-Ansicht-Belichtungsbetrag Ev Formel (1) in Schritt S1507 erfüllt (JA), geht die Operation über zu Schritt S1508 und eine Bildaufnahme für eine AF-Evaluierungswerterfassung wird gestartet. Zu dieser Zeit ist der Schalter 1902 mit der Seite der Bildaufnahmeevaluierungswerterfassungseinheit 1901 verbunden, während der Schalter 1903 abgeschaltet ist.
  • Nachdem eine AF-Evaluierungsbildaufnahme gestartet ist, erhöht die Systemsteuerungseinheit 1108 die Variable n um 1 (Schritt S1509). Dann erfasst die Bildaufnahmeevaluierungswerterfassungseinheit 1901 einen AF-Evaluierungswert AF_Kα von dem Bild für einen AF-Evaluierungswert.
  • Wenn der Live-Ansicht-Belichtungsbetrag Ev Formel (1) in Schritt S1507 nicht erfüllt (NEIN), geht die Operation über zu S1516. In S1516 wird der Schalter 1903 eingeschaltet und die Bildaufnahmeevaluierungswerterfassungseinheit 1901 erfasst einen AF-Evaluierungswert AF_Kβ von dem Bildsignal für eine Live-Ansicht. Zu dieser Zeit ist der Schalter 1902 mit der Seite der Signalverarbeitungseinheit 1103 verbunden, aber die Operation für einen AF-Evaluierungswert wird nicht durchgeführt und so werden Pixelsignale nicht an die Signalverarbeitungseinheit ausgegeben. Außerdem, da die Bildaufnahmeevaluierungswerterfassungseinheit 1901 nur den AF-Evaluierungswert an die Systemsteuerungseinheit 1108 überträgt, kann die Menge eines Datentransfers nach außen im Vergleich mit dem vierten Ausführungsbeispiel reduziert werden, so dass ein Energieverbrauch verringert werden kann. Da die nachfolgende Operation die gleiche ist wie die Operation in dem ersten Ausführungsbeispiel wird eine Beschreibung davon weggelassen. Es sei angemerkt, dass die gleiche Operation zutrifft, wenn der Bildsensor von 1 für die Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel verwendet wird.
  • In dem vorstehend erwähnten sechsten Ausführungsbeispiel ist die Bildaufnahmeevaluierungswerterfassungseinheit in dem Bildsensor ausgestaltet, so dass die Menge eines Datentransfers zur Zeit einer Bildaufnahmeevaluierungswerterfassung in dem ersten und zweiten Ausführungsbeispiel reduziert werden kann. Als ein Ergebnis kann ein Energieverbrauch verringert werden.
  • Weitere Ausführungsbeispiele
  • Ausführungsbeispiele der vorliegenden Erfindung können ebenso durch einen Computer eines Systems oder einer Vorrichtung realisiert werden, der computerausführbare Anweisungen, die auf einem Speichermedium (zum Beispiel ein nichtflüchtiges computerlesbares Speichermedium) aufgezeichnet sind, ausliest und ausführt, um die Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele der vorliegenden Erfindung durchzuführen, und durch ein Verfahren, das durch den Computer des Systems oder der Vorrichtung durchgeführt wird, durch zum Beispiel Auslesen und Ausführen der computerausführbaren Anweisungen von dem Speichermedium, um die Funktionen des einen oder der mehreren der vorstehend beschriebenen Ausführungsbeispiele durchzuführen. Der Computer kann eine oder mehrere einer Zentralverarbeitungseinheit (CPU), einer Mikroprozessoreinheit (MPU), oder andere Schaltungen aufweisen und kann ein Netzwerk von separaten Computern oder separaten Computerprozessoren aufweisen. Die computerausführbaren Anweisungen können dem Computer zum Beispiel von einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann zum Beispiel eines oder mehrere einer Festplatte, eines Zufallszugriffsspeichers (RAM), eines Festwertspeichers (ROM), eines Speichers von verteilten Computersystemen, einer optischen Platte (wie etwa einer Compact-Disk (CD), einer „Digital Versatile Disk“ (DVD), oder Blue-ray Disk (BD)™), eine Flashspeichereinrichtung, eine Speicherkarte oder Ähnliches umfassen.
  • Während die vorliegende Erfindung mit Bezug auf Ausführungsbeispiele beschrieben wurde, ist zu verstehen, dass die Erfindung nicht auf die offenbarten Ausführungsbeispiele beschränkt ist.
  • Ein Bildaufnahmeelement erzeugt einen AF-Evaluierungswert, der für eine Bildaufnahme zu verwenden ist, gemäß einem Bildsignal entsprechend einem Spannungssignal, das von einer ersten Pixelgruppe unter einer Vielzahl von Pixeln erhalten wird. Das Bildaufnahmeelement gibt weiterhin ein Bildsignal entsprechend einem Spannungssignal, das von einer zweiten Pixelgruppe unter der Vielzahl von Pixel erhalten wird, als ein Live-Ansicht-Anzeigesignal für eine Bildanzeige aus. Gemäß dem AF-Evaluierungswert steuert eine Steuerungseinheit eine mechanische Optikeinheit mit einer Fokuslinse und führt eine Live-Ansicht-Anzeige auf einer Bildanzeigeeinheit gemäß dem Live-Ansicht-Anzeigesignal durch.

Claims (31)

  1. Bildaufnahmeelement (102) zum Aufnehmen eines optischen Bildes, auf das fokussiert wird, und Ausgeben eines Bildsignals entsprechend dem optischen Bild, mit: einer Vielzahl von Pixel (201), die in einer Matrix angeordnet sind, zum Ausgeben eines Spannungssignals entsprechend dem optischen Bild; und einer Umwandlungseinrichtung (211) zum Umwandeln des Spannungssignals in ein digitales Signal, um ein Bildsignal zu erhalten, einer Ausgabeeinrichtung (215-a, 215-b) zum Ausgeben eines ersten Bildsignals, das von einer ersten Pixelgruppe unter der Vielzahl von Pixeln erhalten wird, und eines zweiten Bildsignals, das von einer zweiten Pixelgruppe unter der Vielzahl von Pixeln erhalten wird; einer Steuerungsinformationserzeugungseinrichtung (1021) zum Erzeugen von Steuerungsinformationen, die für eine Bildaufnahme zu verwenden sind, gemäß dem ersten Bildsignal; und einer Umschalteinrichtung (216) zum wahlweisen Bereitstellen des ersten Bildsignals an die Steuerungsinformationserzeugungseinrichtung, wobei in einem Bildaufnahmevorbereitungszustand, bevor eine Bildaufnahme durchgeführt wird, die Umschalteinrichtung das erste Bildsignal an die Steuerungsinformationserzeugungseinrichtung bereitstellt und das zweite Bildsignal zum Erzeugen eines Anzeigebildes verwendet wird, und in einem Bildaufnahmezustand, die Umschalteinrichtung das erste Bildsignal nicht an die Steuerungsinformationserzeugungseinrichtung bereitstellt und das erste Bildsignal und das zweite Bildsignal zum Erzeugen eines Standbildes verwendet werden.
  2. Bildaufnahmeelement (102) gemäß Anspruch 1, wobei die erste Pixelgruppe Pixel von Reihen der Anordnung in der Matrix enthält, die von Reihen der Anordnung, die Pixel der zweiten Pixelgruppe enthalten, verschieden sind.
  3. Bildaufnahmeelement (102) gemäß Anspruch 1, weiterhin mit: einer ersten Elementeinrichtung (20), auf der die Vielzahl von Pixeln angeordnet sind; und einer zweiten Elementeinrichtung (21), auf der die Umwandlungseinrichtung (211), die Ausgabeeinrichtung (215-a, 215-b) und die Steuerungsinformationserzeugungseinrichtung (1021) angeordnet sind; wobei die erste Elementeinrichtung (20) und die zweite Elementeinrichtung (21) in einer gestapelten Struktur angeordnet sind, und die erste Elementeinrichtung (20) auf der Seite positioniert ist, auf der das optische Bild empfangen wird.
  4. Bildaufnahmevorrichtung, mit: einem Bildaufnahmeelement (102) gemäß einem der Ansprüche 1 bis 3; einer Steuerungseinrichtung zum Steuern, nach einem Empfang der Steuerungsinformationen, einer Bildaufnahme gemäß den Steuerungsinformationen; und einer Anzeigesteuerungseinrichtung zum Durchführen einer Live-Ansicht-Anzeige gemäß dem Bildanzeigesignal.
  5. Bildaufnahmevorrichtung gemäß Anspruch 4, weiterhin mit: einer Auslesesteuerungseinrichtung zum Auslesen der ersten Pixelgruppe bei einer ersten Rahmenrate und zum Auslesen der zweiten Pixelgruppe bei einer zweiten Rahmenrate, die niedriger als die erste Rahmenrate ist.
  6. Bildaufnahmevorrichtung gemäß Anspruch 5, wobei die Auslesesteuerungseinrichtung dazu eingerichtet ist, in sowohl einer ersten Bildaufnahmebetriebsart zum Auslesen der ersten Pixelgruppe als auch einer zweiten Bildaufnahmebetriebsart zum Auslesen der zweiten Pixelgruppe zu arbeiten.
  7. Bildaufnahmevorrichtung gemäß Anspruch 6, wobei die Auslesesteuerungseinrichtung dazu eingerichtet ist, die erste Bildaufnahmebetriebsart und die zweite Bildaufnahmebetriebsart gleichzeitig zu starten.
  8. Bildaufnahmevorrichtung gemäß Anspruch 4, wobei die Steuerungsinformationserzeugungseinrichtung dazu eingerichtet ist, als die Steuerungsinformationen einen Autofokusevaluierungswert zur Verwendung beim Durchführen einer Autofokussteuerung zu erzeugen und die Steuerungseinrichtung dazu eingerichtet ist, eine Antriebssteuerung einer Fokuslinse gemäß dem Autofokusevaluierungswert durchzuführen.
  9. Bildaufnahmevorrichtung gemäß Anspruch 6 oder Anspruch 7, wobei die Steuerungsinformationserzeugungseinrichtung dazu eingerichtet ist, als die Steuerungsinformationen einen Autofokusevaluierungswert zur Verwendung beim Durchführen einer Autofokussteuerung zu erzeugen, die Steuerungseinrichtung dazu eingerichtet ist, zu bestimmen, ob der Autofokusevaluierungswert eine vorbestimmte Evaluierungsbedingung erfüllt oder nicht, und die Auslesesteuerungseinrichtung dazu eingerichtet ist, um, wenn die Steuerungseinrichtung bestimmt, dass die Evaluierungsbedingung erfüllt wurde, die erste Bildaufnahmebetriebsart zu beenden.
  10. Bildaufnahmevorrichtung gemäß Anspruch 4, wobei die Steuerungsinformationserzeugungseinrichtung dazu eingerichtet ist, als die Steuerungsinformationen einen Weißabgleichkoeffizienten zu erzeugen, der beim Durchführen einer Weißabgleichkorrektur zu verwenden ist, und die Steuerungseinrichtung dazu eingerichtet ist, eine Korrekturverarbeitung des Bildsignals, das von dem Bildaufnahmeelement (102) ausgegeben wird, gemäß dem erzeugten Weißabgleichkoeffizienten durchzuführen.
  11. Bildaufnahmevorrichtung gemäß Anspruch 4, weiterhin mit: einer Lichtabgabeeinrichtung zum Abgeben von Licht, um ein Objekt für eine Bildaufnahme zu beleuchten, wobei die Steuerungsinformationserzeugungseinrichtung dazu eingerichtet ist, als die Steuerungsinformationen einen Lichtabgabesteuerungsbetrag zum Steuern einer Lichtabgabemenge der Lichtabgabeeinrichtung zu erzeugen, und die Steuerungseinrichtung dazu eingerichtet ist, um, wenn eine Bildaufnahme unter Verwendung der Lichtabgabeeinrichtung durchgeführt wird, die Lichtabgabeeinrichtung dazu zu bringen, eine Vorabgabe durchzuführen, um den Lichtabgabesteuerungsbetrag von der Steuerungsinformationserzeugungseinrichtung zu erhalten, und die Lichtabgabeeinrichtung dazu zu bringen, eine Hauptlichtabgabe gemäß dem Lichtabgabesteuerungsbetrag durchzuführen, um die Bildaufnahme durchzuführen.
  12. Bildaufnahmevorrichtung, mit: dem Bildaufnahmeelement (102) gemäß Anspruch 1, wobei die Steuerungsinformationserzeugungseinrichtung dazu eingerichtet ist, als die Steuerungsinformationen einen Autofokusevaluierungswert zu erzeugen, der beim Durchführen einer Autofokussteuerung zu verwenden ist; einer Steuerungseinrichtung zum Durchführen, nach einem Empfang des Autofokusevaluierungswerts, einer Antriebssteuerung einer Fokuslinse gemäß dem Autofokusevaluierungswert; und einer Anzeigesteuerungseinrichtung zum Durchführen einer Live-Ansicht-Anzeige gemäß dem Bildanzeigesignal, wobei die Steuerungseinrichtung derart eingerichtet ist, dass, wenn eine Autofokusbetriebsart zum Durchführen der Autofokussteuerung eingestellt ist, die Steuerungseinrichtung die Umschalteinrichtung steuert, um das erste Bildsignal der Steuerungsinformationserzeugungseinrichtung bereitzustellen.
  13. Bildaufnahmevorrichtung gemäß Anspruch 4, wobei die Steuerungsinformationserzeugungseinrichtung dazu eingerichtet ist, als die Steuerungsinformationen eine Standardabweichung zu erzeugen, die eine Signalschwankung darstellt, und die Steuerungseinrichtung dazu eingerichtet ist, das Bildsignal, das von dem Bildaufnahmeelement (102) ausgegeben wird, gemäß der Standardabweichung zu korrigieren.
  14. Bildaufnahmevorrichtung gemäß Anspruch 13, wobei die Steuerungseinrichtung dazu eingerichtet ist, einen Verstärkungsbetrag oder eine Belichtungsmenge anzupassen, wenn die Standardabweichung einen voreingestellten Schwellenwert übersteigt.
  15. Verfahren zum Steuern einer Bildaufnahmevorrichtung mit dem Bildaufnahmeelement (102) gemäß einem der Ansprüche 1 bis 3, wobei das Verfahren aufweist: Steuern, nach einem Empfang der Steuerungsinformationen, einer Bildaufnahme gemäß den Steuerungsinformationen; und Durchführen einer Live-Ansicht-Anzeige gemäß dem Bildanzeigesignal.
  16. Computerlesbares Speichermedium zur Verwendung in einer Bildaufnahmevorrichtung mit einem Bildaufnahmeelement (102) gemäß einem der Ansprüche 1 bis 3, wobei das computerlesbare Speichermedium ein Programm speichert, um einen Computer, der in der Bildaufnahmevorrichtung enthalten ist, zu veranlassen, ein Verfahren zum Steuern einer Bildaufnahmevorrichtung gemäß Anspruch 15 auszuführen.
  17. Bildaufnahmevorrichtung (1100) mit einem optischen System, das ein optisches Bild eines Objekts formt und das optische Bild aufnimmt, um ein Bildsignal zu erzeugen, mit: einem Bildaufnahmeelement (1102) mit einer ersten Elementeinrichtung mit einer Pixeleinheit mit Pixeln, die in einer Matrix angeordnet sind, wobei die Pixel eingerichtet sind, um das optische Bild photoelektrisch umzuwandeln, um ein Bildsignal zu erzeugen, und einer zweiten Elementeinrichtung mit einer Ausleseeinrichtung zum Auslesen des Bildsignals von der Pixeleinheit, wobei die Ausleseeinrichtung eine erste Ausleseeinrichtung zum Auslesen des Bildsignals von einer ersten Pixelgruppe der Pixeleinheit und eine zweite Ausleseeinrichtung zum Auslesen des Bildsignals von einer zweiten Pixelgruppe der Pixeleinheit umfasst; einer Bildaufnahmebedingungsbestimmungseinrichtung zum Erhalten, von dem Bildsignal, das von dem Bildaufnahmeelement (102) ausgegeben wird, von Informationen mit Bezug auf eine Bildaufnahmebedingung des optischen Bildes und Bestimmen der Bildaufnahmebedingung unter Verwendung der erhaltenen Informationen; und einer Bildaufnahmeevaluierungswerterfassungseinrichtung (1106) zum Erfassen, von einem der Bildsignale, die durch die erste Ausleseeinrichtung und die zweite Ausleseeinrichtung ausgelesen werden, eines Bildaufnahmeevaluierungswerts mit Bezug auf eine Bildaufnahme des optischen Bildes basierend auf dem Ergebnis der Bestimmung durch die Bildaufnahmebedingungsbestimmungseinrichtung.
  18. Bildaufnahmevorrichtung (1100) gemäß Anspruch 17, wobei die Informationen mit Bezug auf die Bildaufnahmebedingung eine Belichtungsmenge für eine Bildaufnahme des optischen Bildes ist, und die Bildaufnahmebedingungsbestimmungseinrichtung dazu eingerichtet ist, den Belichtungsbetrag mit einem spezifizierten Belichtungsbetrag zu vergleichen, um die Bedingung zu bestimmen.
  19. Bildaufnahmevorrichtung (1100) gemäß Anspruch 17, wobei die Bildaufnahmebedingungsbestimmungseinrichtung umfasst: eine Luminanzinformationserfassungseinrichtung (1602) zum Erfassen von Luminanzinformationen des Bildsignals, das von dem Bildaufnahmeelement ausgegeben wird; eine Chrominanzinformationserfassungseinrichtung (1603) zum Erfassen von Chrominanzinformationen des Bildsignals, das von dem Bildaufnahmeelement ausgegeben wird; und eine Gesichtsinformationserfassungseinrichtung (1601) zum Erfassen von Gesichtsinformationen einer photographierten Person basierend auf dem Bildsignal, das von dem Bildaufnahmeelement ausgegeben wird, und wobei die Bildaufnahmebedingungsbestimmungseinrichtung dazu eingerichtet ist, die Bestimmung der Bildaufnahmebedingung basierend auf den Luminanzinformationen, den Chrominanzinformationen und den Gesichtsinformationen vorzunehmen.
  20. Bildaufnahmevorrichtung (1100) gemäß Anspruch 17, weiterhin mit einer Steuerungsvorrichtung zum Steuern der Ausleseeinrichtung, wobei die Steuerungseinrichtung dazu eingerichtet ist, zumindest eine der ersten Ausleseeinrichtung und der zweiten Ausleseeinrichtung bei einer vorbestimmten Rahmenrate basierend auf der bestimmten Bildaufnahmebedingung anzusteuern.
  21. Bildaufnahmevorrichtung (1100) gemäß Anspruch 20, wobei die Rahmenrate eines Pixelsignals, das von der zweiten Pixelgruppe ausgelesen wird, niedriger ist als die Rahmenrate eines Pixelsignals, das von der ersten Pixelgruppe ausgelesen wird.
  22. Bildaufnahmevorrichtung (1100) gemäß Anspruch 17, wobei die Bildaufnahmeevaluierungswerterfassungseinrichtung dazu eingerichtet ist, zumindest eines von Autofokusdaten, Belichtungssteuerungsdaten und Weißabgleichdaten zu erfassen.
  23. Bildaufnahmevorrichtung (1100) gemäß Anspruch 22, wobei die Steuerungseinrichtung dazu eingerichtet ist, weiterhin ein Ansteuern des photographischen optischen Systems gemäß dem Bildaufnahmeevaluierungswert, der durch die Bildaufnahmeevaluierungswerterfassungseinrichtung erfasst wird, zu steuern.
  24. Bildaufnahmevorrichtung (1100) gemäß Anspruch 22, wobei die Steuerungseinrichtung dazu eingerichtet ist, weiterhin eine Belichtung des photographischen optischen Systems gemäß dem Bildaufnahmeevaluierungswert, der durch die Bildaufnahmeevaluierungswerterfassungseinrichtung erfasst wird, zu steuern.
  25. Bildaufnahmevorrichtung (1100) gemäß Anspruch 22, wobei die Steuerungseinrichtung dazu eingerichtet ist, einen Weißabgleich des Bildsignals gemäß dem Bildaufnahmeevaluierungswert, der durch die Bildaufnahmeevaluierungswerterfassungseinrichtung erfasst wird, zu steuern.
  26. Bildaufnahmevorrichtung (1100) gemäß einem der Ansprüche 17 bis 25, wobei die Bildaufnahmeevaluierungswerterfassungseinrichtung in der zweiten Elementeinrichtung bereitgestellt ist, und wobei die zweite Elementeinrichtung weiterhin einen Schalter, der dazu konfiguriert ist, die Bildsignale, die von der ersten Ausleseeinrichtung und der zweiten Ausleseeinrichtung ausgelesen werden, wahlweise in die Bildaufnahmeevaluierungswertbestimmungseinrichtung einzugeben, und eine Umwandlungseinrichtung zum Umwandeln der Bildsignale in digitale Signale aufweist.
  27. Bildaufnahmevorrichtung (1100) gemäß Anspruch 26, wobei die Steuerungseinrichtung dazu eingerichtet ist, den Schalter gemäß der bestimmten Bildaufnahmebedingung zu steuern.
  28. Bildaufnahmevorrichtung (1100) gemäß Anspruch 17, wobei die erste Pixelgruppe und die zweite Pixelgruppe Pixel in unterschiedlichen Reihen der Pixeleinheit umfassen.
  29. Bildaufnahmevorrichtung (1100) gemäß Anspruch 17, wobei die erste Elementeinrichtung und die zweite Elementeinrichtung geschichtet sind, und die erste Elementeinrichtung auf einer Seite positioniert ist, auf der das optische Bild empfangen wird.
  30. Verfahren zum Steuern einer Bildaufnahmevorrichtung (1100) mit einem photographischen optischen System, das dazu konfiguriert ist, ein optisches Bild eines Objekts zu formen, und einem Bildaufnahmeelement, das dazu konfiguriert ist, das optische Bild aufzunehmen, um ein Bildsignal zu erzeugen, wobei das Bildaufnahmeelement eine erste Elementeinrichtung mit einer Pixeleinheit mit Pixeln, die in einer Matrixform angeordnet sind, um photoelektrisch das optische Bild umzuwandeln, um ein Bildsignal zu erzeugen, und eine zweite Elementeinrichtung, die mit einer Ausleseeinrichtung zum Auslesen des Bildsignals von der Pixeleinheit bereitgestellt ist, umfasst, wobei die Ausleseeinrichtung eine erste Ausleseeinrichtung zum Auslesen eines Bildsignals von einer ersten Pixelgruppe der Pixeleinheit und eine zweite Ausleseeinrichtung zum Auslesen eines Bildsignals von einer zweiten Pixelgruppe der Pixeleinheit umfasst, wobei das Verfahren aufweist: Erhalten, von dem Bildsignal, das von dem Bildaufnahmeelement ausgegeben wird, von Informationen mit Bezug auf eine Bildaufnahmebedingung des optischen Bildes und Bestimmen der Bildaufnahmebedingung unter Verwendung der Informationen; und Erfassen, von einem der Bildsignale, die durch die erste Ausleseeinrichtung und die zweite Ausleseeinrichtung ausgelesen werden, eines Bildaufnahmeevaluierungswerts mit Bezug auf eine Bildaufnahme des optischen Bildes basierend auf der bestimmten Bedingung.
  31. Computerlesbares Speichermedium, das ein Programm speichert, um einen Computer zu veranlassen, eine Bildaufnahmevorrichtung (1100) zu steuern, um das Verfahren gemäß Anspruch 30 durchzuführen.
DE102013227163.8A 2012-12-28 2013-12-27 Bildaufnahmeelement, bildaufnahmevorrichtung und verfahren und programm zum steuern von diesen Active DE102013227163B4 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012288036 2012-12-28
JP2012-288036 2012-12-28
JP2013-137031 2013-06-28
JP2013136083A JP2014143667A (ja) 2012-12-28 2013-06-28 撮像素子、撮像装置、その制御方法、および制御プログラム
JP2013137031A JP6346417B2 (ja) 2013-06-28 2013-06-28 撮像装置、その制御方法および制御プログラム
JP2013-136083 2013-06-28

Publications (2)

Publication Number Publication Date
DE102013227163A1 DE102013227163A1 (de) 2014-07-24
DE102013227163B4 true DE102013227163B4 (de) 2019-12-05

Family

ID=50114652

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013227163.8A Active DE102013227163B4 (de) 2012-12-28 2013-12-27 Bildaufnahmeelement, bildaufnahmevorrichtung und verfahren und programm zum steuern von diesen

Country Status (4)

Country Link
US (1) US9609223B2 (de)
CN (1) CN103916575B (de)
DE (1) DE102013227163B4 (de)
GB (2) GB2511405B (de)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5853594B2 (ja) * 2011-10-31 2016-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102014223858B4 (de) 2013-11-25 2021-09-23 Canon Kabushiki Kaisha Bildaufnahmevorrichtung und Bildsignalsteuerverfahren
US10110826B2 (en) * 2014-02-25 2018-10-23 Sony Corporation Imaging with adjustment of angle of view
TWI648986B (zh) * 2014-04-15 2019-01-21 日商新力股份有限公司 攝像元件、電子機器
KR20160032587A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 영상 촬영 장치 및 이의 촬영 방법
KR102197083B1 (ko) * 2014-12-18 2020-12-31 엘지이노텍 주식회사 카메라 모듈 및 이의 이미지 센싱 방법과, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
US10070088B2 (en) 2015-01-05 2018-09-04 Canon Kabushiki Kaisha Image sensor and image capturing apparatus for simultaneously performing focus detection and image generation
JP6218799B2 (ja) 2015-01-05 2017-10-25 キヤノン株式会社 撮像素子及び撮像装置
US10148890B2 (en) * 2015-05-01 2018-12-04 Olympus Corporation Image pickup apparatus and method for controlling the same to prevent display of a through image from being stopped when a shutter unit is not completely opened
US10129477B2 (en) * 2015-08-19 2018-11-13 Google Llc Smart image sensor having integrated memory and processor
CN105303404A (zh) * 2015-10-23 2016-02-03 北京慧辰资道资讯股份有限公司 一种快速识别用户兴趣点的方法
JP2017142356A (ja) * 2016-02-10 2017-08-17 ソニー株式会社 撮像装置、および、撮像装置の制御方法
US9876957B2 (en) * 2016-06-21 2018-01-23 Hand Held Products, Inc. Dual mode image sensor and method of using same
US10291865B2 (en) * 2016-11-03 2019-05-14 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for improving frame rate in infrared sensor systems
US11044411B2 (en) * 2017-02-10 2021-06-22 Canon Kabushiki Kaisha Imaging element and imaging apparatus
JP7064322B2 (ja) * 2017-12-06 2022-05-10 キヤノン株式会社 電子機器およびその制御方法、ならびに撮像素子

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1227662A2 (de) 2001-01-29 2002-07-31 Konica Corporation Bildaufnahmegerät
US20080291311A1 (en) 2007-04-11 2008-11-27 Nikon Corporation Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
US20090086084A1 (en) 2007-10-01 2009-04-02 Nikon Corporation Solid-state image device
JP2009089105A (ja) * 2007-10-01 2009-04-23 Nikon Corp 固体撮像装置及びこれを用いた電子カメラ
JP2009290613A (ja) 2008-05-29 2009-12-10 Sharp Corp 固体撮像装置およびその駆動方法、並びに電子情報機器
JP2011103335A (ja) 2009-11-10 2011-05-26 Fujifilm Corp 撮像素子及び撮像装置
US20120194719A1 (en) 2011-02-01 2012-08-02 Scott Churchwell Image sensor units with stacked image sensors and image processors

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7989745B2 (en) * 2007-10-01 2011-08-02 Nikon Corporation Solid-state imaging device with focus detection and electronic camera with focus adjustment
JP5092685B2 (ja) * 2007-10-23 2012-12-05 株式会社ニコン 撮像素子および撮像装置
JP5014168B2 (ja) * 2008-01-15 2012-08-29 キヤノン株式会社 撮像システム及び撮像システムの制御方法
US8264565B2 (en) * 2008-02-06 2012-09-11 Panasonic Corporation Image processing device and image processing method
JP5200955B2 (ja) 2008-02-14 2013-06-05 株式会社ニコン 画像処理装置、撮像装置及び画像処理プログラム
KR101747304B1 (ko) * 2011-05-30 2017-06-14 삼성전자주식회사 디지털 촬영 장치, 오토포커싱 방법, 및 이를 실행하기 위한 컴퓨터 판독가능 저장매체
JP2013090305A (ja) * 2011-10-21 2013-05-13 Sony Corp 比較器、ad変換器、固体撮像装置、およびカメラシステム
US9185307B2 (en) * 2012-02-21 2015-11-10 Semiconductor Components Industries, Llc Detecting transient signals using stacked-chip imaging systems
US9191566B2 (en) * 2012-03-30 2015-11-17 Samsung Electronics Co., Ltd. Image pickup apparatus, method for image pickup and computer-readable recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1227662A2 (de) 2001-01-29 2002-07-31 Konica Corporation Bildaufnahmegerät
US20080291311A1 (en) 2007-04-11 2008-11-27 Nikon Corporation Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
US20090086084A1 (en) 2007-10-01 2009-04-02 Nikon Corporation Solid-state image device
JP2009089105A (ja) * 2007-10-01 2009-04-23 Nikon Corp 固体撮像装置及びこれを用いた電子カメラ
JP2009290613A (ja) 2008-05-29 2009-12-10 Sharp Corp 固体撮像装置およびその駆動方法、並びに電子情報機器
JP2011103335A (ja) 2009-11-10 2011-05-26 Fujifilm Corp 撮像素子及び撮像装置
US20120194719A1 (en) 2011-02-01 2012-08-02 Scott Churchwell Image sensor units with stacked image sensors and image processors

Also Published As

Publication number Publication date
US20140184866A1 (en) 2014-07-03
GB2529575A (en) 2016-02-24
DE102013227163A1 (de) 2014-07-24
GB2529575B (en) 2016-09-07
GB201322878D0 (en) 2014-02-12
CN103916575A (zh) 2014-07-09
GB2511405B (en) 2016-01-27
GB2511405A (en) 2014-09-03
CN103916575B (zh) 2018-06-19
GB201519148D0 (en) 2015-12-16
US9609223B2 (en) 2017-03-28

Similar Documents

Publication Publication Date Title
DE102013227163B4 (de) Bildaufnahmeelement, bildaufnahmevorrichtung und verfahren und programm zum steuern von diesen
US9917998B2 (en) Systems and methods for measuring scene information while capturing images using array cameras
US9118883B2 (en) High dynamic range imaging with multi-storage pixels
JP4791331B2 (ja) 撮像装置及び露出制御方法
DE102016109179B4 (de) Bildaufnahmeeinrichtung und Bildgebungsvorrichtung
JP6580118B2 (ja) 撮像素子および撮像装置
US11553144B2 (en) Imaging unit, imaging apparatus, and computer-readable medium having stored thereon a control program
US11290648B2 (en) Image capture apparatus and control method thereof
DE112018004287T5 (de) Bildsensor und Bildaufnahmegerät
DE102014223858B4 (de) Bildaufnahmevorrichtung und Bildsignalsteuerverfahren
CN110278375B (zh) 图像处理方法、装置、存储介质及电子设备
JP6929106B2 (ja) 撮像装置及び撮像装置の制御方法
CN110266965B (zh) 图像处理方法、装置、存储介质及电子设备
DE112017005810T5 (de) Bildaufnahmevorrichtung und Steuerverfahren dafür
JP2008083243A (ja) 撮影装置及び露出制御方法
JP6346417B2 (ja) 撮像装置、その制御方法および制御プログラム
JPWO2017170717A1 (ja) 撮像装置、焦点調節装置、および電子機器
DE102012216800A1 (de) Bildgebungsvorrichtung und Verfahren zur Steuerung von dieser
KR101757655B1 (ko) 촬상소자, 촬상장치, 그 제어 방법, 및 기억매체
JP5803873B2 (ja) 露出装置、露出方法、およびプログラム
US11375113B2 (en) Imaging element, and imaging apparatus which changes frame rate of output image data based on derived focus evaluation value
JP2022167973A (ja) 再生装置
JP2010232909A (ja) 撮像装置及びその駆動制御方法
JPWO2019216072A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017192048A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: TBK, DE

R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102013022605

Country of ref document: DE

R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000