DE69929405T2 - Halbleiterbildaufnahmevorrichtung mit zur Fokusmessung und / oder zur Lichtstärkemessung bestimmten Wandlerzellen - Google Patents

Halbleiterbildaufnahmevorrichtung mit zur Fokusmessung und / oder zur Lichtstärkemessung bestimmten Wandlerzellen Download PDF

Info

Publication number
DE69929405T2
DE69929405T2 DE69929405T DE69929405T DE69929405T2 DE 69929405 T2 DE69929405 T2 DE 69929405T2 DE 69929405 T DE69929405 T DE 69929405T DE 69929405 T DE69929405 T DE 69929405T DE 69929405 T2 DE69929405 T2 DE 69929405T2
Authority
DE
Germany
Prior art keywords
photoelectric conversion
image
image pickup
cells
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69929405T
Other languages
English (en)
Other versions
DE69929405D1 (de
Inventor
Kenichi Ohta-ku Kondo
Yukichi Ohta-ku Niwa
Shinji Ohta-ku Sakai
Yoshihiro Ohta-ku Saga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE69929405D1 publication Critical patent/DE69929405D1/de
Application granted granted Critical
Publication of DE69929405T2 publication Critical patent/DE69929405T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N3/00Scanning details of television systems; Combination thereof with generation of supply voltages
    • H04N3/10Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical
    • H04N3/14Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices
    • H04N3/15Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices for picture signal generation
    • H04N3/155Control of the image-sensor operation, e.g. image processing within the image-sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/706Pixels for exposure or ambient light measuring

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Festkörper-Bildaufnahmevorrichtung, ein Steuerungsverfahren dafür, eine Bildaufnahmevorrichtung, die grundlegende Anordnung einer fotoelektrischen Umwandlungszelle, und ein Speichermedium.
  • Beschreibung des Standes der Technik
  • Seit einigen Jahren nimmt das Bedürfnis für die Verarbeitung von Bildern in Computern schlagartig zu. Um diesem nachzukommen, sind heute viele Digitalkameras zum Aufnehmen eines Bildes in einen Computer erhältlich. Zusammen mit der Entwicklung derartiger Digitalkameras besteht die Tendenz, dass digitale Fotoapparate zur Verarbeitung unbewegter Bilder bzw. Fotos in der Anzahl der Bildelemente bzw. Pixel zunehmen. Kameras mit einem Bildaufnahmeelement von 800.000 Pixel (XGA-Klasse) sind verbreitet, während übliche Bewegtbild- (Videofilm-) Kameras ein Bildaufnahmeelement von 250.000 bis 400.000 Pixel aufweisen. Des Weiteren werden Kameras mit 1.000.000 Pixel bis 1.500.000 Pixel gängig. Für gehobene Geräte einer Art mit auswechselbarem Objektiv sind Kameras handelsüblich, die ein Megapixel-Bildaufnahmeelement mit 2.000.000 Pixel, 4.000.000 Pixel, oder 6.000.000 Pixel verwenden.
  • In der Videofilmkamera wird das Kamerafotografiesystem, wie der AF und der AE einer Kamera, durch Verwendung von Ausgabesignalen gesteuert, die nacheinander aus einem Bildaufnahmeelement mit einer Videorate ausgegeben werden. Ein AF wendet zu diesem Zweck TV-AF (Bergsteige- bzw. "hill climbing"-Verfahren oder Kontrastverfahren) an.
  • Im Gegensatz dazu wendet der digitale Fotoapparat abhängig von der Anzahl von Pixel und dem Betriebsverfahren der Kamera verschiedene Verfahren an. In den meisten digitalen Fotoapparaten einer in der Videofilmkamera verwendeten 250.000- oder 400.000-Pixel-Klasse werden im Allgemeinen sich wiederholende Auslesesignale (Bilder) von einem Sensor auf einer auf der Kamera angebrachten Farb-Flüssigkristallanzeige (eine TFT-Flüssigkristallanzeige von etwa 2 Zoll wird in letzter Zeit häufig verwendet) angezeigt (nachfolgend als eine Sucher-Betriebsart oder EVF-Betriebsart bezeichnet). Der digitale Fotoapparat arbeitet somit im Wesentlichen ähnlich der Videofilmkamera, und verwendet das gleiche Verfahren wie die Videofilmkamera.
  • In einem digitalen Fotoapparat mit einem Bildaufnahmeelement einer 800.000-Pixel-Klasse oder mehr (nachfolgend als ein Megapixel-Digital-Fotoapparat bezeichnet) indes arbeitet das Bildaufnahmeelement in der Sucher-Betriebsart gemäß einem Ansteuerungsverfahren zum, so viel wie möglich, Ausdünnen bzw. Dezimieren von Signalen, mit Ausnahme derjenigen von Signalreihen oder Pixeln, die zur Anzeige auf der Flüssigkristallanzeige notwendig sind, um die Sucherrate zu erhöhen (in die Nähe der Videorate).
  • In einem hochwertigen digitalen Fotoapparat mit 1.000.000 Pixel oder mehr muss die Zeit vom Niederdrücken eines Auslöseschalters bis zum Fotografieren kurz sein, um dem Bedürfnis nach unverzögertem Fotografieren eines Fotos nachzukommen, ähnlich wie bei einer Silberhalogenid-Kamera.
  • Aus diesen Gründen wendet der Megapixel-Digital-Fotoapparat verschiedene AF- und AE-Verfahren wie folgt an.
  • (1) AF
    • (a) Der digitale Fotoapparat setzt zusätzlich zum Bildaufnahmeelement einen AF-Sensor ein. Der AF-Sensor ist von einer Phasendifferenz-Art, Kontrast-Art, Entfernungsmesser-Art, Aktiv-Art, wie bei der Silberhalogenid-Kamera.
    • (b) Der digitale Fotoapparat verwendet eine Ausgabe von dem Bildaufnahmeelement selbst. In diesem Fall ist das Bildaufnahmeelement von einer Bergsteige-Art oder Phasendifferenz-Art unter Verwendung eines Signals von nur einem bestimmten Bereich des Bildaufnahmeelements (Signale von diesem Bereich werden nicht ausgedünnt), weil für ein Lesen von allen Pixeln des Bildaufnahmeelements viel Zeit notwendig ist, und zur Entfernungsmessung nicht die Information von allen Pixeln benötigt wird.
  • (2) AE
    • (a) Der digitale Fotoapparat setzt zusätzlich zum Bildaufnahmeelement einen AE-Sensor ein.
    • (b) Der digitale Fotoapparat verwendet eine Ausgabe von dem Bildaufnahmeelement selbst.
  • Der herkömmliche Megapixel-Digital-Fotoapparat erleidet jedoch die folgenden Probleme.
  • In Bezug auf AF erfordert der digitale Fotoapparat, der zusätzlich zu dem Bildaufnahmeelement einen AF-Sensor aufweist, ein Linsensystem zum Bilden eines Bildes auf dem Sensor, und eine Vorrichtung zum Realisieren eines entsprechenden AF-Verfahrens (beispielsweise erfordert das Aktiv-Verfahren einen Infrarotgenerator, eine Projektionslinse, einen Licht empfangenden Sensor, eine Licht empfangende Linse, und eine Infrarot-Projektions-Bewegungsvorrichtung, und das Phasendifferenz-Verfahren erfordert eine Abbildungslinse für einen Entfernungsmessungssensor und eine Glaslinse zum Hervorrufen einer Phasendifferenz). Dies erhöht die Größe und die Kosten der Kamera. Weiterhin unterliegt ein AF unter Verwendung des Bildaufnahmeelements selbst vielen Fehlerfaktoren, wie beispielsweise dem Pfadunterschied zwischen einem optischen System für das Bildaufnahmeelement und einem optischen System für den AF-Sensor, einem Fertigungsfehler bei Formteilen zum Bilden dieser jeweiligen optischen Systeme, und einem durch Temperaturausdehnung verursachten Fehler. Diese Fehlerkomponenten sind in dem digitalen Fotoapparat der Art mit auswechselbarem Objektiv größer als in einem digitalen Fotoapparat einer Art mit festem Objektiv.
  • Unter Anbetracht dieser Situation hat sich ein Bedarf an einem digitalen Fotoapparat einer anderen AF-Art ergeben, der eine Ausgabe von dem Bildaufnahmeelement selbst verwendet. Von den AF-Verfahren ist das Bergsteigeverfahren aufgrund einer langen Fokussierungszeit unvorteilhaft. Der gegenwärtige Anmelder schlägt ein Verfahren vor zum Anordnen einer Vorrichtung zum Bewegen von Pupillenpositionen zu um die optische Achse symmetrischen Positionen in einem Linsensystem zum Bilden eines Bildes auf einem Bildaufnahmeelement, und Berechnen des Unschärfebetrags aus der Phasendifferenz zwischen über die Pupillen gebildeten Bildern, dadurch Anpassen des Brennpunkts des Objektivs (Japanische Patent-Offenlegung Nr. JP-A-9-43507). Dieses Verfahren realisiert einen sehr schnellen, hochpräzisen AF (für einen AF ist die Signalauslesezeit kurz, weil Signale von mehreren bestimmten Reihen in dem Bildaufnahmeelement ausgelesen werden, wohingegen die Signale der verbleibenden Zeilen mit hoher Geschwindigkeit gelöscht werden). Dieses Verfahren erfordert jedoch eine Vorrichtung zum Bewegen der Pupillen, was zu einem großen Volumen und hohen Kosten führt.
  • Dies trifft auch auf einen AE zu, weil der digitale Fotoapparat, der zusätzlich zu dem Bildaufnahmeelement einen AE-Sensor aufweist, eine Vorrichtung für den AE-Sensor erfordert. Um Signalladungen von dem Bildaufnahmeelement selbst zu verwenden, muss aufgrund eines kleinen Dynamikumfangs des Bildaufnahmeelements das Bildaufnahmeelement mehrmals unter Ändern des Blendendurchmessers oder der Verschlussgeschwindigkeit für Fotometrie angesteuert werden. Dies verlängert die Zeit vor dem eigentlichen Fotografieren, und fortlaufendes Bewegen der Blende erhöht den Leistungsverbrauch.
  • Die europäische Patentbeschreibung Nr. EP-A-0568216 offenbart eine Festkörper-Bildaufnahmevorrichtung zum Erzeugen eines Videosignals, mit einem effektiven Pixelbereich mit einer Vielzahl von Licht empfangenden Pixeln und einem peripher zu dem effektiven Pixelbereich angeordneten optisch schwarzen Bereich, der eine Vielzahl von Pixeln mit Einrichtungen zum Abschirmen oder Filtern von Licht aufweist. Ein vorbestimmtes Pixel innerhalb des optisch schwarzen Bereichs erzeugt ein Pixelpositions-Referenzsignal mit einem Pegel, der sich von den Pegeln der Ausgabesignale der anderen Pixel innerhalb des optisch schwarzen Bereichs unterscheidet. Dieses Pixelpositions-Referenzsignal wird zusammen mit dem Videosignal ausgegeben.
  • Die US-amerikanische Patentbeschreibung Nr. US-A-4573077 offenbart eine Festkörper-Bildaufnahmevorrichtung mit einem Strahl von Pixeln, wobei jedes Pixel einen statischen Induktionsübertrager und einen an ein Gate davon geschalteten Kondensator umfasst. Es ist eine Signalleseeinrichtung zum sukzessiven Lesen von Signalen aus den Pixeln, sowohl in einer destruktiven Weise als auch nicht-destruktiven Weise, bereitgestellt. Die gelesenen Ausgaben werden integriert und einem Vergleicherschaltkreis zum Vergleichen der integrierten Werte mit einem vorbestimmten Wert zugeführt, um ein Erfassungssignal zu erzeugen.
  • Kurzbeschreibung der Erfindung
  • Die vorliegende Erfindung ist mit dem Lösen der oben genannten Probleme befasst, und ein Ausführungsbeispiel stellt eine Festkörper-Bildaufnahmevorrichtung bereit, die zum Durchführen hochpräziser Bildaufnahmeanpassung (zum Beispiel: AF und AE) fähig ist, ohne eine Kameravorrichtung hinzuzufügen oder den Leistungsverbrauch zu erhöhen, ein Steuerungsverfahren dafür, eine Bildaufnahmevorrichtung, die grundlegende Anordnung einer fotoelektrischen Umwandlungszelle, und ein Speichermedium.
  • Die vorliegende Erfindung stellt eine Festkörper-Bildaufnahmevorrichtung wie in Anspruch 1 dargelegt bereit.
  • Andere Merkmale und Vorteile neben den vorangehend diskutierten sind für den Fachmann anhand der folgenden Beschreibung eines bevorzugten Ausführungsbeispiels der Erfindung ersichtlich. In der Beschreibung wird auf die beigefügte Zeichnung Bezug genommen, die Teil der Beschreibung ist und ein Beispiel der Erfindung veranschaulicht. Ein derartiges Beispiel erhebt jedoch keinen Anspruch auf Vollständigkeit bezüglich der verschiedenen Ausführungsbeispiele der Erfindung, und deshalb wird zur Bestimmung des Rahmens der Erfindung auf die der Beschreibung folgenden Ansprüche Bezug genommen.
  • Kurzbeschreibung der Zeichnung
  • Die 1A und 1B sind Ansichten, wobei jede die grundlegende Pixelanordnung einer Festkörper-Bildaufnahmevorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 2 ist eine Ansicht, die eine ein Entfernungsmessungspixel umfassende Pixelanordnung in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • Die 3A und 3B sind jeweils eine Draufsicht und eine Schnittansicht, die die Struktur eines Pixels zum Erfassen der ersten Phase in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigen;
  • Die 4A und 4B sind jeweils eine Draufsicht und eine Schnittansicht, die die Struktur eines Pixels zum Erfassen der zweiten Phase in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigen;
  • Die 5A und 5B sind Ansichten zum Erklären des Prinzips des Erfassens einer Fokusverschiebung in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung;
  • 6 ist eine Ansicht, die eine andere, ein Entfernungsmessungspixel umfassende Pixelanordnung in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 7 ist eine Ansicht, die eine andere, ein Entfernungsmessungspixel umfassende Pixelanordnung in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 8 ist eine Ansicht, die eine andere, ein Entfernungsmessungspixel umfassende Pixelanordnung in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 9 ist eine Ansicht, die fotometrische Pixel in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 10 ist eine Ansicht, die einen Bereich mit einem Entfernungsmessungspixel in der Festkörper-Bildaufnahmevorrichtung gemäß dem Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 11 ist eine Ansicht, die die Struktur der Festkörper-Bildaufnahmevorrichtung zeigt;
  • Die 12A, 12B und 12C sind Ansichten, von denen jede die grundlegende Pixelanordnung eines allgemeinen Bereiches in der Festkörper-Bildaufnahmevorrichtung zeigt;
  • Die 13A und 13B sind Ansichten, die die Pixelstruktur der Festkörper-Bildaufnahmevorrichtung zeigen;
  • Die 14A und 14B sind Ansichten, die eine andere Pixelstruktur der Festkörper-Bildaufnahmevorrichtung zeigen;
  • 15 ist ein Zeitschaubild, das die Bildlese-Zeitablaufsteuerung der Festkörper-Bildaufnahmevorrichtung zeigt;
  • 16 ist ein Zeitschaubild, das die Entfernungsmessungs-/Fotometrie-Daten-Lese-Zeitablaufsteuerung der Festkörper-Bildaufnahmevorrichtung zeigt;
  • 17 ist eine Ansicht, die das Konzept zum Erfassen des Brennpunkts in dem ersten Ausführungsbeispiel zeigt;
  • 18 ist eine Ansicht, die das Konzept zum Erfassen des Brennpunkts in dem ersten Ausführungsbeispiel zeigt;
  • 19 ist ein Graph, der eine Bildverschiebung in dem ersten Ausführungsbeispiel zeigt;
  • 20 ist eine Ansicht, die eine Brennpunkterfassungszelle in dem ersten Ausführungsbeispiel zeigt;
  • 21 ist eine Ansicht, die eine Licht abschirmende Schicht zeigt;
  • 22 ist eine Ansicht, die die Anordnung eines Bildaufnahmeelements in dem ersten Ausführungsbeispiel zeigt;
  • 23 ist eine Ansicht, die die Anordnung eines Bildaufnahmeelements in dem zweiten Ausführungsbeispiel zeigt;
  • 24 ist eine Ansicht, die das Betriebskonzept eines Vertikaltransfer-CCD in dem zweiten Ausführungsbeispiel zeigt;
  • 25 ist ein Zeitschaubild, das einen Vertikaltransfertakt in dem zweiten Ausführungsbeispiel zeigt;
  • 26 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem zweiten und dem dritten Ausführungsbeispiel zeigt;
  • 27 ist eine Ansicht, die das Betriebskonzept des Vertikaltransfer-CCD in dem zweiten Ausführungsbeispiel zeigt;
  • 28 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem zweiten Ausführungsbeispiel zeigt;
  • 29 ist eine Ansicht, die das Betriebskonzept des Vertikaltransfer-CCD in dem zweiten Ausführungsbeispiel zeigt;
  • 30 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem zweiten Ausführungsbeispiel zeigt;
  • 31 ist eine Ansicht, die das Betriebskonzept des Vertikaltransfer-CCD in dem zweiten Ausführungsbeispiel zeigt;
  • 32 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem zweiten Ausführungsbeispiel zeigt;
  • 33 ist ein Blockschaltbild, das ein Beispiel für die Anordnung einer Bildaufnahmevorrichtung in dem vierten Ausführungsbeispiel zeigt;
  • 34 ist ein Ablaufdiagramm, das die Verarbeitung der Bildaufnahmevorrichtung in dem vierten Ausführungsbeispiel zeigt;
  • 35 ist eine Ansicht, die die Anordnung eines Bildaufnahmeelements in dem dritten Ausführungsbeispiel zeigt;
  • 36 ist eine Ansicht, die das Betriebskonzept eines Vertikaltransfer-CCD in dem dritten Ausführungsbeispiel zeigt;
  • 37 ist ein Zeitschaubild, das einen Vertikaltransfertakt in dem dritten Ausführungsbeispiel zeigt;
  • 38 ist eine Ansicht, die das Betriebskonzept des Vertikaltransfer-CCD in dem dritten Ausführungsbeispiel zeigt;
  • 39 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem dritten Ausführungsbeispiel zeigt;
  • 40 ist eine Ansicht, die das Betriebskonzept des Vertikaltransfer-CCD in dem dritten Ausführungsbeispiel zeigt;
  • 41 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem dritten Ausführungsbeispiel zeigt;
  • 42 ist eine Ansicht, die das Betriebskonzept des Vertikaltransfer-CCD in dem dritten Ausführungsbeispiel zeigt;
  • 43 ist ein Zeitschaubild, das den Vertikaltransfertakt in dem dritten Ausführungsbeispiel zeigt;
  • 44 ist ein Ablaufdiagramm, das die Verarbeitung der Bildaufnahmevorrichtung in dem vierten Ausführungsbeispiel zeigt;
  • 45 ist ein Ablaufdiagramm, das die Verarbeitung einer Bildaufnahmevorrichtung in dem fünften Ausführungsbeispiel zeigt; und
  • 46 ist ein Blockschaltbild, das ein Beispiel für die Anordnung der Bildaufnahmevorrichtung in dem fünften Ausführungsbeispiel zeigt.
  • Ausführliche Beschreibung der bevorzugten Ausführungsbeispiele
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden ausführlich mit Bezug auf die beigefügte Zeichnung beschrieben.
  • (Erstes Ausführungsbeispiel)
  • Nun wird eine grundlegende Pixelanordnung in dem ersten Ausführungsbeispiel der vorliegenden Erfindung mit Bezug auf die 1A, 1B, 12A, 12B, und 12C beschrieben. Die 1A und 1B zeigen die Pixelanordnungen eines Bildaufnahmeelements. Die 12A, 12B und 12C zeigen allgemeine Pixelanordnungen.
  • Die in den 12A, 12B und 12C gezeigten Pixelanordnungen werden nun erklärt. Jede Pixelanordnung ist die Farbanordnung eines Grundeinheit-Abschnitts in einem Flächensensor mit 2 Pixel × 2 Pixel als Grundeinheit. 12A zeigt eine Bayer-Anordnung, und 12B zeigt eine auf ein Komplementärfarbfilter angewendete Bayer-Anordnung. Die Anordnungen in den 12A und 12B werden jeweils als Primärfarben-Bayer-Anordnung und Komplementärfarben-Bayer-Anordnung bezeichnet. 12C zeigt eine Anordnung, die zusätzlich zu drei Komplementärfarben G umfasst (G-umfassende Komplementärfarben-Anordnung).
  • Eine andere bekannte Pixelanordnung ist eine Komplementärfarben-Schachbrett-Anordnung in Einheiten von 2 Pixel × 4 Pixel, und diese schachbrettartige Anordnung wird am häufigsten in einem Videofilmkamera-Sensor verwendet. Der gegenwärtige Anmelder schlägt eine Komplementärfarben-Schachbrett-Anordnung in Einheiten von 2 Pixel × 8 Pixel vor (Japanische Patent-Offenlegung Nr. 9-46715).
  • Die Farbanordnung in Einheiten von 2 Pixel × 4 Pixel oder 2 Pixel × 8 Pixel ist für einen Flächensensor vorherrschend, der ein Bewegtbild verarbeitet (nach dem Halbbildverfahren gelesenes bzw. "interlaced-scanned" Videobild). Für eine ein Foto verarbeitende Kamera kann die Farbanordnung in Einheiten von 2 Pixel × 2 Pixel die Signalverarbeitung jedoch vereinfachen und ein hochwertiges Bild erreichen. Die folgende Beschreibung wird beispielhaft einen Flächensensor mit der Farbanordnung in Einheiten von 2 Pixel × 2 Pixel darstellen, die vorliegende Erfindung kann jedoch auch auf einen Flächensensor mit der Farbanordnung in Einheiten von 2 Pixel × 4 Pixel oder 2 Pixel × 8 Pixel angewendet werden.
  • Die grundlegende Pixelanordnung in dem ersten Ausführungsbeispiel wird mit Bezug auf die 1A und 1B beschrieben. 1A zeigt eine Primärfarben-Bayer-Anordnung, und 1B zeigt eine Komplementärfarben-Bayer-Anordnung oder G-umfassende Komplementärfarben-Bayer-Anordnung.
  • Das Bezugszeichen S bezeichnet in den 1A und 1B eine funktionelle Sensorzelle zum Auslesen von Entfernungsmessungsdaten für einen AF oder fotometrischen Daten für einen AE. Durch Bilden von Pixeln, die als AF- und AE-Sensoren arbeiten, in einem Bildaufnahmeelement selbst kann der Sensor des ersten Ausführungsbeispiels eine Entfernungsmessung für einen AF der Kamera oder Fotometrie für einen AE unter Verwendung eines von dem Bildaufnahmeelement selbst ausgelesenen Signals erreichen. Dies realisiert einen hochpräzisen AF und AE.
  • Im Gegensatz zu einem herkömmlichen AE-Sensor unter Verwendung eines Signals von einem Bildaufnahmeelement selbst ist zudem die Fotometriezeit kurz. Diese Vorrichtung kann jedwede für einen zusätzlichen Sensor notwendige Vorrichtung vermeiden, und realisiert somit eine kompakte, preiswerte Kamera.
  • Nun wird ein Pixel zum Erfassen von Entfernungsmessungsdaten für einen AF und ein Flächensensor mit diesem Pixel in dem ersten Ausführungsbeispiel beschrieben.
  • Als das Bildaufnahmeelement eines Megapixel-Digital-Fotoapparates wird hauptsächlich ein Interline-CCD oder Full-Frame-CCD verwendet. Der Interline-CCD wird häufig in einer einfachen Kamera mit einem optischen System von 2/3 Zoll oder weniger verwendet, wogegen der Full-Frame-CCD häufig für eine gehobene Kamera mit einem optischen System von 1 Zoll oder mehr verwendet wird. Der größte Unterschied zwischen dem Interline-CCD und dem Full-Frame-CCD ist, dass der erstere aufgenommene Signalladungen selbst dann auslesen kann, wenn auf das Bildaufnahmeelement Licht einfällt, der letztere jedoch Signalladungen nur nach dem Schließen eines mechanischen Verschlusses auslesen kann, der an der vorderen Oberfläche des Bildaufnahmeelements angebracht ist.
  • Als eine Lösung für den Full-Frame-CCD hat der gegenwärtige Erfinder bereits einen verbesserten Full-Frame-CCD vorgeschlagen, mit einem Speicherabschnitt zum Speichern von Ladungen einer geringen Anzahl von Reihen zwischen dem Bildbereich des Full-Frame-CCD und einem horizontalen CCD, und einem Teil-Lese-Ansteuerungsverfahren für einen AF und AE, wenn der mechanische Verschluss offen ist. Der gegenwärtige Erfinder hat zudem ein Verfahren vorgeschlagen zum Auslesen von AF-/AE- Signalladungen mit hoher Geschwindigkeit von nur einem notwendigen Abschnitt in einem Bildbereich in einem Interline-CCD (d.h. ein Verfahren zum Entfernen unnötiger Signalladungen mit hoher Geschwindigkeit). Diese Vorschläge ermöglichen es dem Interline-CCD und dem (verbesserten) Full-Frame-CCD, innerhalb einer kurzen Zeit ohne wiederholten Öffnen und Schließen des mechanischen Verschlusses Signalladungen von einem in dem Bildbereich angeordneten Bereich auszulesen, der ein Entfernungsmessungs-/Fotometrie-Pixel umfasst. Ein Ausführungsbeispiel unter Verwendung des verbesserten Full-Frame-CCD wird erklärt, und die vorliegende Erfindung kann auch auf den Interline-CCD angewendet werden.
  • 11 ist eine Ansicht, die die Struktur eines verbesserten Full-Frame-CCD-Flächensensors zeigt.
  • Das Bezugszeichen 1 bezeichnet einen Bildbereich, der Pixel in m Zeilen × n Spalten aufweist (horizontale und vertikale Reihen werden jeweils als Zeilen und Spalten bezeichnet), und aus n lichtempfindlichen vertikalen CCDs besteht (V-CCDs).
  • Im Allgemeinen ist jeder V-CCD ein 2- bis 4-Phasen-Ansteuerungs- bzw. "driving" CCD, oder ein Pseudo-1-Phasen-Ansteuerungs-CCD, wie beispielsweise ein Virtuell-Phasen-CCD. ΦVI ist ein Takt zum Transfer von dem CCD in diesem Bereich. (Die Art des angelegten Taktes ändert sich abhängig von der V-CCD-Art, so dass eine Taktart an den Pseudo-1-Phasen-Ansteuerungs-CCD angelegt wird, und zwei Taktarten an 2-Phasen-Elektroden in dem 2-Phasen-Ansteuerungs-CCD angelegt werden. Dies trifft auch auf den Speicherabschnitt und den horizontalen CCD zu, und zur darstellerischen Klarheit ist nur ein Taktsignal dargestellt.)
  • Das Bezugszeichen 2 bezeichnet einen Teil-Speicherbereich zum Speichern von Signalladungen von aus den n Spalten des Bildbereichs willkürlich gewählten o Spalten. Die o Spalten können Signalladungen auf mehreren Prozent der n Spalten speichern. Somit ist eine Vergrößerung der Chip-Fläche des Bildaufnahmeelements durch den Speicherabschnitt sehr gering. ΦVS ist ein Takt zum Transfer des CCD in diesem Bereich. Dieser Bereich ist mit einer Licht abschirmenden Schicht aus Aluminium bedeckt.
  • Das Bezugszeichen 3 bezeichnet einen horizontalen CCD (H-CCD) zum Empfangen von durch den Bildbereich 1 fotoelektrisch umgewandelten Signalladungen in Zeilen-Einheiten, und Ausgeben der Signalladungen an einen Ausgabeverstärker 4. ΦS ist ein Transfertakt für den H-CCD 3.
  • Das Bezugszeichen 4 bezeichnet den Ausgabeverstärker zum Umwandeln von von dem H-CCD 3 transferierten Signalladungen von jedem Pixel in ein Spannungssignal. Der Ausgabeverstärker 4 ist im Allgemeinen ein Floating-Diffusion-Verstärker.
  • Das Bezugszeichen 5 bezeichnet ein horizontales Drain, das zwischen dem H-CCD und einem Kanal-Stopp (Drain-Barriere; nicht gezeigt) bebildet ist, um unnötige Ladungen zu entfernen. Die Signalladungen von Pixeln in einem für ein teilweises Lesen nicht notwendigen Bereich werden von dem H-CCD über den Kanal-Stopp zu dem horizontalen Drain 5 entfernt. Stattdessen kann eine Elektrode auf der Drain-Barriere zwischen dem H-CCD und dem horizontalen Drain gebildet sein, und die Anwendungsspannung kann verändert sein, um unnötige Ladungen effizient abzuleiten.
  • In dieser Vorrichtung ist einem allgemeinen Full-Frame-CCD eine kleiner Speicherbereich hinzugefügt, um ein teilweises Lesen von einem willkürlichen Ort zu realisieren.
  • Zur darstellerischen Klarheit wird nun die Pixelstruktur durch beispielhaftes Darstellen einer virtuellen Phase erklärt.
  • Die 13A und 13B zeigen der Pixelstruktur des Bildbereichs, wobei 13A eine Draufsicht ist, und 13B eine Ansicht ist, die eine Struktur entlang der Linie A-A' und das Potenzialprofil zeigt.
  • Das Bezugszeichen 201 bezeichnet in den 13A und 13B eine Takt-Gate-Elektrode, die aus lichtdurchlässigem Polysilizium gebildet ist und eine untere Halbleiteroberfläche aufweist, die als ein Takt-Phasen-Bereich dient. Der Takt-Phasen-Bereich ist durch Ionenimplantation in zwei Bereiche unterteilt. Ein Bereich ist ein Takt-Barriere-Bereich 202, und der andere ist ein Takt-Wanne-Bereich 203, der durch Ionenimplantation gebildet ist, um so ein höheres Potenzial aufzuweisen als die Takt-Barriere.
  • Das Bezugszeichen 204 bezeichnet ein virtuelles Gate, das aus einer p+-Typ-Schicht auf einer Halbleiteroberfläche gebildet ist, um das Kanalpotenzial festzulegen. Dieser Bereich dient als ein Virtuell-Phasen-Bereich. Dieser Bereich ist durch Implantieren von n-Typ-Ionen in eine tiefere Schicht als die p+-Typ-Schicht ebenfalls in zwei Bereiche unterteilt. Ein Bereich ist ein Virtuell-Barriere-Bereich 205, und der andere Bereich ist ein Virtuell-Wanne-Bereich 206. Das Bezugszeichen 207 bezeichnet eine aus einer Oxidschicht oder ähnlichem zwischen der Elektrode und dem Halbleiter gebildete Isolierschicht; und 208 bezeichnet einen Kanal-Stopp zum Isolieren der Kanäle der jeweiligen V-CCDs.
  • Die Pixelstruktur hat, obwohl nicht gezeigt, zusätzlich eine Funktion zum Vermeiden von Überblenden bzw. "blooming", was bei starkem Lichteinfall dazu führt, dass Ladungen als ein Pseudosignal zu einem benachbarten Pixel überfließen. Das typische Verfahren ist, ein seitliches Überlauf-Drain zu bilden.
  • Genauer gesagt ist an jeden V-CCD angrenzend ein aus einer n+-Typ-Schicht gebildetes Drain gebildet, und eine Überlauf-Drain-Barriere ist zwischen dem Überlauf-Drain und dem Ladungstransferkanal gebildet. Die Überlauf-Drain-Barriere überschreitende Ladungen werden zum Drain entfernt. Die Höhe der Drain-Barriere ist durch Ionenimplantation festgelegt, und wird durch Bilden einer Elektrode (Über-Drain-Barriere-Elektrode) auf der Überlauf-Drain-Barriere und Steuern des Wertes einer an die Drain-Elektrode angelegten Spannung (VOD) geändert.
  • Beim Transfer von dem V-CCD wird an die Taktelektrode 202 ein willkürlicher Takt angelegt, um das Potenzial der Taktphase bezüglich des Potenzials der virtuellen Schicht zu erhöhen/zu senken, und dadurch Ladungen zu dem H-CCD zu transferieren (in 13B stellt "→O" eine Bewegung von Ladungen dar).
  • Die Pixelstruktur des Bildabschnitts wurde beispielhaft dargestellt, und auch die Pixelstruktur des Speicherabschnitts ist die gleiche. Das obere Ende der Pixel ist im Speicherbereich jedoch mit der Licht abschirmenden Schicht aus Aluminium bedeckt, Überblenden muss nicht verhindert werden, und deshalb ist kein Überlauf-Drain gebildet. Der H-CCD weist auch eine Virtuell-Phasen-Struktur auf, wendet aber die Anordnung eines Takt-Phasen-Bereichs und Virtuell-Phasen-Bereichs an, um so das Empfangen von Ladungen von dem V-CCD und horizontale Transferieren der Ladungen zu ermöglichen.
  • Auf der CCD-Zelle des Bildabschnitts in 11 ist ein Farbfilter gebildet. Zwischen dem Farbfilter und der CCD-Zelle ist eine Licht abschirmende Schicht aus Metall zum Verhindern einer Mischung jeweiliger Farben angeordnet. Die 14A und 14B zeigen die Struktur.
  • Das Bezugszeichen 209 bezeichnet eine Schutzschicht auf einer Halbleiteroberfläche; 210 bezeichnet eine Metallschicht zum Verhindern einer Farbmischung, die aus einer schwarzen Schicht vom gleichen Material wie das Farbfilter gebildet sein kann; 211 bezeichnet eine Glättungsschicht zum Glätten einer Oberfläche, auf der eine Farbfilterschicht gebildet ist; 212 bezeichnet eine Primärfarben- oder Komplementärfarben-Farbfilterschicht; und 213 bezeichnet eine Schutzschicht zum Schutz der Filterschicht.
  • 2 zeigt eine Anordnung, wenn ein Entfernungsmessungspixel für einen AF auf dem Full-Frame-CCD gebildet ist. Eine Reihe mit einer Vielzahl von funktionellen Pixeln S1 und eine Reihe mit einer Vielzahl von funktionellen Pixeln S2 sind Seite-an-Seite in einer normalen Bayer-Anordnung angeordnet.
  • Die Pixelstrukturen von S1 und S2 werden nun beschrieben.
  • Die 3A und 3B zeigen die Pixelstruktur von S1, wobei 3A eine Draufsicht ist, und 3B eine Schnittansicht entlang der Linie B-B' ist. Dieses Pixel hat keine Filterschicht, und sein oberes Ende ist mit einer Mikrolinse 216 bedeckt. Das Bezugszeichen 215 bezeichnet eine Glättungsschicht, die eine Oberfläche zum Bilden der Mikrolinse glättet und der Schutzschicht 213 des Farbpixels entspricht (die Glättungsschicht 215 wird in dem gleichen Schritt gebildet wie die Schutzschicht 213). Das Merkmal dieses Pixels ist, dass eine Licht abschirmende Schicht mit einer von der Mitte des fotoelektrischen Umwandlungsbereichs des Pixels versetzten (dezentrierten) Öffnung auf der gleichen Oberfläche wie die Licht abschirmende Metallschicht zum Verhindern einer Farbmischung in dem Farbpixel gebildet ist.
  • 4B ist eine Schnittansicht, die die Struktur von S2 zeigt. S2 hat eine von der Pixelmitte um die gleiche Entfernung wie bei S1 versetzte Öffnung, jedoch in einer entgegengesetzten Richtung.
  • In einem Flächensensor mit 1.000.000 Pixel oder mehr werden die Zeilen mit S1 und S2 als die annähernd gleiche Reihe in der Anordnung von 2 angesehen, und ein annäherndes Bild ist auf ihren Mikrolinsen gebildet. Falls sich das Kameraobjektiv bzw. die Kameralinse zum Bilden eines Bildes auf dem Bildaufnahmeelement in einem fokussierten Zustand auf dem Bildaufnahmeelement befindet, dann koinzidiert ein Bildsignal von einer S1-Gruppe auf einer S1-umfassenden Zeile mit einem Bildsignal von einer S2-Gruppe auf einer S2-umfassenden Zeile. Falls sich der Brennpunkt vor oder hinter der Bildebene des Bildaufnahmeelements befindet, dann weisen die Bildsignale von den S1- und S2-Gruppen auf den S1- und S2-umfassenden Zeilen eine Phasendifferenz auf. Die Phasendifferenzen in dem Nah-Fokus-Zustand und dem Fern-Fokus-Zustand haben entgegengesetzte Richtungen.
  • Dies ist theoretisch das Gleiche wie der vorangehend beschriebene Pupillenunterschieds-Phasendifferenz-AF in der Japanischen Patent-Offenlegung Nr. 9-43507. Wenn die Kameralinse von dem fotoelektrischen Umwandlungsabschnitt von S1 und dem fotoelektrischen Umwandlungsabschnitt von S2 gesehen wird, scheint die Pupille bezüglich des optischen Mittelpunkts in rechte und linke Teile unterteilt zu sein.
  • Die 5A und 5B sind Ansichten, die das Konzept einer Unschärfe-Bildverschiebung zeigen. In den 5A und 5B sind S1 und S2 einheitlich als Punkte A und B dargestellt. Zur darstellerischen Klarheit sind Farbpixel zwischen funktionellen Pixeln ausgelassen, so als ob die funktionellen Pixel aneinandergereiht wären.
  • Licht von einem bestimmten Punkt auf einem Objekt wird in einen auf den Punkt A über dessen Pupille einfallenden Lichtstrahl (ΦLa), und einen auf den Punkt B über dessen Pupille einfallenden Lichtstrahl (ΦLb) geteilt. Da die zwei Lichtstrahle ursprünglich von einem Punkt ausgesendet wurden, sollten sie einen Punkt auf der gleichen Mikrolinse treffen (5A), falls der Brennpunkt der Kameralinse an das Bildaufnahmeelement angepasst ist. Falls sich der Brennpunkt jedoch um einen Abstand x vor dem Ankunftspunkt befindet, verschieben sich die Lichtstrahl um 2θx gegeneinander (5B). Falls sich der Brennpunkt um einen Abstand -x vor dem Ankunftspunkt befindet, verschiebt sich der Ankunftspunkt in eine entgegengesetzte Richtung.
  • Basierend auf diesem Prinzip koinzidieren ein durch die A-Reihe gebildetes Bild (Signalstrahl durch die Lichtintensität) und ein durch die B-Reihe gebildetes Bild miteinander, falls sich die Kameralinse in einem fokussierten Zustand befindet; andernfalls sind sie gegeneinander verschoben.
  • Das Bildaufnahmeelement gemäß dem ersten Ausführungsbeispiel basiert auf diesem Prinzip, Pixel mit Mikrolinsen mit verschiedenen Öffnungspositionen in einer grundlegenden Anordnung anzuordnen, und einen Bereich zu definieren, wo die Zeile einer grundlegenden Anordnung mit Pixeln (S1) mit den ersten Öffnungen zu der Zeile einer grundlegenden Anordnung mit Pixeln (S2) mit den zweiten Öffnungen benachbart angeordnet ist. Eine Verschiebung zwischen Zeilenbildsignalen von den S1- und S2-Gruppen in diesem Bereich wird berechnet, um eine Verschiebung des Brennpunkts der Kameralinse zu erhalten, und die Linse der Kamera wird bewegt, um diesen Fokusfehler zu beheben, wodurch ein Autofokus realisiert ist.
  • Der Bereich mit den Entfernungsmessungspixean der S1- und S2-Gruppen muss nicht auf dem gesamten Bildaufnahmebereich oder über alle Zeilen festgelegt sein. Es ist zum Beispiel ausreichend, Entfernungsmessungsbereiche an mehreren Punkten einzubringen, wie in 10 gezeigt.
  • Wenn ein Entfernungsmessungssignal von dem Bildaufnahmeelement auszulesen ist, werden nur die Ladungen von einer das Entfernungsmessungssignal aufweisenden Reihe ausgelesen, und die verbleibenden unnötigen Ladungen werden mit hoher Geschwindigkeit gelöscht.
  • Die Bildaufnahme-Betriebsart des verbesserten Full-Frame-CCD und die Teil-Lese-Betriebsart für ein Lesen von einem Entfernungsmessungsbereich werden nun mit Bezug auf die Zeitschaubilder der 15 bzw. 16 beschrieben.
  • Beim normalen Fotografieren unter Verwendung des Sensors in 11 ist ein an die vordere Oberfläche des Bildaufnahmeelements angebrachter mechanischer Verschluss geschlossen. Die Takte ΦVI, ΦVS und ΦS werden mit hoher Geschwindigkeit angelegt, um eine Löschoperation zum Entfernen von Ladungen von dem Bildbereich und dem Speicherbereich zu dem Lösch-Drain 5 durchzuführen (Tclear).
  • Die Anzahl der Takte ΦVI, ΦVS und ΦS entspricht den n + o oder mehr Transfer-V-CCDs. Die Ladungen in dem Bildbereich und dem Speicherbereich werden zum Lösch-Drain über das horizontale Drain und zum Floating-Diffusion-Verstärker über den H-CCD entfernt. In einem Bildaufnahmeelement mit einem Gate zwischen dem H-CCD und dem horizontalen Drain kann das Gate nur während der Löschperiode öffnen, um unnötige Ladungen effizient zu entfernen.
  • Der mechanische Verschluss wird unmittelbar nach der Vollendung der Löschoperation geöffnet, und wird nach Ablauf einer Zeit zum Erhalten einer geeigneten Belichtungs- bzw. Auslösungsdauer geschlossen. Diese Periode wird Belichtungszeit (oder Speicherzeit) (Tstorage) genannt. Während der Speicherzeit stoppt der V-CCD (ΦVI und ΦVS sind auf niedrigem Pegel).
  • Entsprechend dem auf die Sensoroberfläche einfallenden Licht (über die Abbildungslinse vor dem Sensor in ein Bild auf der Sensoroberfläche gebildetes Bildlicht) erzeugte Signalladungen werden in der virtuellen Wanne in jedem Pixel akkumuliert. Wenn sich die Ladungsmenge soweit erhöht, dass sie die Überlauf-Drain-Barriere überschreitet, werden weitere Ladungen zum Überlauf-Drain entfernt. Da der Speicherabschnitt von Licht abgeschirmt ist, ist jedes Pixel vakant und ohne Signalladungen.
  • Nachdem der Verschluss geschlossen wird, werden Signalladungen auf o Reihen vertikal transferiert (Tcm). Diese Operation transferiert Signalladungen auf der ersten Reihe (zum Speicherabschnitt benachbarte Reihe) des Bildbereichs zu der ersten Reihe (zum H-CCD benachbarte Reihe) des Speicherabschnitts. Der erste o-Reihen-Transfer wird kontinuierlich durchgeführt. Um Ladungen in dem H-CCD vor dem Transferieren der Ladungen von der ersten Reihe des Bildbereichs zu dem H-CCD zu löschen, werden die Ladungen von allen Reihen des H-CCD transferiert (Tch). Dies entfernt Ladungen, die in dem H-CCD in der Löschperiode (Tstorage) des Bildabschnitts und des Speicherabschnitts verbleiben, und die während der Löschperiode (Tcm) des Speicherabschnitts akkumulierten Ladungen eines Dunkelstroms.
  • Nachdem der Speicherabschnitt gelöscht ist (dies ist eine Lese-Setz-Operation zum Transferieren von Signalen von der ersten Reihe des Bildabschnitts zu dem letzten zu dem H-CCD benachbarten V-CCD), und der H-CCD gelöscht ist, werden Signalladungen in dem Bildabschnitt sequenziell von der ersten Reihe zum H-CCD transferiert, um die Signale sequenziell in Einheiten von Reihen auszulesen (Tread). Die ausgelesenen Signalladungen werden in digitale Signale gewandelt, die in einer Bildsignalverarbeitung durch einen Vorverarbeitungsschaltkreis verarbeitet werden, der aus einem CDS-Schaltkreis, einem Verstärkerschaltkreis und einem A/D-Wandlungsschaltkreis gebildet ist.
  • Ein teilweises Lesen für einen AF der Digitalkamera unter Verwendung dieses Sensors wird nun mit Bezug auf das Zeitschaubild von 16 erklärt.
  • Im Allgemeinen weist der Full-Frame-Sensor separat AF- und AE-Sensoren auf, weil der Verschluss während eines Transfers geschlossen sein muss. Im Gegensatz dazu kann der Sensor der vorliegenden Erfindung einen Teil des Bildabschnitts auf einmal oder wiederholend auslesen, während der Verschluss offen gelassen wird.
  • Zuerst werden Signalladungen auf o Reihen (no Reihen) an willkürlichen Orten im Bildbereich in dem Speicherbereich gespeichert, und es wird ein Löschtransfer des vorhergehenden Bereichs zum Entfernen von Ladungen auf den (o + nf) Reihen durchgeführt, um Signalladungen in dem vorhergehenden Bildbereich (nf) der willkürlichen o Speicherreihen abzuleiten (Tcf). Dann werden Signalladungen auf den no Reihen in dem Speicherbereich 2 während der Speicherperiode (Ts) vor der Löschperiode Tcf des vorhergehenden Bereichs gespeichert.
  • Der H-CCD wird unverzüglich gelöscht, um Ladungen, die in dem H-CCD nach der Operation des vorhergehenden Bereichs verbleiben, abzuleiten (Tch). Anschließend werden Signalladungen in den no Reihen des Speicherabschnitts zu dem H-CCD in Einheiten von Reihen transferiert und sequenziell von dem Ausgabeverstärker ausgelesen (Tr). Nach Vollendung eines Lesens der Signale in den no Reihen werden alle Reihen des Bildaufnahmeelements gelöscht (Tcr), um ein Hochgeschwindigkeits-Teil-Lesen zu vollenden. Durch Wiederholen dieser Operation in gleicher Weise kann ein teilweises Lesen kontinuierlich ausgeführt werden. In dem vorangehend erwähnten Verfahren zum Durchführen eines AF durch Messen der Phasendifferenz zwischen gebildeten Bildern werden Signalladungen von mehreren Teilen in dem Bildbereich zum Zwecke eines AF-Lesens ausgelesen. Stattdessen werden beispielsweise Signalladungen wiederholend unter Ändern der Orte gelesen, so dass ein Signal von einer H-CCD-Seite in der ersten Sequenz (Tcr – Ts – Tcf – Tr), von einem dazwischenliegenden Ort in der zweiten Sequenz, und von einer dem H-CCD gegenüberliegenden Seite in einer Sequenz in 16 ausgelesen wird. Dies ermöglicht ein Messen der Brennpunktdifferenz zwischen mehreren Orten, um eine Gewichtung durchzuführen.
  • Die Arbeitsweise eines Teil-Lese-Arbeitszyklus und das Verfahren zum Ändern des Lese-Ortes wurden erklärt. Alternativ können Signale von einer Vielzahl von Orten in einem Arbeitszyklus ausgelesen (in dem Speicherbereich gespeichert) werden. Zum Beispiel wird, unmittelbar nachdem Signale auf o/2 Reihen zu dem Speicherabschnitt transferiert werden, die Elektrode des Speicherbereichs zu einer hohen Spannung geändert (d.h. es wird ein Wall zum Stoppen des Transfers von Signalladungen von dem Bildbereich gebildet), Takte für eine notwendige Anzahl von Reihen bis zum nächsten notwendigen Signal werden an die Elektrode des Bildbereichs angelegt, um Ladungen bis zu den nächsten notwendigen o Reihen zur letzten virtuellen Wanne des V-CCD in dem Bildbereich zu transferieren. Dann werden Ladungen bis zu dem nächsten notwendigen Signal zur letzten virtuellen Wanne transferiert, und die Überlauf-Drain-Barriere überschreitende Ladungen werden zum Überlauf-Drain entfernt. Wenn o/2 Transfertakte an die Bildbereich-Elektrode und die Speicherbereich-Elektrode angelegt werden, speichert der Speicherbereich Signale auf {(o/2)–1} Reihen in dem zweiten Bereich neben den ersten o/2 Reihen nach einer nach der Löschoperation in einem dazwischenliegenden Abschnitt übrigen ungültigen Reihe. Falls Signale in drei Bereichen zu speichern sind, wird die zweite dazwischenliegende Löschoperation nach dem zweiten Signalspeichern durchgeführt, und dann werden Signale in dem dritten Bereich gespeichert. Eine größere Anzahl von Speicherbereichen verringert die Anzahl von Speicherreihen bei jeweiligen Abschnitten. Falls Daten bei einer Vielzahl von Abschnitten in einem Arbeitszyklus ausgelesen werden, kann auf diese Weise ein AF mit einer höheren Geschwindigkeit realisiert werden als im vorangehend beschriebenen Fall, in dem Daten von einem Abschnitt in einem Arbeitszyklus ausgelesen werden.
  • Die 6, 7 und 8 zeigen Modifikationen der Anordnung von S1 und S2. Im vorangehenden Ausführungsbeispiel sind die ersten und zweiten Phasenerfassungs-Zeilen leicht gegeneinander verschoben. Dies stellt in einem Bildaufnahmeelement mit mehr als 100 Pixel kein Problem dar. Diese Modifikationen führen jedoch dazu, dass die Phasenerfassungs-Zeilen in einem annähernd gleichen Abschnitt liegen.
  • In 6 sind S1 und S2 abwechselnd in der gleichen Zeile angeordnet. In 7 sind S1-Zeilen vor und nach einer S2-Zeile angeordnet. Die ersten und zweiten S1-Zeilen werden interpoliert, um der S2-Zeile entsprechende Daten der S1-Zeile zu erzeugen. 8 ist eine Modifikation der Anordnung in 6, in der zwei Zeilen im Zickzack angeordnet sind, von denen jede abwechselnd S1 und S2 umfasst.
  • Die Pixelgruppe zum Erzeugen eines Phasendifferenzsignals und das Ansteuerungsverfahren zum Auslesen eines Signals von diesem Abschnitt ermöglichen einen sehr schnellen, hochpräzisen AF.
  • Bei einer Bildverarbeitung von Rohdaten (Rohinformation von jedem Pixel) eines Bildes durch tatsächliches Fotografieren mit diesem Bildaufnahmeelement werden die Abschnitte S1 und S2 durch periphere Farbpixel interpoliert. Dies realisiert ein Bildaufnahmeelement, das die Bildqualität kaum verschlechtert und zusätzlich zu einem aufgenommenen Bild Entfernungsmessungsdaten lesen kann. Von der Interpolation ausgehend kann eine Zelle mit 2 × 2 Pixel mit drei Farben und einer Funktion leicht interpoliert werden, und verschlechtert kaum die Bildqualität. Eine 2 × 4-Anordnung kann auch interpoliert werden, obgleich die S1-Zeile weiter von der S2-Zeile entfernt ist als in der 2 × 2-Anordnung.
  • Das vorangehende Ausführungsbeispiel betrifft das Bildaufnahmeelement mit einer Entfernungsmessungspixel-Gruppe, und kann als ein Bildaufnahmeelement mit einer Pixelgruppe zum Erhalten von AE-Informationen modifiziert sein. Diese Modifikation ist nachfolgend beschrieben.
  • 9 zeigt die Öffnungen von Pixel, die als AE-Pixel arbeiten. Diese Öffnungen sind ähnlich wie bei dem AF-Pixel aus einer Licht abschirmenden Schicht aus Metall gebildet. Das AE-Pixel unterscheidet sich von dem AF-Pixel darin, dass sich die Mitte der Öffnung mit der Mitte des fotoelektrischen Umwandlungsabschnitts deckt. Angemerkt sei, dass das AE-Pixel entgegen dem AF-Pixel nicht immer eine Mikrolinse benötigt, und lediglich eine eindeutige Empfindlichkeitsdifferenz benötigt.
  • Wenn S3 eine Empfindlichkeit von 1 aufweist, weist S4 eine Empfindlichkeit von 1/2 (d.h. n = 1 für 1/2n), S5 eine Empfindlichkeit von 1/4 (d.h. n = 2 für 1/2n), und S6 eine Empfindlichkeit von 1/8 (d.h. n = 3 für 1/2n) auf. Vielzahlen von Pixel S3, S4, S5 und S6 sind an einer Vielzahl von willkürlichen Orten in dem Bildaufnahmeelement angeordnet. Eine Verschiebung der gegenwärtigen Belichtung von einem geeigneten Niveau kann aus den integrierten Werten der S3-, S4-, S5- und S6-Pixelgruppen in den jeweiligen Bereichen und den integrierten Werte jeweiliger Farbpixel berechnet werden.
  • Durch Anordnen einer Vielzahl von Pixeln mit verschiedenen Öffnungen in einer Vielzahl von Bereichen kann ein AE mit viel höherer Geschwindigkeit erzielt werden als bei einem AE-Verfahren zum Anpassen des Ausgabeniveaus des Bildaufnahmeelements unter Anpassen des Belichtungsniveaus. Auch in diesem Fall kann die Lesezeit des Bildaufnahmeelements verkürzt werden, falls, ähnlich zu dem AF, Signalladungen nur von einem Erfassungspixel umfassenden Bereich ausgelesen werden.
  • Das erste Ausführungsbeispiel wurde durch beispielhaftes Darstellen des verbesserten Full-Frame-CCD beschrieben, kann aber auch auf ein Interline-CCD-Bildaufnahmeelement, Frame-Transfer-CCD-Bildaufnahmeelement, und X-Y-Adress-Bildaufnahmeelement angewendet werden.
  • (Zweites Ausführungsbeispiel)
  • Vor einer Beschreibung des zweiten Ausführungsbeispiels werden verbesserungsfähige Punkte des ersten Ausführungsbeispiels erklärt.
  • Die 17 und 18 sind Ansichten, die das Konzept zum Erfassen des Brennpunkts im ersten Ausführungsbeispiel zeigen. Zur darstellerischen Klarheit sind S1 und S2 in der gleichen Ebene angeordnet.
  • Licht von einem bestimmten Punkt auf einem Objekt ist in einen über die Pupille von S1 auf S1 einfallenden Lichtstrahl (L1), und einen über die Pupille von S2 auf S2 einfallenden Lichtstrahl (L2) geteilt. Falls sich die Kamera in einem fokussierten Zustand befindet, konzentrieren sich die zwei Lichtstrahle wie in 17 gezeigt auf einem Punkt der Oberfläche der Mikrolinse. S1 und S2 werden mit dem gleichen Bild belichtet. Somit stimmen ein von der S1-Zeile ausgelesenes Videosignal und ein von der S2-Zeile ausgelesenes Videosignal überein.
  • Im Gegensatz dazu kreuzen sich L1 und L2 an einer sich von der Oberfläche der Mikrolinse unterscheidenden Position, falls die Kamera unscharf eingestellt ist. Es sei angenommen, dass der Abstand zwischen der Oberfläche der Mikrolinse und dem Schnittpunkt der zwei Lichtstrahle, d.h. der Unschärfebetrag, x beträgt, das Bild auf S1 und das Bild auf S2 um n Pixel verschoben sind, der Sensorabstand d beträgt, der Abstand zwischen den Schwerpunkten bei den zwei Pupillen Daf beträgt, und der Abstand vom Hauptpunkt zum Brennpunkt der Linse u beträgt. Hierbei ist der Unschärfebetrag x gegeben durch x = n·d·u/Daf ... (1)
  • Da u als annähernd einer Brennweite f entsprechend angenommen wird, ist x = n·d·f/Daf ... (2)
  • 19 zeigt ein von der S1-Zeile auf dem Bildaufnahmeelement ausgelesenes Videosignal und ein von der S2-Zeile auf dem Bildaufnahmeelement ausgelesenes Videosignal. Das von der S1-Zeile ausgelese Videosignal und das von der S2-Zeile ausgelesene Videosignal weisen eine Bildverschiebung von n·d auf. Der Verschiebungsbetrag zwischen den zwei Videosignalen wird zum Berechnen des Unschärfebetrags x erhalten, und die Linse wird um x bewegt, um einen Autofokus zu erzielen.
  • Um diese Bildverschiebung zu erzeugen, muss auf die Linse einfallendes Licht in die Lichtstrahle L1 und L2 über zwei verschiedene Pupillen geteilt werden. Gemäß diesem Verfahren ist eine Fokuserfassungszelle mit einer Pupillenunterschieds-Funktion auf dem Bildaufnahmeelement gebildet, um die Pupille zu teilen.
  • 20 zeigt die Fokuserfassungszelle. Das Bezugszeichen 216 bezeichnet eine Mikrolinse; 214 bezeichnet eine Licht abschirmende Schicht; und 207 bezeichnet einen fotoelektrischen Umwandler. Licht von der Fotografielinse fällt auf die Mikrolinse 216 ein, und das auf den fotoelektrischen Umwandler 207 einfallende Licht ist durch die Licht abschirmende Schicht 214 auf einen Lichtstrahl von einer bestimmten Richtung begrenzt. Die Licht abschirmenden Schichten der Fokuserfassungszellen S1 und S2 sind wie in 21 gezeigt horizontal (oder vertikal) symmetrisch. Eines von Bildern, die auf dem Sensor durch Lichtstrahle von zwei bezüglich der optischen Achse symmetrischen Pupillenpositionen gebildet sind, wird durch die S1-Zeile fotoelektrisch umgewandelt, und das andere wird durch die S2-Zeile fotoelektrisch umgewandelt, wodurch zwei Bilder mit verschiedenen Pupillenpositionen erhalten werden.
  • 22 zeigt das Bildaufnahmeelement. Auf dem Bildaufnahmeelement sind Farbfilter oder Licht abschirmende Fokuserfassungsschichten gebildet. Das Bezugszeichen R bezeichnet eine Zelle mit einem roten Filter; G bezeichnet eine Zelle mit einem grünen Filter; B bezeichnet eine Zelle mit einem blauen Filter; und S1 und S2 bezeichnen Fokuserfassungszellen.
  • Bei der Autofokus-Operation werden Signale von S1 und S2 umfassenden Zeilen in dem Bildaufnahmeelement ausgelesen, und die von dem Bildaufnahmeelement ausgegebenen Signale werden A/D-gewandelt. Bilder auf S1 und S2 werden aus den erhaltenen Pixelwerten gebildet, und die Korrelation zwischen den zwei Bildern wird berechnet, um einen Bildverschiebungsbetrag zu erhalten. Die Linse wird entsprechend dem erhaltenen Verschiebungsbetrag bewegt, um eine Autofokus-Operation zu erzielen.
  • Beim Fotografieren wird das Bildaufnahmeelement mit einem Objektbild belichtet, und das Objektbild wird von allen Pixeln ausgelesen. Die von dem Bildaufnahmeelement ausgelesenen Signale werden A/D-gewandelt und einem Signalverarbeitungsschaltkreis eingegeben. Der Signalverarbeitungsschaltkreis verwirft von S1 und S2 ausgelesene Pixelwerte, und erzeugt und interpoliert stattdessen aus peripheren Pixeln S1 und S2 entsprechende Pixelwerte. Anschließend werden Helligkeits- und Farb-Differenzsignale erzeugt, komprimiert und als eine Bilddatei in einem Aufzeichnungsmedium gespeichert.
  • Die Vorrichtung des ersten Ausführungsbeispiels kann beim Fotografieren jedoch keine Autofokus-Funktionszellen verwenden, und muss diesen Abschnitt unter Verwendung peripherer Pixel interpolieren.
  • Beim Fotografieren eines Fotos wird eine Interpolation durchgeführt, nachdem ein Videosignal in dem Speicher gespeichert ist. Beim Fotografieren eines Bewegtbildes oder beim Betrieb eines elektronischen Suchers werden jede Sekunde etwa 30 Bilder wiederholend von dem Bildaufnahmeelement ausgelesen, so dass eine Verarbeitung innerhalb dieser Zeit möglicherweise nicht vollendet werden kann.
  • Das zweite Ausführungsbeispiel ist eine Verbesserung hinsichtlich dieses Nachteils.
  • 23 zeigt die Vorrichtung einer Festkörper-Bildaufnahmevorrichtung gemäß dem zweiten Ausführungsbeispiel.
  • Das zweite Ausführungsbeispiel stellt beispielhaft einen Interline-CCD mit einem Komplementärfarbfilter dar. Die Bezugszeichen 501 bezeichnen aus fotoelektrischen Umwandlungszellen gebildete Pixel. Die Pixel 501 sind in einer Matrix auf einem Bildaufnahmeelement angeordnet, und ihre Oberflächen sind mit Farbfiltern oder Fokuserfassungsfiltern bedeckt. Das Bezugszeichen 502 bezeichnet einen Vertikaltransfer-CCD. Der Vertikaltransfer-CCD 502 ist ein 4-Phasen-Ansteuerungs-CCD. Um unabhängig Ladungen von Fokuserfassungspixeln oder von in einer Ausdünnungs-Betriebsart ausgewählten Pixeln auszulesen, sind anzulegende Vertikaltransfertakte V1 und V3 funktionell in V1A, V1B, V1af, V3A, V3B und V3af unterteilt. Diese Takte werden zusammen mit V2 und V4 für eine 4-Phasen-Ansteuerung verwendet, um in jeweiligen Pixeln gespeicherte Ladungen zu einem Horizontaltransfer-CCD 503 zu transferieren. Der Horizontaltransfer-CCD 503 transferiert die Ladungen ansprechend auf Horizontaltransfertakte H1 und H2 zu einem Ausgabeverstärker 504. Der Ausgabeverstärker wandelt die Ladungsbeträge in eine Spannung um und gibt die Spannung zu einem Ausgabeanschluss 505 aus.
  • Nun wird die Arbeitsweise des zweiten Ausführungsbeispiels beschrieben. Dieses Ausführungsbeispiel betrifft jeweils Leseverfahren in einer Foto-Fotografie-Betriebsart, Ausdünnungs-Betriebsart und Entfernungsmessungs-Betriebsart.
  • Die Foto-Fotografie-Betriebsart wird nun beschrieben. Die 24 und 27 zeigen die Arbeitsweise beim Fotografieren eines Fotos in dem zweiten Ausführungsbeispiel. Beim Fotografie-Betrieb werden Ladungen von dem ersten in 24 gezeigten Feld und von dem zweiten in 27 gezeigten Feld ausgelesen, und in dem Speicher derart neu angeordnet, dass die Anordnung der ausgelesenen Pixel mit der Anordnung der Pixel auf dem Bildaufnahmeelement übereinstimmt. Mit dieser Operation werden Ladungen von allen Pixeln auf dem Bildaufnahmeelement zum Speicher transferiert, um ein hochauflösendes Videobild unter Verwendung aller Pixel auf dem Bildaufnahmeelement zu erhalten.
  • Nun wird ein Lesen von dem ersten Feld beschrieben. 24 zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix in 23. Die 25 und 26 zeigen Vertikaltransfertakte. Der Vertikaltransfertakt nimmt drei Spannungen an, niedrig, mittel und hoch.
  • Bei tv1 in 25 wird eine hohe Spannung an V1A, V1B und V1af angelegt. Dann bilden sich Potenzialwannen in V1A, V1B und V1af, wie bei tv1 in 24 gezeigt. Zur gleichen Zeit öffnen die Lese-Gates von V1A, V1B und V1af, und Ladungen in den fotoelektrischen Umwandlern auf einer Ye-Cy-Reihe und Ye-S2-Reihe in der Pixelmatrix bewegen sich zum Vertikaltransfer-CCD, wie bei tv1 von 24 gezeigt. 24 zeigt nur Ye- und S2-Ladungen.
  • Mit dem Ablauf einer Zeit bis tv2, tv3, tv4 und tv5 werden in 25 gezeigte Takte an den Vertikaltransfer-CCD angelegt, und die Ladungen im Vertikaltransfer-CCD bewegen sich mit der Bewegung der Potenzialwannen, wie bei tv2, tv3, tv4 und tv5 in 24 gezeigt.
  • Die in 26 gezeigten Vertikaltransfertakte werden bei jedem Arbeitszyklus einer horizontalen Austastperiode an den Vertikaltransfer-CCD angelegt, und die Ladungen von den jeweiligen Reihen werden zum Horizontaltransfer-CCD in Reihen-Einheiten transferiert.
  • Während der Horizontaltransfer-Periode werden die Ladungen in dem Horizontaltransfer-CCD ansprechend auf die Horizontaltransfertakte H1 und H2 zum Ausgabeverstärker 504 transferiert. Der Ausgabeverstärker 504 wandelt die Ladungen in einen Spannungswert um und gibt ihn zu dem Ausgabeanschluss 505 aus.
  • Nun wird ein Lesen von dem zweiten Feld beschrieben. 27 zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix am gleichen Ort wie in 24. 28 zeigt Vertikaltransfertakte.
  • Bei tv1 in 28 wird an V1A, V1B und V1af eine mittlere Spannung angelegt. Dann bilden sich Potenzialwannen in dem Vertikaltransfer-CCD, wie bei tv1 in 27 gezeigt. Da keine Lese-Gates öffnen, werden keine Ladungen in den Pixeln zum Vertikaltransfer-CCD transferiert. Von tv2 bis tv3 wird an V3A, V3B und V3af eine hohe Spannung angelegt, die Lese-Gates von V3A, V3B und V3af öffnen, und Ladungen in den fotoelektrischen Umwandlern auf einer Mg-G-Reihe und Mg-S1-Reihe bewegen sich zum Vertikaltransfer-CCD. Bei tv4 und tv5 gezeigte Spannungen werden an den Vertikaltransfer-CCD angelegt, und die Ladungen in dem Vertikaltransfer-CCD bewegen sich mit einer Bewegung der Potenzialwannen.
  • Die in 26 gezeigten Vertikaltransfertakte werden bei jedem Arbeitszyklus von einer horizontalen Austastperiode an den Vertikaltransfer-CCD angelegt, und die Ladungen von den jeweiligen Reihen werden zum Horizontaltransfer-CCD in Reihen-Einheiten transferiert.
  • Die Ladungen auf dem Vertikaltransfer-CCD werden sequenziell zu dem Horizontaltransfer-CCD bei jedem horizontalen Austasten transferiert, und von dem Ausgabeverstärker zu dem Ausgabeanschluss ausgegeben.
  • Wie vorangehend beschrieben liest das zweite Ausführungsbeispiel in der Foto-Fotografie-Betriebsart Ladungen von allen Pixeln auf dem Bildaufnahmeelement unter Verwendung der zwei, ersten und zweiten, Felder aus. Die ersten und zweiten Felder sind abwechselnd wiederholt.
  • In der dieses Bildaufnahmeelement verwendenden Kamera werden alle Ladungen in den ersten und zweiten Feldern in dem Speicher gespeichert, und S1 und S2 werden interpoliert. S1 wird unter Verwendung von Daten peripherer G-Pixel interpoliert, während S2 unter Verwendung von Daten von peripheren Ye-Pixel interpoliert wird. Pixeldaten im Speicher werden verarbeitet, Helligkeits- und Farb-Differenz-Signale werden erzeugt, ein Bild wird komprimiert, und eine Dateiablage wird durchgeführt, um die Fotografie-Operation zu vervollständigen.
  • Nun wird die Ausdünnungs-Betriebsart erklärt. In den letzten Jahren werden digitale Fotoapparate für höhere Auflösungen entwickelt, und die meisten darin montierten Bildaufnahmeelemente weisen mehrere Millionen Pixel auf, was eine lange Zeit zum Auslesen eines bewegten Bildes erfordert. Wenn zum Beispiel 1.600.000 Pixel durch einen wie in 23 gezeigten Interline-CCD realisiert sind, benötigt dieser CCD etwa 1/15 Sek. für ein Lesen von 1.600.000 Pixel, im Vergleich zu einem Interline-CCD der 400.000-Pixel-Klasse, der 1/60 Sek. für ein Lesen von einem Feld benötigt.
  • Wenn ein digitaler Fotoapparat mit Verwendung dieses Interline-CCD hergestellt wird, reduziert sich die Anzahl von Rahmen eines Bewegtbildes oder Sucherbildes pro Sekunde, was zu einer schlechten Qualität des Bewegtbildes führt. Weiterhin benötigt der digitale Fotoapparat eine lange Zeit für eine fotometrische Operation, wie zum Beispiel Autofokus.
  • Um dies zu beheben, setzt das zweite Ausführungsbeispiel die Ausdünnungs-Betriebsart in dem Bildaufnahmeelement ein, um die pro Feld ausgelesene Anzahl von Pixel zu senken. Angemerkt sei, dass das Ausdünnungsverfahren in einem Bildaufnahmeelement durch den vorliegenden Erfinder als Japanische Patent-Offenlegung Nr. 9-46715 angemeldet ist.
  • 29 zeigt die Arbeitsweise in der Ausdünnungs-Betriebsart in dem zweiten Ausführungsbeispiel, und zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix an dem gleichen Ort wie in 24. 30 zeigt Vertikaltransfertakte.
  • Bei tv1 in 30 wird an V1A eine hohe Spannung angelegt, und an V1B und V1af wird eine mittlere Spannung angelegt. Dann bilden sich Potenzialwannen in V1A, V1B und V1af in dem Vertikaltransfer-CCD, wie bei tv1 in 29 gezeigt. Zur gleichen Zeit öffnet das Lese-Gate von V1A, und Ladungen in den fotoelektrischen Ye-Umwandlern bewegen sich über die V1A-Reihe zu dem Vertikaltransfer-CCD. Von tv2 bis tv3 wird an V3A eine hohe Spannung angelegt, und an V3B und V3af wird eine mittlere Spannung angelegt. Dann bewegen sich die Potenzialwannen, das Lese-Gate von V3A öffnet, und Mg-Ladungen bewegen sich von den fotoelektrischen Umwandlern auf der V3A-Reihe zu dem Vertikaltransfer-CCD. Bei tv4 und tv5 gezeigte Spannungen werden an den Vertikaltransfer-CCD angelegt, um die Ladungen in dem Vertikaltransfer-CCD zu bewegen.
  • Nachdem die Ladungen in den fotoelektrischen Umwandlern zu dem Vertikaltransfer-CCD transferiert wurden, werden diese Ladungen sequentiell zu dem Horizontaltransfer-CCD transferiert. In der Ausdünnungs-Betriebsart existiert sowohl die Ladung enthaltende Wanne als auch die vakante Wanne, wie in 29 gezeigt. Deshalb werden beim Transferieren der Ladungen zu dem Horizontaltransfer-CCD zwei Vertikaltransfertakte in 26 an den Horizontaltransfer-CCD bei jedem horizontalen Austasten angelegt, um so die Ladung enthaltende Reihe und vakante Reihe in einer Eins-zu-eins-Korrespondenz in dem Horizontaltransfer-CCD zusammenzufassen.
  • In der Ausdünnungs-Betriebsart ausgelesene Bilddaten umfassen keine Entfernungsmessungs-S1- und Entfernungsmessungs-S2-Daten, und die gesamten Daten sind Pixeldaten, die zum Erzeugen eines Bildes verwendet werden können. Da Pixel bei einem Lesen ausgedünnt werden, kann ein 1-Feld-Bild in einer Zeit erhalten werden, die 1/4 der Lesezeit eines Fotos entspricht.
  • Im Gegensatz zur Foto-Fotografie-Betriebsart können die erhaltenen Bilddaten zum Erzeugen von Bilddaten für ein Bewegtbild oder ein Sucherbild verwendet werden, ohne eine Pixelinterpolation durchzuführen.
  • Nun wird die Entfernungsmessungs-Betriebsart erklärt. 31 zeigt den Betrieb in der Entfernungsmessungs-Betriebsart in dem zweiten Ausführungsbeispiel, und zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix am gleichen Ort wie in 24. 32 zeigt Vertikaltransfertakte.
  • Bei tv1 in 32 wird an V1af eine hohe Spannung angelegt, und an V1A und V1B wird eine mittlere Spannung angelegt. Dann bilden sich Potenzialwannen in V1A, V1B und V1af in dem Vertikaltransfer-CCD, wie bei tv1 in 31 gezeigt. Zur gleichen Zeit öffnet das Lese-Gate von V1af, und Ladungen in den Entfernungsmessungszellen S1 bewegen sich über die V1af-Reihe zu dem Vertikaltransfer-CCD. von tv2 bis tv3 wird an V3af eine hohe Spannung angelegt, und an V3A und V3B wird eine mittlere Spannung angelegt. Dann bewegen sich die Potenzialwannen, das Lese-Gate von V3af öffnet, und Ladungen in den Entfernungsmessungszellen S2 bewegen sich von den fotoelektrischen Umwandlern auf der V3af-Reihe zu dem Vertikaltransfer-CCD. Bei tv4 und tv5 gezeigte Spannungen werden an den Vertikaltransfer-CCD angelegt, um die Ladungen in dem Vertikaltransfer-CCD zu bewegen.
  • Nachdem die Ladungen in den fotoelektrischen Umwandlern zu dem Vertikaltransfer-CCD transferiert wurden, werden diese Ladungen sequentiell zu dem Horizontaltransfer-CCD transferiert. In der Entfernungsmessungs-Betriebsart existiert sowohl die Ladung enthaltende Wanne als auch die vakante Wanne, wie in 31 gezeigt. Deshalb werden beim Transferieren der Ladungen zu dem Horizontaltransfer-CCD zwei Vertikaltransfertakte in 26 an den Horizontaltransfer-CCD bei jedem horizontalen Austasten angelegt, um so die Ladung enthaltende Reihe und vakante Reihe in einer Eins-zu-eins-Korrespondenz in dem Horizontaltransfer-CCD zusammenzufassen.
  • Auf diese Weise wird ein Lesen von die Entfernungsmessungszellen S1 und S2 umfassenden Reihen vollendet. In der Kamera werden zwei bestimmte Reihen ausgewählt, ein Unschärfebetrag wird aus der Phasendifferenz zwischen S1 und S2 berechnet, und die Linse angesteuert, um die Autofokus-Operation zu vollenden.
  • Wie vorangehend beschrieben und gemäß dem zweiten Ausführungsbeispiel umfassen gelesene Pixel in der Ausdünnungs-Betriebsart keine Entfernungsmessungspixel, und Ladungen können von einer notwendigen Anzahl von Pixel zum Erzeugen eines Bewegtbildes ausgelesen werden.
  • Die Entfernungsmessungspixel müssen somit nicht interpoliert werden. Weiterhin werden Pixel bis auf einen zum Erzeugen eines Bewegtbildes notwendigen Umfang ausgedünnt, und ein Bewegtbild kann mit hoher Geschwindigkeit erzeugt werden. Dies realisiert ein Fotografieren eines hochwertigen Sucherbildes und einer hochwertigen Bewegtbild-Datei unter Verwendung vieler Rahmen, und realisiert zudem eine fotometrische Operation mit hoher Geschwindigkeit.
  • Als Folge kann sich die Performanz einer Bildaufnahmevorrichtung, wie zum Beispiel eines digitalen Fotoapparates, verbessern, und die Produktkosten können reduziert werden.
  • (Drittes Ausführungsbeispiel)
  • 35 zeigt eine Festkörper-Bildaufnahmevorrichtung gemäß dem dritten Ausführungsbeispiel. Das dritte Ausführungsbeispiel stellt beispielhaft einen Interline-CCD mit einem Primärfarbfilter dar.
  • In 35 bezeichnen die Bezugszeichen 601 Pixel, die aus in einer Matrix angeordneten fotoelektrischen Umwandlern gebildet sind. Die Oberflächen der Pixel 601 sind mit Primärfarbfiltern oder Fokuserfassungsfiltern bedeckt. Das Bezugszeichen 602 bezeichnet einen Vertikaltransfer-CCD. Der Vertikaltransfer-CCD 602 ist ein 4-Phasen-Ansteuerungs-CCD. Um Ladungen von Fokuserfassungspixeln oder in einer Ausdünnungs-Betriebsart ausgewählten Pixeln unabhängig auszulesen, sind Vertikaltransferpulse V1 und V3 funktionell in V1A, V1B, V1C, V1D, V3A, V3B, V3C und V3D unterteilt. Diese Takte werden zusammen mit V2 und V4 für eine 4-Phasen-Ansteuerung verwendet, um in jeweiligen Pixeln gespeicherte Ladungen zu einem Horizontaltransfer-CCD 603 zu transferieren. Der Horizontaltransfer-CCD transferiert die Ladungen ansprechend auf Horizontaltransfertakte H1 und H2 zu einem Ausgabeverstärker 604. Der Ausgabeverstärker wandelt die Ladungsbeträge in eine Spannung um, und gibt die Spannung zu einem Ausgabeanschluss 605 aus.
  • Nun wird die Arbeitsweise des dritten Ausführungsbeispiels beschrieben. Ähnlich dem zweiten Ausführungsbeispiel betrifft dieses Ausführungsbeispiel jeweils Leseverfahren in einer Foto-Fotografie-Betriebsart, Ausdünnungs-Betriebsart und Entfernungsmessungs-Betriebsart.
  • Die Foto-Fotografie-Betriebsart wird nun beschrieben. Die 36, 37, 38 und 39 zeigen die Arbeitsweise beim Fotografieren eines Fotos in dem dritten Ausführungsbeispiel. Beim Fotografieren eines Fotos werden Ladungen von dem ersten in 36 gezeigten Feld und von dem zweiten in 38 gezeigten Feld ausgelesen, und in dem Speicher derart neu angeordnet, dass die Anordnung der ausgelesenen Pixel mit der Anordnung der Pixel auf dem Bildaufnahmeelement übereinstimmt. Mit dieser Operation werden Ladungen von allen Pixeln auf dem Bildaufnahmeelement zum Speicher transferiert, um ein hochauflösendes Videobild unter Verwendung aller Pixel auf dem Bildaufnahmeelement zu erhalten.
  • Nun wird ein Lesen von dem ersten Feld beschrieben. 36 zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix in 35. Die 37 und 26 zeigen Vertikaltransfertakte. Der Vertikaltransfertakt nimmt drei Spannungen an, niedrig, mittel und hoch.
  • Bei tv1 in 37 wird eine hohe Spannung an V1A, V1B, V1C und V1D angelegt. Dann bilden sich Potenzialwannen in V1A, V1B, V1C und V1D, wie bei tv1 in 36 gezeigt. Zur gleichen Zeit öffnen die Lese-Gates von V1A, V1B, V1C und V1D, und Ladungen in den fotoelektrischen Umwandlern auf einer R-G-Reihe in der Pixelmatrix bewegen sich zum Vertikaltransfer-CCD, wie bei tv1 von 36 gezeigt. 36 zeigt nur R-Ladungen. Mit dem Ablauf einer Zeit bis tv2, tv3, tv4 und tv5 werden in 37 gezeigte Takte an den Vertikaltransfer-CCD angelegt, und die Ladungen im Vertikaltransfer-CCD bewegen sich mit der Bewegung der Potenzialwannen, wie bei tv2, tv3, tv4 und tv5 in 36 gezeigt.
  • Die in 26 gezeigten Vertikaltransfertakte werden bei jedem Arbeitszyklus von einer horizontalen Austastperiode an den Vertikaltransfer-CCD angelegt, und die Ladungen von den jeweiligen Reihen werden zum Horizontaltransfer-CCD in Reihen-Einheiten transferiert.
  • Während der Horizontaltransferperiode werden die Ladungen in dem Horizontaltransfer-CCD ansprechend auf die Horizontaltransfertakte H1 und H2 zum Ausgabeverstärker 604 transferiert. Der Ausgabeverstärker 604 wandelt die Ladungen in einen Spannungswert um und gibt ihn zu dem Ausgabeanschluss 605 aus.
  • Nun wird ein Lesen von dem zweiten Feld beschrieben. 38 zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix am gleichen Ort wie in 36. 39 zeigt Vertikaltransfertakte.
  • Bei tv1 in 39 wird an V1A, V1B, V1C und V1D eine mittlere Spannung angelegt. Dann bilden sich Potenzialwannen in dem Vertikaltransfer-CCD, wie bei tv1 in 38 gezeigt. Da keine Lese-Gates öffnen, werden keine Ladungen in den Pixeln zum Vertikaltransfer-CCD transferiert. Von tv2 bis tv3 wird an V3A, V3B, V3C und V3D eine hohe Spannung angelegt, die Lese-Gates von V3A, V3B, V3C und V3D öffnen, und Ladungen in den fotoelektrischen Umwandlern auf einer G-B-Reihe oder S1/S2-B-Reihe bewegen sich zum Vertikaltransfer-CCD. Bei tv4 und tv5 gezeigte Spannungen werden an den Vertikaltransfer-CCD angelegt, und die Ladungen in dem Vertikaltransfer-CCD bewegen sich mit einer Bewegung der Potenzialwannen.
  • Die in 26 gezeigten Vertikaltransfertakte werden bei jedem Arbeitszyklus von einer horizontalen Austastperiode an den Vertikaltransfer-CCD angelegt, und die Ladungen von den jeweiligen Reihen werden zum Horizontaltransfer-CCD in Reihen-Einheiten transferiert.
  • Die Ladungen auf dem Vertikaltransfer-CCD werden sequenziell zu dem Horizontaltransfer-CCD bei jedem horizontalen Austasten transferiert, und von dem Ausgabeverstärker zu dem Ausgabeanschluss ausgegeben.
  • Wie vorangehend beschrieben liest das dritte Ausführungsbeispiel Ladungen von allen Pixeln auf dem Bildaufnahmeelement unter Verwendung der zwei Felder aus.
  • In der dieses Bildaufnahmeelement verwendenden Kamera werden S1 und S2 interpoliert, nachdem alle Ladungen in den ersten und zweiten Feldern zum Speicher transferiert werden. S1 und S2 werden unter Verwendung von Daten peripherer G-Pixel interpoliert. Pixeldaten im Speicher werden verarbeitet, Helligkeits- und Farb-Differenz-Signale werden erzeugt, ein Bild wird komprimiert, und eine Dateiablage wird durchgeführt, um die Fotografie-Operation zu vervollständigen.
  • Nun wird die Ausdünnungs-Betriebsart erklärt. 40 zeigt die Arbeitsweise in der Ausdünnungs-Betriebsart in dem dritten Ausführungsbeispiel, und zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix an dem gleichen Ort wie in 36. 41 zeigt Vertikaltransfertakte.
  • Bei tv1 in 41 wird an V1D eine hohe Spannung angelegt, und an V1A, V1B und V1C wird eine mittlere Spannung angelegt. Dann bilden sich Potenzialwannen in V1A, V1B, V1C und V1D in dem Vertikaltransfer-CCD, wie bei tv1 in 40 gezeigt. Zur gleichen Zeit öffnet das Lese-Gate von V1D, und Ladungen in den fotoelektrischen R-Umwandlern bewegen sich über die V1D-Reihe zu dem Vertikaltransfer-CCD. Von tv2 bis tv3 wird an V3A eine hohe Spannung angelegt, und an V3B, V3C und V3D wird eine mittlere Spannung angelegt. Dann bewegen sich die Potenzialwannen, das Lese-Gate von V3A öffnet, und G-Ladungen bewegen sich von den fotoelektrischen Umwandlern auf der V3A-Reihe zu dem Vertikaltransfer-CCD. Bei tv4 und tv5 gezeigte Spannungen werden an den Vertikaltransfer-CCD angelegt, um die Ladungen in dem Vertikaltransfer-CCD zu bewegen.
  • Nachdem die Ladungen in den fotoelektrischen Umwandlern zu dem Vertikaltransfer-CCD transferiert wurden, werden diese Ladungen sequentiell zu dem Horizontaltransfer-CCD transferiert. In der Ausdünnungs-Betriebsart existiert sowohl die Ladung enthaltende Wanne als auch die vakante Wanne, wie in 40 gezeigt. Deshalb werden beim Transferieren der Ladungen zu dem Horizontaltransfer-CCD zwei Vertikaltransfertakte in 26 an den Horizontaltransfer-CCD bei jedem horizontalen Austasten angelegt, um so die Ladung enthaltende Reihe und vakante Reihe in einer Eins-zu-eins-Korrespondenz in dem Horizontaltransfer-CCD zusammenzufassen.
  • In der Ausdünnungs-Betriebsart ausgelesene Bilddaten umfassen keine Entfernungsmessungs-S1- und Entfernungsmessungs-S2-Daten, und die gesamten Daten sind Pixeldaten, die zum Erzeugen eines Bildes verwendet werden können. Da Pixel bei einem Lesen ausgedünnt werden, kann ein Bewegtbild im Vergleich zu der Foto-Fotografie-Betriebsart in 1/4 der Zeit erhalten werden.
  • Im Gegensatz zur Foto-Fotografie-Betriebsart können die erhaltenen Bilddaten zum Erzeugen von Bilddaten für ein Bewegtbild oder ein Sucherbild verwendet werden, ohne eine Pixelinterpolation durchzuführen.
  • Nun wird die Entfernungsmessungs-Betriebsart erklärt. 42 zeigt den Betrieb in der Entfernungsmessungs-Betriebsart in dem dritten Ausführungsbeispiel, und zeigt den Vertikaltransfer-CCD und Pixel auf einer Spalte in der Pixelmatrix am gleichen Ort wie in 36. 43 zeigt Vertikaltransfertakte.
  • Bei tv1 in 43 wird an V1A, V1B, V1C und V1D eine mittlere Spannung angelegt. Dann bilden sich Potenzialwannen V1A, V1B, V1C und V1D in dem Vertikaltransfer-CCD, wie bei tv1 in 42 gezeigt. Es öffnet jedoch kein Lese-Gate, und keine Ladung bewegt sich zu dem Vertikaltransfer-CCD. Von tv2 bis tv3 wird an V3B und V3C eine hohe Spannung angelegt, und an V3A und V3D wird eine mittlere Spannung angelegt. Dann bewegen sich die Potenzialwannen, die Lese-Gates von V3B und V3C öffnen, und Ladungen in den Entfernungsmessungszellen S1 und S2 bewegen sich von den fotoelektrischen Umwandlern auf den V3B- und V3C-Reihen zu dem Vertikaltransfer-CCD. Bei tv4 und tv5 gezeigte Spannungen werden an den Vertikaltransfer-CCD angelegt, um die Ladungen in dem Vertikaltransfer-CCD zu bewegen.
  • Nachdem die Ladungen in den fotoelektrischen Umwandlern zu dem Vertikaltransfer-CCD transferiert wurden, werden diese Ladungen sequentiell zu dem Horizontaltransfer-CCD transferiert. In der Entfernungsmessungs-Betriebsart existiert die Ladung enthaltende Wanne und die vakante Wanne wiederholend in jeder dritten Reihe, wie in 42 gezeigt. Deshalb werden beim Transferieren der Ladungen zu dem Horizontaltransfer-CCD zwei Vertikaltransfertakte in 26 an den Horizontaltransfer-CCD bei jedem horizontalen Austasten angelegt, um so die Ladung enthaltende Reihe und vakante Reihe in einer Eins-zu-eins-Korrespondenz in dem Horizontaltransfer-CCD zusammenzufassen.
  • Auf diese Weise wird ein Lesen von die Entfernungsmessungszellen S1 und S2 umfassenden Reihen vollendet. In der Kamera werden zwei bestimmte Reihen ausgewählt, ein Unschärfebetrag wird aus der Phasendifferenz zwischen S1 und S2 berechnet, und die Linse angesteuert, um die Autofokus-Operation zu vollenden.
  • Das zweite und dritte Ausführungsbeispiel haben den Interline-CCD beispielhaft dargestellt. Selbst wenn die Kamera ein Bildaufnahmeelement verwendet, das Ladungen frei von einem durch ein X-Y-Adressierungsverfahren bestimmtes Pixel auslesen kann, wie bei einem C-MOS-Sensor, können die gleichen Wirkungen durch Trennen einer von einem Ausdünnungs-Lesen verwendeten Zeile (oder Spalte) von einer Zeile (oder Spalte), die eine Entfernungsmessungszelle umfasst, erzielt werden.
  • Wie vorangehend beschrieben realisiert das dritte Ausführungsbeispiel die Foto-Fotografie-Betriebsart, Ausdünnungs-Betriebsart und Entfernungsmessungs-Betriebsart in dem Bildaufnahmeelement mit einem Primärfarbfilter. Auch in dem zweiten Ausführungsbeispiel umfassen gelesene Pixel in der Ausdünnungs-Betriebsart keine Entfernungsmessungspixel, und Ladungen können von einer notwendigen Anzahl von Pixel zum Erzeugen eines Bewegtbildes ausgelesen werden.
  • Dementsprechend müssen die Entfernungsmessungspixel nicht interpoliert werden. Weiterhin werden Pixel bis auf einen zum Erzeugen eines Bewegtbildes notwendigen Umfang ausgedünnt, und ein Bewegtbild kann mit hoher Geschwindigkeit erzeugt werden. Dies realisiert ein Fotografieren eines hochwertigen Sucherbildes und einer hochwertigen Bewegtbild-Datei unter Verwendung vieler Rahmen, und realisiert zudem eine fotometrische Operation mit hoher Geschwindigkeit.
  • Als Folge kann sich die Performanz einer Bildaufnahmevorrichtung, wie zum Beispiel eines digitalen Fotoapparates, verbessern, und die Produktkosten können reduziert werden.
  • (Viertes Ausführungsbeispiel)
  • 33 zeigt die Anordnung einer Bildaufnahmevorrichtung gemäß dem vierten Ausführungsbeispiel. Das vierte Ausführungsbeispiel betrifft einen digitalen Fotoapparat unter Verwendung des Bildaufnahmeelements gemäß dem zweiten Ausführungsbeispiel und eines Ansteuerungsschaltkreises zum Ansteuern des Bildaufnahmeelements.
  • In 33 ist ein Bildaufnahmeelement 710 das in dem zweiten Ausführungsbeispiel beschriebene Bildaufnahmeelement. Ein Zeitsteuerungsgenerator 711 erzeugt Vertikaltransfertakte V1A, V1B, V1af, V2, V3A, V3B, V3af und V4, und Horizontaltransfertakte H1 und H2, entsprechend der Foto-Fotografie-Betriebsart, Ausdünnungs-Betriebsart und Entfernungsmessungs-Betriebsart durch das in dem zweiten Ausführungsbeispiel beschriebene Verfahren. Der Zeitsteuerungsgenerator ist über eine Steuerungsleitung mit einem Mikroprozessor 724 verbunden, und schaltet entsprechend einer Anweisung von dem Mikroprozessor den Ansteuerungstakt zwischen der Foto-Fotografie-Betriebsart, Ausdünnungs-Betriebsart und Entfernungsmessungs-Betriebsart um.
  • Eine Ausgabe von dem Bildaufnahmeelement 710 wird durch einen CDS 712 einem Korrelations-Doppel-Sampling unterzogen, wird durch einen AGC 713 einer Signalpegelanpassung unterzogen, und wird durch einen A/D-Wandler 714 in einen digitalen Wert gewandelt. Der Ausgang des A/D-Wandlers ist mit einem Schalter 726 und einer Speichersteuerung 719 verbunden.
  • Ein Signalverarbeitungsschaltkreis 715 erzeugt Helligkeits-/Farb-Differenz-Bilddaten auf der Basis des A/D-gewandelten Ausgabesignals von dem Bildaufnahmeelement. Ein Komprimierungsschaltkreis 716 komprimiert die durch den Signalverarbeitungsschaltkreis 715 erzeugten Helligkeits-/Farb-Differenz-Bilddaten entsprechend mit, zum Beispiel, einem JPEG-Standard.
  • Ein Speicher 720 ist aus einem Speicherelement, wie beispielsweise einem DRAM, gebildet. Die Speichersteuerung 719 steuert ein Speichern von Eingabedaten in den Speicher 720, oder ein Auslesen von Daten von dem Speicher 720 entsprechend einer Aufforderung von einem anderen Block.
  • Ein externes Aufzeichnungsmedium 723 ist aus einem nichtflüchtigem Speicherelement gebildet, und speichert eine Bilddatendatei und ähnliches. Ein Steuerungsschaltkreis 722 für das externe Aufzeichnungsmedium steuert ein Schreiben/Lesen von Daten in das/von dem externen Aufzeichnungsmedium.
  • Eine Anzeige 718 ist aus einem LCD oder ähnlichem gebildet, zeigt ein fotografiertes Foto oder Bewegtbild an, und zeigt als ein elektronischer Sucher ein vor dem Fotografieren auf das Bildaufnahmeelement einfallendes Objektbild an.
  • Eine Fotografielinse 728 kann ihren Brennpunkt bezüglich des Bildaufnahmeelements entsprechend einer Anweisung von dem Mikroprozessor 724 anpassen. Ein Verschlussschalter 725 gibt durch halbes Niederdrücken ein Steuerungssignal SW1 aus, durch vollständiges Niederdrücken ein Steuerungssignal SW2, und ein Steuerungssignal SW0 ohne Niederdrücken. Der Verschlussschalter 725 ist bei einer Entfernungsmessung zur Hälfte niedergedrückt, und beim Fotografieren vollständig niedergedrückt. Ein Verschluss 727 steuert durch Öffnen/Schließen von Lamellen auf das Bildelement einfallendes Licht.
  • 34 zeigt den Betriebsablauf des digitalen Fotoapparates gemäß dem vierten Ausführungsbeispiel.
  • In Schritt 1 von 34 wird die Kamera eingeschaltet.
  • Die Kamera aktiviert den elektronischen Sucher. In Schritt 2 veranlasst der Mikroprozessor 724 den Zeitsteuerungsgenerator durch ein Steuerungssignal, in der Ausdünnungs-Betriebsart zu arbeiten. Dann gibt der Zeitsteuerungsgenerator Ausdünnungs-Betriebsart-Ansteuerungssignale, d.h. die Vertikaltransfertakte V1A, V1B, V1af, V2, V3A, V3B, V3af und V4 und die Horizontaltransfertakte H1 und H2, entsprechend der Ausdünnungs-Betriebsart des zweiten Ausführungsbeispiels zu dem Bildaufnahmeelement aus.
  • In Schritt 3 sendet der Mikroprozessor ein Steuerungssignal, um so den Schalter 726 mit a zu verbinden. Ein auf das Bildaufnahmeelement abgebildetes Bild wird wie in dem zweiten Ausführungsbeispiel beschrieben ausgedünnt und ausgelesen. Wenn das Bildaufnahmeelement 1.600.000 Pixel aufweist, wird ein Lesen des Bildes bei 30 Rahmen/Sek. vollendet. Da von den Entfernungsmessungszellen keine Daten ausgelesen werden, muss eine Interpolation wie in der Foto-Fotografie-Betriebsart (wie nachfolgend beschrieben) nicht ausgeführt werden.
  • Eine Ausgabe von dem Bildaufnahmeelement 710 wird durch den CDS 712 einem Korrelations-Doppel-Sampling unterzogen, wird durch den AGC 713 einer Amplitudenanpassung unterzogen, und wird durch den A/D-Wandler 714 in einen digitalen Wert gewandelt.
  • Der Signalverarbeitungsschaltkreis 715 erzeugt aus dem von dem A/D-Wandler eingegebenen Signal Helligkeits-/Farb-Differenz-Bilddaten, und gibt die Bilddaten aus. Ein Anzeigensteuerungsschaltkreis 717 passt die Signalausgabe-Zeitablaufsteuerung an, um so der Anzeige 718 zu ermöglichen, die von dem Signalverarbeitungsschaltkreis 715 ausgegebenen Helligkeits-/Farb-Differenz-Bilddaten anzuzeigen, und gibt die Bilddaten kontinuierlich zu der Anzeige 718 aus. Die Anzeige 718 zeigt die eingegebenen Bilddaten wiederholend an. Als Folge wird ein auf das Bildaufnahmeelement 710 einfallendes Objektbild auf der Anzeige 718 als ein Bewegtbild mit etwa 30 Rahmen/Sek. angezeigt.
  • Der Mikroprozessor passt die Zeitablaufsteuerung eines Taktes eines elektronischen Verschlusses zum Löschen von Ladungen in allen fotoelektrischen Umwandlern auf dem Bildaufnahmeelement an, um so die Belichtungsmenge auf dem Bildaufnahmeelement während des Betriebs eines Suchers zu optimieren. Dies erzielt eine Selbstauslösung bzw. Belichtungsautomatik.
  • Ein Fotograf bestimmt ein Objekt über den elektronischen Sucher, und drückt den Verschlussschalter 725 zur Hälfte nieder. Wenn der Mikroprozessor 724 in Schritt 4 feststellt, dass sich der Verschlussschalter 725 in dem SW1-Zustand befindet, bringt er die Verarbeitung zum Schritt 5 voran, um die Autofokus-Operation zu beginnen.
  • In Schritt 5 versetzt der Mikroprozessor den Zeitsteuerungsgenerator in die Entfernungsmessungs-Betriebsart.
  • Der Zeitsteuerungsgenerator schaltet das Ansteuerungssignal zur Entfernungsmessungs-Betriebsart um, und gibt die Vertikaltransfertakte V1A, V1B, V1af, V2, V3A, V3B, V3af und V4 und die Horizontaltransfertakte H1 und H2 zu dem Bildaufnahmeelement entsprechend der Entfernungsmessungs-Betriebsart des zweiten Ausführungsbeispiels aus.
  • Eine Ausgabe von dem Bildaufnahmeelement 710 wird durch den CDS 712 einem Korrelations-Doppel-Sampling unterzogen, wird durch den AGC 713 einer Amplitudenanpassung unterzogen, und wird durch den A/D-Wandler 714 in einen digitalen Wert gewandelt. Die Speichersteuerung 719 speichert Ausgaben entsprechend einem Feld von dem A/D-Wandler in den Speicher 720.
  • Die Speichersteuerung transferiert die Bilder der Entfernungsmessungszellen S1 und S2 von Daten in dem Speicher zu einem Phasendifferenzberechnungs-Schaltkreis 721. Der Phasendifferenzberechnungs-Schaltkreis 721 erhält einen Verschiebungsbetrag n zwischen den zwei Reihen durch, eine Korrelationsberechnung, und gibt den Verschiebungsbetrag n aus. Der Mikroprozessor liest den von dem Phasendifferenzberechnungs-Schaltkreis 721 ausgegebenen Verschiebungsbetrag n aus, berechnet anhand Gleichung (2) aus dem Verschiebungsbetrag n den Unschärfebetrag x, und gibt ein entsprechendes Linsenansteuerungssignal zur Fotografielinse 728 aus.
  • Die Fotografielinse 728 bewegt sich entsprechend dem Ansteuerungssignal, wodurch die Autofokus-Operation vollendet wird.
  • Wenn der Fotograf den Verschlussschalter 725 vollständig niederdrückt, gibt der Verschlussschalter 725 das Steuerungssignal SW2 aus. Wenn der Mikroprozessor das vollständige Niederdrücken des Verschlussschalters in Schritt 7 erfasst, schaltet er in Schritt 8 die Betriebsart des Zeitsteuerungsgenerators zur Foto-Fotografie-Betriebsart um. In Schritt 9 schaltet der Mikroprozessor den Verschluss 727 zu b um.
  • In der Foto-Fotografie-Betriebsart erzeugt der Zeitsteuerungsgenerator die Ansteuerungstakte in der Foto-Fotografie-Betriebsart des zweiten Ausführungsbeispiels. Der Zeitsteuerungsgenerator erzeugt Ansteuerungstakte, um so abwechselnd die ersten und zweiten Felder zu wiederholen, und gibt die Vertikaltransfertakte V1A, V1B, V1af, V2, V3A, V3B, V3af und V4 und die Horizontaltransfertakte H1 und H2 zu dem Bildaufnahmeelement aus. Das Bildaufnahmeelement gibt somit abwechselnd Videosignale in den ersten und zweiten Feldern aus. Der Mikroprozessor stellt die Zeitablaufsteuerung des Taktes des elektronischen Verschlusses für den Zeitsteuerungsgenerator ein, um die Belichtungszeit anzupassen.
  • In Schritt 10 beginnt der Mikroprozessor, ein Foto aufzunehmen. Das Aufnehmen eines Fotos geschieht wie folgt. Zuerst schließt der Mikroprozessor den mechanischen Verschluss 727. Als nächstes veranlasst der Mikroprozessor die Speichersteuerung dazu, eine Ausgabe von dem A/D-Wandler zu empfangen. Das Bildaufnahmeelement beginnt, Signale von dem ersten Feld auszugeben, wie in dem zweiten Ausführungsbeispiel beschrieben. Die Speichersteuerung empfängt das Videosignal von dem ersten Feld von dem A/D-Wandler, um es in dem Speicher 720 zu speichern. Zu diesem Zeitpunkt sind zwei Reihen auf dem Speicher gepaart, und die Speichersteuerung speichert das von dem A/D-Wandler auf der ersten Reihe des Paars empfangene Videosignal.
  • Nach dem Speichern des Videosignals des ersten Feldes in dem Speicher speichert die Speichersteuerung das Videosignal des zweiten Feldes. Die Speichersteuerung speichert das Videosignal des zweiten Feldes in der zweiten Reihe des Paares auf dem Speicher. Folglich sind die Videosignale von allen Pixeln auf dem Bildaufnahmeelement in dem Speicher in der gleichen Anordnung gespeichert wie auf dem Bildaufnahmeelement.
  • Die Videosignale der Entfernungsmessungszellen S1 und S2 werden unter Verwendung peripherer Pixel interpoliert. Der Mikroprozessor bestimmt die Position jeder Entfernungsmessungszelle auf der Basis der in einem in dem Mikroprozessor umfassten ROM gespeicherten Positionsmusterinformationen der Entfernungsmessungszellen, und interpoliert diesen Abschnitt unter Verwendung peripherer Pixel. Beispielsweise interpoliert der Mikroprozessor S1 in 23 durch ein bekanntes bikubisches Verfahren unter Verwendung der Werte peripherer G-Pixel.
  • Anschließend gibt die Speichersteuerung Bilddaten in dem Speicher zu dem Signalverarbeitungsschaltkreis 715 aus. Der Signalverarbeitungsschaltkreis 715 wandelt die eingegebenen Bilddaten in Helligkeits-/Farb-Differenz-Bilddaten, und führt eine Verarbeitung für die Helligkeits-/Farb-Differenz-Bilddaten durch, wie beispielsweise eine Gamma-Korrektur.
  • Der Signalverarbeitungsschaltkreis 715 gibt die verarbeiteten Daten sequentiell aus. Der Komprimierungsschaltkreis 716 komprimiert die von dem Signalverarbeitungsschaltkreis 715 ausgegebenen Daten entsprechend z.B. einem JPEG-Standard, und gibt die komprimierten Bilddaten aus.
  • Die Speichersteuerung 719 gibt die komprimierten Bilddaten zu dem Steuerungsschaltkreis 722 für das externe Aufzeichnungsmedium aus, um die Bilddaten als eine Datei auf dem externen Aufzeichnungsmedium 723 aufzuzeichnen.
  • Auf diese Art und Weise wird das Fotografieren eines Fotos vollendet. Der Mikroprozessor bringt die Verarbeitung zu Schritt 2 zurück, versetzt den Zeitsteuerungsgenerator in die Ausdünnungs-Betriebsart, verbindet den Ausgabeschalter 726 mit a, und beginnt, den Sucher zu aktivieren.
  • Nun wird das Fotografieren eines Bewegtbildes erklärt. 44 ist ein Ablaufdiagramm, das das Fotografieren eines Bewegtbildes in der Vorrichtung des vierten Ausführungsbeispiels zeigt.
  • In Schritt 100 von 44 wird das Fotografieren eines Bewegtbildes mit einem (nicht gezeigten) Betriebsart-Einstellrad gewählt, und die Kamera wird eingeschaltet. In Schritt 101 versetzt der Mikroprozessor den Zeitsteuerungsgenerator in die Ausdünnungs-Betriebsart, um den Sucher zu aktivieren. In Schritt 102 verbindet der Mikroprozessor den Schalter 726 mit a. Die Anzeige 718 zeigt ein auf das Bildaufnahmeelement einfallendes Bild an, und die Kamera führt den Betrieb des Suchers durch.
  • Wenn der Fotograf den Verschlussschalter zur Hälfte niederdrückt, gibt der Verschlussschalter 725 in Schritt 103 das Signal SW1 aus. Der Mikroprozessor erfasst das Signal SW1 und bringt die Verarbeitung zum Schritt 104 voran.
  • Daraufhin beginnt die Kamera den Autofokus. In Schritt 104 versetzt der Mikroprozessor den Zeitsteuerungsgenerator in die Entfernungsmessungs-Betriebsart. Dann schaltet der Zeitsteuerungsgenerator das Ansteuerungssignal zur Entfernungsmessungs-Betriebsart um.
  • Der Mikroprozessor beginnt in Schritt 105 ein Lesen von der Entfernungsmessungszelle. Eine Ausgabe von dem Bildaufnahmeelement 710 wird durch den CDS 712 einem Korrelations-Doppel-Sampling unterzogen, wird durch den AGC 713 einer Amplitudenanpassung unterzogen, und wird durch den A/D-Wandler 714 in einen digitalen Wert gewandelt. Die Speichersteuerung 719 speichert Ausgaben entsprechend einem Feld von dem A/D-Wandler in den Speicher 720.
  • Die Speichersteuerung transferiert das Bild von S2 zu dem Phasendifferenzberechnungs-Schaltkreis 721, ähnlich zum in dem Speicher gespeicherten Bild der Entfernungsmessungszelle S1. Der Mikroprozessor liest den Verschiebungsbetrag zwischen den zwei Reihen von dem Phasendifferenzberechnungs-Schaltkreis aus, berechnet aus dem Verschiebungsbetrag den Unschärfebetrag, und gibt ein entsprechendes Linsenansteuerungssignal zur Fotografielinse 728 aus.
  • Die Fotografielinse 728 bewegt sich entsprechend dem Ansteuerungssignal, wodurch die Autofokus-Operation vollendet wird.
  • In Schritt 106 setzt der Mikroprozessor einen internen Zeitgeber auf 0 zurück.
  • Wenn der Fotograf den Verschlussschalter vollständig niederdrückt, gibt der Verschlussschalter in Schritt 107 das Signal SW2 aus. Wenn der Mikroprozessor das Signal SW2 erfasst, bringt er die Verarbeitung zum Schritt 108 voran, um das Aufnehmen eines Bewegtbildes zu beginnen.
  • In Schritt 108 prüft der Mikroprozessor, ob der Zählwert des Zeitgebers einen Auswertungsreferenzwert überschreitet. In diesem Fall beträgt der Auswertungsreferenzwert des Zeitgebers 0,2 Sek. Der Zeitgeberzähler hat noch nicht 0,2 Sek. erreicht, und der Mikroprozessor bringt die Verarbeitung zum Schritt 109 voran.
  • In Schritt 109 versetzt der Mikroprozessor den Zeitsteuerungsgenerator in die Ausdünnungs-Betriebsart. Dann erzeugt der Zeitsteuerungsgenerator einen Ansteuerungstakt in der Ausdünnungs-Betriebsart, und das Bildaufnahmeelement 710 gibt ausgedünnte Bilddaten aus. Die Ausgabe von dem Bildaufnahmeelement wird durch den CDS 712 einem Korrelations-Doppel-Sampling unterzogen, wird durch den AGC 713 einer Amplitudenanpassung unterzogen, und wird durch den A/D-Wandler 714 in einen digitalen Wert gewandelt.
  • Ein Signalverarbeitungsschaltkreis 715 erzeugt Helligkeits-/Farb-Differenz-Bilddaten aus dem von dem A/D-Wandler eingegebenen Signal, und gibt die Bilddaten aus. Die Ausgabe von dem Signalverarbeitungsschaltkreis 715 wird dem Anzeigensteuerungsschaltkreis 717 und dem Komprimierungsschaltkreis 716 eingegeben. Der Anzeigensteuerungsschaltkreis 717 zeigt die eingegebenen Helligkeits-/Farb-Differenz-Bilddaten auf der Anzeige 718 an, ähnlich dem Sucher. Zur gleichen Zeit komprimiert der Komprimierungsschaltkreis 716 das eingegebene Helligkeits-/Farb-Differenzsignal, und gibt das komprimierte Signal zu der Speichersteuerung aus.
  • Die Speichersteuerung 719 gibt die komprimierten Bilddaten zu dem Steuerungsschaltkreis 722 für das externe Aufzeichnungsmedium aus, um die Bilddaten als eine Datei auf dem externen Aufzeichnungsmedium 723 aufzuzeichnen.
  • Der Mikroprozessor bringt die Verarbeitung zu Schritt 107 zurück. In Schritt 207 prüft der Mikroprozessor, ob der Verschlussschalter vollständig niedergedrückt gehalten oder losgelassen wird. Während der Verschlussschalter vollständig niedergedrückt ist, setzt die Kamera das Fotografieren eines Bewegtbildes fort. In diesem Fall wird der Verschlussschalter in dem vollständig niedergedrückten Zustand gehalten. Aus diesem Grund bringt der Mikroprozessor die Verarbeitung zu Schritt 108 voran.
  • Falls der Zeitgeberzähler 0,2 Sek. in Schritt 108 überschreitet, so erfasst der Mikroprozessor dies, bringt die Verarbeitung zu Schritt 104 zurück, und versetzt den Zeitsteuerungsgenerator wieder in die Entfernungsmessungs-Betriebsart, um einen Autofokus in Schritt 105 durchzuführen. In Schritt 106 setzt der Mikroprozessor den Zeitgeber zurück. Mit dieser Verarbeitung wiederholt die Kamera den Autofokus intermittierend während des Fotografierens eines Bewegtbildes, und kann einen fokussierten Zustand selbst dann beibehalten, wenn sich das Objekt bewegt.
  • Falls der Verschluss in Schritt 207 in dem vollständig niedergedrückten Zustand gehalten wird, und der Zeitgeber in Schritt 108 0,2 Sek. noch nicht erreicht hat, versetzt der Mikroprozessor in Schritt 109 den Zeitsteuerungsgenerator wieder in die Ausdünnungs-Betriebsart zurück, und beginnt in Schritt 110 erneut ein Aufnehmen eines Bewegtbildes. Falls der Zeitsteuerungsgenerator in Schritt 109 bereits in die Ausdünnungs-Betriebsart versetzt wurde, arbeitet der Zeitsteuerungsgenerator ohne Ändern der gegenwärtigen Einstellung weiter.
  • Durch diese Schleife fotografiert die Kamera fortlaufend ein Bewegtbild während sich der Verschlussschalter in dem vollständig niedergedrückten Zustand befindet, und unterbricht das Fotografieren eines Bewegtbildes alle 0,2 Sek., um eine Autofokus-Operation durchzuführen.
  • Da beim Aufnehmen eines Bewegtbildes keine Bilddaten von den Entfernungsmessungszellen S1 und S2 ausgelesen werden, müssen die Pixel nicht interpoliert werden, und ein hochwertiges Bewegtbild unter Verwendung vieler Rahmen kann fotografiert werden.
  • Die meisten digitalen Fotoapparate ermöglichen es dem Nutzer, die Auflösung eines aufzunehmenden Bildes zu wählen. Das vierte Ausführungsbeispiel hat bereits die Foto-Fotografie-Betriebsart beschrieben, in der ein Bild mit der höchsten Auflösung fotografiert werden kann.
  • Wenn in der Bildaufnahmevorrichtung des vierten Ausführungsbeispiels ein Bild mit einer niedrigen Auflösung fotografiert werden soll, wird der Zeitsteuerungsgenerator in Schritt 8 nicht in die Foto-Fotografie-Betriebsart versetzt, sondern in die Ausdünnungs-Betriebsart. Die gleiche Verarbeitung wie in der Foto-Fotografie-Betriebsart kann durchgeführt werden, um eine Bilddatendatei mit einer niedrigen Auflösung zu erzeugen.
  • Wenn ein Bild mit einer niedrigen Auflösung fotografiert werden soll, wird zudem kein Signal von der Entfernungsmessungszelle von dem Bildaufnahmeelement ausgelesen, sondern es wird nur ein Bilderzeugungssignal ausgelesen. Deshalb muss die Entfernungsmessungszelle nicht interpoliert werden, und ein Foto kann innerhalb einer kurzen Zeit erzeugt werden. Dies erhöht die Serienfotografie-Geschwindigkeit, und verbessert die Performanz der digitalen Fotokamera.
  • Das vierte Ausführungsbeispiel hat das in dem zweiten Ausführungsbeispiel beschriebene Bildaufnahmeelement beispielhaft dargestellt. Selbst wenn das in dem dritten Ausführungsbeispiel beschriebenen Bildaufnahmeelement oder ein ähnliches Bildaufnahmeelement eingesetzt wird, können die gleichen Wirkungen durch dem Kamerabetrieb entsprechendes Umschalten des durch den Zeitsteuerungsgenerator erzeugten Ansteuerungstaktes erzielt werden.
  • Wie vorangehend beschrieben realisiert die Bildaufnahmevorrichtung gemäß dem vierten Ausführungsbeispiel einen sehr schnellen, hochpräzisen Autofokus unter Verwendung eines Bildaufnahmeelements mit einer Autofokuszelle darauf. Obwohl diese Bildaufnahmevorrichtung das Bildaufnahmeelement mit der Autofokuszelle darauf einsetzt, kann sie ein hochwertiges Sucherbild unter Verwendung vieler Rahmen anzeigen und ein hochwertiges Bewegtbild fotografieren, ohne die Kamerakosten zu erhöhen. Weiterhin kann die Bildaufnahmevorrichtung Fotos mit einer niedrigen Auflösung mit hoher Geschwindigkeit in Serie fotografieren.
  • Eine Bildaufnahmevorrichtung mit diesen ausgezeichneten Wirkungen, wie zum Beispiel eine digitale Fotokamera, kann mit niedrigen Kosten realisiert werden.
  • (Fünftes Ausführungsbeispiel)
  • 46 zeigt die Anordnung einer Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel. Da das meiste der Anordnung der Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel mit dem in dem vierten Ausführungsbeispiel übereinstimmt, bezeichnen die gleichen Bezugszeichen die gleichen Teile, und eine Beschreibung dieser Teile wird ausgelassen.
  • In dem vierten Ausführungsbeispiel gibt der Zeitsteuerungsgenerator 711 nur ein Bildaufnahmeelement- Ansteuerungssignal in der Ansteuerungs-Betriebsart mit Auslesen von Daten von allen Pixeln aus. Im Gegensatz dazu verbessert die Vorrichtung des fünften Ausführungsbeispiels die Qualität eines Bewegtbildes oder Sucherbildes, wenn in dem Bildaufnahmeelement keine Ausdünnungslese-Betriebsart eingestellt ist.
  • 45 zeigt den Betriebsablauf eines digitalen Fotoapparates gemäß dem fünften Ausführungsbeispiel. In Schritt 200 von 45 wird die Kamera eingeschaltet.
  • Die Kamera aktiviert den elektronischen Sucher. In Schritt 201 sendet der Mikroprozessor 724 ein Steuerungssignal, um so den Schalter 830 mit a zu verbinden.
  • Eine Ausgabe von einem Bildaufnahmeelement 710 wird durch den CDS 712 einem Korrelations-Doppel-Sampling unterzogen, wird durch den AGC 713 einer Amplitudenanpassung unterzogen, und wird durch den A/D-Wandler 714 in einen digitalen Wert gewandelt.
  • Eine Ausgabe von dem A/D-Wandler wird durch einen Reihenausdünnungsschaltkreis 829 einer Reihenausdünnung unterzogen. Wie in dem zweiten und dritten Ausführungsbeispiel beschrieben, ist das Bildaufnahmeelement 710 gebildet durch Anordnen einer zum Erzeugen eines Bildsignals bei einem Ausdünnen verwendeten Zeile und einer eine Entfernungsmessungszelle umfassenden Zeile auf verschiedenen Reihen. Der Reihenausdünnungsschaltkreis gibt nur Daten einer in der Ausdünnungs-Betriebsart ausgelesenen Zeile aus, wie z.B. in 23 gezeigt. Somit umfasst eine Ausgabe von dem Reihenausdünnungsschaltkreis 829 keine Ausgabe von der Entfernungsmessungszelle.
  • Der Reihenausdünnungsschaltkreis 829 umfasst einen Pixelratenumwandlungs-Schaltkreis unter Verwendung eines Speichers, und gibt fortlaufende Bildsignale aus.
  • Ein Signalverarbeitungsschaltkreis 715 erzeugt Helligkeits-/Farb-Differenz-Bilddaten aus einem von dem Reihenausdünnungsschaltkreis eingegebenen Signal, und gibt die Bilddaten aus. Ein Anzeigensteuerungsschaltkreis 717 passt die Signalausgabe-Zeitablaufsteuerung an, um so einer Anzeige 718 zu ermöglichen, die von dem Signalverarbeitungsschaltkreis 715 ausgegebenen Helligkeits-/Farb-Differenz-Bilddaten anzuzeigen, und gibt die Bilddaten kontinuierlich zu der Anzeige 718 aus. Die Anzeige 718 zeigt die eingegebenen Bilddaten wiederholend an. Als Folge wird ein auf das Bildaufnahmeelement 710 einfallendes Objektbild auf der Anzeige 718 als ein Bewegtbild mit etwa 30 Rahmen/Sek. angezeigt.
  • Der Mikroprozessor passt die Zeitablaufsteuerung eines Taktes für den elektronischen Verschluss zum Löschen von Ladungen in allen fotoelektrischen Umwandlern auf dem Bildaufnahmeelement an, um so die Belichtungsmenge des Bildaufnahmeelements während des Betriebs des Suchers zu optimieren. Dies erzielt eine Belichtungsautomatik.
  • Ein Fotograf bestimmt ein Objekt über den elektronischen Sucher, und drückt einen Verschlussschalter 725 zur Hälfte nieder. Wenn der Mikroprozessor 724 in Schritt 202 feststellt, dass sich der Verschlussschalter 725 in dem SW1-Zustand befindet, bringt er die Verarbeitung zu Schritt 203 voran, um die Autofokus-Operation zu beginnen.
  • In Schritt 203 verbindet der Mikroprozessor einen Schalter 831 mit b. In Schritt 204 veranlasst der Mikroprozessor eine Speichersteuerung, einem Feld entsprechende Ausgaben von dem A/D-Wandler in einem Speicher 720 zu speichern.
  • Die Speichersteuerung transferiert das Bild von S2 zu einem Phasendifferenzberechnungs-Schaltkreis 721, ähnlich zum in dem Speicher gespeicherten Bild einer Entfernungsmessungszelle S1. Der Mikroprozessor liest den Verschiebungsbetrag zwischen den zwei Reihen von dem Phasendifferenzberechnungs-Schaltkreis aus, berechnet aus dem Verschiebungsbetrag den Unschärfebetrag, und gibt ein entsprechendes Linsenansteuerungssignal zu einer Fotografielinse 728 aus.
  • Die Fotografielinse 728 bewegt sich entsprechend dem Ansteuerungssignal, wodurch die Autofokus-Operation vollendet wird.
  • Wenn der Fotograf den Verschlussschalter 725 vollständig niederdrückt, gibt der Verschlussschalter das Steuerungssignal SW2 aus. Wenn der Mikroprozessor das vollständige Niederdrücken des Verschlussschalters in Schritt 205 erfasst, schaltet er in Schritt 206 den Schalter 830 zu b um.
  • In Schritt 207 beginnt der Mikroprozessor, ein Foto aufzunehmen. Der Mikroprozessor schließt einen Verschluss 727, und veranlasst die Speichersteuerung, eine Ausgabe von dem A/D-Wandler zu empfangen. Das Bildaufnahmeelement beginnt, Signale von dem ersten Feld auszugeben, wie in dem zweiten Ausführungsbeispiel beschrieben. Die Speichersteuerung empfängt das Videosignal des ersten Feldes von dem A/D-Wandler, um es in dem Speicher 720 zu speichern. Zu diesem Zeitpunkt sind zwei Reihen auf dem Speicher gepaart, und die Speichersteuerung speichert das von dem A/D-Wandler auf der ersten Reihe des Paares empfangene Videosignal.
  • Nach dem Speichern des Videosignals des ersten Feldes in dem Speicher, speichert die Speichersteuerung das Videosignal des zweiten Feldes. Die Speichersteuerung speichert das Videosignal des zweiten Feldes in der zweiten Reihe des Paares auf dem Speicher. Folglich sind die Videosignale von allen Pixeln auf dem Bildaufnahmeelement in dem Speicher in der gleichen Anordnung wie auf dem Bildaufnahmeelement gespeichert.
  • Die Videosignale der Entfernungsmessungszellen S1 und S2 werden unter Verwendung peripherer Pixel interpoliert. Der Mikroprozessor bestimmt die Position jeder Entfernungsmessungszelle auf der Basis der in einem in dem Mikroprozessor umfassten ROM gespeicherten Positionsmusterinformationen der Entfernungsmessungszellen, und interpoliert diesen Abschnitt unter Verwendung peripherer Pixel. Beispielsweise interpoliert der Mikroprozessor S1 in 23 durch ein bekanntes bikubisches Verfahren unter Verwendung der Werte peripherer G-Pixel.
  • Anschließend gibt die Speichersteuerung Bilddaten in dem Speicher zu dem Signalverarbeitungsschaltkreis 715 aus. Der Signalverarbeitungsschaltkreis 715 wandelt die eingegebenen Bilddaten in Helligkeits-/Farb-Differenz-Bilddaten, und führt eine Verarbeitung für die Helligkeits-/Farb-Differenz-Bilddaten durch, wie beispielsweise eine Gamma-Korrektur.
  • Der Signalverarbeitungsschaltkreis 715 gibt die verarbeiteten Daten sequentiell aus. Der Komprimierungsschaltkreis 716 komprimiert die von dem Signalverarbeitungsschaltkreis 715 ausgegebenen Daten entsprechend z.B. einem JPEG-Standard, und gibt die komprimierten Bilddaten aus.
  • Die Speichersteuerung 719 gibt die komprimierten Bilddaten zu einem Steuerungsschaltkreis 722 für das externe Aufzeichnungsmedium aus, um die Bilddaten als eine Datei auf einem externen Aufzeichnungsmedium 723 aufzuzeichnen.
  • Auf diese Art und Weise wird das Fotografieren eines Fotos vollendet. Der Mikroprozessor bringt die Verarbeitung zu Schritt 201 zurück und beginnt, den Sucher zu aktivieren.
  • Da Reihen, die Entfernungsmessungszellen umfassen, unter Verwendung des Reihenausdünnungsschaltkreises ausgedünnt werden, kann der Sucher ohne Interpolieren der Entfernungsmessungszellen arbeiten. Durch ein Ausdünnen von Entfernungsmessungszellen aufweisenden Reihen unter Verwendung des Reihenausdünnungsschaltkreises auch beim Fotografieren eines Bewegtbildes oder Fotografieren eines Fotos mit einer geringen Auflösung kann ein Bewegtbild oder ein Foto mit einer niedrigen Auflösung mit hoher Geschwindigkeit erzeugt werden, ähnlich dem vierten Ausführungsbeispiel.
  • Wie vorangehend beschrieben kann die Bildaufnahmevorrichtung gemäß dem fünften Ausführungsbeispiel eine Interpolation der Entfernungsmessungszelle beim Fotografieren eines Bewegtbildes oder Sucherbildes ohne Verwendung eines bestimmten Bildaufnahmeelement-Ansteuerungssignals in einer Bildaufnahmevorrichtung unter Verwendung eines Bildaufnahmeelements mit einer Autofokuszelle darauf vermeiden.
  • In dem fünften Ausführungsbeispiel ist die Anzahl von Rahmen kleiner als in dem vierten Ausführungsbeispiel. Da jedoch keine Interpolation der Entfernungsmessungszelle durchgeführt werden muss, kann das fünfte Ausführungsbeispiel auf dem Sucher anzeigen und ein Bewegtbild fotografieren, und dabei geringe Kosten und einen geringen Leistungsverbrauch ermöglichen. Zudem kann das fünfte Ausführungsbeispiel Fotos mit einer niedrigen Auflösung in Serie fotografieren.
  • Wenn eine funktionelle Zelle, wie beispielsweise neben der Autofokuszelle eine Belichtungsautomatikzelle, auf dem Bildaufnahmeelement angeordnet ist, können die gleichen Wirkungen durch Anordnen dieser funktionellen Zelle auf der gleichen Reihe wie die Autofokuszelle erzielt werden.
  • (Andere Ausführungsbeispiele)
  • Die vorliegende Erfindung kann auf ein System angewendet werden, dass sich aus einer Vielzahl von Geräten (z.B. einem Host-Computer, einer Schnittstellenvorrichtung, einem Leser, und einem Drucker) zusammensetzt, oder auf eine Vorrichtung, die ein einziges Gerät (z.B. ein Kopiergerät oder eine Fernkopierer-Vorrichtung) umfasst.
  • Die Aufgabe der vorliegenden Erfindung ist sogar realisiert durch Zuführen eines Speichermediums, das Software-Programmcodes zum Realisieren der Funktionalität der vorangehend beschriebenen Ausführungsbeispiele speichert, zu einem System oder einer Vorrichtung, und Veranlassen des Computers (oder eine CPU oder MPU) des Systems oder der Vorrichtung, die in dem Speichermedium gespeicherten Programmcodes auszulesen und auszuführen.
  • In diesem Fall realisieren die von dem Speichermedium ausgelesenen Programmcodes selbst die Funktionalität der vorangehend beschriebenen Ausführungsbeispiele, und das die Programmcodes speichernde Speichermedium stellt die vorliegende Erfindung dar.
  • Als ein Speichermedium zum Zuführen der Programmcodes können eine Diskette, Festplatte, Optical Disc, Magnetooptical Disc, CD-ROM, CD-R, Magnetband, nichtflüchtige Speicherkarte, ROM oder ähnliches verwendet werden.
  • Die Funktionalität der vorangehend beschriebenen Ausführungsbeispiele ist nicht nur dann realisiert, wenn die ausgelesenen Programmcodes durch den Computer ausgeführt werden, sondern auch dann, wenn das auf dem Computer laufende OS (Betriebssystem) die gesamte tatsächliche Verarbeitung oder Teile davon auf der Basis der Instruktionen der Programmcodes durchführt.
  • Die Funktionalität der vorangehend beschriebenen Ausführungsbeispiele ist auch dann realisiert, wenn die von dem Speichermedium ausgelesenen Programmcodes in den Speicher eines in den Computer eingegebenen Funktionserweiterungs-Boards oder einer mit dem Computer verbundenen Funktionserweiterungseinheit geschrieben werden, und die CPU des Funktionserweiterungs-Boards oder der Funktionserweiterungseinheit die gesamte tatsächliche Verarbeitung oder Teile davon auf der Basis der Instruktionen der Programmcodes durchführt.
  • Wie vorangehend beschrieben und gemäß der vorliegenden Erfindung sind neben Pixeln zum Aufnehmen originärer Bildinformationen einige funktionelle Pixel zur Entfernungsmessung, Fotometrie und ähnlichem in den Pixeln eines Bildaufnahmeelements angeordnet. Diese Anordnung ermöglicht es dem Bildaufnahmeelement, AF- und AE-Informationen auf der originären Bildaufnahmeoberfläche zu erhalten. Die vorliegende Erfindung kann eine kompakte, einfachere Kamera bereitstellen als eine herkömmliche Kamera mit einem von einem Bildaufnahmeelement separaten Sensor. Die Zeiten für eine AF- und AE-Operation können verkürzt werden, um einem Fotografen mehr Schnappschussmöglichkeiten zu bieten. Darüber hinaus kann ein hochpräziser AF und AE realisiert werden, und ein Verlust wichtiger Bilder durch Fotografiefehler kann stark reduziert werden.
  • Des weiteren kann die vorliegende Erfindung ein Bildaufnahmeelement realisieren, in dem gelesene Pixel bei der Bewegtbildfotografie oder Sucheranzeige keine Entfernungsmessungspixel umfassen, und Daten können von einer nötigen Anzahl von Pixel zum Erzeugen eines Bewegtbildes ausgelesen werden.
  • Eine Bildaufnahmevorrichtung unter Verwendung dieses Bildaufnahmeelements muss die Entfernungsmessungspixel nicht interpolieren, und kann ein Bewegtbild mit hoher Geschwindigkeit erzeugen, weil Pixel bis auf einen zum Erzeugen eines Bewegtbildes notwendigen Umfang ausgedünnt werden. Folglich kann die vorliegende Erfindung eine ausgezeichneten einfache Bildaufnahmevorrichtung realisieren, die ein Fotografieren eines hochwertigen Suchers oder Bewegtbild-Datei unter Verwendung vieler Rahmen und eine sehr schnelle fotometrische Operation ermöglicht.
  • Da die Verarbeitung durch die Bildaufnahmevorrichtung vereinfacht ist, sinkt der Leistungsverbrauch der Vorrichtung.
  • Die vorliegende Erfindung ist nicht auf die vorangehenden Ausführungsbeispiele begrenzt, und verschiedene Änderungen und Modifikationen können im Rahmen der vorliegenden Erfindung gemacht werden. Deshalb, um die Öffentlichkeit vom Rahmen der vorliegenden Erfindung in Kenntnis zu setzen, werden die folgenden Ansprüche gestellt.

Claims (12)

  1. Bildaufnahmevorrichtung, bei der fotoelektrische (R, G, B)-Umwandlungszellen zum Umwandeln eines durch ein optisches System gebildeten optischen Bildes in ein elektrisches Signal in einem zweidimensionalen Feld angeordnet sind, wobei die fotoelektrischen Umwandlungszellen erste fotoelektrische Umwandlungszellen zum Erhalten von Signalen zum Bilden eines Bildsignals und zweite fotoelektrische Umwandlungszellen (S1, S2, R), die sich strukturell von den ersten fotoelektrischen Umwandlungszellen unterscheiden, zum Erhalten von Signalen zur Brennpunktanpassung oder zum Durchführen von Fotometrie umfassen, und wobei jede der zweiten fotoelektrischen Umwandlungszellen von ersten fotoelektrischen Umwandlungszellen umgeben ist.
  2. Vorrichtung gemäß Anspruch 1, wobei die fotoelektrischen Umwandlungszellen durch Wiederholung grundlegender Anordnungen fotoelektrischer Umwandlungszellen gebildet sind, wobei jede grundlegende Anordnung unterschiedliche fotoelektrische Umwandlungszellen zum Erfassen einer Vielzahl von Farben enthält, und wobei eine fotoelektrische Umwandlungszelle in zumindest einigen der grundlegenden Anordnungen eine zweite fotoelektrische Umwandlungszelle ist.
  3. Vorrichtung gemäß Anspruch 2, und wobei zumindest einige zweite Umwandlungszellen zur Brennpunktanpassung dienen und jeweils eine Mikrolinse (216), die an dem fotoelektrischen Umwandlungsabschnitt angeordnet ist, sowie eine Licht abschirmende Schicht (210) mit einer Öffnung aufweisen, die sich zwischen der Mikrolinse und dem fotoelektrischen Umwandlungsabschnitt befindet, und wobei für einige der fotoelektrischen Umwandlungszellen, die mit Mikrolinsen verknüpft sind, ihre zugehörigen Öffnungen in einer Richtung bezüglich den optischen Mittelpunkten ihrer Mikrolinsen versetzt sind und für die anderen fotoelektrischen Umwandlungszellen, die mit Mikrolinsen verknüpft sind, ihre zugehörigen Öffnungen bezüglich den optischen Mittelpunkten ihrer zugehörigen Mikrolinsen in einer zu der besagten einen Richtung entgegengesetzten Richtung versetzt sind, wobei zumindest ein Teil des Bildaufnahmebereichs der Vorrichtung ein Paar benachbarter Reihen grundlegender Anordnungen von fotoelektrischen Umwandlungszellen aufweist, wobei jede Reihe zweite fotoelektrische Umwandlungszellen enthält und wobei alle zweiten fotoelektrischen Umwandlungszellen in einer Reihe einen Versatz ihrer zugehörigen Öffnungen in der gleichen Richtung aufweisen, aber entgegengesetzt zu der Richtung des Versatzes der zugehörigen Öffnungen der zweiten fotoelektrischen Umwandlungszellen in der benachbarten Reihe.
  4. Vorrichtung gemäß Anspruch 3, wobei der Bildaufnahmebereich drei benachbarte Reihen der grundlegenden Anordnung umfasst, wobei jede Reihe zweite elektrooptische Umwandlungszellen mit zugehörigen Mikrolinsen und Öffnungen umfasst, wobei die Versatzrichtung der Öffnungen in der mittleren Reihe der benachbarten Reihen anders ist als die Versatzrichtung der Öffnungen in den anderen beiden Reihen.
  5. Vorrichtung gemäß einem der Ansprüche 2 bis 3, wobei die mit Mikrolinsen verknüpften fotoelektrischen Zellen zum Erzeugen von Ausgabesignalen zur Verwendung bei einer Autofokussierungsverarbeitung dienen.
  6. Vorrichtung gemäß Anspruch 2, wobei einige der zweiten fotoelektrischen Umwandlungszellen jeweils mit einer Öffnung in einer Licht abschirmenden Schicht verknüpft sind, die über den fotoelektrischen Umwandlungsabschnitten der Zellen gebildet ist, wobei die Öffnungen in der Größe variieren, um so fotoelektrische Zellen mit unterschiedlichen Empfindlichkeitsgraden bezüglich einfallenden Lichts bereitzustellen.
  7. Vorrichtung gemäß Anspruch 3, wobei diejenigen zweiten fotoelektrischen Umwandlungszellen, die mit variierenden Öffnungen verknüpft sind, zum Erzeugen von Ausgabesignalen zur Verwendung bei einer Selbstauslösungsverarbeitung dienen.
  8. Vorrichtung gemäß Anspruch 7, wenn kombiniert mit Anspruch 5, wobei eine Vielzahl von Reihen grundlegender Anordnungen fotoelektrischer Umwandlungszellen zweite fotoelektrische Umwandlungszellen, die mit Mikrolinsen verknüpft sind, und zweite fotoelektrische Umwandlungszellen, die mit Öffnungen unterschiedlicher Größen verknüpft sind, umfassen.
  9. Vorrichtung gemäß einem der vorhergehenden Ansprüche, und zusätzlich mit einem Zeitsteuerungsgenerator, der zum Erzeugen erster Zeitsteuerungssignale zum Auslesen von Signalen aus den ersten und zweiten Umwandlungszellen und zweiten Zeitsteuerungssignalen zum Auslesen von Signalen aus den zweiten fotoelektrischen Umwandlungszellen angepasst ist.
  10. Vorrichtung gemäß Anspruch 9, und zur Verwendung mit einer Kamera zum Aufnehmen von Fotografien, und zusätzlich mit einer Umschaltschaltung, die zum Umschalten zwischen Fotografierbetriebsarten der Kamera angepasst ist zwischen einer ersten Fotografierbetriebsart, bei der aus den durch das erste Ansteuerungssignal ausgelesenen Signalen ein Bildsignal erzeugt wird, und einer zweiten Fotografierbetriebsart, bei der aus den durch das zweite Ansteuerungssignal ausgelesenen Signalen ein Bildsignal erzeugt wird.
  11. Vorrichtung gemäß Anspruch 3, oder einem der Ansprüche 4 bis 10, wenn abhängig von Anspruch 3, und zusätzlich mit einer Steuerung zum Durchführen einer Brennpunktanpassung bezüglich der Linse einer Kamera durch Berechnung von Verhältnissen zwischen Bildern, die von den zweiten fotoelektrischen Zellen erhalten werden, welche mit versetzten Mikrolinsen verknüpft sind.
  12. Vorrichtung gemäß Anspruch 11, wobei die Steuerung angepasst ist, eine Auslösungsanpassung in Erwiderung auf Signale durchzuführen, die von den zweiten fotoelektrischen Umwandlungszellen empfangen werden, welche zugehörige Öffnungen variierender Größen aufweisen.
DE69929405T 1998-08-20 1999-08-19 Halbleiterbildaufnahmevorrichtung mit zur Fokusmessung und / oder zur Lichtstärkemessung bestimmten Wandlerzellen Expired - Lifetime DE69929405T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP23470398 1998-08-20
JP23470398 1998-08-20
JP21077699A JP3592147B2 (ja) 1998-08-20 1999-07-26 固体撮像装置
JP21077699 1999-07-26

Publications (2)

Publication Number Publication Date
DE69929405D1 DE69929405D1 (de) 2006-04-06
DE69929405T2 true DE69929405T2 (de) 2006-07-20

Family

ID=26518265

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69929405T Expired - Lifetime DE69929405T2 (de) 1998-08-20 1999-08-19 Halbleiterbildaufnahmevorrichtung mit zur Fokusmessung und / oder zur Lichtstärkemessung bestimmten Wandlerzellen

Country Status (4)

Country Link
US (1) US6829008B1 (de)
EP (1) EP0981245B1 (de)
JP (1) JP3592147B2 (de)
DE (1) DE69929405T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112012003106B4 (de) 2011-07-25 2019-07-18 Canon Kabushiki Kaisha Bildaufnahmevorrichtung und Steuerungsverfahren für diese
DE102019128781A1 (de) * 2019-10-24 2021-04-29 Leica Camera Aktiengesellschaft Verfahren zur Erzeugung eines Ausgabesignals eines PDAF-Bildpunkts

Families Citing this family (289)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6911638B2 (en) 1995-02-03 2005-06-28 The Regents Of The University Of Colorado, A Body Corporate Wavefront coding zoom lens imaging systems
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US7218448B1 (en) 1997-03-17 2007-05-15 The Regents Of The University Of Colorado Extended depth of field optical systems
JP3774597B2 (ja) * 1999-09-13 2006-05-17 キヤノン株式会社 撮像装置
JP5002086B2 (ja) * 1999-10-28 2012-08-15 キヤノン株式会社 焦点検出装置と撮像装置
US7084905B1 (en) 2000-02-23 2006-08-01 The Trustees Of Columbia University In The City Of New York Method and apparatus for obtaining high dynamic range images
US6417950B1 (en) * 2000-08-28 2002-07-09 University Technology Corporation Three-color imaging on each pixel for increased resolution
JP4590136B2 (ja) * 2000-08-29 2010-12-01 オリンパス株式会社 カメラ
JP4192428B2 (ja) * 2001-01-09 2008-12-10 ソニー株式会社 固体撮像装置及び画像入力装置
US6873733B2 (en) 2001-01-19 2005-03-29 The Regents Of The University Of Colorado Combined wavefront coding and amplitude contrast imaging systems
US7088395B2 (en) * 2001-01-29 2006-08-08 Konica Corporation Image-capturing apparatus
US7184084B2 (en) * 2001-02-26 2007-02-27 Florida Atlantic University Method and apparatus for image sensing with CCD
JP4421793B2 (ja) * 2001-07-13 2010-02-24 富士フイルム株式会社 ディジタルカメラ
US20060125945A1 (en) * 2001-08-07 2006-06-15 Satoshi Suzuki Solid-state imaging device and electronic camera and shading compensaton method
US6842297B2 (en) 2001-08-31 2005-01-11 Cdm Optics, Inc. Wavefront coding optics
JP2003101867A (ja) * 2001-09-19 2003-04-04 Olympus Optical Co Ltd 撮像装置
JP4532800B2 (ja) * 2001-11-08 2010-08-25 キヤノン株式会社 撮像装置及びシステム
JP4027113B2 (ja) * 2002-02-19 2007-12-26 キヤノン株式会社 撮像装置及びシステム
KR100900485B1 (ko) * 2002-10-26 2009-06-03 삼성디지털이미징 주식회사 구조가 개선된 디지털 카메라용 이미지 센싱 수단 및 이를채용한 디지털 카메라
US7742088B2 (en) * 2002-11-19 2010-06-22 Fujifilm Corporation Image sensor and digital camera
US7702236B2 (en) 2006-02-14 2010-04-20 Fotonation Vision Limited Digital image acquisition device with built in dust and sensor mapping capability
US7295233B2 (en) 2003-09-30 2007-11-13 Fotonation Vision Limited Detection and removal of blemishes in digital images utilizing original images of defocused scenes
US7424170B2 (en) 2003-09-30 2008-09-09 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on determining probabilities based on image analysis of single images
US8369650B2 (en) 2003-09-30 2013-02-05 DigitalOptics Corporation Europe Limited Image defect map creation using batches of digital images
US7590305B2 (en) 2003-09-30 2009-09-15 Fotonation Vision Limited Digital camera with built-in lens calibration table
US7308156B2 (en) * 2003-09-30 2007-12-11 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on a dust map developed from actual image data
US7369712B2 (en) 2003-09-30 2008-05-06 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images based on multiple occurrences of dust in images
US7340109B2 (en) * 2003-09-30 2008-03-04 Fotonation Vision Limited Automated statistical self-calibrating detection and removal of blemishes in digital images dependent upon changes in extracted parameter values
US7310450B2 (en) 2003-09-30 2007-12-18 Fotonation Vision Limited Method of detecting and correcting dust in digital images based on aura and shadow region analysis
JP2005333491A (ja) * 2004-05-20 2005-12-02 Fuji Photo Film Co Ltd 撮像装置
US8289399B2 (en) * 2004-08-09 2012-10-16 Hewlett-Packard Development Company, L.P. System and method for image capture device
JP4736397B2 (ja) * 2004-10-22 2011-07-27 日本電気株式会社 撮像素子、撮像モジュール及び携帯端末
US8274715B2 (en) 2005-07-28 2012-09-25 Omnivision Technologies, Inc. Processing color and panchromatic pixels
US8139130B2 (en) 2005-07-28 2012-03-20 Omnivision Technologies, Inc. Image sensor with improved light sensitivity
GB2429864B (en) 2005-09-01 2008-09-24 Micron Technology Inc Method and apparatus providing pixel array having automatic light control pixels and image capture pixels
JP4967296B2 (ja) * 2005-10-03 2012-07-04 株式会社ニコン 撮像素子、焦点検出装置、および、撮像システム
JP2007150643A (ja) * 2005-11-28 2007-06-14 Sony Corp 固体撮像素子、固体撮像素子の駆動方法および撮像装置
JP5023480B2 (ja) * 2005-12-02 2012-09-12 株式会社ニコン 電子カメラ
JP4764712B2 (ja) * 2005-12-09 2011-09-07 富士フイルム株式会社 ディジタル・カメラおよびその制御方法
JP4596268B2 (ja) * 2006-02-14 2010-12-08 ソニー株式会社 撮像装置
JP4807131B2 (ja) * 2006-04-05 2011-11-02 株式会社ニコン 撮像素子および撮像装置
US7711261B2 (en) * 2006-04-11 2010-05-04 Nikon Corporation Imaging device, camera and image processing method
JP4187004B2 (ja) 2006-04-17 2008-11-26 ソニー株式会社 撮像装置および撮像装置の露光制御方法
JP4908067B2 (ja) 2006-06-01 2012-04-04 オリンパス株式会社 固体撮像装置及びそれを用いた撮像装置システム
JP5045007B2 (ja) * 2006-07-05 2012-10-10 株式会社ニコン 撮像装置
US7545418B2 (en) * 2006-07-17 2009-06-09 Jeffery Steven Beck Image sensor device having improved noise suppression capability and a method for supressing noise in an image sensor device
JP5045012B2 (ja) * 2006-07-20 2012-10-10 株式会社ニコン 固体撮像素子及びこれを用いた撮像装置
JP4614925B2 (ja) * 2006-07-28 2011-01-19 三洋電機株式会社 画素情報読出方法および撮像装置
JP5133533B2 (ja) * 2006-08-04 2013-01-30 株式会社ニコン 撮像装置
US8031258B2 (en) * 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
JP4321579B2 (ja) * 2006-11-28 2009-08-26 ソニー株式会社 撮像装置
JP2008177738A (ja) * 2007-01-17 2008-07-31 Casio Comput Co Ltd 撮像装置及び撮像素子
JP5290530B2 (ja) * 2007-03-19 2013-09-18 日本電気株式会社 電子増倍型撮像装置
JP4979452B2 (ja) * 2007-05-07 2012-07-18 キヤノン株式会社 画像読取装置
JP5040458B2 (ja) * 2007-06-16 2012-10-03 株式会社ニコン 固体撮像素子及びこれを用いた撮像装置
JP5028154B2 (ja) 2007-06-20 2012-09-19 キヤノン株式会社 撮像装置及びその制御方法
JP4979482B2 (ja) * 2007-06-28 2012-07-18 オリンパス株式会社 撮像装置及び画像信号処理プログラム
US7855740B2 (en) * 2007-07-20 2010-12-21 Eastman Kodak Company Multiple component readout of image sensor
JP4567712B2 (ja) * 2007-07-30 2010-10-20 オリンパス株式会社 撮像装置
US8525917B2 (en) 2007-08-06 2013-09-03 Canon Kabushiki Kaisha Image sensing apparatus with plural focus detection pixel groups
WO2009022634A1 (en) 2007-08-10 2009-02-19 Canon Kabushiki Kaisha Image-pickup apparatus and control method therof
WO2009022458A1 (ja) * 2007-08-13 2009-02-19 Panasonic Corporation 撮像装置およびカメラ
US8125560B1 (en) * 2007-08-13 2012-02-28 Ambarella, Inc. System for topology based automatic focus
JP5012328B2 (ja) * 2007-08-29 2012-08-29 株式会社ニコン 撮像素子の位置調整方法
JP5288752B2 (ja) * 2007-09-07 2013-09-11 キヤノン株式会社 撮像装置
JP5264131B2 (ja) 2007-09-14 2013-08-14 キヤノン株式会社 撮像装置
JP5034840B2 (ja) * 2007-10-01 2012-09-26 株式会社ニコン 固体撮像装置及びこれを用いた電子カメラ
JP5187039B2 (ja) * 2007-10-01 2013-04-24 株式会社ニコン 固体撮像装置及びこれを用いた電子カメラ
JP5194688B2 (ja) 2007-10-01 2013-05-08 株式会社ニコン 固体撮像装置
JP5029268B2 (ja) * 2007-10-01 2012-09-19 株式会社ニコン 電子カメラ
US7989745B2 (en) * 2007-10-01 2011-08-02 Nikon Corporation Solid-state imaging device with focus detection and electronic camera with focus adjustment
JP5092685B2 (ja) 2007-10-23 2012-12-05 株式会社ニコン 撮像素子および撮像装置
JP5153293B2 (ja) * 2007-10-23 2013-02-27 キヤノン株式会社 画像処理装置及び画像処理プログラム
JP5002412B2 (ja) 2007-10-24 2012-08-15 キヤノン株式会社 撮像装置
JP2009115893A (ja) 2007-11-02 2009-05-28 Canon Inc 撮像装置
JP5163068B2 (ja) * 2007-11-16 2013-03-13 株式会社ニコン 撮像装置
JP2009130582A (ja) * 2007-11-22 2009-06-11 Nikon Corp 固体撮像装置、電子カメラ
JP5186895B2 (ja) * 2007-11-22 2013-04-24 株式会社ニコン 撮像装置
JP5245370B2 (ja) * 2007-11-22 2013-07-24 株式会社ニコン 固体撮像装置、電子カメラ
JP5256711B2 (ja) * 2007-11-28 2013-08-07 株式会社ニコン 撮像素子および撮像装置
JP5157400B2 (ja) * 2007-12-03 2013-03-06 株式会社ニコン 撮像装置
JP4978449B2 (ja) * 2007-12-10 2012-07-18 ソニー株式会社 撮像装置
JP2009139807A (ja) 2007-12-10 2009-06-25 Sony Corp 撮像装置
JP5180795B2 (ja) * 2007-12-10 2013-04-10 キヤノン株式会社 撮像装置及びその制御方法
JP4973478B2 (ja) 2007-12-11 2012-07-11 ソニー株式会社 撮像素子および撮像装置
JP5043626B2 (ja) 2007-12-13 2012-10-10 キヤノン株式会社 撮像装置
US8279318B2 (en) 2007-12-14 2012-10-02 Canon Kabushiki Kaisha Image pickup apparatus and display control method for the same
JP5109641B2 (ja) * 2007-12-18 2012-12-26 ソニー株式会社 撮像素子および撮像装置
JP5127476B2 (ja) * 2008-01-28 2013-01-23 キヤノン株式会社 撮像装置
JP5040700B2 (ja) 2008-02-12 2012-10-03 ソニー株式会社 撮像素子および撮像装置
JP5219865B2 (ja) 2008-02-13 2013-06-26 キヤノン株式会社 撮像装置及び焦点制御方法
JP5298638B2 (ja) 2008-02-14 2013-09-25 株式会社ニコン 画像処理装置、撮像装置、補正係数算出方法及び画像処理プログラム
CN101952759B (zh) * 2008-02-22 2012-12-19 松下电器产业株式会社 摄像装置
JP5050928B2 (ja) * 2008-02-28 2012-10-17 ソニー株式会社 撮像装置および撮像素子
JP5451111B2 (ja) 2008-03-11 2014-03-26 キヤノン株式会社 焦点検出装置およびそれを有する撮像装置
JP5225151B2 (ja) 2008-03-11 2013-07-03 キヤノン株式会社 撮像装置及び画像処理方法
JP5164617B2 (ja) * 2008-03-11 2013-03-21 キヤノン株式会社 撮像装置及び画像処理方法
JP5552214B2 (ja) 2008-03-11 2014-07-16 キヤノン株式会社 焦点検出装置
JP5197083B2 (ja) 2008-03-21 2013-05-15 キヤノン株式会社 撮像装置及びその制御方法
CN102016681B (zh) * 2008-04-30 2012-07-18 佳能株式会社 摄像设备
JP5169499B2 (ja) 2008-06-02 2013-03-27 株式会社ニコン 撮像素子および撮像装置
JP2010020015A (ja) 2008-07-09 2010-01-28 Canon Inc 撮像装置
JP5276371B2 (ja) 2008-07-09 2013-08-28 キヤノン株式会社 撮像装置
JP5241355B2 (ja) 2008-07-10 2013-07-17 キヤノン株式会社 撮像装置とその制御方法
JP5164707B2 (ja) * 2008-07-17 2013-03-21 キヤノン株式会社 位相差検出装置、撮像装置、位相差検出装置の信号レベル補正方法、信号レベル補正プログラム
JP5317562B2 (ja) * 2008-07-17 2013-10-16 キヤノン株式会社 位相差検出装置、撮像装置、位相差検出方法、位相差検出プログラム
JP5276374B2 (ja) 2008-07-25 2013-08-28 キヤノン株式会社 焦点検出装置
JP5127628B2 (ja) * 2008-08-08 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法
JP5161702B2 (ja) 2008-08-25 2013-03-13 キヤノン株式会社 撮像装置、撮像システム、及び焦点検出方法
JP2010057067A (ja) 2008-08-29 2010-03-11 Sony Corp 撮像装置および画像処理装置
JP5371331B2 (ja) 2008-09-01 2013-12-18 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP5322561B2 (ja) * 2008-09-25 2013-10-23 キヤノン株式会社 撮像装置及びその制御方法
JP5147645B2 (ja) 2008-10-30 2013-02-20 キヤノン株式会社 撮像装置
JP5300414B2 (ja) 2008-10-30 2013-09-25 キヤノン株式会社 カメラ及びカメラシステム
JP5489641B2 (ja) 2008-11-11 2014-05-14 キヤノン株式会社 焦点検出装置及びその制御方法
JP5543098B2 (ja) * 2008-11-14 2014-07-09 キヤノン株式会社 撮像装置
EP2370846A4 (de) * 2008-11-27 2013-12-11 Canon Kk Festkörperbildsensor und bilderfassungsvorrichtung
JP5400406B2 (ja) * 2009-02-06 2014-01-29 キヤノン株式会社 撮像装置
KR101786069B1 (ko) * 2009-02-17 2017-10-16 가부시키가이샤 니콘 이면 조사형 촬상 소자, 그 제조 방법 및 촬상 장치
JP5434121B2 (ja) * 2009-02-17 2014-03-05 株式会社ニコン 裏面照射型撮像素子および撮像装置
JP5262823B2 (ja) * 2009-02-23 2013-08-14 ソニー株式会社 固体撮像装置および電子機器
JP5455397B2 (ja) 2009-03-02 2014-03-26 キヤノン株式会社 光学機器
JP5319347B2 (ja) 2009-03-17 2013-10-16 キヤノン株式会社 撮像装置及びその制御方法
JP5424679B2 (ja) 2009-03-18 2014-02-26 キヤノン株式会社 撮像装置及び信号処理装置
US8218068B2 (en) 2009-04-01 2012-07-10 Omnivision Technologies, Inc. Exposing pixel groups in producing digital images
JP5278123B2 (ja) * 2009-04-06 2013-09-04 株式会社ニコン 撮像装置
JP5183565B2 (ja) 2009-05-11 2013-04-17 キヤノン株式会社 撮像装置
JP5478935B2 (ja) 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
JP5159700B2 (ja) 2009-05-19 2013-03-06 キヤノン株式会社 光学装置及び焦点検出方法
JP5361535B2 (ja) 2009-05-25 2013-12-04 キヤノン株式会社 撮像装置
JP5279638B2 (ja) * 2009-07-08 2013-09-04 キヤノン株式会社 撮像装置
JP5173954B2 (ja) 2009-07-13 2013-04-03 キヤノン株式会社 画像処理装置及び画像処理方法
JP5517514B2 (ja) 2009-07-16 2014-06-11 キヤノン株式会社 撮像装置及びその制御方法
JP5464934B2 (ja) * 2009-07-23 2014-04-09 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5448621B2 (ja) 2009-07-27 2014-03-19 キヤノン株式会社 撮像装置、及び撮像装置の制御方法
JP5662667B2 (ja) 2009-10-08 2015-02-04 キヤノン株式会社 撮像装置
JP5595014B2 (ja) 2009-11-09 2014-09-24 キヤノン株式会社 撮像装置
JP5537905B2 (ja) * 2009-11-10 2014-07-02 富士フイルム株式会社 撮像素子及び撮像装置
JP5563283B2 (ja) 2009-12-09 2014-07-30 キヤノン株式会社 画像処理装置
JP5653035B2 (ja) 2009-12-22 2015-01-14 キヤノン株式会社 撮像装置、焦点検出方法、および制御方法
JP2011176715A (ja) 2010-02-25 2011-09-08 Nikon Corp 裏面照射型撮像素子および撮像装置
JP5126261B2 (ja) * 2010-03-18 2013-01-23 株式会社ニコン カメラ
JP2011221253A (ja) * 2010-04-08 2011-11-04 Sony Corp 撮像装置、固体撮像素子、撮像方法およびプログラム
JP2011221290A (ja) 2010-04-09 2011-11-04 Olympus Corp 撮像装置及びカメラ
JP5506517B2 (ja) 2010-04-12 2014-05-28 キヤノン株式会社 固体撮像素子
JP5572700B2 (ja) 2010-04-30 2014-08-13 富士フイルム株式会社 撮像装置及び撮像方法
JP5645474B2 (ja) * 2010-05-19 2014-12-24 富士フイルム株式会社 撮像装置及び撮像画像信号の補正方法
JP2012003080A (ja) 2010-06-17 2012-01-05 Olympus Corp 撮像装置
JP2012008424A (ja) 2010-06-28 2012-01-12 Olympus Corp 撮像システム
JP5620992B2 (ja) 2010-07-12 2014-11-05 富士フイルム株式会社 固体撮像装置
JP5757699B2 (ja) * 2010-07-27 2015-07-29 オリンパス株式会社 撮像装置
JP2012027390A (ja) * 2010-07-27 2012-02-09 Olympus Corp 撮像装置
JP5513623B2 (ja) 2010-08-24 2014-06-04 富士フイルム株式会社 固体撮像装置
JP5513326B2 (ja) 2010-09-07 2014-06-04 キヤノン株式会社 撮像素子及び撮像装置
JP5676988B2 (ja) * 2010-09-14 2015-02-25 キヤノン株式会社 焦点調節装置
JP5677800B2 (ja) 2010-10-21 2015-02-25 オリンパス株式会社 撮像装置
JP5183715B2 (ja) 2010-11-04 2013-04-17 キヤノン株式会社 画像処理装置及び画像処理方法
JP5574926B2 (ja) 2010-11-17 2014-08-20 キヤノン株式会社 固体撮像素子
JP5804693B2 (ja) * 2010-11-26 2015-11-04 キヤノン株式会社 撮像装置
JP5631176B2 (ja) 2010-11-29 2014-11-26 キヤノン株式会社 固体撮像素子及びカメラ
JP5623254B2 (ja) * 2010-11-29 2014-11-12 キヤノン株式会社 撮像装置およびその制御方法
JP5739653B2 (ja) 2010-12-03 2015-06-24 キヤノン株式会社 撮像装置
JP5614268B2 (ja) * 2010-12-09 2014-10-29 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
FR2969819A1 (fr) 2010-12-22 2012-06-29 St Microelectronics Grenoble 2 Capteur d'image tridimensionnel
FR2969822A1 (fr) 2010-12-24 2012-06-29 St Microelectronics Grenoble 2 Capteur d'image tridimensionnel
JP2012137600A (ja) 2010-12-27 2012-07-19 Sony Corp 撮像システム、撮像装置、およびプログラム
JP5762002B2 (ja) * 2011-01-06 2015-08-12 キヤノン株式会社 撮像装置
JP5664270B2 (ja) * 2011-01-21 2015-02-04 ソニー株式会社 撮像素子および撮像装置
JP5818451B2 (ja) 2011-02-09 2015-11-18 キヤノン株式会社 撮像装置および制御方法
JP5698555B2 (ja) * 2011-02-17 2015-04-08 オリンパス株式会社 撮像素子、撮像装置
JP5954964B2 (ja) * 2011-02-18 2016-07-20 キヤノン株式会社 撮像装置およびその制御方法
JP5817154B2 (ja) * 2011-03-10 2015-11-18 株式会社ニコン 撮像装置
JP6016396B2 (ja) 2011-03-24 2016-10-26 キヤノン株式会社 撮像素子および撮像装置
WO2012127702A1 (ja) 2011-03-24 2012-09-27 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像プログラム
JP5539583B2 (ja) 2011-03-24 2014-07-02 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像プログラム
JP5547338B2 (ja) 2011-03-24 2014-07-09 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像プログラム
WO2012128154A1 (ja) 2011-03-24 2012-09-27 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像装置の制御プログラム
JP5539584B2 (ja) 2011-03-24 2014-07-02 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像プログラム
JP5490312B2 (ja) 2011-03-24 2014-05-14 富士フイルム株式会社 カラー撮像素子、撮像装置、及び撮像装置の制御プログラム
JP5744599B2 (ja) 2011-03-31 2015-07-08 キヤノン株式会社 撮像素子、および撮像装置
JP5468178B2 (ja) * 2011-03-31 2014-04-09 富士フイルム株式会社 撮像装置、撮像装置の制御方法及びプログラム
KR101777351B1 (ko) 2011-05-16 2017-09-11 삼성전자주식회사 촬상 소자, 이를 이용한 디지털 촬영 장치, 오토 포커싱 방법, 및 상기 방법을 수행하기 위한 컴퓨터 판독가능 저장매체
KR101747304B1 (ko) * 2011-05-30 2017-06-14 삼성전자주식회사 디지털 촬영 장치, 오토포커싱 방법, 및 이를 실행하기 위한 컴퓨터 판독가능 저장매체
KR101853817B1 (ko) 2011-07-20 2018-05-02 삼성전자주식회사 촬상 소자
KR101773168B1 (ko) 2011-07-21 2017-09-12 삼성전자주식회사 위상차이 촬상 소자에 의한 초점 조절 장치 및 방법
JP5948076B2 (ja) 2011-08-23 2016-07-06 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御方法
WO2013031537A1 (ja) 2011-08-30 2013-03-07 富士フイルム株式会社 固体撮像装置及びデジタルカメラ
JP5907595B2 (ja) 2011-09-27 2016-04-26 キヤノン株式会社 撮像装置
JP5911252B2 (ja) 2011-09-30 2016-04-27 キヤノン株式会社 撮像装置及び画像処理方法
KR20130038035A (ko) 2011-10-07 2013-04-17 삼성전자주식회사 촬상소자
JP5973708B2 (ja) 2011-10-21 2016-08-23 オリンパス株式会社 撮像装置及び内視鏡装置
JP5888940B2 (ja) 2011-11-11 2016-03-22 オリンパス株式会社 撮像装置、撮像装置の制御方法、およびプログラム
WO2013100039A1 (ja) * 2011-12-27 2013-07-04 富士フイルム株式会社 カラー撮像素子及び撮像装置
WO2013099637A1 (ja) * 2011-12-28 2013-07-04 富士フイルム株式会社 カラー撮像素子及び撮像装置
JP5893572B2 (ja) 2012-03-01 2016-03-23 キヤノン株式会社 撮像装置、撮像システム、撮像装置の駆動方法
JP5932399B2 (ja) 2012-03-02 2016-06-08 キヤノン株式会社 撮像装置及び音声処理装置
US9191566B2 (en) 2012-03-30 2015-11-17 Samsung Electronics Co., Ltd. Image pickup apparatus, method for image pickup and computer-readable recording medium
JP2013218031A (ja) 2012-04-05 2013-10-24 Canon Inc 撮像装置
JP6041871B2 (ja) 2012-05-15 2016-12-14 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP5501405B2 (ja) * 2012-05-18 2014-05-21 キヤノン株式会社 制御装置
JP5677628B2 (ja) * 2012-06-07 2015-02-25 富士フイルム株式会社 撮像装置及び撮像方法
JP6066593B2 (ja) * 2012-06-13 2017-01-25 キヤノン株式会社 撮像システムおよび撮像システムの駆動方法
JP5529928B2 (ja) 2012-06-14 2014-06-25 オリンパスイメージング株式会社 撮像装置及び撮像装置の制御方法
JP6103849B2 (ja) * 2012-08-02 2017-03-29 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP6099904B2 (ja) * 2012-09-03 2017-03-22 キヤノン株式会社 撮像装置
JP5967432B2 (ja) 2012-09-11 2016-08-10 ソニー株式会社 処理装置、処理方法、及び、プログラム
JP5900257B2 (ja) 2012-09-11 2016-04-06 ソニー株式会社 処理装置、処理方法、及び、プログラム
JP5937690B2 (ja) 2012-09-19 2016-06-22 富士フイルム株式会社 撮像装置及びその制御方法
JP6021543B2 (ja) * 2012-09-20 2016-11-09 ソニーセミコンダクタソリューションズ株式会社 撮像素子、撮像装置、情報処理装置
JP6288909B2 (ja) 2012-10-19 2018-03-07 キヤノン株式会社 撮像素子及び撮像装置
JP5420050B2 (ja) * 2012-10-31 2014-02-19 キヤノン株式会社 撮像装置及びその制御方法
JP6045314B2 (ja) * 2012-11-20 2016-12-14 オリンパス株式会社 固体撮像装置、固体撮像装置の制御方法、および撮像装置
JP5498561B2 (ja) * 2012-12-05 2014-05-21 キヤノン株式会社 画像処理装置及び画像処理方法
JP6021622B2 (ja) 2012-12-07 2016-11-09 オリンパス株式会社 画像処理装置及び画像処理方法
JP5462929B2 (ja) * 2012-12-19 2014-04-02 キヤノン株式会社 撮像装置及び画像処理方法
JP5352003B2 (ja) * 2012-12-28 2013-11-27 キヤノン株式会社 画像処理装置及び画像処理方法
JP6346439B2 (ja) 2013-01-07 2018-06-20 キヤノン株式会社 撮像装置及びその制御方法
CN104919352B (zh) 2013-01-10 2017-12-19 奥林巴斯株式会社 摄像装置和图像校正方法以及图像处理装置和图像处理方法
JP2014160930A (ja) 2013-02-19 2014-09-04 Sony Corp 固体撮像素子およびその駆動方法、並びに電子機器
JP6172978B2 (ja) 2013-03-11 2017-08-02 キヤノン株式会社 撮像装置、撮像システム、信号処理装置、プログラム、および、記憶媒体
JP2014179911A (ja) * 2013-03-15 2014-09-25 Nikon Corp 撮像装置
JP6532119B2 (ja) 2013-04-30 2019-06-19 キヤノン株式会社 撮像装置及びその制御方法
JP6148530B2 (ja) 2013-05-02 2017-06-14 キヤノン株式会社 固体撮像装置及びカメラ
JP6239855B2 (ja) 2013-05-08 2017-11-29 キヤノン株式会社 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
JP6239857B2 (ja) * 2013-05-13 2017-11-29 キヤノン株式会社 撮像装置およびその制御方法
JP6263035B2 (ja) 2013-05-17 2018-01-17 キヤノン株式会社 撮像装置
JP6239862B2 (ja) 2013-05-20 2017-11-29 キヤノン株式会社 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
KR102039464B1 (ko) 2013-05-21 2019-11-01 삼성전자주식회사 전자 센서와, 그의 제어 방법
KR102028124B1 (ko) 2013-05-24 2019-10-02 삼성전자주식회사 위상차 초점검출 가능한 촬상소자
JP6362060B2 (ja) 2013-07-01 2018-07-25 キヤノン株式会社 撮像装置及びその制御方法ならびにプログラム
TWI623232B (zh) 2013-07-05 2018-05-01 Sony Corp 固體攝像裝置及其驅動方法以及包含固體攝像裝置之電子機器
JP5701942B2 (ja) 2013-07-10 2015-04-15 オリンパス株式会社 撮像装置、カメラシステム及び画像処理方法
JP6124720B2 (ja) 2013-07-22 2017-05-10 オリンパス株式会社 撮像装置、画像処理方法及び画像処理プログラム
CN103491296B (zh) * 2013-07-30 2016-05-25 宁波迪吉特电子科技发展有限公司 一种高速摄像的实现方法
WO2015025590A1 (ja) * 2013-08-22 2015-02-26 富士フイルム株式会社 撮像装置及び合焦制御方法
JP5775918B2 (ja) 2013-09-27 2015-09-09 オリンパス株式会社 撮像装置、画像処理方法及び画像処理プログラム
JP6099536B2 (ja) 2013-09-27 2017-03-22 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6270400B2 (ja) 2013-10-09 2018-01-31 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6305006B2 (ja) 2013-10-18 2018-04-04 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体
JP6320272B2 (ja) 2013-11-29 2018-05-09 キヤノン株式会社 撮像素子、撮像装置及び携帯電話機
KR102125561B1 (ko) 2013-12-03 2020-06-22 삼성전자주식회사 촬영 장치 및 이의 제어 방법
JP6233188B2 (ja) * 2013-12-12 2017-11-22 ソニー株式会社 固体撮像素子およびその製造方法、並びに電子機器
US10680022B2 (en) * 2013-12-12 2020-06-09 Sony Corporation Solid state imaging device, manufacturing method of the same, and electronic equipment
JP2015153975A (ja) 2014-02-18 2015-08-24 ソニー株式会社 固体撮像素子、固体撮像素子の製造方法および電子機器
JP6405243B2 (ja) 2014-03-26 2018-10-17 キヤノン株式会社 焦点検出装置及びその制御方法
JP2015194736A (ja) 2014-03-28 2015-11-05 キヤノン株式会社 撮像装置およびその制御方法
KR20150121564A (ko) 2014-04-21 2015-10-29 삼성전자주식회사 촬상 소자 및 촬영 장치
JP6460653B2 (ja) 2014-06-11 2019-01-30 オリンパス株式会社 画像処理装置、それを備えた撮像装置、画像処理方法、及び画像処理プログラム
KR102268712B1 (ko) 2014-06-23 2021-06-28 삼성전자주식회사 자동 초점 이미지 센서 및 이를 포함하는 디지털 영상 처리 장치
JP6364259B2 (ja) 2014-07-02 2018-07-25 オリンパス株式会社 撮像装置、画像処理方法、及び画像処理プログラム
KR102294316B1 (ko) 2014-08-04 2021-08-26 엘지이노텍 주식회사 이미지 센서 및 이를 포함하는 촬상 장치
JP2016038414A (ja) 2014-08-05 2016-03-22 キヤノン株式会社 焦点検出装置およびその制御方法、並びに撮像装置
KR102286111B1 (ko) * 2014-08-21 2021-08-04 삼성전자주식회사 단위 픽셀, 상기 단위 픽셀을 포함하는 이미지 센서, 및 상기 단위 픽셀을 포함하는 이미지 처리 시스템
JP6405163B2 (ja) 2014-09-03 2018-10-17 キヤノン株式会社 焦点検出装置及びその制御方法
JP2016127389A (ja) 2014-12-26 2016-07-11 キヤノン株式会社 画像処理装置およびその制御方法
JP2016142925A (ja) 2015-02-02 2016-08-08 キヤノン株式会社 撮像装置およびその制御方法、プログラム、記憶媒体
TWI585726B (zh) * 2015-03-25 2017-06-01 鴻海精密工業股份有限公司 畫素結構
CN104780307B (zh) * 2015-05-04 2018-01-16 华天科技(昆山)电子有限公司 阵列镜头成像系统及其用于高速运动物体清晰成像的方法
JP5982040B2 (ja) * 2015-05-11 2016-08-31 キヤノン株式会社 撮像装置及びその制御方法
WO2016186222A1 (ko) 2015-05-15 2016-11-24 재단법인 다차원 스마트 아이티 융합시스템 연구단 이미지의 심도를 향상시키는 이미지 센서 및 그 동작 방법
JP2017011513A (ja) * 2015-06-23 2017-01-12 ソニー株式会社 撮像装置および撮像方法
GB2543127B (en) 2015-07-30 2018-11-21 Canon Kk Control apparatus, image pickup apparatus, control method, program, and storage medium
JP6512989B2 (ja) * 2015-08-04 2019-05-15 キヤノン株式会社 焦点検出装置及び方法、及び撮像装置
US9804357B2 (en) * 2015-09-25 2017-10-31 Qualcomm Incorporated Phase detection autofocus using masked and unmasked photodiodes
US9420164B1 (en) 2015-09-24 2016-08-16 Qualcomm Incorporated Phase detection autofocus noise reduction
JP6611576B2 (ja) 2015-11-30 2019-11-27 キヤノン株式会社 画像処理装置および画像処理方法
JP6643101B2 (ja) 2016-01-21 2020-02-12 キヤノン株式会社 撮像装置
GB2548462B (en) 2016-01-29 2020-06-17 Canon Kk Image sensor and image capturing apparatus
JP2017157804A (ja) * 2016-03-04 2017-09-07 キヤノン株式会社 撮像装置
JP2017175488A (ja) * 2016-03-25 2017-09-28 京セラ株式会社 携帯機器、携帯機器の制御方法、携帯機器の制御装置および制御プログラム
JP6230760B1 (ja) 2016-05-23 2017-11-15 オリンパス株式会社 撮像装置、画像処理装置、画像処理方法および画像処理プログラム
JP6476349B2 (ja) 2016-06-01 2019-02-27 富士フイルム株式会社 撮像装置、合焦制御方法、及び、合焦制御プログラム
CN109416458B (zh) * 2016-06-30 2022-01-11 株式会社尼康 相机
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
CN106713790B (zh) 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106507019B (zh) * 2016-11-29 2019-05-10 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置
CN106507069B (zh) * 2016-11-29 2018-06-05 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
JP6350694B2 (ja) * 2017-02-09 2018-07-04 株式会社ニコン 撮像素子および撮像装置
JP6942480B2 (ja) 2017-02-14 2021-09-29 キヤノン株式会社 焦点検出装置、焦点検出方法、および焦点検出プログラム
CN108886592A (zh) * 2017-11-29 2018-11-23 深圳市大疆创新科技有限公司 图像传感器、芯片、图像处理设备及相关方法
JP6610648B2 (ja) * 2017-12-26 2019-11-27 株式会社ニコン 撮像装置
KR102025012B1 (ko) * 2018-05-08 2019-09-24 재단법인 다차원 스마트 아이티 융합시스템 연구단 멀티 픽셀 마이크로 렌즈 픽셀 어레이와 컬러 믹스 문제를 해결하기 위한 카메라 시스템 및 그 동작 방법
KR102018984B1 (ko) * 2018-05-15 2019-09-05 재단법인 다차원 스마트 아이티 융합시스템 연구단 베이스라인을 증가시키기 위한 카메라 시스템
JP7237476B2 (ja) * 2018-06-21 2023-03-13 キヤノン株式会社 焦点検出方法
US11140311B2 (en) 2018-06-21 2021-10-05 Canon Kabushiki Kaisha Detecting apparatus and detecting method
JP7146477B2 (ja) * 2018-06-21 2022-10-04 キヤノン株式会社 検出装置および検出方法
EP3958022A4 (de) 2019-04-15 2022-12-21 Canon Kabushiki Kaisha Bilderfassungselement und bilderfassungsvorrichtung
CN116057941A (zh) * 2020-09-04 2023-05-02 高通股份有限公司 敏感度偏置像素
US11889186B2 (en) 2021-02-26 2024-01-30 Canon Kabushiki Kaisha Focus detection device, focus detection method, and image capture apparatus

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5817786A (ja) * 1981-07-23 1983-02-02 Canon Inc 撮像装置
JPS5891410A (ja) * 1981-11-27 1983-05-31 Olympus Optical Co Ltd 撮像装置の合焦方法
JPS6058780A (ja) 1983-09-09 1985-04-04 Olympus Optical Co Ltd 測光機能を備えた固体撮像装置
JPS60165183A (ja) 1984-02-06 1985-08-28 Canon Inc 撮像素子又は撮像装置
JPH0815322B2 (ja) 1986-05-21 1996-02-14 キヤノン株式会社 固体撮像装置
US4684995A (en) * 1986-06-20 1987-08-04 Eastman Kodak Company Simultaneous exposure/focus control in a video camera using a solid state image sensor
DE3787584T2 (de) 1986-07-07 1994-02-17 Canon Kk Projektionsapparat und Bildleseapparat, fähig zum Lesen eines projizierten Bildes.
US4972269A (en) * 1986-10-31 1990-11-20 Canon Kabushiki Kaisha Electronic imaging apparatus with signal integration and selective image receiving modes
JPH01103076A (ja) 1987-10-15 1989-04-20 Fuji Photo Film Co Ltd 固体撮像装置
JPH0232685A (ja) 1988-07-22 1990-02-02 Fuji Photo Film Co Ltd 固体撮像装置
US5051833A (en) * 1989-04-28 1991-09-24 Casio Computer Co., Ltd. Camera apparatus capable of freely setting objective area within viewed subject
JPH03117275A (ja) * 1989-09-29 1991-05-20 Sanyo Electric Co Ltd オートフォーカスカメラ
US5241167A (en) * 1990-11-07 1993-08-31 Canon Kabushiki Kaisha Photosensor device including means for designating a plurality of pixel blocks of any desired size
US5428420A (en) * 1991-08-28 1995-06-27 Canon Kabushiki Kaisha Focus detecting apparatus having photoelectric area sensors
JPH05158107A (ja) * 1991-12-10 1993-06-25 Fuji Film Micro Device Kk 撮像装置用自動測光装置
JP3042159B2 (ja) * 1992-04-10 2000-05-15 ソニー株式会社 Ccd素子の欠陥画素補正回路
JP3223570B2 (ja) 1992-04-30 2001-10-29 ソニー株式会社 固体撮像装置
US5327171A (en) * 1992-05-26 1994-07-05 United Parcel Service Of America, Inc. Camera system optics
JPH06205298A (ja) * 1992-11-06 1994-07-22 Sharp Corp 電荷結合型固体撮像装置
JPH06165049A (ja) 1992-11-16 1994-06-10 Matsushita Electron Corp 固体撮像装置
DE69536129D1 (de) * 1994-04-19 2011-01-27 Eastman Kodak Co Kamera mit automatischer Belichtungssteuerung unter Verwendung von CCD-Sensor mit verstellbarem Belichtungsindex
JP3703175B2 (ja) 1995-07-31 2005-10-05 キヤノン株式会社 撮像装置
JPH0943507A (ja) 1995-08-02 1997-02-14 Canon Inc 電子スチルカメラおよびそのフォーカス制御方法
US6215961B1 (en) * 1996-01-29 2001-04-10 Minolta Co., Ltd. Camera
JP3619664B2 (ja) * 1997-03-24 2005-02-09 株式会社ルネサステクノロジ 半導体集積回路装置の製造方法
US6137100A (en) * 1998-06-08 2000-10-24 Photobit Corporation CMOS image sensor with different pixel sizes for different colors

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112012003106B4 (de) 2011-07-25 2019-07-18 Canon Kabushiki Kaisha Bildaufnahmevorrichtung und Steuerungsverfahren für diese
DE102019128781A1 (de) * 2019-10-24 2021-04-29 Leica Camera Aktiengesellschaft Verfahren zur Erzeugung eines Ausgabesignals eines PDAF-Bildpunkts

Also Published As

Publication number Publication date
JP3592147B2 (ja) 2004-11-24
EP0981245A3 (de) 2002-08-14
EP0981245B1 (de) 2006-01-11
JP2000156823A (ja) 2000-06-06
DE69929405D1 (de) 2006-04-06
EP0981245A2 (de) 2000-02-23
US6829008B1 (en) 2004-12-07

Similar Documents

Publication Publication Date Title
DE69929405T2 (de) Halbleiterbildaufnahmevorrichtung mit zur Fokusmessung und / oder zur Lichtstärkemessung bestimmten Wandlerzellen
US6933978B1 (en) Focus detecting device with photoelectric conversion portion having microlens and with light blocking portion having first and second openings
JP5086357B2 (ja) 信号センサからの多重ビデオ信号の供給
US7920781B2 (en) Image capturing apparatus and control method therefor
US7095441B2 (en) Image pick-up apparatus having plural pixels with different transmittances and being operable in different modes
JP4972724B2 (ja) インタリーブ画像を捕捉する方法及び装置
DE112013004640B4 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Programm und Bildaufnahmevorrichtung mit der Bildverarbeitungsvorrichtung
US20110096211A1 (en) Image-capturing apparatus
EP2461571A2 (de) Bilderfassungsvorrichtung
US7041950B2 (en) Image sensing element for sensing an image formed by an image sensing lens
JP2005303409A (ja) 固体撮像装置
DE102014218166B4 (de) Bildverarbeitungsvorrichtung und zugehöriges steuerverfahren
DE102007035852A1 (de) Bilderfassungssystem und Verfahren zum Betreiben desselben
JP2003156677A (ja) 撮像素子、撮像装置及びその制御方法、及び焦点検出方法
JP2007329721A (ja) 固体撮像装置
JP2009276426A (ja) 撮像装置
EP2031858A2 (de) Bildgebungsvorrichtung und Verfahren zur Ansteuerung einer Festkörper-Bildgebungsvorrichtung
JPH07114474B2 (ja) 電子スチルカメラ
EP2355491A1 (de) Abbildungsvorrichtung, Abbildungsverfahren und Abbildungsprogramm
DE102014223858B4 (de) Bildaufnahmevorrichtung und Bildsignalsteuerverfahren
JP2016038554A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
DE69729060T2 (de) Scharfeinstellungsvorrichtung
DE10037701C2 (de) Farbbilderfassungssystem mit Antialiasing
DE102016114025A1 (de) Steuervorrichtung, Bildaufnahmevorrichtung, Steuerverfahren, Programm und Speichermedium
JPH0943507A (ja) 電子スチルカメラおよびそのフォーカス制御方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition