DE69829734T2 - Optische Vorrichtung und Verfahren zur Auswahl eines Fokusobjektes - Google Patents

Optische Vorrichtung und Verfahren zur Auswahl eines Fokusobjektes

Info

Publication number
DE69829734T2
DE69829734T2 DE69829734T DE69829734T DE69829734T2 DE 69829734 T2 DE69829734 T2 DE 69829734T2 DE 69829734 T DE69829734 T DE 69829734T DE 69829734 T DE69829734 T DE 69829734T DE 69829734 T2 DE69829734 T2 DE 69829734T2
Authority
DE
Germany
Prior art keywords
main object
object area
means
step
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69829734T
Other languages
English (en)
Other versions
DE69829734D1 (de
Inventor
Terutake Ohta-ku Kadohara
Keiji Ohta-ku Ohtaka
Hitoshi Ohta-ku Onoda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP35851297A priority Critical patent/JP4018218B2/ja
Priority to JP35851297 priority
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69829734D1 publication Critical patent/DE69829734D1/de
Publication of DE69829734T2 publication Critical patent/DE69829734T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS, OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Die vorliegende Erfindung bezieht sich auf eine optische Vorrichtung, wie auf eine automatisch fokussierende Kamera und eine Monitorkamera, die eine automatische Fokussierfunktion besitzt.
  • Verschiedene Techniken zum Messen von Entfernungen zu Gegenständen, die sich in unterschiedlichen Richtungen befinden, sind unter Verwendung einer optischen Einrichtung bekannt. Eine dieser Techniken ist offenbart in der japanischen Patentveröffentlichung 4-67607. Des weiteren offenbart ist eine Vielzahl von Techniken zum Abschätzen eines Bereichs in einem Gegenstandsraum, der einen Hauptgegenstand enthält, auf der Grundlage der Entfernungsverteilinformation der Gegenstände, gewonnen unter Verwendung der Techniken zum Messen der Entfernungen zu den Gegenständen.
  • Nachstehend anhand der 15A bis 15C erläutert ist ein typisches herkömmliches Verfahren des Abschätzens eines Bereichs, der einen Hauptgegenstand enthält.
  • Eine Szene, wie sie beispielsweise in 15A gezeigt ist, wird unter Verwendung eines Paares von Bildaufnahmeeinrichtungen aufgenommen, wie CCD, die innerhalb einer optischen Einrichtung vorgesehen sind, wie in einer Kamera, in einem vorbestimmten Abstand zu einander. Zwei Bilder, aufgenommen von einem Paar von Bildaufnahmeeinrichtungen, die eine Parallaxe haben, sind jeweils unterteilt in M × n Blöcke. Durch Ausführen der bekannten Korrelationsoperation zwischen Signalen eines gegebenen Blockes eines oder zweier Bilder und von Signalen des zugehörigen Blocks vom anderen Bild ist es möglich, die Entfernung zu einem Gegenstand und/oder einen Defokussierbetrag des Blockes zu gewinnen, basierend auf einem trigonometrischen Prinzip. Die Korrelationsoperation erfolgt bezüglich jeden Blockes, und die Entfernungsverteilinformation von M × n Blöcke, wie sie in 15B gezeigt ist, wird erzielt. Die Bezugszeichen in 15B bedeuten Entfernungswerte oder Defokussierbeträge. Die Ehrenblöcke, denen bestimmt ist, daß die Zuverlässigkeit des Ergebnisses der Korrelationsoperation, die bezüglich dieser Blöcke ausgeführt wurde, gering ist aufgrund des niedrigen Kontrasts von den Bildsignalen als Beispiel.
  • Gruppieren von Blöcken erfolgt als nächstes, um Gegenstände im Gegenstandsraum zu trennen bezüglich der aufgenommenen Bilder. Nach Gruppieren werden die M × n Blöcke in Bereiche kombiniert, die jeweils einen Gegenstand enthalten, wie in 15C gezeigt. Angemerkt sei, daß die gestrichelten Abschnitte in 15C den leeren Blöcken in 15B entsprechen und für die bestimmt ist, daß die Zuverlässigkeit des Ergebnisses der Korrelationsoperation in diesem Bereich aufgrund des niedrigen Kontrasts der Bildsignale beispielsweise gering ist.
  • Hinsichtlich eines Gruppierungsverfahrens gibt es ein solches, bei dem die Ähnlichkeit aneinander grenzender Blöcke bestimmt wird, beispielsweise durch Vergleichen der Werter aneinandergrenzender Blöcke, wie in 15B gezeigt, und Bestimmen, daß die aneinander grenzenden Blöcke vom selben Gegenstand zusammengesetzt sind, wenn die Ähnlichkeit groß ist, wohingegen bestimmt wird, daß sie aus unterschiedlichen Gegenständen aufgebaut sind, wenn die Ähnlichkeit gering ist. Angemerkt sei, wenn die Bilder in relativ große Blöcke unterteilt werden, wie in 15B gezeigt, die Entfernungsverteilinformation, die zum Gruppieren zu verwenden ist, einfache Werte hat, wie die Entfernungswerte oder die Fokussierwerte; jedoch im Falle, bei dem der Block klein ist, kann eine Feinverteilinformation erzielt werden, wobei die Information häufig Vektoren sind, die normal auf den Oberflächen stehen.
  • Ein Entfernungswert eines gegebenen Blockes, wie in 15B gezeigt, wird beispielsweise mit jeweiligen Entfernungswerten der angrenzenden Blöcke verglichen, und wenn die Entfernung zwischen den Entfernungswerten der angrenzenden weiteren Blöcken innerhalb eines vorbestimmten Schwellwerts liegt, dann wird bestimmt, daß "die Gegenstände des Blockes denselben Gegenstand bilden." Wenn andererseits der Abstand größer ist als der Schwellwert, dann wird bestimmt, daß "der Gegenstand in den Blöcken sich aus unterschiedlichen Objekten zusammensetzt." Durch Ausführen der zuvor genannten Bestimmung bezüglich jeden Blockes werden die Blöcke in gemeinsame Gegenstände gruppiert. Die gruppierten Blöcke, die einen Gegenstand bilden, werden als Gruppe behandelt.
  • Die Eigenschaften einer jeden Gruppe im Bild werden danach bewertet, und die Gruppe, die den Hauptgegenstand enthält, wird aus allen Gruppen bestimmt.
  • Im Falle der in 15C gezeigten Gruppen werden derartige Durchschnittsentfernungen zu den Gegenständen, den Breiten, den Höhen und Positionen der Gruppen im Bild für alle Gruppen GR1 bis GR7 erzielt und insgesamt bewertet, wodurch die Gruppe bestimmt wird, von der die als solche zu betrachten ist, daß sie den Hauptgegenstand enthält. Beispielsweise wird die Wahrscheinlichkeit (Möglichkeit) erzielt, daß die Gruppe mit dem Hauptgegenstand unter Verwendung einer vorbestimmten Funktion wie mit der nachstehenden Gleichung 1 gewonnen wird; dann werden die gewonnenen Werte bewertet. (Wahrscheinlich) = W1 × (Breite) × (Höhe) + W2/(Entfernung von der Mitte des Bildes) + W3/(Durchschnittsentfernung) (1)
  • In Gleichung 1 sind W1, W2 und W3 Konstanten für Gewichtungspunkte, "Entfernung von der Mitte zum Bild" ist die Entfernung zwischen der Mitte des Bildes und der Mitte der Masse von der Gruppe, und "Durchschnittsentfernung" ist ein Durchschnitt der Entfernungen zum Gegenstand von der Kamera in allen Blöcken einer jeden Gruppe. Die Wahrscheinlichkeit wird für jede Gruppe berechnet, und die Gruppe mit der größten Wahrscheinlichkeit wird als solche bestimmt, daß sie den Hauptgegenstand enthält. Danach wird die Brennweite auf der Grundlage der Entfernungsinformation der Gruppe bestimmt, die als den Hauptgegenstand enthaltend bestimmt wird, um so einen Gegenstand der Gruppe zu fokussieren, dann wird die Linse aktuell auf den Gegenstand scharf eingestellt.
  • Bei der herkömmlichen Fokussierfunktion, wie sie zuvor beschrieben wurde, wird automatisch ein Bereich bestimmt, der den Hauptgegenstand enthält, und zwar auf der Grundlage der zuvor genannten Information als Beispiel, und die Fokussteuerung erfolgt auf der Grundlage des bestimmten Ergebnisses.
  • Jedoch gibt es eine Vielfalt von Szenen, die aufzunehmen sind, und eine Vielfalt von Gegenständen, die Hauptgegenstand sein können; folglich wird der Hauptgegenstand, auf den der Anwender aktuell fokussieren möchte, nicht immer korrekt als Hauptgegenstand nach dem zuvor beschriebenen Verfahren bestimmt.
  • Eine Erhöhung der Entfernungsmeßpunkte und Bereiche, verursacht durch einen Anstieg der Anzahl von Pixeln der CCD, kompliziert weiterhin das Bestimmen vom Hauptgegenstand, der bezüglich des Hauptgegenstands in vollständig automatischer Weise schwieriger zu fokussieren ist. Da jedoch die gänzlich manuelle Auswahl des Auswählens vom Hauptgegenstand ebenfalls die Arbeitsweise der Kamera erschwert, ist es wünschenswert, eine Vereinheitlichung der automatischen Steuerung und der manuellen Steuerung zu einem hohen Grade zu erreichen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung entstand unter Berücksichtigung der obigen Situation und hat zur Aufgabe, eine spezielle Einrichtung und ein Verfahren zu schaffen, um einen Entfernungsmeßpunkt auszuwählen, befähigt zur korrekten Auswahl eines Gegenstands, den eine Bedienperson zu Fokussieren beabsichtigt, und das Fokussieren des ausgewählten Gegenstands.
  • Das Dokument USD Nr. US-4 994 843 offenbart ein Fokusaufzeigegerät für eine automatische fokussierende Kamera. In dieser Spezifikation eines optischen Meßbereichs wird somit aus feststehenden Meßbereichen 20a, 20b, 20c ausgewählt, so daß ein Fotograf einen Gegenstand auswählen kann, der außerhalb dieser feststehenden Meßbereiche liegt.
  • Nach der vorliegenden Erfindung vorgesehen ist eine optische Einrichtung, wie sie in Patentanspruch 1 angegeben ist.
  • Die optische Einrichtung verfügt unter anderem über ein Unterteilungsmittel, das ein vom optischen Bildaufnahmemittel aufgenommenes Bild in eine Vielzahl von Bereichen unterteilt;
    ein Gruppiermittel zum Erzeugen einer Fokussierkarte durch Gruppieren der unterteilten Bereiche; und
    ein Hauptgegenstandsbereichsbestimmungsmittel zum Bestimmen eines Hauptgegenstandsbereichs im Gegenstandsbereich, den das Gruppiermittel gruppiert hat; und ist dadurch gekennzeichnet, daß weiterhin ein Hauptgegenstandsbereich enthalten ist mit einem Änderungsmittel (53, 63, 66, DL) zum Ändern des Hauptgegenstandsbereichs auf einen anderen der Gegenstandsbereiche und ein Fokussiersteuermittel zum Fokussieren auf einen neuen Gegenstandsbereich.
  • Ein zweiter Aspekt der vorliegenden Erfindung ist im Patentanspruch 13 angegeben. Das Verfahren des Fokussierens einer optischen Einrichtung verfügt unter anderem über die Verfahrensschritte:
    Unterteilen eines vom optischen Bildaufnahmemittel aufgenommenen Bildes in eine Vielzahl von Bereichen;
    Erzeugen einer Fokusabbildung und Gruppieren der unterteilten Bereiche in Objektbereiche auf der Grundlage der erzeugten Fokusabbildung;
    Bestimmen eines Hauptobjektbereichs aus den vom Gruppiermittel gruppierten Objektbereichen; und
    Fokussieren des bestimmten Hauptobjektbereichs.
  • Andere Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachstehenden Beschreibung in Verbindung mit der beiliegenden Zeichnung deutlich, in der gleiche Bezugszeichen dieselben oder ähnliche Teile in allen Figuren bedeuten.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Die beiliegende Zeichnung, die einen Teil der Beschreibung bildet, veranschaulicht Ausführungsbeispiele der Erfindung und dient gemeinsam mit der Beschreibung der Erläuterung des erfinderischen Prinzips.
  • 1 ist ein Blockdiagramm, das eine grundlegende Konfiguration einer Kamera nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 2 zeigt eine optische Anordnung der grundlegenden optischen Elemente der Kamera nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 ist eine perspektivische Ansicht, die eine Anordnung der optischen Elemente der Kamera nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 4 ist eine Aufsicht, die die Anordnung der optischen Elemente der Kamera nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 5 ist ein Diagramm, das eine Innenkonfiguration der Kamera zeigt;
  • 6 ist ein Ablaufdiagramm, das eine grundlegende Arbeitsweise nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt;
  • 7 ist ein Ablaufdiagramm der Entfernungsverteilungserzeugungsverarbeitung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung;
  • 8 ist ein Ablaufdiagramm der Hauptgegenstandsbereichserfassungsverarbeitung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung;
  • 9 ist ein Ablaufdiagramm einer Brennweitenbestimmungsverarbeitung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung;
  • 10 ist ein Ablaufdiagramm der Hauptgegenstandsbereichsauswahlverarbeitung nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung;
  • 11 ist eine erläuternde Ansicht eines Verfahrens zur Unterteilung eines Bildes in eine Vielzahl von Bereichen;
  • 12A zeigt ein Beispiel eines Bildes, das die Kamera aufgenommen hat;
  • 12B zeigt ein Ergebnis der Kennzeichnung des in 12A gezeigten Bildes;
  • 13 ist ein Blockdiagramm, das die grundlegende Konfiguration einer Kamera nach einem zweiten Ausführungsbeispiel der vorliegenden Erfindung darstellt;
  • 14 ist ein Ablaufdiagramm der Hauptgegenstandsbereichsauswahlverarbeitung nach dem zweiten Ausführungsbeispiel der vorliegenden Erfindung; und
  • 15A bis 15C sind erläuternde Ansichten zum Erläutern der herkömmlichen Entfernungsmeßoperation.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung sind nachstehend detailliert anhand der beiliegenden Zeichnung beschrieben.
  • <Erstes Ausführungsbeispiel>
  • Herangezogen und erläutert wird als Beispiel eine Funktion der Auswahl eines Entfernungsmeßpunktes einer automatisch fokussierenden Kamera, ein System, das in der Lage ist, einen Hauptgegenstandsbereich von einem Bereich zu ändern, erzielt als Ergebnis automatischer Hauptgegenstandsbereichsauswahl, in einen anderen Bereich unter Verwendung eines einachsigen Drehbetätigungsgliedes (Drehschalter).
  • 1 ist ein Blockdiagramm, das Grundelemente einer Kamera nach dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt. In 1 bedeutet Bezugszeichen 51 eine Entfernungsverteilungserzeugungseinheit zum Messen der Entfernung zu einem beliebigen Punkt im Gegenstandsraum; Bezugszeichen 52 bedeutet eine Hauptgegenstandsbereichsbestimmungseinheit zum Bestimmen eines Bereichs, der höchstwahrscheinlich den Hauptgegenstand enthält (nachstehend als "Hauptgegenstandsbereich" bezeichnet) im aufgenommenen Bild; Bezugszeichen 53 bedeutet eine Hauptgegenstandsbereichsänderungseinheit zum Ändern des Hauptgegenstandsbereichs, der automatisch bestimmt wird, auf einen anderen Bereich als Reaktion auf eine manuelle Eingabe; Bezugszeichen 54 bedeutet eine Brennweitenbestimmungseinheit zum Bestimmen eines Steuerwertes zum Steuern des Brennpunktes von einem optischen System 55 auf der Grundlage von Information bezüglich des bestimmten Hauptgegenstandsbereichs; Bezugszeichen 55 bedeutet das optische System zum Aufnehmen eines Bildes; und Bezugszeichen 56 bedeutet einen Linsentreiber zum Antrieb der Linse beim Fokussieren. Eine Punktlinie 57 dient dem Aufzeigen von Einheiten, die eine CPU, ein RAM und ein ROM vom Computer realisiert. Da die Entfernungsverteilungserzeugungseinheit 51 mit dem Computer und einem optischen System zur Entfernungsmessung realisiert wird, und die Hauptgegenstandsbereichsänderungseinheit 53 wird realisiert mit dem Computer und dem Bedienglied, diese Einheiten sind auf der Punktlinie 57 gezeigt.
  • Eine Konfiguration eines optischen Systems, das zur Erzeugung von Entfernungsverteilungsinformation dient, ist nachstehend erläutert.
  • 2 zeigt eine optische Anordnung optischer Elemente der Kamera zum Messen der Entfernung zu einem Punkt im Gegenstandsraum. In 2 bedeutet Bezugszeichen 1 ein Objektiv; Bezugszeichen 8 bedeutet eine Bildfeldlinse; Bezugszeichen 9 bedeutet Sekundärfokussierlinsen; und Bezugszeichen 10 bedeutet einen Flächensensor. Lichtflüsse, die durch das Objekt über verschiedene Stellen hereinkommen, fallen auf auf zwei Bilderzeugungsbereiche 10a und 10b vom Flächensensor 10 in der Vergrößerung, die durch die Stärke der Bildfeldlinse 8 und den Sekundärfokussierlinsen 9 bestimmt ist. Der Flächensensor 10 ist auf einer konjugierten Ebene eines Films angeordnet, um in Hinsicht auf das Objektiv 1 belichtet zu werden, und das Ganze oder ein Teil des aufzunehmenden Bildes wird auf jedem einzelnen der Bilderzeugungsbereiche 10a und 10b erzeugt.
  • 3 ist eine perspektivische Ansicht, die eine Anordnung vom optischen System zum Entfernungsmessen zeigt, dargestellt in 2, wenn die Verwendung der Kamera gewidmet ist. Unter Bezug auf 3 bedeutet Bezugszeichen 6 einen Schnellrückkehrspiegel; Bezugszeichen 18 bedeutet ein Pentaprisma; Bezugszeichen 19 bedeutet ein Lichtaufspaltprisma und Bezugszeichen 20 bedeutet einen Vollreflexionsspiegel. Andere Bezugszeichen in 3 sind dieselben wie jene anhand 2 erläuterten.
  • 4 ist eine Aufsicht, wenn die Anordnung in 3 von oben gesehen wird.
  • Unter Verwendung eines zuvor beschriebenen optischen Systems werden zwei Bilder mit vorbestimmter Parallaxe gewonnen.
  • Angemerkt sei, daß eine Kamera mit der zuvor beschriebenen Konfiguration detailliert in der japanischen offengelegten Patentanmeldung Nr. 7-134238 beschrieben ist.
  • 5 ist ein Schaltbild, das eine Konfiguration der Kamera vom zuvor beschriebenen optischen System darstellt. Zuerst wird jede Einheit erläutert.
  • In 5 bedeutet Bezugszeichen PRS eine Kamerasteuerung, die ein Ein-Chip-Mikrocomputer mit einer CPU, einem ROM, einem RAM und einem Analog/Digitalumsetzer sein kann. Die Kamerasteuerung PRS führt eine Operationsserie der Kamera aus, wie automatische Belichtungssteuerung, automatische Fokussteuerung und Vorlauf und Zurückspulen des Films auf der Grundlage eines im ROM gespeicherten Sequenzprogramms. Die Kamerasteuerung PRS kommuniziert somit mit Innenschaltungen der Kamera und einer Linsensteuereinheit unter Verwendung von Übertragungssignalen SO und SI, einem Synchronisiertakt SCLK und Übertragungsauswahlsignalen CLCM, CDDR und CICC zur Steuerung des Betriebs einer jeden Schaltung und einer jeden Linse.
  • Bezüglich der Übertragungssignale ist SO ein Datensignal aus der Kamerasteuerung PRS, SI ist ein Datensignal aus der Kamerasteuerung PRS, und SCLK ist ein Synchronisiertakt für Signale SO und SI.
  • In 5 bedeutet Bezugszeichen LCM eine Linsenübertragungspuffersteuerung und liefert elektrischen Strom an einen Stromversorgungseingangsanschluß VL für die Linse, wenn die Kamera eingeschaltet ist, und weiter wenn das Ausgangssignal CLCM aus der Kamerasteuerung PRS H-Pegel hat, erfolgt das Arbeiten als Übertragungspuffer zwischen Kamerasteuerung PRS und der Linse.
  • Wenn die Kamerasteuerung PRS das ausgewählte Signal CLCM auf H-Pegel steuert und vorbestimmte Daten abgibt, beispielsweise das Datensignal SO synchron mit dem Synchronisiertakt SCLK, dann gibt die Linsenübertragungspuffersteuerung LCM Puffersignale LCK und DCL entsprechend dem Synchronisiertakt SCLK ab beziehungsweise das Datensignal LO, und zwar an die Linse über einen Übertragungsknoten zwischen der Kamerasteuerung PRS und der Linse. Zur selben Zeit wird ein Puffersignal vom Signal DCL aus der Linseneinheit LNS als Datensignal SI abgegeben, und die Kamerasteuerung PRS empfängt Daten der Linse als Datensignal SI synchron mit dem Synchronisiertakt SCLK.
  • Bezugszeichen DDR bedeutet eine Schaltung zum Erfassen des Betriebs verschiedener Schalter SWS und zur Anzeige. Die Auswahl erfolgt, wenn das Signal CDDR auf H-Pegel ist und von der Kamerasteuerung PRS unter Verwendung der Datensignale SO und SI gesteuert wird sowie dem Synchronisiertakt SCLK. Genauer gesagt, die Schaltung DDR ändert die Anzeigeinhalte eines Anzeigegliedes DSP der Kamera auf der Grundlage der Daten, die die Kamerasteuerung PRS gesendet hat, und meldet der Kamerasteuerung PRS den EIN/AUS-Zustand eines jeden Betätigungsschalters SWS der Kamera. Der Zustand des Drehbetätigungsgliedes von der Hauptgegenstandsbereichsänderungseinheit 53 wird ebenfalls von der Schaltung DDR festgestellt.
  • Bezugszeichen OLC bedeutet eine Flüssigkristallaußenanzeige, die im oberen Abschnitt der Kamera vorgesehen ist, und Bezugszeichen ILC bedeutet eine Flüssigkristallanzeige innerhalb eines Suchers.
  • Schalter SW1 und SW2 sind mit einem Auslöser (nicht dargestellt) verbunden, und mit einem Andruck des Auslöseknopfes wird der Schalter SW1 eingeschaltet, und beim vollen Durchdrücken des Auslösers wird der Schalter SW2 eingeschaltet. Die Kamerasteuerung PRS führt photometrische und automatische Fokuseinstellung als Reaktion auf die Einschaltoperation des Schalters SW1 aus und als Reaktion auf die Einschaltoperation des Schalters SW2 wird die Belichtung gesteuert, und danach wird der Film um ein Bild weitertransportiert.
  • Angemerkt sei, daß der Schalter SW1 mit einem Unterbrechungseingangsanschluß der Kamerasteuerung PRS verbunden ist, und selbst wenn Programme von der Einschaltoperation des Schalters SW1 bei Betätigung getriggert werden, unterbricht die Einschaltoperation vom Schalter SW2 die Ausführung, und die Kamerasteuerung PRS geht schnell zu einem vorbestimmten Interruptprogramm.
  • Bezugszeichen MTR1 bedeutet einen Motor zum Filmtransport, und Bezugszeichen MTR2 bedeutet einen Motor zum Bewegen des Spiegels nach oben und nach unten und zum Spannen einer Verschlußfeder, und der Film und der Spiegel werden gesteuert zur Vorwärts- und Rückwärtsbewegung durch die Motore MDR1 beziehungsweise MDR2. Signale M1F, M1R, M2F und M2R aus der Kamerasteuerung PRS an die Treiberschaltungen MDR1 und MDR2 werden Vorwärts- und Rückwärtsdrehsteuersignale.
  • Bezugszeichen MG1 und MG2 bedeuten Betätigungsmagnete für den Vorder- und Hintervorhang, die über Verstärkertransistoren TR1 und TR2 mit Strom versorgt werden als Reaktion auf Steuersignale SMG1 und SMG2, und der Verschluß wird gesteuert von der Kamerasteuerung PRS. Angemerkt sei, daß die Motortreiberschaltungen MDR1 und MDR2 und die Verschlußsteuerung nicht direkt mit der vorliegenden Erfindung zu tun haben, und eine detaillierte Beschreibung dieser hier entfällt.
  • Ein Puffersignal DCL, das der Linsensteuerung LPRS synchron mit dem Puffersignal LCK eingegeben wird, sind Befehlsdaten aus der Kamerasteuerung PRS zur Linsensteuereinheit LNS, und der Betrieb der Linseneinheit LNS entsprechend einem jeden Befehl ist vorbestimmt. Die Linsensteuerung LPRS analysiert den Befehl in einer vorbestimmten Prozedur und gibt Betriebszustände der Fokussiersteuerung, der Irisblendensteuerung, dem Ausgangssignal DLC, einem jeden Element der Linseneinheit LNS (das heißt, Betriebszustände des optischen Fokussiersteuersystems und Betriebszustände der Irisblende) sowie verschiedene Parameter (Öffnungszahl, Brennweite, Koeffizient des Bewegungsbetrages der Fokussiersteuerung des optischen Systems gemäß einem Defokussierbetrag, verschiedener Fokuskorrekturbeträge usw.).
  • Eine Zoomlinse ist im ersten Ausführungsbeispiel als Beispiel erläutert; und wenn ein Befehl zur Fokuseinstellung von der Kamerasteuerung PRS ausgeht, wird ein Motor LMTR zur Fokuseinstellung auf der Grundlage der Signale LMF und LMR betrieben, die den Betrag und Richtung vom Versatz zeigen, die gleichzeitig gesendet werden. Die Fokuseinstellung erfolgt folglich entweder durch Drehen des optischen Systems in Vorwärts- oder Rückwärtsrichtung der optischen Achse. Der Versatzbetrag vom optischen System wird auf folgende Weise gewonnen. Zuerst wird ein Muster einer Impulsplatte, die sich dreht und mit dem optischen System gekoppelt ist, von einer Lichtschranke festgestellt, die ein Impulssignal SENCF aus einer Codiereinrichtung ENCF überwacht, die Impulse abgibt, deren Anzahl dem Versatzbetrag entspricht. Die Anzahl der Impulse SENCF wird von einem Zähler gezählt (nicht dargestellt), der im Inneren der Linsensteuerung LPRS vorgesehen ist. Wenn das optische System die Verschiebung um einen berechneten Betrag beendet hat, dann steuert die Linsensteuerung LPRS die Signale LMF und LMR auf L-Pegel, um den Motor LMTR in Betrieb zu nehmen.
  • Nach dem Befehl aus der Kamerasteuerung PRS zum Einstellen kümmert sich die Kamerasteuerung PRS nicht um den Betrieb der Linseneinheit, bis die Linse das Versetzen beendet hat. Die Linsensteuerung LPRS sendet den Zählstand an die Kamerasteuerung PRS, wenn die Kamerasteuerung dies anfordert.
  • Wenn ein Befehl zum Steuern der Irisblende von der Kamerasteuerung PRS gesendet wird, erfolgt der Antrieb durch einen Schrittmotor DMTR, der für die Irisblende bekannt ist und auf der Grundlage einer Irisblendenstufenzahl betrieben wird, die gleichzeitig gesendet wird. Da der Schrittmotor DMTR das Öffnen der Irisblende steuern kann, ist eine Codiereinrichtung zum Überwachen des Betriebs nicht erforderlich.
  • Bezugszeichen ENCZ bedeutet eine Codiereinrichtung, die am optischen Zoomsystem befestigt ist, und die Linsensteuerung LPRS erfaßt die Zoomposition durch Aufnehmen eines Signals SENCZ aus der Codiereinrichtung ENCZ. Die Linsensteuerung LPRS speichert Linsenparameter entsprechend der jeweiligen Zoomsituation und gibt einen Parameter entsprechend einer aktuellen Zoomposition an die Kamerasteuerung PRS ab, wenn die Kamerasteuerung PRS dies verlangt.
  • Bezugszeichen ICC bedeutet eine Flächensensoreinheit mit Flächensensoren, wie CCD, und eine Betriebseinheit zum Betreiben der Flächensensoren, die verwendet wird zur Fokuszustandserfassung und Photometrie. Die Flächensensoreinheit ICC wird ausgewählt, wenn das Auswahlsignal CICC auf H-Pegel ist und gesteuert wird von der Kamerasteuerung PRS unter Verwendung der Datensignale SO und SI und dem Synchronisiertakt SCLK.
  • ϕV und ϕH sind Lesesignale für die Flächensensoren, und ϕR ist ein Rücksetzsignal. Diese Sensorsignale werden von einer Treiberschaltung erzeugt, die innerhalb der Flächensensoreinheit ICC vorgesehen ist, auf der Grundlage von Signalen aus dem Mikrocomputer PRS. Die Signale aus den Flächensensoren werden verstärkt und dann in einen Analogsignaleingabeanschluß des Mikrocomputers als Ausgangssignale IMAGE eingegeben. Der Mikrocomputer PRS setzt dann die analogen Ausgangssignale IMAGE um in Digitalsignale, und die Werte der Digitalsignale werden sequentiell im RAM unter vorbestimmten Adressen gespeichert. Mit diesen Digitalsignalen wird zum Erzeugen der Abstandsverteilinformation im Gegenstandsraum die Fokussteuerung oder Photometrie durchgeführt.
  • Bezugszeichen DL bedeutet ein Drehbetätigungsglied, das verwendet wird zum Aufzeigen der Richtung zum Ändern des Hauptgegenstandsbereichs, wie später zu erläutern ist. Weiterhin bedeutet Bezugszeichen DLS einen Sensor zum Erfassen der Drehrichtung vom Drehbetätigungsglied DL, das ein Signal RTDR abgibt, das die erfaßte Richtung an die Kamerasteuerung PRS meldet.
  • Angemerkt sei, daß der Kamerakörper und das Objektiv lösbar miteinander verbunden sind (das heißt, die Linsen sind austauschbar) in 5; jedoch ist die vorliegende Erfindung nicht auf die Kamera dieser Art beschränkt. Beispielsweise ist es möglich, die vorliegende Erfindung auf eine Kamera anzuwenden, deren Kamerakörper und Objektiv integral zusammengesetzt sind.
  • Nachstehend anhand 6 bis 12 beschrieben ist die detaillierte Arbeitsweise des Gesamtablaufs vom Betrieb der Kamera mit der zuvor beschriebenen Konfiguration.
  • Unter Bezug auf 6 beginnt die Bildaufnahmeoperation zuerst in Schritt S100, wenn eine Bedienperson einen Auslöser betätigt (nicht dargestellt).
  • Als nächstes wird in Schritt S101 eine Unterroutine zum Erzeugen einer Entfernungsverteilungsinformation (Entfernungsverteilungserzeugungsverarbeitung) im Gegenstandsraum von der Entfernungsverteilungserzeugungseinheit 51 aufgerufen.
  • 7 ist ein Ablaufdiagramm, das die Entfernungsverteilungserzeugungsverarbeitung zeigt).
  • In Schritt S201 in 7 werden Bilder aus den Flächensensoren gelesen. Das Auslesen geschieht auf folgende Weise. Zuerst werden die Flächensensoren zurückgesetzt. Genauer gesagt, durch Steuern der Steuersignale ϕV, ϕH und ϕR auf H-Pegel gleichzeitig für eine vorbestimmte Dauer werden Restladungen abgezogen, und der Flächensensor ist zurückgesetzt.
  • Als nächstes sendet die Kamerasteuerung PRS einen Befehl zum Ladestart, und das Akkumulieren von Ladungen beginnt als Reaktion auf den Befehl. Nach Ablauf einer vorbestimmten Dauer endet die Ladungsakkumulation.
  • Danach werden die Steuersignale ϕV und ϕH zum Antrieb der Flächensensoren zur sequentiellen Abgabe von Bildsignalen IMAGE gesteuert, die A/D-umgesetzt und im RAM der Kamerasteuerung PRS gespeichert sind. Eine Bildleseoperation in Schritt S201 ist folglich abgeschlossen.
  • Die abgegebenen Bildsignale von den beiden Flächensensoren werden als IMG1 und IMG2 in einem vorbestimmten Bereich des RAM gespeichert.
  • Jedes der Bilder IMG1 und IMG2, gewonnen von den Flächensensoren, wird unterteilt in M × n Blöcke, und eine Defokussierverteilung (Defokussierkarte) wird in Schritt S202 und den folgenden erzeugt.
  • Zunächst werden in Schritt S202 die Variablen x und y initialisiert, die dem Aufzeigen eines Blockes dienen. Als nächstes werden in Schritt S203 Leuchtdichtesignale, die erforderlich sind zum Ausführen einer Entfernungsmeßoperation für einen Block B (x, y), das heißt, Leuchtdichtesignale des Blockes, aus einem der Flächensensoren gewonnen, aus den Bilddaten IMG1 ausgelesen und im RAM gespeichert, und dann werden diese in den RAM zu vorbestimmten Adressen kopiert.
  • In Schritt S204 werden Leuchtdichtesignale, die erforderlich sind zum Ausführen der Entfernungsmeßoperation für den Block B (x, y) aus den Bilddaten IMG2 ausgelesen und unter Adresse B im RAM gespeichert.
  • In Schritt S205 wird eine bekannte Korrelationsoperation COR (x, y) bezüglich der Leuchtdichtesignale (Leuchtdichteverteilungssignale) unter den Adressen A und B aufgezeichnet, ausgeführt, und eine Phasendifferenz zwischen den beiden Leuchtdichteverteilungen wird berechnet.
  • Danach wird in Schritt S206 ein Entfernungswert eines Defokussierbetrags berechnet unter Verwendung einer beliebigen bekannten Funktion F () auf der Grundlage der Phasendifferenz zwischen Leuchtdichteverteilungen, berechnet in Schritt S5205, und im RAM unter der Adresse D (x, y) gespeichert, die umgekehrt wird zur Aufzeichnung einer Entfernungsverteilungsinformation.
  • In Schritt S207 wird die Variable x um 1 erhöht, um einen zu verarbeitenden Block zum nächsten Block zu verschieben.
  • In Schritt S208 werden x und die Divisionszahl M in x-Richtung verglichen, und wenn in Schritt S208 bestimmt ist, daß x kleiner als m ist, dann kehrt der Prozeß zu Schritt S202 zurück, und ein Entfernungswert eines Defokussierbetrages des nächsten Blockes in x-Richtung wird berechnet und gespeichert. Wenn in Schritt S208 bestimmt ist, daß x gleich oder größer als M ist, dann schreitet der Prozeß fort zu Schritt S209, in dem x auf 0 initialisiert und y um 1 erhöht wird.
  • 22 In Schritt S210 werden y und die Teilerzahl n in y-Richtung miteinander verglichen, und wenn bestimmt ist, daß y kleiner als n ist, dann kehrt der Prozeß zu Schritt S203 zurück, und die Operation für die nächste Zeile beginnt. Wenn anderenfalls bestimmt ist, daß y gleich oder größer als n ist, dann schreitet der Prozeß fort zu Schritt S211, wobei die Operation zum Erzielen eines Abstandswertes oder eines Defokussierbetrags eines jeden Blockes abgeschlossen ist. Die Unterroutine zur Abstandsverteilungserzeugung aus Schritt S101 in 6 ist damit abgeschlossen.
  • In Schritt S102 wird als nächstes eine Unterroutine zum Erfassen eines Hauptgegenstandsbereichs (Hauptgegenstandsbereicherfassungsverarbeitung) von der Hauptgegenstandsbereichsbestimmungseinheit 52 aufgerufen. Die Inhalte der Hauptgegenstandsbereichserfassungsunterroutine werden anhand 8 erläutert.
  • In Schritt S301 in 8 wird die Operation des Numerierens bezüglich Gegenständen (Gruppen) des Konfigurierens vom Gegenstandsraum ausgeführt.
  • Im Falle des Numerierens (Gruppierens) der Blöcke während Ausführen einer Rasterabtastung in Richtung eines Pfeils vom ganz linken Block in 11 als Beispiel gehört eine Bestimmung, ob ein Gegenstandsblock B(x, y) und dessen oberer Block B(x, y – 1) zur selben Gruppe gehört und eine Bestimmung, ob der Gegenstandsblock B(x, y) und dessen linker Block B(x – 1, y) zur selben Gruppe gehört, zur Ausführung eines jeden Blockes. Blöcke in der allerobersten Zeile (y = 1) und der ganz linken Spalte (x = 1) haben keine Blöcke darüber beziehungsweise links daneben; das Bestimmen zwischen den Blöcken in diesem Fall in der Zeile ganz oben und deren oberer Blöcke und zwischen der Spalte ganz links und deren linksseitige Blöcke wird nicht ausgeführt.
  • Die Ergebnisse des Bestimmens werden im RAM unter reservierten Adressen G(, 0) bis G(M – 1, n – 1) gespeichert. Zuerst wird der Block B(x, y) = B(0, 0) mit einer Gruppennummer g = 1 registriert. Wenn eine neue Gruppe, die sich zusammensetzt aus einem anderen Gegenstand, erfaßt wird, erfolgt ein Erhöhen der Gruppenzahl um 1, und die erhöhte Nummer wird die Gruppennummer der neuen Gruppe. Jeweilige Blöcke des aufgenommenen Bildes, wie in 12A gezeigt, werden mit dieser Operation mit Namen versehene Gruppennummern für jeweilige Gruppen, wie in 12B gezeigt.
  • Die Numerierungsverarbeitung, wie sie zuvor beschrieben wurde, ist eine bekannte Technik, die man "Namensgebungsverfahren" nennt, und ein Ablaufdiagramm des Gruppierens deren Blöcke ist hier fortgelassen. Ein weiteres Bestimmungsverfahren zum Bestimmen, ob zwei Blöcke zu einer identischen Gruppe gehören, ist der japanischen offengelegten Patentanmeldung Nr. 10-161013 offenbart, und folglich wird eine detaillierte Erläuterung dieses Verfahrens hier fortgelassen.
  • Die Anzahl von in Schritt S301 erfaßten Gruppen wird auf in Schritt S302 in eine Variable Gnum eingesetzt.
  • In Schritt S303 und in den nachfolgenden Schritten werden Merkmale einer jeden Gruppe, die das aufgenommene Bild erzeugen, bewertet, und eine Gruppe, die am wahrscheinlichsten einen Hauptgegenstand enthält (Hauptgegenstandsbereich) wird aus all den Gruppen (Gegenstandsbereichen) auf der Grundlage der bewerteten Eigenschaften bestimmt. In Schritt S303 wird zunächst eine Variable Gcur auf 1 gesetzt, die eine zu verarbeitende Gruppe bedeutet.
  • In Schritt S304 wird die Wahrscheinlichkeit, S(Gcur), von Block zu Block, Erzeugen einer Gruppe Gcur vom eingeschlossenen Hauptgegenstand berechnet. Die Wahrscheinlichkeit S(Gcur) wird bestimmt auf der Grundlage des Durchschnittsabstands zu einem Gegenstand, der in der Gruppe enthalten ist, der Breite und Höhe der Gruppe und dem Ort der Gruppe im Bild. Eine Gruppe, die angesehen wird als enthalte sie den Hauptgegenstand, wird auf der Grundlage der berechneten Wahrscheinlichkeiten aller Gruppen bestimmt. Hinsichtlich einer Funktion des Berechnens der Wahrscheinlichkeit S(Gcur) kann die zuvor beschriebene Gleichung 1 verwendet werden.
  • In Schritt S305 wird der Wert von Gcur um 1 erhöht, und die der Operation unterzogene Gruppe wird als nächste Gruppe verarbeitet.
  • In Schritt S306 werden Gcur und Gnum miteinander verglichen, um zu überprüfen, ob die Operation für alle Gruppen ausgeführt worden ist. Ist Gcur gleich oder kleiner als Gnum, dann sind alle Gruppen verarbeitet worden; der Prozeß kehrt folglich zu Schritt S304 zurück. Wenn anderenfalls Gcur größer als Gnum ist, dann schreitet der Prozeß fort zu Schritt S307.
  • In Schritt S307 wird unter Verwendung einer Funktion MAX eine Gruppennummer mit der höchsten Wahrscheinlichkeit unter den Wahrscheinlichkeiten S(1) bis S(Gnum) gefunden, und die Gruppennummer mit der größten Wahrscheinlichkeit ersetzt eine Variable Gmain. Die mit Namen versehenen Blöcke derselben Gruppennummer, wie Gmain, werden bestimmt zum Bilden des Hauptgegenstandsbereichs.
  • Der Hauptgegenstandsbereich Erfassungsprozeß ist in Schritt S308 abgeschlossen; somit ist Schritt S102 in 6 beendet.
  • Danach schreitet der Prozeß fort zu Schritt S103 in 6, wo ein Prozeß des Bestimmens einer Brennweite (Brennweitenbestimmungsverarbeitung) von der Brennweitenbestimmungseinheit 54 erfolgt. Hier wird eine Unterroutine zum Bestimmen einer Brennweite auf der Grundlage einer Information bezüglich des Hauptgegenstands ausgeführt. Die Brennweitenbestimmungsverarbeitung wird anhand 9 erläutert.
  • In Schritt S401 in 9 wird ein Bereich im Gegenstandsraum, der der Brennweitenbestimmungsverarbeitung unterzogen worden ist, in den Hauptgegenstandsbereich auf der Grundlage der in Schritt S102 erfaßten Gruppennummer gesetzt.
  • Im nachfolgenden Schritt S402 wird die Abstandsinformation zur Brennweiteneinstellung auf der Grundlage der Information bezüglich des Hauptgegenstandsbereichs berechnet, eingestellt in Schritt S102. Ein Algorithmus, der hier die Priorität der Minimalentfernung im Gegenstandsbereich verwendet wird, und der Minimalabstand zum Gegenstand im Bereich wird berechnet.
  • Hiernach wird in Schritt S403 der Minimalabstand eingestellt als solcher zu einem Gegenstand, auf den scharf zu stellen ist; hierdurch wird die Brennweitenbestimmungsverarbeitung abgeschlossen, und der Prozeß kehrt zum Ablaufdiagramm in 6 zurück.
  • Nach der Operation der Schritte S101 bis S103, ausgeführt in der Kamerasteuerung PRS, wird ein Befehl zur Fokussteuerung an die Linsen aus der Kamerasteuerung PRS gesandt, um so auf einen Punkt bei der Entfernung scharf zu stellen, der in Schritt S103 bestimmt wurde, und die Linsensteuerung LPRS steuert den Motor LMTR zum Fokussieren auf den Gegenstand, der aktuell als der Hauptgegenstand in Schritt S104 angesehen wird.
  • Als nächstes wird in Schritt S105 bestimmt, ob der aktuelle Fokuszustand genau ist, nämlich ob der Hauptgegenstandsbereich, der aktuell ausgewählt ist, den Hauptgegenstand enthält, den die Bedienperson scharf einzustellen wünscht. Im ersten Ausführungsbeispiel wird überprüft, ob die Bedienperson den Hauptgegenstandsbereich zu ändern wünscht, indem ein Zustand des Drehbetätigungsgliedes von der Hauptgegenstandsbereichsänderungseinheit 53 erfaßt wird, oder ein Zustand des Schalters SW2 vom Auslöseknopf, der die Bildaufnahmeoperation auslöst. Genauer gesagt, wenn das Drehbetätigungsglied von der Hauptgegenstandsbereichsänderungseinheit 53 betätigt wurde, bevor der Schalter SW2 des Auslöseknopfes eingeschaltet ist, dann wird bestimmt, daß die Bedienperson den Hauptgegenstandsbereich ändern will, wohingegen bei eingeschaltetem Schalter SW2 vor Erfassen irgendeiner Betätigung des Drehbetätigungsgliedes dann bestimmt wird, daß die Bedienperson mit dem derzeit eingestellten Hauptgegenstand voll zufrieden ist.
  • Im Falle des Belassens vom Hauptgegenstandsbereich in unveränderter Form werden zunächst Steuersignale SMG1 und SMG2 für die jeweiligen Betätigungsmagnete MG1 und MG2 für den vorderen und hinteren Vorhang zu genauen Intervallen von der Kamerasteuerung PRS in Schritt S107 erzeugt, der Film wird belichtet, und die Bildaufnahmeoperation ist abgeschlossen.
  • Wenn anderenfalls eine Änderung des Hauptgegenstands in Schritt S105 angefordert ist, dann schreitet der Prozeß fort zu Schritt S106, in dem der Prozeß des Auswählens eines Hauptgegenstands erfolgt.
  • Der Hauptgegenstandsbereichsauswahlprozeß ist nachstehend anhand 10 erläutert.
  • Wenn eine Änderung im Hauptgegenstandsbereich in Schritt S105 angefordert ist, wie zuvor beschrieben, wenn nämlich das Drehbetätigungsglied betätigt ist, wird die Richtung der Drehung in Schritt S501 erfaßt. Ein System der Eingabe einer Bewegungsrichtung im Gegenstandsraum aus dem aktuell ausgewählten Hauptgegenstandsbereich zu einem Gegenstandsbereich, den die Bedienperson zu verwenden wünscht, unter Verwendung des einzelachsigen Drehbetätigungsgliedes DL (Drehschalter) im ersten Ausführungsbeispiel. Wird Drehen nach links festgestellt, dann schreitet der Prozeß fort zu Schritt S502, wohingegen im anderen Falle des Feststellens der Drehung nach rechts der Prozeß zu Schritt S503 fortschreitet.
  • In Schritt S502 oder S503 wird auf der Grundlage der in Schritt S501 festgestellten Drehrichtung ein Gegenstandsbereich auf der linken oder rechten Seite des Bereichs aktuell als Hauptgegenstandsbereich ausgewählt und als neuer Hauptgegenstandsbereich eingesetzt; folglich ist der Hauptgegenstandsbereichsauswählprozeß abgeschlossen.
  • Nach Auswahl des Hauptgegenstandsbereichs durch ausgeführte manuelle Betätigung in Schritt S106, wie zuvor beschrieben, kehrt der Prozeß zu Schritt S103 zurück, bei dem eine Brennweite auf der Grundlage der Information des aktuellen Hauptgegenstandsbereichs bestimmt wird. Die Linse wird in Schritt S104 weiterbewegt, und es wird in Schritt S105 bestimmt, ob der aktuelle Hauptgegenstandsbereich zu ändern ist, und abhängig vom Bestimmungsergebnis wird entweder die Belichtungsoperation in Schritt S106 oder die Hauptgegenstandsbereichsauswahlverarbeitung in Schritt S107 ausgeführt.
  • Die Operation des Änderns vom Hauptgegenstandsbereich, die in Schritt S501 und den nachfolgenden Schritten erfolgt, ist unter Aufnehmen einer Szene in 12A als Beispiel erläutert. Wenn ein Gegenstandsbereich von Gruppe Nr. 3 in 12B ursprünglich als Hauptgegenstandsbereich ausgewählt ist und wenn das Drehen des Drehschalters nach rechts in Schritt S501 festgestellt ist, dann wird der Gegenstandsbereich von Gruppe Nr. 4 ausgewählt als neuer Hauptgegenstandsbereich, und die Linse wird zum Fokussieren auf einen Gegenstand im neuen Hauptgegenstandsbereich der Gruppe Nr. 4 fokussiert. Wenn die Drehung nach rechts vom Drehschalter erneut in Schritt S501 festgestellt wird, dann erfolgt die Auswahl eines Gegenstandsbereichs der Gruppe Nr. 6, und diese wird als neuer Hauptgegenstandsbereich eingesetzt.
  • Um zu zeigen, welcher Gegenstandsbereich aktuell als Hauptgegenstandsbereich ausgewählt ist, wird ein als Hauptgegenstandsbereich ausgewählter Bereich, nämlich Blöcke mit der identischen Gruppennummer, von einer Linie auf einem Bildschirm oder einem Sucher umgeben. Alternativ kann eine Markierung bei grober Mitte des Hauptgegenstandsbereichs angezeigt werden.
  • Wenn der Gegenstand, auf den die Bedienperson zu fokussieren beabsichtigt, durch Schieben des Auslöseknopfes bis zum Einschalten des Schalters SW2, wird eine Bildaufnahmeoperation realisiert, wie gewünscht.
  • Im ersten zuvor beschriebenen Beispiel wird nur ein einziges Achsendrehbetätigungsglied als Eingabeglied verwendet. Jedoch ist die Erfindung nicht darauf beschränkt, und zwei einzelne Achsdrehbetätigungsglieder, deren Rotationsachsen orthogonal zueinander stehen, können auch verwendet werden. In diesem Falle können vier Drehrichtungen festgestellt werden, das heißt, nach oben, nach unten, nach links und nach rechts. Ein gleitendes Richtungsbestimmungsmittel kann ebenfalls anstelle des Drehbetätigungsgliedes verwendet werden. Ein Betätigungsglied, wie eine Rollkugel, das in der Lage ist, frei in eine beliebige Richtung gedreht werden zu können. In diesem Falle wird die Handhabbarkeit der Kamera verbessert.
  • Anstelle des Bestimmens vom Ort des Hauptgegenstandsbereichs durch ein Betätigungsglied kann eine Prioritätsreihenfolge auf der Grundlage der Wahrscheinlichkeiten S(1) bis S(Gnum) bestimmt werden, die Ergebnisse der Bewertungsfunktionen sind, durch Sortieren der Wahrscheinlichkeiten, und der Hauptgegenstandsbereich kann von einem Gegenstandsbereich mit höherer Wahrscheinlichkeit zu einem Gegenstandsbereich mit geringerer Wahrscheinlichkeit gewechselt werden. Im Falle, bei dem nur ein einziges Achsdrehbetätigungsglied für die Kamera vorgesehen ist, kann ein System besserer Bedienbarkeit realisiert werden, durch Ändern des Hauptgegenstandsbereichs gemäß einer Prioritätsreihenfolge.
  • <Zweites Ausführungsbeispiel>
  • Als nächstes beschrieben ist als zweites Ausführungsbeispiel ein Fall, bei dem das Betätigungsglied ein Fokussiersystem einer optischen Einrichtung, wie einer Kamera ist.
  • Im zweiten Ausführungsbeispiel wird eine sogenannte Vollzeitkamera des manuellen Typs, bei dem das Automatikfokussiersystem auch manuell zu betätigen ist, betrachtet. Die Grundstruktur der Kamera ist dieselbe wie die im ersten Ausführungsbeispiel erläuterte; folglich sind hauptsächlich Konfigurationselemente beschrieben, die für die Erläuterung des zweiten Ausführungsbeispiels wichtig sind.
  • 13 ist ein Blockdiagramm, das die grundlegenden Konfigurationselemente der Kamera nach dem zweiten Ausführungsbeispiel der vorliegenden Erfindung zeigt. In 13 bedeuten Bezugszeichen 51, 52, 54 und 55 dieselben Elemente wie die Bezugszeichen 51, 52, 54 und 55 in 1. Eine Hauptgegenstandsbereichsänderungseinheit 63 ist innerhalb einer Punktlinie 67 vorgesehen, die einen Bereich darstellt, den eine CPU, ein RAM und ein ROM eines Computers realisiert, und eine Signalleitung aus dem Objektivtreiber 66 kommt zur Hauptgegenstandsbereichsänderungseinheit 63 hinzu (zum Melden der Bewegungsrichtung des Brennweitensteuergliedes), da die Funktion des Betätigungsgliedes in der Hauptgegenstandsbereichsänderungseinheit zum Objektivtreiber 66 bewegt wird.
  • Angemerkt sei, daß durch Konfigurieren des Systems in der Weise, daß der Signalfluß aus dem Treiber 66 zur Hauptgegenstandsbereichsänderungseinheit 63 über die Brennweitenbestimmungseinheit 54 erfolgt, es möglich ist, die Systemkonfiguration zu vereinfachen.
  • 14 ist ein Ablaufdiagramm der Hauptgegenstandsbereichsauswahlverarbeitung gemäß dem zweiten Ausführungsbeispiel der vorliegenden Erfindung.
  • In der in 14 gezeigten Verarbeitung, die sich von der in 10 gezeigten Verarbeitung unterscheidet, wird die Bewegungsrichtung des Fokussiersystems (Drehung nach rechts und links, wenn Fokussiersystem des normalen Drehtyps verwendet wird) in 601 bestimmt, und abhängig von der Bewegungsrichtung entweder nach vorn (in Annäherungsrichtung zur Kamera) oder rückwärts (in zurücktretender Richtung zur Kamera) wird der Hauptgegenstandsbereich zu einem solchen geändert, der einen Gegenstand bei kürzerer Entfernung in Schritt S603 enthält, oder ein Gegenstandsbereich, der einen Gegenstand mit längerer Entfernung in Schritt S602 enthält.
  • Genauer gesagt, wünscht die Bedienperson einen Gegenstand zu fokussieren, der kürzer entfernt ist oder eine längere Entfernung als die Entfernung, auf die aktuell fokussiert ist, betätigt die Bedienperson das Fokussiersystem in der gewünschten Richtung, und der Hauptgegenstandsbereich wird automatisch in einen Gegenstandsbereich gewechselt, der in der von der Bedienperson gewünschten Richtung liegt.
  • Die Operation des Änderns vom Hauptgegenstandsbereich ist als Beispiel durch Aufnehmen einer Szene in 12A erläutert, das dem ersten Ausführungsbeispiel gleicht. Wenn ein Gegenstandsbereich einer Gruppe Nr. 3 ursprünglich in 12B als Hauptgegenstandsbereich ausgewählt worden ist, und wenn die Drehung des Fokussiersystems in Richtung zum Fokussieren auf einen Gegenstand mit größerer Entfernung in Schritt S601 festgestellt wird, dann wird ein Gegenstandsbereich bestimmt, der einen Gegenstand enthält, der eine längere Entfernung hat als der Bereich der Gruppe 3, als Hauptgegenstandsbereich auf der Grundlage des Entfernungswertes oder des Defokussierbetrages, der in Schritt S101 von 6 festgestellt wurde. In diesem Falle wird eine Gegenstandsbereichsbezeichnungsgruppennummer 4 als neuer Hauptgegenstandsbereich eingesetzt, das Fokussiersystem wird so gesteuert, daß auf den Gegenstand im neuen Hauptgegenstandsbereich fokussiert wird. Wird die gleiche Drehung des Fokussiersystems erneut in Schritt S601 festgestellt, dann wird ein Gegenstandsbereich ausgewählt, der einen Gegenstand enthält, der sich auf größerer Entfernung befindet als der Bereich der Gruppe Nr. 4, in diesem Falle der Gegenstandsbereich von Gruppe 6, der ausgewählt und als neuer Gegenstandsbereich eingesetzt wird.
  • Gemäß dem ersten und zweiten Ausführungsbeispiel der zuvor beschriebenen vorliegenden Erfindung wird ein automatisch bestimmter Hauptgegenstandsbereich von der Bedienperson überprüft, und wenn der bestimmte Bereich nicht der Bereich ist, den die Bedienperson scharf zu stellen wünscht, ist es für die Bedienperson möglich, den Hauptgegenstand auf einen beliebigen Bereich zu ändern, indem ein vorbestimmtes Betätigungsglied betätigt wird.
  • Eine Kamera ist geschaffen, die in der Lage ist, die Fokussteuerung auszuführen, wobei die Absicht der Bedienperson durch einfaches Betätigen verwirklicht wird.
  • Die vorliegende Erfindung ist nicht auf die obigen Ausführungsbeispiele beschränkt, und verschiedene Änderungen und Abwandlungen sind im Umfang der vorliegenden Erfindung möglich. Um der Öffentlichkeit den Umfang der vorliegenden Erfindung bekanntzugeben, werden folgende Patentansprüche aufgestellt.

Claims (22)

  1. Optische Vorrichtung, mit: einem Unterteilungsmittel (51) zum Unterteilen eines von einem optischen Bildaufnahmemittel abgetasteten Bildes in eine Vielzahl von Bereichen; einem Gruppierungsmittel (51) zum Erzeugen einer Fokusabbildung und zum Erzeugen unterteilter Bereiche in Objektbereiche auf der Grundlage der erzeugten Fokusabbildung; einem Hauptobjektbereichsbestimmungsmittel (52) zum Bestimmen eines Hauptobjektbereichs aus den vom Gruppiermittel gruppierten Objektbereichen; einem Fokussteuermittel (54) zum Fokussieren auf dem bestimmten Hauptobjektbereich; einem manuell zu betätigenden Bedienglied zum Ändern des Hauptobjektbereich; und mit einem Hauptobjektbereichsänderungsmittel (53, 63, 66, DL) zum Bestimmen, ob der Nutzer die Betätigung zum Ändern des Hauptobjektbereichs des Bediengliedes während der Periode ausgeführt hat, nachdem das Fokussteuermittel den aktuellen Hauptobjektbereich fokussiert hat und bevor das vom optischen Bildaufnahmemittel aufgenommene Bild erfaßt und zur Beibehaltung des Fokuszustands vom Fokussteuermittel auf dem bestimmten Hauptobjektbereich während dieser Periode eingestellt ist, bis bestimmt worden ist, daß das Betätigungsglied betätigt ist, um einen neuen Hauptobjektbereich eines der Objektbereiche einzustellen und dann das Fokussteuermittel zu veranlassen, auf dem neu eingestellten Hauptobjektbereichs zu fokussieren.
  2. Vorrichtung nach Anspruch 1, bei der das Gruppierungsmittel eingerichtet ist zum Gruppieren der Vielzahl unterteilter Bereiche auf der Grundlage der Abstände zu Gegenständen, einschließlich des aufgenommenen Bildes, und wobei das Hauptobjektbereichsänderungsmittel ein Richtungsbestimmungsmittel aufweist zum Bestimmen einer Richtung in Hinsicht auf die optische Hauptachse in der Vorrichtung zum Bestimmen als neuen Hauptobjektbereichs eines neuen Objektbereichs, zu dem sich der Abstand vom vorherigen Hauptobjektbereich unterscheidet.
  3. Vorrichtung nach Anspruch 1 oder 2, die des weiteren über ein Bewertungsmittel (52) verfügt, um einen Bewertungsgrad durch Ausführen einer vorbestimmten Operation für jeden der vom Gruppierungsmittel (51) gruppierten Objektbereiche zu berechnen, wobei das Hauptobjektbereichsbestimmungsmittel (52) den Hauptobjektbereich auf der Grundlage des für jeden der Objektbereiche vom Bewertungsgradrechenmittel berechneten Bewertungsgrades bestimmt.
  4. Vorrichtung nach Anspruch 1, 2 oder 3, bei der das Hauptobjektbereichsänderungsmittel (53, DL) ein Richtungsbestimmungsmittel hat, um eine Richtung zu bestimmen, die unter einem Winkel der optischen Achse der optischen Vorrichtung verläuft.
  5. Vorrichtung nach einem der vorstehenden Ansprüche, bei der das Richtungsbestimmungsmittel ein wenigstens in zwei Richtungen drehbares Drehbetätigungsglied (DL) ist.
  6. Vorrichtung nach Anspruch 5, deren Richtungsbestimmungsmittel über eine Vielzahl von Drehbetätigungsgliedern (DL) verfügt.
  7. Vorrichtung nach einem der Ansprüche 1 bis 3, deren Richtungsbestimmungsmittel ein gleitendes Bestimmungsmittel ist, das wenigstens zwei Richtungen bestimmen kann.
  8. Vorrichtung nach Anspruch 7, deren Richtungsbestimmungsmittel über eine Vielzahl der gleitenden Bestimmungsglieder verfügt.
  9. Vorrichtung nach einem der Ansprüche 1, 2 oder 3, deren Richtungsbestimmungsmittel eine Rollkugel ist.
  10. Vorrichtung nach einem der Ansprüche 2 bis 9, deren Richtungsbestimmungsmittel (63, 66) eingerichtet ist, die Brennweite des optischen Bildaufnahmesystems zu ändern.
  11. Vorrichtung nach einem der vorstehenden Ansprüche, die des weiteren über ein Prioritätsbestimmungsmittel verfügt, um die Prioritätsreihenfolge zu bestimmen, und wenn eine Ladung im Hauptobjektbereich angefragt ist, wird das Hauptobjektbereichsänderungsmittel (53) so eingerichtet, daß es den Hauptobjektbereich in absteigender Reihenfolge der Prioritätsreihenfolge ändert.
  12. Vorrichtung nach Anspruch 11, die des weiteren über ein Bewertungsmittel (52) verfügt, um einen Bewertungsgrad durch Ausführen einer vorbestimmten Operation für jeden der Vielzahl von vom Bereichsbestimmungsmittel (51) herausgefundenen Bereichen zu berechnen, wobei das Prioritätsbestimmungsmittel die Prioritätsreihenfolge auf der Grundlage des für jeden der Vielzahl von Bereichen vom Bewertungsgradrechenmittel berechneten Bewertungsgrades bestimmt.
  13. Verfahren zum Fokussieren einer optischen Einrichtung, mit den Verfahrensschritten: Unterteilen eines vom optischen Bildaufnahmemittel aufgenommenen Bildes in eine Vielzahl von Bereichen; Erzeugen einer Fokusabbildung und Gruppieren der unterteilten Bereiche in Objektbereiche auf der Grundlage der erzeugten Fokusabbildung; Bestimmen eines Hauptobjektbereichs aus den vom Gruppiermittel gruppierten Objektbereichen; und Fokussieren des bestimmten Hauptobjektbereichs, Ändern des Hauptobjektbereichs durch ein manuell zu betätigendes Bedienglied; Bestimmen, ob die Operation zur Änderung des Hauptobjektbereichs vom Bedienmittel während der Periode ausgeführt wurde, nachdem das Fokussteuermittel den laufenden Hauptobjektbereich fokussiert hat, und bevor das vom optischen Bildaufnahmemittel aufgenommene Bild erfaßt worden ist, Beibehalten des Fokuszustands, das das Fokussteuermittel auf den bestimmten Hauptobjektbereich während dieser Periode eingestellt hat, bis bestimmt ist, daß das Betätigungsglied zum Einstellen eines neuen Hauptobjektbereichs einer der Objektbereiche betätigt worden ist, und Fokussieren auf den neu eingestellten Hauptobjektbereich.
  14. Verfahren nach Anspruch 13, bei dem der Gruppierungsschritt die Vielzahl unterteilter Bereiche auf der Grundlage der Entfernungen zu im Bild enthaltenen Gegenständen gruppiert, und bei dem der Hauptobjektbereichsänderungsschritt ein Richtungsbestimmungsmittel verwendet, um die Richtung in Hinsicht auf die optische Hauptachse zu der Vorrichtung zu bestimmen, und als einen neuen Hauptobjektbereich einen Objektbereich zu bestimmen, zu dem sich der Abstand sich vom vorherigen Hauptobjektbereich unterscheidet.
  15. Verfahren nach Anspruch 13 oder 14, das des weiteren einen Bewertungsgrad durch Ausführen einer vorbestimmten Operation für jeden der Objektbereiche berechnet, die der Gruppierungsschritt gruppiert hat, wobei der Hauptobjektbereichsbestimmungsschritt den Hauptobjektbereich auf der Grundlage des für jeden der Objektbereiche vom Bewertungsgradrechenmittel berechneten Bewertungsgrades bestimmt.
  16. Verfahren nach einem der Ansprüche 13 bis 15, bei dem der Schritt des Änderns vom Hauptobjektbereich ein wenigstens in zwei Richtungen drehbares Drehbetätigungsglied (DL) verwendet.
  17. Verfahren nach Anspruch 16, das eine Vielzahl von Drehbetätigungsgliedern (DL) verwendet, um den Hauptobjektbereich zu ändern.
  18. Verfahren nach einem der Ansprüche 13 bis 15, bei dem der Verfahrensschritt des Änderns vom Hauptobjektbereichs ein gleitfähiges Bestimmungsglied verwendet, das wenigstens zwei Richtungen bestimmen kann.
  19. Verfahren nach Anspruch 18, das eine Vielzahl von gleitfähigen Bestimmungsgliedern verwendet.
  20. Verfahren nach einem der Ansprüche 13 bis 15, bei dem der Schritt des Änderns vom Hauptobjektbereich eine Rollkugel verwendet.
  21. Verfahren nach einem der Ansprüche 13 bis 20, das des weiteren über einem Prioritätsbestimmungsschritt zum Bestimmen einer Prioritätsreihenfolge der Objektbereiche verfügt, und wenn die Änderung im Hauptobjektbereich annulliert ist, ändert der Hauptobjektbereichsänderungsschritt den Hauptobjektbereich in abfallender Prioritätsreihenfolge.
  22. Verfahren nach Anspruch 21, das des weiteren über einen Bewertungsschritt des Berechnens eines Bewertungsgrades durch Ausführen einer vorbestimmten Operation für jeden der Vielzahl von Objektbereichen verfügt, die der Bereichsbestimmungsschritt unterteilt hat, wobei der Prioritätsbestimmungsschritt die Prioritätsreihenfolge auf der Grundlage des für jeden der Vielzahl von Objektbereichen im Bewertungsgradberechnungsschritt berechneten Bewertungsgrades bestimmt.
DE69829734T 1997-12-25 1998-12-22 Optische Vorrichtung und Verfahren zur Auswahl eines Fokusobjektes Expired - Lifetime DE69829734T2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP35851297A JP4018218B2 (ja) 1997-12-25 1997-12-25 光学装置及び測距点選択方法
JP35851297 1997-12-25

Publications (2)

Publication Number Publication Date
DE69829734D1 DE69829734D1 (de) 2005-05-19
DE69829734T2 true DE69829734T2 (de) 2005-09-29

Family

ID=18459706

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69829734T Expired - Lifetime DE69829734T2 (de) 1997-12-25 1998-12-22 Optische Vorrichtung und Verfahren zur Auswahl eines Fokusobjektes

Country Status (4)

Country Link
US (1) US7071985B1 (de)
EP (1) EP0926526B1 (de)
JP (1) JP4018218B2 (de)
DE (1) DE69829734T2 (de)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6785469B1 (en) * 1999-11-16 2004-08-31 Olympus Corporation Distance measuring device installed in camera
JP4550211B2 (ja) * 2000-03-21 2010-09-22 オリンパス株式会社 カメラ
JP4011829B2 (ja) 2000-06-14 2007-11-21 キヤノン株式会社 撮像装置及びその制御方法
US6956612B2 (en) * 2001-07-31 2005-10-18 Hewlett-Packard Development Company, L.P. User selectable focus regions in an image capturing device
US7391463B2 (en) * 2002-08-06 2008-06-24 Olympus Corporation Image sensing apparatus having distance measuring unit and control method thereof
JP3958164B2 (ja) 2002-09-19 2007-08-15 キヤノン株式会社 カメラの測光装置
US7551223B2 (en) * 2002-12-26 2009-06-23 Sony Corporation Apparatus, method, and computer program for imaging and automatic focusing
US20060216013A1 (en) * 2003-02-12 2006-09-28 Christian Kueblbeck Adjustment of an image recorder with dynamic measuring fields
US7705908B2 (en) * 2003-12-16 2010-04-27 Eastman Kodak Company Imaging method and system for determining camera operating parameter
JP2005269604A (ja) * 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP4154400B2 (ja) * 2004-04-01 2008-09-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
TWI315152B (en) * 2006-05-19 2009-09-21 Primax Electronics Ltd Image object location detection method
JP2008170645A (ja) * 2007-01-10 2008-07-24 Olympus Corp フォーカス制御装置及び撮像装置
JP4873729B2 (ja) 2007-04-06 2012-02-08 キヤノン株式会社 光学機器
US20130083232A1 (en) * 2009-04-23 2013-04-04 Hiok Nam Tay Auto-focus image system
JP5246078B2 (ja) * 2009-07-10 2013-07-24 株式会社ニコン 被写体位置特定用プログラム、およびカメラ
US8159600B2 (en) 2009-12-07 2012-04-17 Hiok Nam Tay Auto-focus image system
GB2487142B (en) 2010-05-26 2012-12-12 Hiok Nam Tay Auto-focus image system
GB2510495A (en) * 2010-05-26 2014-08-06 Hiok Nam Tay Auto-focus image system
JP2012141240A (ja) * 2011-01-05 2012-07-26 Ricoh Co Ltd 測距装置、測距方法および撮像装置、撮像方法
US9065999B2 (en) 2011-03-24 2015-06-23 Hiok Nam Tay Method and apparatus for evaluating sharpness of image
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP6577703B2 (ja) 2014-08-05 2019-09-18 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6611477B2 (ja) * 2015-06-08 2019-11-27 キヤノン株式会社 撮像装置、発光制御方法、プログラム

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4555169A (en) 1983-09-13 1985-11-26 Canon Kabushiki Kaisha Focus detecting device for a camera
JPS6068510U (de) 1983-10-17 1985-05-15
JPS60101513A (en) 1983-11-08 1985-06-05 Canon Inc Focus detector
US4520240A (en) * 1983-12-01 1985-05-28 Texas Instruments Incorporated Four-way key switch control mechanism
JPS60263912A (en) 1984-06-13 1985-12-27 Canon Inc Focus detecting device of camera
JPS6148807A (en) 1984-08-17 1986-03-10 Canon Inc Focus detecting device
JPH0629895B2 (ja) 1984-09-11 1994-04-20 キヤノン株式会社 フォーカス状態決定装置
JPS6195324A (en) 1984-10-16 1986-05-14 Canon Inc Exposure control device for camera
JPH067223B2 (ja) 1984-10-17 1994-01-26 キヤノン株式会社 焦点検出装置
JPH0467607B2 (de) 1985-02-09 1992-10-28 Canon Kk
US4739157A (en) 1985-03-19 1988-04-19 Canon Kabushiki Kaisha Method of detecting the correlation between signals with weighting
US4849782A (en) 1985-06-28 1989-07-18 Canon Kabushiki Kaisha Focus detecting device
JPH0731300B2 (ja) 1985-09-21 1995-04-10 キヤノン株式会社 焦点検出装置
GB2183419B (en) 1985-10-22 1990-08-29 Canon Kk Focusing state detection apparatus for objective lens
US4792668A (en) 1985-12-05 1988-12-20 Canon Kabushiki Kaisha Apparatus for detecting focusing state of objective lens
US4801963A (en) 1985-12-18 1989-01-31 Canon Kabushiki Kaisha Focus detecting system
US4728785A (en) 1986-01-10 1988-03-01 Canon Kabushiki Kaisha Focus detecting device using adjustable inclined sensing means
US4792669A (en) 1986-01-10 1988-12-20 Canon Kabushiki Kaisha Focus detecting device having two selectively movable lenses
US4907026A (en) 1986-04-21 1990-03-06 Canon Kabushiki Kaisha Light projection system for automatic focus detection
JP2692049B2 (ja) 1986-07-10 1997-12-17 キヤノン株式会社 焦点検出装置
JPS6318312A (en) 1986-07-10 1988-01-26 Canon Inc Focus detector
JPS6318313A (en) 1986-07-10 1988-01-26 Canon Inc Focus detector
US4959677A (en) 1986-10-01 1990-09-25 Canon Kabushiki Kaisha Device for detecting the focus adjusted state of an objecting lens
US4774539A (en) 1986-10-01 1988-09-27 Canon Kabushiki Kaisha Camera having a focus detecting apparatus
JPS63118112A (en) 1986-11-05 1988-05-23 Canon Inc Focus detector
JPS6392314U (de) 1986-12-05 1988-06-15
US4855777A (en) 1987-03-02 1989-08-08 Canon Kabushiki Kaisha Apparatus for detecting the focus adjusted state of an objective lens
US5003400A (en) * 1987-08-19 1991-03-26 Hitachi, Ltd. Focusing apparatus of video camera or the like
US5005041A (en) 1987-11-05 1991-04-02 Canon Kabushiki Kaisha Focus detecting apparatus having a plurality of focus detecting areas
JPH01134410A (en) 1987-11-20 1989-05-26 Canon Inc Automatic focusing device
US4998124A (en) * 1987-11-26 1991-03-05 Minolta Camera Kabushiki Kaisha Autofocus camera including automatically controlled focus adjustment
JPH07117645B2 (ja) 1987-12-14 1995-12-18 キヤノン株式会社 焦点検出装置
JPH0617935B2 (ja) 1987-12-24 1994-03-09 キヤノン株式会社 自動焦点調節装置
JPH01177507A (en) 1988-01-06 1989-07-13 Canon Inc Camera possessing automatic focusing device
US4908645A (en) 1988-02-05 1990-03-13 Canon Kabushiki Kaisha Automatic focus adjusting device
US5060002A (en) 1988-02-11 1991-10-22 Canon Kabushiki Kaisha Automatic focus adjusting device
JPH0522214B2 (de) 1988-02-22 1993-03-26 Canon Kk
US4980716A (en) 1988-04-28 1990-12-25 Canon Kabushiki Kaisha Focus detecting device
JPH01280713A (en) 1988-05-06 1989-11-10 Canon Inc Automatic focus adjustor
JP2713978B2 (ja) 1988-05-13 1998-02-16 キヤノン株式会社 カメラのための自動焦点調節装置
JPH01285907A (en) 1988-05-13 1989-11-16 Canon Inc Autofocusing device for camera
JP2643326B2 (ja) 1988-07-07 1997-08-20 キヤノン株式会社 焦点検出装置を有した一眼レフカメラ
JPH0812319B2 (ja) 1988-07-19 1996-02-07 キヤノン株式会社 カメラ
US4992817A (en) 1988-08-06 1991-02-12 Canon Kabushiki Kaisha Focus detecting device switching between passive and active detection
US4994843A (en) * 1988-08-25 1991-02-19 Asahi Kogaku Kogyo Kabushiki Kaisha Focus indicating apparatus of automatic focusing camera
US5333028A (en) 1988-08-30 1994-07-26 Canon Kabushiki Kaisha Automatic focusing apparatus detecting focus for a plurality of areas and using contrast levels
GB2223140B (en) 1988-08-31 1993-03-03 Canon Kk Automatic focusing apparatus for camera
GB2223139B (en) 1988-08-31 1993-03-03 Canon Kk Automatic focusing apparatus
US5089843A (en) 1989-01-09 1992-02-18 Canon Kabushiki Kaisha Auto focus device with predictive focussing
JPH02189533A (en) 1989-01-19 1990-07-25 Canon Inc Automatic focusing device
US5629735A (en) * 1989-08-20 1997-05-13 Canon Kabushiki Kaisha Image sensing device having a selectable detecting area
US4992819A (en) 1989-10-31 1991-02-12 Canon Kabushiki Kaisha Focus detecting device having a plurality of detecting areas and camera provided with the same
JP2756330B2 (ja) 1990-01-16 1998-05-25 キヤノン株式会社 自動焦点調節装置
US5235428A (en) * 1990-02-21 1993-08-10 Sony Corporation Auto-focus system for video camera
US5103254A (en) * 1990-05-29 1992-04-07 Eastman Kodak Company Camera with subject highlighting and motion detection
JPH0467607A (en) 1990-07-09 1992-03-03 Nippondenso Co Ltd Butt type transformer
JPH0478832A (en) 1990-07-20 1992-03-12 Canon Inc Focus detecting device
US5659823A (en) * 1990-08-29 1997-08-19 Minolta Camera Kabushiki Kaisha Camera
US5138260A (en) * 1990-11-21 1992-08-11 Picker International, Inc. Computer controlled switching of multiple rf coils
JPH05233141A (ja) * 1992-02-25 1993-09-10 Mitsubishi Electric Corp ポインティングデバイス
US5365302A (en) * 1992-05-01 1994-11-15 Olympus Optical Company, Ltd. Focus area setting apparatus of camera
US5392088A (en) * 1992-09-04 1995-02-21 Nikon Corporation Target follow-up device and camera comprising the same
DE4231379C2 (de) * 1992-09-19 2001-09-13 Leica Microsystems Mikroskop mit einem multifunktionalen Triebknopf
US5625415A (en) * 1993-05-20 1997-04-29 Fuji Photo Film Co., Ltd. Apparatus and method for automatic focusing in a camera system
JP3144155B2 (ja) 1993-05-20 2001-03-12 キヤノン株式会社 焦点検出装置
US5682559A (en) * 1993-09-30 1997-10-28 Minolta Co., Ltd. Camera
US5900927A (en) * 1993-10-13 1999-05-04 Fuji Photo Film Co., Ltd. Variable target autofocusing and range finder for measuring distance to a subject
US5615398A (en) 1993-11-08 1997-03-25 Canon Kabushiki Kaisha Optical apparatus with image area sensors for controlling lens focal length
JP3382321B2 (ja) 1993-11-08 2003-03-04 キヤノン株式会社 光学機器
US5640619A (en) * 1993-12-14 1997-06-17 Nikon Corporation Multiple point focus detection camera
JPH08138053A (ja) * 1994-11-08 1996-05-31 Canon Inc 被写体情報処理装置及び遠隔装置
US5496106A (en) * 1994-12-13 1996-03-05 Apple Computer, Inc. System and method for generating a contrast overlay as a focus assist for an imaging device
US5729771A (en) 1995-01-20 1998-03-17 Canon Kabushiki Kaisha Focus detecting apparatus and optical apparatus using it
JP3477279B2 (ja) * 1995-05-29 2003-12-10 ペンタックス株式会社 視線検出装置
JP3146931B2 (ja) * 1995-06-30 2001-03-19 富士写真光機株式会社 オートフォーカスカメラ
US5745175A (en) * 1995-10-02 1998-04-28 Flashpoint Technologies, Inc. Method and system for providing automatic focus control for a still digital camera
JP3571831B2 (ja) * 1995-10-27 2004-09-29 キヤノン株式会社 光学装置
US5913082A (en) * 1995-10-27 1999-06-15 Canon Kabushiki Kaisha Image signal processing apparatus
JP3636524B2 (ja) 1995-12-28 2005-04-06 キヤノン株式会社 焦点検出装置及びそれを用いた光学機器
US5839001A (en) 1995-12-28 1998-11-17 Canon Kabushiki Kaisha Focus detecting apparatus
JP3571835B2 (ja) 1995-12-28 2004-09-29 キヤノン株式会社 焦点検出装置及びそれを用いた光学機器
JPH09211316A (ja) 1996-01-31 1997-08-15 Canon Inc 像信号処理装置
JP3733392B2 (ja) * 1996-03-05 2006-01-11 イーストマン コダック カンパニー 画像の構図変化検出方法
US6404906B2 (en) * 1997-03-03 2002-06-11 Bacus Research Laboratories,Inc. Method and apparatus for acquiring and reconstructing magnified specimen images from a computer-controlled microscope
JPH10161013A (ja) * 1996-12-05 1998-06-19 Canon Inc 環境認識装置及び環境認識装置を備えたカメラ
JP3927655B2 (ja) * 1997-07-31 2007-06-13 キヤノン株式会社 カメラ
KR19990030882A (ko) * 1997-10-07 1999-05-06 이해규 초점 위치 조절이 가능한 디지탈 스틸 카메라 및 그 제어 방법

Also Published As

Publication number Publication date
DE69829734D1 (de) 2005-05-19
JPH11190816A (ja) 1999-07-13
EP0926526B1 (de) 2005-04-13
EP0926526A3 (de) 1999-12-22
EP0926526A2 (de) 1999-06-30
JP4018218B2 (ja) 2007-12-05
US7071985B1 (en) 2006-07-04

Similar Documents

Publication Publication Date Title
US6819360B1 (en) Image pickup element and apparatus for focusing
US5765045A (en) Camera capable of detecting eye-gaze
JP4378141B2 (ja) 撮像装置および撮像装置の制御方法
EP1617652B1 (de) Hybrides Autofokussystem für eine Kamera
KR100755288B1 (ko) 카메라, 그 제어방법 및 기억 매체
JP2505854B2 (ja) 視線検出手段を備えるカメラ
JP3992992B2 (ja) 被写体像取得装置
US6768867B2 (en) Auto focusing system
US6359650B1 (en) Electronic camera having a tilt detection function
US4929824A (en) light metering device with detector matrix and mean value detection
US5990947A (en) Photographing apparatus and lens position control device
US8194173B2 (en) Auto-focusing electronic camera that focuses on a characterized portion of an object
DE60300994T2 (de) Bildaufnahmevorrichtung mit Fokussierungsvorrichtung und Belichtungssytem
US7358999B2 (en) Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
KR0147572B1 (ko) 자동 줌잉을 위한 피사체 추적방법 및 그 장치
US7791669B2 (en) Picture taking apparatus having focusing device
US5597999A (en) Auto focus detecting device comprising both phase-difference detecting and contrast detecting methods
DE602004008360T2 (de) Digitale Kamera mit entfernungsabhängigem Fokussierungsverfahren
DE19606694C2 (de) Entfernungsmeßvorrichtung
US4816861A (en) Focus condition detecting device
US6463214B1 (en) Multi-point autofocus system
JP2004070113A (ja) 撮像装置
KR101395015B1 (ko) 카메라, 초점 검출방법, 및 제어방법
US5890021A (en) Distance detecting device, focus state detecting device and camera having same
US7391461B2 (en) Apparatus, method and control computer program for imaging a plurality of objects at different distances

Legal Events

Date Code Title Description
8364 No opposition during term of opposition