DE102016120954A1 - Abbildungseinrichtung und Abbildungsverfahren - Google Patents

Abbildungseinrichtung und Abbildungsverfahren Download PDF

Info

Publication number
DE102016120954A1
DE102016120954A1 DE102016120954.6A DE102016120954A DE102016120954A1 DE 102016120954 A1 DE102016120954 A1 DE 102016120954A1 DE 102016120954 A DE102016120954 A DE 102016120954A DE 102016120954 A1 DE102016120954 A1 DE 102016120954A1
Authority
DE
Germany
Prior art keywords
image
unit
motion vector
subject
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016120954.6A
Other languages
English (en)
Inventor
Nobushige Wakamatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102016120954A1 publication Critical patent/DE102016120954A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

Eine Abbildungseinrichtung enthält eine Gegenstandserfassungseinheit, die konfiguriert ist, ein Gegenstandsbild aus einem aufgenommen Bild, das durch ein Abbildungselement aufgenommen wird, zu erfassen; eine Bewegungsvektorerhalteeinheit, die konfiguriert ist, einen Bewegungsvektor des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, durch Vergleichen von Bildsignalen in verschiedenen Rahmen, die durch das Abbildungselement erhalten werden, zu erhalten; eine Vergleichseinheit, die konfiguriert ist, ein Vergleichsergebnis durch Vergleichen einer Position des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, mit einer vorbestimmten Position zu erhalten; und eine Bewegungseinheit, die konfiguriert ist, eine Bewegung der Position des Gegenstandsbilds in dem Abbildungsbereich durch Bewegung des Gegenstandsbild auf der Basis des Bewegungsvektors und des Vergleichsergebnisses zu reduzieren.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein Steuern des Nachfolgens eines Gegenstands und des Bewegens eines Gegenstandsbilds zu einer vorbestimmten Position eines Bilds oder auf das Halten des Gegenstandsbilds.
  • Beschreibung des Stands der Technik
  • Eine Digitalkamera oder ähnliches, in der eine Belichtungsbestimmung oder ein Fokussieren automatisiert ist, und bei der eine Steuerungseinrichtung, die eine Bildunschärfe eines aufgenommenen Bilds aufgrund eines Verwackelns oder ähnlichem verhindert, montiert ist, ist bekannt. Eine Erfassungsfunktion zum Erfassen eines Gesichts oder eines Körpers eines Subjekts wurde vorgeschlagen. Zum Beispiel wird ein Muster zum Bestimmen eines Gesichts einer Person im Voraus bestimmt, und ein Teil, der dem Muster in einem Bild entspricht, wird als das Gesicht der Person erfasst. Auf die Information über das Bild des Gesichts der Person wird bei der Fokussierungssteuerung, bei der Belichtungssteuerung oder ähnlichem Bezug genommen.
  • Wenn ein sich bewegender Gegenstand fotografiert wird, oder wenn ein Fotografieren unter Verwendung einer Telelinse mit einer großen Brennweite durchgeführt wird, kann das folgende Phänomen auftreten. Wenn ein sich bewegendes Objekt, das als Gegenstand dient, von einem Blinkwinkel aufgrund der Bewegung des Subjekts abweicht, wird eine spezielle Technik des Fotografen benötigt, um akkurat das sich bewegende Objekt nur mit einem händischen Vorgang nachzuverfolgen. Wenn ein Bild mit einer Kamera aufgenommen wird, die eine Telelinse hat, wächst eine Bildunschärfe aufgrund eines Verwackelns und es ist daher schwierig, einen Hauptgegenstand an dem Zentrum des aufgenommenen Bilds zu halten. Wenn der Fotograf die Kamera bedient, um das Subjekt in dem Blickwinkel wieder aufzunehmen, wird eine Bildunschärfe abhängig von einem Grad des Verwackelns korrigiert, wenn der Fotograf absichtlich die Kamera bedient. Entsprechend ist es schwierig für einen Fotografen, eine Mikroanpassung durchzuführen, um einen Gegenstand in einem Blickwinkel unter einem Einfluss einer Bildunschärfekorrektursteuerung aufzunehmen, oder ein Bild des Gegenstands an dem Zentrum eines aufgenommenen Bilds zu lokalisieren.
  • Die japanische Patentoffenlegung Nr. 2010-93362 offenbart eine Abbildungseinrichtung, die automatisch einen Gegenstand durch Bewegen eines Teils eines optischen Systems in einer Richtung, die eine optische Achse kreuzt, nachverfolgt. Eine Position eines Gegenstands wird aus einem Bildsignal erfasst, das durch ein Abbildungselement aufgenommen wird und eine Gegenstandsnachverfolgungsberechnungslast wird berechnet.
  • In einem System, das eine Gegenstandsnachverfolgungssteuerung durchführt, um eine Bildposition eines Gegenstands an einer spezifischen Position auf einem Bild zu halten, gibt es eine Möglichkeit, dass eine Gegenstandserfassungsverzögerung oder eine Erfassungsgenauigkeit einen großen Einfluss auf die Nachverfolgungssteuerung hat. Zum Beispiel tritt beim Erfassen eines Gegenstands, das durch Analysieren eines aufgenommenen Bilds ausgeführt wird, notwendigerweise eine Erfassungsverzögerung mit Bezug auf die Echtzeit auf. Eine Positionsrückkopplungssteuerung wird durchgeführt, um eine Bildposition eines Gegenstands an einer spezifischen Position in einem Blickwinkel zu halten. Zu dieser Zeit muss eine Rückkopplungssteuerung mit Berücksichtigung einer Totzeit aufgrund der Erfassungsverzögerung durchgeführt werden.
  • Eine Gegenstandsnachverfolgungssteuerung zum Korrigieren eines optischen Bilds eines Gegenstands durch Ansteuern einer Verschiebelinse oder ähnlichem, bevor ein optisches Bild einem Abbildungselement eingegeben wird, ist bekannt. In diesem Fall gibt es eine Möglichkeit, dass eine Verzögerung mit Bezug auf die Echtzeit beim Erfassen eines Gegenstands einen großen Einfluss auf die Gegenstandsnachverfolgungsleistung hat. Wenn eine Rückkopplungsverstärkung so eingestellt ist, dass sie groß ist, um die Nachverfolgbarkeit des Gegenstands zu erhöhen, gibt es eine Möglichkeit, dass das Nachverfolgen abhängig von den Fotografierbedingungen oszilliert. Auf der anderen Seite verschlechtert sich die Gegenstandsnachverfolgbarkeit, wenn die Rückkopplungsverstärkung so klein eingestellt wird, dass sie nicht oszilliert, und ein Gegenstand wird wahrscheinlich verfehlt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung stellt eine Technik zum Verbessern einer Gegenstandsnachverfolgbarkeit in einer Nachverfolgungssteuerung zum Nachverfolgen eines Gegenstands bereit.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird eine Abbildungseinrichtung bereitgestellt, die enthält: eine Gegenstandserfassungseinheit, die konfiguriert ist, ein Gegenstandsbild aus einem aufgenommenen Bild, das durch ein Abbildungselement aufgenommen wird, zu erfassen; eine Bewegungsvektorerhalteeinheit, die konfiguriert ist, einen Bewegungsvektor des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, durch Vergleichen von Bildsignalen in unterschiedlichen Rahmen, die durch das Abbildungselement aufgenommen werden, zu erhalten; eine Vergleichseinheit, die konfiguriert ist, ein Vergleichsergebnis durch Vergleichen einer Position des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, mit einer Zielposition in einem Abbildungsbereich zu erhalten; und eine Bewegungseinheit, die konfiguriert ist, die Bewegung der Position des Gegenstandsbilds in dem Abbildungsbereich durch Bewegen des Gegenstandsbilds auf der Basis des Bewegungsvektors und des Vergleichsergebnisses zu reduzieren.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von beispielhaften Ausführungsbeispielen mit Bezug auf die begleitenden Zeichnungen offenbart.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Diagramm, das schematisch eine Abbildungseinrichtung nach einem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • 2 ist ein Diagramm, das ein Beispiel einer Konfiguration der Abbildungseinrichtung nach dem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • 3A und 3B sind Diagramme, die eine Steuerung einer Nachverfolgung eines erfassten Gegenstands illustrieren.
  • 4 ist ein funktionales Blockdiagramm einer Nachverfolgungswertberechnungseinheit in einem ersten Ausführungsbeispiel.
  • 5 ist ein funktionales Blockdiagramm einer Korrekturvektorerfassungseinheit in dem ersten Ausführungsbeispiel.
  • 6A und 6B sind Diagramme, die einen Korrekturvektorerfassungsprozess in dem ersten Ausführungsbeispiel illustrieren.
  • 7A und 7B sind Diagramme, die eine Frequenzverteilungsverarbeitung in dem ersten Ausführungsbeispiel illustrieren.
  • 8 ist ein funktionales Blockdiagramm einer Unschärfekorrekturwinkelberechnungseinheit in dem ersten Ausführungsbeispiel.
  • 9 ist ein Flussdiagramm, das ein Beispiel einer Gegenstandsnachverfolgungssteuerung illustriert.
  • 10A und 10B sind Diagramme, die ein Erfassen eines Korrekturvektors in einem zweiten Ausführungsbeispiel illustrieren.
  • 11A bis 11D sind Diagramme, die ein Ändern einer Anordnung von Erfassungsblöcken in dem zweiten Ausführungsbeispiel illustrieren.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Im Weiteren werden Ausführungsbeispiele der vorliegenden Erfindung im Detail mit Bezug auf die begleitenden Zeichnungen beschrieben. Eine optische Einrichtung gemäß der vorliegenden Erfindung kann auf verschiedene Linseneinrichtungen, Abbildungseinrichtungen, Teleskope, Binokulare und ähnliches angewendet werden. In den folgenden Ausführungsbeispielen wird eine Anwendung auf eine Abbildungseinrichtung wie z. B. einer digitalen Standbildkamera oder einer digitalen Videokamera beschrieben, aber die optische Einrichtung kann auf eine Fotografiereinrichtung wie z. B. eine Web-Kamera oder ein Mobiltelefon montiert werden.
  • (Erstes Ausführungsbeispiel)
  • In diesem Ausführungsbeispiel wird eine Abbildungseinrichtung, die eine Bewegung eines Gegenstands von einer Zielposition (einer vorbestimmten Position) durch Durchführen eines optischen oder elektronischen Vibrationskorrekturabzug unter Verwendung eines Bewegungsvektors des Gegenstands und eines Ergebnisses eines Vergleichs einer Position des Gegenstands mit der vorbestimmten Position, die im Voraus in einem Abbildungsbereich eingestellt wird, beschrieben. Die Bewegung eines Gegenstands in der vorliegenden Erfindung und der vorliegenden Spezifikation bezieht sich auf eine relative Bewegung zwischen dem Abbildungsbereich der Abbildungseinrichtung unter dem Gegenstand, und eine relative Bewegung zwischen dem Abbildungsbereich und dem Gegenstand, die aus einer Bewegung der Abbildungseinrichtung, wie z. B. einem Verwackeln, resultiert, wird auch als die Bewegung des Gegenstands bezeichnet. Eine Bewegung eines Gegenstands aufgrund eines Verwackelns ist eine Hochfrequenzkomponente.
  • 1 ist ein Diagramm, das schematisch eine Abbildungseinrichtung nach einem ersten Ausführungsbeispiel der vorliegenden Erfindung illustriert. Die Abbildungseinrichtung 101 enthält eine Bildunschärfekorrektureinheit und eine Gegenstandsnachverfolgungssteuerung. Zum Beispiel führt die Bildunschärfekorrektureinheit eine Bildunschärfekorrektur an einer Winkelunschärfe (Winkelverschiebung, Winkelvibration) in einer Neigungsrichtung und einer Gierbewegungsrichtung aus, die durch Pfeile 103p und 103y mit Bezug auf eine optische Achse 102 angezeigt sind. Eine Z-Achsenrichtung in einem dreidimensionalen orthogonalen Koordinatensystem ist als eine Richtung einer optischen Achse definiert, eine erste Achse, die senkrecht zu der Z-Achse ist, ist als eine X-Achse definiert, und eine zweite Achse, die senkrecht zu der Z-Achse und der X-Achse ist, ist als eine Y-Achse definiert. Die X-Achsenumfangsrichtung, die durch den Pfeil 103p angezeigt wird, ist die Neigungsrichtung, und die Y-Achsenumfangsrichtung, die durch den Pfeil 103y angezeigt wird, ist die Gierbewegungsrichtung.
  • 2 ist eine Aufsicht, die schematisch eine Konfiguration der Abbildungseinrichtung 101 illustriert. 2 illustriert eine Konfiguration einer Abbildungseinheit der Abbildungseinrichtung 101 und funktionale Blöcke eines Bildunschärfekorrekturprozesses und eines automatischen Gegenstandsnachverfolgungsprozesses, die durch eine zentrale Verarbeitungseinheit (CPU) 105 durchgeführt werden.
  • Die Abbildungseinrichtung 101 enthält einen Auslöseknopf 104 (siehe 1) in einem Körperabschnitt. Wenn der Auslöseknopf 104 bedient wird, wird ein Ein-/Aussignal eines Schalters an die CPU 105 gesendet. Die CPU 105 dient als eine Steuereinheit in diesem Ausführungsbeispiel. Die vorliegende Erfindung kann auf irgendeine optische Einrichtung, die die CPU 105 enthält, angewendet werden.
  • Eine Unschärfekorrekturlinse (auch als eine Korrekturlinse bezeichnet) 114 und ein Abbildungselement 106 sind auf einer optischen Achse 102 eines optischen Abbildungssystems lokalisiert. Die Abbildungseinrichtung 101 führt eine Bildstabilisierung durch Bewegen der Korrekturlinse 114 durch. Die Abbildungseinrichtung 101 enthält eine Winkelgeschwindigkeitserfassungseinheit (im Weiteren als eine Winkelgeschwindigkeitsmesseinrichtung bezeichnet), die als eine Unschärfeerfassungseinheit eine Winkelgeschwindigkeit einer Winkelunschärfe erfasst. Die Winkelgeschwindigkeitsmesseinrichtung 103 erfasst eine Winkelunschärfe in der Neigungsrichtung, die durch den Pfeil 103p angezeigt wird, und in der Gierbewegungsrichtung, die durch den Pfeil 103y in 1 angezeigt wird. Eine Erfassungssignalausgabe von der Winkelgeschwindigkeitsmesseinrichtung 103 wird in die CPU 105 eingegeben. Wenn eine automatische Gegenstandsnachverfolgungssteuerung nicht durchgeführt wird, berechnet eine Unschärfekorrekturwinkelberechnungseinheit 108 einen Unschärfekorrekturwinkel auf der Basis der Ausgabe der Winkelgeschwindigkeitsmesseinrichtung 103. Insbesondere schneidet die Unschärfekorrekturwinkelberechnungseinheit 108 eine DC-(Gleichstrom-)Komponente, die als ein Erfassungsrauschen der Winkelgeschwindigkeitsmesseinrichtung 103 hinzugefügt wurde, von der Ausgabe der Winkelgeschwindigkeitsmesseinrichtung 103 ab, führt dann einen Integrationsprozess darauf durch, und gibt ein Winkelsignal aus. Zum Beispiel wird ein Hochpassfilter (HPF) verwendet, um die DC-Komponente abzuscheiden. Die Ausgabe der Unschärfekorrekturwinkelberechnungseinheit 108 wird einer Sensitivitätsanpassungseinheit 109 über eine Addiereinheit 112 eingegeben.
  • Die Sensitivitätsanpasseinheit 109 verstärkt die Ausgabe der Unschärfekorrekturwinkelberechnungseinheit 108 auf der Basis einer Zoom- und Fokuspositionsinformation 107 und einer Brennweite oder einer Fotografievergrößerung, die daraus berechnet wird, und gibt einen Unschärfekorrekturzielwert aus. Die Zoompositionsinformation wird aus einer Zoomeinheit erhalten, und die Fokuspositionsinformation wird aus einer Fokussiereinheit erhalten. Der Grund zum Berechnen des Unschärfekorrekturzielwerts auf der Basis der Zoom- und Fokuspositionsinformation 107 ist, dass eine Unschärfekorrektursensitivität auf einer Abbildungsoberfläche gegenüber einem Unschärfekorrekturhub der Korrekturlinse 114 aufgrund einer Variation in einer optischen Information wie z. B. einem Fokus oder einem Zoom variiert. Die Sensitivitätsanpasseinheit 109 gibt einen Unschärfekorrekturzielwert an eine Ansteuersteuerungseinheit 113 aus.
  • Die Korrekturlinse 114 ist ein optisches Element, das ein Gegenstandsbild in einem aufgenommenen Bild in einer Verschieberichtung bewegt. Die Ansteuersteuerungseinheit 113 steuert das Ansteuern der Korrekturlinse 114 und führt eine Unschärfekorrektur und Gegenstandsnachverfolgungssteuerung durch. Die Ansteuersteuerungseinheit 113 führt eine Bildunschärfekorrektur (optischer Vibrationskorrekturabzug) durch Ansteuern der Korrekturlinse 114 in einer von einer Richtung der optischen Achse verschiedenen Richtung durch. In dem in 2 illustrierten Beispiel ist ein optischer Vibrationskorrekturabzug unter Verwendung der Korrekturlinse 114 angebracht. Ohne darauf beschränkt zu sein, kann ein Korrekturverfahren zum Korrigieren einer Bildunschärfe durch Bewegen eines Abbildungselements in einer Ebene senkrecht zu der optischen Achse für die Bildunschärfekorrektur verwendet werden. Alternativ wird eine Abbildungsvorrichtung mit einer Erhalteeinheit, die ein Bild in einem Abbildungsbereich (einem vorbestimmten Bereich) unter Bildern, die von einem Abbildungselement aufgenommen wurden, als ein Bild von jedem abgebildeten Rahmen (einem ersten Bild) erhält, bereitgestellt und ein elektronischer Vibrationskorrekturabzug, der einen Einfluss einer Vibration durch Ändern einer Position des ersten Bilds reduziert (einer Position des vorbestimmten Bereichs), kann angewendet werden.
  • Man bemerke, dass in dem Fall, in dem die Erhalteeinheit auf das erste Bild eingestellt wird, ohne das aufgenommene Bild zurechtzuschneiden, das Bild in einem Abbildungsbereich dem aufgenommenen Bild entspricht. Im Gegensatz dazu ist das Bild in einem Abbildungsbereich ein Teil des aufgenommenen Bilds, wenn die Erhalteeinheit so eingestellt ist, dass das erste Bild nach dem Zurechtschneiden des aufgenommenen Bilds erhalten wird. Alternativ kann eine Vielzahl von Vibrationskorrekturabzugverfahren kombiniert werden. Deswegen kann die Ansteuersteuerungseinheit 113 konfiguriert sein, zumindest die Korrekturlinse 114, das Abbildungselement, und eine Position des vorbestimmten Bereichs für eine Bildstabilisation zu bewegen.
  • Ein automatisches Gegenstandsnachverfolgungssteuerungsverfahren unter Verwendung der Korrekturlinse 114 wird unten beschrieben. Eine Gegenstandserfassungseinheit 110, die in 2 illustriert ist, erhält ein Bildsignal, das durch das Abbildungselement 106 aufgenommen wird, und erfasst eine Bildposition eines Gegenstands (Gegenstandsposition) in dem aufgenommenen Bild. Die Gegenstandspositionsinformation wird an eine Nachverfolgungswertberechnungseinheit 111 und einer Korrekturerfassungseinheit 116, die später beschrieben wird, ausgegeben. Die Nachverfolgungswertberechnungseinheit 111 berechnet einen Steuerungswert, der verwendet wird, um den Gegenstand unter Ansteuern der Korrekturlinse 114 auf der Basis der Zoom- und Fokuspositionsinformation 107 und der erfassten Gegenstandspositionsinformation nachzuverfolgen. Im Weiteren wird der Steuerungswert (Nachverfolgungssteuerungswert) zum Nachverfolgen des Gegenstands und Lokalisieren der Bildposition des Subjekts an der vorbestimmten Position (z. B. der Zentralposition), die im Voraus in dem ersten Bild eingestellt wird, als ein Nachverfolgungskorrekturwert bezeichnet. Der Nachverfolgungskorrekturwert wird an die Unschärfekorrekturwinkelberechnungseinheit 108 und die Addiereinheit 112 ausgegeben.
  • Die Addiereinheit 112 addiert einen Unschärfekorrekturwert, der von der Unschärfekorrekturwinkelberechnungseinheit 108 ausgegeben wird, und den Nachverfolgungskorrekturwert, der von der Nachverfolgungswertberechnungseinheit 111 ausgegeben wird. Die Ausgabe der Addiereinheit 112 wird in die Sensitivitätsanpasseinheit 109 eingegeben. Entsprechend wird eine Sensitivität abhängig von dem Unschärfekorrekturhub der Korrekturlinse 114 angepasst und die Ansteuersteuerungseinheit 113 berechnet einen Ansteuerungswert der Korrekturlinse 114 auf der Basis der Ausgabe der Sensitivitätsanpasseinheit 109. Durch Ansteuern der Korrekturlinse 114 auf der Basis des Ansteuerungswerts werden die Gegenstandsnachverfolgungssteuerung und die Bildunschärfekorrektur durchgeführt.
  • Eine Bewegungsvektorerhalteeinheit 115 erhält ein Bildsignal, das durch das Abbildungselement 106 aufgenommen wurde, und erhält einen Bewegungsvektor eines Bilds. Die Bewegungsvektorerhalteeinheit 115 gibt die erfasste Bewegungsvektorinformation an die Korrekturvektorerfassungseinheit 116 aus. Die Korrekturvektorerfassungseinheit 116 berechnet einen Korrekturvektor (der auch als ein erster Bewegungsabstand (eine erste Bewegungsgröße) bezeichnet wird; hier hat der erste Bewegungsabstand eine Information über eine Größe und eine Richtung), um die Größe des Bewegungsvektors aus der erhaltenen Bewegungsvektorinformation und der Ausgabe der Gegenstandserfassungseinheit 110 zu reduzieren, und gibt den Korrekturvektor an die Unschärfekorrekturwinkelberechnungseinheit 108 aus.
  • Ein Gegenstandspositionserfassungsprozess, der durch die Gegenstandserfassungseinheit 110 durchgeführt wird, wird unten im Detail beschrieben. Das Abbildungselement 106 erhält eine Bildinformation durch Konvertieren von reflektiertem Licht von dem Gegenstand in ein elektrisches Signal auf eine fotoelektrische Konversionsart. Die Bildinformation wird in ein digitales Bildsignal durch eine A/D-Konversionseinheit konvertiert und das digitale Bildsignal wird an die Gegenstandserfassungseinheit 110 gesendet. Wenn es mehrere Bilder von Gegenständen in dem aufgenommenen Bild gibt, werden die folgenden Verfahren verwendet, um automatisch einen Hauptgegenstand unter den Gegenständen zu erkennen.
  • Ein erstes Verfahren zum Erfassen eines Hauptgegenstands ist ein Verfahren zum Erfassen einer Person. In diesem Fall erfasst die Gegenstandserfassungseinheit 110 ein Gesicht oder einen Körper eines Gegenstands. In dem Gesichtserfassungsprozess wird ein Muster zum Bestimmen des Gesichts einer Person im Voraus bestimmt, und ein Teil, der diesem Muster entspricht, der in dem aufgenommenen Bild enthalten ist, kann als das Bild des Gesichts der Person erfasst werden. Die Gegenstandserfassungseinheit 110 berechnet einen Grad einer Zuverlässigkeit, der eine Wahrscheinlichkeit für jeden erfassten Gegenstand angibt, dass er ein Gesicht des Gegenstands ist. Der Grad der Zuverlässigkeit wird z. B. auf der Basis der Größe einer Gesichtsfläche, eines Grads einer Koinzidenz mit dem Gesichtsmuster, oder ähnlichen in dem Bild berechnet. Das heißt, die Gegenstandserfassungseinheit 110 berechnet den Grad der Zuverlässigkeit des Gegenstands auf der Basis der Größe des Gegenstands in dem aufgenommenen Bild oder dem Grad der Koinzidenz des Gegenstands mit einem im Voraus gespeicherten Gegenstandsmuster.
  • Ein zweites Verfahren zum Erfassen eines Hauptgegenstands ist ein Verfahren unter Verwendung eines Histogramms von Farbe, Chroma oder ähnlichem in dem aufgenommenen Bild. Ein Prozess des Einteilens einer Verteilung, die aus dem Histogramm einer Farbe, eines Chromas, oder ähnlichem von Gegenstandsbildern in den aufgenommenen Bildern abgeleitet wird, in eine Vielzahl von Abschnitten und des Klassifizierens der aufgenommenen Bilder für jeden Abschnitt wird an den Gegenstandsbildern durchgeführt. Zum Beispiel wird ein Histogramm einer Vielzahl von Farbkomponenten für die aufgenommenen Bilder vorbereitet und wird mit einem pfeilförmigen Verteilungsbereich eingeteilt, die aufgenommenen Bilder werden in eine Fläche klassifiziert, die zu dem gleichen Abschnitt gehören, und Bildflächen der Gegenstände werden erkannt. Durch Berechnen eines Evaluationswertes für jede erkannte Bildfläche der Gegenstände kann die Bildfläche des Gegenstands mit dem höchsten Evaluationswert als eine Hauptgegenstandsfläche bestimmt werden. Die Einstelleinrichtung stellt die Hauptgegenstandsfläche als eine Gegenstandsfläche in den Abbildungsbereichen ein.
  • Nachdem die Hauptgegenstandsfläche bestimmt ist, kann danach die Hauptgegenstandsfläche durch Erfassen von Merkmalswerten und ähnlichen Flächen von Bildern, die nacheinander aufgenommen wurden, unter Verwendung des Merkmalswerts der Hauptgegenstandsfläche nachverfolgt werden. Der Merkmalswert der Hauptgegenstandsfläche wird z. B. aus einer Farbverteilung oder einer Größe davon berechnet. Die erfasste Gegenstandspositionsinformation wird an die Nachverfolgungswertberechnungseinheit 111 eingegeben. Wenn die Anzahl der Gegenstände eins ist, fungiert die Nachverfolgungswertberechnungseinheit 111 als eine Vergleichseinheit, die die Zentralposition des Gegenstandsbilds, die durch die Gegenstandserfassungseinheit erfasst wird, und das Zentrum des ersten Bilds (der vorbestimmten Position, die im Voraus in dem ersten Bild eingestellt wird) vergleicht. Zusätzlich berechnet die Nachverfolgungswertberechnungseinheit 111 einen Nachverfolgungskorrekturwert (einen zweiten Bewegungsabstand (eine zweite Bewegungsgröße)), sodass die Zentralposition des Gegenstandsbilds in der Nähe des Bildzentrums lokalisiert ist. In der vorliegenden Erfindung und der vorliegenden Spezifikation ist der Nachverfolgungskorrekturwert eine Information, die eine Richtung und eine Größe enthält. Insbesondere kann eine Koordinatendifferenz als ein Vergleichsergebnis und ein Bewegungsabstand, der verursacht, dass die Differenz sich Null nähert, als der Nachverfolgungskorrekturwert definiert werden. Zum Beispiel kann in xy-Koordinaten, in denen der Bildbereich eine xy-Ebene ist und die Koordinaten eines Bildzentrums ein Ursprung sind, der Nachverfolgungskorrekturwert auf (–a, –b) eingestellt werden, wenn die Koordinaten der Zentralposition des Gegenstandsbilds (a, b) sind. Ein Fotograf kann die vorbestimmte Position durch Bestimmen einer Gegenstandsposition auf einem Anzeigebildschirm durch Betreiben eines Betriebsbauteils der Abbildungseinrichtung festlegen, während er ein Bild (das erste Bild), das auf einem Bildschirm einer Anzeigeeinheit der Abbildungseinrichtung auf der Basis eines Videosignals, das manchmal ausgegeben wird, angezeigt wird, ansieht. In diesem Fall wird ein Merkmalswert wie z. B. eine Farbverteilung oder eine Größe an der bestimmten Position berechnet, wenn der Fotograf einen Vorgang des Bestimmens eines Hauptgegenstands unter Bildern einer Vielzahl von Gegenständen, die auf dem Anzeigebildschirm angezeigt werden, durchführt. Eine Fläche mit einem Merkmalswert, der einem entsprechenden Merkmalswert ähnlich ist, kann unter Verwendung des berechneten Merkmalswert und der erfassten Fläche aus den Bildern erfasst werden, die nacheinander danach aufgenommen werden, und kann als die Hauptgegenstandsfläche nachverfolgt werden.
  • 3A und 3B sind Diagramme, die eine Steuerung des Nachverfolgens eines erfassten Hauptgegenstands illustrieren. 3A illustriert ein aufgenommenes Bild 301a, bevor die Gegenstandsnachverfolgungssteuerung gestartet wird. 3B illustriert ein aufgenommenes Bild 301b, nachdem die Gegenstandsnachverfolgungssteuerung gestartet wurde. In dem aufgenommenen Bild 301a, das in 3A illustriert ist, zeigt ein schwarzer Punkt, der an dem Zentrum angezeigt wird, eine Bildzentralposition 304. Bevor die Nachverfolgungssteuerung gestartet wird, ist eine Bildposition eines Gegenstands 302a von der Bildzentralposition 304 getrennt. Eine Gegenstandszentralposition 303a zeigt eine Zentralposition in einem Bild des Gegenstands 302a. Wenn die CPU 105 die Gegenstandsnachverfolgungssteuerung startet, sinkt der Abstand zwischen der Gegenstandszentralposition 303a und der Bildzentralposition 304 allmählich mit dem Ablauf der Zeit. Durch die Gegenstandsnachverfolgungssteuerung fallen schließlich die Gegenstandszentralposition 303a und die Bildzentralposition 304 im Wesentlichen zusammen, wie in 3B illustriert.
  • Eine Konfiguration der Nachverfolgungswertberechnungseinheit 111 wird unten mit Bezug auf 4 beschrieben. 4 ist ein funktionales Blockdiagramm, das ein Beispiel einer Konfiguration der Nachverfolgungswertberechnungseinheit 111 illustriert. Die Nachverfolgungswertberechnungseinheit 111 berechnet den Nachverfolgungskorrekturwert für Achsen der vertikalen Richtung und der horizontalen Richtung des ersten Bilds, aber nur eine Achse wird unten aus Gründen der Vereinfachung beschrieben.
  • Eine Subtrahiereinheit 403 zieht die Koordinaten der Bildzentrumsposition 402 von den Koordinaten einer Gegenstandsposition (Zentralposition) 401 auf der Basis der Gegenstandspositionsinformation, die von der Gegenstandserfassungseinheit 110 ausgegeben wird, ab. Entsprechend wird in einer Achse in der vertikalen Richtung oder der horizontalen Richtung eine Differenz (im Weiteren als eine Zentrumsdifferenzgröße bezeichnet), die angibt, um welchen Abstand die Zentralposition des Gegenstandsbilds von der Bildzentrumsposition 402 in einem Bild getrennt ist, berechnet. Die Zentrumsdifferenzgröße ist ein Datum, das ein Vorzeichen hat, das dadurch definiert ist, dass die Differenz von der Bildzentrumsposition 402 auf 0 eingestellt ist. Die Ausgabe von der Subtrahiereinheit 403 wird einer Zählwerttabellenbezugseinheit (im Weiteren einfach als eine Bezugseinheit bezeichnet) 404 eingegeben.
  • Die Bezugseinheit 404 berechnet einen Zählwert zum Nachverfolgen auf der Basis der Zentrumsdifferenzgröße, d. h. der Größe der Differenz. Insbesondere wird der Zählwert wie folgt berechnet:
    • – Wenn die Zentraldifferenzgröße gleich oder kleiner als ein vorbestimmter Schwellenwert A oder gleich oder größer als ein vorbestimmter Schwellenwert –A ist: Der Zählwert wird auf null oder auf einen Minimalwert gesetzt. Wenn die Größe der Zentraldifferenzgröße gleich oder kleiner als ein vorbestimmter Schwellenwert ist, wird eine Totzone, in der kein Nachverfolgen durchgeführt wird, innerhalb des vorbestimmten Bereichs von der Bildzentrumsposition eingestellt.
    • – Wenn die Zentraldifferenzgröße größer als der vorbestimmte Schwellenwert A oder kleiner als der vorbestimmte Schwellenwert –A ist: Der Zählwert wird so eingestellt, dass er mit dem Anwachsen in der Zentraldifferenzgröße wächst. Das Vorzeichen des Zählwerts kann abhängig davon, dass er mit der Zentraldifferenzgröße zusammenfällt, berechnet werden.
  • Die Ausgabe der Bezugseinheit 404 wird als eine erste Eingabe durch eine Signalselektionseinheit 406 erhalten. Die Signalselektionseinheit 406 erhält eine Runterzählwertausgabe von einer Runterzählwertausgabeeinheit 405 als eine zweite Eingabe. Ein Signal, das einen Zustand eines Nachverfolgungsschalters (SW) 407 angibt, wird als ein Steuerungssignal an die Signalausfalleinheit 406 eingegeben. Wenn der Nachverfolgungsschalter 407 auf den eingeschalteten Zustand eingestellt ist, wählt die Signalselektionseinheit 406 die Ausgabe der Bezugseinheit 404 und gibt die ausgewählte Ausgabe an die Addiereinheit 408 aus. Wenn der Nachverfolgungsschalter 407 auf den ausgeschalteten Zustand eingestellt ist, wählt die Signalselektionseinheit 406 den Runterzählwert und gibt den ausgewählten Runterzählwert an die Addiereinheit 408 aus. Der Runterzählwert wird später beschrieben.
  • Die Addiereinheit 408 erhält die Ausgabe der Signalselektionseinheit 406 und einen vorher abgetasteten Wert, der relevant für den Nachverfolgungswert ist, und addiert die erhaltenen Werte. Die Ausgabe der Addiereinheit 408 wird an eine obere und untere Grenzwerteinstelleinheit 409 eingegeben. Die obere und untere Grenzwerteinstelleinheit 409 beschränkt den Nachverfolgungskorrekturwert auf einen vorbestimmten Bereich. Das heißt, der Nachverfolgungskorrekturwert wird beschränkt und so geändert, dass der Nachverfolgungskorrekturwert nicht gleich oder größer als ein vorbestimmter oberer Grenzwert und nicht gleich oder kleiner als ein vorbestimmter unterer Grenzwert ist. Die Ausgabe der oberen und unteren Grenzwerteinstelleinheit 409 wird in eine Verzögerungseinheit 410 und einen Tiefpassfilter (LPF) 411 eingegeben.
  • Die Verzögerungseinheit 410 gibt den Nachverfolgungskorrekturwert von einer vorbestimmten Abtastzeit vor der vorliegenden Zeit, d. h. den vorher abgetasteten Wert, als das Berechnungsergebnis an die Addiereinheit 408 und die Runterzählwertausgabeeinheit 405 aus. Wenn der Nachverfolgungskorrekturwert (vorher abgetasteter Wert) zur Zeit des vorherigen Abtastens ein positives Vorzeichen hat, setzt die Runterzählwertausgabeeinheit 405 den Runterzählwert auf Minus. Wenn der vorher abgetastete Wert ein Minuszeichen hat, setzt die Runterzählwertausgabeeinheit 405 den Runterzählwert auf Plus. Entsprechend wird ein Prozess so durchgeführt, dass der Absolutwert des Nachverfolgungskorrekturwerts sinkt. Wenn der vorher abgetastete Wert in der Nähe von Null (0 ± einem vorbestimmten Bereich) ist, setzt die Runterzählwertausgabeeinheit 405 den Runterzählwert auf 0. Der Runterzählwert dient als eine zweite Eingabe für die Signalselektionseinheit 406.
  • Der LPF 411 schneidet Hochfrequenzrauschen zur Zeit der Gegenstandserfassung von der Ausgabe der oberen und unteren Grenzwerteinstelleinheit 409 ab und gibt das verarbeitete Signal an eine Korrekturlinsengrößenumwandlungseinheit 412 aus. Die Korrekturlinsengrößenumwandlungseinheit 412 wandelt die Ausgabe des LPF 411 in ein Signal zum Durchführen eines Gegenstandsnachverfolgungsvorgangs unter Verwendung der Korrekturlinse 114 um. Auf diese Weise wird der finale Nachverfolgungskorrekturwert berechnet und der Nachverfolgungskorrekturprozess wird so durchgeführt, dass die Zentralposition des Gegenstandsbilds sich allmählich der Nähe des Zentrums des aufgenommenen Bilds durch Ansteuern der Korrekturlinse 114 auf der Basis des Nachverfolgungskorrekturwerts nähert.
  • Ein Bewegungsvektorerfassungsprozess, der durch die Bewegungsvektorerhalteeinheit 115 durchgeführt wird, wird unten beschrieben.
  • Das Abbildungselement 106 erhält ein Bildsignal durch Umwandeln von reflektiertem Licht von einem Gegenstand in ein elektrisches Signal auf eine fotoelektrische Umwandlungsart. Das erhaltene Bildsignal wird in ein digitales Signal konvertiert und wird dann an die Bewegungsvektorerhalteeinheit 115 gesendet. Die Bewegungsvektorerhalteeinheit 115 erhält einen Bewegungsvektor aus einer relativen Abweichungsinformation zwischen Bildern durch Vergleichen eines einen Frame vorher im Voraus gespeicherten Bilds und einem aktuellen Bild, d. h., aus zwei Bildern, die zeitlich aufeinanderfolgen. Zu dieser Zeit wird ein Prozess des Teilens eines Bilds in mehrere Flächen durchgeführt. Ein Bewegungsvektor in jeder Fläche wird durch Vergleichen einer Bildinformation in eingeteilten Unterflächen (eingeteilten Flächen) erhalten. Die Bewegungsvektorerhalteeinheit 115 gibt die erhaltenen Bewegungsvektoren an die Korrekturwerterfassungseinheit 116 aus.
  • Die Korrekturwerterfassungseinheit 116 führt eine Frequenzverteilungsverarbeitung auf der Basis der Bewegungsvektoren (Bewegungspixeln zwischen Frames), die in den Flächen erhalten werden durch, und bestimmt einen Bewegungsvektor des ganzen Bilds aus dem Pixel mit der größten Frequenz. Ein Prozess des Verursachens, das die Korrekturvektorerfassungseinheit 116 einen Korrekturvektor auf der Basis der Bewegungsvektorinformation von der Bewegungsvektorerhalteeinheit 115 und der Ausgabe der Gegenstandserfassungseinheit 110 berechnet, wird unten beschrieben.
  • 5 ist ein Steuerungsblockdiagramm, das ein Beispiel einer Konfiguration der Korrekturvektorerfassungseinheit 116 illustriert. Eine Vektorwichtungseinheit 501 (im Weiteren als eine Wichtungseinheit 501 bezeichnet) erhält die Ausgabe der Bewegungsvektorerhalteeinheit 115 und die Ausgabe der Gegenstandserfassungseinheit 110. Die Ausgabe der Bewegungsvektorerhalteeinheit 115 gibt einen Bewegungsvektorwert für jede Fläche (Erfassungsfläche) an, die in einem Bild angeordnet ist. Die Ausgabe der Gegenstandserfassungseinheit 110 gibt die Gegenstandszentralposition und die vertikalen und horizontalen Größen des Gegenstands an.
  • Als erstes wird ein Bewegungsvektorerfassungsverfahren beschrieben, wenn Information von der Gegenstandserfassungseinheit 110 nicht verwendet wird. Wenn die Gegenstandsnachverfolgungsfunktion auf einen ausgeschalteten Zustand eingestellt ist, oder wenn ein charakteristischer Gegenstand nicht in dem Bild vorhanden ist, wird die Gegenstandspositionsinformation nicht verwendet. In diesem Fall erhält die Wichtungseinheit 501 einen Vektorwert für jede Fläche aus der Bewegungsvektorerhalteeinheit 115 und gibt die erhaltenen Vektorwerte an eine Frequenzverteilungsverarbeitungseinheit 502 ohne eine Änderung aus.
  • 6A illustriert ein Beispiel eines Bilds, wenn ein Gegenstand 601, der ein sich bewegendes Objekt ist, in einem Bild vorhanden ist. Ein gepunkteter Rahmenbereich 602 gibt einen Bildbereich an, der als ein Hauptgegenstand erfasst wird. 6B illustriert ein Beispiel einer Anordnung von Erfassungsblöcken 603 bis 605 in der Bewegungsvektorerhalteeinheit 115. Die Erfassungsblöcke, die eine rechtwinklige Form haben, sind gleichförmig in dem ganzen Bild angeordnet. Zum Beispiel, selbst wenn ein Gegenstand 601, der sich bewegt, in dem Bild vorhanden ist, wird angenommen, dass ein Belegungsverhältnis der Größe eines Bilds des Gegenstands 601 in dem Bild klein ist. In diesem Fall ist die Anzahl der Erfassungsblöcke, die mit den Bewegungsvektoren verknüpft sind, die in anderen Flächen als dem Gegenstand 601 erfasst werden, größer als die Anzahl der Erfassungsblöcke, die mit dem Gegenstand 601 verknüpft sind. Die Frequenzverteilungsverarbeitungseinheit 502 führt das Frequenzverteilungsverarbeiten von allen Vektoren, die in dem Bild erfasst wurden, durch. Dies wird mit Bezug auf 7A und 7B beschrieben. In Frequenzverteilungsdiagrammen, die in 7A und 7B illustriert sind, repräsentiert die horizontale Achse einen Bewegungsabstand (Einheit: Pixel) und die vertikale Achse repräsentiert eine Frequenz.
  • 7A illustriert ein Beispiel einer Frequenzverteilung in einem gewissen Rahmen, die durch die Frequenzverteilungsverarbeitungseinheit 502 erfasst wird. Die Erfassungsblöcke in der Fläche, in der der Gegenstand 601, der in 6A illustriert ist, vorhanden ist, weisen eine Frequenzverteilung mit einer Breite in dem Bewegungsabstand auf, wie es durch eine Vektorgruppe 702 angezeigt wird. Die Erfassungsblöcke, die verschieden von der Fläche sind, die dem Gegenstand 601 entspricht, weisen eine Frequenzverteilung auf, wie sie durch eine Vektorgruppe 703 angezeigt wird. Das Vektorerfassungsergebnis in einer Fläche, in der ein Gegenstand, der ein sich bewegendes Objekt ist, nicht vorhanden ist, ist ein Vektorerfassungsergebnis, das hauptsächlich durch Verwackeln und Verwacklungskorrektur beeinflusst wird. Auf der anderen Seite ist das Vektorerfassungsergebnis, wie es durch die Vektorgruppe 702 angezeigt wird, in der Fläche, die dem sich bewegenden Gegenstand 601 entspricht, ein Vektorerfassungsergebnis, das durch eine Geschwindigkeit des sich bewegenden Objekts und die Verwacklungskorrektur beeinflusst wird. Hier ist die Anzahl der Erfassungsblöcke, die mit der Fläche, die dem Gegenstand 601 entspricht, verknüpft sind, kleiner als die Anzahl der Erfassungsblöcke, die mit der Fläche, die von dem Gegenstand 601 verschieden ist, verknüpft sind. Das heißt, die gesamte Frequenz der Vektorgruppe 703 ist größer als die gesamte Frequenz der Vektorgruppe 702. In dem in 7A illustrierten Beispiel wird der Wert des Bewegungsvektors, der in der Fläche erfasst wird, in dem das sich bewegende Objekt 601 nicht vorhanden wird, eingestellt, weil der Pixelbewegungsabstand mit der größten Frequenz an der Position eines Frequenzpeaks 701 lokalisiert ist.
  • Die Wichtungseinheit 501 in diesem Ausführungsbeispiel stellt eine Gegenstandsfläche von der Gegenstandszentralposition und der Größe des Gegenstandsbilds von der Gegenstandserfassungseinheit 110 ein und führt einen Wichtungsprozess für jeden Erfassungsblock in einer Gegenstandsfläche und einer Fläche, die verschieden von der Gegenstandsfläche ist, aus. Entsprechend kann ein Vektor einer Hauptgegenstandsfläche erfasst werden. Insbesondere wird angenommen, dass der Gegenstand 601, der in 6A illustriert ist, als ein Hauptgegenstand festgelegt oder automatisch erkannt wird. Der Rahmenbereich 602 zeigt die Hauptgegenstandsfläche an und wird von der Gegenstandzentralposition, die durch die Gegenstandserfassungseinheit 110 erfasst wird, und der Größe des Gegenstandsbilds in der vertikalen Richtung und der horizontalen Richtung eingestellt. Entsprechend identifiziert der Rahmenbereich 602 ein Gebiet des aufgenommenen Bilds, das das Gegenstandsbild enthält. Jedoch ist es nicht essentiell für die Form des Rahmenbereichs 602, dass er rechtwinklig ist. Ferner ist es nicht essentiell für den Rahmenbereich 602, exakt auf das Gegenstandsbild 601 zu passen.
  • Erfassungsblöcke 603, die in 6B illustriert sind, zeigen Erfassungsblöcke an, die auf dem Rahmenbereich 602 konvergieren, und die Wichtungseinheit 501 setzt einen Wichtungsfaktorwert für die Erfassungsblöcke auf 1. Das heißt, ein Prozess des Multiplizierens der Bewegungsvektorwerte der Erfassungsblöcke 603 wird mit 1 als dem Wichtungsfaktorwert durchgeführt, um die Bewegungsvektorwerte zu aktualisieren. Die Wichtungseinheit 501 setzt eine erste Fläche, die durch einen vorbestimmten Abstand von der Fläche des Rahmenbereichs 602 getrennt ist, und setzt den Wichtungsfaktorwert für Erfassungsblöcke 604, die in der ersten Fläche lokalisiert sind, auf z. B. 0,3. Ein Prozess des Multiplizierens der Bewegungsvektorwerte der Erfassungsblöcke 604 mit 0,3 als dem Wichtungsfaktorwert wird durchgeführt, um die Bewegungsvektoren zu aktualisieren. Die Wichtungseinheit 501 setzt eine zweite Fläche, die weiter von dem Rahmenbereich 602 getrennt ist, und setzt den Wichtungsfaktorwert für Erfassungsblöcke 605, die in der zweiten Fläche lokalisiert sind, auf 0. Das heißt, weil 0 als der Wichtungsfaktorwert mit den Bewegungsvektorwerten der Erfassungsblöcke 605 multipliziert wird, sind die Bewegungsvektorwerte null. Auf diese Weise berechnet die Wichtungseinheit 501 die Wichtungsfaktoren für die Bewegungsvektorwerte der Erfassungsblöcke auf der Basis der Gegenstandsfläche, die von der Subjektzentralposition und der Gegenstandsgröße von der Gegenstandserfassungseinheit 110 eingestellt wird. Die Wichtungseinheit 501 aktualisiert die Bewegungsvektorwerte der Erfassungsblöcke durch Multiplikation unter Verwendung der Wichtungsfaktoren.
  • Die Frequenzverteilungsverarbeitungseinheit 502 erhält die gewichteten Bewegungsvektoren und führt die Frequenzverteilungsverarbeitung durch. 7B illustriert ein Beispiel einer Frequenzverteilung in einem gewissen Rahmen, die durch die Frequenzverteilungsverarbeitungseinheit 502 erfasst wird, wenn es ein sich bewegendes Objekt gibt, das als ein Gegenstand dient. Insbesondere wird angenommen, dass der Gegenstand 601 in 6A festgelegt oder automatisch als ein Hauptgegenstand erkannt wird. Die Vektorgruppen 702 und 703 haben die gleiche Bedeutung, wie sie in 7A illustriert ist, aber haben verschiedene Frequenzverteilungen. Für die Vektorgruppe 703 wird ein Vektorerfassungsergebnis in einer Fläche, in der ein sich bewegender Gegenstand nicht vorhanden ist, erhalten, und die Wichtungsfaktorwerte der meisten Erfassungsblöcke werden auf 0 eingestellt. Entsprechend ist die Frequenz kleiner als die in 7A. Auf der anderen Seite wird für die Vektorgruppe 702 ein Vektorerfassungsergebnis erhalten, das durch die Geschwindigkeit des sich bewegenden Gegenstands 601 und der Verwacklungskorrektur erhalten wird, und die Wichtungsfaktorwerte werden auf 1 oder 0,3 eingestellt. Entsprechend ist die Frequenzverteilung für die Vektorgruppe 702 in 7B im Wesentlichen dieselbe wie die Frequenzverteilung entsprechend der Vektorgruppe 702 in 7A. In der Frequenzverteilung, die in 7B illustriert wird, ist der Pixelbewegungsabstand mit der größten Frequenz an einer Position eines Frequenzpeaks 704 lokalisiert. Diese Position ist in dem Bereich der Bewegungsvektorwerte, die in den Erfassungsblöcken in der Fläche erfasst werden, in der der sich bewegende Gegenstand 601 vorhanden ist, und die Bewegungsvektorwerte in der Gegenstandsfläche und einer Fläche, die dazu benachbart ist, werden als der Bewegungsabstand bestimmt.
  • Eine Gegenstandsvektorwinkelgeschwindigkeitsumwandlungseinheit 503 erhält die Bewegungsvektoren (einen differenziellen Vektor zwischen Rahmen), der durch die Frequenzverteilungsverarbeitungseinheit 502 erfasst werden und wandelt die Bewegungsvektoren von einer Einheit in Pixeln in eine Einheit einer Winkelgeschwindigkeit um. Eine Kamerawinkelgeschwindigkeit wird als ω definiert, eine Brennweite (mm) wird als f definiert, ein Bewegungsvektor in der Einheit von Pixeln wird als A definiert, eine Rahmenrate (fps) wird als B definiert, und ein Zellabstand (ein Abstand zwischen Pixeln (mm)) wird als X definiert. In dem Prozess der Umwandlung in einer Einheit entsprechend der Kameraverwacklungswinkelgeschwindigkeit, wird Gleichung (1) verwendet. ω = A × B × X ÷ f
  • Der Bewegungsvektor, der in eine Einheit einer Winkelgeschwindigkeit umgewandelt wird, wird in die Unschärfekorrekturwinkelberechnungseinheit 108 eingegeben. Die Winkelgeschwindigkeit, die die Ausgabe der Winkelgeschwindigkeitsmesseinrichtung 103 ist, und der Nachverfolgungskorrekturwert, der die Ausgabe der Nachverfolgungswertberechnungseinheit 111 ist, werden gleichzeitig in die Unschärfekorrekturwinkelberechnungseinheit 108 eingegeben.
  • Die Unschärfekorrekturwinkelberechnungsverarbeitung in der Unschärfekorrekturwinkelberechnungseinheit 108 wird unten beschrieben. 8 ist ein Blockdiagramm, das einen internen Prozess der Unschärfekorrekturwinkelberechnungseinheit 108 illustriert.
  • Ein Winkelgeschwindigkeitssignal, das von der Winkelgeschwindigkeitsmesseinrichtung 103 ausgegeben wird, wird in einen HPF 801 eingegeben. Der HPF 801 schneidet eine Gleichstromkomponente ab, um eine Offset-Komponente, die als ein Erfassungsrauschen der Winkelgeschwindigkeitsmesseinrichtung 108 hinzugefügt wurde, zu entfernen. Der HPF 801 gibt das Winkelgeschwindigkeitssignal, das einem HPF-Prozess unterzogen wurde, an eine Addier- und Subtrahiereinheit 802 und eine Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 aus. Die Addier- und Subtrahiereinheit 802 erhält das Winkelgeschwindigkeitssignal, das dem HPF-Prozess unterzogen wurde, und die Ausgabesignale einer variablen Verstärkungseinheit 808, die später beschrieben wird, und der Winkelgeschwindigkeitsabzugswertberechnungseinheit 805. In der Addier- und Subtrahiereinheit 802 sind die Ausgabe des HPF 801 und eine Vektorrückkopplungswinkelgeschwindigkeit als die Ausgabe der variablen Verstärkungseinheit 808 positive Eingaben und werden addiert, und ein Winkelgeschwindigkeitsabzugswert der Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 ist eine negative Eingabe und wird subtrahiert. Eine Berechnung der Vektorrückkopplungswinkelgeschwindigkeit und des Winkelgeschwindigkeitsabzugswerts wird später in Detail beschrieben. Ein Integrator 803 erhält die Ausgabe der Addier- und Subtrahiereinheit 802 und führt einen Integrationsprozess durch und berechnet einen Zielwinkel. Der Integrator 803 gibt das Integrationsergebnis an eine Begrenzungseinheit 804, die Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 und die variable Verstärkungseinheit 808 aus. Die Beschränkungseinheit 804 erhält ein Zielwinkelsignal, das der Integration durch den Integrator 803 unterzogen wurde. Wenn ein Signalwert des Zielwinkelsignals größer als ein maximaler bewegbarer Bereich ist, beschränkt die Beschränkungseinheit 804 den Signalwert so, dass der Maximalwert beibehalten wird. In der Beschränkungseinheit 804 wird der Unschärfekorrekturwinkel in einem vorbestimmten Bereich berechnet, weil beschränkende Schwellenwerte als obere und untere Beschränkungen des Unschärfekorrekturzielwerts eingestellt sind.
  • Die Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 erhält die Ausgaben des HPF 801 und des Integrators 803 und berechnet den Winkelgeschwindigkeitsabzugswert. Der Zweck des Abziehens des Winkelgeschwindigkeitsabzugswerts von der Winkelgeschwindigkeit in der Addier- und Subtrahiereinheit 802 ist es, den Unschärfekorrekturzielwert in einem bewegbaren Bereich für eine Unschärfekorrektur zu berechnen. In der Beschränkungseinheit 804 werden, wenn ein Eingabesignal größer als der maximal bewegbare Bereich ist, obere und untere Grenzen für den Unschärfekorrekturzielwert eingestellt, um so den Wert auf den maximalen Wert zu beschränken. Wenn jedoch die Winkelgeschwindigkeit größer als der bewegbare Bereich für eine Unschärfekorrektur ist, wird die Unschärfekorrektur danach ausgeschaltet, und es gibt eine Möglichkeit, dass eine große Bildunschärfe auftritt. Deswegen berechnet die Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 die Winkelgeschwindigkeitsabzugswerte unter Verwendung des Unschärfekorrekturzielwerts (vorher abgetasteter Wert eines Steuerungszyklus) und gibt den berechneten Winkelgeschwindigkeitsabzugswert an die Addier- und Subtrahiereinheit 802 aus. Die Addier- und Subtrahiereinheit 802 zieht den Winkelgeschwindigkeitsabzugswert von der Winkelgeschwindigkeit ab, und dann führt der Integrator 803 eine Integration durch. Entsprechend ist es möglich, den Unschärfekorrekturzielwert innerhalb des bewegbaren Bereichs für die Unschärfekorrektur zu berechnen.
  • Die Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 erzeugt einen Wert, der durch Multiplizieren der Winkelgeschwindigkeitssignalausgabe von dem HPF 801 mit einer Verstärkung α oder β erhalten wird, als den Winkelgeschwindigkeitsabzugswert. Insbesondere wird angenommen, dass ein erster Schwellenwert als A1 definiert wird, ein zweiter Schwellenwert als A2 definiert wird, und eine Beziehung „A1 < A2” erfüllt ist. Wenn der Unschärfekorrekturzielwert gleich oder kleiner als A1 ist, wird der Wert der Verstärkung α auf 0 eingestellt. Wenn der Unschärfekorrekturzielwert gleich oder größer als A2 ist, wird der Wert der Verstärkung α auf 1 eingestellt. Wenn der Unschärfekorrekturwert größer als A1 und kleiner als A2 ist, wird der Wert der Verstärkung α auf einen Wert eingestellt, der durch eine lineare Gleichung einer linearen Interpolation zwischen den Schwellenwerten A1 und A2 berechnet wird.
  • Es wird angenommen, dass ein dritter Schwellenwert als B1 definiert wird, ein vierter Schwellenwert als B2 definiert wird, und Beziehungen „B1 > B2” und „A1 = –B1 und A2 = –B2” erfüllt sind. Wenn der Unschärfekorrekturzielwert größer oder gleich B1 ist, wird der Wert der Verstärkung β auf 0 gesetzt. Wenn der Unschärfekorrekturzielwert kleiner oder gleich B2 ist, wird der Wert der Verstärkung β auf 1 gesetzt. Wenn der Unschärfekorrekturwert kleiner als B1 und größer als B2 ist, wird der Wert der Verstärkung β auf einen Wert eingestellt, der durch eine lineare Gleichung einer linearen Interpolation zwischen den Schwellenwerten B1 und B2 berechnet wird.
  • Die Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 berechnet den Winkelgeschwindigkeitsabzugswert durch Gleichungen (2) und (3) unter Verwendung der eingestellten Verstärkungen α und β.
    • – Wenn das Vorzeichen der HPF-Winkelgeschwindigkeit positiv ist: Winkelgeschwindigkeitsabzugswert = HPF-Winkelgeschwindigkeit × α (2)
    • – Wenn das Vorzeichen der HPF-Winkelgeschwindigkeit negativ ist: Winkelgeschwindigkeitsabzugswert = HPF-Winkelgeschwindigkeit × β (3)
  • Die HPF-Winkelgeschwindigkeit ist eine Winkelgeschwindigkeit, die durch den HPF 801 verarbeitet wurde, und die Verstärkung, die mit dem Winkelgeschwindigkeitsabzugswert multipliziert wurde, variiert abhängig von dem Vorzeichen der HPF-Winkelgeschwindigkeit. Das heißt, wenn das Vorzeichen der HPF-Winkelgeschwindigkeit positiv ist, wird die HPF-Winkelgeschwindigkeit mit der Verstärkung α multipliziert. Wenn das Vorzeichen der HPF-Winkelgeschwindigkeit negativ ist, wird die HPF-Winkelgeschwindigkeit mit der Verstärkung β multipliziert. Der berechnete Winkelgeschwindigkeitsabzugswert wird von der HPF-Winkelgeschwindigkeit durch die Addier- und Subtrahiereinheit 802 abgezogen. Entsprechend ist es möglich, zu verhindern, dass die Korrekturlinse ein bewegbares Ende in einem Zustand, in dem eine Unschärfekorrektur nicht möglich ist, erreicht, und die Unschärfekorrektursteuerung innerhalb eines bewegbaren Bereichs durchzuführen. Das bewegbare Ende entspricht einer Grenzposition des bewegbaren Bereichs, in dem die Korrekturlinse bewegbar ist, oder seiner Nachbarschaft.
  • Ein Verfahren zum Berechnen der Vektorrückkopplungswinkelgeschwindigkeit (im Weiteren als eine FB-Winkelgeschwindigkeit bezeichnet), die von der variablen Verstärkungseinheit 808 ausgegeben wird, die in 8 illustriert ist, wird unten beschrieben.
  • Die Korrekturvektorerfassungseinheit 116 gibt ein Signal des Korrekturvektorwerts aus, der in eine Winkelgeschwindigkeit unter Verwendung des oben mit Bezug auf 5 bis 7B beschriebenen Verfahrens umgewandelt wurde. Dieses Signal wird in eine Subtrahiereinheit 807 eingegeben. Auf der anderen Seite gibt die Nachverfolgungswertberechnungseinheit 111 den Nachverfolgungswert (den vorher abgetasteten Wert eines Steuerungszyklus), der unter Verwendung des oben mit Bezug auf 4 beschriebenen Verfahrens berechnet wird, an einen Differenziator 806 aus. Der Differenziator 806 führt ein Differenzierverfahren durch und gibt eine Nachverfolgungswinkelgeschwindigkeit aus, die durch Umwandeln des Nachverfolgungswerts in einen Wert, der einer Winkelgeschwindigkeit entspricht, an den Subtrahierer 807 aus. Weil eine Hochfrequenzkomponente aus dem Nachverfolgungswert durch das Differenzierverfahren extrahiert werden kann, ist die Nachverfolgungswinkelgeschwindigkeit ein Wert, der durch Umwandeln der Hochfrequenzkomponente, die in dem Nachverfolgungswert enthalten ist, in eine Winkelgeschwindigkeit enthalten wird. Der Subtrahierer 807 führt ein Subtraktionsverfahren mit dem Korrekturvektorwert, der von der Korrekturvektorerfassungseinheit 116 erhalten wird, als eine positive Eingabe und mit der Nachverfolgungswinkelgeschwindigkeit, die von dem Differenziator 806 erhalten wird, als eine negative Eingabe durch. Ein Signal, das ein Subtraktionsergebnis (Subtraktionssignal) angibt, wird an die variable Verstärkungseinheit 808 ausgegeben. Die Ausgabe der Subtrahiereinheit 807 ist ein Signal, das durch Subtrahieren der Winkelgeschwindigkeit, die dem Nachverfolgungswert entspricht, von dem erfassten Vektor (dem Vektor, der in einen Wert, der einer Winkelgeschwindigkeit entspricht, umgewandelt wurde) erhalten wird, und hat einen Wert, der einer Kameraverwacklungsrestwinkelgeschwindigkeit entspricht, die einer Unschärfekorrektur des Subtrahierens eines Unschärfekorrekturwerts von der Kameraverwacklung entspricht.
  • Hier wird ein Fall, in dem ein Bild eines sich bewegenden Gegenstands nicht auf einem Bild vorhanden ist, beschrieben. In diesem Fall führt die Korrekturvektorerfassungseinheit 116 das Frequenzverteilungsverarbeiten unter Verwendung all der Erfassungsblöcke, die auf dem ganzen Bild angeordnet sind, durch und bestimmt Bewegungsvektoren. Bewegungsvektoren eines Unschärfekorrekturgierbewegungsrests, in dem ein Grad einer Gierbewegung der Unschärfekorrektur von der Kameraverwacklung entfernt wird, werden ausgegeben. Diese Ausgabe kann mit der Ausgabe des HPF 801 durch die Addier- und Subtrahiereinheit 802 addiert werden, um einen Unschärfekorrektureffekt zu verbessern. Wenn ein Bild eines sich bewegenden Gegenstands auf dem Bild vorhanden ist und der Gegenstand in 6A nicht festgelegt ist, werden Vektoren, die mit der Bewegung des Gegenstands (des sich bewegenden Objekts) verknüpft sind, in 7A entfernt. Die Anzahl der Erfassungsblöcke, in denen ein Bewegungsvektor in der Fläche, die verschieden von dem Rahmenbereich 602 in 6A ist, erfasst wird, ist größer als die Anzahl der Erfassungsblöcke in dem Rahmenbereich 602. Entsprechend werden die Bewegungsvektoren eines Unschärfekorrekturgierbewegungsrests, in dem ein Grad einer Gierbewegung der Unschärfekorrektur von der Kameraverwacklung entfernt wird, erfasst, und dadurch wird der Unschärfekorrektureffekt verbessert.
  • Wenn ein sich bewegender Gegenstand unter Verwendung des oben beschriebenen Verfahrens mit Bezug auf 5 bis 7B erfasst wird, erfasst die Korrekturvektorerfassungseinheit 116 einen Bewegungsvektor als einen Vektor, der einen Bewegungsabstand des Gegenstands (des sich bewegenden Objekts) enthält. Entsprechend ist es möglich, die Unschärfekorrektur so durchzuführen, dass die Bewegung des Gegenstands korrigiert wird. In 6A und 6B wird der Wichtungsprozess auf der Basis der Größe und der Position des Rahmenbereichs 602, der als die Größe des Gegenstands erfasst wird, durchgeführt, wenn der sich bewegende Gegenstand 601 als ein nachzuverfolgender Gegenstand eingestellt ist. Das heißt, der Wichtungsprozess wird für jeden Erfassungsblock wie oben mit Bezug auf 6B beschrieben durchgeführt, und das Frequenzverteilungserfassen wird wie in 7B illustriert durchgeführt. In diesem Fall ist der erfasste Bewegungsvektor ein Bewegungsvektor, der den Bewegungsabstand des Gegenstands 601 enthält.
  • Der Bewegungsvektor, der den Bewegungsabstand des erfassten Gegenstands, wie oben beschrieben, enthält, wird der Subtrahiereinheit 807 eingegeben, nachdem er im Hinblick auf eine Winkelgeschwindigkeit umgewandelt wurde, und wird an die variable Verstärkungseinheit 808 eingegeben, nachdem die Winkelgeschwindigkeit entsprechend dem Nachverfolgungswert davon abgezogen wurde. Die variable Verstärkungseinheit 808 multipliziert die Eingabe mit einem Verstärkungsfaktor (als K bezeichnet), der zwischen 0 und 1 eingestellt ist. Der Unschärfekorrekturzielwert (vorher in einem Steuerungszyklus erfasster Wert) von dem Integrator 803 wird gleichzeitig an die variable Verstärkungseinheit 808 eingegeben und der K-Wert wird abhängig von dem Unschärfekorrekturzielwert eingestellt. Insbesondere werden ein vorbestimmter Winkelschwellenwert 1 und ein Winkelschwellenwert 2 eingestellt, und es wird angenommen, dass Beziehungen „Winkelschwellenwert 1 < Winkelschwellenwert 2” und „Winkelschwellenwert 2 < 45 Grad” erfüllt sind. Der K-Wert wird auf 1 eingestellt, wenn der absolute Wert des Unschärfekorrekturzielwerts kleiner als der Winkelschwellenwert 1 ist, und der K-Wert wird auf 0 eingestellt, wenn der absolute Wert des Unschärfekorrekturzielwerts gleich oder größer als der Winkelschwellenwert 2 ist. Wenn der absolute Wert des Unschärfekorrekturzielwerts zwischen dem Winkelschwellenwert 1 und dem Winkelschwellenwert 2 ist, wird der K-Wert auf der Basis einer Tabelle (oder einer linearen Gleichung), die durch eine lineare Interpolation zwischen den Verstärkungsfaktorwerten 1 und 0 erhalten wird, eingestellt. In diesem Beispiel wird der lineare Interpolationsprozess zwischen zwei Punkten unter Verwendung einer Tabelle durchgeführt, die durch Einstellen von zwei Punkten vorbereitet wurde, aber die Tabelle kann durch Einstellen von drei oder mehr Punkten vorbereitet werden.
  • Wenn der Unschärfekorrekturzielwert relativ klein ist, gibt es eine Spanne bis die Korrekturlinse das bewegbare Ende für die Unschärfekorrektur erreicht, und deswegen wird der Korrekturvektor mit der Winkelgeschwindigkeit addiert, um den Unschärfekorrekturzielwert zu berechnen. Auf der anderen Seite steuert die variable Verstärkungseinheit 808 die Verstärkung auf einen kleineren Wert und beschränkt den Wert des Korrekturvektors, wenn der Unschärfekorrekturzielwert relativ groß ist und es keine Spanne gibt, bis die Korrekturlinse das bewegbare Ende für die Unschärfekorrektur erreicht. Es ist möglich, zu verhindern, dass die Korrekturlinse das bewegbare Ende in einem Zustand, in dem eine Unschärfekorrektur nicht möglich ist, erreicht.
  • Wie oben beschrieben, wird die FB-Winkelgeschwindigkeit aus dem Bewegungsvektor mit dem Bewegungsabstand des Gegenstands aus der Korrekturvektorerfassungseinheit 116, dem Nachverfolgungswinkel aus der Nachverfolgungswertberechnungseinheit 111, und dem Unschärfekorrekturzielwert (dem vorher erfassten Wert in dem Steuerungszyklus) berechnet. Die FB-Winkelgeschwindigkeit wird aus der variablen Verstärkungseinheit 808 an die Addier- und Subtrahiereinheit 802 ausgegeben. Die Addier- und Subtrahiereinheit 802 erhält die FB-Winkelgeschwindigkeit, die Winkelgeschwindigkeit von dem HPF 801, und den Winkelgeschwindigkeitsabzugswert von der Winkelgeschwindigkeitsabzugswertberechnungseinheit 805 und berechnet eine Korrekturwinkelgeschwindigkeit. Die Korrekturwinkelgeschwindigkeit wird dem Integrationsprozess unterzogen und wird dann einem Begrenzungsprozess in dem bewegbaren Bereich für die Unschärfekorrektur unterzogen, und ein Unschärfekorrekturwinkel wird berechnet. Entsprechend ist es möglich, gleichzeitig eine Unschärfekorrektursteuerung und eine Gegenstandssteuerungsnachverfolgungssteuerung innerhalb des bewegbaren Bereichs für die Unschärfekorrektur durchzuführen.
  • In dem oben erwähnten Beispiel wird das Verfahren zum Ändern der Verstärkung der variablen Verstärkungseinheit 808 abhängig von dem Unschärfekorrekturzielwert beschrieben, aber der Verstärkungsfaktor kann auf der Basis der Bildposition des Gegenstands oder einer Variation in der Bildposition von der Gegenstandserfassungseinheit 110 eingestellt werden. Wenn die Gegenstandsposition in der Nähe des Bildzentrums lokalisiert ist, wird die Nachverfolgungssteuerung der Nachverfolgungswertsteuerungseinheit 111 nicht durchgeführt, und dadurch wird die Unschärfekorrektursteuerung aktiv unter Verwendung der FB-Winkelgeschwindigkeit durchgeführt. Wenn die Gegenstandsposition von dem Bildzentrum getrennt ist, wird die Nachverfolgungssteuerung durch die Nachverfolgungswertberechnungseinheit 111 durchgeführt. Zu dieser Zeit wird ein Vektor zum Bewegen eines Sichtwinkels durch die Nachverfolgungssteuerung erzeugt, aber es gibt eine Möglichkeit, dass viel Erfassungsrauschen des Vektors erzeugt wird, wenn eine Rückkehrgeschwindigkeit hoch ist. Um eine fehlerhafte Steuerung in der Nachverfolgungssteuerung unter Verwendung der FB-Winkelgeschwindigkeit aufgrund des Einflusses des Erfassungsrauschens zu verhindern, wird die Verstärkung in der variablen Verstärkungseinheit 808 auf der Basis der Bildposition des Gegenstands oder einer Variation in der Bildposition eingestellt. Insbesondere unterdrückt die Unschärfekorrekturwinkelberechnungseinheit 108 eine Verschlechterung in der Nachverfolgungssteuerbarkeit durch Einstellen der Verstärkung der variablen Verstärkungseinheit 808 auf einen relativ kleinen Wert, wenn die Bildposition des Gegenstands von dem Bildzentrum getrennt ist oder eine vorbestimmte Variation, die mit der Bildposition verknüpft ist, erfasst wird.
  • Ein Beispielverfahren für die Unschärfekorrektursteuerung und die Gegenstandsnachverfolgungssteuerung wird unten mit Bezug auf 9 beschrieben. Der in dem Flussdiagramm der 9 illustrierte Prozessfluss startet wenn eine Hauptenergiequelle der Abbildungseinrichtung 101 eingeschaltet wird, und wird mit einem konstanten Abtastzyklus unter der Steuerung der CPU 105 durchgeführt.
  • Als erstes bestimmt in S901 die CPU 105, ob eine Vibrationskorrekturabzugssoftware eingeschaltet ist. Die Vibrationskorrekturabzugssoftware ist ein Betriebsschalter, der verwendet wird, damit ein Nutzer einen Bildunschärfekorrekturvorgang instruiert. Wenn die Vibrationskorrekturabzugssoftware ausgeschaltet ist, bewegt sich der Prozessfluss zu S915 und die CPU 105 setzt eine Linsenantriebsgröße der Korrekturlinse 114 auf null. Dann bewegt sich der Prozessfluss zu S916. Wenn die Vibrationskorrekturabzugssoftware eingeschaltet ist, bewegt sich der Prozessfluss zu S902.
  • In S902 empfängt die CPU 105 die Ausgabe der Winkelgeschwindigkeitsmesseinrichtung 103. In S903 bestimmt die CPU 105, ob eine Unschärfekorrektur möglich ist. Insbesondere bestimmt die CPU 105, dass eine Unschärfekorrektur nicht möglich ist in einer Periode von einem Zeitpunkt, an dem eine Kamera eingeschaltet wird, bis zu einem Zeitpunkt, an dem die Ausgabe der Winkelgeschwindigkeitsmesseinrichtung 103 stabilisiert ist. Entsprechend ist es möglich zu verhindern, dass die Unschärfekorrektur in einem Zustand durchgeführt wird, in dem der Ausgabewert der Winkelgeschwindigkeitsmesseinrichtung 103 direkt, nachdem die Kamera eingeschaltet wird, unstabil ist. Wenn die Unschärfekorrektur nicht möglich ist, bewegt sich der Prozessfluss nach S915. Auf der anderen Seite bestimmt die CPU 105, wenn die Ausgabe der Winkelgeschwindigkeitsmesseinrichtung 103 stabilisiert ist, dass die Unschärfekorrektur möglich ist, und der Prozessfluss bewegt sich zu S904.
  • In S904 bestimmt die CPU 105, ob eine Gegenstandsnachverfolgungssoftware eingeschaltet ist. Wenn die Gegenstandsnachverfolgungssoftware ausgeschaltet ist, bewegt sich der Prozessfluss nach S911. In S911 stellt die CPU 105 den Nachverfolgungskorrekturwert auf null ein. Dann stellt die CPU 105 in S912 den Bewegungsvektor auf null ein und der Prozessfluss bewegt sich zu S913. Wenn in S904 bestimmt wird, dass die Gegenstandsnachverfolgungssoftware eingeschaltet ist, bewegt sich der Prozessfluss zu S905.
  • In S905 bestimmt die CPU 105, ob ein Nachverfolgungsziel vorhanden ist. Zum Beispiel wird ein Gesicht oder ein menschlicher Körper, der automatisch erfasst wird, als ein Hauptgegenstand ausgewählt, oder ein Hauptgegenstand wird von einem Merkmalswert in einem Bild auf der Basis einer Farbe, einer Chroma oder ähnlichem des Bilds ausgewählt. In einer Abbildungseinrichtung, in der ein Touchpanel auf einem Bildschirm einer Anzeigeeinrichtung montiert ist (z. B. einer Flüssigkristallanzeige (LCD)), der ein Livebild eines aufgenommenen Bilds anzeigt, kann ein Prozess einen Gegenstand von einem Punkt, der durch einen Nutzer mit einer Berührungsoperation gekennzeichnet wird, erkennen. Der Prozessfluss bewegt sich zu S911, wenn in S905 bestimmt wird, dass ein Nachverfolgungsziel nicht vorhanden ist, und der Prozessfluss bewegt sich zu S906, wenn bestimmt wird, dass ein Nachverfolgungsziel vorhanden ist.
  • In S906 erfasst die Gegenstandserfassungseinheit 110 die Zentralposition und die Größe des Gegenstandsbilds. Anschließend berechnet in S907 die Nachverfolgungswertberechnungseinheit 111 den Nachverfolgungswert von der Gegenstandspositionsinformation, die von der Gegenstanderfassungseinheit 110 erhalten wird. In S908 berechnet die Bewegungsvektorerhalteeinheit 115 Bewegungsvektoren an den Positionen der Erfassungsblöcke (siehe 6B). Dann berechnet in S909 die Korrekturvektorerfassungseinheit 116 einen Wichtungsfaktor für jeden Bewegungsvektor unter Verwendung des Verfahrens, das oben in Bezug auf 6B auf der Basis der Position von jedem Bewegungsvektor in dem Bild und der Gegenstandsposition und der Größe, die in S907 berechnet wurden, beschrieben wurde.
  • Dann führt in S910 die Korrekturvektorerfassungseinheit 116 das Frequenzverteilungsverarbeiten, das oben mit Bezug auf 5 bis 7B beschrieben wurde, durch und berechnet einen korrigierten Bewegungsvektor (Korrekturbewegungsvektor) auf der Basis der Vektoren, die in S908 berechnet wurden und der Wichtungsfaktoren der Vektoren, die in S909 berechnet wurden. In S913 berechnet die Unschärfekorrekturwinkelberechnungseinheit 108 den Unschärfekorrekturwert aus dem Korrekturbewegungsvektor, der in S910 berechnet wurde, oder den Bewegungsvektor, der in S912 eingestellt wurde, den Nachverfolgungswert, der berechnet oder eingestellt wurde in S907 oder S911, und der Winkelgeschwindigkeitsausgabe, die in S902 erhalten wurde. Der Prozess des Berechnens des Unschärfekorrekturwinkels ist der gleiche, wie oben mit Bezug auf 8 beschrieben wurde.
  • In S914 addiert die CPU 105 den Unschärfekorrekturwert, der in S913 berechnet wurde, und den Nachverfolgungskorrekturwert, der in S907 oder S911 berechnet oder eingestellt wurde, um die Größe des Linsenantriebs der Korrekturlinse 114 zu berechnen. In S916 treibt Ansteuersteuerungseinheit 113 die Korrekturlinse 114 auf der Basis der Größe des Linsenantriebs an. Entsprechend werden die Unschärfekorrektur und das Gegenstandsnachverfolgen durchgeführt. Wenn die in 9 illustrierten Subroutinen vollständig sind, geht der Prozessfluss auf Standby bis ein nächster Abtastzyklus auftritt.
  • In diesem Ausführungsbeispiel wird ein Bewegungsvektor an einer Gegenstandsposition auf der Basis einer Vektorerfassungsfläche erfasst, die abhängig von der Position und der Größe eines Gegenstandsbilds in einem aufgenommenen Bild eingestellt wird. Auf der Basis der Gegenstandsposition wird ein Nachverfolgungswert zum Lokalisieren des Gegenstandsbilds an einer spezifischen Position in einem Bild (z. B. in der Nähe des Zentrums oder einer Position, die durch einen Nutzer festgelegt wird) berechnet. Die Korrekturlinse wird auf der Basis eines Antriebsteuerwerts angetrieben, der aus dem korrigierten Bewegungsvektor, der Geschwindigkeitsausgabe, und dem Nachverfolgungswert, der auf der Basis der Gegenstandsposition berechnet wird, berechnet wird, und die Unschärfekorrektur und die Nachverfolgungssteuerung werden durchgeführt. Entsprechend kann die Nachverfolgungssteuerung gemäß diesem Ausführungsbeispiel effektiv in Szenen oder ähnlichem verwendet werden, in denen das Gegenstandsbild von dem Bildzentrum getrennt ist, z. B., wenn ein Gegenstand sich langsam bewegt und die Nachverfolgungssteuerung nicht durchgeführt wird, wenn eine Gegenstandserfassungsverzögerung groß ist oder ein Erfassungsfehler verursacht werden kann. In diesem Ausführungsbeispiel werden langsame und große Bewegung eines Gegenstands (eine Bewegung einer Niedrigfrequenzkomponente in einer Bewegung eines Gegenstands) unter Verwendung eines Ergebnisses eines Vergleichs der Gegenstandsposition mit der vorbestimmen Position reduziert und eine schnelle und kleine Bewegung eines Gegenstands (eine Bewegung einer Hochfrequenzkomponente in einer Bewegung eines Gegenstands) wird unter Verwendung eines Bewegungsvektor und einem Ergebnis einer Erfassung der Winkelgeschwindigkeitsmesseinrichtung verringert. Gemäß diesem Ausführungsbeispiel ist es möglich, ein Bild eines Gegenstands an einer spezifischen Position in dem ersten Bild zu halten, z. B. in der Nähe des Bildzentrums. Wenn es aufgrund einer großen Bewegung des Gegenstands und einer schnellen Positionsvariation des Gegenstandsbilds eine hohe Wahrscheinlichkeit gibt, dass ein Gegenstandsbild an einer Position lokalisiert sein wird, die von dem Bildzentrum getrennt ist, kann die Nachverfolgungssteuerung gemäß diesem Ausführungsbeispiel effektiv verwendet werden. In diesem Fall ist es möglich, die Leistung eines Nachverfolgungsvorgangs zu verbessern, weil die Nachverfolgungssteuerung sofort durchgeführt wird, um das Gegenstandsbild an dem Bildzentrum zu lokalisieren.
  • In diesem Beispiel wird ein Anwendungsbeispiel auf eine sogenannte optische Vibrationskorrekturabzugssteuerung des Bewegens der Korrekturlinse als eine Unschärfekorrektureinheit in einer Ebene senkrecht zu der optischen Achse beschrieben. Jedoch kann die vorliegende Erfindung auch auf eine Gegenstandsnachverfolgungseinrichtung mit den folgenden Konfigurationen angewendet werden:
    • (1) Eine Konfiguration, in der ein Abbildungselement in einer Ebene senkrecht zu einer optischen Achse bewegt wird.
    • (2) Eine Konfiguration, in der eine elektronische Steuerung durch die Bildverarbeitung des Änderns einer Startposition von jedem aufgenommenen Frame, der von einem Abbildungselement ausgegeben wird, durchgeführt wird.
    • (3) Eine Konfiguration mit einer mechanischen Einheit, die einen Zylinder mit einem Abbildungselement und einer Abbildungslinsengruppe dreht.
    • (4) Eine Konfiguration mit einer mechanischen Antriebseinheit (z. B. eine rotierende Kameraplattform, die eine Schwenkoperation oder eine Kacheloperation einer Abbildungseinrichtung durchführt), die getrennt von der Abbildungseinrichtung angeordnet ist.
    • (5) Eine Kombination der Vielzahl der Konfigurationen (1) bis (4).
  • Dies gilt für ein später zu beschreibendes Ausführungsbeispiel.
  • (Zweites Ausführungsbeispiel)
  • Ein Beispiel, in dem ein Bewegungsvektor gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung erfasst wird, wird unten mit Bezug auf 10A und 10B beschrieben. Im Weiteren werden Differenzen zwischen diesem Ausführungsbeispiel und dem ersten Ausführungsbeispiel hauptsächlich beschrieben, und dieselben Elemente wie in dem ersten Ausführungsbeispiel werden durch dieselben Bezugszeichen bezeichnet und eine detaillierte Beschreibung davon wird nicht wiederholt.
  • 10A illustriert ein Beispiel eines Bilds, wenn es einen Gegenstand 1001 gibt, der ein sich bewegendes Bild in dem aufgenommen Bild ist. Ein gestrichelter Rahmenbereich 1002 zeigt einen Bildbereich entsprechend einer Gegenstandsfläche an, der aus der Gegenstandsposition und der Gegenstandsgröße durch die Gegenstandserfassungseinheit 110 erhalten wird. 10B ist ein schematisches Diagramm, das ein Beispiel einer Anordnung von Erfassungsblöcken in der Bewegungsvektorerhalteeinheit 115 illustriert und illustriert einen Zustand, in dem die Erfassungsblöcke gleichförmig in dem ganzen Bildschirm angebracht sind.
  • In 10B ist die Anzahl der Erfassungsblöcke kleiner als die in 6B, die in dem ersten Ausführungsbeispiel erwähnt wurde. Wenn eine vorbestimmte Anzahl oder mehr an Erfassungsblöcken über den gesamten Bildschirm angebracht sind, wie in 6B illustriert, wird ein Anwachsen in einer Schaltstruktur oder einer Programmskalierung, ein Anwachsen in einer Prozessorlast oder ähnliches verursacht. Weil es schwierig ist, viele Erfassungsblöcke über den ganzen Bildschirm anzuordnen, ist die Anzahl an Erfassungsblöcken beschränkt. Wenn jedoch die Anzahl an Erfassungsblöcken klein ist, sind Abstände zwischen den Erfassungsblöcken groß, wie in 10B illustriert. Entsprechend ist die Anzahl an Erfassungsblöcken, die in der Gegenstandsfläche erfasst werden kann, sehr klein, selbst wenn der Wichtungsprozess auf der Basis der Gegenstandsfläche durchgeführt wird und der Bewegungsvektor in der Gegenstandsfläche, wie oben mit Bezug auf 6A bis 7B beschrieben, erfasst wird. Dies ist bemerkenswert, wenn die Größe des Gegenstandsbilds kleiner wird. Wenn die Anzahl der Erfassungsblöcke klein ist, wird eine hohe Genauigkeit für einen Erfassungsblock benötigt. Wenn eine fehlerhafte Vektorerfassung durchgeführt wird, gibt es eine Möglichkeit, dass eine ungenaue Unschärfekorrektursteuerung verursacht wird.
  • Deswegen wird in diesem Ausführungsbeispiel ein Prozess des Änderns der Anordnung der Erfassungsblöcke in der Vektorerfassungseinheit 115 auf der Basis der Gegenstandsposition und der Gegenstandsgröße, die durch die Gegenstandserfassungseinheit 110 erfasst werden, beschrieben. Durch Ändern der Anordnung der Erfassungsblöcke ist es möglich, akkurat einen Bewegungsvektor einschließlich eines Grads einer Bewegung des Gegenstands 1001 zu erfassen. Ein spezifisches Beispiel wird unten mit Bezug auf 11A bis 11D beschrieben.
  • 11A bis 11D illustrieren ein Beispiel eines Prozesses zum Ändern einer Anordnung von Erfassungsblöcken, die mit einem Bewegungsvektor verknüpft sind, auf der Basis einer Gegenstandsposition und einer Gegenstandsgröße. 11A illustriert ein Beispiel eines Bilds eines Rahmes beim Darstellen einer Liveansicht im Standby oder eines Bilds eines Rahmens beim Aufnehmen eines sich bewegenden Bilds zu einer gewissen Zeit. Ein Hauptgegenstand 1101 ist ein sich bewegendes Objekt (Automobil) und eine Reiserichtung davon ist als eine linke Richtung in 11A bis 11D definiert. Eine Gegenstandsfläche 1102 ist durch einen gestrichelten rechtwinkligen Rahmen markiert. 11B illustriert ein Beispiel eines aufgenommenen Bilds, wenn eine Zeit nach der Zeit aus 11A abläuft. Eine Gegenstandsfläche 1103 ist durch einen gestrichelten rechtwinkligen Rahmen markiert. 11C illustriert ein Beispiel einer Anordnung von Erfassungsblöcken in der Bewegungsvektorerhalteeinheit 115 zur selben Zeit wie in 11A. 11D illustriert ein Beispiel einer Anordnung von Erfassungsblöcken in der Bewegungsvektorerhalteeinheit 115 zur selben Zeit wie in 11B.
  • Wie in 11C illustriert, bewegt die CPU 105 Positionen der Erfassungsblöcke so, dass die Erfassungsblöcke auf der Basis der erfassten Gegenstandsposition und -größe so gut wie möglich auf der Gegenstandsfläche 1102 konvergieren. Entsprechend kann die Anzahl der Erfassungsblöcke an einer Position, an der der Hauptgegenstand 1101 vorhanden ist, erhöht werden. Je größer die Anzahl der erfassbaren Erfassungsblöcke wird, desto besser kann der Bewegungsvektor einschließlich der Bewegung des Gegenstands erfasst werden, und es ist dadurch möglich, akkurat eine Gegenstandsnachverfolgung durchzuführen. In 11D ist die Gegenstandsfläche 1103 auf der Basis der erfassten Gegenstandsposition und -größe eingestellt, und die Positionen der Erfassungsblöcke werden so bewegt, dass die Erfassungsblöcke auf der Gegenstandsfläche 1103 so gut wie möglich konvergieren.
  • Das Ändern der Anordnung der Erfassungsblöcke des Bewegungsvektors in Echtzeit hat ein Problem aufgrund einer Gegenstandserfassungsgenauigkeit. Beim Erfassen eines Gegenstands ist eine Verzögerung einer Erfassungszeit notwendigerweise in dem Gegenstandserfassungsergebnis enthalten, weil es schwierig ist, den Gegenstand ohne eine Verzögerung mit Bezug auf die Echtzeit aufgrund einer Erfassungsverarbeitungslast oder ähnlichem zu erfassen. Es ist schwierig, den Gegenstand mit einer erhöhten Erfassungsgenauigkeit der Gegenstandsposition oder mit einer erhöhten Erfassungsgenauigkeit der Gegenstandsgröße zu erfassen, und ein kleiner Fehler wird verursacht. Mit Bezug auf den Bewegungsvektor gibt es einen Vorteil, dass ein Bewegungsvektor mit hoher Genauigkeit und einer kleinen Verzögerung aus einer Szene mit einem hohen Kontrast erfasst werden kann, weil die Vektorerfassung auf der Basis einer Differenz zwischen Rahmen durchgeführt wird. Auf diese Weise ist eine Zeitdifferenz zwischen der Gegenstandserfassung und der Bewegungsvektorerfassung vorhanden, und ein Fehler wird bei der Erfassung der Gegenstandsposition und -größe verursacht. Entsprechend gibt es, wenn die Bewegungsgeschwindigkeit des Hauptgegenstands 1101 auf dem Bild hoch ist, eine Möglichkeit, dass eine fehlerhafte Erfassung eines Gegenstandsvektors durch Ändern der Anordnung der Erfassungsblöcke abhängig von der Gegenstandsposition erfolgt. In diesem Fall gibt es eine Möglichkeit bezüglich der Gegenstandserfassungsverzögerung und Genauigkeit, dass Erfassungsblöcke an fehlerhaften Positionen angeordnet werden.
  • Deswegen wird in diesem Ausführungsbeispiel ein Prozess des Reduzierens eines Bereichs, in dem Erfassungsblöcke angeordnet werden, durch die CPU 105 durchgeführt, wenn eine Variation in einer Bildposition eines Gegenstands, der durch die Gegenstandserfassungseinheit 110 erfasst wird, klein ist (wenn die Gegenstandsgeschwindigkeit niedrig ist). In diesem Fall kann bestimmt werden, dass die Differenzen zwischen der Gegenstandserfassungsposition und den Positionen der Erfassungsblöcke des Bewegungsvektors klein sind und die Erfassungsgenauigkeit hoch ist. Auf der anderen Seite wird ein Prozess des Vergrößerns des Bereichs, in dem die Erfassungsblöcke angeordnet sind, durch die CPU 105 durchgeführt, wenn die Variation in einer Bildposition eines Gegenstands hoch ist (wenn die Gegenstandsgeschwindigkeit hoch ist). Entsprechend ist es möglich, das Auftreten einer fehlerhaften Erfassung zu unterdrücken.
  • Wenn die Variation in einer Bildposition eines Gegenstands groß ist, wird bestimmt, dass die Erfassungsgenauigkeit eines korrigierten Vektors verringert wird, und die Verstärkung der variablen Verstärkungseinheit 808 in 8 wird auf einen kleinen Wert eingestellt. Als ein Ergebnis ist es möglich, das Auftreten einer fehlerhaften Nachverfolgung eines Gegenstands durch die Vektorrückkopplungssteuerung zu unterdrücken. Auf der anderen Seite wird bestimmt, dass die Erfassungsgenauigkeit eines korrigierten Vektors hoch ist, und die Verstärkung der variablen Verstärkungseinheit 808 wird auf einen großen Wert eingestellt, wenn die Variation in einer Bildposition eines Gegenstands klein ist. Als ein Ergebnis ist es möglich, die Gegenstandserfassungsleistung durch die Vektorrückkopplungssteuerung zu verbessern.
  • In diesem Ausführungsbeispiel wird die Anordnung der Erfassungsblöcke eines Bewegungsvektors auf der Basis der Bildposition und Größe eines Gegenstands in einem aufgenommenen Bild geändert. Die Erfassungsblöcke sind so angeordnet, dass sich die Erfassungsblöcke in der Nähe der Bildposition des Gegenstands sammeln. Der Bewegungsvektor an der Bildposition des Gegenstands wird so eingestellt, dass er einfach als ein korrigierter Vektor erfasst wird, und die Unschärfekorrektur und die Nachverfolgungssteuerung werden auf der Basis des korrigierten Werts und der Winkelgeschwindigkeit durchgeführt. Entsprechend ist es möglich, die automatische Gegenstandsnachverfolgungsleistung zu verbessern.
  • (Andere Ausführungsbeispiele)
  • Ausführungsbeispiele der vorliegenden Erfindung können auch durch einen Computer oder ein System oder eine Vorrichtung, die computerausführbare Konstruktionen ausliest und ausführt (z. B. ein oder mehrere Programme), die auf einem Speichermedium (das auch vollständiger als ein nichtflüchtiges computerlesbares Speichermedium bezeichnet werden kann), um die Funktionen von einem oder mehreren der oben beschriebenen Ausführungsbeispiele durchzuführen, und/oder das eine oder mehrere Schaltungen (z. B. anwendungsspezifische integrierte Schaltungen (ASIC)) zum Durchführen der Funktionen von einer oder mehreren der oben beschriebenen Ausführungsbeispiele enthält, und durch ein Verfahren, das durch den Computer oder das System oder die Vorrichtung durch, z. B., Auslesen und Ausführen der computerausführbaren Instruktionen aus dem Speichermedium, um die Funktionen von einer oder mehreren der oben beschriebenen Ausführungsbeispiele durchzuführen und/oder zum Steuern der einen oder mehreren Schaltungen, um die Funktionen der einen oder mehreren oben beschriebenen Ausführungsbeispiele durchzuführen, realisiert werden. Der Computer kann einen oder mehrere Prozessoren (z. B. eine zentrale Verarbeitungsarbeit (CPU), eine Mikroverarbeitungseinheit (MPU)) enthalten, und kann ein Netzwerk von separaten Computern oder getrennten Prozessoren enthalten, um die computerausführbaren Instruktionen auszulesen und auszuführen. Die computerausführbaren Instruktionen können dem Computer z. B. von einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann z. B. eine oder mehrere Festplatten, wahlfreie Zugriffsspeicher (RAM), einen Festspeicher (ROM), einen Speicher von verteilten Computersystemen, eine optische Disc (wie z. B. eine Kompaktdisc (CD), digitale vielseitige Disc (DVD) oder eine Blue-Ray Disc (BD)), eine Flashspeicheinrichtung, eine Speicherkarte oder ähnliches enthalten.
  • Während die vorliegende Erfindung mit Bezug auf beispielhafte Ausführungsbeispiele beschrieben wurde, versteht es sich, dass die Erfindung nicht auf die offenbarten beispielhaften Ausführungsbeispiele beschränkt ist. Dem Bereich der folgenden Patentansprüche ist die breiteste Interpretation zuzuerkennen, sodass er alle solche Modifikationen und äquivalenten Strukturen und Funktionen umfasst.
  • Diese Anmeldung beansprucht den Nutzen der japanischen Patentanmeldung Nr. 2015-217363 , die am 5. November 2015 eingereicht wurde, die hierbei durch Inbezugnahme als Ganze einbezogen wird.
  • Eine Abbildungseinrichtung enthält eine Gegenstandserfassungseinheit, die konfiguriert ist, ein Gegenstandsbild aus einem aufgenommen Bild, das durch ein Abbildungselement aufgenommen wird, zu erfassen; eine Bewegungsvektorerhalteeinheit, die konfiguriert ist, einen Bewegungsvektor des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, durch Vergleichen von Bildsignalen in verschiedenen Rahmen, die durch das Abbildungselement erhalten werden, zu erhalten; eine Vergleichseinheit, die konfiguriert ist, ein Vergleichsergebnis durch Vergleichen einer Position des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, mit einer vorbestimmten Position zu erhalten; und eine Bewegungseinheit, die konfiguriert ist, eine Bewegung der Position des Gegenstandsbilds in dem Abbildungsbereich durch Bewegung des Gegenstandsbild auf der Basis des Bewegungsvektors und des Vergleichsergebnisses zu reduzieren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2010-93362 [0004]
    • JP 2015-217363 [0095]

Claims (17)

  1. Abbildungseinrichtung mit: einer Gegenstandserfassungseinheit, die konfiguriert ist, ein Gegenstandsbild aus einem aufgenommen Bild, das durch ein Abbildungselement aufgenommen wird, zu erfassen; eine Bewegungsvektorerhalteeinheit die konfiguriert ist, einen Bewegungsvektor eines Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wurde, durch Vergleichen von Bildsignalen in verschiedenen Rahmen, die durch das Abbildungselement aufgenommen wurden, zu erhalten; eine Vergleichseinheit, die konfiguriert ist, ein Vergleichsergebnis durch Vergleichen einer Position des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird, mit einer Zielposition in einem Abbildungsbereich zu erhalten; und einer Bewegungseinheit die konfiguriert ist, die Bewegung der Position des Gegenstandsbilds in dem Abbildungsbereich durch Bewegen des Gegenstandsbilds auf der Basis des Bewegungsvektors und des Vergleichsergebnisses zu reduzieren.
  2. Abbildungseinrichtung nach Anspruch 1, ferner mit: einer Erhalteeinheit, die konfiguriert ist, ein Bild des Abbildungsbereichs als ein erstes Bild zu erhalten, der ein Gebiet des aufgenommenen Bilds identifiziert, das das Gegenstandsbild enthält.
  3. Abbildungseinrichtung nach Anspruch 2, wobei: die Bewegungseinheit das Gegenstandsbild durch Bewegen von zumindest einer der Position des vorbestimmten Bereichs, des optischen Elements, das das optische Abbildungssystem, das den Lichtfluss zu dem Abbildungselement führt, konstituiert, und des Abbildungselements bewegt.
  4. Abbildungseinrichtung nach einem der Ansprüche 1 bis 3, wobei die Vergleichseinheit eine Differenz zwischen Folgendem erhält: Koordinaten der Position des Gegenstandsbilds, das durch die Gegenstandserfassungseinheit erfasst wird; und Koordinaten der vorbestimmten Position als dem Vergleichsergebnis.
  5. Abbildungseinrichtung nach einem der Ansprüche 1 bis 4, wobei die Bewegungseinheit eine Bewegungsgröße durch Addieren von Folgenden erhält: einer ersten Bewegungsgröße zum Reduzieren einer Bewegungsgröße des Gegenstandsbilds in dem Abbildungsbereich unter Verwendung des Bewegungsvektors, und einer zweiten Bewegungsgröße zum Reduzieren der Bewegungsgröße des Gegenstandsbilds in dem Abbildungsbereich unter Verwendung des Vergleichsergebnisses.
  6. Abbildungseinrichtung nach Anspruch 5, wobei die Bewegungseinheit die zweite Bewegungsgröße auf einen Minimalwert einstellt, wenn die Differenz gleich oder kleiner als ein Schwellenwert ist.
  7. Abbildungseinrichtung nach einem der Ansprüche 1 bis 6, ferner mit einer Unschärfeerfassungseinheit, die konfiguriert ist, ein Unschärfeerfassungssignal auszugeben, wobei die Bewegungseinheit konfiguriert ist, die Bildunschärfe des ersten Bilds zu korrigieren.
  8. Abbildungseinrichtung nach Anspruch 5 oder Anspruch 6, wobei die Bewegungseinheit konfiguriert ist zu erhalten: eine Bewegungsgröße entsprechend einer Hochfrequenzkomponente, während sich die Position des Gegenstandsbilds in dem Abbildungsbereich bewegt, unter Verwendung des Vergleichsresultats, und die Bewegungsgröße entsprechend der Hochfrequenzkomponente von einer Größe, die durch Addieren der ersten Bewegungsgröße und der zweite Bewegungsgröße erhalten wird, abzieht.
  9. Abbildungseinrichtung nach Anspruch 5 oder Anspruch 6, ferner mit einer Unschärfeerfassungseinheit, die konfiguriert ist, ein Unschärfeerfassungssignal auszugeben, wobei die Bewegungseinheit eine Bewegungsgröße entsprechend einer Hochfrequenzkomponente erhält, während sich die Position des Gegenstandsbilds in dem Abbildungsbereich bewegt, unter Verwendung des Vergleichsergebnisses, die Bewegungsgröße entsprechend der Hochfrequenzkomponente von der zweiten Bewegungsgröße abzieht, um ein Abzugsergebnis zu erhalten, das Abzugsergebnis mit einem Verstärkungsfaktor multipliziert, und das Gegenstandsbild auf der Basis des Abzugsergebnisses, das mit dem Verstärkungsfaktor multipliziert ist, dem Unschärfeerfassungssignal, und der ersten Bewegungsgröße bewegt.
  10. Abbildungseinrichtung nach einem der Ansprüche 1 bis 9, ferner mit einer Einstelleinheit, die konfiguriert ist, eine Gegenstandsfläche mit der Position des Gegenstandsbild in dem Abbildungsbereich auf der Basis des Erfassungsergebnisses des Gegenstandsbilds durch die Gegenstandserfassungseinheit einzustellen, wobei die Bewegungsvektorerhalteeinheit die Positionen des Gegenstandsbilds in den Bildsignalen in den verschiedenen Rahmen vergleicht, um den Bewegungsvektor zu erhalten.
  11. Abbildungseinrichtung nach Anspruch 10, wobei die Einstelleinheit konfiguriert ist, eine Bildposition und eine Bildgröße des Gegenstandsbilds zu erfassen und die Gegenstandsfläche einstellt.
  12. Abbildungseinrichtung nach einem der Ansprüche 1 bis 11, wobei die Bewegungsvektorerhalteeinheit konfiguriert ist, einen Wichtungsfaktor für den Bewegungsvektor, der von jedem der Vielzahl der Erfassungsflächen erfasst wird, die in dem aufgenommenen Bild eingestellt sind, einzustellen und den Bewegungsvektor an einer Bildposition des Gegenstandsbilds durch Multiplizieren des Werts des Bewegungsvektors mit dem Wichtungsfaktor zu bestimmen.
  13. Abbildungseinrichtung nach Anspruch 12, wobei die Bewegungsvektorerhalteeinheit konfiguriert ist, eine Frequenzverteilung der Bewegungsvektoren, die unter Verwendung der Wichtungsfaktoren verarbeitet werden, zu berechnen und den Bewegungsvektor der Bildposition des Gegenstandsbilds aus einer Position zu bestimmen, an der ein Frequenzpeak auftritt.
  14. Abbildungseinrichtung nach einem der Ansprüche 10 bis 13, wobei die Einstelleinheit konfiguriert ist, eine Größe der Gegenstandsfläche, wenn eine Bewegungsgröße des Gegenstandsbilds groß ist, größer als eine Größe der Gegenstandsfläche einzustellen, wenn die Bewegungsgröße des Gegenstandsbilds klein ist.
  15. Abbildungseinrichtung nach einem der Ansprüche 1 bis 14, wobei die Bewegungseinheit konfiguriert ist, zu erhalten: eine Information über eine Hochfrequenzkomponente aus dem Bewegungsvektor, während sich die Position des Gegenstandsbilds in dem Abbildungsbereich bewegt; eine Information über eine Niedrigfrequenzkomponente aus dem Vergleichsergebnis, während sich die Position des Gegenstandsbilds in dem Abbildungsbereich bewegt.
  16. Abbildungsverfahren mit: Erfassen eines Gegenstandsbilds aus einem aufgenommenen Bild, das durch ein Abbildungselement aufgenommen wird; Erhalten eines Bewegungsvektors eines Gegenstandsbilds durch Vergleichen von Bildsignalen in verschiedenen Rahmen, die durch das Abbildungselement erhalten werden; Erhalten eines Vergleichsresultats durch Vergleichen einer Position des erfassten Gegenstandsbilds mit einer Zielposition in einem Abbildungsbereich; und Reduzieren einer Bewegung der Position des Gegenstandsbilds in dem Abbildungsbereich durch Bewegen des Gegenstandsbilds auf der Basis des Bewegungsvektors und des Vergleichsresultats.
  17. Programm, das verursacht, dass die Abbildungseinrichtung ein Verfahren nach Anspruch 16 durchführt, wenn es auf der Abbildungseinrichtung implementiert ist.
DE102016120954.6A 2015-11-05 2016-11-03 Abbildungseinrichtung und Abbildungsverfahren Withdrawn DE102016120954A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015217363A JP6727791B2 (ja) 2015-11-05 2015-11-05 追尾制御装置および追尾制御方法、撮像装置
JP2015-217363 2015-11-05

Publications (1)

Publication Number Publication Date
DE102016120954A1 true DE102016120954A1 (de) 2017-05-11

Family

ID=58584980

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120954.6A Withdrawn DE102016120954A1 (de) 2015-11-05 2016-11-03 Abbildungseinrichtung und Abbildungsverfahren

Country Status (5)

Country Link
US (1) US10277809B2 (de)
JP (1) JP6727791B2 (de)
CN (1) CN106954007B (de)
DE (1) DE102016120954A1 (de)
GB (1) GB2545551B (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016103746A1 (ja) * 2014-12-25 2016-06-30 オリンパス株式会社 撮像装置
US10171739B2 (en) * 2016-03-02 2019-01-01 Panasonic Intellectual Property Management Co., Ltd. Image pickup device
JP6700872B2 (ja) * 2016-03-07 2020-05-27 キヤノン株式会社 像振れ補正装置及びその制御方法、撮像装置、プログラム、記憶媒体
JP6815747B2 (ja) * 2016-05-02 2021-01-20 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法、プログラム、および、記憶媒体
US10863079B2 (en) * 2017-07-13 2020-12-08 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
JP2019062340A (ja) * 2017-09-26 2019-04-18 キヤノン株式会社 像振れ補正装置および制御方法
JP6995561B2 (ja) * 2017-10-23 2022-01-14 キヤノン株式会社 像ブレ補正装置およびその制御方法、撮像装置
JP7129201B2 (ja) * 2018-04-18 2022-09-01 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2020031458A1 (ja) * 2018-08-06 2020-02-13 ソニー株式会社 撮像制御装置、撮像制御方法、プログラム
JP7197785B2 (ja) * 2019-01-28 2022-12-28 日本電信電話株式会社 映像処理装置、映像処理方法、及び映像処理プログラム
JP7242320B2 (ja) 2019-01-31 2023-03-20 キヤノン株式会社 撮像装置、制御方法およびプログラム
WO2020174911A1 (ja) * 2019-02-28 2020-09-03 富士フイルム株式会社 画像表示装置、画像表示方法、及びプログラム
KR20210092620A (ko) * 2020-01-16 2021-07-26 삼성전자주식회사 카메라 이동 제어 방법 및 장치
US11228702B1 (en) * 2021-04-23 2022-01-18 Gopro, Inc. Stabilization of face in video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093362A (ja) 2008-10-03 2010-04-22 Nikon Corp 撮像装置および光学装置
JP2015217363A (ja) 2014-05-20 2015-12-07 カルソニックカンセイ株式会社 金属製触媒担体の製造方法および金属製触媒担体の製造装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050128309A1 (en) * 2003-07-25 2005-06-16 Nikon Corporation Shooting lens having vibration reducing function and camera system for same
JP4201809B2 (ja) 2006-11-13 2008-12-24 三洋電機株式会社 手ぶれ補正装置及び方法並びに撮像装置
EA015071B1 (ru) * 2007-01-09 2011-04-29 Шарп Кабусики Кайся Устройство базовой станции, устройство мобильной станции, способ передачи управляющей информации, способ приема управляющей информации и программа
KR101023946B1 (ko) * 2007-11-02 2011-03-28 주식회사 코아로직 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법
JP4958756B2 (ja) * 2007-12-13 2012-06-20 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
JP2010114752A (ja) * 2008-11-07 2010-05-20 Canon Inc 撮像装置及び撮像方法及びプログラム
JP2011155582A (ja) * 2010-01-28 2011-08-11 Sanyo Electric Co Ltd 撮像装置
GB2487200A (en) * 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
JP5911201B2 (ja) * 2011-04-20 2016-04-27 キヤノン株式会社 カメラ装置の自動追尾制御装置及びそれを有する自動追尾カメラシステム
JP2013247508A (ja) * 2012-05-25 2013-12-09 Canon Inc 自動追尾カメラの制御装置及び該制御装置を有する自動追尾カメラ
JP5762587B2 (ja) * 2013-04-15 2015-08-12 キヤノン株式会社 画像処理装置および画像処理方法
JP6150655B2 (ja) 2013-08-01 2017-06-21 キヤノン株式会社 像振れ補正装置およびその制御方法、レンズ鏡筒、光学機器、並びに撮像装置
JP6257207B2 (ja) 2013-08-01 2018-01-10 キヤノン株式会社 像振れ補正装置およびその制御方法、レンズ鏡筒、並びに撮像装置
JP2015034879A (ja) 2013-08-08 2015-02-19 キヤノン株式会社 像振れ補正装置およびその制御方法、レンズ鏡筒、光学機器、並びに撮像装置
JP6335058B2 (ja) * 2013-09-24 2018-05-30 キヤノン株式会社 撮像装置及び撮像方法
JP6056774B2 (ja) * 2014-01-17 2017-01-11 ソニー株式会社 撮像装置と撮像方法およびプログラム。
JP6296824B2 (ja) * 2014-02-26 2018-03-20 キヤノン株式会社 撮像装置及びその制御方法
JP6395401B2 (ja) * 2014-03-11 2018-09-26 キヤノン株式会社 像振れ補正装置およびその制御方法、光学機器、撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010093362A (ja) 2008-10-03 2010-04-22 Nikon Corp 撮像装置および光学装置
JP2015217363A (ja) 2014-05-20 2015-12-07 カルソニックカンセイ株式会社 金属製触媒担体の製造方法および金属製触媒担体の製造装置

Also Published As

Publication number Publication date
JP2017092592A (ja) 2017-05-25
CN106954007A (zh) 2017-07-14
US10277809B2 (en) 2019-04-30
GB2545551B (en) 2018-02-21
JP6727791B2 (ja) 2020-07-22
GB2545551A (en) 2017-06-21
CN106954007B (zh) 2020-09-01
US20170134649A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
DE102016120954A1 (de) Abbildungseinrichtung und Abbildungsverfahren
DE10344058B4 (de) Vorrichtung und Verfahren zum Reduzieren von Bildunschärfe bei einer Digitalkamera
DE112008002819T5 (de) Autofokus-Bildsystem
DE60131759T2 (de) Bilderzeugungsvorrichtung und -verfahren
DE602005004299T2 (de) Digitales bilderfassungssystem mit mitteln zur bestimmung der kamerabewegungsunschärfefunktion
DE112013005334B4 (de) Superauflösung auf der Basis von optischer Bildstabilisierung
DE112016002229B4 (de) Bildverarbeitungsvorrichtung, bildaufnahmevorrichtung, bildverarbeitungsverfahren und speichermedium
DE60123534T2 (de) Gerät zum Verfolgen eines sich bewegenden Objekts
DE102017111203A1 (de) Videoverarbeitungsvorrichtung, videoverarbeitungsverfahren und programm
DE102014010152A1 (de) Automatikeffektverfahren für Fotografie und elektronische Vorrichtung
DE112015007146T5 (de) Vorrichtung und verfahren zur dreidimensionalen bildmessung
WO2012156462A2 (de) Verfahren zur erzeugung und auswertung eines bilds
DE102014204905A1 (de) Bildaufnahmevorrichtung und zugehöriges Steuerverfahren
DE102018101035A1 (de) Bildstabilisierungsvorrichtung und steuerverfahren dafür, bildaufnahmevorrichtung und speichermedium
DE112017004624B4 (de) Bildaufnahmevorrichtung und Bildaufnahmesteuerverfahren
DE102008018449A1 (de) Verfahren und Vorrichtung zum automatischen Fokussieren und Bildabtastsystem
DE102017113656A1 (de) Bildverarbeitungsvorrichtung, bildgebungsvorrichtung und bildverarbeitungsverfahren
CN108600638B (zh) 摄像机自动调焦系统及方法
DE102015110326A1 (de) Bildverarbeitungsvorrichtung, Verfahren zum Steuern derselben und Speichermedium
DE102018101904A1 (de) Bildaufnahmevorrichtung und Steuerverfahren für diese
US20120300035A1 (en) Electronic camera
CA2669580A1 (en) Focus assist system and method
DE102014223957A1 (de) Bildaufnahmevorrichtung und Steuerungsverfahren
DE102018107950A1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und bildaufnahmevorrichtung
DE102013201980B4 (de) Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R120 Application withdrawn or ip right abandoned